RU2716230C2 - Способ декодирования видеосигнала - Google Patents

Способ декодирования видеосигнала Download PDF

Info

Publication number
RU2716230C2
RU2716230C2 RU2016133566A RU2016133566A RU2716230C2 RU 2716230 C2 RU2716230 C2 RU 2716230C2 RU 2016133566 A RU2016133566 A RU 2016133566A RU 2016133566 A RU2016133566 A RU 2016133566A RU 2716230 C2 RU2716230 C2 RU 2716230C2
Authority
RU
Russia
Prior art keywords
block
prediction
correlated
information
image
Prior art date
Application number
RU2016133566A
Other languages
English (en)
Other versions
RU2016133566A (ru
RU2016133566A3 (ru
Inventor
Бэ Кын ЛЭЕ
Джэ Чхол КВОН
Джо Ёун КИМ
Original Assignee
Кт Корпорейшен
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020120039501A external-priority patent/KR101204026B1/ko
Application filed by Кт Корпорейшен filed Critical Кт Корпорейшен
Publication of RU2016133566A publication Critical patent/RU2016133566A/ru
Publication of RU2016133566A3 publication Critical patent/RU2016133566A3/ru
Application granted granted Critical
Publication of RU2716230C2 publication Critical patent/RU2716230C2/ru

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/40Tree coding, e.g. quadtree, octree

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Изобретение относится к вычислительной технике и может быть использовано для декодирования видеосигнала. Техническим результатом является уменьшение объема памяти, требующегося в ходе декодирования. Способ содержит получение соотнесенного опорного индекса из входного битового потока, при этом соотнесенный опорный индекс сообщают для идентификации соотнесенного изображения, относящегося к текущему блоку; определение соотнесенного изображения на основании соотнесенного опорного индекса; получение вектора движения временного предсказания текущего блока путем масштабирования вектора движения соотнесенного блока в соотнесенном изображении; формирование списка кандидатов в векторы движения, включающего вектор движения временного предсказания; получение блока предсказания путем выполнения межкадрового предсказания для текущего блока на основании сформированного списка кандидатов в векторы движения; и восстановление текущего блока с использованием блока предсказания и остаточного блока, соответствующего блоку предсказания. 3 з.п. ф-лы, 10 ил.

Description

Настоящая заявка выделена из заявки № 2013140661 на выдачу патента РФ на изобретение, поданной 06.09.2012, с испрашиванием приоритета по дате подачи первых заявок KR 10-2011-0091782 и KR 10-2012-0039501, поданных в патентное ведомство Кореи 09.09.2011 и 17.04.2012, соответственно.
Область техники, к которой относится изобретение
Настоящее изобретение относится к способу кодирования и декодирования видео, более конкретно, настоящее изобретение относится к способу декодирования видеосигнала.
Уровень техники
В последнее время в различных областях возрастает спрос на видео высокого качества с высоким разрешением, такое как HD-видео (видео высокой четкости) и UHD-видео (видео сверхвысокой четкости). Поскольку приходят к видеоданным с высоким разрешением и/или с высоким качеством, то объем видеоданных относительно возрастает по сравнению с существующими видеоданными, при этом, если видеоданные передаются через обычную проводную/беспроводную широкополосную сеть или сохраняются на существующей запоминающей среде, то затраты на передачу и хранение возрастают. Для решения этой задачи, которая возникает при переходе видеоданных к высокому разрешению и высокому качеству, могут быть использованы высокоэффективные технологии сжатия видео.
Разработан ряд схем, которые могут использоваться для сжатия видео, такие как схема межкадрового предсказания, которая предсказывает значения пикселей в текущем изображении, исходя из изображения до или после текущего изображения, схема внутрикадрового предсказания, которая предсказывает значения пикселей, содержащихся в текущем изображении, используя пиксельную информацию в текущем изображении, и схема энтропийного кодирования, которая назначает более короткие кодовые слова для значений, которые встречаются более часто, и назначает более длинные кодовые слова для значений, которые встречаются менее часто. Такие схемы сжатия видео могут использоваться для эффективного сжатия, передачи или сохранения видеоданных.
Сущность изобретения
Техническая задача
Целью настоящего изобретения является обеспечение способа декодирования видеосигнала.
Техническое решение
Для достижения цели настоящего изобретения в соответствии с аспектом настоящего изобретения предлагается способ декодирования видеосигнала, содержащий получение соотнесенного опорного индекса из входного битового потока, при этом соотнесенный опорный индекс сообщают для идентификации соотнесенного изображения, относящегося к текущему блоку; определение соотнесенного изображения на основании соотнесенного опорного индекса; получение вектора движения временного предсказания текущего блока путем масштабирования вектора движения соотнесенного блока в соотнесенном изображении; формирование списка кандидатов в векторы движения, включающего вектор движения временного предсказания; получение блока предсказания путем выполнения межкадрового предсказания для текущего блока на основании сформированного списка кандидатов в векторы движения; и восстановление текущего блока с использованием блока предсказания и остаточного блока, соответствующего блоку предсказания.
В указанном аспекте изобретения вектор движения соотнесенного блока может быть масштабирован на основании временного расстояния между текущим изображением, содержащим текущий блок, и опорным изображением текущего блока.
В указанном аспекте изобретения вектор движения соотнесенного блока может быть масштабирован на основании временного расстояния между соотнесенным изображением и опорным изображением соотнесенного блока.
В указанном аспекте изобретения вектор движения соотнесенного блока может быть масштабирован на основании и первого временного расстояния, и второго временного расстояния, при этом первое временное расстояние представляет собой временное расстояние между текущим изображением, содержащим текущий блок, и опорным изображением текущего блока, а второе временное расстояние представляет собой временное расстояние между соотнесенным изображением и опорным изображением соотнесенного блока.
Предпочтительные результаты
Применение предлагаемого способа декодирования видеосигнала, как было раскрыто выше, позволяет уменьшить объем памяти, требующийся в ходе декодирования, и минимизировать сложность реализации.
Краткое описание чертежей
На фиг. 1 показана блок-схема, иллюстрирующая устройство кодирования видео в соответствии с вариантом реализации настоящего изобретения.
На фиг. 2 показана блок-схема, иллюстрирующая видеодекодер в соответствии с другим вариантом реализации настоящего изобретения.
На фиг. 3 представлен концептуальный вид, иллюстрирующий способ получения вектора движения временного предсказания в соответствии с вариантом реализации настоящего изобретения.
На фиг. 4 показана блок-схема алгоритма, иллюстрирующая способ получения вектора движения временного предсказания в соответствии с вариантом реализации настоящего изобретения.
На фиг. 5 представлен концептуальный вид, иллюстрирующий положение соотнесенного блока для получения вектора движения временного предсказания в соответствии с вариантом реализации настоящего изобретения.
На фиг. 6 представлен концептуальный вид, иллюстрирующий способ определения соотнесенного блока для получения вектора движения временного предсказания в соответствии с вариантом реализации настоящего изобретения.
На фиг. 7 представлен концептуальный вид, иллюстрирующий случай, когда целевой блок предсказания прилегает к нижней границе LCU в соответствии с вариантом реализации настоящего изобретения.
На фиг. 8 показана блок-схема алгоритма, иллюстрирующая способ межкадрового предсказания, использующий режим слияния в соответствии с вариантом реализации настоящего изобретения.
На фиг. 9 представлен концептуальный вид, иллюстрирующий положения пространственных кандидатов на слияние в соответствии с вариантом реализации настоящего изобретения.
На фиг. 10 показана блок-схема алгоритма, иллюстрирующая способ межкадрового предсказания, использующий AMVP в соответствии с вариантом реализации настоящего изобретения.
Реализация изобретения
Для настоящего изобретения могут быть выполнены различные модификации, и настоящее изобретение может иметь несколько вариантов реализации. Частные примеры вариантов реализации раскрываются подробно со ссылкой на чертежи. Однако настоящее изобретение не ограничено частными вариантами реализации, и следует понимать, что настоящее изобретение включает в себя все модификации, эквиваленты или замены, входящие в объем и сущность настоящего изобретения. При пояснении чертежей для одинаковых элементов могут использоваться одинаковые номера.
Для описания различных элементов (или признаков) могут быть использованы термины «первый» и «второй». Однако эти элементы не ограничиваются этим. Эти термины используются только для отличия одного элемента от другого. Например, первый элемент может быть обозначен вторым элементом, а второй элемент может быть аналогично назван первым. Термин «и/или» включает в себя комбинацию множества соответствующих элементов, как здесь описано, или любой элемент из множества соответствующих элементов.
Если указано, что элемент (или признак) «подключен» или «присоединен» к другому элементу, то данный элемент может быть непосредственно присоединен или подключен к другому элементу. Напротив, если признак или элемент «непосредственно подключен или присоединен» к другому элементу, то промежуточные элементы отсутствуют.
Используемые здесь термины приведены для раскрытия вариантов реализации и не предназначены для ограничения настоящего изобретения. Единственная форма термина также включает в себя и множественную форму, если явно не указывается противоположное. Применяемые здесь термины «содержит» или «включает в себя», и т.п. служат для указания того, что имеются описываемые признаки, целые числа, шаги, операции, элементы, компоненты, части или их комбинации, но они не исключают наличие или возможность добавления одного или более признаков, целых чисел, шагов, операций, элементов, компонентов, частей или их комбинаций.
Далее подробно раскрываются предпочтительные варианты реализации настоящего изобретения со ссылкой на сопровождающие чертежи. Одинаковые числовые обозначения на чертежах относятся к одинаковым элементам, а описание одинаковых элементов не повторяется.
На фиг. 1 показана блок-схема, иллюстрирующая устройство кодирования видео в соответствии с вариантом реализации настоящего изобретения.
Согласно фиг. 1, устройство 100 кодирования видео может включать в себя модуль 110 разделения изображения, модуль 120 межкадрового предсказания, модуль 125 внутрикадрового предсказания, модуль 130 преобразования, модуль 135 квантования, модуль 160 переупорядочивания, модуль 165 энтропийного кодирования, модуль 140 расквантования, модуль 145 обратного преобразования, модуль 150 фильтрации и память 155.
Каждый модуль на фиг. 1 показан независимо для отображения отличающихся друг от друга функций устройства кодирования видео, но это не означает, что каждый модуль выполнен в виде отдельного аппаратного или программного модульного (компонентного) блока. То есть, для удобства описания, модули показаны как выполненные независимо, и по меньшей мере два из этих модулей могут быть объединены в один модуль, или один из модулей может быть разделен на множество модулей для реализации функций. Варианты реализации с комбинированием модулей или варианты реализации с разделением модулей также входят в объем настоящего изобретения без отступления от сущности настоящего изобретения.
Кроме того, некоторые из модулей могут не быть обязательными модулями для реализации существенной функции в настоящем изобретении, а быть лишь опциональными модулями для улучшения рабочих характеристик. Настоящее изобретение может включать в себя только обязательные модули, необходимые для реализации сущности настоящего изобретения, исключая модули, используемые лишь для улучшения рабочих характеристик, и эта конфигурация также входит в объем настоящего изобретения.
Модуль 110 разделения изображения может разделять входное изображение на по меньшей мере один блок обработки. При этом блок обработки может быть блоком предсказания (PU), блоком преобразования (TU) или кодовым блоком (CU). Модуль 110 разделения изображения может кодировать изображение путем разделения одного изображения на комбинацию из множества кодовых блоков, блоков предсказания и блоков преобразования, при этом комбинация одного кодового блока, блока предсказания и блока преобразования может быть выбрана в соответствии с заданным стандартом (или критерием), например, стоимостной функцией, и может быть закодирована.
Например, одно изображение может быть разделено на множество кодовых блоков. Для разделения изображения на кодовые блоки может использоваться рекурсивная древовидная структура, такая как счетверенная древовидная структура. С изображением или наибольшим кодовым блоком в качестве корневого, кодовый блок может быть разделен на другие кодовые блоки, при этом число младших узлов равно количеству разделенных кодовых блоков. Кодовый блок, который далее не разделяется в соответствии с заданным ограничением, считается листовым узлом. Другими словами, если подразумевается, что для кодового блока доступно только квадратное разделение, то данный кодовый блок может быть разделен максимум на четыре других кодовых блока.
Далее в вариантах реализации настоящего изобретения кодовый блок может означать блок, в котором выполняют как кодирование, так и декодирование.
Блок предсказания может быть разделен с формой по меньшей мере одного квадрата или прямоугольника, имеющего одинаковый размер с кодовым блоком.
При формировании блока предсказания, в котором выполняется внутрикадровое предсказание на основании кодового блока, если данный кодовый блок не является наименьшим кодовым блоком, то внутрикадровое предсказание может выполняться без разделения блока предсказания на множество блоков предсказания NxN.
Модуль предсказания может включать в себя модуль 120 межкадрового предсказания для выполнения межкадрового предсказания и модуль 125 внутрикадрового предсказания для выполнения внутрикадрового предсказания. В отношении блока предсказания можно определить, следует ли выполнять межкадровое предсказание или внутрикадровое предсказание, и в соответствии с каждым способом предсказания можно определить конкретную информацию (например, режим внутрикадрового предсказания, вектор движения, опорное изображение и т.д.). В то же время блок обработки для выполнения предсказания может отличаться от блока обработки для определения способа предсказания и его конкретных деталей. Например, способ предсказания и режим предсказания могут быть определены блоком предсказания, а осуществление предсказания может быть выполнено в блоке преобразования. Остаточное значение (остаточный блок) между сформированным блоком предсказания и исходным блоком может подаваться в модуль 130 преобразования. Далее информация режима предсказания и информация вектора движения и т.д., используемые для предсказания, также могут кодироваться в модуле 165 энтропийного кодирования вместе с остаточным значением и затем могут быть переданы в устройство декодирования. Если используется конкретный режим кодирования, а не формируется блок предсказания с помощью модулей 120, 125 предсказания, то исходный блок, как он есть, может быть закодирован и передан в устройство декодирования.
Модуль межкадрового предсказания может предсказывать блок предсказания на основании информации по меньшей мере одного изображения из изображений до текущего изображения или изображений после текущего изображения. Модуль межкадрового предсказания может включать в себя модуль интерполяции опорного изображения, модуль предсказания движения и модуль компенсации движения.
Модуль интерполяции опорного изображения может принимать информацию опорного изображения из памяти 155 и может формировать пиксельную информацию в блоке, меньшем, чем блок целочисленных пикселей в опорном изображении. В случае пикселей яркости может использоваться 8-выводной интерполяционный фильтр на основе DCT с различными коэффициентами фильтрации для каждого вывода для формирования пиксельной информации в блоке, меньшем, чем блок целочисленных пикселей, блоком в 1/4 пикселя. В случае цветного сигнала может использоваться 4-выводной интерполяционный фильтр на основе DCT с различными коэффициентами фильтрации для каждого вывода для формирования пиксельной информации в блоке, меньшем, чем блок целочисленных пикселей, блоком в 1/8 пикселя.
Модуль предсказания движения может осуществлять предсказание движения на основании опорного изображения, интерполированного модулем интерполяции опорного изображения. Для получения вектора движения могут использоваться различные способы, такие как FBMA (от англ. «Full search-based Block Matching Algorithm» - алгоритм поиска совпадающих блоков на основании полного поиска), TSS (от англ. «Three Step Search» - трехшаговый поиск) или NTS (от англ. «New Three-Step Search Algorithm» - новый алгоритм трехшагового поиска) и т.п. Вектор движения может иметь значение вектора движения в блоке 1/2 пикселя или в блоке 1/4 пикселя на основании интерполированного пикселя. Модуль предсказания движения может предсказывать текущий блок предсказания путем применения различных способов предсказания движения. В качестве способа предсказания могут использоваться различные способы, такие как способ пропуска, способ слияния или способ AMVP (от англ. «Аdvanced Motion Vector Prediction» - усовершенствованное предсказание вектора движения).
В соответствии с примерным вариантом реализации настоящего изобретения, модуль межкадрового предсказания может определять, прилегает ли граница целевого блока предсказания к границе LCU (наибольшего кодового блока), а также может определять, доступен ли первый соотнесенный (или сорасположенный или совмещенный) блок в соответствии с определением того, прилегает ли граница целевого блока предсказания к границе LCU. Например, если первый соотнесенный блок недоступен, то второй соотнесенный блок может быть определен как соотнесенный блок для получения вектора движения временного предсказания. Или, если первый соотнесенный блок недоступен, то положение первого соотнесенного блока может быть изменено, и первый соотнесенный блок с измененным положением может быть определен как соотнесенный блок для получения вектора движения временного предсказания.
Далее, модуль межкадрового предсказания может включать в себя модуль предсказания, который определяет индекс опорного изображения соотнесенного блока целевого блока предсказания и определяет вектор движения временного предсказания соотнесенного блока. Соотнесенный блок может адаптивно определяться в соответствии с положением целевого блока предсказания в LCU (наибольшем кодовом блоке). Далее подробно
раскрывается работа модуля предсказания в соответствии с настоящим изобретением.
Модуль межкадрового предсказания может формировать блок предсказания на основании информации об опорных пикселях, соседних с текущим блоком, которая является пиксельной информацией о пикселях в текущем изображении. Если блок, соседний для текущего блока предсказания, является блоком, к которому применяется межкадровое предсказание и, таким образом, опорный пиксель является пикселем из межкадрового предсказания, то опорный пиксель, входящий в блок, к которому применяется межкадровое предсказание, может быть заменен c использованием информации опорного пикселя блока, к которому применяется внутрикадровое предсказание. То есть, если опорный пиксель недоступен, то информация недоступного опорного пикселя может быть заменена, по меньшей мере, одним из доступных опорных пикселей.
Что касается внутрикадрового предсказания, то режимы предсказания могут включать в себя режим направленного предсказания, в котором используют информацию об опорных пикселях в соответствии с направлением предсказания, и режим ненаправленного предсказания, в котором не используется информация о направлении при осуществлении предсказания. Режим для предсказания информации о яркости может отличаться от режима предсказания информации о цвете. Кроме того, информация о режиме внутрикадрового предсказания, в котором предсказана информация о яркости, или информация о предсказанном сигнале яркости может использоваться для предсказания информации цветности.
При выполнении внутрикадрового предсказания, если размер блока предсказания такой же, как размер блока преобразования, то внутрикадровое предсказание выполняется на основании пикселей, находящихся с левой стороны блока предсказания, пикселей, находящихся вверху слева блока предсказания, и пикселей, находящихся вверху блока предсказания. Однако, при выполнении внутрикадрового предсказания, если размер блока предсказания отличается от размера блока преобразования, то внутрикадровое предсказание может выполняться с использованием опорных пикселей, основанных на блоке преобразования. Кроме того, только для наименьшего кодового блока может выполняться внутрикадровое предсказание с использованием разделения NxN.
В способе внутрикадрового предсказания блок предсказания может формироваться после применения фильтра внутрикадрового сглаживания, зависящего от режима, (MDIS-фильтра) к опорным пикселям в соответствии с режимом предсказания. К опорным пикселям могут применяться различные типы MDIS-фильтров. Для реализации способа внутрикадрового предсказания режим внутрикадрового предсказания текущего блока предсказания может предсказываться из режима внутрикадрового предсказания блока предсказания, соседнего для текущего блока предсказания. В случае, когда режим предсказания текущего блока предсказания предсказан с использованием информации о режиме, предсказанной из соседнего блока предсказания, если режим внутрикадрового предсказания текущего блока предсказания совпадает с режимом внутрикадрового предсказания соседнего блока предсказания, то для передачи информации, указывающей на то, что текущий блок предсказания идентичен в режиме предсказания с соседним блоком предсказания, может использоваться заданная флаговая информация. И если режим предсказания текущего блока предсказания отличается от режима предсказания соседнего блока предсказания, то для кодирования информации о режиме предсказания текущего блока может применяться энтропийное кодирование.
Кроме того, можно получить остаточный блок, включающий в себя информацию об остаточном значении, которое представляет собой разность между исходным блоком блока предсказания и блоком предсказания, по
которому осуществляется предсказание на основании блока предсказания, сформированного в модуле 120, 125 предсказания. Полученный остаточный блок может быть подан в модуль 130 преобразования. Модуль 130 преобразования может преобразовать остаточный блок с использованием способа преобразования, такого как DCT (дискретное косинусное преобразование) или DST (дискретное синусное преобразование). Остаточный блок включает в себя информацию остатка между блоком предсказания, сформированным с помощью модулей 120, 125 предсказания, и исходным блоком. Что следует применять, DCT или DST, для преобразования остаточного блока, можно определить на основании информации режима внутрикадрового предсказания блока предсказания, используемого для формирования остаточного блока.
Модуль 135 квантования может квантовать значения, преобразованные в частотную область модулем 130 преобразования. В зависимости от блока или важности изображения параметр квантования может меняться. Значение, полученное в модуле 135 квантования, может подаваться в модуль 140 расквантования и модуль 160 переупорядочивания.
Модуль 160 переупорядочивания может осуществлять переупорядочивание коэффициентов для квантованных остаточных значений.
Модуль 160 переупорядочивания может изменять коэффициенты формы двумерного (2D) блока в форму одномерного вектора с помощью способа сканирования коэффициента. Например, модуль 160 переупорядочивания может использовать способ диагонального сканирования от DC-коэффициентов до высокочастотных коэффициентов, тем самым упорядочивая коэффициенты в форме 2D-блока в форму одномерного вектора. В зависимости от размера модуля преобразования и режима внутрикадрового предсказания, вместо способа диагонального сканирования может использоваться способ вертикального сканирования, в котором коэффициенты в форме 2D-блока сканируются вдоль столбца или метод горизонтального сканирования, коэффициенты в форме 2D-блока сканируются вдоль ряда. Другими словами, в зависимости от размера блока преобразования и режима внутрикадрового предсказания может использоваться одно из диагонального сканирования, вертикального сканирования и горизонтального сканирования.
Модуль 165 энтропийного кодирования может осуществлять энтропийное кодирование на основании значений, полученных из модуля 160 переупорядочивания. Для энтропийного кодирования могут использоваться различные способы кодирования, такие как, например, экспоненциальный код Голомба, CABAC (бинарное арифметическое кодирование, адаптивное к контексту).
Модуль 165 энтропийного кодирования может кодировать различную информацию, предоставляемую модулем 160 переупорядочивания и модулями 120, 125 предсказания, такую как информация об остаточных коэффициентах и информация о типе блока кодового блока, информация режима предсказания, информация блока разделения, информация блока предсказания и информация блока передачи, информация вектора движения, информация опорного кадра, информация интерполяции для блока, информация фильтрации и информация о размере LCU.
Модуль 165 энтропийного кодирования может осуществлять энтропийное кодирование значений коэффициентов кодового блока, как входящего из модуля 160 переупорядочивания, с использованием способа энтропийного кодирования, такого как САВАС.
Модуль 140 расквантования может осуществлять расквантование значений, квантованных модулем 135 квантования, а модуль 145 обратного преобразования может осуществлять обратное преобразование значений, преобразованных модулем 130 преобразования. Остаточное значение, формируемое модулем 140 расквантования и модулем 145 обратного преобразования, может добавляться к блоку предсказания, предсказанному с помощью модуля оценки движения, модуля компенсации движения и модуля внутрикадрового предсказания, входящих в модуль 120, 125 предсказания, тем самым формируя восстановленный блок.
Модуль 150 фильтрации может включать в себя по меньшей мере одно из фильтра деблокирования, модуля коррекции смещения и ALF (адаптивный фильтр с обратной связью).
Фильтр деблокирования может устранять блочное искажение, возникающее из-за границы блока в восстановленном (или реконструированном) изображении. Следует ли применять фильтр деблокирования к текущему блоку, можно определить с помощью пикселя, входящего в несколько столбцов или рядов, входящих в блоки. При применении деблокирующего фильтра к блоку, может применяться сильный фильтр или слабый фильтр в зависимости от требуемой силы фильтрации деблокирования. Кроме того, при применении деблокирующего фильтра к блоку, фильтрация горизонтального направления и фильтрация вертикального направления могут осуществляться параллельно.
Модуль коррекции смещения может корректировать смещение между исходным изображением и изображением с деблокированием в пиксельном блоке (или попиксельно). Чтобы выполнить коррекцию смещения для конкретного изображения, пиксели, имеющиеся в изображении, делят на заданное число областей, одну из которых затем выбирают для выполнения смещения, при этом может использоваться способ применения смещения к соответствующей области, или способ применения смещения с учетом краевой информации каждого пикселя.
ALF (адаптивный фильтр с обратной связью) может выполнять фильтрацию на основании значения, полученного сравнением фильтрованного восстановленного (или реконструированного) изображения, и исходного изображения. Пиксели, содержащиеся в изображении, делят на заданные группы, и затем определяют один фильтр, применяемый к соответствующей группе, выполняя, тем самым, фильтрацию для каждой группы дискриминационным образом. В отношении информации о том, следует ли применять ALF, сигнал яркости может передаваться для каждого кодового блока, а применяемый размер и коэффициент ALF могут различаться для каждого блока. ALF может иметь различные формы, а количество коэффициентов в данном фильтре может меняться соответственно. Информация, относящаяся к фильтрации такого ALF (информация о коэффициентах фильтра, информация о включении/выключении ALF или информация о форме фильтра) может передаваться, будучи включенной в заданный набор параметров битового потока.
Память 155 может сохранять восстановленный блок или изображение, формируемое с помощью модуля 150 фильтрации, а сохраненный восстановленный блок или изображение могут передаваться в модуль 120, 125 предсказания при выполнении межкадрового предсказания.
На фиг. 2 показана блок-схема, иллюстрирующая видеодекодер в соответствии с другим вариантом реализации настоящего изобретения.
Согласно фиг. 2, видеодекодер может включать в себя модуль 210 энтропийного декодирования, модуль 215 переупорядочивания, модуль 220 расквантования, модуль 225 обратного преобразования, модуль 230 и 235 предсказания, модуль 240 фильтрации и память 245.
Если битовый поток видео поступает из видеокодера, то данный входящий битовый поток может быть декодирован в процессе, обратном происходящему в видеокодере.
Модуль 210 энтропийного декодирования может осуществлять энтропийное декодирование в процессе, обратном энтропийному кодированию, выполняемому в модуле энтропийного кодирования видеокодера. Из фрагментов информации, декодируемой модулем 210 энтропийного декодирования, информация, используемая для получения блока предсказания, такая как информация о размере LCU или информация о размере блока, подается в модуль 230 и 235 предсказания, а остаточные значения, полученные с помощью энтропийного декодирования в модуле энтропийного декодирования, могут подаваться в модуль 215 переупорядочивания.
Модуль 210 энтропийного декодирования может декодировать информацию, относящуюся к внутрикадровому предсказанию и межкадровому предсказанию, выполняемым в кодере. Как было раскрыто выше, при наличии заданного ограничения, если видеокодер осуществляет внутрикадровое предсказание и межкадровое предсказание, то энтропийное декодирование осуществляется на основании такого ограничения, с получением при этом информации, относящейся к внутрикадровому предсказанию и межкадровому предсказанию для текущего блока.
Модуль 215 переупорядочивания может осуществлять переупорядочивание на основании способа, которым кодер переупорядочивает битовый поток, который энтропийно декодирован в модуле 210 энтропийного декодирования. Такое переупорядочивание может быть выполнено путем восстановления коэффициентов, представленных в форме одномерных векторов, в форму 2D-блока коэффициентов.
Модуль 220 расквантования может осуществлять расквантование на основании блока переупорядоченных коэффициентов и параметров квантования, полученных из кодера.
Модуль 225 обратного преобразования может осуществлять обратное DCT-преобразование и обратное DST-преобразование, по отношению к DCT- и DST-преобразованиям, выполненным модулем преобразования, над результатом квантования, выполненного видеокодером. Обратное преобразование может выполняться на основании блока преобразования, определенного видеокодером. Модуль преобразования видеокодера может выборочно осуществлять DCT- и DST-преобразования в зависимости от совокупности информации, такой как способ предсказания, размер текущего блока и направление предсказания, а модуль 225 обратного преобразования видеодекодера может осуществлять обратное преобразование на основании информации преобразования, выполненного в модуле преобразования видеокодера.
Модуль 230 и 235 предсказания может формировать блок предсказания на основании предварительно декодированного блока или предварительно декодированной информации изображения, полученных из памяти 245, и информации, относящейся к формированию блока предсказания, полученной из модуля 210 энтропийного декодирования.
Модуль 230 и 235 предсказания может включать в себя модуль определения блока предсказания, модуль межкадрового предсказания и модуль внутрикадрового предсказания. Модуль определения блока предсказания может принимать различную информацию, включая информацию о режиме предсказания в способе внутрикадрового предсказания, информацию, относящуюся к предсказанию движения в способе межкадрового предсказания и информацию блока предсказания, а также различную информацию, поступающую из модуля энтропийного декодирования. Модуль определения блока предсказания может выделять блок предсказания из текущего кодового блока, а также может определять, осуществляется межкадровое предсказание или осуществляется внутрикадровое предсказание для блока предсказания. Модуль межкадрового предсказания может осуществлять межкадровое предсказание для текущего блока предсказания в соответствии с информацией, содержащейся, по меньшей мере, в одном изображении из изображений до текущего изображения или изображений после текущего изображения. Модуль межкадрового предсказания может осуществлять межкадровое предсказание для текущего блока предсказания с использованием информации, необходимой для межкадрового предсказания текущего блока предсказания, полученного из видеокодера.
Для реализации межкадрового предсказания можно определить, какой режим из режима пропуска, режима слияния и режима AMVP является способом предсказания движения для блока предсказания, имеющегося в соответствующем кодовом блоке, на основании данного кодового блока.
В соответствии с вариантом реализации настоящего изобретения модуль межкадрового предсказания может определять, прилегает ли целевой блок предсказания к границе LCU (наибольшего кодового блока), а также может определять, доступен ли первый соотнесенный блок в соответствии с определением того, прилегает ли целевой блок предсказания к границе LCU. Например, если определено, что первый соотнесенный блок недоступен, то в качестве соотнесенного блока для получения вектора временного предсказания движения может быть определен второй соотнесенный блок, или, если первый соотнесенный блок недоступен, то положение первого соотнесенного блока может быть изменено так, что первый соотнесенный блок с измененным положением может быть определен как соотнесенный блок для получения вектора временного предсказания движения. Кроме того, модуль межкадрового предсказания может включать в себя модуль предсказания, который определяет индекс опорного изображения соотнесенного блока целевого блока предсказания, а также определяет вектор предсказания движения соотнесенного блока. Соотнесенный блок может адаптивно определяться в соответствии с местоположением целевого блока предсказания в LCU (наибольшем кодовом блоке). Далее подробно описывается работа модуля предсказания в соответствии с настоящим изобретением.
Модуль внутрикадрового предсказания может формировать блок предсказания на основании пиксельной информации в текущем изображении. Если блок предсказания является блоком, к которому применяется внутрикадровое предсказание, то внутрикадровое предсказание может осуществляться на основании информации режима внутрикадрового предсказания блока предсказания, полученного из видеокодера. Модуль внутрикадрового предсказания может включать в себя MDIS-фильтр, модуль интерполяции опорного пикселя и DC-фильтр. MDIS-фильтр осуществляет фильтрацию по опорному пикселю текущего блока. Для MDIS-фильтра можно определить, применять ли фильтр, в соответствии с режимом предсказания текущего блока предсказания. Фильтрация по опорному пикселю текущего блока может осуществляться с использованием информации МDIS-фильтра и режима предсказания блока предсказания, полученных из видеокодера. Если режим предсказания текущего блока является режимом, который не осуществляет фильтрацию, то MDIS-фильтр может не применяться.
Если режим предсказания блока предсказания является режимом предсказания, в котором межкадровое предсказание осуществляется на основании пиксельных значений, полученных интерполяцией опорного пикселя, то путем интерполяции опорных пикселей можно определить опорный пиксель в блоке, меньшем, чем целое значение пикселя. Если режим предсказания текущего блока предсказания является режимом предсказания, в котором блок предсказания формируют без интерполяции опорного пикселя, то опорный пиксель можно не подвергать интерполяции. DC-фильтр может формировать блок предсказания посредством фильтрации, если режим предсказания текущего блока является DC-режимом.
Восстановленный блок или изображение могут быть поданы в модуль 240 фильтрации. Модуль 240 фильтрации может включать в себя фильтр деблокирования, модуль коррекции смещения и ALF.
Информация о том, применялся ли соответствующий блок или изображение с фильтром деблокирования, может подаваться из кодера видео (или изображения). Если был применен фильтр деблокирования, то из видеокодера может поступить информация о том, применяемый фильтр деблокирования является сильным фильтром или слабым фильтром. Фильтр деблокирования видеодекодера может получать относящуюся к фильтру деблокирования информацию из видеокодера, при этом может осуществляться деблокирующая фильтрация для соответствующего блока в видеодекодере. Аналогично видеокодеру, видеодекодер может сначала осуществлять вертикальную деблокирующую фильтрацию и горизонтальную деблокирующую фильтрацию. Перекрывающаяся область (области) могут подвергаться, по меньшей мере, одному из вертикального деблокирования и горизонтального деблокирования. В области, где вертикальная деблокирующая фильтрация и горизонтальная деблокирующая фильтрация перекрывают друг друга, может осуществляться либо вертикальная деблокирующая фильтрация, либо горизонтальная деблокирующая фильтрация, которая до этого могла не осуществляться для этой области. Такой процесс деблокирующей фильтрации обеспечивает возможность параллельной обработки деблокирующей фильтрации.
Модуль коррекции смещения может осуществлять коррекцию смещения для восстановленного изображения на основании типа коррекции смещения, применяемого к изображению в процессе кодирования, и информации о значении смещения в процессе кодирования.
ALF может осуществлять фильтрацию согласно сравнению между восстановленным изображением после фильтрации, и исходным изображением. ALF может осуществляться для кодового блока на основании информации о том, применяется ли ALF, и информации о коэффициентах ALF, полученных из кодера. Такая информация об ALF может быть обеспечена путем включения в набор конкретных параметров.
Память 245 может сохранять восстановленное изображение или восстановленный блок, чтобы использовать это в качестве опорного изображения или опорного блока, а также может подавать восстановленное изображение в отображающий модуль.
Как было раскрыто выше, хотя в варианте реализации настоящего изобретения для удобства описания используется термин «кодовый блок», кодовый блок также может использоваться как блок декодирования. Способ предсказания в соответствии с вариантом реализации настоящего изобретения, описываемый далее со ссылкой на фиг. 3-11, может осуществляться таким элементом, как модуль предсказания, показанный на фиг. 1 и 2.
На фиг. 3 представлен концептуальный вид, иллюстрирующий способ получения вектора движения временного предсказания в соответствии с вариантом реализации настоящего изобретения.
Согласно фиг. 3, вектор движения временного предсказания может быть получен на основании значения вектора движения соотнесенного блока (colPu) в соотнесенном изображении (colPic).
Соотнесенное изображение является изображением, содержащим соотнесенный блок для получения информации, относящейся к вектору движения временного предсказания, при выполнении способа межкадрового предсказания, такого как слияние или AMVP. Соотнесенный блок может быть определен как блок, содержащийся в соотнесенном изображении, при этом соотнесенный блок определяется на основании информации о местоположении целевого блока предсказания и имеет временную фазу, отличающуюся от целевого блока предсказания.
Для одного целевого блока предсказания может быть множество соотнесенных блоков. Информация, относящаяся к движению соотнесенного блока, имеющегося в соотнесенном изображении, может сохраняться как одно репрезентативное значение по отношению к предварительно заданному блоку. Например, по отношению к блоку с размером 16х16, информация, относящаяся к предсказанию движения (вектор движения, опорное изображение и т.п.) может быть определена и сохранена в качестве одного репрезентативного значения в блоке 16х16.
На фиг. 4 показана схема алгоритма, иллюстрирующая способ определения вектора движения временного предсказания в соответствии с вариантом реализации настоящего изобретения.
Далее в настоящем документе, способ получения вектора движения временного предсказания, который раскрывается ниже, может использоваться в способе межкадрового предсказания, таком как режим слияния или режим AMVP. Способ получения вектора движения временного предсказания может быть способом получения временного блока-кандидата (соотнесенного блока) для реализации режима слияния, способом получения временного блока-кандидата (соотнесенного блока) для реализации режима AMVP и способом получения вектора движения временного предсказания.
Далее в настоящем документе, в варианте реализации настоящего изобретения «соотнесенный блок» может определяться и использоваться в качестве термина, обозначающего временной блок-кандидат, используемый в режиме слияния и режиме AMVP.
Согласно фиг. 4, получают информацию соотнесенного изображения (шаг S400).
Информация о местоположения целевого блока предсказания, информация о размере целевого блока предсказания и информация индекса опорного изображения целевого блока предсказания может использоваться для получения информации соотнесенного изображения, информации соотнесенного блока и вектора движения временного предсказания.
В соответствии с вариантом реализации настоящего изобретения, информация соотнесенного изображения может быть получена на основании информации типа слайса (slice_type), информации списка опорных изображений (collocated_from_l0_flag) и информации индекса опорного изображения (collocated_ref_idx). При использовании информации списка опорных изображений (collocated_from_l0_flag), если информация списка опорных изображений (collocated_from_l0_flag) указывает 1, это означает, что соотнесенное изображение находится в первом списке опорных изображений (List 0), а если информация списка опорных изображений (collocated_from_l0_flag) указывает 0, это означает, что соотнесенное изображение находится во втором списке опорных изображений (List 1).
Например, если тип слайса - это В-слайс, и значение информации списка опорных изображений (collocated_from_l0_flag) равно 0, то соотнесенное изображение может быть определено как изображение, содержащееся во втором списке опорных изображений, а если типа слайса - это В-слайс, и значение информации списка опорных изображений (collocated_from_l0_flag) равно 1, или если тип слайса - это Р-слайс, то соотнесенное изображение может быть определено как изображение, входящее в первый список опорных изображений.
В случае способа межкадрового предсказания, использующего режим слияния, если удовлетворено заданное условие, то информация индекса опорного изображения соседнего блока в конкретном положении может быть определена в качестве информации для соотнесенного изображения, а если заданное условие не удовлетворено, то предыдущее изображение для текущего изображения может быть определено в качестве соотнесенного изображения.
Получают информацию соотнесенного блока (шаг S410).
Информацию для соотнесенного блока можно получить различным образом в зависимости от того, прилегает ли часть (или участок) целевого блока предсказания к границе LCU (наибольшего кодового блока). Далее в настоящем документе со ссылкой на фиг. 5-9 раскрывается способ определения соотнесенного блока в зависимости от положения целевого блока предсказания и границы LCU.
На фиг. 5 показан концептуальный вид, иллюстрирующий местоположение соотнесенного блока для получения временного вектора движения в соответствии с вариантом реализации настоящего изобретения.
Согласно фиг. 5, в качестве соотнесенных блоков для получения временного вектора движения могут использоваться блоки в различных положениях по отношению к целевому блоку предсказания. Соотнесенные блоки, которые могут использоваться для получения временного вектора движения, могут классифицироваться в зависимости от местоположений следующим образом.
Если точка, находящаяся слева-сверху целевого блока предсказания, равна (xP, yP), ширина целевого блока предсказания равна nPSW, а высота целевого блока предсказания равна nPSH, то первый соотнесенный блок 500 может быть блоком, содержащим точку (xP+nPSW, yP+nPSH) в соотнесенном
изображении, второй соотнесенный блок 510 может быть блоком, содержащим точку (xP+nPSW-MinPuSize, yP+nPSH) в соотнесенном изображении, третий соотнесенный блок 520 может быть блоком, содержащим точку (xP+nPSW, yP+nPSH-MinPuSize) в соотнесенном изображении, четвертый соотнесенный блок 530 может быть блоком, содержащим точку (xP+nPSW-1, yP+nPSH-1) в соотнесенном изображении, пятый соотнесенный блок 540 может быть блоком, содержащим точку (xP+(nPSW>>1), yP+(nPSH>>1)) в соотнесенном изображении и шестой соотнесенный блок 550 может быть блоком, содержащим точку (xP+(nPSW>>1)-1, yP+(nPSH>>1)-1) в соотнесенном изображении.
Соотнесенный блок может адаптивно определяться в соответствии с положением текущего блока предсказания, расположенного в LCU. Позиционное соотношение между целевым блоком предсказания и границей LCU можно классифицировать на следующие случаи: 1) когда нижний край и правая сторона целевого блока предсказания не прилегают к границе LCU, 2) когда только нижний край целевого блока предсказания прилегает к границе LCU, 3) когда и правая сторона, и нижний край целевого блока предсказания прилегают к границе LCU, и 4) когда только правая сторона целевого блока предсказания прилегает к границе LCU.
В соответствии с вариантом реализации настоящего изобретения, соотнесенный блок может адаптивно определяться различным образом в зависимости от положения целевого блока предсказания в LCU.
1) Если нижний край и правая сторона целевого блока предсказания не прилегают к границе LCU, то первый соотнесенный блок и пятый соотнесенный блок могут последовательно использоваться в качестве соотнесенного блока с проверкой доступности, для того чтобы получить временной вектор движения.
2) Если только нижний край целевого блока предсказания прилегает к границе LCU, то третий соотнесенный блок и пятый соотнесенный блок могут последовательно использоваться в качестве соотнесенного блока с проверкой доступности, для того чтобы получить временной вектор движения.
3) Если и правая сторона, и нижний край целевого блока предсказания прилегают к границе LCU, то четвертый соотнесенный блок и пятый соотнесенный блок могут последовательно использоваться в качестве соотнесенного блока с проверкой доступности, для того чтобы получить временной вектор движения.
4) Если только правая сторона целевого блока предсказания прилегает к границе LCU, то второй соотнесенный блок и пятый соотнесенный блок могут последовательно использоваться в качестве соотнесенного блока с проверкой доступности, для того чтобы получить временной вектор движения.
То есть, в соответствии с вариантом реализации настоящего изобретения, временной блок-кандидат можно адаптивно определить в зависимости от местоположения текущего блока в LCU. Положения пикселей для указания временного блока-кандидата в случае, если нижняя граница текущего блока прилегает к границе LCU, могут отличаться от положений пикселей для указания временного блока-кандидата в случае, если нижняя граница текущего блока не прилегает к границе LCU. При этом положения пикселей для указания временного блока-кандидата для случая, когда нижняя граница текущего блока прилегает к границе LCU, могут отличаться от положений пикселей для указания временного блока-кандидата для случая, когда только правая граница текущего блока прилегает к границе LCU.
В соответствии с другим вариантом реализации настоящего изобретения может использоваться способ, в котором соотнесенный блок может определяться (или выбираться) адаптивно и иначе в зависимости от положения целевого блока предсказания в LCU так, чтобы соотнесенный блок и целевой блок предсказания находились в том же самом LCU, или соотнесенный блок может не использоваться, если соотнесенный блок и целевой блок предсказания не находятся в одном и том же LCU.
На фиг. 6 представлен концептуальный вид, иллюстрирующий способ определения соотнесенного блока для получения вектора предсказания движения в соответствии с вариантом реализации настоящего изобретения.
Согласно фиг. 6, могут быть известны положения соотнесенных блоков совокупности блоков предсказания, находящихся в LCU.
В случае PU0, PU1, PU2 и PU5, блоки предсказания являются блоками предсказания внутри LCU, и первый соотнесенный блок может первым использоваться в качестве соотнесенного блока для получения временнóго вектора движения.
В случае PU4 и PU7, границы блоков предсказания прилегают только к нижней границе LCU, и в качестве соотнесенного блока для получения временного вектора движения сначала может использоваться третий соотнесенный блок.
В случае PU8, граница блока предсказания прилегает как к нижней границе, так и к правой границе LCU, и в качестве соотнесенного блока для получения временного вектора движения сначала может использоваться четвертый соотнесенный блок.
В случае PU3 и PU6, границы блоков предсказания прилегают только к правой границе LCU, и в качестве соотнесенного блока для получения временного вектора движения сначала может использоваться второй соотнесенный блок.
То есть, как было раскрыто выше, временной блок-кандидат адаптивно определяется в зависимости от местоположения текущего блока в LCU, а положения пикселей для указания временного блока-кандидата в случаях, когда нижняя граница текущего блока прилегает к границе LCU (случаи PU4, PU7 и PU8), и в случаях, когда нижняя граница текущего блока не прилегает к границе LCU (случаи PU0, PU1, PU2, PU3, PU5 и PU6), отличаются друг от друга. Кроме того, положения пикселей для указания временного блока-кандидата могут отличаться в случаях, когда нижняя граница текущего блока прилегает к границе LCU (случаи PU4, PU7 и PU8), и в случаях, когда только правая граница текущего блока прилегает к границе LCU (случаи PU3 и PU6).
В соответствии с другим вариантом реализации настоящего изобретения, до тех пор, пока соотнесенный блок находится в том же LCU, что и целевой блок предсказания, соотнесенный блок адаптивно и иначе определяется в зависимости от положения целевого блока предсказания в LCU. Если конкретный соотнесенный блок не находится в том же LCU, что и целевой блок предсказания, то такой конкретный соотнесенный блок может быть недоступным. Например, если нижняя граница блока предсказания прилегает к нижней границе LCU подобно PU4, PU7 и PU8, то первый соотнесенный блок может быть отмечен (или указан) как недоступный, и вместо него может использоваться пятый соотнесенный блок в качестве соотнесенного блока для определения временного вектора движения.
Как таковой, в качестве способа определения соотнесенного блока может быть использован способ, в котором, классифицируя характеристики целевого блока предсказания, как было раскрыто выше, в зависимости от положения целевого блока предсказания и границы LCU, выбирают блок для использования в качестве соотнесенного блока в зависимости от классифицированного положения целевого блока предсказания. Предпочтительно, подразумевается, что первый соотнесенный блок и пятый соотнесенный блок могут последовательно использоваться в качестве соотнесенного блока для получения временного вектора движения. После проверки доступности первого соотнесенного блока (например, прилегает ли нижняя граница целевого блока предсказания к LCU) соотнесенный блок, отличающийся от первого соотнесенного блока, может быть определен как соотнесенный блок для получения временного вектора движения. Например, если первый соотнесенный блок определен как недоступный посредством шагов определения того, прилегает ли целевой блок предсказания к границе LCU (наибольшего кодового блока), то соотнесенный блок для получения временного вектора движения может быть изменен на другой соотнесенный блок (например, третий соотнесенный блок), или же может использоваться непосредственно пятый соотнесенный блок без использования первого соотнесенного блока.
В частности, вышеуказанный способ может осуществляться посредством следующих шагов:
1) Шаг определения, прилегает ли граница целевого блока предсказания к границе LCU (наибольший кодовый блок),
2) Шаг определения, доступен ли первый соотнесенный блок, в зависимости о того, прилегает ли граница целевого блока предсказания к границе LCU. В частности, на шаге 2), если нижняя граница целевого блока предсказания прилегает к границе LCU, то можно определить, что первый соотнесенный блок недоступен,
3) Шаг определения соотнесенного блока, отличающегося от первого соотнесенного блока, в качестве соотнесенного блока для получения вектора движения временного предсказания, если первый соотнесенный блок недоступен. В частности, на шаге 3) в случае, если нижняя граница целевого блока предсказания прилегает к границе LCU, и в случае, если правая граница целевого блока предсказания прилегает к границе LCU, в качестве соотнесенных блоков для получения временного вектора движения могут быть определены отличающиеся соотнесенные блоки для каждого отличающегося случая,
4) Шаг определения первого соотнесенного блока в качестве соотнесенного блока для получения вектора движения временного предсказания, если первый соотнесенный блок доступен, и определения доступности пятого соотнесенного блока, если первый соотнесенный блок недоступен.
Вышеуказанные шаги могут быть опциональными шагами, и соотношение последовательности шагов или способа определения может меняться без отступления от сущности настоящего изобретения.
На фиг. 7 показан концептуальный вид, иллюстрирующий случай, когда целевой блок предсказания прилегает к нижней границе LCU в соответствии с вариантом реализации настоящего изобретения.
Согласно фиг. 7, показан случай, когда местоположение соотнесенного блока изменяется, если целевой блок предсказания (PU, PU7 или PU8) расположен у нижней границы LCU. Если целевой блок предсказания (PU4, PU7 или PU8) расположен у нижней границы LCU, то местоположение соотнесенного блока может быть установлено так, что информация, относящаяся к предсказанию движения, может быть получена даже без поиска LCU, расположенного под текущим LCU, среди LCU-блоков. Например, вектор движения временного предсказания можно получить с использованием третьего соотнесенного блока, а не первого соотнесенного блока целевого блока предсказания. 1) если прилегает только правая граница LCU, то, в зависимости от доступности, первый соотнесенный блок и пятый соотнесенный блок последовательно определяются в качестве соотнесенного блока для получения вектора движения временного предсказания, 2) если прилегает нижняя граница LCU, то, в зависимости от доступности, в качестве соотнесенного блока для получения вектора движения временного предсказания могут быть последовательно определены третий соотнесенный блок и пятый соотнесенный блок. То есть, в соответствии с вариантом реализации настоящего изобретения, положения пикселей для указания временного блока-кандидата могут отличаться для случая, когда нижняя граница текущего блока прилегает к границе LCU, и для случая, когда нижняя граница текущего блока не прилегает к границе LCU.
Возвращаясь к фиг. 4, на основании соотнесенного блока, определенного с помощью способа, раскрытого выше применительно к фиг. 5-7, определяют вектор предсказания движения (mvLXCol) соотнесенного блока и информацию (availableFlagLXCol) о доступности соотнесенного блока (шаг S420).
Информация (availableFlagLXCol) доступности соотнесенного блока и вектор (mvLXCol) движения соотнесенного блока, которые следует использовать для межкадрового предсказания целевого блока предсказания на основании информации соотнесенного блока, определенной с помощью процедур, показанных на фиг. 5-7, могут быть получены следующим способом:
1) Если соотнесенный блок (colPu) закодирован на основании режима внутрикадрового предсказания, если соотнесенный блок (colPu) недоступен, если соотнесенное изображение (colPic) недоступно для предсказания вектора движения временного предсказания, или если межкадровое предсказание осуществляется без использования вектора движения временного предсказания, то вектор (mvLXCol) движения соотнесенного блока и информация (availableFlagLXCol) доступности соотнесенного блока могут быть заданы как 0.
2) В отличие от случая 1), информация (mvLXCol) вектора движения соотнесенного блока и информация (availableFlagLXCol) доступности соотнесенного блока могут быть получены с помощью флага (PredFlagL0) и флага (PredFlagL1), где флаг (PredFlagL0) указывает, используется или нет список L0, а флаг (PredFlagL1) указывает, используется или нет список L1.
Во-первых, если определено, что межкадровое предсказание выполнено по соотнесенному блоку без использования списка L0 (флаг (PredFlagL0) равен 0), то информация соотнесенного блока, относящаяся к предсказанию движения, такая как информация mvCol, информация refldxCol и информация listCol могут быть заданы как L1 и MvL1[xPCol][yPCol], RefIdxL1[xPCol][yPCol], которые являются информацией соотнесенного блока, относящейся к предсказанию движения, полученной с использованием списка L1, при этом информация (availableFlagLXCol) доступности соотнесенного блока может быть задана как 1.
В других случаях, если определено, что межкадровое предсказание выполнено по соотнесенному блоку с использованием списка L0 (флаг (PredFlagL0) равен 1), то информация соотнесенного блока, относящаяся к предсказанию движения, такая как информация mvCol, информация refldxCol и информация listCol может задаваться отдельно для случая, когда PredFlagL1 равен 0 и для случая, когда PredFlagL1 равен 1, и информация (availableFlagLXCol) доступности соотнесенного блока может быть установлена как 1.
Полученный mvLXCol масштабируют (шаг S430).
Для использования mvLXCol, полученного на шаге S420 в качестве вектора движения временного предсказания для целевого блока предсказания, полученное значение mvLXCol может масштабироваться на основании информации расстояния, относящейся к расстоянию между соотнесенным изображением, содержащим соотнесенный блок и опорным изображением соотнесенного блока, на которое ссылается соотнесенный блок, и к расстоянию между изображением, содержащим целевой блок предсказания, и опорным изображением, на которое ссылается целевой блок предсказания. После масштабирования полученного значения mvLXCol может быть получен вектор движения временного предсказания.
Далее в настоящем документе, в соответствии с вариантом реализации настоящего изобретения, раскрывается способ реализации межкадрового предсказания, такой как слияние и AMVP.
На фиг. 8 показана схема алгоритма, иллюстрирующая способ межкадрового предсказания, использующего режим слияния в соответствии с вариантом реализации настоящего изобретения.
Согласно фиг. 8, из пространственного кандидата на слияние может быть получена информация, относящаяся к предсказанию движения (шаг S1000).
Пространственный кандидат на слияние может быть получен из соседних блоков предсказания целевого блока предсказания. Для получения пространственного кандидата на слияние может быть получена информация о ширине и высоте блока предсказания, информация MER (области оценки движения), информация singleMCLFlag и информация о положении частей. На основании такой входной информации можно получить информацию (availableFlagN) доступности в соответствии с положением пространственного кандидата на слияние, информацию (refldxL0, refldxL1) опорного изображения, информацию (predFlagL0N, redFlagL1N) использования списка и информацию (mvL0N, mvL1N) вектора движения. Множество блоков, соседних для целевого блока предсказания, могут быть пространственными кандидатами на слияние.
На фиг. 9 показан концептуальный вид, иллюстрирующий положения пространственных кандидатов на слияния в соответствии с вариантом реализации настоящего изобретения.
Согласно фиг. 9, если положение точки вверху слева целевого блока предсказания равно (xP, yP), ширина целевого блока предсказания равна nPSW, а высота целевого блока предсказания равна nPSH, то пространственный кандидат на слияние может быть блоком A0, содержащим точку (xP-1, yP+nPSH), блоком A1, содержащим точку (xP-1, yP+nPSH-MinPuSize), блоком B0, содержащим точку (xP+nPSW, yP-1), блоком B1, содержащим точку (xP+nPSW-MinPuSize, yP-1) и блоком B2, содержащим точку (xP-MinPuSize, yP-1).
Вернемся к фиг. 8, где определяют значение индекса опорного изображения временного кандидата на слияние (шаг S1010).
Значение индекса опорного изображения временного кандидата на слияние как значение индекса соотнесенного изображения, содержащего временной кандидат на слияние (соотнесенный блок), может быть получено при следующих конкретных условиях. Данные условия являются произвольными и могут варьироваться. Например, в случае, когда положение точки сверху-слева целевого блока предсказания равно (xP, yP), ширина целевого блока предсказания равна nPSW и высота целевого блока предсказания равна nPSH, если 1) существует соседний блок предсказания целевого блока предсказания, соответствующий положению (xP-1, yP+nPSH-1) (далее обозначаемый как соседний блок предсказания для получения индекса опорного изображения), 2) значение индекса деления соседнего блока предсказания для определения индекса опорного изображения равно 0, 3) соседний блок предсказания для вывода индекса опорного изображения не является блоком, по которому осуществляется предсказание с использованием режима внутрикадрового предсказания, и 4) целевой блок предсказания и соседний блок предсказания для вывода индекса опорного изображения не принадлежат одной и той же MER (области оценки движения), то значение индекса опорного изображения временного кандидата на слияние может быть определено как то же самое значение, что
и значение индекса опорного изображения соседнего блока предсказания для получения индекса опорного изображения. Если эти условия не удовлетворяются, то значение индекса опорного изображения временного кандидата на слияние может быть задано равным 0.
Определяют временной блок-кандидат на слияние (соотнесенный блок), и из соотнесенного блока получают информацию, относящуюся к предсказанию движения (шаг S1020).
В соответствии с вариантом реализации настоящего изобретения, временной блок-кандидат на слияние (соотнесенный блок) может адаптивно определяться в зависимости от местоположения целевого блока предсказания в LCU так, чтобы соотнесенный блок находился в том же самом LCU, что и целевой блок предсказания.
1) Если нижний край и правая сторона целевого блока предсказания не прилегают к границе LCU, то при определении доступности в качестве соотнесенного блока для получения временного вектора движения могут последовательно использоваться первый соотнесенный блок и пятый соотнесенный блок.
2) Если только нижний край целевого блока предсказания прилегает к границе LCU, то при определении доступности в качестве соотнесенного блока для получения временного вектора движения могут последовательно использоваться третий соотнесенный блок и пятый соотнесенный блок.
3) Если и правая сторона, и нижний край целевого блока предсказания прилегают к границе LCU, то при определении доступности в качестве соотнесенного блока для получения временного вектора движения могут последовательно использоваться четвертый соотнесенный блок и пятый соотнесенный блок.
4) Если только правая сторона целевого блока предсказания прилегает к границе LCU, то при определении доступности в качестве соотнесенного блока для получения временного вектора движения могут последовательно использоваться второй соотнесенный блок и пятый соотнесенный блок.
В соответствии с вариантом реализации настоящего изобретения может использоваться способ, обеспечивающий возможность определять соотнесенный блок адаптивно и иначе, в зависимости от положения целевого блока предсказания в LCU, чтобы находиться в положении, находящемся в одном LCU вместе с целевым блоком предсказания, или соотнесенный блок, не находящийся в одном LCU вместе с целевым блоком предсказания, может не использоваться.
Как было раскрыто выше, в качестве способа получения соотнесенного блока может использоваться способ разделения характеристик целевого блока предсказания, как было раскрыто выше, в зависимости от положения целевого блока предсказания и границы LCU, и определения блока для немедленного использования в качестве соотнесенного блока в зависимости от положения выделенного целевого блока предсказания. Однако, первый соотнесенный блок и пятый соотнесенный блок могут сначала считаться последовательно используемыми в качестве соотнесенных блоков для получения временного вектора движения, при этом определяют, доступен ли первый соотнесенный блок (например, прилегает ли нижняя граница целевого блока предсказания к LCU), и затем в качестве соотнесенного блока для определения временного вектора движения может определяться соотнесенный блок, отличающийся от первого соотнесенного блока.
Конфигурируют список кандидатов на слияние (шаг S1030).
Список кандидатов на слияние может формироваться с включением в него, по меньшей мере, одного из пространственных кандидатов на слияние и временного кандидата на слияние. Пространственные кандидаты на слияние и временной кандидат на слияние, входящие в список кандидатов на слияние, можно упорядочить с заданным приоритетом.
Список кандидатов на слияние может быть созданным с входящим в него фиксированным числом кандидатов на слияние, и если число кандидатов на слияние меньше, чем данное фиксированное число, то информация, относящаяся к предсказанию движения и принадлежащая кандидатам на слияние, комбинируется для формирования кандидатов на слияние, или в качестве кандидатов на слияния формируются нулевые векторы, формируя, таким образом, список кандидатов на слияние.
На фиг. 10 показана схема алгоритма, иллюстрирующая способ межкадрового предсказания с использованием AMVP в соответствии с вариантом реализации настоящего изобретения.
Согласно фиг. 10, из пространственных блоков-кандидатов AMVP получают информацию, относящуюся к предсказанию движения (шаг S1200).
Для получения информации индекса опорного изображения и вектора предсказания движения целевого блока предсказания, пространственный блок(и)-кандидат(ы) AMVP можно определить из блоков предсказания, соседних для целевого блока предсказания.
Вернемся к фиг. 9, согласно которой в качестве первого пространственного блока-кандидата AMVP можно использовать один из блока А0 и блока А1, а в качестве второго пространственного блока-кандидата AMVP можно использовать один из блока В0, блока В1 и блока В2, определяя таким образом пространственные блоки-кандидаты AMVP.
Из временного блока-кандидата AMVP получают информацию, относящуюся к предсказанию движения (шаг S1210).
В соответствии с вариантом реализации настоящего изобретения, соотнесенный блок может адаптивно определяться в зависимости от местоположения целевого блока предсказания в LCU так, чтобы соотнесенный блок находился в том же самом LCU, что и целевой блок предсказания.
1) Если нижний край и правая сторона целевого блока предсказания не прилегают к границе LCU, то в качестве соотнесенного блока для получения временного вектора движения с проверкой доступности могут последовательно использоваться первый соотнесенный блок и пятый соотнесенный блок.
2) Если только нижний край целевого блока предсказания прилегает к границе LCU, то в качестве соотнесенного блока для получения временного вектора движения с проверкой доступности могут последовательно использоваться третий соотнесенный блок и пятый соотнесенный блок.
3) Если и правая сторона, и нижний край целевого блока предсказания прилегают к границе LCU, то в качестве соотнесенного блока для получения временного вектора движения с проверкой доступности могут последовательно использоваться четвертый соотнесенный блок и пятый соотнесенный блок.
4) Если только правая сторона целевого блока предсказания прилегает к границе LCU, то в качестве соотнесенного блока для получения временного вектора движения с проверкой доступности могут последовательно использоваться второй соотнесенный блок и пятый соотнесенный блок.
В соответствии с вариантом реализации настоящего изобретения, может применяться способ, в котором соотнесенный блок, не находящийся в том же самом LCU, что и целевой блок предсказания, может не использоваться, а также способ, в котором соотнесенный блок адаптивно определяется в зависимости от местоположения целевого блока предсказания в LCU, чтобы иметь местоположение, входящее в тот же самый LCU, что и целевой блок предсказания.
На шаге S1200 получения пространственных блоков-кандидатов AMVP, если первый пространственный блок-кандидат AMVP и второй пространственный блок-кандидат AMVP определены как доступные, и значения полученных векторов предсказания движения не одинаковы, то шаг S1210 получения вектора движения временного предсказания можно не выполнять.
Создают список кандидатов AMVP (шаг S1220).
Список кандидатов AMVP создается с использованием информации, относящейся к предсказанию движения, полученной при выполнении по меньшей мере одного из шагов S1200 и S1210. Если в созданном списке кандидатов AMVP имеется такая же информация, относящаяся к предсказанию движения, то в качестве значения кандидата AMVP может использоваться одно значение среди одинаковых информаций, относящихся к предсказанию движения. Информация, относящаяся к предсказанию движения, входящая в список кандидатов AMVP, может содержать только фиксированное число значений кандидатов.
Хотя в настоящем документе раскрыты данные варианты реализации настоящего изобретения, для специалиста в области техники, к которой относится изобретение, очевидно, что могут быть сделаны различные изменения и модификации настоящего изобретения без отступления от сущности и объема настоящего изобретения.

Claims (10)

1. Способ декодирования видеосигнала, содержащий:
получение соотнесенного опорного индекса из входного битового потока, при этом соотнесенный опорный индекс сообщают для идентификации соотнесенного изображения, относящегося к текущему блоку;
определение соотнесенного изображения на основании соотнесенного опорного индекса;
получение вектора движения временного предсказания текущего блока путем масштабирования вектора движения соотнесенного блока в соотнесенном изображении;
формирование списка кандидатов в векторы движения, включающего вектор движения временного предсказания;
получение блока предсказания путем выполнения межкадрового предсказания для текущего блока на основании сформированного списка кандидатов в векторы движения; и
восстановление текущего блока с использованием блока предсказания и остаточного блока, соответствующего блоку предсказания.
2. Способ по п. 1, отличающийся тем, что вектор движения соотнесенного блока масштабируют на основании временного расстояния между текущим изображением, содержащим текущий блок, и опорным изображением текущего блока.
3. Способ по п. 1, отличающийся тем, что вектор движения соотнесенного блока масштабируют на основании временного расстояния между соотнесенным изображением и опорным изображением соотнесенного блока.
4. Способ по п. 1, отличающийся тем, что вектор движения соотнесенного блока масштабируют на основании и первого временного расстояния, и второго временного расстояния, при этом первое временное расстояние представляет собой временное расстояние между текущим изображением, содержащим текущий блок, и опорным изображением текущего блока, а второе временное расстояние представляет собой временное расстояние между соотнесенным изображением и опорным изображением соотнесенного блока.
RU2016133566A 2011-09-09 2012-09-06 Способ декодирования видеосигнала RU2716230C2 (ru)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2011-0091782 2011-09-09
KR20110091782 2011-09-09
KR1020120039501A KR101204026B1 (ko) 2011-09-09 2012-04-17 시간적 예측 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치
KR10-2012-0039501 2012-04-17

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
RU2013140661/08A Division RU2600547C2 (ru) 2011-09-09 2012-09-06 Способ получения вектора движения с временным предсказанием и устройство, использующее этот способ

Publications (3)

Publication Number Publication Date
RU2016133566A RU2016133566A (ru) 2018-12-10
RU2016133566A3 RU2016133566A3 (ru) 2020-01-30
RU2716230C2 true RU2716230C2 (ru) 2020-03-06

Family

ID=47832709

Family Applications (10)

Application Number Title Priority Date Filing Date
RU2013140661/08A RU2600547C2 (ru) 2011-09-09 2012-09-06 Способ получения вектора движения с временным предсказанием и устройство, использующее этот способ
RU2016133580A RU2716229C2 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала
RU2016133485A RU2646384C1 (ru) 2011-09-09 2012-09-06 Способ и устройство декодирования видеосигнала
RU2016133546A RU2636118C1 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала
RU2016133536A RU2636117C1 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала
RU2016133501A RU2622849C1 (ru) 2011-09-09 2012-09-06 Способ и устройство декодирования видеосигнала
RU2016133566A RU2716230C2 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала
RU2016133579A RU2716563C2 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала
RU2016133481A RU2635235C1 (ru) 2011-09-09 2012-09-06 Способ и устройство декодирования видеосигнала
RU2016133570A RU2716231C2 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала

Family Applications Before (6)

Application Number Title Priority Date Filing Date
RU2013140661/08A RU2600547C2 (ru) 2011-09-09 2012-09-06 Способ получения вектора движения с временным предсказанием и устройство, использующее этот способ
RU2016133580A RU2716229C2 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала
RU2016133485A RU2646384C1 (ru) 2011-09-09 2012-09-06 Способ и устройство декодирования видеосигнала
RU2016133546A RU2636118C1 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала
RU2016133536A RU2636117C1 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала
RU2016133501A RU2622849C1 (ru) 2011-09-09 2012-09-06 Способ и устройство декодирования видеосигнала

Family Applications After (3)

Application Number Title Priority Date Filing Date
RU2016133579A RU2716563C2 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала
RU2016133481A RU2635235C1 (ru) 2011-09-09 2012-09-06 Способ и устройство декодирования видеосигнала
RU2016133570A RU2716231C2 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала

Country Status (14)

Country Link
US (4) US10523967B2 (ru)
EP (2) EP3179723B1 (ru)
JP (7) JP5745693B2 (ru)
CN (19) CN107396099B (ru)
AU (1) AU2012305071B2 (ru)
BR (1) BR112013022641B1 (ru)
CA (2) CA2829114C (ru)
ES (1) ES2487993B1 (ru)
GB (7) GB2562130B (ru)
MX (4) MX2013010155A (ru)
PL (1) PL231159B1 (ru)
RU (10) RU2600547C2 (ru)
SE (5) SE538057C2 (ru)
WO (1) WO2013036041A2 (ru)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2809701C1 (ru) * 2020-06-30 2023-12-14 Ханчжоу Хиквижн Диджитал Текнолоджи Ко., Лтд. Способ, оборудование и устройство для кодирования и декодирования

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10397599B2 (en) 2010-12-17 2019-08-27 Electronics And Telecommunications Research Institute Method and apparatus for inter prediction using motion vector candidate based on temporal motion prediction
EP3179723B1 (en) 2011-09-09 2023-01-25 KT Corporation Method for deriving a temporal predictive motion vector, and apparatus using the method
ES2705251B1 (es) * 2011-09-23 2020-01-29 Kt Corp Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
CN105453564B (zh) 2013-07-30 2019-05-10 株式会社Kt 支持多个层的图像编码和解码方法以及使用该方法的装置
WO2015016536A1 (ko) * 2013-07-30 2015-02-05 주식회사 케이티 복수의 레이어를 지원하는 영상의 부호화 및 복호화 방법 및 이를 이용하는 장치
US9894369B2 (en) 2013-07-30 2018-02-13 Kt Corporation Image encoding and decoding method supporting plurality of layers and apparatus using same
CN111147845B (zh) * 2014-11-27 2023-10-10 株式会社Kt 对视频信号进行解码的方法和对视频信号进行编码的方法
WO2017008255A1 (en) * 2015-07-14 2017-01-19 Mediatek Singapore Pte. Ltd. Advanced intra prediction mode signaling in video coding
US10313765B2 (en) 2015-09-04 2019-06-04 At&T Intellectual Property I, L.P. Selective communication of a vector graphics format version of a video content item
WO2017048008A1 (ko) * 2015-09-17 2017-03-23 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측 방법 및 장치
CN105681788B (zh) * 2016-04-07 2019-05-03 中星技术股份有限公司 视频编码方法和视频编码装置
CN116546206A (zh) * 2016-04-08 2023-08-04 韩国电子通信研究院 用于导出运动预测信息的方法和装置
US10116957B2 (en) * 2016-09-15 2018-10-30 Google Inc. Dual filter type for motion compensated prediction in video coding
WO2018056703A1 (ko) * 2016-09-20 2018-03-29 주식회사 케이티 비디오 신호 처리 방법 및 장치
WO2018128223A1 (ko) * 2017-01-03 2018-07-12 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측 방법 및 장치
EP3383043A1 (en) * 2017-03-27 2018-10-03 Thomson Licensing Methods and apparatus for picture encoding and decoding
JP6867870B2 (ja) 2017-05-18 2021-05-12 スタンレー電気株式会社 車両用灯具
US11558633B2 (en) * 2017-11-01 2023-01-17 Vid Scale, Inc. Sub-block motion derivation and decoder-side motion vector refinement for merge mode
KR20190090728A (ko) * 2018-01-25 2019-08-02 주식회사 윌러스표준기술연구소 서브블록 기반의 모션 보상을 이용한 비디오 신호 처리 방법 및 장치
CN111886861B (zh) * 2018-02-22 2023-12-22 Lg电子株式会社 根据图像编码系统中的块划分结构的图像解码方法和设备
WO2019182385A1 (ko) * 2018-03-21 2019-09-26 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020003280A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Which lut to be updated or no updating
KR20210025537A (ko) 2018-06-29 2021-03-09 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 하나 또는 다수의 룩업 테이블들을 사용하여 이전에 코딩된 모션 정보를 순서대로 저장하고 이를 사용하여 후속 블록들을 코딩하는 개념
CN110662053B (zh) 2018-06-29 2022-03-25 北京字节跳动网络技术有限公司 使用查找表的视频处理方法、装置和存储介质
WO2020003255A1 (en) * 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Mer improvements
KR20210024502A (ko) 2018-06-29 2021-03-05 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Hmvp 후보를 병합/amvp에 추가할 때의 부분/풀 프루닝
WO2020003284A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and amvp
BR112020024202A2 (pt) 2018-06-29 2021-02-17 Beijing Bytedance Network Technology Co., Ltd. método de processamento de dados de vídeo, aparelho de processamento de vídeo e meios de armazenamento e gravação legíveis por computador não transitório
KR102660666B1 (ko) 2018-06-29 2024-04-26 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut들을 업데이트하기 위한 조건들
CN117812257A (zh) * 2018-07-02 2024-04-02 Lg电子株式会社 图像解码方法、图像编码方法、存储介质和发送方法
EP4307679A2 (en) 2018-07-02 2024-01-17 Beijing Bytedance Network Technology Co., Ltd. Luts with intra prediction modes and intra mode prediction from non-adjacent blocks
CN117241039A (zh) * 2018-08-28 2023-12-15 华为技术有限公司 帧间预测方法、装置以及视频编码器和视频解码器
KR20240013897A (ko) * 2018-08-29 2024-01-30 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 서브블록 기반 시간적 모션 벡터 예측을 사용한 비디오 코딩의 방법 및 장치
TWI820211B (zh) 2018-09-12 2023-11-01 大陸商北京字節跳動網絡技術有限公司 取決於總數減去k的開始檢查hmvp候選的條件
GB2579763B (en) * 2018-09-21 2021-06-09 Canon Kk Video coding and decoding
KR20200034646A (ko) 2018-09-21 2020-03-31 주식회사 엑스리스 영상 신호 부호화/복호화 방법 및 이를 위한 장치
EP3866470A4 (en) * 2018-10-10 2022-07-20 Samsung Electronics Co., Ltd. VIDEO ENCODING AND DECODING METHODS USING DIFFERENTIAL MOTION VECTOR VALUES, AND APPARATUS FOR ENCODING AND DECODING MOTION INFORMATION
GB2578150C (en) 2018-10-18 2022-05-18 Canon Kk Video coding and decoding
GB2595054B (en) 2018-10-18 2022-07-06 Canon Kk Video coding and decoding
JP7281890B2 (ja) * 2018-10-24 2023-05-26 シャープ株式会社 動画像符号化装置および動画像復号装置
EP3888355A4 (en) 2019-01-10 2022-03-23 Beijing Bytedance Network Technology Co., Ltd. LOOKUP TABLE UPDATE INVOCATION
CN113383554B (zh) * 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
WO2020147772A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Motion candidates derivation
CN113615193A (zh) 2019-03-22 2021-11-05 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
CN113365076B (zh) * 2019-06-21 2022-03-08 杭州海康威视数字技术股份有限公司 预测模式的解码、编码方法及装置
CN114631321B (zh) 2019-10-18 2024-04-12 北京字节跳动网络技术有限公司 子图片与环路滤波之间的相互影响
CN115176467A (zh) * 2020-02-14 2022-10-11 抖音视界有限公司 视频比特流中的通用约束标志的使用
CN115349254A (zh) * 2020-03-23 2022-11-15 抖音视界有限公司 控制编解码视频中不同级别的去块滤波
CN113840148A (zh) * 2020-06-24 2021-12-24 Oppo广东移动通信有限公司 帧间预测方法、编码器、解码器以及计算机存储介质
CN111698517B (zh) * 2020-06-29 2022-07-12 Oppo广东移动通信有限公司 运动矢量的确定方法、装置、电子设备和可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2329615C2 (ru) * 2003-12-01 2008-07-20 Самсунг Электроникс Ко., Лтд. Способ масштабируемого кодирования и декодирования видеосигнала и устройство для его осуществления
RU2341035C1 (ru) * 2005-03-25 2008-12-10 Самсунг Электроникс Ко., Лтд. Способ кодирования и декодирования видеосигнала с использованием взвешенного предсказания и устройство для его осуществления
JP2010011075A (ja) * 2008-06-26 2010-01-14 Toshiba Corp 動画像符号化及び動画像復号化の方法及び装置
RU2409005C2 (ru) * 2005-04-15 2011-01-10 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способ масштабируемого кодирования и декодирования видеосигнала
US20110103485A1 (en) * 2008-07-01 2011-05-05 Kazushi Sato Image Processing Apparatus and Method
JP2011151775A (ja) * 2009-12-22 2011-08-04 Jvc Kenwood Holdings Inc 画像復号装置、画像復号方法および画像復号プログラム

Family Cites Families (92)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2003174C1 (ru) 1990-01-22 1993-11-15 Санкт-Петербургский государственный электротехнический университет им.В.И.Уль нова (Ленина) Способ распознавани изображений
US5508744A (en) * 1993-03-12 1996-04-16 Thomson Consumer Electronics, Inc. Video signal compression with removal of non-correlated motion vectors
JP3640318B2 (ja) 1995-09-01 2005-04-20 インターナショナル・ビジネス・マシーンズ・コーポレーション ディジタル画像の符号化方法及びシステム
RU2182727C2 (ru) * 2000-07-20 2002-05-20 Дворкович Александр Викторович Способ поиска векторов движения деталей в динамических изображениях
WO2002009419A2 (en) 2000-07-20 2002-01-31 Giant Leap Ahead Limited Method and apparatus for determining motion vectors in dynamic images
US20030099294A1 (en) * 2001-11-27 2003-05-29 Limin Wang Picture level adaptive frame/field coding for digital video content
KR100446083B1 (ko) * 2002-01-02 2004-08-30 삼성전자주식회사 움직임 추정 및 모드 결정 장치 및 방법
EP1514241A2 (en) * 2002-05-30 2005-03-16 Koninklijke Philips Electronics N.V. Unit for and method of estimating a motion vector
WO2004008775A1 (ja) * 2002-07-15 2004-01-22 Hitachi, Ltd. 動画像符号化方法及び復号化方法
KR100865034B1 (ko) 2002-07-18 2008-10-23 엘지전자 주식회사 모션 벡터 예측 방법
US7801217B2 (en) 2002-10-01 2010-09-21 Thomson Licensing Implicit weighting of reference pictures in a video encoder
AU2003273307A1 (en) 2002-10-01 2004-04-23 Thomson Licensing S.A. Implicit weighting of reference pictures in a video encoder
US7408986B2 (en) 2003-06-13 2008-08-05 Microsoft Corporation Increasing motion smoothness using frame interpolation with motion analysis
US20040258154A1 (en) * 2003-06-19 2004-12-23 Microsoft Corporation System and method for multi-stage predictive motion estimation
US7609763B2 (en) 2003-07-18 2009-10-27 Microsoft Corporation Advanced bi-directional predictive coding of video frames
CN1839632A (zh) 2003-08-22 2006-09-27 皇家飞利浦电子股份有限公司 用于速率-失真-复杂度优化的视频编码的运动矢量联合时空指向尺度预测和编码
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
AU2003282462A1 (en) 2003-10-09 2005-05-26 Thomson Licensing Direct mode derivation process for error concealment
KR100596706B1 (ko) 2003-12-01 2006-07-04 삼성전자주식회사 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치
KR100597402B1 (ko) 2003-12-01 2006-07-06 삼성전자주식회사 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치
JP3879741B2 (ja) 2004-02-25 2007-02-14 ソニー株式会社 画像情報符号化装置および画像情報符号化方法
KR100694059B1 (ko) 2004-09-30 2007-03-12 삼성전자주식회사 멀티 타임 스캔 방식에 기초한 인터 모드 인코딩 및디코딩 방법 및 장치
KR100888962B1 (ko) * 2004-12-06 2009-03-17 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
JP2008538433A (ja) * 2005-04-12 2008-10-23 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 領域ベース複数パス動き推定及び時間的動きベクトル候補の更新を用いたビデオ処理
JP2006303734A (ja) 2005-04-18 2006-11-02 Victor Co Of Japan Ltd 動画像符号化装置及びそのプログラム
KR20060123939A (ko) 2005-05-30 2006-12-05 삼성전자주식회사 영상의 복부호화 방법 및 장치
US8761258B2 (en) 2005-06-17 2014-06-24 The Hong Kong University Of Science And Technology Enhanced block-based motion estimation algorithms for video compression
WO2007005750A2 (en) 2005-07-01 2007-01-11 Sonic Solutions Method, apparatus and system for use in multimedia signal encoding
KR20070038396A (ko) 2005-10-05 2007-04-10 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
KR100728031B1 (ko) * 2006-01-23 2007-06-14 삼성전자주식회사 가변 블록 크기 움직임 예측을 위한 부호화 모드 결정 방법및 장치
KR100959536B1 (ko) 2006-03-30 2010-05-27 엘지전자 주식회사 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치
US20100091845A1 (en) 2006-03-30 2010-04-15 Byeong Moon Jeon Method and apparatus for decoding/encoding a video signal
CN101455082B (zh) 2006-03-30 2013-02-13 Lg电子株式会社 用于解码/编码视频信号的方法和装置
CN101090491B (zh) * 2006-06-16 2016-05-18 香港科技大学 用于视频压缩的增强的基于块的运动估计算法
US8325814B2 (en) 2006-06-19 2012-12-04 Lg Electronics Inc. Method and apparatus for processing a video signal
CN101102503A (zh) 2006-07-07 2008-01-09 华为技术有限公司 视频分层编码层间运动矢量的预测方法
US8532178B2 (en) 2006-08-25 2013-09-10 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US20080101474A1 (en) * 2006-11-01 2008-05-01 Yi-Jen Chiu Optimizing the storage and reducing the computation of reference picture list processing in video decoding
CN101222638B (zh) * 2007-01-08 2011-12-07 华为技术有限公司 多视视频编解码方法及装置
CN101669367A (zh) 2007-03-02 2010-03-10 Lg电子株式会社 用于解码/编码视频信号的方法及设备
EP2149262A4 (en) 2007-04-25 2010-09-01 Lg Electronics Inc METHOD AND DEVICE FOR DECODING / CODING A VIDEO SIGNAL
CN101119493B (zh) 2007-08-30 2010-12-01 威盛电子股份有限公司 区块式数字编码图像的译码方法及装置
JP2011501497A (ja) 2007-10-15 2011-01-06 ノキア コーポレイション マルチビュー映像コンテンツのための動きスキップおよびシングルループ符号化
US8462853B2 (en) 2007-10-16 2013-06-11 Lg Electronics Inc. Method and an apparatus for processing a video signal
US8908765B2 (en) 2007-11-15 2014-12-09 General Instrument Corporation Method and apparatus for performing motion estimation
US9641861B2 (en) * 2008-01-25 2017-05-02 Mediatek Inc. Method and integrated circuit for video processing
CN101540902B (zh) * 2008-03-20 2011-02-02 华为技术有限公司 运动矢量的缩放方法和装置、编解码方法和系统
JP5681861B2 (ja) * 2008-03-31 2015-03-11 メディメトリクス ペルソナリズド ドルグ デリヴェリー ベー ヴェ センサを有する嚥下型カプセルを作成する方法
TWI374672B (en) 2008-07-04 2012-10-11 Univ Nat Taiwan Seamless wireless video transmission for multimedia applications
CA2730383A1 (en) 2008-07-10 2010-01-14 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, and image decoding method
WO2010041856A2 (en) * 2008-10-06 2010-04-15 Lg Electronics Inc. A method and an apparatus for processing a video signal
CN101540926B (zh) 2009-04-15 2010-10-27 南京大学 基于h.264的立体视频编解码方法
CN102883160B (zh) 2009-06-26 2016-06-29 华为技术有限公司 视频图像运动信息获取方法、装置及设备、模板构造方法
KR101456498B1 (ko) 2009-08-14 2014-10-31 삼성전자주식회사 계층적 부호화 단위의 스캔 순서를 고려한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
US20130005493A1 (en) 2009-08-20 2013-01-03 Nak Sung Kim Swing ride tilting swing chair back and forth
JP2011097572A (ja) * 2009-09-29 2011-05-12 Canon Inc 動画像符号化装置
WO2011070730A1 (ja) 2009-12-07 2011-06-16 日本電気株式会社 映像符号化装置および映像復号装置
KR20110068792A (ko) * 2009-12-16 2011-06-22 한국전자통신연구원 적응적 영상 부호화 장치 및 방법
CN101860754B (zh) * 2009-12-16 2013-11-13 香港应用科技研究院有限公司 运动矢量编码和解码的方法和装置
KR101522850B1 (ko) 2010-01-14 2015-05-26 삼성전자주식회사 움직임 벡터를 부호화, 복호화하는 방법 및 장치
US9036692B2 (en) 2010-01-18 2015-05-19 Mediatek Inc. Motion prediction method
CN102131094A (zh) * 2010-01-18 2011-07-20 联发科技股份有限公司 运动预测方法
KR20120086232A (ko) 2011-01-25 2012-08-02 (주)휴맥스 율-왜곡 최적화를 위한 영상 부호화/복호화 방법 및 이를 수행하는 장치
KR101495724B1 (ko) 2010-02-02 2015-02-25 삼성전자주식회사 계층적 데이터 단위의 스캔 순서에 기반한 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
US20120300850A1 (en) 2010-02-02 2012-11-29 Alex Chungku Yie Image encoding/decoding apparatus and method
KR20110090781A (ko) 2010-02-02 2011-08-10 (주)휴맥스 율-왜곡 최적화를 위한 영상 부호화/복호화 방법 및 이를 수행하는 장치
SG10201503179VA (en) * 2010-04-23 2015-06-29 M&K Holdings Inc Image encoding apparatus
KR101789635B1 (ko) * 2010-05-04 2017-10-25 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
US9124898B2 (en) 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
CN103081470B (zh) * 2010-09-02 2016-08-03 Lg电子株式会社 编码和解码视频的方法和使用该方法的装置
KR101033243B1 (ko) * 2010-11-17 2011-05-06 엘아이지넥스원 주식회사 객체 추적 방법 및 장치
US8824558B2 (en) 2010-11-23 2014-09-02 Mediatek Inc. Method and apparatus of spatial motion vector prediction
US9137544B2 (en) 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
US8711940B2 (en) * 2010-11-29 2014-04-29 Mediatek Inc. Method and apparatus of motion vector prediction with extended motion vector predictor
US10142630B2 (en) * 2010-12-10 2018-11-27 Texas Instruments Incorporated Mode adaptive intra prediction smoothing in video coding
US10397599B2 (en) 2010-12-17 2019-08-27 Electronics And Telecommunications Research Institute Method and apparatus for inter prediction using motion vector candidate based on temporal motion prediction
WO2012081949A2 (ko) 2010-12-17 2012-06-21 한국전자통신연구원 인터 예측 방법 및 그 장치
WO2012102021A1 (ja) 2011-01-25 2012-08-02 パナソニック株式会社 動画像符号化方法および動画像復号化方法
US9319716B2 (en) 2011-01-27 2016-04-19 Qualcomm Incorporated Performing motion vector prediction for video coding
PL2698999T3 (pl) 2011-04-12 2017-10-31 Sun Patent Trust Sposób kodowania ruchomych obrazów, urządzenie do kodowania ruchomych obrazów, sposób dekodowania ruchomych obrazów, urządzenie do dekodowania ruchomych obrazów, oraz urządzenie do kodowania/dekodowania ruchomych obrazów
US9247266B2 (en) * 2011-04-18 2016-01-26 Texas Instruments Incorporated Temporal motion data candidate derivation in video coding
EP3179723B1 (en) 2011-09-09 2023-01-25 KT Corporation Method for deriving a temporal predictive motion vector, and apparatus using the method
EP3471420B1 (en) 2011-11-18 2020-05-13 Google Technology Holdings LLC An explicit way for signaling a collocated picture for high efficiency video coding (hevc)
US9392235B2 (en) * 2011-11-18 2016-07-12 Google Technology Holdings LLC Explicit way for signaling a collocated reference picture for video coding
US9467694B2 (en) 2011-11-21 2016-10-11 Google Technology Holdings LLC Implicit determination and combined implicit and explicit determination of collocated picture for temporal prediction
US9525861B2 (en) 2012-03-14 2016-12-20 Qualcomm Incorporated Disparity vector prediction in video coding
US9445076B2 (en) 2012-03-14 2016-09-13 Qualcomm Incorporated Disparity vector construction method for 3D-HEVC
US10200709B2 (en) * 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
US9503720B2 (en) 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
KR102099485B1 (ko) 2012-04-11 2020-04-09 구글 테크놀로지 홀딩스 엘엘씨 시간적 예측을 위한 시간적 모션 벡터 예측기(mvp) 플래그의 시그널링
WO2013154674A1 (en) 2012-04-11 2013-10-17 Motorola Mobility Llc Evaluation of signaling of collocated reference picture for temporal prediction
US9325990B2 (en) 2012-07-09 2016-04-26 Qualcomm Incorporated Temporal motion vector prediction in video coding extensions

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2329615C2 (ru) * 2003-12-01 2008-07-20 Самсунг Электроникс Ко., Лтд. Способ масштабируемого кодирования и декодирования видеосигнала и устройство для его осуществления
RU2341035C1 (ru) * 2005-03-25 2008-12-10 Самсунг Электроникс Ко., Лтд. Способ кодирования и декодирования видеосигнала с использованием взвешенного предсказания и устройство для его осуществления
RU2409005C2 (ru) * 2005-04-15 2011-01-10 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способ масштабируемого кодирования и декодирования видеосигнала
JP2010011075A (ja) * 2008-06-26 2010-01-14 Toshiba Corp 動画像符号化及び動画像復号化の方法及び装置
US20110103485A1 (en) * 2008-07-01 2011-05-05 Kazushi Sato Image Processing Apparatus and Method
JP2011151775A (ja) * 2009-12-22 2011-08-04 Jvc Kenwood Holdings Inc 画像復号装置、画像復号方法および画像復号プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2809701C1 (ru) * 2020-06-30 2023-12-14 Ханчжоу Хиквижн Диджитал Текнолоджи Ко., Лтд. Способ, оборудование и устройство для кодирования и декодирования

Also Published As

Publication number Publication date
JP6619045B2 (ja) 2019-12-11
EP3179723A1 (en) 2017-06-14
JP2014520477A (ja) 2014-08-21
JP2015167373A (ja) 2015-09-24
CN107580221B (zh) 2020-12-08
RU2016133579A3 (ru) 2020-01-30
CA2829114C (en) 2016-11-22
ES2487993B1 (es) 2015-09-29
CN107592528A (zh) 2018-01-16
CN103430550B (zh) 2017-10-13
GB2562635B (en) 2019-04-03
CN106170088B (zh) 2019-02-19
RU2716229C2 (ru) 2020-03-06
JP2016007039A (ja) 2016-01-14
GB201321881D0 (en) 2014-01-22
AU2012305071B2 (en) 2014-12-11
SE1651148A1 (sv) 2016-08-25
GB201809871D0 (en) 2018-08-01
RU2646384C1 (ru) 2018-03-02
GB2562129B (en) 2019-04-03
PL231159B1 (pl) 2019-01-31
GB2559445A8 (en) 2018-10-03
CN107580219B (zh) 2020-12-08
CN107483926B (zh) 2020-06-05
SE1651149A1 (sv) 2016-08-25
CN107592527A (zh) 2018-01-16
GB201716265D0 (en) 2017-11-22
CN107580219A (zh) 2018-01-12
CN107580218A (zh) 2018-01-12
RU2716563C2 (ru) 2020-03-12
RU2016133580A3 (ru) 2020-01-30
US10523967B2 (en) 2019-12-31
CN107580221A (zh) 2018-01-12
CA2829114A1 (en) 2013-03-14
BR112013022641A2 (ru) 2017-09-21
GB2562129A (en) 2018-11-07
BR112013022641A8 (pt) 2017-09-12
CN107580220B (zh) 2020-06-19
GB2559227B (en) 2018-11-28
GB2559226A (en) 2018-08-01
RU2635235C1 (ru) 2017-11-09
CN107404651B (zh) 2020-03-06
SE1551592A1 (sv) 2015-12-03
AU2012305071A1 (en) 2013-10-03
MX351041B (es) 2017-09-29
GB201716275D0 (en) 2017-11-22
PL407911A1 (pl) 2015-05-25
MX351052B (es) 2017-09-29
US20130343461A1 (en) 2013-12-26
CN107396099B (zh) 2020-03-06
CN107396099A (zh) 2017-11-24
RU2013140661A (ru) 2015-10-20
RU2016133570A (ru) 2018-12-10
CN107580220A (zh) 2018-01-12
EP2672710B1 (en) 2022-10-26
CN107396098B (zh) 2020-03-06
CN103430550A (zh) 2013-12-04
US10805639B2 (en) 2020-10-13
GB201716271D0 (en) 2017-11-22
JP5993484B2 (ja) 2016-09-14
CN107592529B (zh) 2020-05-12
GB2562635A (en) 2018-11-21
ES2487993A2 (es) 2014-08-25
CN106170088A (zh) 2016-11-30
RU2636117C1 (ru) 2017-11-20
GB2559227A (en) 2018-08-01
CN107592527B (zh) 2020-05-12
JP5745693B2 (ja) 2015-07-08
AU2012305071A8 (en) 2013-10-31
WO2013036041A2 (ko) 2013-03-14
GB2562130B (en) 2019-04-03
CN104349164B (zh) 2018-02-02
JP2015167372A (ja) 2015-09-24
JP6062508B2 (ja) 2017-01-18
JP2016007040A (ja) 2016-01-14
CN107396098A (zh) 2017-11-24
CN107483927A (zh) 2017-12-15
SE538057C2 (sv) 2016-02-23
RU2636118C1 (ru) 2017-11-20
SE538787C2 (sv) 2016-11-22
EP2672710A2 (en) 2013-12-11
US20210044832A1 (en) 2021-02-11
GB2508739B (en) 2018-12-05
CN107483925B (zh) 2020-06-19
GB2562130A (en) 2018-11-07
GB201716270D0 (en) 2017-11-22
JP6322693B2 (ja) 2018-05-09
EP3179723B1 (en) 2023-01-25
CN107483928A (zh) 2017-12-15
CN107592529A (zh) 2018-01-16
RU2600547C2 (ru) 2016-10-20
US11089333B2 (en) 2021-08-10
ES2487993R1 (es) 2015-01-27
CN107483929A (zh) 2017-12-15
GB2559445A (en) 2018-08-08
MX338137B (es) 2016-04-05
SE1351475A1 (sv) 2014-06-09
GB201716273D0 (en) 2017-11-22
MX2013010155A (es) 2013-12-02
RU2716231C2 (ru) 2020-03-06
CN107635140A (zh) 2018-01-26
RU2016133579A (ru) 2018-12-10
GB2559445B (en) 2018-11-28
CN107580218B (zh) 2020-05-12
US20200084475A1 (en) 2020-03-12
CN107483928B (zh) 2020-05-12
SE1651147A1 (sv) 2016-08-25
RU2016133566A (ru) 2018-12-10
JP2017098967A (ja) 2017-06-01
CN107635140B (zh) 2020-12-08
CA2937483C (en) 2017-09-05
RU2016133570A3 (ru) 2020-01-30
CN107404651A (zh) 2017-11-28
CN107483925A (zh) 2017-12-15
CN107483926A (zh) 2017-12-15
CN107483929B (zh) 2020-05-12
WO2013036041A3 (ko) 2013-05-02
CN107592528B (zh) 2020-05-12
CA2937483A1 (en) 2013-03-14
JP6062507B2 (ja) 2017-01-18
JP6062480B2 (ja) 2017-01-18
US20150208093A1 (en) 2015-07-23
GB2508739A (en) 2014-06-11
CN104349164A (zh) 2015-02-11
RU2016133580A (ru) 2018-12-10
BR112013022641B1 (pt) 2022-07-12
GB2559226B (en) 2018-11-28
RU2016133566A3 (ru) 2020-01-30
RU2622849C1 (ru) 2017-06-20
EP2672710A4 (en) 2016-08-03
CN107483927B (zh) 2020-06-05
JP2018139422A (ja) 2018-09-06

Similar Documents

Publication Publication Date Title
RU2716230C2 (ru) Способ декодирования видеосигнала
AU2015200360B2 (en) Method for deriving a temporal predictive motion vector, and apparatus using the method
AU2016216719B2 (en) Method for deriving a temporal predictive motion vector, and apparatus using the method