RU2395174C1 - Method and device for decoding/coding of video signal - Google Patents

Method and device for decoding/coding of video signal Download PDF

Info

Publication number
RU2395174C1
RU2395174C1 RU2008142963/09A RU2008142963A RU2395174C1 RU 2395174 C1 RU2395174 C1 RU 2395174C1 RU 2008142963/09 A RU2008142963/09 A RU 2008142963/09A RU 2008142963 A RU2008142963 A RU 2008142963A RU 2395174 C1 RU2395174 C1 RU 2395174C1
Authority
RU
Russia
Prior art keywords
frame
image
prediction
information
inter
Prior art date
Application number
RU2008142963/09A
Other languages
Russian (ru)
Other versions
RU2008142963A (en
Inventor
Биеонг Моон ДЗЕОН (KR)
Биеонг Моон ДЗЕОН
Сеунг Воок ПАРК (KR)
Сеунг Воок ПАРК
Хан Сух КОО (KR)
Хан Сух КОО
Йонг Дзоон ДЗЕОН (KR)
Йонг Дзоон ДЗЕОН
Дзи Хо ПАРК (KR)
Дзи Хо ПАРК
Original Assignee
ЭлДжи ЭЛЕКТРОНИКС ИНК.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ЭлДжи ЭЛЕКТРОНИКС ИНК. filed Critical ЭлДжи ЭЛЕКТРОНИКС ИНК.
Publication of RU2008142963A publication Critical patent/RU2008142963A/en
Application granted granted Critical
Publication of RU2395174C1 publication Critical patent/RU2395174C1/en

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

FIELD: information technologies.
SUBSTANCE: method for decoding of video signal includes stages of video signal coding scheme, reception of configuration information for video signal according to coding scheme, recognition of total number of frames, using information of configuration, recognition of interframe reference information on the basis of total number of frames, and decoding of video signal on the basis of interframe reference information of frame, besides configuration information includes at least frame information for identification of video signal frame.
EFFECT: improved efficiency of coding, decoding of video image by means of video signal coding on the basis of interframe reference information.
8 cl, 49 dwg

Description

Область техникиTechnical field

Настоящее изобретение относится к способу и устройству для декодирования/кодирования сигнала видео.The present invention relates to a method and apparatus for decoding / encoding a video signal.

Предшествующий уровень техникиState of the art

Кодирование со сжатием означает ряд способов обработки сигналов для передачи оцифрованной информации через схему связи или сохранение оцифрованной информации в форме, подходящей для носителя данных. Объекты для кодирования со сжатием включают в себя аудио, видео, текст и т.п. В частности, способ выполнения кодирования со сжатием в отношении последовательности называется сжатием последовательности видео. Последовательность видео в общем случае характеризуется наличием пространственной избыточности и временной избыточности.Compression coding means a number of signal processing methods for transmitting digitized information through a communication circuit or storing the digitized information in a form suitable for a data medium. Compression encoding objects include audio, video, text, and the like. In particular, a method for performing compression encoding with respect to a sequence is called video sequence compression. A video sequence is generally characterized by spatial redundancy and temporal redundancy.

Раскрытие изобретенияDisclosure of invention

Техническая задачаTechnical challenge

Задача настоящего изобретения заключается в повышении эффективности кодирования сигнала видео.An object of the present invention is to increase the coding efficiency of a video signal.

Техническое решениеTechnical solution

Задачей настоящего изобретения является кодирование сигнала видео эффективным образом посредством определения информации кадра для идентификации кадра (представления) изображения.An object of the present invention is to encode a video signal in an efficient manner by determining frame information to identify a frame (presentation) of an image.

Другая задача настоящего изобретения состоит в повышении эффективности кодирования посредством кодирования сигнала видео на основании межкадровой опорной информации.Another objective of the present invention is to increase the encoding efficiency by encoding a video signal based on inter-frame reference information.

Другая задача настоящего изобретения состоит в обеспечении масштабируемости кадра (представления) сигнала видео посредством определения информации уровня кадра.Another objective of the present invention is to provide scalability of a frame (presentation) of a video signal by determining frame level information.

Другая задача настоящего изобретения состоит в кодировании сигнала видео эффективным образом посредством определения идентификатора предсказания межкадрового синтеза, указывающего, получить ли изображение виртуального кадра.Another object of the present invention is to encode a video signal in an efficient manner by determining an inter-frame synthesis prediction identifier indicating whether to receive an image of a virtual frame.

Полезные результатыUseful Results

При кодировании сигнала видео настоящее изобретение обеспечивает более эффективное выполнение кодирования посредством выполнения межкадрового предсказания, используя информацию кадра (представления) для идентификации кадра изображения. И с помощью определения заново информации уровня, указывающей информацию для иерархической структуры, чтобы обеспечить масштабируемость кадра, настоящее изобретение способно обеспечить последовательность кадров, подходящую для пользователя. Кроме того, посредством определения кадра, соответствующего самому низкому уровню в качестве опорного кадра, настоящее изобретение обеспечивает совместимость с обычным декодером. Кроме того, настоящее изобретение повышает эффективность кодирования с помощью определения, предсказать ли изображение виртуального кадра при выполнении межкадрового предсказания. В случае предсказания изображения виртуального кадра настоящее изобретение обеспечивает более точное предсказание, таким образом сокращая количество битов, подлежащих передаче.When encoding a video signal, the present invention provides more efficient encoding by performing inter-frame prediction using frame (presentation) information to identify an image frame. And by redefining the level information indicating information for the hierarchical structure to provide scalability of the frame, the present invention is able to provide a frame sequence suitable for the user. Furthermore, by defining a frame corresponding to the lowest level as a reference frame, the present invention provides compatibility with a conventional decoder. In addition, the present invention improves coding efficiency by determining whether to predict an image of a virtual frame when performing inter-frame prediction. In the case of image prediction of a virtual frame, the present invention provides more accurate prediction, thereby reducing the number of bits to be transmitted.

Краткое описание чертежейBrief Description of the Drawings

Фиг.1 - схематическая блок-схема устройства для декодирования сигнала видео согласно настоящему изобретению.1 is a schematic block diagram of an apparatus for decoding a video signal according to the present invention.

Фиг.2 - диаграмма информации конфигурации для мультикадрового видео, добавляемого к кодированному потоку битов мультикадрового видео согласно варианту осуществления настоящего изобретения.2 is a diagram of configuration information for a multi-frame video added to an encoded bitstream of a multi-frame video according to an embodiment of the present invention.

Фиг.3 - внутренняя блок-схема модуля 620 создания списка опорных изображений согласно варианту осуществления настоящего изобретения.FIG. 3 is an internal block diagram of a reference image list creating unit 620 according to an embodiment of the present invention.

Фиг.4 - диаграмма иерархической структуры информации уровня для обеспечения масштабируемости кадра сигнала видео согласно варианту осуществления настоящего изобретения.4 is a diagram of a hierarchical structure of level information for providing scalability of a video signal frame according to an embodiment of the present invention.

Фиг.5 - диаграмма конфигурации NAL-блока, включающего в себя информацию уровня в пределах области расширения NAL-заголовка согласно одному варианту осуществления настоящего изобретения.5 is a configuration diagram of a NAL unit including layer information within an extension area of a NAL header according to one embodiment of the present invention.

Фиг.6 - диаграмма полной структуры предсказания мультикадрового сигнала видео согласно варианту осуществления настоящего изобретения, для описания концепции группы межкадровых изображений.6 is a diagram of a complete prediction structure of a multi-frame video signal according to an embodiment of the present invention, to describe the concept of a group of inter-frame images.

Фиг.7 - диаграмма структуры предсказания согласно варианту осуществления настоящего изобретения для объяснения концепции заново определенной группы межкадровых изображений.7 is a diagram of a prediction structure according to an embodiment of the present invention for explaining the concept of a newly defined group of inter-frame images.

Фиг.8 - схематическая блок-схема устройства для декодирования мультикадрового видео, используя идентификационную информацию группы межкадровых изображений согласно варианту осуществления настоящего изобретения.FIG. 8 is a schematic block diagram of an apparatus for decoding a multi-frame video using identification information of an inter-frame image group according to an embodiment of the present invention.

Фиг.9 - последовательность операций процесса для построения списка опорных изображений согласно варианту осуществления настоящего изобретения.9 is a flowchart of a process for constructing a list of reference images according to an embodiment of the present invention.

Фиг.10 - диаграмма для пояснения способа инициализации списка опорных изображений, когда текущей вырезкой является P-вырезка согласно одному варианту осуществления настоящего изобретения.10 is a diagram for explaining a method of initializing a reference picture list when the current cut is a P-cut according to one embodiment of the present invention.

Фиг.11 - диаграмма для пояснения способа инициализации списка опорных изображений, когда текущей вырезкой является B-вырезка согласно одному варианту осуществления настоящего изобретения.11 is a diagram for explaining a method of initializing a reference picture list when the current cut is a B-cut according to one embodiment of the present invention.

Фиг.12 - внутренняя блок-схема модуля 630 переупорядочения списка опорных изображений согласно варианту осуществления настоящего изобретения.12 is an internal block diagram of a reference picture list reordering unit 630 according to an embodiment of the present invention.

Фиг.13 - внутренняя блок-схема модуля 643B или 645B изменения назначения ссылочного индекса согласно одному варианту осуществления настоящего изобретения.13 is an internal block diagram of a reference index assignment change module 643B or 645B according to one embodiment of the present invention.

Фиг.14 - диаграмма для пояснения процесса для переупорядочения списка опорных изображений, используя информацию кадра согласно одному варианту осуществления настоящего изобретения.14 is a diagram for explaining a process for reordering a list of reference images using frame information according to one embodiment of the present invention.

Фиг.15 - внутренняя блок-схема модуля 630 переупорядочения списка опорных изображений согласно другому варианту осуществления настоящего изобретения.15 is an internal block diagram of a reference picture list reordering unit 630 according to another embodiment of the present invention.

Фиг.16 - внутренняя блок-схема модуля 970 переупорядочения списка опорных изображений для межкадрового предсказания согласно варианту осуществления настоящего изобретения.FIG. 16 is an internal block diagram of a reference picture list reordering unit 970 for inter-frame prediction according to an embodiment of the present invention.

Фиг.17 и фиг.18 - диаграммы синтаксиса для переупорядочения списка опорных изображений согласно одному варианту осуществления настоящего изобретения.FIG. 17 and FIG. 18 are syntax diagrams for reordering the reference picture list according to one embodiment of the present invention.

Фиг.19 - диаграмма синтаксиса для переупорядочения списка опорных изображений согласно другому варианту осуществления настоящего изобретения.FIG. 19 is a syntax diagram for reordering a list of reference pictures according to another embodiment of the present invention.

Фиг.20 - диаграмма для процесса для получения значения разности освещения текущего блока согласно одному варианту осуществления настоящего изобретения.FIG. 20 is a diagram for a process for obtaining a lighting difference value of a current block according to one embodiment of the present invention.

Фиг.21 - последовательность операций процесса для выполнения компенсации освещения текущего блока согласно варианту осуществления настоящего изобретения.21 is a flowchart of a process for performing lighting compensation of a current unit according to an embodiment of the present invention.

Фиг.22 - диаграмма процесса для получения значения предсказания разности освещения текущего блока, используя информацию для соседнего блока, согласно одному варианту осуществления настоящего изобретения.FIG. 22 is a process diagram for obtaining a prediction value of a lighting difference of a current block using information for a neighboring block, according to one embodiment of the present invention.

Фиг.23 - последовательность операций процесса для выполнения компенсации освещения, используя информацию для соседнего блока согласно одному варианту осуществления настоящего изобретения.23 is a flowchart of a process for performing lighting compensation using information for a neighboring unit according to one embodiment of the present invention.

Фиг.24 - последовательность операций процесса для выполнения компенсации освещения, используя информацию для соседнего блока согласно другому варианту осуществления настоящего изобретения.24 is a flowchart of a process for performing lighting compensation using information for a neighboring unit according to another embodiment of the present invention.

Фиг.25 - диаграмма процесса для предсказания текущего изображения, используя изображение в виртуальном кадре согласно одному варианту осуществления настоящего изобретения.25 is a process diagram for predicting a current image using an image in a virtual frame according to one embodiment of the present invention.

Фиг.26 - последовательность операций процесса для синтеза изображения в виртуальном кадре при выполнении межкадрового предсказания в MVC согласно варианту осуществления настоящего изобретения.26 is a flowchart of a process for synthesizing an image in a virtual frame when performing interframe prediction in MVC according to an embodiment of the present invention.

Фиг.27 - последовательность операций способа выполнения взвешенного предсказания согласно типу вырезки при кодировании сигнала видео согласно настоящему изобретению.Fig. 27 is a flowchart of a method for performing weighted prediction according to a clipping type when encoding a video signal according to the present invention.

Фиг.28 - диаграмма типов макроблока, допустимых в типе вырезки при кодировании сигнала видео согласно настоящему изобретению.FIG. 28 is a diagram of macroblock types valid in a clipping type when encoding a video signal according to the present invention.

Фиг.29 и фиг.30 - диаграммы синтаксиса для выполнения взвешенного предсказания согласно вновь определенному типу вырезки согласно одному варианту осуществления настоящего изобретения.FIG. 29 and FIG. 30 are syntax diagrams for performing weighted prediction according to a newly defined clipping type according to one embodiment of the present invention.

Фиг.31 - последовательность операций способа выполнения взвешенного предсказания, используя информацию флага, указывающую, выполнить ли межкадровое взвешенное предсказание при кодировании сигнала видео согласно настоящему изобретению.FIG. 31 is a flowchart of a method for performing weighted prediction using flag information indicating whether to perform inter-frame weighted prediction when encoding a video signal according to the present invention.

Фиг.32 - диаграмма для пояснения способа взвешенного предсказания согласно информации флага, указывающей, выполнить ли взвешенное предсказание, используя информацию для изображения в кадре, отличном от такового текущего изображения согласно одному варианту осуществления настоящего изобретения.32 is a diagram for explaining a weighted prediction method according to flag information indicating whether to perform weighted prediction using information for an image in a frame different from that of the current image according to one embodiment of the present invention.

Фиг.33 - диаграмма синтаксиса для выполнения взвешенного предсказания согласно вновь определенной информации флага согласно одному варианту осуществления настоящего изобретения.33 is a syntax diagram for performing weighted prediction according to newly defined flag information according to one embodiment of the present invention.

Фиг.34 - последовательность операций способа выполнения взвешенного предсказания согласно типу блока NAL (сетевого уровня абстракции) согласно варианту осуществления настоящего изобретения.Fig. 34 is a flowchart of a method for performing weighted prediction according to a type of NAL unit (network abstraction layer) according to an embodiment of the present invention.

Фиг.35 и фиг.36 - диаграммы синтаксиса для выполнения взвешенного предсказания в случае, когда тип NAL-блока предназначен для мультикадрового кодирования видео согласно одному варианту осуществления настоящего изобретения.Fig. 35 and Fig. 36 are syntax diagrams for performing weighted prediction in the case where the NAL unit type is for multi-frame video encoding according to one embodiment of the present invention.

Фиг.37 - частичная блок-схема устройства декодирования сигнала видео согласно вновь определенному типу вырезки согласно варианту осуществления настоящего изобретения.Fig. 37 is a partial block diagram of a video signal decoding apparatus according to a newly determined cut type according to an embodiment of the present invention.

Фиг.38 - последовательность операций для пояснения способа декодирования сигнала видео в устройстве, показанном на фиг.37 согласно настоящему изобретению.Fig. 38 is a flowchart for explaining a method of decoding a video signal in the device shown in Fig. 37 according to the present invention.

Фиг.39 - диаграмма режима предсказания макроблока согласно одному варианту осуществления настоящего изобретения.Fig. 39 is a diagram of a macroblock prediction mode according to one embodiment of the present invention.

Фиг.40 и фиг.41 - диаграммы синтаксиса, имеющего тип вырезки и режим макроблока, применяемый к нему, согласно настоящему изобретению.Fig. 40 and Fig. 41 are diagrams of a syntax having a clipping type and a macroblock mode applied to it according to the present invention.

Фиг.42 - диаграмма вариантов осуществления, к которым применяются типы вырезки согласно фиг.41.Fig. 42 is a diagram of embodiments to which the cut types of Fig. 41 are applied.

Фиг.43 - диаграмма различных вариантов осуществления типа вырезки, включенного в типы вырезки, показанные на фиг.41.FIG. 43 is a diagram of various embodiments of a clipping type included in the clipping types shown in FIG. 41.

Фиг.44 - диаграмма макроблока, допустимого для смешанного типа вырезки в соответствии с предсказанием двух смешанных предсказаний согласно одному варианту осуществления настоящего изобретения.Fig. 44 is a macroblock diagram valid for a mixed cut type in accordance with a prediction of two mixed predictions according to one embodiment of the present invention.

фиг.45 - 47 - диаграммы типа макроблока для макроблока, существующего в смешанной вырезке в соответствии с предсказанием двух смешанных предсказаний согласно одному варианту осуществления настоящего изобретения.Figures 45 to 47 are diagrams of a macroblock type for a macroblock existing in a mixed notch in accordance with the prediction of two mixed predictions according to one embodiment of the present invention.

Фиг.48 - частичная блок-схема устройства кодирования сигнала видео согласно вновь определенному типу вырезки согласно варианту осуществления настоящего изобретения.Fig. 48 is a partial block diagram of a video signal encoding apparatus according to a newly determined cut type according to an embodiment of the present invention.

Фиг.49 - последовательность операций способа кодирования сигнала видео в устройстве, показанном на фиг.48, согласно настоящему изобретению.Fig. 49 is a flowchart of a video signal encoding method in the device of Fig. 48 according to the present invention.

Лучший режим выполнения изобретенияThe best mode of carrying out the invention

Чтобы достичь этих и других преимуществ и в соответствии с целью настоящего изобретения, которое реализовано и подробно описано, способ декодирования сигнала видео включает в себя этапы проверки схемы кодирования сигнала видео, получения информации конфигурации для сигнала видео согласно схеме кодирования, распознавания общего количества кадров, используя информацию конфигурации, распознавания межкадровой опорной информации на основании общего количества кадров, и декодирование сигнала видео на основании межкадровой опорной информации, причем информация конфигурации включает в себя по меньшей мере информацию кадра для идентификации кадра сигнала видео.In order to achieve these and other advantages, and in accordance with an object of the present invention, which is realized and described in detail, a video signal decoding method includes the steps of checking a video signal coding scheme, obtaining configuration information for the video signal according to the coding scheme, recognizing the total number of frames using configuration information, recognition of inter-frame reference information based on the total number of frames, and decoding a video signal based on inter-frame reference information ation, wherein the configuration information includes at least frame information for identifying a video frame signal.

Чтобы дополнительно получить эти и другие преимущества и в соответствии с целью настоящего изобретения, способ декодирования сигнала видео включает в себя этапы: проверку схемы кодирования сигнала видео, получение информации конфигурации для сигнала видео согласно схеме кодирования, проверку уровня для масштабируемости кадра сигнала видео из информации конфигурации, распознавание межкадровой опорной информации, используя информацию конфигурации, и декодирование сигнала видео на основании уровня и межкадровой опорной информации, причем информация конфигурации включает в себя информацию кадра для идентификации кадра изображения.To further obtain these and other advantages, and in accordance with an object of the present invention, a video signal decoding method includes the steps of: checking a video signal coding scheme, obtaining configuration information for a video signal according to a coding scheme, checking a level for scalability of a video signal frame from configuration information recognizing inter-frame reference information using configuration information, and decoding the video signal based on the level and inter-frame reference information, whereby, the configuration information includes frame information for identifying an image frame.

Режим для изобретенияMode for invention

Ниже делается ссылка на подробное описание предпочтительных вариантов осуществления настоящего изобретения, примеры которого иллюстрируются на сопроводительных чертежах.Reference is made below to a detailed description of preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings.

Методика сжатия и кодирования данных сигнала видео рассматривает пространственную избыточность, временную избыточность, масштабируемую избыточность, и межкадровую избыточность. И, также возможно выполнить кодирование со сжатием, рассматривая взаимную избыточность между кадрами в процессе кодирования со сжатием. Методика для кодирования со сжатием, которая рассматривает межкадровую избыточность, является только вариантом осуществления настоящего изобретения. И техническая идея настоящего изобретения применима к временной избыточности, масштабируемой избыточности и т.д.A video signal compression and encoding technique considers spatial redundancy, temporal redundancy, scalable redundancy, and interframe redundancy. And, it is also possible to perform compression encoding, considering the mutual redundancy between frames in the compression encoding process. A compression coding technique that considers interframe redundancy is only an embodiment of the present invention. And the technical idea of the present invention is applicable to temporary redundancy, scalable redundancy, etc.

Если рассмотреть конфигурацию битового потока в H.264/AVC, существует структура отдельного уровня, называемая NAL (сетевой уровень абстракции) между VCL (уровнем кодирования видео), имеющая дело непосредственно с процессом кодирования движущихся изображений и более низкой (низкоуровневой) системой, которая транспортирует и хранит кодированную информацию. Выходной сигнал из процесса кодирования представляют собой VCL-данные и отображаются NAL-блоком до транспортировки или сохранения. Каждый NAL-блок включает в себя сжатые данные видео или RBSP (необработанные полезные данные последовательности байтов: данные результата сжатия движущихся изображений), которые являются данными, соответствующими информации заголовка.If we consider the bitstream configuration in H.264 / AVC, there is a separate layer structure called NAL (network abstraction layer) between the VCL (video coding layer), which deals directly with the encoding process of moving images and a lower (lower level) system that transports and stores encoded information. The output from the encoding process is VCL data and is displayed by the NAL unit before being transported or stored. Each NAL unit includes compressed video data or RBSP (raw byte sequence data: moving image compression result data), which are data corresponding to header information.

NAL-блок в основном включает в себя NAL-заголовок и RBSP. NAL-заголовок включает в себя информацию флага (nal_ref_idc), указывающую, включена ли вырезка в качестве опорного изображения NAL-блока, и идентификатор (nal_unit_type), указывающий тип NAL-блока. Сжатые первоначальные данные сохранены в RBSP. И, хвостовой бит RBSP добавляют к последней части RBSP, чтобы представить длину RBSP в качестве 8-битового умножения. В качестве типа NAL-блока имеется изображение IDR (мгновенное обновление декодирования), SPS (набор параметров последовательности), PPS (набор параметров изображения), SEI (дополнительная информация расширения), или подобное.The NAL unit mainly includes a NAL header and an RBSP. The NAL header includes flag information (nal_ref_idc) indicating whether the notch is included as a reference image of the NAL unit, and an identifier (nal_unit_type) indicating the type of the NAL unit. The compressed original data is stored in RBSP. And, the RBSP tail bit is added to the last part of the RBSP to represent the RBSP length as an 8-bit multiplication. As the type of NAL unit, there is an IDR image (instant update of decoding), SPS (sequence parameter set), PPS (image parameter set), SEI (additional extension information), or the like.

При стандартизации устанавливают ограничения для различных профилей и уровней, чтобы разрешить реализацию целевого продукта с подходящей стоимостью. В этом случае декодер должен удовлетворить ограничению, определенному согласно соответствующим профилю и уровню. Таким образом, определены две концепции - 'профиль' и 'уровень', чтобы указать функцию или параметр для представления - насколько декодер может справиться с диапазоном сжатой последовательности. И, индикатор (profile_idc) профиля может идентифицировать, что битовый поток основан на предписанном профиле. Индикатор профиля означает флаг, указывающий профиль, на котором основан битовый поток. Например, в H.264/AVC, если индикатор профиля равен 66, это означает, что битовый поток основан на базовом профиле. Если индикатор профиля равен 77, это означает, что битовый поток основан на главном профиле. Если индикатор профиля равен 88, это означает, что битовый поток основан на расширенном профиле. И, идентификатор профиля может быть включен в набор параметров последовательности.During standardization, restrictions are set for various profiles and levels in order to allow the implementation of the target product with a suitable cost. In this case, the decoder must satisfy the restriction determined according to the corresponding profile and level. Thus, two concepts are defined - 'profile' and 'level' to indicate a function or parameter to represent - how much the decoder can handle the range of the compressed sequence. And, the profile indicator (profile_idc) can identify that the bitstream is based on the prescribed profile. Profile indicator means a flag indicating the profile on which the bitstream is based. For example, in H.264 / AVC, if the profile indicator is 66, this means that the bitstream is based on the base profile. If the profile indicator is 77, this means that the bitstream is based on the main profile. If the profile indicator is 88, this means that the bitstream is based on an extended profile. And, the profile identifier can be included in the sequence parameter set.

Итак, чтобы иметь дело с мультикадровым видео, необходимо идентифицировать, является ли профиль введенного битового потока мультикадровым профилем. Если профиль введенного битового потока является мультикадровым профилем, необходимо добавить синтаксис, чтобы разрешить передачу по меньшей мере одной дополнительной информации для множества кадров. В этом случае мультикадровый профиль указывает режим профиля, обрабатывающий мультикадровое видео в качестве методики внесения поправки в H.264/AVC. В MVC может быть более эффективно добавить синтаксис в качестве дополнительной информации для режима MVC вместо безусловного синтаксиса. Например, когда индикатор профиля для AVC указывает мультикадровый профиль, если информация для мультикадрового видео добавлена, возможно повысить эффективность кодирования.So, in order to deal with multi-frame video, it is necessary to identify whether the profile of the entered bitstream is a multi-frame profile. If the profile of the entered bitstream is a multi-frame profile, you must add syntax to allow the transmission of at least one additional information for multiple frames. In this case, the multi-frame profile indicates the profile mode processing multi-frame video as a technique for amending H.264 / AVC. In MVC, it may be more efficient to add syntax as additional information for MVC mode instead of unconditional syntax. For example, when a profile indicator for AVC indicates a multi-frame profile, if information for a multi-frame video is added, it is possible to increase coding efficiency.

Набор параметров последовательности указывает информацию заголовка, содержащую информацию, собранную при кодировании полной последовательности, такую как профиль, уровень и т.п. Целиком сжатое движущееся изображение, то есть последовательность должна начинаться с заголовка последовательности. Так, набор параметров последовательности, соответствующий информации заголовка, должен приходить на декодер прежде, чем прибывают данные, ссылающиеся на набор параметров. А именно, набор RBSP параметров последовательности играет роль информации заголовка для результирующих данных сжатия движущегося изображения. Как только битовый поток введен, индикатор профиля предпочтительно идентифицирует, что введенный битовый поток основан на каком-то одном из множества профилей. Таким образом, добавляя часть для определения, относится ли введенный битовый поток к мультикадровому профилю (например, 'IF (profile_idc == MULTI_VIEW_PROFILE)') к синтаксису, принимается решение, относится ли введенный битовый поток к мультикадровому профилю. Различные виды информации конфигурации могут быть добавлены только если введенный битовый поток определен как относящийся к мультикадровому профилю. Например, возможно добавить ряд полных кадров, ряд мультикадровых опорных изображений (List0/1) в случае группы межкадровых изображений, ряд мультикадровых опорных изображений (List0/1) в случае группы не межкадровых изображений и т.п. И, различная информация для кадра используется для генерации и управления списком опорных изображений в буфере декодированных изображений.The sequence parameter set indicates header information containing information collected by encoding the entire sequence, such as profile, level, and the like. Entirely compressed moving image, that is, the sequence should begin with the header of the sequence. So, the sequence parameter set corresponding to the header information must arrive at the decoder before the data referencing the parameter set arrives. Namely, the RBSP set of sequence parameters plays the role of header information for the resulting moving image compression data. Once a bitstream is entered, the profile indicator preferably identifies that the entered bitstream is based on one of a plurality of profiles. Thus, adding a part to determine whether the entered bitstream is related to a multi-frame profile (for example, 'IF (profile_idc == MULTI_VIEW_PROFILE)') to the syntax, a decision is made whether the entered bitstream is related to a multi-frame profile. Various kinds of configuration information can only be added if the entered bitstream is defined as being related to a multi-frame profile. For example, it is possible to add a series of full frames, a series of multi-frame reference images (List0 / 1) in the case of a group of inter-frame images, a series of multi-frame reference images (List0 / 1) in the case of a group of non-frame images, etc. And, various information for the frame is used to generate and manage the list of reference images in the decoded image buffer.

Фиг.1 иллюстрирует схематичную блок-схему устройства для декодирования сигнала видео согласно настоящему изобретению.Figure 1 illustrates a schematic block diagram of an apparatus for decoding a video signal according to the present invention.

Со ссылками на фиг.1 устройство для декодирования сигнала видео согласно настоящему изобретению включает в себя синтаксический анализатор 100 NAL, модуль 200 статистического декодирования, модуль 300 инверсного квантования / обратного преобразования, модуль 400 внутреннего (интра-) предсказания, модуль 500 фильтра устранения блочности, буферный модуль 600 декодированных изображений, модуль 700 внешнего (интер-) предсказания и т.п.With reference to FIG. 1, a video signal decoding apparatus according to the present invention includes a NAL parser 100, a statistical decoding module 200, an inverse quantization / inverse transform module 300, an intra (intra) prediction module 400, a deblocking filter module 500, a buffer module 600 of decoded images, a module 700 inter (inter) prediction, etc.

Буферный модуль 600 декодированных изображений включает в себя модуль 610 сохранения опорного изображения, модуль 620 создания списка опорных изображений, модуль 650 управления опорными изображениями и т.п. И, модуль 620 создания списка опорных изображений включает в себя модуль 625 получения переменной, модуль 630 инициализации списка опорных изображений и модуль 640 переупорядочения списка опорных изображений.The decoded image buffer module 600 includes a reference image storage unit 610, a reference image list creating unit 620, reference image managing unit 650, and the like. And, the reference image list creating module 620 includes a variable acquiring module 625, reference image list initialization module 630, and reference image list reordering module 640.

И, модуль 700 интер-предсказания включает в себя модуль 710 компенсации движения, модуль 720 компенсации освещения, модуль 730 предсказания разности освещения, модуль 740 предсказания синтеза кадра и т.п.And, the inter prediction module 700 includes a motion compensation module 710, a lighting compensation module 720, a light difference prediction module 730, a frame synthesis prediction module 740, and the like.

Синтаксический анализатор 100 NAL выполняет синтаксический анализ посредством NAL-блока, чтобы декодировать принятую последовательность видео. Вообще, по меньшей мере один набор параметров последовательности и по меньшей мере один набор параметров изображения передается декодеру прежде, чем декодируются заголовок вырезки (часть массива информации) и данные вырезки. В этом случае различные виды информации конфигурации могут быть включены в область NAL-заголовка или область расширения NAL-заголовка. Так как MVC является методикой поправки для обычной методики AVC, может быть более эффективным добавлять информацию конфигурации только в случае битового потока MVC вместо безусловного добавления. Например, возможно добавить информацию флага для идентификации присутствия или неприсутствия битового потока MVC в области NAL-заголовка или области расширения NAL-заголовка. Только если введенный битовый поток является кодированным битовым потоком мультикадрового видео согласно информации флага, возможно добавить информацию конфигурации для мультикадрового видео. Например, информация конфигурации может включать в себя временную информацию уровня, информацию уровня кадра, идентификационную информацию группы межкадровых изображений, идентификационную информацию кадра и т.п. Это описано подробно ниже со ссылками на фиг.2.The NAL parser 100 performs parsing by a NAL unit to decode the received video sequence. In general, at least one set of sequence parameters and at least one set of image parameters are transmitted to the decoder before the clipping header (part of the information array) and the clipping data are decoded. In this case, various kinds of configuration information may be included in the NAL header area or the extension area of the NAL header. Since MVC is a correction technique for the conventional AVC technique, it may be more efficient to add configuration information only in the case of the MVC bitstream instead of unconditionally adding. For example, it is possible to add flag information to identify the presence or non-presence of the MVC bitstream in the NAL header region or the NAL header extension region. Only if the input bitstream is a multi-frame video encoded bitstream according to the flag information, is it possible to add configuration information for the multi-frame video. For example, configuration information may include temporal level information, frame level information, interframe image group identification information, frame identification information, and the like. This is described in detail below with reference to FIG. 2.

Фиг.2 показывает диаграмму информации конфигурации для мультикадрового видео, добавляемую к кодированному битовому потоку мультикадрового видео согласно одному варианту осуществления настоящего изобретения. Подробности информации конфигурации для мультикадрового видео описаны в нижеследующем описании.FIG. 2 shows a diagram of configuration information for a multi-frame video added to an encoded multi-frame video bitstream according to one embodiment of the present invention. The details of the configuration information for multi-frame video are described in the following description.

Прежде всего, временная информация уровня указывает информацию для иерархической структуры, чтобы обеспечить временную масштабируемость из сигнала видео ((1)). Посредством временной информации уровня возможно обеспечить пользователя последовательностями в отношении различных временных зон.First of all, temporal level information indicates information for a hierarchical structure to provide temporal scalability from a video signal ((1)). By means of temporal level information, it is possible to provide the user with sequences in relation to different time zones.

Информация уровня кадра указывает информацию для иерархической структуры, чтобы обеспечить масштабируемость кадра из сигнала видео ((2)). В мультикадровом видео необходимо определить уровень для времени и уровень для кадра, чтобы обеспечить пользователя различными временными и кадровыми последовательностями. В случае определения вышеупомянутой информации уровня возможно использовать временную масштабируемость и масштабируемость кадра. Поэтому пользователь способен выбрать последовательность в конкретное время и кадр, или выбранная последовательность может быть ограничена условием.The frame level information indicates information for the hierarchical structure to provide scalability of the frame from the video signal ((2)). In multi-frame video, it is necessary to determine the level for time and the level for the frame in order to provide the user with different time and frame sequences. In the case of determining the above level information, it is possible to use temporal scalability and frame scalability. Therefore, the user is able to select a sequence at a specific time and frame, or the selected sequence may be limited by a condition.

Информации уровня могут быть установлены различными способами согласно конкретному условию. Например, информация уровня может быть установлена по-разному согласно расположению камеры (фотоаппарата) или выравниванию камеры (фотоаппарата). И, информация уровня может быть определена, рассматривая зависимость кадра. Например, уровень для кадра, имеющего I-изображение в группе межкадровых изображений, установлен в 0, уровень для кадра, имеющего P-изображение в группе межкадровых изображений, установлен в 1, и уровень для кадра, имеющего B-изображение в группе межкадровых изображений, установлен равным 2. Кроме того, информации уровня могут быть случайно установлены не на основании специального условия. Информация уровня кадра описана подробно со ссылками на фиг.4 и фиг.5 ниже.Level information can be set in various ways according to a specific condition. For example, level information can be set differently according to the location of the camera (camera) or the alignment of the camera (camera). And, level information can be determined by considering the dependence of the frame. For example, the level for a frame having an I-image in an inter-frame image group is set to 0, the level for a frame having a P-image in an inter-frame image group is set to 1, and the level for a frame having a B-image in an inter-image group, set to 2. In addition, level information may not be accidentally set based on a special condition. Frame level information is described in detail with reference to FIG. 4 and FIG. 5 below.

Идентификационная информация группы межкадровых изображений указывает информацию для идентификации, является ли кодированное изображение текущего NAL-блока группой межкадровых изображений ((3)). В этом случае группа межкадровых изображений означает кодированное изображение, в котором все вырезки ссылаются только на вырезки с одним и тем же порядковым индексом изображения. Например, группа межкадровых изображений означает кодированное изображение, которое ссылается на вырезки только в отличном кадре без ссылки на вырезки в текущем кадре. В процессе декодирования мультикадровое видео может быть необходим межкадровый произвольный доступ. Идентификационная информация группы межкадровых изображений может быть необходима, чтобы реализовать эффективный произвольный доступ. И, межкадровая опорная (ссылочная) информация может быть необходима для межкадрового предсказания. Так, идентификационная информация группы межкадровых изображений может использоваться, чтобы получить межкадровую опорную информацию. Кроме того, идентификационная информация группы межкадровых изображений может использоваться, чтобы добавить опорные изображения для межкадрового предсказания при построении списка опорных изображений. Кроме того, идентификационная информация группы межкадровых изображений может использоваться, чтобы управлять добавленными опорными изображениями для межкадрового предсказания. Например, опорные изображения могут быть классифицированы в группы межкадровых изображений и группы немежкадровых изображений, и классифицированные опорные изображения могут быть затем промаркированы так, что опорные изображения, не используемые для межкадрового предсказания, не должны использоваться. Между тем, идентификационная информация группы межкадровых изображений применима к гипотетическому опорному декодеру. Подробности идентификационной информации группы межкадровых изображений описаны со ссылками на фиг.6 ниже.The identification information of the inter-frame image group indicates information for identifying whether the encoded image of the current NAL unit is the inter-image image group ((3)). In this case, a group of inter-frame images means an encoded image in which all clippings refer only to clippings with the same serial index of the image. For example, a group of inter-frame images means an encoded image that refers to clippings only in a different frame, without reference to clippings in the current frame. In the decoding process, multi-frame video may require inter-frame random access. Identification information of a group of inter-frame images may be necessary in order to realize effective random access. And, inter-frame reference (reference) information may be necessary for inter-frame prediction. So, the identification information of a group of inter-frame images can be used to obtain inter-frame reference information. In addition, the identification information of a group of inter-frame images can be used to add reference images for inter-frame prediction when constructing a list of reference images. In addition, interframe image group identification information can be used to control the added reference images for interframe prediction. For example, reference pictures can be classified into inter-picture picture groups and non-picture picture groups, and classified reference pictures can then be marked so that reference pictures not used for inter prediction should not be used. Meanwhile, the identification information of the inter-frame image group is applicable to a hypothetical reference decoder. Details of the identification information of the inter-frame image group are described with reference to FIG. 6 below.

Идентификационная информация кадра означает информацию для различения изображения в текущем кадре от изображения в отличном кадре ((4)). При кодировании сигнала видео POC (порядковый индекс изображения) или 'frame_num' может использоваться, чтобы идентифицировать каждое изображение. В случае последовательности мультикадрового видео может быть выполнено межкадровое предсказание. Поэтому необходима идентификационная информация для различения изображения в текущем кадре от изображения в другом кадре. Итак, необходимо определить идентификационную информацию кадра для идентификации кадра изображения. Эта идентификационная информация кадра может быть получена из области заголовка сигнала видео. Например, область заголовка может быть областью NAL-заголовка, областью расширения NAL-заголовка или областью заголовка вырезки. Информацию для изображения в кадре, отличном от таковой текущего изображения, получают, используя идентификационную информацию кадра, и можно декодировать сигнал видео с использованием информации изображения в отличном кадре. Идентификационная информация кадра применима к полному процессу кодирования / декодирования сигнала видео. И идентификационная информация кадра может быть применима к кодированию мультикадрового видео, используя 'frame_num', который рассматривает кадр вместо рассмотрения идентификатора конкретного кадра.Frame identification information means information for distinguishing an image in the current frame from an image in an excellent frame ((4)). When encoding a video signal, POC (Image Index) or 'frame_num' can be used to identify each image. In the case of a multi-frame video sequence, inter-frame prediction may be performed. Therefore, identification information is needed to distinguish an image in the current frame from an image in another frame. So, it is necessary to determine the identification information of the frame to identify the image frame. This frame identification information can be obtained from the header area of the video signal. For example, the header area may be a NAL header area, a NAL header extension area, or a cut header area. Information for an image in a frame different from that of the current image is obtained using the identification information of the frame, and a video signal can be decoded using the image information in a different frame. The frame identification information is applicable to the entire video signal encoding / decoding process. And the frame identification information may be applicable to multi-frame video encoding using 'frame_num', which considers a frame instead of considering a specific frame identifier.

Между тем, модуль 200 статистического декодирования выполняет статистическое декодирование в отношении синтаксически разобранного битового потока, и затем извлекает коэффициент каждого макроблока, вектор движения и т.п. Блок 300 инверсного квантования/обратного преобразования получает значение преобразованного коэффициента посредством умножения принятого квантованного значения на константу и затем обратно преобразовывает значение коэффициента, чтобы восстановить значение пикселей. Используя восстановленное значение пикселей модуль 400 внутреннего (интра-) предсказания выполняет внутреннее (интра-) предсказание из декодированной выборки в пределах текущего изображения. Между тем, модуль 500 фильтра устранения блочности применяется к каждому кодированному макроблоку, чтобы уменьшить блочное искажение. Фильтр сглаживает край блока, чтобы повысить качество изображения декодированного кадра. Выбор процесса фильтрования зависит от уровня границы и градиента выборки изображения вокруг границы. Изображения через фильтрование выдаются или сохраняются в буферном модуле 600 декодированных изображений, чтобы использоваться в качестве опорного изображения.Meanwhile, the statistical decoding unit 200 performs statistical decoding on the syntactically parsed bitstream, and then extracts the coefficient of each macroblock, the motion vector, and the like. The inverse quantization / inverse transform unit 300 obtains the converted coefficient value by multiplying the received quantized value by a constant and then inverts the coefficient value to restore the pixel value. Using the reconstructed pixel value, the intra (intra) prediction unit 400 performs intra (intra) prediction from the decoded sample within the current image. Meanwhile, the deblocking filter module 500 is applied to each coded macroblock to reduce block distortion. The filter smooths the edge of the block to improve the image quality of the decoded frame. The choice of the filtering process depends on the level of the border and the gradient of the sample image around the border. Images through filtering are issued or stored in the buffer module 600 of the decoded images to be used as a reference image.

Буферный модуль 600 декодированных изображений играет роль в сохранении или открытии ранее кодированных изображений, чтобы выполнить внешнее (интер-) предсказание. В этом случае для сохранения изображений в буферном модуле 600 декодированных изображений или для открытия изображений, используется 'frame_num' и POC (порядковый индекс изображения) каждого изображения. Итак, так как существуют изображения в кадре, отличном от такового текущего изображения среди ранее кодированных изображений, информация кадра для идентификации кадра изображения может быть использована для использования вместе с 'frame_num' и POC. Буферный модуль 600 декодированных изображений включает в себя модуль 610 сохранения опорного изображения, модуль 620 создания списка опорных изображений и модуль 650 управления опорными изображениями. Модуль 610 сохранения опорного изображения хранит изображения, на которые будут ссылаться для кодирования текущего изображения. Модуль 620 создания списка опорных изображений конструирует список опорных изображений для предсказания между изображениями. При кодировании мультикадрового видео может быть необходимо межкадровое предсказание. Так, если текущее изображение ссылается на изображение в другом кадре, может быть необходимо создать список опорных изображений для межкадрового предсказания. В этом случае модуль 620 создания списка опорных изображений может использовать информацию для кадра при генерации списка опорных изображений для межкадрового предсказания. Подробности модуля 620 создания списка опорных изображений описаны ниже со ссылками на фиг.3.The decoded image buffer module 600 plays a role in storing or opening previously encoded images in order to perform inter (inter) prediction. In this case, to save images in the buffer module 600 of decoded images or to open images, the 'frame_num' and POC (image index) of each image are used. So, since there are images in a frame different from that of the current image among previously encoded images, the frame information for identifying the image frame can be used together with 'frame_num' and POC. The decoded image buffer module 600 includes a reference image storage unit 610, a reference image list creating unit 620, and reference image management unit 650. The reference image storage unit 610 stores images that will be referenced to encode the current image. The reference image list creating unit 620 constructs a reference image list for prediction between images. When encoding multi-frame video, inter-frame prediction may be necessary. So, if the current image refers to an image in another frame, it may be necessary to create a list of reference images for inter-frame prediction. In this case, the reference image list creating unit 620 may use the information for the frame when generating the reference image list for inter-frame prediction. Details of the reference image list creating unit 620 are described below with reference to FIG. 3.

Фиг.3 изображает внутреннюю блок-схему модуля 620 создания списка опорных изображений согласно варианту осуществления настоящего изобретения.FIG. 3 is an internal block diagram of a reference image list creating unit 620 according to an embodiment of the present invention.

Модуль 620 создания списка опорных изображений включает в себя модуль 625 получения (вывода) переменной, модуль 630 инициализации списка опорных изображений и модуль 640 переупорядочения опорного списка.The reference image list creating module 620 includes a variable acquisition (output) module 625, a reference image list initialization module 630, and a reference list reordering module 640.

Модуль 625 получения переменной получает (выводит) переменные, используемые для инициализации списка опорных изображений. Например, переменная может быть получена, используя 'frame_num', указывающий идентификационный номер изображения. В частности, переменные FrameNum и FrameNumWrap могут быть использованы для каждого краткосрочного опорного изображения. Прежде всего, переменная FrameNum равна значению элемента frame_num синтаксиса. Переменная FrameNumWrap может использоваться для буферного модуля 600 декодированных изображений, чтобы назначить малый номер каждому опорному изображению. И, переменная FrameNumWrap может быть получена из переменной FrameNum. Так, возможно получить переменную PicNum, используя полученную переменную FrameNumWrap. В этом случае переменная PicNum может означать идентификационный номер изображения, используемого буферным модулем 600 декодированных изображений. В случае указания долгосрочного опорного изображения может быть использована переменная LongTermPicNum.The variable obtaining unit 625 receives (outputs) the variables used to initialize the reference image list. For example, a variable can be obtained using 'frame_num' indicating the identification number of the image. In particular, the FrameNum and FrameNumWrap variables can be used for each short-term reference image. First of all, the FrameNum variable is equal to the value of the syntax frame_num element. The FrameNumWrap variable may be used for the decoded image buffer module 600 to assign a small number to each reference image. And, the FrameNumWrap variable can be obtained from the FrameNum variable. So, it is possible to get the PicNum variable using the resulting FrameNumWrap variable. In this case, the PicNum variable may mean the identification number of the image used by the decoded image buffer module 600. If you specify a long-term reference image, the LongTermPicNum variable can be used.

Чтобы создать список опорных изображений для межкадрового предсказания, можно получить (вывести) первую переменную (например, ViewNum) для создания списка опорных изображений для межкадрового предсказания. Например, можно получить вторую переменную (например, Viewld), используя 'view_id' для идентификации кадра изображения. Прежде всего, вторая переменная может быть равна значению элемента 'view_id' синтаксиса. И, третья переменная (например, ViewIdWrap) может использоваться для буферного модуля 600 декодированных изображений для назначения малого идентификационного номера кадра каждому опорному изображению и может быть получена из второй переменной. В этом случае первая переменная ViewNum может означать идентификационный номер кадра изображения, используемого буферным модулем 600 декодированных изображений. Однако, так как количество опорных изображений, используемых для межкадрового предсказания при кодировании мультикадрового видео, может быть относительно меньшим, чем таковое, используемое для временного предсказания, можно не определять другую переменную для указания идентификационного номера кадра долгосрочного опорного изображения.In order to create a list of reference pictures for inter-frame prediction, it is possible to obtain (output) the first variable (for example, ViewNum) to create a list of reference pictures for inter-frame prediction. For example, you can get a second variable (for example, Viewld) using 'view_id' to identify the image frame. First of all, the second variable may be equal to the value of the syntax view_id element. And, a third variable (eg, ViewIdWrap) can be used for the decoded image buffer module 600 to assign a small frame identification number to each reference image and can be obtained from the second variable. In this case, the first variable ViewNum may mean the identification number of the image frame used by the buffer module 600 decoded images. However, since the number of reference images used for inter prediction in multi-frame video encoding may be relatively smaller than that used for temporal prediction, another variable may not be defined to indicate the frame identification number of the long-term reference image.

Модуль 630 инициализации списка опорных изображений инициализирует список опорных изображений, используя вышеупомянутые переменные. В этом случае процесс инициализации для списка опорных изображений может отличаться согласно типу вырезки. Например, в случае декодирования P-вырезки возможно назначить ссылочный индекс на основании порядка декодирования. В случае декодирования B-вырезки возможно назначить ссылочный индекс на основании порядка вывода изображения. В случае инициализации списка опорных изображений для межкадрового предсказания можно назначить индекс опорному изображению на основании первой переменной, то есть переменной, полученной из информации кадра.The reference image list initialization module 630 initializes the reference image list using the above variables. In this case, the initialization process for the list of reference images may differ according to the type of clipping. For example, in the case of decoding a P-cut, it is possible to assign a reference index based on the decoding order. In the case of decoding a B-cut, it is possible to assign a reference index based on the image output order. In the case of initializing the reference picture list for inter-frame prediction, it is possible to assign an index to the reference picture based on the first variable, that is, a variable obtained from the frame information.

Модуль 640 переупорядочения списка опорных изображений играет роль при повышении эффективности сжатия, назначая меньший индекс изображению, на который часто ссылаются в инициализированном списке опорных изображений. Это происходит потому, что маленький бит назначается, если ссылочный индекс для кодирования становится меньше.The reference image list reordering module 640 plays a role in increasing compression efficiency by assigning a lower index to the image that is often referenced in the initialized reference image list. This is because a small bit is assigned if the reference index for encoding becomes smaller.

И, модуль 640 переупорядочения списка опорных изображений включает в себя модуль 642 проверки типов вырезки, модуль 643 переупорядочения списка 0 опорных изображений, и модуль 645 переупорядочения списка 1 опорных изображений. Если вводится инициализированный список опорных изображений, модуль 642 проверки типов вырезки проверяет тип вырезки, которую нужно декодировать, и затем решает, переупорядочить ли список-0 опорных изображений или список-1 опорных изображений. Так, модуль 643, 645 переупорядочивания списка 0/1 опорных изображений выполняет переупорядочение списка 0 опорных изображений, если тип вырезки не является I-вырезкой, и также выполняет переупорядочение списка 1 опорных изображений дополнительно, если тип вырезки есть B-вырезка. Таким образом, после завершения процесса переупорядочения, создается список опорных изображений.And, the reference image list reordering module 640 includes a clipping type checking module 642, the reference image list reordering module 643, and the reference image list reordering module 645. If an initialized reference picture list is entered, the clipping type checking module 642 checks the type of clipping to be decoded, and then decides whether to reorder the list-0 of reference images or the list-1 of reference images. So, the reordering module 643, 645 of the reference image list 0/1 performs the reordering of the reference image list 0 if the clipping type is not I-clipping, and also performs the reordering of the reference image list 1 further if the clipping type is B-clipping. Thus, after completion of the reordering process, a list of reference images is created.

Модуль 643, 645 переупорядочивания списка 0/1 опорных изображений включает в себя модуль 643A, 645A получения идентификационной информации и модуль 643B, 645B изменения назначения ссылочного индекса, соответственно. Модуль 643A, 645A получения идентификационной информации принимает идентификационную информацию (reordering_of_pic_nums_idc), указывающую способ назначения ссылочного индекса, если переупорядочение списка опорных изображений выполняется согласно информации флага, указывающей, выполнять ли переупорядочение списка опорных изображений. И, модуль 643B, 645B изменения назначения ссылочного индекса переупорядочивает список опорных изображений посредством изменения назначения ссылочного индекса согласно идентификационной информации.The reordering unit 643, 645 of the reference image list 0/1 includes an identification information obtaining unit 643A, 645A and a reference index assignment changing unit 643B, 645B, respectively. The identification information obtaining unit 643A, 645A receives identification information (reordering_of_pic_nums_idc) indicating a reference index assignment method if the reordering of the reference picture list is performed according to flag information indicating whether to reorder the reference picture list. And, the reference index assignment change module 643B, 645B reorders the reference picture list by changing the reference index assignment according to the identification information.

И, модуль 640 переупорядочения списка опорных изображений работает другим способом. Например, переупорядочение может быть выполнено посредством проверки типа NAL-блока, переданного до прохождения через модуль 642 проверки типов вырезки, и затем посредством классификации типа NAL-блока в случае MVC NAL и случая не-MVC NAL.And, the reference picture list reordering module 640 works in a different way. For example, reordering can be performed by checking the type of the NAL block passed before passing through the type checking clipping module 642, and then by classifying the type of the NAL block in the case of MVC NAL and the case of non-MVC NAL.

Модуль 650 управления опорным изображением управляет опорными изображениями для выполнения внешнего предсказание более гибко. Например, используются операционный способ управления памятью и способ подвижного окна. Это должно обеспечить управление памятью опорных изображений и памятью не опорных изображений посредством объединения блоков памяти в одну память и реализовать эффективное управление памятью с маленькой памятью. При кодировании мультикадрового видео, так как изображения в направлении кадра имеют тот же самый порядковый индекс изображения, информация для идентификации кадра каждого из изображений пригодна для использования при маркировке изображений в направлении кадра. И, опорные изображения, управляемые вышеупомянутым способом, могут использоваться модулем 700 интерпредсказания.The reference image control unit 650 controls the reference images to perform inter prediction more flexibly. For example, an operational memory management method and a moving window method are used. This should provide control of the memory of the reference images and the memory of non-reference images by combining the memory blocks into one memory and to realize effective memory management with a small memory. When encoding a multi-frame video, since the images in the frame direction have the same image index, information for identifying the frame of each of the images is suitable for use in marking images in the frame direction. And, reference pictures controlled by the above method can be used by inter prediction unit 700.

Модуль 700 интерпредсказания выполняет внешнее (интер) предсказание, используя опорные изображения, сохраненные в буферном модуле 600 декодированных изображений. Интеркодированный макроблок может быть разделен на части макроблока. И каждая из частей макроблока может быть предсказана, исходя из одного или двух опорных изображений. Модуль 700 интерпредсказания включает в себя модуль 710 компенсации движения, модуль 720 компенсации освещения, модуль 730 предсказания разности освещения, модуль 740 предсказания синтеза кадра, модуль 750 взвешенного предсказания и т.п.Inter prediction unit 700 performs an inter (inter) prediction using reference images stored in the decoded image buffer module 600. The intercoded macroblock can be divided into parts of the macroblock. And each of the parts of the macroblock can be predicted based on one or two reference images. Inter prediction module 700 includes motion compensation module 710, lighting compensation module 720, lighting difference prediction module 730, frame synthesis prediction module 740, weighted prediction module 750, and the like.

Модуль 710 компенсации движения компенсирует движение текущего блока, используя информации, переданные из модуля 200 статистического декодирования. Векторы движения соседних блоков текущего блока извлекаются из сигнала видео, и затем блок предсказания вектора движения текущего блока выводится из векторов движения соседних блоков. И, движение текущего блока компенсируют, используя полученный блок предсказания вектора движения и разностный вектор движения, извлеченный из сигнала видео. И, возможно выполнить компенсацию движения, используя одно опорное изображение или множество изображений. При кодировании мультикадрового видео в случае, если это текущее изображение ссылается на изображения в отличных кадрах, возможно выполнить компенсация движения, используя информацию списка опорных изображений для межкадрового предсказания, сохраненного в буферном модуле 600 декодированных изображений. И, также возможно выполнить компенсацию движения, используя информацию кадра для идентификации кадра опорного изображения. Прямым режимом является режим кодирования для предсказания информации движения текущего блока из информации движения для кодированного блока. Так как этот способ способен сэкономить ряд битов, требуемых для кодирования информации движения, эффективность сжатия повышается. Например, режим временного направления предсказывает информацию движения для текущего блока, используя корреляцию информации движения во временном направлении. Используя способ, подобный этому способу, настоящее изобретение способно предсказать информацию движения для текущего блока, используя корреляцию информации движения в направлении кадров.The motion compensation module 710 compensates for the motion of the current block using the information transmitted from the statistical decoding module 200. The motion vectors of neighboring blocks of the current block are extracted from the video signal, and then the motion vector prediction block of the current block is derived from the motion vectors of neighboring blocks. And, the motion of the current block is compensated using the obtained motion vector prediction block and the difference motion vector extracted from the video signal. And, it is possible to perform motion compensation using a single reference image or multiple images. When encoding a multi-frame video, if this current image refers to images in excellent frames, it is possible to perform motion compensation using the information of the reference image list for inter-frame prediction stored in the buffer module 600 of the decoded images. And, it is also possible to perform motion compensation using the frame information to identify the frame of the reference image. The direct mode is an encoding mode for predicting motion information of a current block from motion information for an encoded block. Since this method is able to save a number of bits required for encoding motion information, the compression efficiency is improved. For example, the time direction mode predicts motion information for the current block using the correlation of motion information in the time direction. Using a method similar to this method, the present invention is able to predict motion information for the current block using correlation of motion information in the direction of the frames.

Между тем, в случае, если введенный битовый поток соответствует мультикадровому видео, так как соответствующие последовательности кадров получены отличной камерой, разность в освещении генерируется внутренними и внешними факторами этих камер. Чтобы предотвратить это, модуль 720 компенсации освещения компенсирует разность в освещении. При выполнении компенсации освещения возможно использовать информацию флага, указывающую, выполнить ли компенсацию освещения в отношении конкретного уровня сигнала видео. Например, возможно выполнить компенсацию освещения, используя информацию флага, указывающую, выполнить ли компенсацию освещения в отношении соответствующей вырезки или макроблока. При выполнении компенсации освещения, используя информацию флага, компенсация освещения применима к различным типам макроблоков (например, интеррежим 16×16, режим B-skip, прямой режим и т.д.).Meanwhile, if the entered bitstream corresponds to multi-frame video, since the corresponding sequence of frames was obtained by an excellent camera, the difference in lighting is generated by the internal and external factors of these cameras. To prevent this, the lighting compensation module 720 compensates for the difference in lighting. When performing lighting compensation, it is possible to use flag information indicating whether to perform lighting compensation in relation to a particular video signal level. For example, it is possible to perform lighting compensation using flag information indicating whether to perform lighting compensation with respect to the corresponding clipping or macroblock. When performing lighting compensation using flag information, lighting compensation is applicable to various types of macroblocks (for example, 16 × 16 inter-mode, B-skip mode, direct mode, etc.).

При выполнении компенсации освещения возможно использовать информацию для соседнего блока или информацию для блока в кадре, отличном от такового текущего блока, чтобы восстановить текущий блок. И также возможно использовать значение разности освещения текущего блока. В этом случае, если текущий блок ссылается на блоки в отличном кадре, возможно выполнить компенсацию освещения, используя информацию списка опорных изображений для межкадрового предсказания, сохраненную в буферном модуле 600 декодированных изображений. В этом случае значение разности освещения текущего блока указывает разность между средним значением пикселей текущего блока и средним значением пикселей опорного блока, соответствующего текущему блоку. В качестве примера использования значения разности освещения, значение предсказания разности освещения текущего блока получают, используя соседние блоки текущего блока, и используется значение разности (остаточная разность освещения) между значением разности освещения и этим значением предсказания разности освещения. Следовательно, модуль декодирования способен восстановить значение разности освещения текущего блока, используя остаточную разность освещения и значение предсказания разности освещения. При получении значения предсказания разности освещения текущего блока возможно использовать информацию для соседнего блока. Например, возможно предсказать значение разности освещения текущего блока, используя значение разности освещения соседнего блока. До предсказания проверяют, является ли ссылочный индекс текущего блока равным таковому соседнего блока. Согласно результату проверки, затем решается - какой вид из соседнего блока или значения будет использоваться.When performing lighting compensation, it is possible to use information for a neighboring block or information for a block in a frame different from that of the current block to restore the current block. And it is also possible to use the lighting difference value of the current block. In this case, if the current block refers to blocks in a different frame, it is possible to perform lighting compensation using the information of the reference picture list for inter-frame prediction stored in the buffer module 600 of the decoded images. In this case, the illumination difference value of the current block indicates the difference between the average pixel value of the current block and the average pixel value of the reference block corresponding to the current block. As an example of using the illumination difference value, the prediction value of the illumination difference of the current block is obtained using neighboring blocks of the current block, and the difference value (residual illumination difference) between the illumination difference value and this illumination difference prediction value is used. Therefore, the decoding module is able to reconstruct the lighting difference value of the current block using the residual lighting difference and the lighting difference prediction value. Upon receipt of the prediction value of the lighting difference of the current block, it is possible to use information for the neighboring block. For example, it is possible to predict the value of the lighting difference of the current block using the value of the lighting difference of the neighboring block. Before the prediction, it is checked whether the reference index of the current block is equal to that of the neighboring block. According to the result of the check, then it is decided which view from the neighboring block or value will be used.

Модуль 740 предсказания синтеза кадра используется, чтобы синтезировать изображения в виртуальном кадре, используя изображения в кадре, соседнем для кадра текущего изображения, и предсказывать текущее изображение, используя синтезируемые изображения в виртуальном кадре. Модуль декодирования способен решить, синтезировать ли изображение в виртуальном кадре согласно идентификатору предсказания межкадрового синтеза, переданного от модуля кодирования. Например, если view_synthesize_pred_flag = 1 или view_syn_pred_flag = 1, то синтезируется вырезка или макроблок в виртуальном кадре. В этом случае, когда идентификатор предсказания межкадрового синтеза информирует, что виртуальный кадр будет сформирован, возможно сгенерировать изображение в виртуальном кадре, используя информацию кадра для идентификации кадра изображения. И, при предсказании текущего изображения из синтезированных изображений в виртуальном кадре возможно использовать информацию кадра, чтобы использовать изображение в виртуальном кадре как опорное изображение.A frame synthesis prediction module 740 is used to synthesize images in a virtual frame using images in a frame adjacent to the frame of the current image and predict the current image using the synthesized images in the virtual frame. The decoding module is able to decide whether to synthesize the image in the virtual frame according to the prediction identifier of the inter-frame synthesis transmitted from the encoding module. For example, if view_synthesize_pred_flag = 1 or view_syn_pred_flag = 1, then a clipping or macroblock in a virtual frame is synthesized. In this case, when the inter-frame synthesis prediction identifier informs that a virtual frame will be generated, it is possible to generate an image in a virtual frame using the frame information to identify the image frame. And, when predicting the current image from the synthesized images in the virtual frame, it is possible to use the frame information to use the image in the virtual frame as a reference image.

Модуль 750 взвешенного предсказания используется, чтобы компенсировать явление, при котором качество изображения последовательности значительно ухудшается в случае кодирования последовательности, яркость которого изменяется во времени. В MVC, взвешенное предсказание может быть выполнено, чтобы компенсировать разность яркости из последовательности в отличном кадре, также как это выполняется для последовательности, яркость которого изменяется во времени. Например, способ взвешенного предсказания может быть классифицирован в способ явного взвешенного предсказания и способ неявного взвешенного предсказания.A weighted prediction unit 750 is used to compensate for a phenomenon in which the image quality of a sequence is significantly degraded in the case of a coding sequence whose brightness changes over time. In MVC, weighted prediction can be performed to compensate for the difference in brightness from a sequence in a different frame, just as it is for a sequence whose brightness changes over time. For example, a weighted prediction method can be classified into an explicit weighted prediction method and an implicit weighted prediction method.

В частности, явный способ взвешенного предсказания может использовать одно опорное изображение или два опорных изображения. В случае использования одного опорного изображения сигнал предсказания получают из умножения сигнала предсказания, соответствующего компенсации движения, на весовой коэффициент. В случае использования двух опорных изображений сигнал предсказания получают из суммирования значения смещения к значению, получаемому из умножения сигнала предсказания, соответствующего компенсации движения, на весовой коэффициент.In particular, an explicit weighted prediction method may use one reference image or two reference images. In the case of using one reference image, the prediction signal is obtained from multiplying the prediction signal corresponding to the motion compensation by a weight coefficient. In the case of using two reference images, the prediction signal is obtained from summing the bias value to the value obtained from multiplying the prediction signal corresponding to the motion compensation by the weight coefficient.

И, неявное взвешенное предсказание выполняет взвешенное предсказание, используя расстояние от опорного изображения. В качестве способа получения расстояния от опорного изображения возможно использовать POC (порядковый индекс изображения), указывающий порядок вывода изображения, например. В этом случае POC может быть получен, рассматривая идентификационную информацию кадра каждого изображения. При получении весового коэффициента для изображения в отличном кадре возможно использовать информацию кадра для идентификации кадра изображения, чтобы получить расстояние между кадрами соответствующих изображений.And, implicit weighted prediction performs weighted prediction using the distance from the reference image. As a method of obtaining the distance from the reference image, it is possible to use POC (Image Index), indicating the image output order, for example. In this case, the POC can be obtained by considering the frame identification information of each image. When obtaining a weight coefficient for an image in an excellent frame, it is possible to use the frame information to identify the image frame in order to obtain the distance between the frames of the corresponding images.

При кодировании сигнала видеоинформация глубины пригодна для использования для конкретного приложения или другой цели. В этом случае информация глубины может означать информацию, способную указывать разность межкадрового рассогласования. Например, возможно получить вектор рассогласования в соответствии с межкадровым предсказанием. И полученный вектор рассогласования должен быть передан устройству декодирования для компенсации рассогласования текущего блока. Однако, если карта глубины получена и затем передана к устройству декодирования, вектор рассогласования может быть логически выведен из карты глубины (или карты рассогласования) без передачи вектора рассогласования устройству декодирования. В этом случае это выгодно тем, что количество битов информации глубины, которое должно быть передано устройству декодирования, может быть уменьшено. Так, получая вектор рассогласования из карты глубины, возможно обеспечить новый способ компенсации рассогласования. Таким образом, в случае использования изображения в отличном кадре в ходе получения вектора рассогласования из карты глубины, может использоваться информация кадра для идентификации кадра изображения.When encoding a signal, the depth video information is suitable for use for a specific application or other purpose. In this case, the depth information may mean information capable of indicating an inter-frame mismatch difference. For example, it is possible to obtain a mismatch vector in accordance with inter-frame prediction. And the resulting mismatch vector must be transmitted to the decoding device to compensate for the mismatch of the current block. However, if the depth map is received and then transmitted to the decoding device, the mismatch vector can be logically derived from the depth map (or mismatch card) without transmitting the mismatch vector to the decoding device. In this case, this is advantageous in that the number of bits of depth information that must be transmitted to the decoding device can be reduced. So, getting the mismatch vector from the depth map, it is possible to provide a new way to compensate for the mismatch. Thus, in the case of using the image in an excellent frame during the acquisition of the error vector from the depth map, frame information can be used to identify the image frame.

Интерпредсказанные или интрапредсказанные изображения посредством выше описанного процесса, выбирают согласно режиму предсказания, чтобы восстановить текущее изображение. В нижеследующем описании описываются различные варианты осуществления, обеспечивающие эффективный способ декодирования сигнала видео.Inter-predicted or intra-predicted images by the process described above are selected according to the prediction mode in order to restore the current image. In the following description, various embodiments are described that provide an efficient method for decoding a video signal.

Фиг.4 - диаграмма иерархической структуры информации уровня для обеспечения масштабируемости кадра сигнала видео согласно одному варианту осуществления настоящего изобретения.4 is a diagram of a hierarchical structure of level information for providing scalability of a video signal frame according to one embodiment of the present invention.

Со ссылками на фиг.4 информация уровня для каждого кадра может быть определена, рассматривая межкадровую опорную информацию. Например, так как невозможно декодировать P-изображение и B-изображение без I-изображения, возможно назначить 'level=0' основному виду, группа межкадровых изображений которого есть I-изображение, 'level=1' основному виду, группа межкадровых изображений которого есть P-изображение, и 'level=2' основному виду, группа межкадровых изображений которого есть B-изображение. Однако также возможно определить информацию уровня случайным образом согласно конкретному стандарту.With reference to FIG. 4, level information for each frame can be determined by considering inter-frame reference information. For example, since it is impossible to decode a P-image and a B-image without an I-image, it is possible to assign 'level = 0' to the main view, the group of inter-frame images of which is an I-image, 'level = 1' to the main view, whose group of inter-frame images is P-image, and 'level = 2' the main view, the group of inter-frame images of which is a B-image. However, it is also possible to determine level information at random according to a particular standard.

Информация уровня может быть случайным образом определена согласно конкретному стандарту или без стандарта. Например, в случае, когда информация уровня определена на основании кадра, возможно установить кадр V0 в качестве основного кадра в уровень 0 кадра, кадр изображений, предсказанных с использованием изображения в одном кадре в уровень 1 кадра, и кадр изображений, предсказанных с использованием изображения во множестве кадров, в уровень 2 кадра. В этом случае может быть необходима по меньшей мере одна последовательность кадров, чтобы иметь совместимость с обычным декодером (например, H.264/AVC, MPEG-2, MPEG-4, и т.д.). Этот основной кадр становится основой кодирования мультикадрового видео, которое может соответствовать опорному кадру для предсказания другого кадра. Последовательность, соответствующая основному кадру в MVC (мультикадровое кодирование видео), может быть конфигурирована в независимый битовый поток посредством кодирования в соответствии с обычной схемой кодирования последовательности (MPEG-2, MPEG-4, H.263, H.264 и т.д.). Последовательность, соответствующая основному кадру, является совместимой с H.264/AVC, или может не быть таковой. Однако, последовательность в кадре, совместимом с H.264/AVC, соответствует основному кадру.Level information may be randomly determined according to a specific standard or without a standard. For example, in the case where level information is determined based on the frame, it is possible to set the V0 frame as the main frame to frame level 0, the frame of images predicted using the image in one frame to level 1 of the frame, and the frame of images predicted using the image in many frames, in level 2 frames. In this case, at least one frame sequence may be necessary in order to be compatible with a conventional decoder (e.g., H.264 / AVC, MPEG-2, MPEG-4, etc.). This main frame becomes the basis for coding a multi-frame video, which may correspond to a reference frame for predicting another frame. The sequence corresponding to the main frame in MVC (multi-frame video encoding) can be configured into an independent bitstream by encoding in accordance with a conventional sequence encoding scheme (MPEG-2, MPEG-4, H.263, H.264, etc. ) The sequence corresponding to the main frame is compatible with or may not be H.264 / AVC. However, the sequence in the frame compatible with H.264 / AVC corresponds to the main frame.

Как можно видеть на фиг.4, возможно установить кадр V2 изображений, предсказанных, используя изображения в кадре V0, кадр V4 изображений, предсказанных используя изображения в кадре V2, кадр V6 изображений, предсказанных используя изображения в кадре V4, и кадр V7 изображений, предсказанных используя изображения в кадре V6 в уровень 1 кадра. И, возможно установить кадр V1 изображений, предсказанных используя изображения в кадрах V0 и V2, и кадр V3, предсказанный тем же самым способом, и кадр V5, предсказанный тем же самым способом, в уровень 2 кадра. Так, в случае когда декодер пользователя является не способным просмотреть последовательность мультикадрового видео, он декодирует последовательности в кадре, соответствующие только уровню 0 кадров. В случае, если декодер пользователя ограничен информацией профиля, возможно декодировать информацию только ограниченного уровня кадров. В этом случае профиль означает, что технические элементы для алгоритма в процессе кодирования/ декодирования видео являются стандартизированными. В частности, профиль является набором технических элементов, требуемых для декодирования битовой последовательности сжатой последовательности и может быть своего рода подстандартизацией.As can be seen in FIG. 4, it is possible to set a frame V2 of images predicted using images in a frame V0, a frame V4 of images predicted using images in a frame V2, a frame V6 of images predicted using images in a frame V4, and a frame V7 of images predicted using images in a V6 frame at level 1 of the frame. And, it is possible to set the frame V1 of the images predicted using the images in frames V0 and V2, and the frame V3 predicted in the same way, and the frame V5 predicted in the same way, in level 2 of the frame. So, in the case when the user decoder is not able to view the sequence of multi-frame video, it decodes the sequence in the frame, corresponding only to level 0 frames. In case the user decoder is limited to profile information, it is possible to decode information of only a limited level of frames. In this case, the profile means that the technical elements for the algorithm in the video encoding / decoding process are standardized. In particular, a profile is a set of technical elements required for decoding a bit sequence of a compressed sequence and can be a kind of sub-standardization.

Согласно другому варианту осуществления настоящего изобретения информация уровня может измениться согласно расположению камеры. Например, принимая, что кадры V0 и V1 являются последовательностями, полученными камерой, расположенной впереди, что кадры V2 и V3 являются последовательностями, расположенными сзади, что кадры V4 и V5 являются последовательностями, расположенными слева, и что кадры V6 и V7 являются последовательностями, расположенными справа, возможно установить кадры V0 и V1 в уровень 0 кадров, кадры V2 и V3 в уровень 1 кадров, кадры V4 и V5 в уровень 2 кадров, и кадры V6 и V7 в уровень 3 кадров. Альтернативно, информация уровня может измениться согласно выравниванию камеры. Альтернативно, информация уровня может быть случайным образом определена не на основании конкретного стандарта.According to another embodiment of the present invention, the level information may change according to the location of the camera. For example, assuming that frames V0 and V1 are sequences obtained by the camera located in front, that frames V2 and V3 are sequences located at the back, that frames V4 and V5 are sequences located to the left, and that frames V6 and V7 are sequences located at the front. on the right, it is possible to set frames V0 and V1 to level 0 frames, frames V2 and V3 to level 1 frames, frames V4 and V5 to level 2 frames, and frames V6 and V7 to level 3 frames. Alternatively, the level information may vary according to the alignment of the camera. Alternatively, level information may not be randomly determined based on a specific standard.

Фиг.5 - диаграмма конфигурации NAL-блока, включающего в себя информацию уровня в области расширения NAL-заголовка согласно одному варианту осуществления настоящего изобретения.5 is a configuration diagram of a NAL unit including layer information in an extension area of a NAL header according to one embodiment of the present invention.

Со ссылками на фиг.5, NAL-блок в основном включает в себя NAL-заголовок и RBSP. NAL-заголовок включает в себя информацию флага (nal_ref_idc), указывающую, включена ли вырезка, становящаяся опорным изображением NAL-блока, и идентификатор (nal_unit_type), указывающий тип NAL-блока. И NAL-заголовок может также включать в себя информацию уровня (view_level), указывающую информацию для иерархической структуры, чтобы обеспечить масштабируемость кадра.With reference to FIG. 5, a NAL unit mainly includes a NAL header and an RBSP. The NAL header includes flag information (nal_ref_idc) indicating whether the notch becomes the reference image of the NAL block and an identifier (nal_unit_type) indicating the type of the NAL block. And the NAL header may also include level information (view_level) indicating information for the hierarchical structure to provide scalability of the frame.

Сжатые первоначальные данные сохранены в RBSP, и хвостовой бит RBSP добавляют к последней части RBSP, чтобы представить длину RBSP в качестве 8-битового номера перемножения. В качестве типов NAL-блока существуют IDR (мгновенное обновление декодирования), SPS (набор параметров последовательности), PPS (набор параметров изображения), SEI (дополнительная информация расширения), и т.д.The compressed initial data is stored in the RBSP, and the tail of the RBSP is added to the last part of the RBSP to represent the length of the RBSP as an 8-bit multiplication number. As the types of NAL unit, there are IDR (instant update of decoding), SPS (sequence parameter set), PPS (image parameter set), SEI (additional extension information), etc.

NAL-заголовок включает в себя информацию для идентификатора кадра. И последовательность видео соответствующего уровня кадров декодируется со ссылкой на идентификатор кадра в ходе выполнения декодирования согласно уровню кадров.The NAL header includes information for the frame identifier. And the video sequence of the corresponding frame level is decoded with reference to the frame identifier during decoding according to the frame level.

NAL-блок включает в себя NAL-заголовок 51 и уровень 53 вырезки. NAL-заголовок 51 включает в себя расширение 52 NAL-заголовка. И, уровень 53 вырезки включает в себя заголовок 54 вырезки и данные 55 вырезки.The NAL unit includes a NAL header 51 and a cut level 53. The NAL header 51 includes an extension 52 of the NAL header. And, clipping level 53 includes a clipping header 54 and clipping data 55.

NAL-заголовок 51 включает в себя идентификатор (nal_unit_type), указывающий тип NAL-блока. Например, идентификатор, указывающий тип NAL-блока, может быть идентификатором и для масштабируемого кодирования и мультикадрового кодирования видео. В этом случае расширение 52 NAL-заголовка может включать в себя информацию флага, различающую, является ли текущий NAL NAL для масштабируемого кодирования видео или NAL для мультикадрового кодирования видео. И, расширение 52 NAL-заголовка может включать в себя информацию расширения для текущего NAL согласно информации флага. Например, в случае, когда текущий NAL есть NAL для кодирования мультикадрового видео согласно информации флага, расширение 52 NAL-заголовка может включать в себя информацию уровня (view_level), указывающую информацию для иерархической структуры, чтобы обеспечить масштабируемость кадра.The NAL header 51 includes an identifier (nal_unit_type) indicating the type of the NAL unit. For example, an identifier indicating the type of NAL unit may be an identifier for scalable coding and multi-frame coding of video. In this case, the NAL header extension 52 may include flag information distinguishing whether the current NAL is NAL for scalable video encoding or NAL for multi-frame video encoding. And, the NAL header extension 52 may include extension information for the current NAL according to the flag information. For example, in the case where the current NAL is a NAL for encoding multi-frame video according to the flag information, the NAL header extension 52 may include level information (view_level) indicating information for the hierarchical structure to provide scalability of the frame.

Фиг.6 - диаграмма полной структуры предсказания сигнала мультикадрового видео согласно одному варианту осуществления настоящего изобретения, чтобы объяснить концепцию группы межкадровых изображений.6 is a diagram of a complete multi-frame video signal prediction structure according to one embodiment of the present invention, to explain the concept of a group of inter-frame images.

Со ссылками на фиг.6, Т0 - T100 по горизонтальной оси указывают кадры согласно времени, и S0 - S7 на вертикальной оси указывают кадры согласно кадру. Например, изображения в момент T0 означают кадры, зафиксированные различными камерами в одной и той же временной зоне T0, в то время как изображения в S0 означают последовательности, зафиксированные отдельной камерой на различных временных зонах. И, стрелки на чертеже указывают направления предсказания и порядки предсказания соответствующих изображений. Например, изображение Р0 в кадре S2 во временной зоне T0 является изображением, предсказанным из I0, которое становится опорным изображением изображения Р0 в кадре S4 во временной зоне Т0. И, оно становится опорным изображением изображений B1 и B2 во временных зонах T4 и T2 в кадре S2, соответственно.With reference to FIG. 6, T0 to T100 on a horizontal axis indicate frames according to time, and S0 to S7 on a vertical axis indicate frames according to a frame. For example, images at time T0 mean frames captured by different cameras in the same time zone T0, while images at S0 mean sequences captured by a separate camera in different time zones. And, the arrows in the drawing indicate the prediction directions and the prediction orders of the respective images. For example, the image P0 in frame S2 in the time zone T0 is the image predicted from I0, which becomes the reference image of the image P0 in the frame S4 in the time zone T0. And, it becomes a reference image of images B1 and B2 in time zones T4 and T2 in frame S2, respectively.

В процессе мультикадрового декодирования видео может быть необходим межкадровый произвольный доступ. Так, доступ к случайному кадру должен быть возможен посредством минимизации усилия декодирования. В этом случае может быть необходима концепция группы межкадровых изображений, чтобы реализовать эффективный доступ. Группа межкадровых изображений означает кодированное изображение, в котором все вырезки ссылаются только на вырезки с одним и тем же порядковым индексом изображения. Например, группа межкадровых изображений означает кодированное изображение, которое ссылается на вырезки только на отличном кадре без ссылки на вырезки в текущем кадре. На фиг.6, если изображение I0 в кадре S0 во временной зоне Т0 есть группа межкадровых изображений, все изображения в различных кадрах в отношении одной и той же временной зоны, то есть временной зоны Т0, становятся группами мультикадровых изображений. В качестве другого примера, если изображение I0 в кадре S0 во временной зоне T8 есть группа межкадровых изображений, все изображения в отличных кадрах на той же самой временной зоне, то есть временной зоне T8, являются группами мультикадровых изображений. Аналогично, все изображения в T16,..., T96, и T100 также становятся группами мультикадровых изображений.In a multi-frame video decoding process, inter-frame random access may be necessary. Thus, access to a random frame should be possible by minimizing the decoding effort. In this case, the concept of a group of inter-frame images may be necessary in order to realize effective access. Inter-frame image group means an encoded image in which all clippings refer only to clippings with the same image index. For example, a group of inter-frame images means an encoded image that refers to clippings only on a different frame, without reference to clippings in the current frame. 6, if the image I0 in frame S0 in the time zone T0 is a group of inter-frame images, all images in different frames with respect to the same time zone, i.e., the time zone T0, become multi-frame image groups. As another example, if the image I0 in the frame S0 in the time zone T8 is a group of inter-frame images, all the images in different frames in the same time zone, that is, the time zone T8, are multi-frame image groups. Similarly, all images in T16, ..., T96, and T100 also become multi-frame image groups.

Фиг.7 иллюстрирует диаграмму структуры предсказания согласно варианту осуществления настоящего изобретения, чтобы объяснить концепцию вновь определенной группы межкадровых изображений.7 illustrates a diagram of a prediction structure according to an embodiment of the present invention to explain the concept of a newly defined group of inter-frame images.

В общей структуре предсказания MVC, GOP может начинать с I-изображения. И это I-изображение является совместимым с H.264/AVC. Так, все группы межкадровых изображений, совместимые с H.264/AVC, могут всегда стать I-изображением. Однако в случае, если I-изображения заменены P-изображением, разрешается более эффективное кодирование. В частности, более эффективное кодирование разрешается, используя структуру предсказания, допускающую GOP для начала c P-изображения, совместимого с H.264/AVC.In the general MVC prediction structure, a GOP may start with an I-picture. And this I-image is compatible with H.264 / AVC. So, all groups of inter-frame images compatible with H.264 / AVC can always become an I-image. However, if the I-pictures are replaced by a P-picture, more efficient coding is allowed. In particular, more efficient coding is allowed using a prediction structure allowing a GOP to start with a P-image compatible with H.264 / AVC.

В этом случае, если группа межкадровых изображений заново определена, все вырезки станут кодированным изображением, способным ссылаться не только на вырезку в кадре в некоторой временной зоне, но также и вырезку в том же самом кадре в отличной временной зоне. Однако в случае ссылки на вырезку в отличной временной зоне в том же самом кадре, это может быть ограничено группой мультикадровых изображений, совместимых только с H.264/AVC. Например, P-изображение во временной точке T8 в кадре S0 на фиг.6 может стать вновь определенной группой мультикадровых изображений. Аналогично, P-изображение во временной точке T96 в кадре S0 или P-изображение во временной точке T100 в кадре S0 может стать вновь определенной группой мультикадровых изображений. И, группа межкадровых изображений может быть определена, только если она есть основной кадр.In this case, if the group of inter-frame images is redefined, all the clippings will become an encoded image capable of referring not only to a clipping in a frame in a certain time zone, but also to clipping in the same frame in a different time zone. However, in the case of a reference to a clipping in a different time zone in the same frame, this may be limited to a group of multi-frame images compatible only with H.264 / AVC. For example, the P-image at time point T8 in frame S0 in FIG. 6 may become a newly defined group of multi-frame images. Similarly, the P-image at time point T96 in the S0 frame or the P-image at time point T100 in the S0 frame can become a newly defined group of multi-frame images. And, a group of inter-frame images can be defined only if it has a main frame.

После того, как группа межкадровых изображений декодирована, все последовательно кодированные изображения декодируются из изображений, декодированных перед группой мультикадровых изображений в порядке вывода без интерпредсказания.After the inter-frame image group is decoded, all sequentially encoded images are decoded from the images decoded before the multi-frame image group in the output order without inter prediction.

Рассматривая общую структуру кодирования мультикадрового видео, показанную на фиг.6 и фиг.7, так как межкадровая опорная информация группы межкадровых изображений отличается от таковой группы не межкадровых изображений, необходимо отличать группу межкадровых изображений и группу немежкадровых изображений друг от друга согласно идентификационной информации группы межкадровых изображений.Considering the general multi-frame video encoding structure shown in FIG. 6 and FIG. 7, since the inter-frame reference information of the inter-frame image group is different from that of the non-inter-frame image group, it is necessary to distinguish the inter-frame image group and the non-inter-frame image group from each other according to the identification information of the inter-frame group images.

Межкадровая опорная информация означает информацию, способную распознавать структуру предсказания между межкадровыми изображениями. Она может быть получена из области данных сигнала видео. Например, она может быть получена из области набора параметров последовательности. И, межкадровая опорная информация может быть распознана, используя количество опорных изображений и информацию кадра для опорных изображений. Например, получают количество полных кадров, и информация кадра для идентификации каждого кадра может быть затем получена на основании количества полных кадров. И, возможно получить количество опорных изображений для направления ссылки для каждого кадра. Согласно количеству опорных изображений возможно получить информацию кадра для каждого из опорных изображений. Таким образом, может быть получена межкадровая опорная информация. И, межкадровая опорная информация может быть распознана посредством различения группы межкадровых изображений и группы немежкадровых изображений. Она может быть распознана, используя идентификационную информацию группы межкадровых изображений, указывающую, является ли кодированная вырезка в текущем NAL группой мультикадровых изображений. Подробности идентификационной информации группы межкадровых изображений описываются со ссылками на фиг.8 ниже.Inter-frame reference information means information capable of recognizing a prediction structure between inter-frame images. It can be obtained from the video signal data area. For example, it can be obtained from the scope of a sequence parameter set. And, inter-frame reference information can be recognized using the number of reference images and frame information for the reference images. For example, the number of full frames is obtained, and the frame information for identifying each frame can then be obtained based on the number of full frames. And, it is possible to obtain the number of reference images for the link direction for each frame. According to the number of reference images, it is possible to obtain frame information for each of the reference images. Thus, inter-frame reference information can be obtained. And, inter-frame reference information can be recognized by distinguishing between a group of inter-frame images and a group of non-inter-frame images. It can be recognized using the identification information of the inter-frame image group indicating whether the encoded clip in the current NAL is a multi-frame image group. Details of the identification information of the inter-frame image group are described with reference to FIG. 8 below.

Фиг.8 - схематическая блок-схема устройства для декодирования мультикадрового видео, используя группу межкадровых изображений, идентифицирующую информацию согласно одному варианту осуществления настоящего изобретения.FIG. 8 is a schematic block diagram of an apparatus for decoding multi-frame video using a group of inter-frame images identifying information according to one embodiment of the present invention.

Со ссылками на фиг.8 устройство декодирования согласно одному варианту осуществления настоящего изобретения включает в себя модуль 81 определения битового потока, модуль 82 получения идентификационной информации группы межкадровых изображений и модуль 83 декодирования мультикадрового видео.With reference to FIG. 8, a decoding apparatus according to one embodiment of the present invention includes a bitstream determining unit 81, an inter-image group identification information obtaining unit 82, and a multi-frame video decoding unit 83.

Если битовый поток введен, модуль 81 определения битового потока определяет, является ли введенный битовый поток кодированным битовым потоком для масштабируемого кодирования видео или кодированным битовым потоком для кодирования мультикадрового видео. Это может быть определено из информации флага, включенной в битовый поток.If a bitstream is input, the bitstream determination unit 81 determines whether the inputted bitstream is an encoded bitstream for scalable video encoding or an encoded bitstream for encoding multi-frame video. This can be determined from the flag information included in the bitstream.

Модуль 82 получения идентификационной информации группы межкадровых изображений может получать идентификационную информацию группы межкадровых изображений, если введенный битовый поток является битовым потоком для кодирования мультикадрового видео в результате определения. Если полученная идентификационная информация группы межкадровых изображений есть 'истина', это означает, что кодированная вырезка текущего NAL есть группа межкадровых изображений. Если полученная идентификационная информация группы межкадровых изображений есть 'ложь', это означает, что кодированная вырезка текущего NAL есть группа немежкадровых изображений. Идентификационная информация группы межкадровых изображений может быть получена из области расширения NAL-заголовка или области уровня вырезки.The interframe image group identification information obtaining unit 82 may obtain interframe image group identification information if the input bitstream is a bitstream for encoding a multi-frame video as a result of the determination. If the obtained identification information of the inter-frame image group is 'true', this means that the encoded clipping of the current NAL is a group of inter-frame images. If the obtained identification information of the inter-frame image group is 'false', this means that the encoded clipping of the current NAL is a group of non-inter-frame images. The identification information of a group of inter-frame images can be obtained from the extension area of the NAL header or the region of the cut level.

Модуль 83 декодирования мультикадрового видео декодирует мультикадровое видео согласно идентификационной информации группы межкадровых изображений. Согласно общей структуре кодирования последовательности мультикадрового видео, межкадровая опорная (ссылочная) информация группы межкадровых изображений отличается от таковой группы немежкадровых изображений. Так, возможно использовать идентификационную информацию группы межкадровых изображений для добавления опорных изображений для межкадрового предсказания, чтобы сгенерировать список опорных изображений, например, И, также возможно использовать идентификационную информацию группы межкадровых изображений для управления опорными изображениями для межкадрового предсказания. Кроме того, идентификационная информация группы межкадровых изображений применима к гипотетическому опорному декодеру.The multi-frame video decoding unit 83 decodes the multi-frame video according to the identification information of the inter-frame image group. According to the general coding structure of a multi-frame video sequence, the inter-frame reference (reference) information of the inter-frame image group is different from that of the non-frame image group. So, it is possible to use the identification information of the inter-picture group of images to add reference pictures for inter-prediction to generate a list of reference pictures, for example, AND, it is also possible to use the identification information of the group of inter-picture images to control reference pictures for inter-picture prediction. In addition, the identification information of the inter-frame image group is applicable to a hypothetical reference decoder.

В качестве другого примера использования идентификационной информации группы межкадровых изображений, в случае использования информации в отличном кадре для каждого процесса декодирования используется межкадровая опорная информация, включенная в набор параметров последовательности. В этом случае информация для различения, является ли текущее изображение группой межкадровых изображений или группой не межкадровых изображений, то есть идентификационная информация группы межкадровых изображений, может требоваться. Так, возможно использовать отличную межкадровую опорную информацию для каждого процесса декодирования.As another example of using the identification information of a group of inter-frame images, in the case of using information in a different frame for each decoding process, inter-frame reference information included in the sequence parameter set is used. In this case, information for distinguishing whether the current image is a group of inter-frame images or a group of non-inter-frame images, that is, identification information of a group of inter-frame images, may be required. So, it is possible to use excellent inter-frame reference information for each decoding process.

Фиг.9 - последовательность операций процесса для формирования списка опорных изображений согласно варианту осуществления настоящего изобретения.Fig. 9 is a flowchart of a process for generating a list of reference images according to an embodiment of the present invention.

Со ссылками на фиг.9, буферный модуль 600 декодированных изображений играет роль при сохранении или открытии предварительно кодированных изображений для выполнения интер-предсказания для изображения.With reference to FIG. 9, a decoded image buffer module 600 plays a role in storing or opening precoded images to perform inter prediction for an image.

Прежде всего, изображения, кодированные до текущего изображения, сохраняют в модуле 610 сохранения опорного изображения, чтобы использоваться в качестве опорного изображения (S91).First of all, images encoded prior to the current image are stored in the reference image storage unit 610 to be used as the reference image (S91).

При кодировании мультикадрового видео, так как некоторые из предварительно кодированных изображений находятся в кадре, отличном от такового текущего изображения, информация кадра для идентификации кадра изображения может использоваться, чтобы использовать эти изображения в качестве опорного изображения. Так, декодер должен получить информацию кадра для идентификации кадра изображения (S92). Например, информация кадра может включать в себя 'view_id' для идентификации кадра изображения.When encoding a multi-frame video, since some of the pre-encoded images are in a frame different from that of the current image, the frame information for identifying the image frame can be used to use these images as a reference image. So, the decoder must obtain frame information to identify the image frame (S92). For example, frame information may include a 'view_id' to identify an image frame.

Буферный модуль 600 декодированных изображений необходим для получения переменной, используемой в нем, чтобы сформировать список опорных изображений. Так как межкадровое предсказание может требоваться для кодирования мультикадрового видео, если текущее изображение ссылается на изображение в отличном кадре, может быть необходимо сформировать список опорных изображений для межкадрового предсказания. В этом случае буферный модуль 600 декодированных изображений необходим для получения переменной, используемой для формирования списка опорных изображений для межкадрового предсказания, используя полученную информацию кадра (S93).Buffer module 600 of decoded images is necessary to obtain the variable used in it to form a list of reference images. Since inter-frame prediction may be required for encoding multi-frame video, if the current image refers to an image in a different frame, it may be necessary to create a list of reference images for inter-frame prediction. In this case, the buffer module 600 of the decoded images is necessary to obtain a variable used to generate a list of reference images for inter-frame prediction using the obtained frame information (S93).

Список опорных изображений для временного предсказания или список опорных изображений для межкадрового предсказания может быть сгенерирован отличным способом согласно типу вырезки текущей вырезки (S94). Например, если тип вырезки есть P/SP вырезка, формируют список 0 опорных изображений (S95). В случае, когда типом вырезки является B-вырезка, формируют список 0 опорных изображений и список 1 опорных изображений (S96). В этом случае список 0 или 1 опорных изображений может включать в себя только список опорных изображений для временного предсказания или оба из списка опорных изображений для временного предсказания и списка опорных изображений для межкадрового предсказания. Это описан подробно со ссылками на фиг.8 и фиг.9 ниже.The reference picture list for temporal prediction or the reference picture list for inter-frame prediction can be generated in a different way according to the cut type of the current cut (S94). For example, if the cut type is P / SP cut, a list of 0 reference images is formed (S95). In the case where the cut type is B-cut, a list of 0 reference images and a list of 1 reference images are formed (S96). In this case, the reference picture list 0 or 1 may include only the reference picture list for temporal prediction, or both from the reference picture list for temporal prediction and the reference picture list for inter-frame prediction. This is described in detail with reference to FIG. 8 and FIG. 9 below.

Инициализированный список опорных изображений подвергается процессу назначения меньшего номера для часто ссылаемых изображении, чтобы дополнительно повысить коэффициент сжатия (S97). И, это может называться процессом переупорядочения для списка опорных изображений, который описан подробно со ссылками на фиг.12 - 19 ниже. Текущее изображение декодирует, используя переупорядоченный список опорных изображений, и буферный модуль 600 декодированных изображений необходим для управления декодированными опорными изображениями, чтобы использовать буфер более эффективно (S98). Опорные изображения, управляемые вышеупомянутым процессом, считываются модулем 700 интерпредсказания, чтобы использоваться для интерпредсказания. При кодировании мультикадрового видео интерпредсказание может включать в себя межкадровое предсказание. В этом случае используется список опорных изображений для межкадрового предсказания.The initialized reference picture list is subjected to a lower number assignment process for frequently referenced images to further increase the compression ratio (S97). And, this may be called the reordering process for the reference picture list, which is described in detail with reference to FIGS. 12-19 below. The current image is decoded using a reordered list of reference pictures, and a decoded image buffer module 600 is needed to control the decoded reference pictures in order to use the buffer more efficiently (S98). Reference images controlled by the above process are read by inter prediction unit 700 to be used for inter prediction. When encoding a multi-frame video, inter prediction may include inter-frame prediction. In this case, a reference picture list for inter-frame prediction is used.

Подробные примеры для способа формирования списка опорных изображений согласно типу вырезки описываются со ссылками на фиг.10 и фиг.11 ниже.Detailed examples for a method of generating a list of reference images according to a clipping type are described with reference to FIG. 10 and FIG. 11 below.

Фиг.10 - диаграмма для пояснения способа инициализации списка опорных изображений, когда текущая вырезка есть P-вырезка, согласно одному варианту осуществления настоящего изобретения.10 is a diagram for explaining a method of initializing a reference picture list when the current cut is a P-cut, according to one embodiment of the present invention.

Со ссылками на фиг.10 время обозначается как T0, T1, … TN, в то время как кадр обозначен V0, V1,., V4. Например, текущее изображение указывает изображение в момент T3 в кадре V4. И, тип вырезки текущего изображения есть P-вырезка. 'PN' является аббревиатурой переменной PicNum, 'LPN' является аббревиатурой переменной LongTermPicNum, и 'VN' является аббревиатурой переменной ViewNum. Цифра, добавленная к конечной части каждой из переменных, указывает индекс, указывающий время каждого изображения (для PN или LPN) или кадр каждого изображения (для VN). Это применимо к фиг.11 равным образом.With reference to FIG. 10, time is denoted by T0, T1, ... TN, while the frame is denoted by V0, V1,., V4. For example, the current image indicates the image at time T3 in frame V4. And, the clipping type of the current image is P-clipping. 'PN' is an abbreviation of the PicNum variable, 'LPN' is an abbreviation of the LongTermPicNum variable, and 'VN' is an abbreviation of the ViewNum variable. A digit added to the end of each variable indicates an index indicating the time of each image (for PN or LPN) or the frame of each image (for VN). This applies to FIG. 11 equally.

Список опорных изображений для временного предсказания или список опорных изображений для межкадрового предсказания может быть сформирован другим способом согласно типу вырезки текущей вырезки. Например, тип вырезки на фиг.12 есть P/SP вырезка. В этом случае формируют список 0 опорных изображений. В частности, список 0 опорных изображений может включать в себя список опорных изображений для временного предсказания и/или список опорных изображений для межкадрового предсказания. В данном варианте осуществления принимается, что список опорных изображений включает в себя как список опорных изображений для временного предсказания так и список опорных изображений для межкадрового предсказания.The reference picture list for temporal prediction or the reference picture list for inter-frame prediction can be formed in another way according to the cut type of the current cut. For example, the clipping type in FIG. 12 is P / SP clipping. In this case, a list of 0 reference images is formed. In particular, reference picture list 0 may include a reference picture list for temporal prediction and / or a reference picture list for inter-frame prediction. In this embodiment, it is assumed that the reference picture list includes both a reference picture list for temporal prediction and a reference picture list for inter-frame prediction.

Имеются различные способы для упорядочения опорных изображений. Например, опорные изображения могут быть выстроены согласно порядку декодирования или вывода изображения. Альтернативно, опорные изображения могут быть выстроены на основании переменной, полученной с использованием информации кадра. Альтернативно, опорные изображения могут быть выстроены согласно межкадровой опорной информации, указывающей структуру межкадрового предсказания.There are various methods for arranging reference images. For example, reference images may be arranged according to the decoding or output order of the image. Alternatively, reference images may be arranged based on a variable obtained using frame information. Alternatively, reference images may be arranged according to inter-frame reference information indicating an inter-frame prediction structure.

В случае списка опорных изображений для временного предсказания, краткосрочные опорные изображения и долгосрочные опорные изображения могут быть выстроены на основании порядка декодирования. Например, они могут быть выстроены согласно значению переменной PicNum или LongTermPicNum, полученных из значения, указывающего идентификационный номер изображения (например, frame_num или Longtermframeidx). Прежде всего, краткосрочные опорные изображения могут быть инициализированы до долгосрочных опорных изображений. Порядок выстраивания краткосрочных опорных изображений может быть установлен от опорного изображения, имеющего самое высокое значение переменной PicNum, к опорному изображению, имеющему самое низкое значение переменной. Например, краткосрочные опорные изображения могут быть выстроены в порядке PN1, имеющем самую высокую переменную, PN2, имеющую промежуточную переменную, и PN0, имеющем самую низкую переменную среди PN0 - PN2. Порядок выстраивания долгосрочных опорных изображений может быть установлен от опорного изображения, имеющего самое низкое значение переменной LongTermPicNum, к опорному изображению, имеющему самое низкое значение. Например, долгосрочные опорные изображения могут быть выстроены в порядке LPN0, имеющем самое высокое значение переменной и LPN1, имеющем самое низкое значение переменной.In the case of a list of reference pictures for temporal prediction, short-term reference pictures and long-term reference pictures can be arranged based on the decoding order. For example, they can be arranged according to the value of the PicNum or LongTermPicNum variable obtained from a value indicating the image identification number (for example, frame_num or Longtermframeidx). First of all, short-term reference images can be initialized to long-term reference images. The order of alignment of the short-term reference images can be set from the reference image having the highest value of the PicNum variable to the reference image having the lowest value of the variable. For example, short-term reference images may be arranged in order PN1 having the highest variable, PN2 having the intermediate variable, and PN0 having the lowest variable among PN0 - PN2. The order of alignment of the long-term reference images can be set from the reference image having the lowest value of the LongTermPicNum variable to the reference image having the lowest value. For example, long-term reference images may be arranged in the order of LPN0 having the highest variable value and LPN1 having the lowest variable value.

В случае списка опорных изображений для межкадрового предсказания опорные изображения могут быть выстроены на основании первой переменной ViewNum, полученной с использованием информации кадра. В частности, опорные изображения могут быть выстроены в порядке от опорного изображения, имеющего самое высокое значение первой переменной (ViewNum), к опорному изображению, имеющему самое низкое значение первой переменной (ViewNum). Например, опорные изображения могут быть выстроены в порядке VN3, имеющем самую высокую переменную, VN2, VN1 и VN0, имеющим самую низкую переменную среди VN0, VN1, VN2 и VN3.In the case of a reference picture list for inter prediction, reference pictures may be arranged based on a first ViewNum variable obtained using frame information. In particular, reference images can be arranged in order from a reference image having the highest value of the first variable (ViewNum) to a reference image having the lowest value of the first variable (ViewNum). For example, reference images may be arranged in the order of VN3 having the highest variable, VN2, VN1, and VN0 having the lowest variable among VN0, VN1, VN2, and VN3.

Таким образом, оба из списка опорных изображений для временного предсказания и списка опорных изображений для межкадрового предсказания могут управляться как один список опорных изображений. Альтернативно, оба из списка опорных изображений для временного предсказания и списка опорных изображений для межкадрового предсказания могут управляться как отдельные списки опорного изображения, соответственно. В случае управления обоими из списка опорных изображений для временного предсказания и списка опорных изображений для межкадрового предсказания как одним списком опорных изображений, они могут быть инициализированы согласно порядку или одновременно. Например, в случае инициализации обоих из списка опорных изображений для временного предсказания и списка опорных изображений для межкадрового предсказания согласно порядку, предпочтительно инициализируется список опорных изображений для временного предсказания, и список опорных изображений для межкадрового предсказания затем инициализируется дополнительно. Эта концепция также применима к фиг.11.Thus, both of the list of reference pictures for temporal prediction and the list of reference pictures for inter-frame prediction can be managed as one list of reference pictures. Alternatively, both of the reference picture list for temporal prediction and the reference picture list for inter-frame prediction can be managed as separate reference picture lists, respectively. In the case of managing both of the reference picture list for temporal prediction and the reference picture list for inter-frame prediction as one list of reference pictures, they can be initialized in order or simultaneously. For example, in case of initializing both of the list of reference pictures for temporal prediction and the list of reference pictures for inter-frame prediction according to the order, the list of reference pictures for temporal prediction is preferably initialized, and the list of reference pictures for inter-frame prediction is then initialized further. This concept is also applicable to FIG.

Случай, когда типом вырезки текущего изображения является B-вырезка, описан со ссылками на фиг.11 ниже.The case where the cut type of the current image is B-cut is described with reference to FIG. 11 below.

Фиг.11 - диаграмма для пояснения способа инициализации списка опорных изображений, когда текущая вырезка есть B-вырезка согласно одному варианту осуществления настоящего изобретения.11 is a diagram for explaining a method of initializing a reference picture list when the current cut is a B-cut according to one embodiment of the present invention.

Со ссылками на фиг.9, в случае, если типом вырезки является B-вырезка, формируют список 0 опорных изображений и список 1 опорных изображений. В этом случае список 0 опорных изображений или список 1 опорных изображений может включать в себя только список опорных изображений для временного предсказания или оба - как список опорных изображений для временного предсказания,так и список опорных изображений для межкадрового предсказания.With reference to FIG. 9, in case the cut type is B-cut, a list of 0 reference images and a list of 1 reference images are formed. In this case, reference picture list 0 or reference picture list 1 may include only a reference picture list for temporal prediction, or both a reference picture list for temporal prediction and a reference picture list for inter-frame prediction.

В случае списка опорных изображений для временного предсказания способ выстраивания краткосрочных опорных изображений может отличиться от способа выстраивания долгосрочных опорных изображений. Например, в случае краткосрочных опорных изображений опорные изображения могут быть выстроены согласно порядковому индексу изображения (в дальнейшем сокращенно - POC). В случае долгосрочных опорных изображений опорные изображения могут быть выстроены согласно значению переменной (LongtermPicNum). И, краткосрочные опорные изображения могут быть инициализированы до долгосрочных опорных изображений.In the case of a list of reference images for temporal prediction, the method of building short-term reference images may differ from the method of building long-term reference images. For example, in the case of short-term reference images, reference images can be arranged according to the index of the image (hereinafter abbreviated as POC). In the case of long-term reference images, reference images can be aligned according to the value of the variable (LongtermPicNum). And, short-term reference images can be initialized to long-term reference images.

В порядке выстраивания краткосрочных опорных изображений списка 0 опорных изображений, опорные изображения предпочтительно выстраивают от опорного изображения, имеющего самое высокое значение POC, к опорному изображению, имеющему самое низкое значение POC, среди опорных изображений, имеющих POC значения, меньшие чем таковое у текущего изображения, и затем выстраивают от опорного изображения, имеющего самое низкое значение POC, к опорному изображению, имеющему самое высокое значение POC среди опорных изображений, имеющих POC значения, большие чем таковое текущего изображения. Например, опорные изображения могут быть, предпочтительно, выстроены от PN1, имеющего самое высокое значение POC в опорных изображениях PN0 и PN1, имеющих значения POC, меньшие, чем таковое текущего изображения, к PN0, и затем выстроены от PN3, имеющего самое низкое значение POC в опорных изображениях PN3 и PN4, имеющих значение POC, меньшие чем таковое текущего изображения, к PN4.In the order of arranging the short-term reference images of the reference image list 0, the reference images are preferably aligned from the reference image having the highest POC value to the reference image having the lowest POC among the reference images having POC values smaller than that of the current image, and then lining up from the reference image having the lowest POC value to the reference image having the highest POC among the reference images having POC values greater than m is the current image. For example, reference images can preferably be aligned from PN1 having the highest POC value in reference images PN0 and PN1 having POC values smaller than that of the current image to PN0, and then aligned from PN3 having the lowest POC value in reference images PN3 and PN4 having a POC value smaller than that of the current image, to PN4.

В порядке выстраивания долгосрочных опорных изображений списка 0 опорных изображений опорные изображения выстраивают от опорного изображения, имеющего самую низкую переменную LongtermPicNum, к опорному изображению, имеющему самую высокую переменную. Например, опорные изображения выстраивают от LPN0, имеющего самое низкое значение в LPN0 и LPN1, к LPN1, имеющему вторую самую низкую переменную.In order to build the long-term reference images of the list 0 of reference images, the reference images are aligned from the reference image having the lowest LongtermPicNum variable to the reference image having the highest variable. For example, reference images are aligned from LPN0 having the lowest value in LPN0 and LPN1 to LPN1 having the second lowest variable.

В случае списка опорных изображений для межкадрового предсказания опорные изображения могут быть выстроены на основании первой переменной ViewNum, полученной с использованием информации кадра. Например, в случае списка 0 опорных изображений для межкадрового предсказания опорные изображения могут быть выстроены от опорного изображения, имеющего самое высокое значение первой переменной среди опорных изображений, имеющих значения первой переменной ниже, чем таковое текущего изображения, к опорному изображению, имеющему самое низкое значение первой переменной. Опорные изображения затем выстраивают от опорного изображения, имеющего самое низкое значение первой переменной среди опорных изображений, имеющих значение первой переменная большее, чем таковое текущего изображения, к опорному изображению, имеющему самое высокое значение первой переменной. Например, опорные изображения предпочтительно выстраивают от VN1, имеющего самое высокое значение первой переменной в VN0 и VN1, имеющих значение первой переменной, меньшее, чем таковое текущего изображения, к VN0, имеющему самое низкое значение первой переменной, и затем выстраивают от VN3, имеющего самое низкое значение первой переменной в VN3 и VN4, имеющим значение первой переменной большее, чем таковое текущего изображения, к VN4, имеющему самое высокое значение первой переменной.In the case of a reference picture list for inter prediction, reference pictures may be arranged based on a first ViewNum variable obtained using frame information. For example, in the case of a list of 0 reference pictures for inter-frame prediction, the reference pictures may be aligned from the reference picture having the highest value of the first variable among the reference pictures having the values of the first variable lower than that of the current picture to the reference picture having the lowest value of the first variable. The reference images are then aligned from the reference image having the lowest value of the first variable among the reference images having the first variable value greater than that of the current image to the reference image having the highest value of the first variable. For example, reference images are preferably aligned from VN1 having the highest value of the first variable in VN0 and VN1 having the value of the first variable less than that of the current image to VN0 having the lowest value of the first variable, and then aligned from VN3 having the highest a low value of the first variable in VN3 and VN4 having a first variable value greater than that of the current image, to VN4 having the highest value of the first variable.

В случае списка 1 опорных изображений вышеописанный способ выстраивания списка 0 опорного является применимым аналогично.In the case of the reference picture list 1, the above-described method of arranging the reference picture list 0 is applicable similarly.

Прежде всего, в случае списка опорных изображений для временного предсказания, в порядке выстраивания (упорядочения) краткосрочного опорного изображения списка 1 опорных изображений опорные изображения предпочтительно выстраиваются от опорного изображения, имеющего самое низкое значение POC, к опорному изображению, имеющему самое высокое значение POC среди опорных изображений, имеющих POC значения, большие чем таковые текущего изображения, и затем выстраиваются от опорного изображения, имеющего самое высокое значение POC, к опорному изображению, имеющему самое низкое значение POC среди опорных изображений, имеющих значения POC, меньшие, чем таковое текущего изображения. Например, опорные изображения могут быть предпочтительно выстроены от PN3, имеющего самое низкое значение POC в опорных изображениях PN3 и PN4, имеющих POC значения, большие чем таковое текущего изображения, к PN4, и затем выстроены от PN1, имеющего самое высокое значение POC в опорных изображениях PN0 и PN1, имеющих POC значения, большие чем таковое текущего изображения, к PN0.First of all, in the case of the reference picture list for temporal prediction, in order to arrange (arrange) the short-term reference picture of the reference picture list 1, the reference pictures are preferably aligned from the reference picture having the lowest POC value to the reference picture having the highest POC among the reference pictures images having POC values larger than those of the current image, and then line up from the reference image having the highest POC value to the reference image the position having the lowest POC among the reference images having POCs smaller than that of the current image. For example, reference pictures can preferably be aligned from PN3 having the lowest POC value in reference pictures PN3 and PN4 having POC values larger than that of the current picture to PN4, and then aligned from PN1 having the highest POC value in reference pictures PN0 and PN1 having POC values greater than that of the current image to PN0.

В порядке выстраивания (упорядочения) долгосрочных опорных изображений списка 1 опорных изображений, опорные изображения выстраиваются от опорного изображения, имеющего самую низкую переменную LongtermPicNum, к опорному изображению, имеющему самую высокую переменную. Например, опорные изображения выстроены от LPN0, имеющего самое низкое значение в LPN0 и LPN1, к LPN1, имеющему самую низкую переменную.In the order of alignment of the long-term reference images of the reference image list 1, the reference images are aligned from the reference image having the lowest LongtermPicNum variable to the reference image having the highest variable. For example, reference images are aligned from LPN0 having the lowest value in LPN0 and LPN1 to LPN1 having the lowest variable.

В случае списка опорных изображений для межкадрового предсказания опорные изображения могут быть выстроены на основании первой переменной ViewNum, полученной с использованием информации кадра. Например, в случае 1 списка опорных изображений для межкадрового предсказания, опорные изображения могут быть выстроены от опорного изображения, имеющего самое низкое значение первой переменной среди опорных изображений, имеющих значение первой переменной, большее чем таковое текущего изображения, к опорному изображению, имеющему самое высокое значение первой переменной. Опорные изображения затем выстраивают (упорядочивают) от опорного изображения, имеющего самое высокое значение первой переменной среди опорных изображений, имеющих значение первой переменной, меньшее чем таковое текущего изображения, к опорному изображению, имеющему самое низкое значение первой переменной. Например, опорные изображения предпочтительно выстраивают от VN3, имеющего самое низкое значение первой переменной в VN3 и VN4, имеющих значение первой переменной, большее чем таковое текущего изображения, к VN4, имеющему самое высокое значение первой переменной, и затем выстраивают от VN1, имеющему самое высокое значение первой переменной в VN0 и VN1, имеющих значение первой переменной, меньшее чем таковое текущего изображения, к VN0, имеющему самое низкое значение первой переменной.In the case of a reference picture list for inter prediction, reference pictures may be arranged based on a first ViewNum variable obtained using frame information. For example, in case 1 of the reference picture list for inter-frame prediction, the reference pictures may be aligned from the reference picture having the lowest value of the first variable among the reference pictures having the first variable value greater than that of the current picture to the reference picture having the highest value first variable. The reference images are then aligned (ordered) from the reference image having the highest value of the first variable among the reference images having the value of the first variable less than that of the current image to the reference image having the lowest value of the first variable. For example, reference images are preferably aligned from VN3 having the lowest value of the first variable in VN3 and VN4 having a first variable value greater than that of the current image to VN4 having the highest value of the first variable, and then aligned from VN1 having the highest the value of the first variable in VN0 and VN1 having the value of the first variable less than that of the current image, to VN0 having the lowest value of the first variable.

Список опорных изображений, инициализированный вышеупомянутым процессом, передают модулю 640 переупорядочения списка опорных изображений. Инициализированный список опорных изображений затем переупорядочивают для более эффективного кодирования. Процесс переупорядочения должен уменьшить частоту следования битов, назначая малое количество опорному изображению, имеющему самую высокую вероятность выбора в качестве опорного изображения, используя буфер декодированных изображений. Различные способы переупорядочения списка опорных изображений описываются со ссылками на фиг.12-19 ниже.The reference image list initialized by the above process is passed to the reference image list reordering unit 640. The initialized reference picture list is then reordered for more efficient coding. The reordering process should reduce the bit rate by assigning a small amount to the reference image having the highest probability of being selected as the reference image using a decoded image buffer. Various methods for reordering the reference image list are described with reference to FIGS. 12-19 below.

Фиг.12 иллюстрирует внутреннюю блок-схему модуля 640 переупорядочения списка опорных изображений согласно одному варианту осуществления настоящего изобретения.12 illustrates an internal block diagram of a reference picture list reordering module 640 according to one embodiment of the present invention.

Со ссылками на фиг.12 модуль 640 переупорядочения списка опорных изображений в основном включает в себя модуль 642 проверки типов вырезки, модуль 643 переупорядочения списка 0 опорных изображений и модуль 645 переупорядочения списка 1 опорных изображений.With reference to FIG. 12, the reference image list reordering module 640 mainly includes a clipping type checking module 642, the reference image list reordering module 643, and the reference image list reordering module 645.

В частности, модуль 643 переупорядочения списка 0 опорных изображений включает в себя первый модуль 643A получения идентификационной информации и первый модуль 643B изменения назначения ссылочного индекса. И, модуль 645 переупорядочения списка 1 опорных изображений включает в себя второй модуль 645A получения идентификационной информации и второй модуль 645B изменения назначения ссылочного индекса.In particular, the reference image list reordering unit 643 64 includes a first identification information obtaining unit 643A and a first reference index assignment changing unit 643B. And, the reference picture list reordering module 645 includes a second identification information obtaining module 645A and a second reference index assignment changing module 645B.

Модуль 642 проверки типов вырезки проверяет тип вырезки текущей вырезки. Затем принимается решение - переупорядочить ли список 0 опорных изображений и/или список 1 опорных изображений согласно типу вырезки. Например, если тип вырезки текущей вырезки есть I-вырезка, оба из списка 0 опорных изображений и списка 1 опорных изображений не переупорядочиваются. Если тип вырезки текущей вырезки есть P-вырезка, переупорядочивается только список 0 опорных изображений. Если тип вырезки текущей вырезки есть B-вырезка, переупорядочиваются оба из списка 0 опорных изображений и списка 1 опорных изображений.The clipping type checking module 642 checks the clipping type of the current clipping. Then a decision is made whether to reorder the list of 0 reference images and / or the list of 1 reference images according to the type of clipping. For example, if the cut type of the current cut is I-cut, both of the list of 0 reference images and the list of 1 reference images are not reordered. If the cut type of the current cut is P-cut, only the list of 0 reference images is reordered. If the cut type of the current cut is B-cut, both of the list of 0 reference images and the list of 1 reference images are reordered.

Модуль 643 переупорядочения списка 0 опорных изображений активизируется, если информация флага для выполнения переупорядочения списка опорных изображений равна 'истина', и если тип вырезки текущей вырезки не есть I-вырезка. Первый модуль 643A получения идентификационной информации получает идентификационную информацию, указывающую способ назначения ссылочного индекса. Первый модуль 643B изменения назначения ссылочного индекса изменяет ссылочный индекс, назначенный каждому опорному изображению списка 0 опорных изображений согласно этой идентификационной информации.The reordering module 643 of the reference picture list 0 is activated if the flag information for performing the reordering of the reference picture list is 'true', and if the cut type of the current cut is not I-cut. The first identification information obtaining unit 643A obtains identification information indicating a method for assigning a reference index. The first reference index assignment change module 643B changes the reference index assigned to each reference image of the reference image list 0 according to this identification information.

Аналогично, модуль 645 переупорядочения списка 1 опорных изображений активизируется, если информация флага для выполнения переупорядочения списка 1 опорных изображений равна 'истина' и если типом вырезки текущей вырезки является B-вырезка. Второй модуль 645A получения идентификационной информации получает идентификационную информацию, указывающую способ назначения ссылочного индекса. Второй модуль 645B изменения назначения ссылочного индекса изменяет ссылочный индекс, назначенный каждому опорному изображению списка 1 опорных изображений, согласно этой идентификационной информации.Similarly, the reordering unit 645 of the reference picture list 1 is activated if the flag information for performing the reordering of the reference picture list 1 is “true” and if the cut type of the current cut is B-cut. The second identification information obtaining unit 645A obtains identification information indicating a method for assigning a reference index. The second reference index assignment change module 645B changes the reference index assigned to each reference image of the reference image list 1 according to this identification information.

Так, информацию списка опорных изображений, используемую для фактического интерпредсказания, формируют посредством модуля 643 переупорядочения списка 0 опорных изображений и модуля 645 переупорядочения списка 1 опорных изображений.Thus, reference image list information used for actual inter prediction is generated by the reordering unit 643 of the reference image list 0 and the reordering unit 645 of the reference image list 1.

Способ изменения ссылочного индекса, назначенного каждому опорному изображению посредством модуля 643B или 645B изменения назначения первого или второго ссылочного индекса, описан со ссылками на фиг.13 ниже.A method for changing a reference index assigned to each reference image by a first or second reference index assignment unit 643B or 645B is described with reference to FIG. 13 below.

Фиг.13 - внутренняя блок-схема модуля 643B или 645B изменения назначения ссылочного индекса согласно одному варианту осуществления настоящего изобретения. В следующем описании модуль 643 переупорядочения списка 0 опорных изображений и модуль 645 переупорядочения списка 1 опорных изображений, показанные на фиг.12, описаны вместе.13 is an internal block diagram of a reference index assignment change module 643B or 645B according to one embodiment of the present invention. In the following description, the reference picture list reordering module 643 64 and the reference picture list reordering module 645 shown in FIG. 12 are described together.

Со ссылками на фиг.13 каждый из первого и второго модуля 643B и 645B изменения назначения ссылочного индекса включает в себя модуль 644A изменения назначения ссылочного индекса для временного предсказания, модуль 644B изменения назначения ссылочного индекса для долгосрочного опорного изображения, модуль 644C изменения назначения ссылочного индекса для межкадрового предсказания, и модуль 644D окончания (завершения) изменения назначения ссылочного индекса. Согласно идентификационным информациям, полученным первым или вторым модулями 643B или 645B изменения назначения ссылочного индекса, части в первом или втором модулях 643B и 645B изменения назначения ссылочного индекса активизируются, соответственно. И процесс переупорядочения продолжает выполнение, пока не будет введена идентификационная информация для завершения изменения назначения ссылочного индекса.With reference to FIG. 13, each of the first and second reference index assignment change module 643B and 645B includes a temporal prediction reference index assignment change module 644A, a reference index assignment change module 644B for a long-term reference image, and a reference index assignment change module 644C for inter prediction, and the module 644D termination (completion) of the destination change of the reference index. According to the identification information obtained by the first or second modules 643B or 645B, the changes in the assignment of the reference index, the parts in the first or second modules 643B and 645B of the change in the assignment of the reference index are activated, respectively. And the reordering process continues until the identification information is entered to complete the reassignment of the reference index.

Например, если идентификационная информация для изменения назначения ссылочного индекса для временного предсказания получена от первого или второго модуля 643B или 645B изменения назначения ссылочного индекса, активизируется модуль 644A изменения назначения ссылочного индекса для временного предсказания. Этот модуль 644A изменения назначения ссылочного индекса для временного предсказания получает разность номеров изображения согласно принятой идентификационной информации. В этом случае разность номеров изображения означает разность между номером изображения текущего изображения и номером предсказанного изображения. И номер предсказанного изображения может указывать номер опорного изображения, назначенного непосредственно перед (ним). Так, возможно изменить назначение ссылочного индекса, используя полученную разность номеров изображения. В этом случае разность номеров изображения может быть добавлена/вычтена к/из предсказанного номера изображения согласно идентификационной информации.For example, if the identification information for changing the reference index assignment for temporal prediction is obtained from the first or second reference index assignment changing module 643B or 645B, the temporal prediction reference index changing module 644A is activated. This temporal prediction reference index assignment change module 644A obtains an image number difference according to the received identification information. In this case, the difference of the image numbers means the difference between the image number of the current image and the number of the predicted image. And the number of the predicted image may indicate the number of the reference image assigned immediately before it. So, it is possible to change the purpose of the reference index using the resulting image number difference. In this case, the difference in image number can be added / subtracted to / from the predicted image number according to the identification information.

Для другого случая, если принята идентификационная информация для изменения назначения ссылочного индекса для назначенного долгосрочного опорного изображения, активизируется модуль 644B изменения назначения ссылочного индекса для долгосрочного опорного изображения. Модуль 644B изменения назначения ссылочного индекса для долгосрочного опорного изображения получает номер долгосрочного опорного изображения обозначенного изображения согласно идентификационному номеру.For another case, if the identification information for changing the destination of the reference index for the assigned long-term reference image is received, the module 644B changing the destination of the reference index for the long-term reference image is activated. The reference index assignment change module 644B for the long-term reference image obtains a long-term reference image number of the designated image according to the identification number.

Для другого случая, если принята идентификационная информация для изменения назначения ссылочного индекса для межкадрового предсказания, активизируется модуль 644С изменения назначения ссылочного индекса для межкадрового предсказания. Модуль 644С изменения назначения ссылочного индекса для межкадрового предсказания получает разность информации кадра согласно идентификационной информации. В этом случае разность информации кадра означает разность между номером кадра текущего изображения и номером предсказанного кадра. И, предсказанный номер кадра может указывать номер кадра опорного изображения, назначенный непосредственно до него. Так, возможно изменить назначение ссылочного индекса, используя полученную разность информации кадра. В этом случае разность информации кадра может быть добавлена/вычтена к/из предсказанного номера кадра согласно идентификационной информации.For another case, if identification information for changing the assignment of the reference index for inter-frame prediction is received, the module 644C changing the designation of the reference index for inter-frame prediction is activated. Inter-prediction reference index assignment change module 644C obtains a frame information difference according to identification information. In this case, the difference of the frame information means the difference between the frame number of the current image and the number of the predicted frame. And, the predicted frame number may indicate the frame number of the reference image assigned immediately before it. So, it is possible to change the purpose of the reference index using the obtained frame information difference. In this case, the difference of the frame information can be added / subtracted to / from the predicted frame number according to the identification information.

Для другого случая, если принята идентификационная информация для завершения изменения назначения ссылочного индекса, активизируется модуль 644D окончания изменения назначения ссылочного индекса. Модуль 644D окончания изменения назначения ссылочного индекса заканчивает изменение назначения ссылочного индекса согласно принятой идентификационной информации. Так, модуль 640 переупорядочения списка опорных изображений генерирует информацию списка опорных изображений.For another case, if identification information is received to complete the change of destination of the reference index, the module 644D of the end of the change of destination of the reference index is activated. The reference index assignment change completion module 644D ends the reference index assignment change according to the received identification information. Thus, the reference picture list reordering module 640 generates reference picture list information.

Таким образом, опорные изображения, используемые для межкадрового предсказания, могут управляться вместе с опорными изображениями, используемыми для временного предсказания. Альтернативно, опорные изображения, используемые для межкадрового предсказания, могут управляться отдельно от опорных изображений, используемых для временного предсказания. Для этого могут требоваться новые информации для управления опорными изображениями, используемыми для межкадрового предсказания. Это будет описано со ссылками на фиг.15-19 ниже.Thus, the reference images used for inter-frame prediction can be controlled together with the reference images used for temporal prediction. Alternatively, reference images used for inter-frame prediction can be controlled separately from reference images used for temporal prediction. This may require new information to control the reference images used for inter-frame prediction. This will be described with reference to FIGS. 15-19 below.

Подробности модуля 644C изменения назначения ссылочного индекса для межкадрового предсказания описаны со ссылками на фиг.14 ниже.Details of the inter-frame prediction reference index assignment module 644C are described with reference to FIG. 14 below.

Фиг.14 - диаграмма для пояснения процесса для переупорядочения списка опорных изображений, используя информацию кадра согласно одному варианту осуществления настоящего изобретения.14 is a diagram for explaining a process for reordering a list of reference images using frame information according to one embodiment of the present invention.

Со ссылками на фиг.14, если номер VN кадра текущего изображения равен 3, если размер буфера DPBsize декодированного изображения равен 4, и если тип вырезки текущей вырезки есть P-вырезка, процесс переупорядочения для списка 0 опорных изображений описан ниже.With reference to FIG. 14, if the frame number VN of the current picture is 3, if the size of the decoder picture DPBsize buffer is 4, and if the cut type of the current cut is P-cut, the reordering process for the reference picture list 0 is described below.

Прежде всего, первоначально предсказанный номер кадра равен '3', который является номером кадра текущего изображения. И, начальное упорядочение списка 0 опорных изображений для межкадрового предсказания равно '4, 5, 6, 2' ((1)). В этом случае, если принята идентификационная информация для изменения назначения ссылочного индекса для межкадрового предсказания посредством вычитания разности информации кадра, '1' получают в качестве разности информации кадра согласно принятой идентификационной информации. Вновь предсказанный номер кадра (=2) вычисляют, вычитая разность информации кадра (=1) из предсказанного номера кадра (=3). В частности, первый индекс списка 0 опорных изображений для межкадрового предсказания назначается опорному изображению, имеющему номер кадра 2. И, изображение, ранее назначенное первому индексу, может быть перемещено в самую заднюю часть списка 0 опорных изображений. Таким образом, переупорядоченный список опорных изображений равен '2, 5, 6, 4' ((2)). Затем, если принята идентификационная информация для изменения назначения ссылочного индекса для межкадрового предсказания посредством вычитания разности информации кадра, '-2' получают в качестве разности информации кадра согласно этой идентификационной информации. Вновь предсказанный номер кадра затем вычисляют, вычитая разность информации кадра (= -2) из предсказанного номера кадра. В частности, второй индекс списка 0 опорных изображений для межкадрового предсказания назначают опорному изображению, имеющему номер кадра 4. Следовательно, переупорядоченный список 0 опорных изображений есть '2, 4, 6, 5' ((3)). Затем, если принята идентификационная информация для завершения изменения назначения ссылочного индекса, список 0 опорных изображений, имеющий переупорядоченный список 0 опорных изображений в качестве окончания, формируют согласно принятой идентификационной информации ((4)). Следовательно, порядок окончательно сформированного списка 0 опорных изображений для межкадрового предсказания равен '2, 4, 6, 5'.First of all, the initially predicted frame number is '3', which is the frame number of the current image. And, the initial ordering of the reference picture list 0 for inter-frame prediction is '4, 5, 6, 2' ((1)). In this case, if identification information is received to change the assignment of the reference index for inter-frame prediction by subtracting the difference of the frame information, '1' is obtained as the difference of the frame information according to the received identification information. The newly predicted frame number (= 2) is calculated by subtracting the difference of the frame information (= 1) from the predicted frame number (= 3). In particular, the first index of the reference picture list 0 for inter-frame prediction is assigned to the reference picture having frame number 2. And, the image previously assigned to the first index can be moved to the very back of the reference picture list 0. Thus, the reordered list of reference images is '2, 5, 6, 4' ((2)). Then, if identification information is received to change the assignment of the reference index for inter prediction by subtracting the difference of the frame information, '-2' is obtained as the difference of the frame information according to this identification information. The newly predicted frame number is then calculated by subtracting the difference of the frame information (= -2) from the predicted frame number. In particular, the second index of the reference picture list 0 for inter-frame prediction is assigned to the reference picture having frame number 4. Therefore, the reordered reference picture list 0 is '2, 4, 6, 5' ((3)). Then, if identification information is received to complete the reassignment of the reference index, the reference image list 0 having the rearranged reference image list 0 as an end is formed according to the received identification information ((4)). Therefore, the order of the finally generated reference picture list 0 for inter-frame prediction is '2, 4, 6, 5'.

Для другого случая переупорядочения остальных изображений после того, как первый индекс списка 0 опорных изображений для межкадрового предсказания был назначен, изображение, назначенное каждому индексу, может быть перемещено вправо в позицию сразу позади таковой соответствующего изображения. В частности, второй индекс назначен изображению, имеющему номер кадра 4, третий индекс назначен изображению (номер кадра 5), которому был назначен второй индекс, и четвертый индекс назначен изображению (номер кадра 6), которому был назначен третий индекс. Следовательно, переупорядоченный список 0 опорных изображений становится равным '2, 4, 5, 6'. И, последующий процесс переупорядочения может быть выполнен таким же образом.For another case of reordering the remaining images after the first index of the reference picture list 0 for inter-frame prediction has been assigned, the image assigned to each index can be moved to the right to the position immediately behind that of the corresponding image. In particular, the second index is assigned to the image having the frame number 4, the third index is assigned to the image (frame number 5) to which the second index has been assigned, and the fourth index is assigned to the image (frame number 6) to which the third index has been assigned. Therefore, the reordered list 0 of reference images becomes equal to '2, 4, 5, 6'. And, the subsequent reordering process can be performed in the same way.

Список опорных изображений, сформированный вышеупомянутым процессом, используется для интер- (внешнего) предсказания. Оба из списка опорных изображений для межкадрового предсказания и списка опорных изображений для временного предсказания могут управляться как один список опорных изображений. Альтернативно, каждый из списка опорных изображений для межкадрового предсказания и списка опорных изображений для временного предсказания может управляться как отдельный список опорных изображений. Это описано со ссылками на фиг. от 15 до 19 ниже.The reference picture list generated by the above process is used for inter (external) prediction. Both of the reference picture list for inter-frame prediction and the list of reference pictures for temporal prediction can be managed as one list of reference pictures. Alternatively, each of the reference picture list for inter-frame prediction and the reference picture list for temporal prediction can be managed as a separate reference picture list. This is described with reference to FIG. 15 to 19 below.

Фиг.15 - внутренняя блок-схема модуля 640 переупорядочения списка опорных изображений согласно другому варианту осуществления настоящего изобретения.15 is an internal block diagram of a reference picture list reordering module 640 according to another embodiment of the present invention.

Со ссылками на фиг.15, чтобы управлять списком опорных изображений для межкадрового предсказания как отдельным списком опорных изображений, новая информация может быть необходимо. Например, список опорных изображений для временного предсказания переупорядочивается, и список опорных изображений для межкадрового предсказания затем переупорядочивается в некоторых случаях.With reference to FIG. 15, in order to manage the reference picture list for inter-frame prediction as a separate reference picture list, new information may be necessary. For example, the reference picture list for temporal prediction is reordered, and the reference picture list for inter-frame prediction is then reordered in some cases.

Модуль 640 переупорядочения списка опорных изображений в основном включает в себя модуль 910 переупорядочения списка опорных изображений для временного предсказания, модуль 960 проверки типа NAL, и модуль 970 переупорядочения списка опорных изображений для меж-кадрового предсказания.The reference picture list reordering module 640 mainly includes a temporal prediction reference picture reordering module 910, a NAL type checking module 960, and an inter-frame prediction reference picture reordering module 970.

Модуль 910 переупорядочения списка опорных изображений для временного предсказания включает в себя модуль 642 проверки типов вырезки, третий модуль 920 получения идентификационной информации, третий модуль 930 изменения назначения ссылочного индекса, четвертый модуль 940 получения идентификационной информации, и четвертый модуль 950 изменения назначения ссылочного индекса. Третий модуль 930 изменения назначения ссылочного индекса включает в себя модуль 930A изменения назначения ссылочного индекса для временного предсказания, модуль 930B изменения назначения ссылочного индекса для долгосрочного опорного изображения, и модуль 930C завершения изменения назначения ссылочного индекса. Аналогично, четвертый модуль 950 изменения назначения ссылочного индекса включает в себя модуль 950A изменения назначения ссылочного индекса для временного предсказания, модуль 950B изменения назначения ссылочного индекса для долгосрочного опорного изображения, и модуль 950C завершения изменения назначения ссылочного индекса.The temporal prediction reference image reordering unit 910 includes a clipping type checking module 642, a third identification information obtaining module 920, a third reference index assignment changing module 930, a fourth identification information obtaining module 940, and a fourth reference index assignment changing module 950. The third reference index assignment change module 930 includes a temporal prediction reference index assignment change module 930A, a reference index assignment change module 930B for a long-term reference image, and a reference index assignment change completion module 930C. Similarly, the fourth reference index assignment change module 950 includes a temporal prediction reference index assignment change module 950A, a reference index assignment change module 950B for a long-term reference image, and a reference index assignment change completion module 950C.

Модуль 910 переупорядочения списка опорных изображений для временного предсказания переупорядочивает опорные изображения, используемые для временного предсказания. Операции модуля 910 переупорядочения списка опорных изображений для временного предсказания идентичны таковым вышеупомянутого модуля 640 переупорядочения списка опорных изображений, показанного на фиг.10, кроме информации для опорных изображений для межкадрового предсказания. Таким образом, подробности модуля 910 переупорядочения списка опорных изображений для временного предсказания опущены в нижеследующем описании.The temporal prediction reference picture reordering unit 910 reorders the reference pictures used for temporal prediction. The operations of the reference picture reordering module 910 for temporal prediction are identical to those of the aforementioned reference picture reordering module 640 of FIG. 10, in addition to information for reference pictures for inter-frame prediction. Thus, the details of the temporal prediction reference picture reordering unit 910 are omitted in the following description.

Блок проверки типа NAL 960 проверяет тип NAL принятого битового потока. Если тип NAL есть NAL для мультикадрового кодирования видео, опорные изображения, используемые для межкадрового предсказания, переупорядочивают посредством модуля 970 переупорядочения списка опорных изображений для временного предсказания. Сформированный список опорных изображений для межкадрового предсказания используется для интер-предсказания вместе со списком опорных изображений, сформированным модулем 970 переупорядочения списка опорных изображений для временного предсказания. Однако, если тип NAL есть не NAL для мультикадрового кодирования видео, список опорных изображений для межкадрового предсказания не переупорядочивают. В этом случае формируют только список опорных изображений для временного предсказания. И, модуль 970 переупорядочивания списка опорных изображений межкадрового предсказания переупорядочивает опорные изображения, используемые для межкадрового предсказания. Это описано подробно со ссылками на фиг.16 ниже.The NAL type verification unit 960 checks the NAL type of the received bitstream. If the NAL type is NAL for multi-frame video encoding, the reference pictures used for inter-frame prediction are reordered by the temporal prediction reference picture reordering unit 970. The generated reference picture list for inter-frame prediction is used for inter prediction together with the reference picture list generated by the temporal prediction reference picture reordering unit 970. However, if the NAL type is not NAL for multi-frame video encoding, the reference picture list for inter-frame prediction is not reordered. In this case, only a list of reference images for temporal prediction is formed. And, the inter-prediction reference picture list reordering unit 970 reorders the reference pictures used for inter-frame prediction. This is described in detail with reference to FIG. 16 below.

Фиг.16 - внутренняя блок-схема модуль 970 переупорядочения списка опорных изображений для межкадрового предсказания согласно одному варианту осуществления настоящего изобретения.16 is an internal block diagram of a reference picture reordering module 970 for inter-frame prediction according to one embodiment of the present invention.

Со ссылками на фиг.16, модуль 970 переупорядочения списка опорных изображений для межкадрового предсказания включает в себя модуль 642 проверки типов вырезки, пятый модуль 971 получения идентификационной информации, пятый модуль 972 изменения назначения ссылочного индекса, шестой модуль 973 получения идентификационной информации, и шестой модуль 974 изменения назначения ссылочного индекса.With reference to FIG. 16, a reference picture list reordering module 9 for inter prediction includes a clipping type checking module 642, a fifth identification information obtaining module 971, a fifth reference index assignment changing module 972, a sixth identification information obtaining module 973, and a sixth module 974 changes to the destination of the reference index.

Модуль 642 проверки типов вырезки проверяет тип вырезки текущей вырезки. Если да, затем принимается решение, выполнить ли переупорядочение списка 0 опорных изображений и/или списка 1 опорных изображений согласно типу вырезки. Подробности модуля 642 проверки типов вырезки могут быть выведены из фиг.10, которые опущены в нижеследующем описании.The clipping type checking module 642 checks the clipping type of the current clipping. If so, then a decision is made whether to reorder the reference image list 0 and / or the reference image list 1 according to the clipping type. Details of the clipping type checking module 642 can be inferred from FIG. 10, which are omitted in the following description.

Каждый из пятого и шестого модулей 971 и 973 получения идентификационной информации получает идентификационную информацию, указывающую способ назначения ссылочного индекса. И, каждый из пятого и шестого модулей 972 и 974 изменения назначения ссылочного индекса изменяет ссылочный индекс, назначенный каждому опорному изображению списка 0 и/или 1 опорных изображений. В этом случае ссылочный индекс может означать только номер кадра опорных изображений. И, идентификационная информация, указывающая способ назначения ссылочного индекса, может быть информацией флага. Например, если информация флага истинна, назначение номера кадра изменяется. Если информация флага есть 'ложь', процесс переупорядочения номера кадра может быть закончен. Если информация флага есть 'истина', каждый из пятого и шестого модулей 972 и 974 изменения назначения ссылочного индекса может получить разность номеров кадра согласно информации флага. В этом случае разность номеров кадров означает разность между номером кадра текущего изображения и номером кадра предсказанного изображения. И, номер кадра предсказанного изображения может означать номер кадра опорного изображения, назначенного как раз перед ним. Затем можно изменить назначение номера кадра, используя разность номеров кадров. В этом случае разность номеров кадров может быть добавлена/вычтена к/из количества кадра предсказанного изображения согласно идентификационной информации.Each of the fifth and sixth identification information obtaining modules 971 and 973 obtains identification information indicating a method of assigning a reference index. And, each of the fifth and sixth modules 972 and 974 change the destination of the reference index changes the reference index assigned to each reference image of the list 0 and / or 1 reference images. In this case, the reference index can only mean the frame number of the reference images. And, identification information indicating a method for assigning a reference index may be flag information. For example, if the flag information is true, the assignment of the frame number changes. If the flag information is false, the reordering of the frame number may be completed. If the flag information is 'true', each of the fifth and sixth reference index assignment change modules 972 and 974 may obtain a frame number difference according to the flag information. In this case, the frame number difference means the difference between the frame number of the current image and the frame number of the predicted image. And, the frame number of the predicted image may mean the frame number of the reference image assigned just before it. You can then change the assignment of the frame number using the difference in frame numbers. In this case, the frame number difference can be added / subtracted to / from the number of frames of the predicted image according to the identification information.

Таким образом, чтобы управлять списком опорных изображений для межкадрового предсказания в качестве отдельного списка опорных изображений, необходимо заново определить структуру синтаксиса. Как один вариант осуществления содержания, описанного на фиг.15 и фиг.16, синтаксис описан со ссылками на фиг.17, фиг.18 и фиг.19 ниже.Thus, in order to manage the reference picture list for inter prediction as a separate reference picture list, the syntax structure needs to be redefined. As one embodiment of the content described in FIG. 15 and FIG. 16, the syntax is described with reference to FIG. 17, FIG. 18 and FIG. 19 below.

Фиг.17 и фиг.18 - диаграммы синтаксиса для переупорядочения списка опорных изображений согласно одному варианту осуществления настоящего изобретения.FIG. 17 and FIG. 18 are syntax diagrams for reordering the reference picture list according to one embodiment of the present invention.

Со ссылками на фиг.17, работа модуля 910 переупорядочения списка опорных изображений для временного предсказания, показанного на фиг.15, представлена в виде синтаксиса. По сравнению с блоками, показанными на фиг.15, модуль 642 проверки типов вырезки соответствует S1 и S6, и четвертый модуль 940 получения идентификационной информации соответствует S7. Внутренние блоки третьего модуля 930 изменения назначения ссылочного индекса соответствуют S3, S4 и S5, соответственно. И, внутренние блоки четвертого модуля 950 изменения назначения ссылочного индекса соответствуют S8, S9 и S10, соответственно.With reference to FIG. 17, the operation of the temporal prediction reference picture list reordering unit 910 shown in FIG. 15 is presented as syntax. Compared to the blocks shown in FIG. 15, the cutting type checking module 642 corresponds to S1 and S6, and the fourth identification information obtaining module 940 corresponds to S7. The indoor units of the third reference index assignment change module 930 correspond to S3, S4, and S5, respectively. And, the internal blocks of the fourth reference index assignment change module 950 correspond to S8, S9, and S10, respectively.

Со ссылками на фиг.18, работа модуля 960 проверки типа NAL и модуля 970 переупорядочивания списка опорных мультикадровых изображений представлены как синтаксис. По сравнению с соответствующими блоками, показанными на фиг.15 и фиг.16, модуль 960 проверки типа NAL соответствует S11, модуль 642 проверки типов вырезки соответствует S13 и S16, пятый модуль 971 получения идентификационной информации соответствует S14, и шестой 973 модуль получения идентификационной информации соответствует S17. Пятый модуль 972 изменения назначения ссылочного индекса соответствует S15, и шестой модуль 974 изменения назначения ссылочного индекса соответствует S18.With reference to FIG. 18, the operation of the NAL type checking module 960 and the multi-frame reference picture list reordering module 970 are presented as syntax. Compared with the corresponding blocks shown in FIGS. 15 and 16, the NAL type verification module 960 corresponds to S11, the clipping type verification module 642 corresponds to S13 and S16, the fifth identification information obtaining module 971 corresponds to S14, and the sixth 973 identification information obtaining module corresponds to S17. The fifth reference index assignment change module 972 corresponds to S15, and the sixth reference index assignment change module 974 corresponds to S18.

Фиг.19 - диаграмма синтаксиса для переупорядочения списка опорных изображений согласно другому варианту осуществления настоящего изобретения.FIG. 19 is a syntax diagram for reordering a list of reference pictures according to another embodiment of the present invention.

Со ссылками на фиг.19, работа модуля 960 проверки типа NAL и модуля 970 переупорядочивания списка опорных межкадровых изображений представлены как синтаксис. По сравнению с соответствующими блоками, показанными на фиг.15 и фиг.16, модуль 960 проверки типа NAL соответствует S21, модуль 642 проверки типов вырезки соответствует S22 и S25, пятый модуль 971 получения идентификационной информации соответствует S23, и шестой 973 модуль получения идентификационной информации соответствует S26. Пятый модуль 972 изменения назначения ссылочного индекса соответствует S24, и шестой модуль 974 изменения назначения ссылочного индекса соответствует S27.With reference to FIG. 19, the operation of the NAL type checking module 960 and the reordering module 970 of the reference inter-frame picture list are presented as syntax. Compared with the corresponding blocks shown in FIGS. 15 and 16, the NAL type verification module 960 corresponds to S21, the clipping type verification module 642 corresponds to S22 and S25, the fifth identification information obtaining module 971 corresponds to S23, and the sixth 973 identification information obtaining module corresponds to S26. The fifth reference index assignment change module 972 corresponds to S24, and the sixth reference index assignment change module 974 corresponds to S27.

Как упомянуто в предшествующем описании, список опорных изображений для межкадрового предсказания может использоваться модулем 700 интерпредсказания и также пригоден для использования для выполнения компенсации освещения. Компенсация освещения применима в ходе выполнения компенсации движения / оценки движения. В случае, когда текущее изображение использует опорное изображение в отличном кадре, возможно выполнить компенсацию освещения более эффективно с использованием списка опорных изображений для межкадрового предсказания. Компенсации освещения согласно вариантам осуществления настоящего изобретения описываются ниже.As mentioned in the foregoing description, the reference picture list for inter prediction can be used by the inter prediction unit 700 and is also suitable for use in performing light compensation. Lighting compensation is applicable when performing motion compensation / motion estimation. In the case where the current image uses the reference image in an excellent frame, it is possible to perform lighting compensation more efficiently using the list of reference images for inter-frame prediction. Lighting compensations according to embodiments of the present invention are described below.

Фиг.20 - диаграмма процесса для получения значения разности освещения текущего блока согласно одному варианту осуществления настоящего изобретения.FIG. 20 is a process diagram for obtaining a lighting difference value of a current unit according to one embodiment of the present invention.

Компенсация освещения означает процесс для декодирования адаптивно скомпенсированного по движению сигнала видео согласно изменению освещения. И, это применимо к структуре предсказания сигнала видео, например, межкадрового предсказания, внутрикадрового предсказания и т.п.Lighting compensation means a process for decoding an adaptively motion-compensated video signal according to a change in lighting. And, this applies to the video signal prediction structure, for example, inter prediction, intra prediction, and the like.

Компенсация освещения означает процесс для декодирования сигнала видео с использованием остаточной разности освещения и значения предсказания разности освещения, соответствующего блоку, подлежащего декодированию. В этом случае значение предсказания разности освещения может быть получено из соседнего блока текущему блоку. Процесс для получения значения предсказания разности освещения от соседнего блока может быть определен, используя опорную информацию для соседнего блока, и последовательность и направление могут быть приняты в рассмотрение в ходе поиска соседних блоков. Соседний блок означает уже декодированный блок и также означает блок, декодированный посредством рассмотрения избыточности в пределах того же самого изображения для кадра или времени, или последовательности, декодированной посредством рассмотрения избыточности в пределах различных изображений.Lighting compensation means a process for decoding a video signal using a residual lighting difference and a prediction value of a lighting difference corresponding to a block to be decoded. In this case, the prediction value of the illumination difference can be obtained from the neighboring block to the current block. The process for obtaining the prediction value of the illumination difference from the neighboring block can be determined using reference information for the neighboring block, and the sequence and direction can be taken into account when searching for neighboring blocks. A neighboring block means a block already decoded and also means a block decoded by considering redundancy within the same image for a frame or time, or a sequence decoded by considering redundancy within different images.

При сравнении подобий между текущим блоком и опорным блоком-кандидатом разность освещения между этими двумя блоками должна быть учтена. Чтобы компенсировать разность освещения, выполняется новая оценка / компенсация движения. Новый SAD может быть найден, используя Формулу 1.When comparing the similarities between the current block and the candidate reference block, the lighting difference between the two blocks must be taken into account. To compensate for the difference in lighting, a new motion estimation / compensation is performed. A new SAD can be found using Formula 1.

[Формула 1][Formula 1]

Mcur=

Figure 00000001
M cur =
Figure 00000001

Mref(p,q)=

Figure 00000002
Mref (p, q) =
Figure 00000002

[Формула 2][Formula 2]

NewSAD(x,y)=

Figure 00000003
NewSAD (x, y) =
Figure 00000003

В этом случае 'Mcur' указывает среднее значение пикселей текущего блока и 'Mref' указывает среднее значение пикселей опорного блока. 'f(i,j)' указывает значение пикселей текущего блока и 'r (i+x, j+y)' указывает значение пикселей опорного блока. Выполняя оценку движения на основании нового SAD согласно Формуле 2, можно получить среднее значение разности пикселей между текущим блоком и опорным блоком. И, полученное среднее значение разности пикселей может быть названо значением разности освещения (IC_offset).In this case, 'Mcur' indicates the average pixel value of the current block and 'Mref' indicates the average pixel value of the reference block. 'f (i, j)' indicates the pixel value of the current block and 'r (i + x, j + y)' indicates the pixel value of the reference block. By performing motion estimation based on the new SAD according to Formula 2, it is possible to obtain an average value of the pixel difference between the current block and the reference block. And, the obtained average value of the pixel difference can be called the value of the difference of lighting (IC_offset).

В случае выполнения оценки движения, к которой применяется компенсация освещения, формируют значение разности освещения и вектор движения. И, компенсация освещения выполняется согласно Формуле 3 с использованием значения разности освещения и вектора движения.In the case of performing motion estimation, to which the lighting compensation is applied, the value of the difference of illumination and the motion vector are formed. And, lighting compensation is performed according to Formula 3 using the value of the difference between the lighting and the motion vector.

[Формула 3][Formula 3]

NewR(i,j)={f(i,j)-Mcur}-{r(i+x',j+y')-Mref(m+x',n+y')} =NewR (i, j) = {f (i, j) -M cur } - {r (i + x ', j + y') - M ref (m + x ', n + y')} =

{f(i,j) -r(i+x',j+y')} - {Мcur-Mref(m+x',n+y')} ={f (i, j) -r (i + x ', j + y')} - {M cur -M ref (m + x ', n + y')} =

{(f(i,j)-r(i+x',j+y')}-IC_offset{(f (i, j) -r (i + x ', j + y')} - IC_offset

В этом случае NewR(i,j) указывает компенсированное по освещению значение ошибки (остаточное) и (x', y') указывает вектор движения.In this case, NewR (i, j) indicates the illumination-compensated error value (residual) and (x ', y') indicates the motion vector.

Значение разности освещения (Mcurr-Mref) должно быть передано на модуль декодирования. Модуль декодирования выполняет компенсацию освещения следующим образом.The illumination difference value (M curr -M ref ) must be transmitted to the decoding module. The decoding module performs lighting compensation as follows.

[Формула 4][Formula 4]

f'(i,j) = {NewR"(x',y',i,j)+r(i+x',j+y')}+{Mcur-Mref(m+x', n+y')} = {NewR''(x',y',i, j) +r (i+x', j + y')} +IC_offsetf '(i, j) = {NewR "(x', y ', i, j) + r (i + x', j + y ')} + {M cur -M ref (m + x', n + y ')} = {NewR''(x', y ', i, j) + r (i + x', j + y ')} + IC_offset

В Формуле 4 NewR"(i,j) указывает восстановленное компенсированное по освещению значение ошибки (остаточное) и f'(i,j) указывает значение пикселей восстановленного текущего блока.In Formula 4, NewR "(i, j) indicates the restored lighting compensated error value (residual) and f '(i, j) indicates the pixel value of the restored current block.

Чтобы восстановить текущий блок, значение разности освещения должно быть передано модулю декодирования. И значение разности освещения может быть предсказано из информации соседних блоков. Чтобы дополнительно уменьшить количество битов для кодирования значения разности освещения, можно послать только значение разности (RIC_offset) между значением разности освещения текущего блока и значением разности освещения соседнего блока. Это представлено в виде Формулы 5.To restore the current block, the value of the lighting difference must be transmitted to the decoding module. And the value of the lighting difference can be predicted from the information of neighboring blocks. To further reduce the number of bits for encoding the lighting difference value, only the difference value (RIC_offset) between the lighting difference value of the current block and the lighting difference value of the neighboring block can be sent. This is represented as Formula 5.

[Формула 5][Formula 5]

RIC_offset = IC_offset - predIC_offsetRIC_offset = IC_offset - predIC_offset

Фиг.21 - последовательность операций процесса для выполнения компенсации освещения текущего блока согласно варианту осуществления настоящего изобретения.21 is a flowchart of a process for performing lighting compensation of a current unit according to an embodiment of the present invention.

Со ссылками на фиг.21, прежде всего, значение разности освещения соседнего блока, указывающее среднее значение разности пикселей между соседним блоком текущего блока и блока, на который ссылается соседний блок, извлекают из сигнала видео (S2110).With reference to FIG. 21, first of all, a lighting difference value of a neighboring block indicating an average value of a pixel difference between a neighboring block of the current block and the block referred to by the neighboring block is extracted from the video signal (S2110).

Затем значение предсказания разности освещения для компенсации освещения текущего блока получают, используя это значение разности освещения (S2120). Так, возможно восстановить значение разности освещения текущего блока, используя полученное значение предсказания разности освещения.Then, the lighting difference prediction value for compensating the illumination of the current block is obtained using this lighting difference value (S2120). So, it is possible to reconstruct the illumination difference value of the current block using the obtained illumination difference prediction value.

При получении значения предсказания разности освещения можно использовать различные способы. Например, прежде чем значение разности освещения текущего блока предсказывается из значения разности освещения соседнего блока, проверяют, является ли ссылочный индекс текущего блока равным таковому соседнего блока. Затем можно решить, какой соседний блок или значение будут использоваться согласно результату проверки. Для другого случая, при получении значения предсказания разности освещения, может использоваться информация флага (IC_flag), указывающая, выполнить ли компенсацию освещения текущего блока. И, информация флага для текущего блока может быть предсказана, используя также информацию соседних блоков. Для другого случая возможно получить значение предсказания разности освещения, используя оба из способа проверки ссылочного индекса и способа предсказания информации флага. Они описаны подробно со ссылками на фиг.22 - 24 ниже.In obtaining the prediction value of the illumination difference, various methods can be used. For example, before the lighting difference value of the current block is predicted from the lighting difference value of the neighboring block, it is checked whether the reference index of the current block is equal to that of the neighboring block. Then you can decide which neighboring block or value will be used according to the result of the check. For another case, when obtaining the prediction value of the lighting difference, flag information (IC_flag) indicating whether to perform lighting compensation of the current block can be used. And, the flag information for the current block can be predicted using also the information of neighboring blocks. For another case, it is possible to obtain a prediction value of a lighting difference using both of a method of checking a reference index and a method for predicting flag information. They are described in detail with reference to FIGS. 22-24 below.

Фиг.22 - блок-схема процесса для получения значения предсказания разности освещения текущего блока, используя информацию для соседнего блока согласно одному варианту осуществления настоящего изобретения.FIG. 22 is a flowchart of a process for obtaining a prediction value of a lighting difference of a current block using information for a neighboring block according to one embodiment of the present invention.

Со ссылками на фиг.22, можно использовать информацию для соседнего блока при получении значения предсказания разности освещения текущего блока. В настоящем раскрытии, блок может включать в себя макроблок или подмакроблок. Например, возможно предсказать значение разности освещения текущего блока, используя значение разности освещения соседнего блока. Перед этим проверяют, является ли ссылочный индекс текущего блока равным таковому соседнего блока. Согласно результату проверки, затем возможно решить какой соседний блок или значение будет использоваться. На фиг.22 'refIdxLX' указывает ссылочный индекс текущего блока, 'refIdxLXN' указывает ссылочный индекс блока-N. В этом случае 'N' является меткой блока-соседа текущего блока и указывает A, B или C. И, 'PredIC_offsetN' указывает значение разности освещения для компенсации освещения соседнего блока-N. Если невозможно использовать блок C, который расположен в верхнем правом конце текущего блока, возможно использовать блок - D вместо блока - C. В частности, информация для блока - D пригодна для использования в качестве информации для блока C. Если невозможно использовать оба из блока - B и блока - C, возможно использовать блок А вместо этого. А именно, возможно использовать информацию для блока А в качестве информации для блока - B или блока - C.With reference to FIG. 22, information for a neighboring block can be used in obtaining a prediction value of a lighting difference of a current block. In the present disclosure, a block may include a macroblock or a submacroblock. For example, it is possible to predict the value of the lighting difference of the current block using the value of the lighting difference of the neighboring block. Before that, it is checked whether the reference index of the current block is equal to that of the neighboring block. According to the result of the check, then it is possible to decide which neighboring block or value will be used. 22, 'refIdxLX' indicates the reference index of the current block, 'refIdxLXN' indicates the reference index of the block-N. In this case, 'N' is the label of the neighbor block of the current block and indicates A, B or C. And, 'PredIC_offsetN' indicates the value of the lighting difference to compensate for the lighting of the neighboring block-N. If it is impossible to use block C, which is located at the upper right end of the current block, it is possible to use block - D instead of block - C. In particular, the information for block - D is suitable for use as information for block C. If it is impossible to use both of the block - B and block - C, it is possible to use block A instead. Namely, it is possible to use information for block A as information for block - B or block - C.

Для другого случая, при получении значения предсказания разности освещения можно использовать информацию флага (IC_flag), указывающую, выполнить ли компенсацию освещения текущего блока. Альтернативно, возможно использовать оба из способа проверки ссылочного индекса и способа предсказания информации флага при получении значения предсказания разности освещения. В этом случае, если информация флага для соседнего блока указывает, что компенсация освещения не выполнена, то есть, если IC_falg == 0, значение разности освещения 'PredIC_offsetN' соседнего блока установлена в 0.For another case, when obtaining the prediction value of the lighting difference, you can use the flag information (IC_flag) indicating whether to perform lighting compensation of the current block. Alternatively, it is possible to use both of the reference index checking method and the flag information prediction method when obtaining the prediction value of the illumination difference. In this case, if the flag information for the neighboring block indicates that the lighting compensation has not been performed, that is, if IC_falg == 0, the value of the lighting difference 'PredIC_offsetN' of the neighboring block is set to 0.

Фиг.23 - последовательность операций процесса для выполнения компенсации освещения, используя информацию для соседнего блока, согласно одному варианту осуществления настоящего изобретения.23 is a flowchart of a process for performing lighting compensation using information for an adjacent unit, according to one embodiment of the present invention.

Со ссылками на фиг.23, модуль декодирования извлекает среднее значение пикселей опорного блока, ссылочный индекс текущего блока, ссылочный индекс опорного блока, и т.п. из сигнала видео, и затем может получить значение предсказания разности освещения текущего блока, используя извлеченную информацию. Модуль декодирования получает значение разности (остаточную разность освещения) между значением разности освещения текущего блока и значением предсказания разности освещения, и затем способен восстановить значение разности освещения текущего блока, используя полученную остаточную разность освещения и значение предсказания разности освещения. В этом случае возможно использовать информацию для соседнего блока, чтобы получить значение предсказания разности освещения текущего блока. Например, можно предсказать значение разности освещения текущего блока, используя значение разности освещения соседнего блока. Перед этим проверяют, является ли ссылочный индекс текущего блока равным таковому соседнего блока. Согласно результату проверки затем можно решить какой соседний блок или значение будет использоваться.With reference to FIG. 23, the decoding module retrieves the average pixel value of the reference block, the reference index of the current block, the reference index of the reference block, and the like. from the video signal, and then can obtain the prediction value of the lighting difference of the current block using the extracted information. The decoding module obtains a difference value (residual lighting difference) between the lighting difference value of the current block and the lighting difference prediction value, and then is able to reconstruct the lighting difference value of the current block using the obtained residual lighting difference and the lighting difference prediction value. In this case, it is possible to use the information for the neighboring block to obtain the prediction value of the lighting difference of the current block. For example, you can predict the value of the lighting difference of the current block using the value of the lighting difference of the neighboring block. Before that, it is checked whether the reference index of the current block is equal to that of the neighboring block. According to the result of the check, you can then decide which neighboring block or value will be used.

В частности, значение разности освещения соседнего блока, указывающее среднее значение разности пикселей между соседним блоком текущего блока и блоком, на который ссылается соседний блок, извлекают из сигнала видео (S2310).In particular, the lighting difference value of the neighboring block indicating the average value of the pixel difference between the neighboring block of the current block and the block referred to by the neighboring block is extracted from the video signal (S2310).

Затем проверяют, является ли ссылочный индекс текущего блока равным ссылочному индексу одного из множества соседних блоков (S2320).Then, it is checked whether the reference index of the current block is equal to the reference index of one of the plurality of neighboring blocks (S2320).

В результате этапа S2320 проверки, если существует по меньшей мере один соседний блок, имеющий тот же самый ссылочный индекс, что и таковой текущего блока, проверяют, существуют ли один соответствующий соседний блок или нет (S2325).As a result of check step S2320, if at least one neighboring block exists having the same reference index as that of the current block, it is checked whether one corresponding neighboring block exists or not (S2325).

В результате этапа S2325 проверки, если существует только один соседний блок, имеющий тот же самый ссылочный индекс текущего блока, значение разности освещения соседнего блока, имеющего тот же самый ссылочный индекс текущего блока, назначают значению предсказания разности освещения текущего блока (S2330). В частности, это есть 'PredIC_offset = PredIC_offsetN'.As a result of the verification step S2325, if there is only one neighboring block having the same reference index of the current block, the lighting difference value of the neighboring block having the same reference index of the current block is assigned to the lighting difference prediction value of the current block (S2330). In particular, this is 'PredIC_offset = PredIC_offsetN'.

Если соседний блок, имеющий тот же самый ссылочный индекс как таковой текущего блока, не существует в результате этапа S2320 проверки или если существуют по меньшей мере два соседних блока, имеющих тот же самый ссылочный индекс как таковой у текущего блока в результате этапа S2325 проверки, среднее из значений разности освещения (PredIC_offsetN, N = A, B, или C) соседних блоков назначают значению предсказания разности освещения текущего блока (S650). В частности, это есть 'PredIC_offset = Среднее(PredIC_offsetA, PredIC_offsetB, PredIC_offsetC)'.If a neighboring block having the same reference index as such of the current block does not exist as a result of verification step S2320, or if there are at least two neighboring blocks having the same reference index as such of the current block as a result of verification step S2325, the average from the lighting difference values (PredIC_offsetN, N = A, B, or C) of the neighboring blocks, the lighting difference prediction value of the current block is assigned (S650). In particular, this is 'PredIC_offset = Average (PredIC_offsetA, PredIC_offsetB, PredIC_offsetC)'.

Фиг.24 - последовательность операций процесса для выполнения компенсации освещения, используя информацию для соседнего блока, согласно другому варианту осуществления настоящего изобретения.24 is a flowchart of a process for performing lighting compensation using information for a neighboring unit, according to another embodiment of the present invention.

Со ссылками на фиг.24 модуль декодирования должен восстановить значение разности освещения текущего блока, чтобы выполнить компенсацию освещения. В этом случае возможно использовать информацию для соседнего блока, чтобы получить значение предсказания разности освещения текущего блока. Например, возможно предсказать значение разности освещения текущего блока, используя значение разности освещения соседнего блока. Перед этим проверяют, является ли ссылочный индекс текущего блока равным таковому соседнего блока. Согласно результату проверки, затем возможно решить какой соседний блок или значение будет использоваться.With reference to FIG. 24, the decoding module must reconstruct the illumination difference value of the current block in order to perform lighting compensation. In this case, it is possible to use the information for the neighboring block to obtain the prediction value of the lighting difference of the current block. For example, it is possible to predict the value of the lighting difference of the current block using the value of the lighting difference of the neighboring block. Before that, it is checked whether the reference index of the current block is equal to that of the neighboring block. According to the result of the check, then it is possible to decide which neighboring block or value will be used.

В частности, значение разности освещения соседнего блока, указывающее среднее значение разности пикселей между соседним блоком текущего блока и блоком, на который ссылается соседний блок, извлекают из сигнала видео (S2410).In particular, the lighting difference value of the neighboring block indicating the average value of the pixel difference between the neighboring block of the current block and the block referred to by the neighboring block is extracted from the video signal (S2410).

Затем проверяют, является ли ссылочный индекс текущего блока равным ссылочному индексу одного из множества соседних блоков (S2420).Then, it is checked whether the reference index of the current block is equal to the reference index of one of the plurality of neighboring blocks (S2420).

В результате этапа S720 проверки, если существует по меньшей мере один соседний блок, имеющий тот же самый ссылочный индекс, как таковой у текущего блока, проверяют, существуют ли один соответствующий соседний блок или нет (S2430).As a result of verification step S720, if at least one neighboring block exists having the same reference index as that of the current block, it is checked whether one corresponding neighboring block exists or not (S2430).

В результате этапа S2430 проверки, если существует только один соседний блок, имеющий тот же самый ссылочный индекс как таковой у текущего блока, значение разности освещения соседнего блока, имеющего тот же самый ссылочный индекс, как таковой у текущего блока, назначают значению предсказания разности освещения текущего блока (S2440). В частности, это есть 'PredIC_offset = PredIC_offsetN'.As a result of the verification step S2430, if there is only one neighboring block having the same reference index as such for the current block, the lighting difference value of the neighboring block having the same reference index as such for the current block is assigned to the lighting difference prediction value of the current block (S2440). In particular, this is 'PredIC_offset = PredIC_offsetN'.

Если соседний блок, имеющий тот же самый ссылочный индекс, как таковой у текущего блока, не существует в результате этапа S2420 проверки, то значение предсказания разности освещения текущего блока устанавливают в 0 (S2460). В частности, это есть 'PredIC_offset = 0'.If the neighboring block having the same reference index as that of the current block does not exist as a result of the verification step S2420, then the lighting difference prediction value of the current block is set to 0 (S2460). In particular, this is 'PredIC_offset = 0'.

Если существуют по меньшей мере два соседних блока, имеющие тот же самый ссылочный индекс как таковой у текущего блока в результате этапа S2430 проверки, соседний блок, имеющий ссылочный индекс, отличный от такового у текущего блока, устанавливают в 0, и среднее значений разности освещения соседних блоков, включая значение, установленное в 0, назначают значению предсказания разности освещения текущего блока (S2450). В частности, это есть 'PredIC_offset = Сретнее(PredIC_offsetA, PredIC_offsetB, PredIC_offsetC)'. Однако в случае, если существует соседний блок, имеющий ссылочный индекс, отличный от такового текущего блока, значение '0' может быть включено в PredIC_offsetA, PredIC_offsetB, или PredIC_offsetC.If there are at least two neighboring blocks having the same reference index as such for the current block as a result of the verification step S2430, the neighboring block having a reference index different from that of the current block is set to 0, and the average of the neighboring difference illumination values blocks, including a value set to 0, is assigned to a prediction value of a lighting difference of a current block (S2450). In particular, this is 'PredIC_offset = Average (PredIC_offsetA, PredIC_offsetB, PredIC_offsetC)'. However, if there is a neighboring block having a reference index different from that of the current block, the value '0' may be included in PredIC_offsetA, PredIC_offsetB, or PredIC_offsetC.

Между тем, информация кадра для идентификации кадра изображения, и список опорных изображений для межкадрового предсказания применим к синтезу изображения в виртуальном кадре. В процессе для синтеза изображения в виртуальном кадре на изображение в отличном кадре можно ссылаться. Так, если используются информация кадра и список опорных изображений для межкадрового предсказания, можно синтезировать изображение в виртуальном кадре более эффективно. В нижеследующем описании описываются способы синтеза изображения в виртуальном кадре согласно вариантам осуществления настоящего изобретения.Meanwhile, the frame information for identifying the image frame, and the list of reference images for inter-frame prediction is applicable to image synthesis in a virtual frame. In the process for synthesizing an image in a virtual frame, an image in an excellent frame can be referenced. So, if you use the frame information and the list of reference images for inter-frame prediction, you can synthesize the image in a virtual frame more efficiently. The following description describes methods for synthesizing an image in a virtual frame according to embodiments of the present invention.

Фиг.25 - блок-схема процесса для предсказания текущего изображения, используя изображение в виртуальном кадре, согласно одному варианту осуществления настоящего изобретения.25 is a flowchart of a process for predicting a current image using an image in a virtual frame, according to one embodiment of the present invention.

Со ссылками на фиг.25 при выполнении межкадрового предсказания при кодировании мультикадрового видео возможно предсказать текущее изображение, используя изображение в кадре, отличном от такового текущего кадра, в качестве опорного изображения. Однако, изображение в виртуальном кадре получают, используя изображения в кадре, соседнем таковому текущего изображения, и текущее изображение затем предсказывают, используя полученное изображение в виртуальном кадре. Если так, предсказание может быть выполнено более точно. В этом случае идентификатор кадра, указывающий кадр изображения, может использоваться, чтобы использовать изображения в соседних кадрах или изображениях в конкретном кадре. В случае, когда виртуальный кадр генерируется, должен существовать специальный синтаксис для индикации, генерировать ли виртуальный кадр. Если синтаксис указывает, что виртуальный кадр должен быть сгенерирован, возможно сформировать виртуальный кадр, используя идентификатор кадра. Изображения в виртуальном кадре, полученном модулем 740 предсказания синтеза кадра, пригодны для использования в качестве опорных изображений. В этом случае идентификатор кадра может быть назначен изображениям в виртуальном кадре. В процессе выполнения предсказания вектора движения для передачи вектора движения соседние блоки текущего блока могут ссылаться на изображения, полученные модулем 740 предсказания синтеза кадра. В этом случае, чтобы использовать изображение в виртуальном кадре как опорное изображение, может использоваться идентификатор кадра, указывающий кадр изображения.With reference to FIG. 25, when performing inter-frame prediction when encoding multi-frame video, it is possible to predict the current image using an image in a frame different from that of the current frame as a reference image. However, the image in the virtual frame is obtained using the images in the frame adjacent to that of the current image, and the current image is then predicted using the obtained image in the virtual frame. If so, the prediction can be performed more accurately. In this case, a frame identifier indicating an image frame may be used to use images in adjacent frames or images in a particular frame. In the case where a virtual frame is generated, there must be special syntax for indicating whether to generate a virtual frame. If the syntax indicates that a virtual frame should be generated, it is possible to form a virtual frame using the frame identifier. The images in the virtual frame obtained by the frame synthesis prediction module 740 are suitable for use as reference images. In this case, a frame identifier may be assigned to images in a virtual frame. In the process of performing motion vector prediction for transmitting the motion vector, neighboring blocks of the current block may refer to images obtained by the frame synthesis prediction module 740. In this case, in order to use the image in the virtual frame as a reference image, a frame identifier indicating the image frame can be used.

Фиг.26 - последовательность операций процесса для синтеза изображения виртуального кадра при выполнении межкадрового предсказания в MVC согласно варианту осуществления настоящего изобретения.Fig. 26 is a flowchart of a process for synthesizing a virtual frame image when performing inter-frame prediction in MVC according to an embodiment of the present invention.

Со ссылками на фиг.26, изображение в виртуальном кадре синтезируют, используя изображения в кадре, соседнем таковому текущего изображения. Текущее изображение затем предсказывают, используя синтезируемое изображение в виртуальном кадре. Если так, возможно достичь более точного предсказания. В случае, когда изображение в виртуальном кадре синтезируется, существует специальный синтаксис, указывающий, выполнять ли предсказание текущего изображения, посредством синтеза изображения в виртуальном кадре. Если решено, выполнять ли предсказание текущего изображения, возможно более эффективное кодирование. Специальный синтаксис определяется как идентификатор предсказания межкадрового синтеза, который описан ниже. Например, изображение в виртуальном кадре синтезируется посредством уровня вырезки, чтобы определить 'view_synthesize pred_flag', указывающий, выполнить ли предсказание текущего изображения. И, изображение в виртуальном кадре синтезируется посредством уровня макроблоков, чтобы определить 'view_syn_pred_flag', указывающий, выполнить ли предсказание текущего изображения. Если 'view_synthesize_pred_flag = 1', текущая вырезка синтезирует вырезку в виртуальном кадре, используя вырезку в кадре, соседнем таковому текущей вырезки. Затем возможно предсказать текущую вырезку, используя синтезированную вырезку. Если 'view_synthesize_pred_flag = 0', вырезка в виртуальном кадре не синтезируется. Аналогично, если 'view_syn_pred_flag = 1', текущий макроблок синтезирует макроблок в виртуальном кадре, используя макроблок в кадре, соседнем таковому текущего макроблока. Затем возможно предсказать текущий макроблок, используя синтезированный макроблок. Если 'view_syn_pred_flag = 0', макроблок в виртуальном кадре не синтезируется. Следовательно, в настоящем изобретении идентификатор предсказания межкадрового синтеза, указывающий, получить ли изображение в виртуальном кадре, извлекается из сигнала видео. Затем возможно получить изображение в виртуальном кадре, используя этот идентификатор предсказания межкадрового синтеза.With reference to FIG. 26, an image in a virtual frame is synthesized using images in a frame adjacent to that of the current image. The current image is then predicted using the synthesized image in the virtual frame. If so, a more accurate prediction is possible. In the case where the image in the virtual frame is synthesized, there is a special syntax indicating whether to perform the prediction of the current image by synthesizing the image in the virtual frame. If it is decided whether to predict the current image, more efficient coding is possible. Special syntax is defined as an interframe synthesis prediction identifier, which is described below. For example, an image in a virtual frame is synthesized by a cut level to determine a 'view_synthesize pred_flag' indicating whether to predict the current image. And, the image in the virtual frame is synthesized by the macroblock level to determine 'view_syn_pred_flag' indicating whether to perform prediction of the current image. If 'view_synthesize_pred_flag = 1', the current clipping synthesizes the clipping in the virtual frame using the clipping in the frame adjacent to that of the current clipping. It is then possible to predict the current clipping using a synthesized clipping. If 'view_synthesize_pred_flag = 0', clipping in the virtual frame is not synthesized. Similarly, if 'view_syn_pred_flag = 1', the current macroblock synthesizes the macroblock in the virtual frame using the macroblock in the frame adjacent to that of the current macroblock. It is then possible to predict the current macroblock using the synthesized macroblock. If 'view_syn_pred_flag = 0', the macroblock in the virtual frame is not synthesized. Therefore, in the present invention, the inter-frame synthesis prediction identifier indicating whether to receive an image in a virtual frame is extracted from the video signal. It is then possible to obtain an image in a virtual frame using this inter-frame synthesis prediction identifier.

Как упомянуто в предшествующем описании, информация кадра для идентификации кадра изображения, и список опорных изображений для межкадрового предсказания могут использоваться модулем 700 интерпредсказания. И, они могут также использоваться при выполнении взвешенного предсказания. Взвешенное предсказание применимо к процессу для выполнения компенсации движения. При этом, если текущее изображение использует опорное изображение в отличном кадре, возможно выполнить взвешенное предсказание более эффективно с использованием информации кадра и списка опорных изображений для межкадрового предсказания. Взвешенные способы предсказания согласно вариантам осуществления настоящего изобретения описываются ниже.As mentioned in the foregoing description, frame information for identifying an image frame and a list of reference images for inter-frame prediction can be used by inter prediction unit 700. And, they can also be used when performing weighted prediction. Weighted prediction is applicable to the process for performing motion compensation. Moreover, if the current image uses the reference image in a different frame, it is possible to perform weighted prediction more efficiently using frame information and a list of reference images for inter-frame prediction. Weighted prediction methods according to embodiments of the present invention are described below.

Фиг.27 - последовательность операций способа выполнения взвешенного предсказания согласно типу вырезки при кодировании сигнала видео согласно настоящему изобретению.Fig. 27 is a flowchart of a method for performing weighted prediction according to a clipping type when encoding a video signal according to the present invention.

Со ссылками на фиг.27, взвешенное предсказание является способом масштабирования выборки скомпенсированных по движению данных предсказания в макроблоке P-slice или B-slice. Способ взвешенного предсказания включает в себя явный режим для выполнения взвешенного предсказания для текущего изображения, используя информацию взвешенного коэффициента, полученную из информации для опорных изображений, и неявный режим для выполнения взвешенного предсказания для текущего изображения, используя информацию взвешенного коэффициента, полученную из информации для расстояния между текущим изображением и одним из опорных изображений. Способ взвешенного предсказания может применяться отличным образом согласно типу вырезки текущего макроблока. Например, в явном режиме, информация взвешенного коэффициента может быть изменена согласно тому, является ли текущий макроблок, в отношении которого выполняется взвешенное предсказание, макроблоком P-вырезки или макроблоком B-вырезки. И, взвешенный коэффициент явного режима может быть определен кодером и может быть передан как включенный в заголовок вырезки. С другой стороны, в неявном режиме взвешенный коэффициент может быть получен на основании относительной временной позиции Списка 0 и Списка 1. Например, если опорное изображение является по времени близким к текущему изображению, применим большой взвешенный коэффициент. Если опорное изображение по времени удалено от текущего изображения, применяется малый взвешенный коэффициент.With reference to FIG. 27, weighted prediction is a method of scaling a sample of motion-compensated prediction data in a P-slice or B-slice macroblock. The weighted prediction method includes an explicit mode for performing a weighted prediction for the current image using the weighted coefficient information obtained from the information for the reference images, and an implicit mode for performing the weighted prediction for the current image using the weighted coefficient information obtained from the information for the distance between current image and one of the reference images. The weighted prediction method can be applied in an excellent manner according to the clipping type of the current macroblock. For example, in explicit mode, the weighted coefficient information may be changed according to whether the current macroblock in relation to which the weighted prediction is performed is a P-cut macroblock or a B-cut macroblock. And, the weighted explicit mode coefficient can be determined by the encoder and can be transmitted as included in the clipping header. On the other hand, in implicit mode, a weighted coefficient can be obtained based on the relative time position of List 0 and List 1. For example, if the reference image is close in time to the current image, a large weighted coefficient is applicable. If the reference image is timed away from the current image, a small weighted coefficient is applied.

Прежде всего тип вырезки макроблока для применения взвешенного предсказания к нему извлекают из сигнала видео (S2710).First of all, the macroblock clipping type for applying weighted prediction to it is extracted from the video signal (S2710).

Затем взвешенное предсказание может быть выполнено в отношении макроблока согласно извлеченному типу вырезки (S2720).Then, a weighted prediction can be performed on the macroblock according to the extracted clipping type (S2720).

В этом случае тип вырезки может включать в себя макроблок, к которому применяется межкадровое предсказание. Межкадровое предсказание означает, что текущее изображение предсказывают, используя информацию для изображения в кадре, отличном от такового текущего изображения. Например, тип вырезки может включать в себя макроблок, к которому применяется временное предсказание для выполнения предсказания, используя информацию для изображения в том же самом кадре, что и таковая текущего изображения, макроблок, к которому применяется межкадровое предсказание, и макроблок, к которому применяются оба из временного предсказания и межкадрового предсказания. И, тип вырезки может включать в себя макроблок, к которому применяется только временное предсказание, макроблок, к которому применяется только межкадровое предсказание, или макроблок, к которому применяются оба из временного предсказания и межкадрового предсказания. Кроме того, тип вырезки может включать в себя два из типов макроблока или все три типа макроблока. Это описано подробно со ссылками на фиг.28 ниже. Таким образом, в случае, если тип вырезки, включающий в себя макроблок с применяемым межкадровым предсказанием, извлечен из сигнала видео, выполняется взвешенное предсказание, используя информацию для изображения в кадре, отличном от такового текущего изображения. При этом идентификатор кадра для идентификации кадра изображения может использоваться, чтобы использовать информацию для изображения в отличном кадре.In this case, the clipping type may include a macroblock to which inter-frame prediction is applied. Inter-frame prediction means that the current image is predicted using information for an image in a frame different from that of the current image. For example, the clipping type may include a macroblock to which time prediction is applied to perform prediction using information for an image in the same frame as that of the current image, a macroblock to which interframe prediction applies, and a macroblock to which both apply from temporal prediction and interframe prediction. And, the clipping type may include a macroblock to which only temporal prediction applies, a macroblock to which only inter-frame prediction applies, or a macroblock to which both of temporal prediction and inter-prediction apply. In addition, the type of clipping may include two of the types of macroblock or all three types of macroblock. This is described in detail with reference to FIG. 28 below. Thus, in the event that the clipping type including the macroblock with the applied inter-frame prediction is extracted from the video signal, a weighted prediction is performed using information for an image in a frame different from that of the current image. In this case, the frame identifier for identifying the image frame can be used to use information for the image in a different frame.

Фиг.28 - диаграмма типов макроблоков, допустимых в типе вырезки при кодировании сигнала видео согласно одному варианту осуществления настоящего изобретения.FIG. 28 is a diagram of macroblock types permitted in a clipping type when encoding a video signal according to one embodiment of the present invention.

Со ссылками на фиг.28, если тип P-вырезки посредством межкадрового предсказания определен как VP (View_P), интра-макроблок I, макроблок P, предсказанный из одного изображения в текущем кадре, или макроблок VP, предсказанный из одного изображения в отличном кадре, допустим для этого типа P-вырезки в соответствии с меж-кадровым предсказанием (2810).With reference to FIG. 28, if the P-cut type by inter prediction is defined as VP (View_P), the intra macroblock I, the macroblock P predicted from one image in the current frame, or the macroblock VP predicted from one image in a different frame, valid for this type of P-notch in accordance with inter-frame prediction (2810).

В случае, когда тип B-вырезки в соответствии с межкадровым предсказанием определен как VB (View_B), макроблок P или B, предсказанный из по меньшей мере одного изображения в текущем кадре, или макроблок VP или VB, предсказанный из по меньшей мере одного изображения в отличном кадре, является допустимым (2820).In the case where the type of B-cut according to inter-frame prediction is defined as VB (View_B), a macroblock P or B predicted from at least one image in the current frame, or a macroblock VP or VB predicted from at least one image in excellent frame is acceptable (2820).

В случае, если тип вырезки, в отношении которого выполнено предсказание, используя временное предсказание, межкадровое предсказание, или оба из временного предсказания и межкадрового предсказания, определен как 'Смешанный', интра-макроблок I, макроблок P или B, предсказанный из по меньшей мере одного изображения в текущем кадре, макроблок VP или VB, предсказанный из по меньшей мере одного изображения в отличном кадре, или макроблок 'Смешанный', предсказанный с использованием обоих из изображения в текущем кадре и изображения в отличном кадре, допустимы для смешанного типа вырезки (2830). В этом случае, чтобы использовать изображение в отличном кадре, можно использовать идентификатор кадра для идентификации кадра изображения.In the case that the type of clipping for which the prediction is made using temporal prediction, inter-prediction, or both of temporal prediction and inter-prediction, is defined as “Mixed”, intra-macroblock I, macroblock P or B, predicted from at least one image in the current frame, a macroblock VP or VB predicted from at least one image in a different frame, or a 'Mixed' macroblock predicted using both of the image in the current frame and the image in a different frame, Permissible for mixed-type notch (2830). In this case, in order to use the image in an excellent frame, a frame identifier can be used to identify the image frame.

Фиг.29 и фиг.30 - диаграммы синтаксиса для выполнения взвешенного предсказания согласно вновь определенному типу вырезки согласно одному варианту осуществления настоящего изобретения.FIG. 29 and FIG. 30 are syntax diagrams for performing weighted prediction according to a newly defined clipping type according to one embodiment of the present invention.

Как упомянуто в предшествующем описании фиг.28, если тип вырезки определен как VP, VB, или Mixed (Смешанный), синтаксис для выполнения обычного взвешенного предсказания (например, H.264) может быть модифицирован в фиг.29 или фиг.30.As mentioned in the previous description of FIG. 28, if the clipping type is defined as VP, VB, or Mixed, the syntax for performing conventional weighted prediction (eg, H.264) can be modified in FIG. 29 or FIG. 30.

Например, если типом вырезки является P-вырезка в соответствии с временным предсказанием, добавляют часть 'if(slice_type! = VP Il slice_type! = VB)' (2910).For example, if the cut type is P-cut according to temporal prediction, add the part 'if (slice_type! = VP Il slice_type! = VB)' (2910).

Если тип вырезки есть B-вырезка в соответствии с временным предсказанием, условный оператор может изменяться на 'if(slice_type == B Il slice_type == Смешанный)' (2920).If the clipping type is a B-clipping according to temporal prediction, the conditional statement can be changed to 'if (slice_type == B Il slice_type == Mixed)' (2920).

Заново определяя тип вырезки VP и тип вырезки VB, формат, подобный фиг.29, может быть вновь добавлен (2930, 2940). В этом случае, так как информация для кадра добавляется, элементы синтаксиса включают в себя части 'кадра', соответственно. Например, имеется 'luma_Iog2_view_weiht_denom, chroma_log2_view_weight_denom'.By redefining the cut type VP and the cut type VB, a format similar to FIG. 29 can be added again (2930, 2940). In this case, since information for the frame is added, the syntax elements include parts of the 'frame', respectively. For example, there is 'luma_Iog2_view_weiht_denom, chroma_log2_view_weight_denom'.

Фиг.31 - последовательность операций способа выполнения взвешенного предсказания, используя информацию флага, указывающую, выполнить ли меж-кадровое взвешенное предсказание при кодировании сигнала видео согласно настоящему изобретению.FIG. 31 is a flowchart of a method for performing weighted prediction using flag information indicating whether to perform inter-frame weighted prediction when encoding a video signal according to the present invention.

Со ссылками на фиг.31, при кодировании сигнала видео, к которому настоящее изобретение применяется, в случае использования информации флага, указывающей, будет ли взвешенное предсказание выполнено, разрешается более эффективное кодирование.With reference to FIG. 31, when encoding a video signal to which the present invention is applied, in the case of using flag information indicating whether weighted prediction will be performed, more efficient encoding is allowed.

Информация флага может быть определена на основании типа вырезки. Например, может существовать информация флага, указывающая, будет ли взвешенное предсказание применяться к P-вырезке или SP-вырезке, или информация флага, указывающая, будет ли взвешенное предсказание применяться к B-вырезке.Flag information can be determined based on the type of clipping. For example, there may be flag information indicating whether the weighted prediction will be applied to the P-clipping or SP-clipping, or flag information indicating whether the weighted prediction will be applied to the B-clipping.

В частности, информация флага может быть определена как 'weighted_pred_flag' или 'weighted_bipred_idc'. Если 'weighted_pred_flag=0', это указывает, что взвешенное предсказание не применяется к P-вырезке и SP-вырезке. Если 'weighted_pred_flag=1', это указывает, что взвешенное предсказание применяется к P-вырезке и SP-вырезке. Если 'weighted_bipred_idc=0', это указывает, что заданное по умолчанию взвешенное предсказание применяется к B-вырезке. Если 'weighted_bipred_idc=1', это указывает, что явное взвешенное предсказание применяется к B-вырезке. Если 'weighted_bipred_idc= 2', это указывает, что неявное взвешенное предсказание применяется к B-вырезке.In particular, flag information may be defined as 'weighted_pred_flag' or 'weighted_bipred_idc'. If 'weighted_pred_flag = 0', this indicates that weighted prediction does not apply to P-clipping and SP-clipping. If 'weighted_pred_flag = 1', this indicates that weighted prediction applies to P-clipping and SP-clipping. If 'weighted_bipred_idc = 0', this indicates that the default weighted prediction is applied to the B-clipping. If 'weighted_bipred_idc = 1', this indicates that explicit weighted prediction applies to the B-clipping. If 'weighted_bipred_idc = 2', this indicates that implicit weighted prediction is applied to the B-clipping.

При кодировании мультикадрового видео информация флага, указывающая, будет ли выполнено взвешенное предсказание, используя информацию для межкадрового изображения, может быть определена на основании тип вырезки.When encoding a multi-frame video, flag information indicating whether a weighted prediction will be performed using the information for the inter-frame image can be determined based on the type of clipping.

Прежде всего, тип вырезки и информацию флага, указывающую, будет ли выполнено меж-кадровое взвешенное предсказание, извлекают из сигнала видео (S3110, S3120). В этом случае тип вырезки может включать в себя макроблок, к которому временное предсказание для выполнения предсказания, используя информацию для изображения в том же самом кадре, что и таковая текущего изображения, применяется, и макроблок, к которому применяется межкадровое предсказание для выполнения предсказания, используя информацию для изображения в кадре, отличном от такового текущего изображения.First of all, the clipping type and flag information indicating whether an inter-frame weighted prediction will be performed is extracted from the video signal (S3110, S3120). In this case, the clipping type may include a macroblock to which temporal prediction to perform prediction using information for an image in the same frame as that of the current image is applied, and a macroblock to which inter-frame prediction is applied to perform prediction using information for an image in a frame different from that of the current image.

Затем можно определить взвешенный режим предсказания на основании извлеченного типа вырезки и извлеченной информации флага (S3130).Then, a weighted prediction mode can be determined based on the extracted clipping type and the extracted flag information (S3130).

Затем можно выполнить взвешенное предсказание согласно определенному взвешенному режиму (S3140) предсказания. В этом случае информация флага может включать в себя информацию флага, указывающую, будет ли выполнено взвешенное предсказание, используя информацию для изображения в кадре, отличном от такового текущего изображения, а также вышеупомянутые 'weighted_pred_flag' и 'weighted_bipred_flag'. Это описано подробно со ссылками на фиг.32 ниже.Then, a weighted prediction according to the determined weighted prediction mode (S3140) can be performed. In this case, the flag information may include flag information indicating whether a weighted prediction will be performed using information for an image in a frame different from that of the current image, as well as the aforementioned 'weighted_pred_flag' and 'weighted_bipred_flag'. This is described in detail with reference to FIG. 32 below.

Следовательно, в случае, если тип вырезки текущего макроблока является типом вырезки, включающим в себя макроблок, к которому применяется межкадровое предсказание, обеспечивается более эффективное кодирование, чем случай использования информации флага, указывающей, будет ли выполнено взвешенное предсказание, используя информацию для изображения в отличном кадре.Therefore, in the case where the clipping type of the current macroblock is a clipping type including a macroblock to which inter prediction is applied, more efficient coding is provided than the case of using flag information indicating whether the weighted prediction will be performed using the image information in excellent frame.

Фиг.32 - диаграмма для пояснения способа взвешенного предсказания согласно информации флага, указывающей, выполнить ли взвешенное предсказание, используя информацию для изображения в кадре, отличном от такового текущего изображения согласно одному варианту осуществления настоящего изобретения.32 is a diagram for explaining a weighted prediction method according to flag information indicating whether to perform weighted prediction using information for an image in a frame different from that of the current image according to one embodiment of the present invention.

Со ссылками на фиг.32, например, информация флага, указывающая, будет ли выполнено взвешенное предсказание, используя информацию для изображения в кадре, отличном от такового текущего изображения, может быть определена как 'view_weighted_pred_flag' или 'view_weighted_bipred_flag'.With reference to FIG. 32, for example, flag information indicating whether a weighted prediction will be performed using information for an image in a frame different from that of the current image can be defined as 'view_weighted_pred_flag' or 'view_weighted_bipred_flag'.

Если 'view_weighted_pred_flag=0', это указывает, что взвешенное предсказание не применяется к VP-вырезке. Если 'view_weighted_pred_flag=1', явное взвешенное предсказание применяется к VP-вырезке. Если 'view_weighted_bipred_flag=0', это указывает, что заданное по умолчанию взвешенное предсказание применяется к VB-вырезке. Если 'view_weighted_bipred_flag=1', это указывает, что явное взвешенное предсказание применяется к VB-вырезке. Если 'view_weighted_bipred_flag=2', это указывает, что неявное заданное по умолчанию взвешенное предсказание применяется к VB-вырезке.If 'view_weighted_pred_flag = 0', this indicates that weighted prediction does not apply to VP clipping. If 'view_weighted_pred_flag = 1', explicit weighted prediction is applied to the VP clipping. If 'view_weighted_bipred_flag = 0', this indicates that the default weighted prediction is applied to the VB clipping. If 'view_weighted_bipred_flag = 1', this indicates that explicit weighted prediction is applied to the VB clipping. If 'view_weighted_bipred_flag = 2', this indicates that the implicit default weighted prediction is applied to the VB clipping.

В случае, когда неявное взвешенное предсказание применяется к VB-вырезке, весовой коэффициент может быть получен из относительного расстояния между текущим кадром и отличным кадром. В случае, когда неявное взвешенное предсказание применяется к VB-вырезке, взвешенное предсказание может быть выполнено, используя идентификатор кадра, идентифицирующий кадр изображения, или порядковый индекс изображения (POC), воспроизведенный посредством рассмотрения разрешения каждого кадра.In the case where the implicit weighted prediction is applied to the VB clipping, the weighting coefficient can be obtained from the relative distance between the current frame and the excellent frame. In the case where the implicit weighted prediction is applied to the VB clipping, the weighted prediction can be performed using the frame identifier identifying the image frame, or the image index (POC) reproduced by considering the resolution of each frame.

Вышеупомянутая информация флага могут быть включена в набор параметров изображения (PPS). В этом случае набор параметров изображения (PPS) означает информацию заголовка, указывающую режим кодирования всех изображений (например, режим статистического кодирования, начальное значение параметра квантования единицей изображения и т.д.). Однако набор параметров изображения не применяется ко всем изображениям. Если набор параметров изображения не существует, набор параметров изображения, существующий непосредственно прежде, используется в качестве информации заголовка.The above flag information may be included in the image parameter set (PPS). In this case, an image parameter set (PPS) means header information indicating an encoding mode of all images (e.g., statistical encoding mode, initial value of a quantization parameter by an image unit, etc.). However, the set of image options does not apply to all images. If the image parameter set does not exist, the image parameter set that exists immediately before is used as header information.

Фиг.33 - диаграмма синтаксиса для выполнения взвешенного предсказания согласно вновь определенной информации флага согласно одному варианту осуществления настоящего изобретения.33 is a syntax diagram for performing weighted prediction according to newly defined flag information according to one embodiment of the present invention.

Со ссылками на фиг.33 при кодировании мультикадрового видео, к которому применятся настоящее изобретение, в случае, если тип вырезки, включающий в себя макроблок, примененный к межкадровому предсказанию, и информация флага, указывающая, будет ли выполнено взвешенное предсказание, используя информацию для изображения в кадре, отличную от такового текущего изображения, определены, необходимо определить, какое взвешенное предсказание будет выполнено согласно типу вырезки.With reference to FIG. 33, when encoding a multi-frame video to which the present invention is applied, in the case where a clipping type including a macroblock applied to inter-frame prediction and flag information indicating whether weighted prediction will be performed using image information in a frame different from that of the current image, are determined, it is necessary to determine which weighted prediction will be performed according to the type of clipping.

Например, если тип вырезки, как показано на фиг.33, извлеченный из сигнала видео, есть P-вырезка или SP-вырезка, взвешенное предсказание может быть выполнено если 'weighted_pred_flag=1'. В случае, когда типом вырезки является B-вырезка, взвешенное предсказание может быть выполнено, если 'weighted_bipred_flag=1'. В случае, когда типом вырезки является VP-вырезка, взвешенное предсказание может быть выполнено, если 'view_weighted_pred_flag=1'. В случае, когда типом вырезки является VB-вырезка, взвешенное предсказание может быть выполнено, если 'view_weighted_bipred_flag=1'.For example, if the clipping type, as shown in FIG. 33, extracted from the video signal, is P-clipping or SP-clipping, a weighted prediction can be performed if 'weighted_pred_flag = 1'. In the case where the cut type is B-cut, a weighted prediction can be performed if 'weighted_bipred_flag = 1'. In the case where the cut type is VP cut, a weighted prediction can be performed if 'view_weighted_pred_flag = 1'. In the case where the cut type is VB cut, a weighted prediction can be performed if 'view_weighted_bipred_flag = 1'.

Фиг.34 - последовательность операций способа выполнения взвешенного предсказания согласно NAL (сетевой уровень абстракции)-блоку согласно варианту осуществления настоящего изобретения.Fig. 34 is a flowchart of a method for performing weighted prediction according to a NAL (network abstraction layer) block according to an embodiment of the present invention.

Со ссылками на фиг.34, прежде всего, тип NAL-блока (nal_unit_type) извлекают из сигнала видео (S910). В этом случае тип NAL-блока означает идентификатор, указывающий тип NAL-блока. Например, если 'nal_unit_type=5', NAL-блоком является вырезка изображения IDR. И, IDR (мгновенное восстановление декодирования) изображение означает головное изображение последовательности видео.With reference to FIG. 34, first of all, the type of the NAL unit (nal_unit_type) is extracted from the video signal (S910). In this case, the type of NAL unit means an identifier indicating the type of NAL unit. For example, if 'nal_unit_type = 5', the NAL block is clipping the IDR image. And, IDR (Instant Decoding Recovery) image means the head image of a video sequence.

Затем проверяют, является ли извлеченный тип NAL-блока типом NAL-блока для мультикадрового кодирования видео (S3420).Then, it is checked whether the extracted NAL unit type is a NAL unit type for multi-frame video encoding (S3420).

Если типом NAL-блока есть тип NAL-блока для мультикадрового кодирования видео, взвешенное предсказание выполняют с использованием информации для изображения в кадре, отличном от такового текущего изображения (S3430). Тип NAL-блока может быть типом NAL-блока, применимым как к масштабируемому кодированию видео, так и мультикадровому кодированию видео или типом NAL-блока только для мультикадрового кодирования видео. Таким образом, если тип NAL-блока предназначен для кодирования мультикадрового видео, взвешенное предсказание должно быть выполнено, используя информацию для изображения в кадре, отличном от такового текущего изображения. Так, необходимо определить новый синтаксис. Это описано подробно со ссылками на фиг.35 и фиг.36 ниже.If the type of NAL unit is the type of NAL unit for multi-frame video encoding, weighted prediction is performed using information for an image in a frame different from that of the current image (S3430). The type of NAL unit may be a type of NAL unit applicable to both scalable video encoding and multi-frame video encoding, or a type of NAL unit only for multi-frame video encoding. Thus, if the type of NAL unit is intended for encoding multi-frame video, weighted prediction should be performed using information for the image in a frame different from that of the current image. So, you need to define a new syntax. This is described in detail with reference to FIG. 35 and FIG. 36 below.

Фиг.35 и фиг.36 - диаграммы синтаксиса для выполнения взвешенного предсказания в случае, если тип NAL-блока предназначен для мультикадрового кодирования видео, согласно одному варианту осуществления настоящего изобретения.FIG. 35 and FIG. 36 are syntax diagrams for performing weighted prediction if the type of the NAL unit is for multi-frame video encoding, according to one embodiment of the present invention.

Прежде всего, если тип NAL-блока есть тип NAL-блока для кодирования мультикадрового видео, синтаксис для выполнения обычного взвешенного предсказания (например, H.264) может изменяться в синтаксис, показанный на фиг.35 или фиг.36. Например, ссылочная позиция 3510 указывает часть синтаксиса для выполнения обычного взвешенного предсказания, и ссылочная позиция 3520 указывает часть синтаксиса для выполнения взвешенного предсказания при кодировании мультикадрового видео. Так, взвешенное предсказание выполнено частью 3520 синтаксиса только, если типом NAL-блока является тип NAL-блока для мультикадрового кодирования видео. В этом случае, так как информация для кадра добавлена, каждый элемент синтаксиса включает в себя часть 'Кадр'. Например, имеется 'Iuma_view_log2_weight_denom, chroma_view_log2_weight_denom' или подобное. И, ссылочная позиция 3530 на фиг.36 указывает часть синтаксиса для выполнения обычного взвешенного предсказания и ссылочная позиция 3540 на фиг.36 указывает часть синтаксиса для выполнения взвешенного предсказания при кодировании мультикадрового видео. Так, взвешенное предсказание выполнено частью 3540 синтаксиса, только если типом NAL-блока является тип NAL-блока для мультикадрового кодирования видео. Аналогично, так как добавлена информация для кадра, каждый элемент синтаксиса включает в себя часть 'кадр'. Например, имеется 'luma_view_weight_l1_flag, chroma_view_weight_l1_flag' или подобное. Таким образом, если тип NAL-блока для мультикадрового кодирования видео определен, более эффективное кодирование допускается в отношении способа выполнения взвешенного предсказания, используя информацию для изображения в кадре, отличном от такового текущего изображения.First of all, if the type of NAL block is the type of NAL block for encoding multi-frame video, the syntax for performing conventional weighted prediction (for example, H.264) may change to the syntax shown in FIG. 35 or FIG. 36. For example, reference numeral 3510 indicates a portion of the syntax for performing conventional weighted prediction, and reference numeral 3520 indicates a portion of the syntax for performing weighted prediction when encoding a multi-frame video. So, weighted prediction is performed by syntax part 3520 only if the type of the NAL block is the type of NAL block for multi-frame video encoding. In this case, since the information for the frame is added, each syntax element includes a 'Frame' part. For example, there is 'Iuma_view_log2_weight_denom, chroma_view_log2_weight_denom' or the like. And, reference numeral 3530 in FIG. 36 indicates a portion of the syntax for performing conventional weighted prediction and reference numeral 3540 in FIG. 36 indicates a portion of the syntax for performing weighted prediction in multi-frame video encoding. So, weighted prediction is performed by syntax part 3540 only if the type of the NAL block is the type of NAL block for multi-frame video encoding. Similarly, since information is added for the frame, each syntax element includes a 'frame' part. For example, there is 'luma_view_weight_l1_flag, chroma_view_weight_l1_flag' or the like. Thus, if the type of NAL unit for multi-frame video encoding is determined, more efficient encoding is allowed with respect to the method of performing weighted prediction using information for an image in a frame different from that of the current image.

Фиг.37 - блок-схема устройства для декодирования сигнала видео согласно варианту осуществления настоящего изобретения.Fig. 37 is a block diagram of an apparatus for decoding a video signal according to an embodiment of the present invention.

Со ссылками на фиг.37 устройство для декодирования сигнала видео согласно настоящему изобретению включает в себя модуль 3710 извлечения типа вырезки, модуль 3720 извлечения режима предсказания и модуль 3730 декодирования.With reference to FIG. 37, a video signal decoding apparatus according to the present invention includes a clipping type extraction module 3710, a prediction mode extraction module 3720, and a decoding module 3730.

Фиг.38 - последовательность операций способа декодирования сигнала видео в устройстве декодирования, показанном на фиг.37, согласно одному варианту осуществления настоящего изобретения.Fig. 38 is a flowchart of a method for decoding a video signal in the decoding device shown in Fig. 37, according to one embodiment of the present invention.

Со ссылками на фиг.38 способ декодирования сигнала видео согласно одному варианту осуществления настоящего изобретения включает в себя этап S3810 извлечения типа вырезки и режима предсказания макроблока, и этап S3820 декодирования текущего макроблока согласно типу вырезки и/или режиму предсказания макроблока.With reference to FIG. 38, a video signal decoding method according to one embodiment of the present invention includes a cut type extraction type and a macroblock prediction mode step S3810, and a current macroblock decoding step S3820 according to the cut type and / or macroblock prediction mode.

Сначала схема предсказания, используемая вариантом осуществления настоящего изобретения, описана для помощи в понимании настоящего изобретения. Схема предсказания может быть классифицирована на внутри(интра)кадровое предсказание (например, предсказание между изображениями в одном и том же кадре) и межкадровое предсказание (например, предсказание между изображениями в различных кадрах). И, внутрикадровое предсказание может быть той же схемой предсказания, что и обычное временное предсказание.First, a prediction scheme used by an embodiment of the present invention is described to aid in understanding the present invention. A prediction scheme can be classified into intra (intra) frame prediction (e.g., prediction between images in the same frame) and inter-frame prediction (e.g., prediction between images in different frames). And, intra-frame prediction may be the same prediction scheme as conventional temporal prediction.

Согласно настоящему изобретению, модуль 3710 извлечения типа вырезки извлекает тип вырезки для вырезки, включающей в себя текущий макроблок (S3810).According to the present invention, the cut type extraction module 3710 extracts the cut type for the cut including the current macroblock (S3810).

В этом случае поле (slice_type) типа вырезки, указывающее тип вырезки для внутрикадрового предсказания и/или поле типа вырезки (view_slice_type), указывающее тип вырезки для межкадрового предсказания, могут быть обеспечены как часть синтаксиса сигнала видео, чтобы обеспечить тип вырезки. Это описано более подробно ниже со ссылками на фиг.6(a) и 6(b). И, каждый из типа вырезки (slice_type) для внутрикадрового предсказания и типа вырезки (view_slice_type) для межкадрового предсказания может указывать, например, тип I-вырезки (I_SLICE), тип P-вырезки (P_SLICE), или тип B-вырезки (B_SLICE).In this case, a clipping type field (slice_type) indicating the clipping type for inter prediction and / or a clipping type field (view_slice_type) indicating the clipping type for inter prediction can be provided as part of the video signal syntax to provide the clipping type. This is described in more detail below with reference to FIGS. 6 (a) and 6 (b). And, each of the clipping type (slice_type) for intra prediction and the clipping type (view_slice_type) for inter prediction may indicate, for example, I-clipping type (I_SLICE), P-clipping type (P_SLICE), or B-clipping type (B_SLICE) .

Например, если 'slice_type' конкретной вырезки есть B-вырезка и 'view_slice_type' является P-вырезка, макроблок в конкретной вырезке декодируется посредством схемы кодирования B-вырезки (B_SLICE) во внутрикадровом направлении (то есть временном направлении) и/или схемы кодирования P-вырезки (P_SLICE) в направлении кадра.For example, if the 'slice_type' of a particular cut is B-cut and the 'view_slice_type' is a P-cut, the macroblock in a specific cut is decoded by the B-cut encoding scheme (B_SLICE) in the intraframe direction (i.e., the time direction) and / or the P encoding scheme -cuts (P_SLICE) in the direction of the frame.

Между тем, тип вырезки способен включать в себя тип P-вырезки (VP) для межкадрового предсказания, тип B-вырезки (VB) для межкадрового предсказания и тип смешанной вырезки (Mixed) для предсказания, полученным от смешивания обоих типов предсказания. А именно, тип смешанной вырезки обеспечивает предсказание, используя комбинацию внутрикадрового и межкадрового предсказания.Meanwhile, the clipping type is able to include the P-clipping type (VP) for inter prediction, the B-clipping type (VB) for inter prediction, and the Mixed prediction type obtained from mixing both types of prediction. Namely, the mixed-cut type provides prediction using a combination of intra-frame and inter-frame prediction.

В этом случае тип P-вырезки для межкадрового предсказания означает случай, когда каждый макроблок или часть макроблока, включенный в вырезку, предсказывается из одного изображения в текущем кадре или одного изображения в отличном кадре. Тип B-вырезки для межкадрового предсказания означает случай, когда каждый макроблок или часть макроблока, включенный в вырезку, предсказывается из 'одного или двух изображений в текущем кадре' или 'одного изображения в отличном кадре или двух изображений в различных кадрах, соответственно'. И, смешанный тип вырезки для предсказания, полученный из смешения обоих предсказаний, означает случай, когда каждый макроблок или часть макроблока, включенный в вырезку, предсказывается из 'одного или двух изображений в текущем кадре', 'одного изображения в отличном кадре или двух изображений в отличных кадрах, соответственно', или 'одного или двух изображений в текущем кадре и одном изображении в отличном кадре или двух изображений в различных кадрах, соответственно'.In this case, the type of P-cut for inter-frame prediction means the case where each macroblock or part of the macroblock included in the cut is predicted from one image in the current frame or one image in a different frame. The B-cut type for inter prediction means the case where each macroblock or part of the macroblock included in the cut is predicted from 'one or two images in the current frame' or 'one image in a different frame or two images in different frames, respectively'. And, a mixed type of clipping for a prediction obtained from mixing both predictions means the case when each macroblock or part of the macroblock included in the clipping is predicted from 'one or two images in the current frame', 'one image in a different frame or two images in different frames, respectively ', or' of one or two images in the current frame and one image in a different frame or two images in different frames, respectively '.

Другими словами, ссылочное (опорное) изображение и разрешенный тип макроблока отличаются по каждому типу вырезки, что описано подробно со ссылками на фиг.43 и фиг.44 ниже.In other words, the reference (reference) image and the allowed type of macroblock are different for each type of clipping, as described in detail with reference to FIG. 43 and FIG. 44 below.

И, синтаксис среди вышеупомянутых вариантов осуществления типа вырезки описан подробно со ссылками на фиг.40 и фиг.41 ниже.And, the syntax among the above embodiments of the type of clipping is described in detail with reference to FIG. 40 and FIG. 41 below.

Модуль 3720 извлечения режима предсказания может извлекать индикатор режима предсказания макроблока, указывающий, является ли текущий макроблок макроблоком в соответствии с внутрикадровым предсказанием, макроблоком в соответствии с межкадровым предсказанием или макроблоком в соответствии с предсказанием, полученным из смешивания обоих типов предсказания (S3820). Для этого настоящее изобретение определяет режим (mb_pred_mode) предсказания макроблока. Один вариант осуществления режимов предсказания макроблока описан подробно со ссылками на фиг.39, 40 и фиг.41 ниже.The prediction mode extraction unit 3720 may retrieve a macroblock prediction mode indicator indicating whether the current macroblock is a macroblock in accordance with an intra-frame prediction, a macroblock in accordance with an inter-frame prediction, or a macroblock in accordance with a prediction obtained from mixing both types of prediction (S3820). To this end, the present invention defines a macroblock prediction mode (mb_pred_mode). One embodiment of macroblock prediction modes is described in detail with reference to FIGS. 39, 40 and FIG. 41 below.

Модуль 3730 декодирования декодирует текущий макроблок согласно типу вырезки и/или режиму предсказания макроблока, чтобы принять/получить текущий макроблок. В этом случае текущий макроблок может быть декодирован согласно типу макроблока текущего макроблока, определенного из информации типа макроблока. И, тип макроблока может быть определен согласно режиму предсказания макроблока и типу вырезки.Decoding unit 3730 decodes the current macroblock according to the clipping type and / or macroblock prediction mode to receive / receive the current macroblock. In this case, the current macroblock may be decoded according to the macroblock type of the current macroblock determined from the macroblock type information. And, the macroblock type can be determined according to the macroblock prediction mode and the type of clipping.

В случае, когда режим предсказания макроблока является режимом для внутрикадрового предсказания, тип макроблока определяют согласно типу вырезки для внутрикадрового предсказания, и текущий макроблок затем декодируют в соответствии с внутрикадровым предсказанием согласно определенному типу макроблока.In the case where the macroblock prediction mode is a mode for intra-frame prediction, the macroblock type is determined according to the clipping type for intra-frame prediction, and the current macroblock is then decoded in accordance with the intra-frame prediction according to the determined macroblock type.

В случае, когда режим предсказания макроблока является режимом для межкадрового предсказания, тип макроблока определяют согласно типу вырезки для межкадрового предсказания, и текущий макроблок затем декодируют в соответствии с межкадровым предсказанием согласно определенному типу макроблока.In the case where the macroblock prediction mode is a mode for inter prediction, the macroblock type is determined according to the clipping type for inter prediction, and the current macroblock is then decoded in accordance with the inter prediction according to the determined macroblock type.

В случае, когда режим предсказания макроблока является режимом для предсказания, полученным из смешивания обоих предсказаний, тип макроблока определяют согласно типу вырезки для внутрикадрового предсказания и типу вырезки для межкадрового предсказания, и текущий макроблок затем декодируют в соответствии с предсказанием, полученным смешиванием обоих предсказаний согласно каждому из определенных типов макроблоков.In the case where the macroblock prediction mode is a prediction mode obtained from mixing both predictions, the macroblock type is determined according to the clipping type for intra-frame prediction and the type of clipping for inter-frame prediction, and the current macroblock is then decoded in accordance with the prediction obtained by mixing both predictions according to each from certain types of macroblocks.

В этом случае тип макроблока зависит от режима предсказания макроблока и типа вырезки. В частности, схема предсказания, которую нужно использовать для типа макроблока, может быть определена из режима предсказания макроблока, и тип макроблока затем определен из информации типа макроблока по типу вырезки согласно схеме предсказания. А именно, один или оба из извлеченных slice_type и view_slice_type выбирают на основании режима предсказания макроблока.In this case, the type of macroblock depends on the macroblock prediction mode and the type of clipping. In particular, the prediction scheme to be used for the macroblock type can be determined from the macroblock prediction mode, and the macroblock type is then determined from the macroblock type information according to the clipping type according to the prediction scheme. Namely, one or both of the extracted slice_type and view_slice_type are selected based on the macroblock prediction mode.

Например, если режимом предсказания макроблока является режим для межкадрового предсказания, тип макроблока может быть определен из таблицы макроблоков типов вырезки (I, P, B), соответствующих типу вырезки (view_slice_type) для межкадрового предсказания. Отношение между режимом предсказания макроблоков и типом макроблоков описан подробно со ссылками на фиг.39, 40 и фиг.41 ниже.For example, if the macroblock prediction mode is the mode for inter-frame prediction, the macroblock type can be determined from the macroblock table of clipping types (I, P, B) corresponding to the clipping type (view_slice_type) for inter-frame prediction. The relationship between the macroblock prediction mode and the macroblock type is described in detail with reference to FIGS. 39, 40 and FIG. 41 below.

Фиг.39 - диаграмма режимов предсказания макроблоков согласно вариантам осуществления примера настоящего изобретения.Fig. 39 is a diagram of macroblock prediction modes according to embodiments of an example of the present invention.

На фиг.39(a) изображена таблица, соответствующая одному варианту осуществления режимов (mb_pred_mode) предсказания макроблоков согласно настоящему изобретению.Fig. 39 (a) shows a table corresponding to one embodiment of the macroblock prediction modes (mb_pred_mode) according to the present invention.

В случае внутрикадрового предсказания, то есть используется только временное предсказание для макроблока, '0' назначают значению 'mb_pred_mode'. В случае, если используется только межкадровое предсказание для макроблока, '1' назначается значению 'mb_pred_mode'. В случае, если используются и временное искажение и межкадровое предсказание для макроблока, '2' назначают значению 'mb_pred_mode'.In the case of intra-frame prediction, that is, only temporal prediction for the macroblock is used, '0' is assigned to the value 'mb_pred_mode'. In case only inter-frame prediction is used for the macroblock, '1' is assigned to the value 'mb_pred_mode'. In the case that both temporal distortion and inter-frame prediction are used for the macroblock, '2' is assigned the value 'mb_pred_mode'.

В этом случае, если значение 'mb_pred_mode' является '1', то есть если 'mb_pred_mode' указывает межкадровое предсказание, List0 направления кадра (ViewList0) или List1 направление кадра (ViewList1) определяется в качестве списка опорных изображений для межкадрового предсказания.In this case, if the value of 'mb_pred_mode' is '1', that is, if 'mb_pred_mode' indicates inter-frame prediction, the frame direction List0 (ViewList0) or List1 frame direction (ViewList1) is determined as the reference picture list for inter-frame prediction.

На фиг.39 (b) показано соотношение между режимом предсказания макроблоков и типом макроблоков согласно другому варианту осуществления.Fig. 39 (b) shows the relationship between the macroblock prediction mode and the macroblock type according to another embodiment.

Если значение 'mb_pred_mode' равно '0', используется только временное предсказание. И, тип макроблока определяется согласно типу вырезки (slice_type) для внутрикадрового предсказания.If the value of 'mb_pred_mode' is '0', only temporal prediction is used. And, the macroblock type is determined according to the type of clipping (slice_type) for intra-frame prediction.

Если значение 'mb_pred_mode' равно '1', используется только межкадровое предсказание. И, тип макроблока определяется согласно типу вырезки (view_slice_type) для межкадрового предсказания.If the value of 'mb_pred_mode' is '1', only inter-frame prediction is used. And, the macroblock type is determined according to the type of clipping (view_slice_type) for inter-frame prediction.

Если значение 'mb_pred_mode' равно '2', используется смешанное предсказание как временного, так и внутрикадрового предсказания. И, два типа макроблоков определяются согласно типу вырезки (slice_type) для внутрикадрового предсказания и типу вырезки (view_slice_type) для межкадрового предсказания.If the value of 'mb_pred_mode' is equal to '2', mixed prediction of both temporal and intra-frame prediction is used. And, two types of macroblocks are determined according to the type of clipping (slice_type) for intra-frame prediction and the type of clipping (view_slice_type) for inter-frame prediction.

На основании режима предсказания макроблока тип макроблока задается на основании типа вырезки, как показано в таблицах 1-3 ниже. [Пожалуйста, вставьте таблицы 7-12 - 7-14 в N6540 здесь как таблицы 1-3].Based on the macroblock prediction mode, the macroblock type is set based on the clipping type, as shown in tables 1-3 below. [Please insert tables 7-12 to 7-14 in N6540 here as tables 1-3].

Другими словами, в этом варианте осуществления схема предсказания, используемая для макроблока и тип вырезки, на которые ссылаются, определяются режимом предсказания макроблоков. И, тип макроблока определяют согласно типу вырезки.In other words, in this embodiment, the prediction scheme used for the macroblock and the type of referenced clipping are determined by the macroblock prediction mode. And, the type of macroblock is determined according to the type of clipping.

Фиг.40 и фиг.41 - диаграммы вариантов осуществления примера синтаксиса части сигнала видео, принятого устройством для декодирования сигнала видео. Как показано, синтаксис имеет тип вырезки и информацию режима предсказания макроблоков согласно варианту осуществления настоящего изобретения.Fig. 40 and Fig. 41 are diagrams of embodiments of an example syntax of a portion of a video signal received by a device for decoding a video signal. As shown, the syntax has a clipping type and macroblock prediction mode information according to an embodiment of the present invention.

На фиг.40 показывается примерный синтаксис. В этом синтаксисе поле 'slice_type' и поле 'view_slice_type' обеспечивает типы вырезки, и поле 'mb_pred_mode' обеспечивает режим предсказания макроблока.On Fig shows an exemplary syntax. In this syntax, the 'slice_type' field and the 'view_slice_type' field provide clipping types, and the 'mb_pred_mode' field provides the macroblock prediction mode.

Согласно настоящему изобретению, поле 'slice_type' обеспечивает тип вырезки для внутрикадрового предсказания и поле 'view_slice_type' обеспечивает тип вырезки для межкадрового предсказания. Каждый тип вырезки может стать типом I-вырезки, типом P-вырезки или типом B-вырезки. Если значение 'mb_pred_mode' равно '0' или '1', определяется один тип макроблока. Однако в случае, если это значение 'mb_pred_mode' равно '2', можно видеть, что другой тип макроблока (или два типа) дополнительно определяется. Другими словами, синтаксис, показанный на (a) на фиг.40, указывает, что 'view_slice_type' добавляется, чтобы далее применить обычные типы вырезки (I, P, B) для мультикадрового кодирования видео.According to the present invention, the slice_type field provides a clipping type for inter prediction and the view_slice_type field provides a clipping type for inter prediction. Each type of cut can be an I-cut type, a P-cut type, or a B-cut type. If the value of 'mb_pred_mode' is '0' or '1', one type of macroblock is determined. However, if this value of 'mb_pred_mode' is equal to '2', it can be seen that another type of macroblock (or two types) is additionally defined. In other words, the syntax shown in (a) in FIG. 40 indicates that 'view_slice_type' is added to further apply the conventional clipping types (I, P, B) for multi-frame video encoding.

На фиг.41 показывается другой примерный синтаксис. В этом синтаксисе поле 'slice_type' используется, чтобы обеспечить тип вырезки и поле 'mb_pred_mode' используется, чтобы обеспечить режим предсказания макроблока.FIG. 41 shows another exemplary syntax. In this syntax, the 'slice_type' field is used to provide the clipping type, and the 'mb_pred_mode' field is used to provide the macroblock prediction mode.

Согласно настоящему изобретению поле 'slice_type' может включать в себя, помимо прочего, тип (VP) вырезки для межкадрового предсказания, тип-B вырезки (VB) для межкадрового предсказания и смешанный тип вырезки (Mixed) для предсказания, полученного из смешивания как внутрикадрового и межкадрового предсказаний.According to the present invention, the slice_type field may include, but is not limited to, clipping type (VP) for inter prediction, type-B clipping (VB) for inter prediction, and a mixed clipping type (Mixed) for prediction obtained from mixing both intraframe and inter-frame predictions.

Если значение в поле 'mb_pred_mode' равно '0' или '1', один тип макроблока определяется. Однако в случае, если значение в поле 'mb_pred_mode' равно '2', можно видеть, что определяется дополнительный (то есть общее количество равное двум) тип макроблока. В этом варианте осуществления информация типа вырезки существует в заголовке вырезки, который описан подробно со ссылками на фиг.42. Другими словами, синтаксис, показанный на фиг.41, указывает, что типы вырезки VP, VB и Mixed добавлены к обычному типу вырезки (slice_type).If the value in the 'mb_pred_mode' field is '0' or '1', one type of macroblock is determined. However, if the value in the 'mb_pred_mode' field is '2', it can be seen that an additional (that is, a total of two) type of macroblock is determined. In this embodiment, clipping type information exists in the clipping header, which is described in detail with reference to FIG. In other words, the syntax shown in FIG. 41 indicates that the cut types VP, VB and Mixed are added to the regular cut type (slice_type).

Фиг.42 изображают диаграммы примеров для применения типов вырезки, показанных на фиг.41.Fig. 42 is a diagram of examples for applying the cut types shown in Fig. 41.

Диаграмма на фиг.42(a) показывает, что тип P-вырезки (VP) для межкадрового предсказания, тип B-вырезки (VB) для межкадрового предсказания и смешанный тип вырезки (Mixed) для предсказания, полученного из смешивания обоих предсказания, может существовать в качестве типа вырезки, в дополнение к другим типам вырезки, в заголовке вырезки. В частности, тип вырезки VP, VB и Mixed согласно варианту осуществления примера добавлены к типам вырезки, которые могут существовать в общем заголовке вырезки.The diagram in FIG. 42 (a) shows that a P-clipping type (VP) for inter prediction, a B-clipping type (VB) for inter prediction, and a mixed Mixed type for prediction obtained from mixing both predictions may exist as a clipping type, in addition to other clipping types, in the clipping header. In particular, the cut type VP, VB, and Mixed according to an embodiment of the example are added to the cut types that may exist in the common cut header.

Диаграмма на фиг.42 (b) показывает, что тип P-вырезки (VP) для межкадрового предсказания, тип B-вырезки (VB) для межкадрового предсказания и смешанный тип вырезки (Mixed) для предсказания, полученный из смешивания обоих предсказаний, может существовать в качестве типа вырезки в заголовке вырезки для кодирования мультикадрового видео (MVC). В частности, типы вырезки согласно примерному варианту осуществления определены в заголовке вырезки для кодирования мультикадрового видео.The diagram in FIG. 42 (b) shows that a P-type clipping (VP) for inter prediction, a B-clipping type (VB) for inter prediction and a mixed prediction clipping type (Mixed) obtained from mixing both predictions may exist as the clipping type in the clipping header for encoding a multi-frame video (MVC). In particular, clipping types according to an exemplary embodiment are defined in a clipping header for encoding a multi-frame video.

Диаграмма на фиг.42(c) показывает, что тип вырезки (VP) для межкадрового предсказания, тип B-вырезки (VB) для межкадрового предсказания и смешанный тип вырезки (Mixed) для предсказания, полученный из смешивания обоих предсказаний, может существовать в качестве типа вырезки, в дополнение к существующему типу вырезки для масштабируемого кодирования видео в заголовке вырезки для масштабируемого кодирования видео (SVC). В частности, тип вырезки VP, VB и Mixed согласно варианту осуществления примера добавлены к типам вырезки, которые могут существовать в заголовке вырезки стандарта масштабируемого кодирования видео (SVC).The diagram in FIG. 42 (c) shows that the clipping type (VP) for inter prediction, the B-clipping type (VB) for inter prediction, and the mixed prediction clipping type (Mixed) obtained from mixing both predictions may exist as clipping type, in addition to the existing clipping type for scalable video encoding in the clipping header for scalable video encoding (SVC). In particular, the cut type VP, VB, and Mixed according to an embodiment of the example is added to the cut types that may exist in the cut header of the scalable video coding (SVC) standard.

Фиг.43 - диаграмма различных примеров типов вырезки, включенных в тип вырезки, показанный на фиг.41.Fig. 43 is a diagram of various examples of cut types included in the cut type shown in Fig. 41.

На фиг.43(a) показывается случай, когда тип вырезки предсказан из одного изображения в отличном кадре. Так, тип вырезки становится типом вырезки (VP) для межкадрового предсказания.On Fig (a) shows the case when the type of clipping is predicted from one image in a different frame. So, the clipping type becomes the clipping type (VP) for inter-frame prediction.

На фиг.43(b) показывается случай, когда тип вырезки предсказан из двух изображений в различных кадрах, соответственно. Так, тип вырезки становится типом B-вырезки (VB) для межкадрового предсказания.On Fig (b) shows the case when the type of clipping is predicted from two images in different frames, respectively. So, the clipping type becomes the B-clipping (VB) type for inter-frame prediction.

На фиг.43(c) и 43(f) показывается случай, когда тип вырезки предсказан из одного или двух изображений в текущем кадре и одном изображении в отличном кадре. Так, тип вырезки становится смешанным типом вырезки (Mixed) для предсказания, полученного из смешивания обоих предсказаний. Также, на фиг.43(d) и 43(e) показывается случай, когда тип вырезки предсказывается из одного или двух изображений в текущем кадре и двух изображениях в различных кадрах. Так, тип вырезки также становится смешанным (Mixed) типом вырезки.Figs. 43 (c) and 43 (f) show the case where the clipping type is predicted from one or two images in the current frame and one image in a different frame. So, the type of clipping becomes a mixed type of clipping (Mixed) for the prediction obtained from mixing both predictions. Also, FIGS. 43 (d) and 43 (e) show a case where the cut type is predicted from one or two images in the current frame and two images in different frames. So, the clipping type also becomes the Mixed clipping type.

Фиг.44 - диаграмма макроблока, разрешенного для типов вырезки, показанных на фиг.41.Fig. 44 is a macroblock diagram allowed for the cut types shown in Fig. 41.

Со ссылками на фиг.44, интрамакроблок (I), макроблок (P) предсказанный из одного изображения в текущем кадре, или макроблок (VP) предсказанный из одного изображения в отличном кадре, разрешены для типа P-вырезки (VP) в соответствии с межкадровым предсказанием.With reference to FIG. 44, an intramacroblock (I), a macroblock (P) predicted from a single image in the current frame, or a macroblock (VP) predicted from a single image in a different frame, are allowed for the P-cut (VP) type in accordance with the interframe prediction.

Интрамакроблок (I), макроблок (P или B), предсказанные из одного или двух изображений в текущем кадре, или макроблок VP или VB, предсказанный из одного изображения в отличном кадре или двух изображений в различных кадрах, соответственно, разрешены для типа B-вырезки (VB) в соответствии с межкадровым предсказанием.Intramacroblock (I), macroblock (P or B) predicted from one or two images in the current frame, or macroblock VP or VB predicted from one image in a different frame or two images in different frames, respectively, are allowed for type B-clipping (VB) in accordance with inter-frame prediction.

И, интрамакроблок (I); макроблок (P или B), предсказанный из одного или двух изображений в текущем кадре; макроблок (VP или VB), предсказанный из одного изображения в отличном кадре или двух изображений в различных кадрах, соответственно, или макроблок (Mixed), предсказанный из одного или двух изображений в текущем кадре, одного изображения в отличном кадре или двух изображений в различных кадрах, соответственно, разрешены для смешанного типа вырезки (Mixed).And, intramacroblock (I); a macroblock (P or B) predicted from one or two images in the current frame; a macroblock (VP or VB) predicted from one image in a different frame or two images in different frames, respectively, or a macroblock (Mixed) predicted from one or two images in a current frame, one image in a different frame or two images in different frames , respectively, are allowed for the mixed type of cutting (Mixed).

Фиг.45-47 - диаграммы типа макроблока для макроблока, существующего в смешанном типе вырезки (Mixed) согласно вариантам осуществления настоящего изобретения.Figures 45-47 are diagrams of a macroblock type for a macroblock existing in a mixed Mixed type according to embodiments of the present invention.

На фиг.45(a) и 45(b) показываются схемы конфигурации для типа макроблока (mb_type) и типа подмакроблока (sub_mb_type) для макроблока, существующего в смешанной вырезки, соответственно.Figures 45 (a) and 45 (b) show configuration diagrams for the macroblock type (mb_type) and the sub-macroblock type (sub_mb_type) for the macroblock existing in the mixed cut, respectively.

На фиг.46 и 47 показывается двоичный кадр направления(й) предсказания макроблока, существующего в смешанной вырезке, и фактическое направление(я) предсказания смешанной вырезки, соответственно.Figures 46 and 47 show a binary frame of the macroblock prediction direction (s) existing in the mixed cut and the actual mixed cut prediction direction (s), respectively.

Согласно варианту осуществления настоящего изобретения, тип макроблока (mb_type) подготавливают посредством рассмотрения и размера (Partition_Size) части макроблока и направления (Direction) предсказания части макроблока.According to an embodiment of the present invention, a macroblock type (mb_type) is prepared by looking at the Partition_Size of the macroblock part and the Direction of predicting the macroblock part.

И, тип подмакроблока (sub_mb_type) подготавливают посредством рассмотрения и размера (Sub_Partition_Size) части подмакроблока и направления предсказания (Sub_Direction) каждого части подмакроблока.And, the sub-macroblock type (sub_mb_type) is prepared by looking at and the size (Sub_Partition_Size) of the sub-macroblock part and the prediction direction (Sub_Direction) of each sub-macroblock part.

Со ссылками на фиг.45(a) 'Direction0' и 'Direction1' указывают направление предсказания первого части макроблока и направление предсказания второго части макроблока, соответственно. В частности, в случае макроблока 8×16, 'Direction0' указывает направление предсказания для левой части макроблока 8×16, и 'Direction1' указывает направление предсказания для правой части макроблока 8×16. Конфигурационный принцип типа макроблока (mb_type) описан подробно ниже. Сначала первые два бита указывают размер части (Partition_Size) соответствующего макроблока, и значение 0~3 доступно для этих первых двух битов. И, четыре бита, следующие после первых двух битов, указывают направление предсказания (Direction) в случае, когда макроблок разделен на части.With reference to FIG. 45 (a), 'Direction0' and 'Direction1' indicate a prediction direction of a first part of a macroblock and a prediction direction of a second part of a macroblock, respectively. In particular, in the case of the 8 × 16 macroblock, 'Direction0' indicates the prediction direction for the left side of the 8 × 16 macroblock, and 'Direction1' indicates the prediction direction for the right side of the 8 × 16 macroblock. The macroblock type configuration principle (mb_type) is described in detail below. First, the first two bits indicate the size of the Partition_Size of the corresponding macroblock, and a value of 0 ~ 3 is available for these first two bits. And, the four bits following the first two bits indicate the direction of prediction (Direction) in the case when the macroblock is divided into parts.

Например, в случае макроблока 16×16 четыре бита, указывающие направление предсказания макроблока присоединены позади первых двух битов. В случае макроблока 16×8 четыре бита после первых двух битов указывает направление предсказания (Direction0) первой части, и другие четыре бита присоединены к упомянутым четырем битам, чтобы указать направление предсказания (Direction1) второй части. Аналогично, в случае макроблока 8×16 восемь битов присоединены позади первых двух битов. В этом случае первые четыре бита из восьми битов, присоединенных к первым двум битам, указывают направление предсказания первой части, и следующие четыре бита указывают направление предсказания второй части.For example, in the case of a 16 × 16 macroblock, four bits indicating a macroblock prediction direction are attached behind the first two bits. In the case of a 16 × 8 macroblock, the four bits after the first two bits indicate the prediction direction (Direction0) of the first part, and the other four bits are attached to the four bits to indicate the prediction direction (Direction1) of the second part. Similarly, in the case of an 8 × 16 macroblock, eight bits are attached behind the first two bits. In this case, the first four bits of the eight bits appended to the first two bits indicate the prediction direction of the first part, and the next four bits indicate the prediction direction of the second part.

Со ссылками на фиг.45(b) направление предсказания (Sub_Direction) подмакроблока используется тем же самым способом, что и направление предсказания (Direction) части макроблока, показанного на фиг.45(a). Принцип конфигурирования типа подмакроблока (sub_mb_type) описан подробно ниже.With reference to FIG. 45 (b), the prediction direction (Sub_Direction) of the sub-macroblock is used in the same manner as the prediction direction (Direction) of the part of the macroblock shown in FIG. 45 (a). The principle of configuring the sub-macroblock type (sub_mb_type) is described in detail below.

Сначала первые два бита указывают размер части (Partition_Size) соответствующего макроблока и вторые два бита, следующие за упомянутыми двумя битами, указывают размер части (Sub_Partition_Size) подмакроблока соответствующего макроблока. Значение 0-3 доступно для каждого из первых и вторых двух битов. Затем четыре бита, присоединенные ко вторым двум битам, указывают направление предсказания (Sub_Direction) в случае, когда макроблок разделен на части подмакроблока. Например, если размер (Partition_Size) части макроблока равен 8×8, и если размер (Sub_Partition_Size) части подмакроблока равен 4×8, первые два бита имеют значение 3, вторые два бита имеют значение 2, первые четыре бита вслед за вторыми двумя битами указывают направление предсказания для левого блока 4×8 из двух 4×8 блоков, и вторые четыре бита вслед за первыми четырьмя битами указывают направление предсказания для правого блока 4×8.First, the first two bits indicate the size of the part (Partition_Size) of the corresponding macroblock and the second two bits following the two bits indicate the size of the part (Sub_Partition_Size) of the sub-macroblock of the corresponding macroblock. A value of 0-3 is available for each of the first and second two bits. Then, four bits attached to the second two bits indicate the direction of prediction (Sub_Direction) in the case where the macroblock is divided into parts of the sub-macroblock. For example, if the size (Partition_Size) of the part of the macroblock is 8 × 8, and if the size (Sub_Partition_Size) of the part of the macroblock is 4 × 8, the first two bits are 3, the second two bits are 2, the first four bits after the second two bits indicate the prediction direction for the left 4 × 8 block of two 4 × 8 blocks, and the second four bits after the first four bits indicate the prediction direction for the right 4 × 8 block.

Со ссылками на фиг.46, направление предсказания макроблока создается четырьмя битами. И, можно видеть, что каждое двоичное представление становится равным '1' согласно случаю ссылки на изображение в левой (L), верхней (T), правой (R) или нижней (B) позициях текущего изображения.With reference to FIG. 46, a macroblock prediction direction is created by four bits. And, you can see that each binary representation becomes equal to '1' according to the case of the image link in the left (L), top (T), right (R) or bottom (B) positions of the current image.

Со ссылками на фиг.47, например, в случае, если направление предсказания является верх (T), изображение, расположенное сверху в направлении кадра текущего изображения, является опорным. В случае, когда направление предсказания соответствует всем направлениям (LTRB), можно видеть, что изображения во всех направлениях (LTRB) текущего изображения являются опорными.With reference to Fig. 47, for example, in the case where the prediction direction is top (T), the image located above in the frame direction of the current image is a reference. In the case where the prediction direction corresponds to all directions (LTRB), it can be seen that images in all directions (LTRB) of the current image are reference.

Фиг.48 - блок-схема устройства для кодирования сигнала видео согласно варианту осуществления настоящего изобретения.Fig. 48 is a block diagram of an apparatus for encoding a video signal according to an embodiment of the present invention.

Со ссылками на фиг.48 (изображено) устройство для кодирования сигнала видео согласно варианту осуществления настоящего изобретения. Устройство включает в себя модуль 4810 определения типа макроблока, модуль 4820 формирования макроблока и модуль 4830 кодирования.With reference to FIG. 48 (shown), an apparatus for encoding a video signal according to an embodiment of the present invention. The device includes a macroblock type determining unit 4810, a macroblock forming unit 4820, and an encoding unit 4830.

Фиг.49 иллюстрирует последовательность операций способа кодирования сигнала видео в устройстве кодирования, показанном на фиг.48, согласно варианту осуществления настоящего изобретения.Fig. 49 illustrates a flowchart of a method of encoding a video signal in the encoding device shown in Fig. 48, according to an embodiment of the present invention.

Со ссылками на фиг.49 способ кодирования сигнала видео согласно варианту осуществления настоящего изобретения включает в себя этап S4910 определения первого типа макроблока для внутрикадрового предсказания и второго типа макроблока для межкадрового предсказания, этап S4920 формирования первого макроблока, имеющего первый тип макроблока, и второго макроблока, имеющего второй тип макроблока, этап S4930 формирования третьего макроблока, используя первый и второй макроблоки, и этап S4940 кодирования типа макроблока текущего макроблока и режима предсказания макроблока.With reference to FIG. 49, a video signal encoding method according to an embodiment of the present invention includes a step S4910 for determining a first type of macroblock for intra-frame prediction and a second type of macroblock for inter-frame prediction, a step S4920 for generating a first macroblock having a first type of macroblock and a second macroblock, having a second macroblock type, a third macroblock forming step S4930 using the first and second macroblocks, and a macroblock type encoding step S4940 of the current macroblock and the pre-mode macroblock readings.

Согласно настоящему изобретению модуль 4810 определения типа макроблока определяет первый тип макроблока для внутрикадрового предсказания и второй тип макроблока для межкадрового предсказания (S4910), как описано подробно выше.According to the present invention, the macroblock type determination unit 4810 determines a first macroblock type for intra-frame prediction and a second macroblock type for inter-frame prediction (S4910), as described in detail above.

Затем модуль 4820 формирования макроблока формирует первый макроблок, имеющий первый тип макроблока, и второй макроблок, имеющий второй тип макроблока (S4920), с использованием известных способов предсказания, и затем формирует третий макроблок, используя первый и второй макроблоки (S4930). В этом случае третий макроблок формируют согласно среднему значению между первым и вторым макроблоками.Then, the macroblock generating unit 4820 generates a first macroblock having a first type of macroblock and a second macroblock having a second type of macroblock (S4920) using known prediction methods, and then forms a third macroblock using the first and second macroblocks (S4930). In this case, the third macroblock is formed according to the average value between the first and second macroblocks.

Наконец, модуль 4830 кодирования кодирует тип макроблока (mb_type) текущего макроблока и режим (mb_pred_mode) предсказания макроблока текущего макроблока, сравнивая эффективности кодирования первого - третьего макроблоков (S4940).Finally, the coding unit 4830 encodes the macroblock type (mb_type) of the current macroblock and the macroblock prediction mode (mb_pred_mode) of the current macroblock, comparing the coding efficiencies of the first to third macroblocks (S4940).

В этом случае имеются различные способы измерить эффективности кодирования. В частности способ, использующий RD-стоимость (искажения частоты следования битов) используется в этом варианте осуществления настоящего изобретения. Как известно, в способе RD-стоимости соответствующая стоимость вычисляется с двумя компонентами: количество битов кодирования, сформированных из кодирования соответствующего блока, и значение искажения, указывающее ошибку от фактической последовательности.In this case, there are various ways to measure coding efficiency. In particular, a method using RD cost (bit rate distortion) is used in this embodiment of the present invention. As is known, in the RD-value method, the corresponding cost is calculated with two components: the number of coding bits generated from the coding of the corresponding block, and the distortion value indicating an error from the actual sequence.

Первый и второй типы макроблоков могут быть определены способом выбора типа макроблока, имеющего минимальное значение выше описанной RD стоимости. Например, тип макроблока, имеющий минимальное значение RD-стоимости среди типов макроблока в соответствии с внутрикадровым предсказанием, определяется как первый тип макроблока. И, тип макроблока, имеющий минимальное значение RD-стоимости среди типа макроблока в соответствии с межкадровым предсказанием определяется как второй тип макроблока.The first and second types of macroblocks can be determined by selecting a type of macroblock having a minimum value above the described RD cost. For example, a macroblock type having a minimum RD value among macroblock types according to intra-frame prediction is defined as a first macroblock type. And, a macroblock type having a minimum RD value among a macroblock type according to inter-frame prediction is defined as a second macroblock type.

На этапе кодирования типа макроблока и режима предсказания макроблока, тип макроблока и режим предсказания, связанные с этими первым и вторым макроблоками, имеющих меньшую RD-стоимость, может быть выбраны. Затем определяется RD-стоимость третьего макроблока. Наконец, тип макроблока и режим предсказания макроблока текущего макроблока кодируют посредством сравнения RD-стоимости выбранного первого или второго макроблока и RD-стоимости третьего макроблока друг с другом.In the coding step of the macroblock type and macroblock prediction mode, the macroblock type and prediction mode associated with these first and second macroblocks having lower RD cost can be selected. Then, the RD value of the third macroblock is determined. Finally, the macroblock type and macroblock prediction mode of the current macroblock are encoded by comparing the RD value of the selected first or second macroblock and the RD value of the third macroblock with each other.

Если RD-стоимость выбранного первого или второго макроблока равна или больше, чем RD-стоимость третьего макроблока, тип макроблока становится типом макроблока, соответствующим выбранному первому или второму макроблоку.If the RD value of the selected first or second macroblock is equal to or greater than the RD value of the third macroblock, the macroblock type becomes the macroblock type corresponding to the selected first or second macroblock.

Например, если RD-стоимость первого макроблока меньше, чем таковая второго и третьего макроблоков, текущий макроблок устанавливается как первый тип макроблока. И, режим предсказания макроблока (то есть внутрикадровое предсказания) становится схемой предсказания макроблока, соответствующего RD-стоимости.For example, if the RD value of the first macroblock is less than that of the second and third macroblocks, the current macroblock is set as the first type of macroblock. And, the macroblock prediction mode (i.e., intra-frame prediction) becomes the macroblock prediction circuit corresponding to the RD cost.

Например, если RD-стоимость второго макроблока меньше, чем таковая первого и третьего макроблоков, схема межкадрового предсказания в качестве схемы предсказания второго макроблока становится режимом предсказания макроблока текущего макроблока.For example, if the RD value of the second macroblock is less than that of the first and third macroblocks, the inter prediction scheme as the prediction scheme of the second macroblock becomes the macroblock prediction mode of the current macroblock.

Между тем, если RD-стоимость третьего макроблока меньше, чем RD стоимости первого и второго макроблоков, типы макроблоков соответствуют и первому и второму типам макроблоков. В частности, типы макроблока внутрикадрового предсказания и межкадрового предсказания становятся типами макроблока текущего макроблока. И, режим предсказания макроблока становится схемой смешанного предсказания, полученной из смешивания внутрикадрового предсказания и меж-кадрового предсказания.Meanwhile, if the RD cost of the third macroblock is less than the RD cost of the first and second macroblocks, the types of macroblocks correspond to the first and second types of macroblocks. In particular, the macroblock types of intra-frame prediction and inter-frame prediction become the macroblock types of the current macroblock. And, the macroblock prediction mode becomes a mixed prediction scheme obtained from mixing intra-frame prediction and inter-frame prediction.

Соответственно, настоящее изобретение обеспечивает по меньшей мере следующий эффект или преимущество.Accordingly, the present invention provides at least the following effect or advantage.

Настоящее изобретение способно исключить информацию избыточности между кадрами из-за различных схем предсказания между кадрами и такую информацию, как типы вырезки, типы макроблока и режимы предсказания макроблока; таким образом повышая производительность кодирования/эффективность декодирования.The present invention is capable of eliminating redundancy information between frames due to various prediction schemes between frames and information such as clipping types, macroblock types, and macroblock prediction modes; thus increasing coding performance / decoding efficiency.

Промышленная применимостьIndustrial applicability

Хотя настоящее изобретение было описано и проиллюстрировано со ссылками на предпочтительные варианты его осуществления, специалистам очевидно, что различные модификации и изменения могут быть сделаны без отхода от объема и сущности изобретения. Таким образом, предполагается, что настоящее изобретение охватывает модификации и изменения этого изобретения, которые определяются прилагаемой формулой изобретения и ее эквивалентами.Although the present invention has been described and illustrated with reference to preferred embodiments thereof, it will be apparent to those skilled in the art that various modifications and changes can be made without departing from the scope and spirit of the invention. Thus, it is intended that the present invention cover the modifications and variations of this invention as defined by the appended claims and their equivalents.

Claims (8)

1. Способ декодирования сигнала видео, содержащий этапы:
проверка схемы кодирования сигнала видео;
получение информации конфигурации для сигнала видео согласно схеме кодирования; распознавание общего количества кадров, использующих информацию конфигурации;
распознавание межкадровой опорной информации на основании общего количества кадров и
декодирование сигнала видео на основании межкадровой опорной информации, причем информация конфигурации включает в себя по меньшей мере информацию кадра для идентификации кадра сигнала видео.
1. A method of decoding a video signal, comprising the steps of:
checking the encoding scheme of the video signal;
obtaining configuration information for a video signal according to a coding scheme; recognition of the total number of frames using configuration information;
recognition of inter-frame reference information based on the total number of frames and
decoding a video signal based on inter-frame reference information, wherein the configuration information includes at least frame information for identifying a frame of the video signal.
2. Способ по п.1, дополнительно содержащий этап проверки уровня для масштабируемости кадра сигнала видео, при этом сигнал видео декодируют на основании уровня.2. The method according to claim 1, further comprising the step of checking the level for scalability of the frame of the video signal, wherein the video signal is decoded based on the level. 3. Способ по п.1, в котором информация конфигурации также включает в себя временный уровень, флаг группы межкадровых изображений и флаг мгновенного обновления декодирования (IDR).3. The method according to claim 1, in which the configuration information also includes a time level, a flag of a group of inter-frame images and a flag of instant update decoding (IDR). 4. Способ по п.2, в котором на этапе декодирования, если сигнал видео соответствует основному кадру согласно уровню, декодируют сигнал видео основного кадра.4. The method according to claim 2, in which at the decoding stage, if the video signal corresponds to the main frame according to the level, decode the video signal of the main frame. 5. Способ по п.1, дополнительно содержащий этап получения информации для изображения в кадре, отличном от такового текущего изображения, используя информацию кадра, причем информация для изображения в отличном кадре используется при декодировании сигнала видео.5. The method according to claim 1, further comprising the step of obtaining information for an image in a frame different from that of the current image using frame information, the information for the image in an excellent frame being used when decoding a video signal. 6. Способ по п.5, в котором этап декодирования сигнала видео дополнительно содержит этап выполнения компенсации движения, используя информацию для изображения в отличном кадре, при этом информация для изображения в отличном кадре включает в себя информацию вектора движения и информацию опорного изображения.6. The method according to claim 5, in which the step of decoding the video signal further comprises the step of performing motion compensation using information for the image in the excellent frame, wherein the information for the image in the excellent frame includes motion vector information and reference image information. 7. Способ по п.5, в котором этап декодирования сигнала видео дополнительно содержит этапы: извлечение идентификатора предсказания межкадрового синтеза, указывающего, получить ли изображение в виртуальном кадре, используя изображение в кадре, соседнем к таковому текущего изображения из сигнала видео; и получение изображения в виртуальном кадре согласно идентификатору предсказания межкадрового синтеза, причем информация для изображения в отличном кадре используется при получении изображения в виртуальном кадре.7. The method according to claim 5, wherein the step of decoding the video signal further comprises the steps of: extracting an inter-frame synthesis prediction identifier indicating whether to obtain an image in a virtual frame using an image in a frame adjacent to that of the current image from the video signal; and acquiring the image in the virtual frame according to the prediction identifier of the interframe synthesis, wherein the information for the image in the excellent frame is used when acquiring the image in the virtual frame. 8. Способ по п.5, в котором этап декодирования сигнала видео дополнительно содержит этап получения информации глубины между различными кадрами, используя информацию для изображения в упомянутом отличном кадре. 8. The method according to claim 5, in which the step of decoding the video signal further comprises the step of obtaining depth information between different frames using information for the image in said excellent frame.
RU2008142963/09A 2006-03-30 2007-03-30 Method and device for decoding/coding of video signal RU2395174C1 (en)

Applications Claiming Priority (13)

Application Number Priority Date Filing Date Title
US78717106P 2006-03-30 2006-03-30
US60/787,171 2006-03-30
US80139806P 2006-05-19 2006-05-19
US60/801,398 2006-05-19
US60/810,642 2006-06-05
US83060106P 2006-07-14 2006-07-14
US60/830,601 2006-07-14
US60/832,153 2006-07-21
US83792506P 2006-08-16 2006-08-16
US60/837,925 2006-08-16
US60/840,032 2006-08-25
US84215206P 2006-09-05 2006-09-05
US60/842,152 2006-09-05

Related Child Applications (1)

Application Number Title Priority Date Filing Date
RU2010111711/08A Division RU2530310C2 (en) 2006-03-30 2007-03-30 Video decoding/encoding method and device

Publications (2)

Publication Number Publication Date
RU2008142963A RU2008142963A (en) 2010-05-10
RU2395174C1 true RU2395174C1 (en) 2010-07-20

Family

ID=42673422

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2008142963/09A RU2395174C1 (en) 2006-03-30 2007-03-30 Method and device for decoding/coding of video signal

Country Status (1)

Country Link
RU (1) RU2395174C1 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2541155C2 (en) * 2010-07-20 2015-02-10 Квэлкомм Инкорпорейтед Arranging sub-track fragments for streaming video data
RU2566332C2 (en) * 2011-03-11 2015-10-20 Хуавэй Текнолоджиз Ко., Лтд. Encoding and decoding process and device
RU2566955C2 (en) * 2011-11-08 2015-10-27 Самсунг Электроникс Ко., Лтд. Method and apparatus for motion vector determination in video encoding or decoding
RU2571514C2 (en) * 2011-01-14 2015-12-20 Хуавэй Текнолоджиз Ко., Лтд. Image encoding and decoding method, image data processing method and associated devices
RU2573227C1 (en) * 2011-12-22 2016-01-20 Квэлкомм Инкорпорейтед Execution of motion vector prediction for video coding
RU2591645C2 (en) * 2011-09-17 2016-07-20 Квэлкомм Инкорпорейтед Determination of motion vector for video encoding
RU2608354C2 (en) * 2012-07-02 2017-01-18 Самсунг Электроникс Ко., Лтд. Method and apparatus for encoding video and method and apparatus for decoding video determining inter-prediction reference picture list depending on block size
RU2620723C2 (en) * 2012-02-08 2017-05-29 Квэлкомм Инкорпорейтед Limitation with unidirectional inter-prediction for prediction blocks in b-slices
RU2620718C2 (en) * 2011-06-30 2017-05-29 Самсунг Электроникс Ко., Лтд. Method for video encoding with control of bits depth conversion to fixed-point and device for it, and method for video decoding and device for it
RU2624578C2 (en) * 2012-07-02 2017-07-04 Самсунг Электроникс Ко., Лтд. Method and device for motion vector prediction for video encoding or decoding
RU2628250C2 (en) * 2012-09-28 2017-08-15 Квэлкомм Инкорпорейтед Resistant to errors association of the decoding unit
RU2628319C2 (en) * 2012-04-15 2017-08-15 Самсунг Электроникс Ко., Лтд. Method and device for determination of supporting images for external prediction
RU2641470C2 (en) * 2012-06-28 2018-01-17 Сони Корпорейшн Transmission/receiving device, coding/decoding method and device
RU2647652C1 (en) * 2011-04-21 2018-03-16 Самсунг Электроникс Ко., Лтд. Method of quantuming of coding coefficients with linear prediction, method of sound coding, method of dequantization of coding coefficients with linear prediction, method of sound decoding and a medium recorder
US10224051B2 (en) 2011-04-21 2019-03-05 Samsung Electronics Co., Ltd. Apparatus for quantizing linear predictive coding coefficients, sound encoding apparatus, apparatus for de-quantizing linear predictive coding coefficients, sound decoding apparatus, and electronic device therefore
RU2713854C2 (en) * 2012-04-23 2020-02-07 Сан Пэтент Траст Encoding method, decoding method, encoding device, decoding device and encoding and decoding device
RU2715011C1 (en) * 2011-11-07 2020-02-21 Нтт Докомо, Инк. Predictive video coding device, predictive video coding method, prediction video coding software, prediction video decoding device, prediction video decoding method and prediction video decoding software

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
RALF SCHAFER et al. MCTF and scalability extension of H.264/AVC and its application to video transmission, storage, and surveillance. Visual Communications and Image Processing 2005, Proceedings of the SPIE, Volume 5960, c.c.343-354. Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCEG, Extended Spatial Scalability with picture-level adaptation, JVT-O008, 15th Meeting: Bussan, 16-22 April, 2005, c.c.1-20. Proposal for SVC File Format Specification, ISO/IEC JTC1/SC29/ WG11, MPEG2005/M12345, July 2005, Poznan, Poland. *

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2541155C2 (en) * 2010-07-20 2015-02-10 Квэлкомм Инкорпорейтед Arranging sub-track fragments for streaming video data
RU2571514C2 (en) * 2011-01-14 2015-12-20 Хуавэй Текнолоджиз Ко., Лтд. Image encoding and decoding method, image data processing method and associated devices
US9485504B2 (en) 2011-01-14 2016-11-01 Huawei Technologies Co., Ltd. Image coding and decoding method, image data processing method, and devices thereof
US10264254B2 (en) 2011-01-14 2019-04-16 Huawei Technologies Co., Ltd. Image coding and decoding method, image data processing method, and devices thereof
US9979965B2 (en) 2011-01-14 2018-05-22 Huawei Technologies Co., Ltd. Image coding and decoding method, image data processing method, and devices thereof
RU2566332C2 (en) * 2011-03-11 2015-10-20 Хуавэй Текнолоджиз Ко., Лтд. Encoding and decoding process and device
US9571829B2 (en) 2011-03-11 2017-02-14 Huawei Technologies Co., Ltd. Method and device for encoding/decoding with quantization parameter, block size and coding unit size
US10229692B2 (en) 2011-04-21 2019-03-12 Samsung Electronics Co., Ltd. Method of quantizing linear predictive coding coefficients, sound encoding method, method of de-quantizing linear predictive coding coefficients, sound decoding method, and recording medium and electronic device therefor
RU2675044C1 (en) * 2011-04-21 2018-12-14 Самсунг Электроникс Ко., Лтд. Method of quantization of coding coefficients with linear prediction, method of sound coding, method of dequantization of coding coefficients with linear prediction, method of sound decoding and a medium recorder
RU2647652C1 (en) * 2011-04-21 2018-03-16 Самсунг Электроникс Ко., Лтд. Method of quantuming of coding coefficients with linear prediction, method of sound coding, method of dequantization of coding coefficients with linear prediction, method of sound decoding and a medium recorder
US10224051B2 (en) 2011-04-21 2019-03-05 Samsung Electronics Co., Ltd. Apparatus for quantizing linear predictive coding coefficients, sound encoding apparatus, apparatus for de-quantizing linear predictive coding coefficients, sound decoding apparatus, and electronic device therefore
US9888242B2 (en) 2011-06-30 2018-02-06 Samsung Electronics Co., Ltd. Video encoding method with bit depth adjustment for fixed-point conversion and apparatus therefor, and video decoding method and apparatus therefor
RU2620718C2 (en) * 2011-06-30 2017-05-29 Самсунг Электроникс Ко., Лтд. Method for video encoding with control of bits depth conversion to fixed-point and device for it, and method for video decoding and device for it
RU2591645C2 (en) * 2011-09-17 2016-07-20 Квэлкомм Инкорпорейтед Determination of motion vector for video encoding
US9736489B2 (en) 2011-09-17 2017-08-15 Qualcomm Incorporated Motion vector determination for video coding
RU2715011C1 (en) * 2011-11-07 2020-02-21 Нтт Докомо, Инк. Predictive video coding device, predictive video coding method, prediction video coding software, prediction video decoding device, prediction video decoding method and prediction video decoding software
US9332273B2 (en) 2011-11-08 2016-05-03 Samsung Electronics Co., Ltd. Method and apparatus for motion vector determination in video encoding or decoding
RU2586001C2 (en) * 2011-11-08 2016-06-10 Самсунг Электроникс Ко., Лтд. Method and apparatus for motion vector determination in video encoding or decoding
RU2566955C2 (en) * 2011-11-08 2015-10-27 Самсунг Электроникс Ко., Лтд. Method and apparatus for motion vector determination in video encoding or decoding
RU2566955C9 (en) * 2011-11-08 2016-11-27 Самсунг Электроникс Ко., Лтд. Method and apparatus for motion vector determination in video encoding or decoding
RU2566956C2 (en) * 2011-11-08 2015-10-27 Самсунг Электроникс Ко., Лтд. Method and apparatus for motion vector determination in video encoding or decoding
RU2566957C2 (en) * 2011-11-08 2015-10-27 Самсунг Электроникс Ко., Лтд. Method and apparatus for motion vector determination in video encoding or decoding
US9451282B2 (en) 2011-11-08 2016-09-20 Samsung Electronics Co., Ltd. Method and apparatus for motion vector determination in video encoding or decoding
RU2566973C2 (en) * 2011-11-08 2015-10-27 Самсунг Электроникс Ко., Лтд. Method and apparatus for motion vector determination in video encoding or decoding
US9204163B2 (en) 2011-11-08 2015-12-01 Samsung Electronics Co., Ltd. Method and apparatus for motion vector determination in video encoding or decoding
US9225995B2 (en) 2011-11-08 2015-12-29 Samsung Electronics Co., Ltd. Method and apparatus for motion vector determination in video encoding or decoding
RU2573227C1 (en) * 2011-12-22 2016-01-20 Квэлкомм Инкорпорейтед Execution of motion vector prediction for video coding
US9762904B2 (en) 2011-12-22 2017-09-12 Qualcomm Incorporated Performing motion vector prediction for video coding
US9699472B2 (en) 2012-02-08 2017-07-04 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
RU2620723C2 (en) * 2012-02-08 2017-05-29 Квэлкомм Инкорпорейтед Limitation with unidirectional inter-prediction for prediction blocks in b-slices
RU2666233C1 (en) * 2012-04-15 2018-09-06 Самсунг Электроникс Ко., Лтд. Method and device for determination of reference images for external prediction
RU2628319C2 (en) * 2012-04-15 2017-08-15 Самсунг Электроникс Ко., Лтд. Method and device for determination of supporting images for external prediction
RU2713854C2 (en) * 2012-04-23 2020-02-07 Сан Пэтент Траст Encoding method, decoding method, encoding device, decoding device and encoding and decoding device
RU2641470C2 (en) * 2012-06-28 2018-01-17 Сони Корпорейшн Transmission/receiving device, coding/decoding method and device
US10750199B2 (en) 2012-06-28 2020-08-18 Saturn Licensing Llc Transmitting/receiving device, method, and coding/decoding device
US10250901B2 (en) 2012-06-28 2019-04-02 Saturn Licensing Llc Transmitting/receiving device, method, and coding/decoding device
RU2624578C2 (en) * 2012-07-02 2017-07-04 Самсунг Электроникс Ко., Лтд. Method and device for motion vector prediction for video encoding or decoding
RU2608354C2 (en) * 2012-07-02 2017-01-18 Самсунг Электроникс Ко., Лтд. Method and apparatus for encoding video and method and apparatus for decoding video determining inter-prediction reference picture list depending on block size
US10200710B2 (en) 2012-07-02 2019-02-05 Samsung Electronics Co., Ltd. Motion vector prediction method and apparatus for encoding or decoding video
RU2673846C1 (en) * 2012-07-02 2018-11-30 Самсунг Электроникс Ко., Лтд. Method and device for predicting motion vector for video encoding or video decoding
RU2647674C1 (en) * 2012-07-02 2018-03-16 Самсунг Электроникс Ко., Лтд. Method and apparatus for encoding video and method and apparatus for decoding video, determining the list of reference external prediction image depending on the unit size
RU2628250C2 (en) * 2012-09-28 2017-08-15 Квэлкомм Инкорпорейтед Resistant to errors association of the decoding unit

Also Published As

Publication number Publication date
RU2008142963A (en) 2010-05-10

Similar Documents

Publication Publication Date Title
RU2530310C2 (en) Video decoding/encoding method and device
RU2395174C1 (en) Method and device for decoding/coding of video signal

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20100516