RU2609753C2 - Способ и устройство для обработки видеосигнала - Google Patents
Способ и устройство для обработки видеосигнала Download PDFInfo
- Publication number
- RU2609753C2 RU2609753C2 RU2015104394A RU2015104394A RU2609753C2 RU 2609753 C2 RU2609753 C2 RU 2609753C2 RU 2015104394 A RU2015104394 A RU 2015104394A RU 2015104394 A RU2015104394 A RU 2015104394A RU 2609753 C2 RU2609753 C2 RU 2609753C2
- Authority
- RU
- Russia
- Prior art keywords
- block
- interspecific
- compensation
- current texture
- current
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/521—Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/007—Aspects relating to detection of stereoscopic image format, e.g. for adaptation to the display format
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Studio Devices (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Изобретение относится к области кодирования видеосигнала. Технический результат – повышение эффективности кодирования видеосигнала. Способ обработки видеосигнала содержит этапы, на которых: получают межвидовой вектор движения, соответствующий текущему блоку текстуры; получают опорный блок, используя межвидовой вектор движения, причем опорный блок расположен в опорном виде и при этом опорный вид опорного блока отличается от текущего вида текущего блока текстуры; получают предсказанное значение текущего блока текстуры, используя опорный блок; получают флаг межвидовой компенсации; получают первый коэффициент компенсации и второй коэффициент компенсации, когда флаг межвидовой компенсации указывает выполнять межвидовую компенсацию над предсказанным значением текущего блока текстуры; выполняют межвидовую компенсацию для предсказанного значения текущего блока текстуры, используя первый коэффициент компенсации и второй коэффициент компенсации; декодируют текущий блок текстуры, используя предсказанное значение текущего блока текстуры, подвергнутого межвидовой компенсации. 2 н.п. ф-лы, 7 ил.
Description
ОБЛАСТЬ ТЕХНИКИ, К КОТОРОЙ ОТНОСИТСЯ ИЗОБРЕТЕНИЕ
[0001] Настоящее изобретение относится к способу и устройству для кодирования видеосигнала.
УРОВЕНЬ ТЕХНИКИ
[0002] Кодирование со сжатием подразумевает ряд методик обработки сигнала для пересылки оцифрованной информации через схему связи или для сохранения оцифрованной информации в формате, пригодном для запоминающего носителя информации. Целевые объекты кодирования со сжатием включают в себя аудио, видео, текст и подобное. В частности, методика выполнения кодирования со сжатием над видео именуется сжатием видеопоследовательности. Многовидовая видеопоследовательность, как правило, отличается пространственной избыточностью, временной избыточностью и межвидовой избыточностью.
СУЩНОСТЬ ИЗОБРЕТЕНИЯ
ТЕХНИЧЕСКАЯ ЗАДАЧА
[0003] Техническая задача настоящего изобретения состоит в повышении эффективности кодирования видеосигнала.
ТЕХНИЧЕСКИЕ РЕШЕНИЯ
[0004] Настоящее изобретение отличается тем, что повышает точность межвидового интер-предсказания (inter prediction) посредством выполнения процесса межвидовой компенсации над предсказанным значением текущего блока текстуры.
[0005] Настоящее изобретение может получать первый корректирующий коэффициент и второй корректирующий коэффициент для выполнения процесса межвидовой компенсации, используя значение соседнего пикселя для текущего блока текстуры и значение соседнего пикселя опорного блока.
[0006] Настоящее изобретение может определять, выполнять ли межвидовую компенсацию посредством сравнения друг с другом разностей распределения значения пикселя текущего и опорного изображения.
[0007] Настоящее изобретение может определять, выполнять ли межвидовую компенсацию, посредством сравнения друг с другом SAD и предварительно определенных пороговых величин значений пикселя текущего и опорного изображения.
[0008] Настоящее изобретение может определять, выполнять ли межвидовую компенсацию, посредством сравнения друг с другом нормированного значения корреляции и предварительно определенной пороговой величины.
ПОЛОЖИТЕЛЬНЫЕ ЭФФЕКТЫ
[0009] Настоящее изобретение отличается тем, что повышает точность межвидового интер-предсказания посредством компенсации межвидовой разности, генерируемой в условии фотографирования, таком как освещение, камера или подобное, при киносъемке многовидового видео.
[0010] Настоящее изобретение может предотвращать ухудшение эффективности кодирования и увеличение сложности, которые могут генерироваться процессом межвидовой компенсации, посредством определения, выполнять ли процесс межвидовой компенсации.
ОПИСАНИЕ ЧЕРТЕЖЕЙ
[0011] Фиг. 1 является принципиальной структурной схемой декодера видео в соответствии с вариантом осуществления настоящего изобретения.
[0012] Фиг. 2 является схемой для одного примера временного интер-предсказания как типа интер-предсказания в соответствии с одним вариантом осуществления настоящего изобретения.
[0013] Фиг. 3 является схемой для одного примера межвидового интер-предсказания как типа интер-предсказания в соответствии с одним вариантом осуществления настоящего изобретения.
[0014] Фиг. 4 является схемой для одного примера текущего блока текстуры, опорного блока, соседнего пикселя текущего блока текстуры, соседнего пикселя опорного блока, которые используются во время процесса компенсирования межвидовой разности, в соответствии с одним вариантом осуществления настоящего изобретения.
[0015] Фиг. 5 является схемой для одного примера гистограммы текущего изображения и гистограммы опорного изображения в соответствии с одним вариантом осуществления настоящего изобретения.
[0016] Фиг. 6 является блок-схемой способа межвидовой компенсации в соответствии с одним вариантом осуществления настоящего изобретения.
[0017] Фиг. 7 является схемой для способа получения флага межвидовой компенсации в соответствии с одним вариантом осуществления настоящего изобретения.
ПРЕДПОЧТИТЕЛЬНЫЙ ВАРИАНТ ОСУЩЕСТВЛЕНИЯ ИЗОБРЕТЕНИЯ
[0018] Настоящее изобретение относится к устройству и способу обработки видеосигнала, включающим в себя этапы, на которых: получают межвидовой вектор движения; получают опорный блок, используя межвидовой вектор движения, при этом опорный блок располагается в опорном виде; получают предсказанное значение текущего блока текстуры, используя опорный блок; получают первый коэффициент компенсации; получают второй коэффициент компенсации; выполняют межвидовую компенсацию для предсказанного значения текущего блока текстуры, используя первый коэффициент компенсации и второй коэффициент компенсации; и декодируют текущий блок текстуры, используя предсказанное значение текущего блока текстуры, подвергнутого межвидовой компенсации, при этом первый коэффициент компенсации получается, используя соседний пиксель текущего блока текстуры и соседний пиксель опорного блока, и при этом второй коэффициент компенсации получается, используя соседний пиксель текущего блока текстуры, соседний пиксель опорного блока и первый коэффициент компенсации.
[0019] Настоящее изобретение относится к устройству и способу обработки видеосигнала, которые отличаются тем, что дополнительно включают в себя этапы, на которых: получают флаг межвидовой компенсации и определяют наличие или отсутствие межвидовой компенсации, используя флаг межвидовой компенсации.
[0020] Настоящее изобретение относится к устройству и способу обработки видеосигнала, которые отличаются тем, что флаг межвидовой компенсации получается из заголовка слайса.
[0021] Настоящее изобретение относится к устройству и способу обработки видеосигнала, которые отличаются тем, что флаг межвидовой компенсации получается из одного из набора параметров изображения и набора параметров видео.
[0022] Настоящее изобретение относится к устройству и способу обработки видеосигнала, которые отличаются тем, что флаг межвидовой компенсации получается, используя разность между значением пикселя текущего изображения, включающего в себя текущий блок текстуры, и значением пикселя опорного изображения, включающего в себя опорный блок.
[0023] Настоящее изобретение относится к устройству и способу обработки видеосигнала, которые отличаются тем, что флаг межвидовой компенсации получается посредством сравнения суммы абсолютных значений для разности между значением пикселя текущего изображения, включающего в себя текущий блок текстуры, и значением пикселя опорного изображения, включающего в себя опорный блок, с предварительно определенной пороговой величиной.
[0024] Настоящее изобретение относится к устройству и способу обработки видеосигнала, которые отличаются тем, что флаг межвидовой компенсации получается из соседнего блока, кодированного посредством межвидового интер-предсказания, для текущего блока текстуры.
[0025] Настоящее изобретение относится к устройству и способу обработки видеосигнала, которые отличаются тем, что соседний блок включает в себя пространственный соседний блок и временной соседний блок.
ВАРИАНТ ОСУЩЕСТВЛЕНИЯ ИЗОБРЕТЕНИЯ
[0026] Прежде всего, кодирование или декодирование со сжатием данных многовидового видеосигнала рассматривает пространственную избыточность, временную избыточность и межвидовую избыточность. И, в случае многовидового видео, существует возможность кодирования многовидового видео текстур, содержащего по меньшей мере два вида, для того, чтобы реализовать 3-мерное видео. Более того, существует возможность кодирования данных глубины соответствующих многовидовому видео текстуры. При кодировании данных глубины, само собой разумеется, что кодирование с сжатием может быть выполнено, принимая во внимание пространственную избыточность, временную избыточность или/и межвидовую избыточность. Данные глубины представляют собой информацию о расстоянии в отношении расстояния между камерой и соответствующим пикселем. В настоящем техническом описании данные глубины могут быть гибко истолкованы как информация, связанная с глубиной, как, например, информация о глубине, видео глубины, изображение глубины, последовательность глубины, битовый поток глубины или подобное. В настоящем техническом описании кодирование может включать в себя обе концепции в виде: кодирования и декодирования. И кодирование может быть гибко истолковано как соответствующее технической идее и объему настоящего изобретения.
[0027] Фиг. 1 является принципиальной структурной схемой декодера видео в соответствии с одним вариантом осуществления настоящего изобретения.
[0028] Обращаясь к Фиг. 1, декодер видео может включать в себя модуль 100 разбора NAL, модуль 200 энтропийного декодирования, модуль 300 деквантования/обратного преобразования, модуль 400 интра-предсказания (intra prediction), модуль 500 внутрициклового фильтра, модуль 600 буфера декодированного изображения и модуль 700 интер-предсказания. Модуль 100 разбора NAL может принимать битовый поток, включающий в себя многовидовые данные текстуры. Если данные глубины требуются для кодирования данных текстуры, модуль 100 разбора NAL может дополнительно принимать битовый поток, включающий в себя закодированные данные глубины. При этом введенные данные текстуры и введенные данные глубины могут быть переданы в качестве единого битового потока или отдельных битовых потоков. Модуль 100 разбора NAL может выполнять разбор на единицы NAL для того, чтобы декодировать введенный битовый поток. Если введенный битовый поток является данными, связанными с несколькими видами (например, 3-мерным видео), введенный битовый поток может дополнительно включать в себя параметр камеры. Параметр камеры может быть классифицирован на присущий камере параметр и неприсущий камере параметр. Присущий камере параметр может содержать фокусное расстояние, соотношение сторон, главную точку и подобное. А неприсущий камере параметр может содержать информацию о местоположении камеры в глобальной системе координат и подобное.
[0029] Модуль 200 энтропийного декодирования может выделять квантованные коэффициенты преобразования, информацию о кодировании для предсказания изображения текстуры и подобное посредством энтропийного декодирования.
[0030] Модуль 300 деквантования/обратного преобразования получает коэффициент преобразования посредством применения параметра квантования к квантованному коэффициенту преобразования и затем способен декодировать данные текстуры или данные глубины посредством обратного преобразования коэффициента преобразования. В этом случае декодированные данные текстуры или глубины могут включать в себя остаточные данные в соответствии с предсказывающей обработкой. Более того, параметр квантования для блока глубины может быть установлен принимая во внимание сложность данных текстуры. Например, если блок текстуры, соответствующий блоку глубины, является областью с высокой сложностью, то может быть установлен низкий параметр квантования. Если блок текстуры, соответствующий блоку глубины, является областью с низкой сложностью, то может быть установлен высокий параметр квантования.
[0031] Модуль 400 интра-предсказания может выполнять интра-экранное (intra-screen) предсказание, используя воссозданные данные текстуры в текущем изображении текстуры. Интра-экранное предсказание может быть выполнено над изображением глубины аналогично тому, как и над изображением текстуры. Например, информация о кодировании, используемая для интра-экранного предсказания изображения текстуры, может быть идентично использована для изображения глубины. В этом случае информация о кодировании, используемая для интра-экранного предсказания, может включать в себя режим интра-предсказания и информацию о разбиении интра-предсказания.
[0032] Модуль 500 внутрициклового фильтра может применять внутрицикловой фильтр к каждому кодированному блоку для того, чтобы уменьшить эффект искажения блока. Фильтр может повышать качество изображения декодированного изображения посредством сглаживания границы блока. Отфильтрованные изображения текстуры или глубины могут быть выведены или сохранены в модуле 600 буфера декодированного изображения для использования в качестве опорного изображения.
[0033] Модуль 600 буфера декодированного изображения играет важную роль при сохранении или открытии ранее кодированного изображения текстуры или глубины для выполнения интер-экранного (inter-screen) предсказания. При этом существует возможность использования frame_num (номер_кадра) и POC (счетчик очередности изображения) каждого изображения для открытия и сохранения в модуле 600 буфера декодированного изображения. Более того, поскольку могут существовать изображения глубины в видах, отличных от того, что у текущего изображения глубины, из числа ранее кодированных изображений при кодировании глубины, может существовать возможность использования информации идентификации вида для идентификации вида изображения глубины с тем, чтобы использовать изображения глубины в других видах в качестве опорного изображения. При кодировании глубины изображения глубины могут быть промаркированы с помощью отдельного указания, чтобы отличать их от изображений текстуры в модуле буфера декодированного изображения, или для процесса маркирования может быть использована информация для идентификации каждого изображения глубины.
[0034] Модуль 700 интер-предсказания может выполнять компенсацию движения текущего блока, используя опорное изображение и информацию о движении, сохраненные в модуле 600 буфера декодированного изображения.
[0035] Фиг. 2 является схемой для одного примера временного интер-предсказания как типа интер-предсказания в соответствии с одним вариантом осуществления настоящего изобретения.
[0036] Временное интер-предсказание может означать интер-предсказание, используя опорное изображение, расположенное в том же самом виде текущего блока текстуры, но во временном отрезке, отличном от того, что у текущего блока текстуры, и информацию о движении текущего блока текстуры.
[0037] В настоящем техническом описании, для ясности и удобства понимания, временная информация о движении может быть гибко истолкована как концепция, которая включает в себя временную информацию о векторе движения и временную информацию об опорном индексе.
[0038] Фиг. 3 является схемой для одного примера межвидового интер-предсказания как типа интер-предсказания в соответствии с одним вариантом осуществления настоящего изобретения.
[0039] В случае многовидового видео, полученного с множества камер, межвидовое интер-предсказание, соответствующее интер-предсказанию между разными видами, может быть дополнительно выполнено, как, впрочем, и временное интер-предсказание.
[0040] Межвидовое интер-предсказание может означать интер-предсказание, используя опорное изображение, расположенное в виде, отличном от текущего блока текстуры, и информацию о движении текущего блока текстуры.
[0041] В настоящем техническом описании, для ясности и удобства понимания, межвидовая информация о движении, используемая для межвидового интер-предсказания, может быть гибко истолкована как концепция, которая включает в себя межвидовую информацию о векторе движения и межвидовую информацию об опорном индексе.
[0042] Способ определения того, кодирован ли соседний блок посредством межвидового интер-предсказания, описывается следующим образом.
[0043] В соответствии с одним вариантом осуществления настоящего изобретения, кодирован ли соседний блок посредством межвидового интер-предсказания, может быть определено на основании того, использует ли соответствующий соседний блок межвидовой список опорных изображений. В этом случае межвидовой список опорных изображений может означать список, сконфигурированный с помощью опорного изображения, расположенного в виде, отличном от того, что у соответствующего соседнего блока. В качестве альтернативы, кодирован ли соседний блок посредством межвидового интер-предсказания, также может быть определено на основании информации об опорном индексе соответствующего соседнего блока. Например, если информация об опорном индексе соответствующего соседнего блока указывает опорное изображение, расположенное в виде, отличном от того, что у соответствующего соседнего блока, существует возможность точного определения того, что соответствующий соседний блок кодирован посредством межвидового интер-предсказания. В качестве альтернативы, кодирован ли соседний блок посредством межвидового интер-предсказания, может быть определено на основании того, равен ли POC изображения, включающего в себя соответствующий соседний блок, POC опорного изображения соответствующего соседнего блока. POC является информацией об очередности вывода, и изображения в одной и той же единице доступа могут иметь одинаковый POC. Следовательно, если оба POC равны друг другу, это может означать, что изображение, включающее в себя соседний блок, и опорное изображение располагаются в разных видах соответственно. В этом случае соответствующий соседний блок может быть точно определен как кодированный посредством межвидового интер-предсказания.
[0044] В случае межвидового интер-предсказания, соответствующего предсказанию между разными видами, опорный блок выявляется из опорного вида, соответствующего виду, отличному от текущего вида, и значение пикселя опорного блока используется в качестве предсказанного значения текущего блока текстуры. Когда выполняется кодирование посредством межвидового интер-предсказания, если опорный блок в опорном виде используется в качестве предсказанного значения, то, поскольку точность межвидового интер-предсказания может быть уменьшена вследствие межвидовой разности, вызванной условиями киносъемки применительно к киносъемке многовидового видео, такими как освещенность в каждом отдельном виде, свойствами камеры в каждом отдельном виде или подобным, существует возможность повышения точности межвидового интер-предсказания посредством процесса компенсации межвидовой разности.
[0045] Процесс компенсации межвидовой разности описывается следующим образом.
[0046] Фиг. 4 является схемой для одного примера текущего блока текстуры, опорного блока, соседнего пикселя текущего блока текстуры, соседнего пикселя опорного блока, которые используются во время процесса компенсации межвидовой разности, в соответствии с одним вариантом осуществления настоящего изобретения.
[0047] Текущий блок текстуры может указывать блок, который предназначен для кодирования в настоящий момент. Опорный блок может указывать блок, расположенный в виде, отличном от того, что у текущего блока текстуры, в тот же самый момент времени, что и у текущего блока текстуры. Соседний пиксель текущего блока текстуры может указывать по меньшей мере один из пикселей: левый пиксель для текущего блока текстуры и правый пиксель для текущего блока текстуры. Соседний пиксель для опорного блока может указывать по меньшей мере один из пикселей: левый пиксель для опорного блока и правый пиксель для опорного блока.
[0048] В случае декодирования текущего блока текстуры значение пикселя опорного блока может быть использовано в качестве предсказанного значения текущего блока текстуры. Посредством отражения значения соседнего пикселя для текущего блока текстуры и значения соседнего пикселя для опорного блока в другом виде существует возможность получения компенсированного предсказанного значения текущего блока текстуры по Формуле 1.
[0049] Формула 1
[0050] В Формуле 1 [x, y] означает координаты в рамках опорного блока и текущего блока текстуры, Ref[x, y] означает значение пикселя опорного блока, а Pred[x, y] означает предсказанное значение текущего блока текстуры, α указывает первый коэффициент компенсации, а β указывает второй коэффициент компенсации. α и β могут быть получены из соседнего пикселя для текущего блока текстуры и соседнего пикселя для опорного блока. Способ получения α и β может включать в себя способ получения решением Формулы 2 посредством метода Линейных Наименьших Квадратов.
[0051] Формула 2
[0053] Существует возможность получения α из Формулы 2, используя PredN(i), соответствующее значению соседнего пикселя для предсказанного значения текущего блока текстуры, и RefN(i), соответствующее значению соседнего пикселя для значения пикселя опорного блока. Существует возможность получения β из Формулы 2, используя PredN(i), соответствующее значению соседнего пикселя для предсказанного значения текущего блока текстуры, и RefN(i), соответствующее значению соседнего пикселя для значения пикселя опорного блока, и α. В Формуле 2 ‘i’ означает индекс, назначенный соседнему пикселю для текущего блока текстуры и соседним пикселям для опорного блока. PredN(i) означает значение соседнего пикселя для текущего блока текстуры, а RefN(i) означает значение соседнего пикселя для опорного блока.
[0054] В случае, когда разность распределения в значении пикселя между межвидовыми изображениями небольшая, межвидовая компенсация может привнести падение эффективности кодирования и увеличить сложность. Следовательно, существует возможность предотвращения таких ухудшений посредством определения флага межвидовой компенсации, указывающего на то, выполнять ли межвидовую компенсацию разности распределения пикселей между текущим кодируемым изображением и межвидовым опорным изображением.
[0055] Фиг. 5 является схемой одного примера гистограммы текущего изображения и гистограммы опорного изображения в соответствии с одним вариантом осуществления настоящего изобретения.
[0056] В качестве одного примера способа вычисления разности распределения, может быть предложен способ использования суммы абсолютных разностей (SAD) гистограмм каждого из изображений: текущего изображения и опорного изображения. Сумма абсолютных разностей (SAD) указывает сумму абсолютных значений разностей соответствующих пикселей.
[0057] Создаются гистограммы, указывающие распределения значений пикселей текущего изображения и опорного изображения. Гистограмма указывает подсчитанное число появления соответствующего значения пикселя в каждом из изображений.
[0058] Находится разность в каждом значении пикселя гистограмм каждого из изображений: текущего изображения и опорного изображения, и абсолютные значения разностей складываются вместе.
[0059] Если сумма абсолютных разностей (SAD) гистограмм равна или больше предварительно определенной пороговой величины, флаг межвидовой компенсации устанавливается равным 1 для выполнения компенсации. Если сумма абсолютных разностей (SAD) гистограмм меньше предварительно определенной пороговой величины, флаг межвидовой компенсации устанавливается равным 0, чтобы не выполнять компенсацию.
[0060] Более того, может существовать возможность использования способа определения, выполнять ли межвидовую компенсацию, посредством сравнения нормированного значения корреляции и предварительно определенной пороговой величины друг с другом. Существует возможность получения нормированного значения корреляции посредством деления значения кросс-корреляции между пикселями текущего изображения и опорного изображения на значение автокорреляции текущего изображения. Существует возможность получения значения кросс-корреляции из суммы произведений соответствующих пикселей опорного изображения и текущего изображения. И существует возможность получения значения автокорреляции из суммы произведения пикселей текущего изображения.
[0061] Если нормированное значение корреляции равно или больше предварительно определенной пороговой величины, флаг межвидовой компенсации устанавливается равным 1 для выполнения компенсации. Если нормированное значение корреляции меньше предварительно определенной пороговой величины, флаг межвидовой компенсации устанавливается равным 0, чтобы не выполнять компенсацию.
[0062] Более того, существует возможность получения флага межвидовой компенсации из набора параметров изображения (PS) или набора параметров видео (VPS). Кодер обеспечивает включение флага межвидовой компенсации в набор параметров изображения или набор параметров видео и затем передает флаг межвидовой компенсации, включенный в набор, декодеру. В случае, когда текущий слайс, включающий в себя текущий блок текстуры, имеет информацию о флаге межвидовой компенсации, отличную от информации верхнего уровня (например, набора параметров изображения, набора параметров видео и т.д.), флаг межвидовой компенсации включается в заголовок слайса, и флаг межвидовой компенсации, включенный в заголовок слайса, затем может быть передан декодеру. Впоследствии декодер может получать флаг межвидовой компенсации из набора параметров изображения или набора параметров видео или может получать флаг межвидовой компенсации из заголовка слайса. Если флаг межвидовой компенсации из набора параметров изображения или набора параметров видео отличается от флага межвидовой компенсации заголовка слайса, декодер может принимать решение, используя флаг межвидовой компенсации заголовка слайса.
[0063] Фиг. 6 является блок-схемой способа межвидовой компенсации в соответствии с одним вариантом осуществления настоящего варианта осуществления.
[0064] Существует возможность получения межвидового вектора движения для точного определения опорного блока [S600]. Межвидовой вектор движения может быть определен в качестве вектора, указывающего опорный блок от текущего блока текстуры. Опорный блок может быть включен в опорный вид, отличающийся от вида текущего блока текстуры. Межвидовой вектор движения может быть получен из пространственного или временного соседнего блока для текущего блока текстуры.
[0065] Пространственный соседний блок может включать в себя по меньшей мере один из блоков: левый нижний соседний блок, левый соседний блок, правый верхний соседний блок, верхний соседний блок и левый верхний соседний блок для текущего блока текстуры. И существует возможность поиска межвидового вектора движения с учетом приоритетов среди пространственных соседних блоков. Следовательно, существует возможность выполнения поиска пространственного соседнего блока в очередности вида: левый соседний блок, верхний соседний блок, правый верхний соседний блок, левый нижний соседний блок и левый верхний соседний блок. Например, в случае намерения получить межвидовой вектор движения текущего блока текстуры из соседних блоков, если левый соседний блок является блоком, кодированным посредством межвидового интер-предсказания, межвидовой вектор движения левого соседнего блока получается в качестве межвидового вектора движения текущего блока текстуры, и соответствующий поиск затем может быть завершен. Все же, в качестве результата поиска, если левый соседний блок не кодирован посредством межвидового интер-предсказания, существует возможность проверки того, кодирован ли верхний соседний блок посредством межвидового интер-предсказания. В качестве альтернативы, существует возможность выполнения поиска в очередности вида: левый нижний соседний блок, левый соседний блок, правый верхний соседний блок, верхний соседний блок и левый верхний соседний блок, до тех пор, пока не будет найден блок, кодированный посредством межвидового интер-предсказания. Все же приоритеты среди пространственных соседних блоков не ограничиваются вышеописанным вариантом осуществления.
[0066] Временной соседний блок может быть определен как блок в опорном изображении, включающий в себя местоположение, соответствующее местоположению центрального пикселя текущего блока текстуры. В этом случае опорное изображение является изображением в другой момент времени в том же самом виде текущего изображения, включающем в себя текущий блок текстуры. Временной соседний блок настоящего изобретения не ограничивается соотнесенным (co-located) блоком и может означать соседний блок, смежный с соотнесенным блоком. Между тем, существует возможность поиска временного соседнего блока с учетом вышеупомянутых потенциальных временных соседних блоков (т.е. a) соотнесенного блока, b) соседнего блока, смежного с соотнесенным блоком) и приоритета.
[0067] Более того, существует возможность получения межвидового вектора движения, используя данные глубины, соответствующие текущему блоку текстуры. Используя данные глубины и параметр камеры, существует возможность получения вектора вариации для текущего блока текстуры [S520]. Подробный способ получения должен быть описан на основании Формулы 3 и Формулы 4 следующим образом.
[0068] Формула 3
[0069] Обращаясь к Формуле 3, Z означает расстояние от камеры для соответствующего пикселя. D является квантованным значением Z и соответствует данным глубины настоящего изобретения. Znear и Zfar означают минимальное значение и максимальное значение Z, которые заданы для вида, к которому принадлежит изображение глубины соответственно. Более того, Znear и Zfar могут быть выделены из битового потока посредством набора параметров последовательности, заголовка слайса и подобного или могут быть информацией, ранее заданной на декодере. Следовательно, если расстояние Z от камеры для соответствующего пикселя квантовано на 256 уровней, существует возможность восстановления Z, используя данные глубины, Znear и Zfar, подобно Формуле 3. Впоследствии существует возможность получения вектора вариации для текущего блока текстуры, используя восстановленное Z, подобно Формуле 4.
[0070] Формула 4
[0071] В Формуле 4 f означает фокусное расстояние камеры, а B означает расстояние между камерами. Существует возможность предположить, что f и B идентичны для всех камер. Следовательно, f и B могут соответствовать информациям, которые предварительно заданы в декодере.
[0072] Существует возможность точного определения местоположения опорного блока, используя межвидовой вектор движения, и существует возможность получения предсказанного значения текущего блока текстуры, используя опорный блок [S610]. Опорный блок, указываемый межвидовым вектором движения в текущем блоке текстуры, может быть определен в качестве опорного блока. Опорный блок может быть расположен в том же самом моменте времени в виде, отличном от того, что у текущего блока текстуры. Значение пикселя опорного блока может быть получено как предсказанное значение текущего блока тектсуры. Предсказанное значение текущего блока текстуры, полученное на этапе S610, может быть равно значению пикселя опорного блока.
[0073] Используя соседний пиксель для текущего блока текстуры и соседний пиксель для опорного блока, существует возможность получения коэффициента компенсации [S620]. Используя текущий блок текстуры, опорный блок, соседний пиксель для текущего блока текстуры и соседний пиксель для опорного блока, описанные со ссылкой на Фиг. 4, существует возможность получения коэффициента компенсации для компенсации предсказанного значения текущего блока текстуры. Существует возможность получения значения коэффициента, используя Формулу 2. Коэффициент компенсации может включать в себя первый коэффициент компенсации и второй коэффициент компенсации. В настоящем техническом описании α может быть задан в качестве первого коэффициента компенсации, а β может быть задан в качестве второго коэффициента компенсации.
[0074] Используя коэффициент компенсации, существует возможность компенсации предсказанного значения текущего блока текстуры [S630]. Существует возможность компенсации предсказанного значения текущего блока текстуры посредством Формулы 1, используя коэффициент компенсации, полученный на этапе S620.
[0075] Существует возможность декодирования текущего блока текстуры, используя компенсированное предсказанное значение [S640]. Существует возможность дальнейшего получения остатка текущего блока текстуры. И существует возможность декодирования текущего блока текстуры, используя полученный остаток и компенсированное предсказанное значение на этапе S630.
[0076] Перед этапом S620 получения коэффициента компенсации, используя соседний пиксель для текущего блока текстуры и соседний пиксель для опорного блока, существует возможность добавления этапа получения флага межвидовой компенсации. Флаг межвидовой компенсации является информацией, указывающей на то, выполнять ли этап межвидовой компенсации над предсказанным значением текущего блока текстуры. Например, если флаг межвидовой компенсации установлен равным 1, существует возможность выполнения этапа получения первого коэффициента компенсации и второго коэффициента компенсации посредством выполнения этапа межвидовой компенсации. Если флаг межвидовой компенсации установлен равным 0, этап межвидовой компенсации может не выполняться или первый коэффициент компенсации и второй коэффициент компенсации могут быть установлены равными 1 и 0 соответственно. В нижеследующем описании описывается способ получения флага межвидовой компенсации.
[0077] Фиг. 7 является схемой для способа получения флага межвидовой компенсации в соответствии с одним вариантом осуществления настоящего изобретения.
[0078] Получают распределение значения пикселя текущего изображения и значения пикселя опорного изображения [S611]. Текущее изображение соответствует изображению с включенным в него текущим блоком текстуры, а опорное изображение соответствует изображению с включенным в него опорным блоком. Распределение значения пикселя текущего изображения и значения пикселя опорного изображения может быть представлено в качестве гистограммы, показанной на Фиг. 5. Распределение значения пикселя на гистограмме может быть представлено в качестве подсчитанного числа соответствующего значения пикселя в соответствующем изображении.
[0079] Складывают вместе абсолютные значения разностей между значениями пикселей текущего и опорного изображений [S612]. Используя гистограмму, полученную на этапе S611, для каждого значения пикселя получают разность между подсчитанным числом текущего изображения и подсчитанным числом опорного изображения. Посредством сложения вместе абсолютных значений разностей соответствующих значений пикселя, получают сумму абсолютных разностей (SAD).
[0080] Посредством сравнения друг с другом суммы абсолютных разностей и предварительно определенной пороговой величины получают флаг межвидовой компенсации [S613]. Если сумма абсолютных разностей, полученная на этапе S612, больше предварительно определенной пороговой величины, это указывает на то, что разность между текущим изображением и опорным изображением большая. Если сумма абсолютных разностей, полученная на этапе S612, меньше предварительно определенной пороговой величины, это указывает на то, что разность между текущим изображением и опорным изображением небольшая. Если сумма абсолютных разностей больше предварительно определенной пороговой величины, то необходимо компенсировать разность между текущим изображением и опорным изображением. Следовательно, существует возможность установки выполнения этапа межвидовой компенсации посредством установки флага межвидовой компенсации равным 1. В противоположность, если сумма абсолютных значений меньше предварительно определенной пороговой величины, нет необходимости в компенсации разности между текущим изображением и опорным изображением. Следовательно, существует возможность установки не выполнения этапа межвидовой компенсации посредством установки флага межвидовой компенсации равным 0. В качестве альтернативы, посредством установки флага межвидовой компенсации равным 0, первый коэффициент компенсации и второй коэффициент компенсации могут быть установлены равными 1 и 0 соответственно.
[0081] В случае декодирования текущего блока текстуры существует возможность получения флага межвидовой компенсации, используя способ передачи флага межвидовой компенсации, который передается от кодера декодеру, или способа получения флага межвидовой компенсации в декодере.
[0082] В случае декодирующего устройства модуль интер-предсказания получает межвидовой вектор движения, получает опорный блок, используя межвидовой вектор движения, и получает предсказанное значение текущего блока текстуры, используя опорный блок. В модуле интер-предсказания первый коэффициент компенсации может быть получен, используя соседний пиксель для текущего блока текстуры и соседний пиксель для опорного блока, а второй коэффициент компенсации может быть получен, используя соседний пиксель для текущего блока текстуры, соседний пиксель для опорного блока и первый коэффициент компенсации. В модуле интер-предсказания межвидовая компенсация выполняется над предсказанным значением текущего блока текстуры, используя первый коэффициент компенсации и второй коэффициент компенсации, и текущий блок текстуры может быть декодирован, используя предсказанное значение с межвидовой компенсацией текущего блока текстуры.
[0083] Впоследствии модуль интер-предсказания получает флаг межвидовой компенсации и затем способен определить, выполнять ли межвидовую компенсацию, используя флаг межвидовой компенсации.
[0084] Как упомянуто в предшествующем описании, устройство декодирования/кодирования в соответствии с настоящим изобретением может быть предоставлено для передатчика/приемника мультимедийного вещания, такого как DMB (цифровое мультимедийное вещание), с целью использования при декодировании видео и сигналов данных и подобного. И передатчик/приемник мультимедийного вещания может включать в себя терминал мобильной связи.
[0085] Способ декодирования/кодирования в соответствии с настоящим изобретением может быть выполнен в виде программы для исполнения компьютером и затем сохраненной в компьютерно-читаемом записывающем носителе информации. И мультимедийные данные со структурой данных настоящего изобретения могут быть сохранены на компьютерно-читаемом записывающем носителе информации. Компьютерно-читаемые записывающие носители информации включают в себя все виды запоминающих устройств для хранения данных, которые могут быть считаны компьютерной системой. Компьютерно-читаемые записывающие носители информации включают в себя ROM, RAM, CD-ROM, магнитные ленты, гибкие диски, оптические устройства хранения данных и т.д., а также включают в себя устройство, реализованное с несущими волнами (например, передача через Интернет). И битовый поток, генерируемый способом кодирования, сохраняется на компьютерно-читаемых записывающих носителях информации или передается через сеть проводной/беспроводной связи.
ПРОМЫШЛЕННАЯ ПРИМЕНИМОСТЬ
[0086] Настоящее изобретение применимо для кодирования видеосигнала.
Claims (13)
1. Способ обработки видеосигнала, содержащий этапы, на которых:
получают межвидовой вектор движения, соответствующий текущему блоку текстуры;
получают опорный блок, используя межвидовой вектор движения, соответствующий текущему блоку текстуры, причем опорный блок расположен в опорном виде и при этом опорный вид опорного блока отличается от текущего вида текущего блока текстуры;
получают предсказанное значение текущего блока текстуры, используя опорный блок;
получают флаг межвидовой компенсации, указывающий, выполнять ли межвидовую компенсацию над предсказанным значением текущего блока текстуры;
получают первый коэффициент компенсации и второй коэффициент компенсации, когда флаг межвидовой компенсации указывает выполнять межвидовую компенсацию над предсказанным значением текущего блока текстуры;
выполняют межвидовую компенсацию для предсказанного значения текущего блока текстуры, используя первый коэффициент компенсации и второй коэффициент компенсации; и
декодируют текущий блок текстуры, используя предсказанное значение текущего блока текстуры, подвергнутого межвидовой компенсации,
причем флаг межвидовой компенсации получают посредством сравнения суммы абсолютных значений для разности между значением пикселя текущего изображения, включающего в себя текущий блок текстуры, и значением пикселя опорного изображения, включающего в себя опорный блок, с предварительно определенной пороговой величиной.
2. Устройство для обработки видеосигнала, содержащее:
модуль интер-предсказания, получающий межвидовой вектор движения, соответствующий текущему блоку текстуры;
причем упомянутый модуль интер-предсказания получает опорный блок, используя межвидовой вектор движения, соответствующий текущему блоку текстуры, причем опорный блок расположен в опорном виде и при этом опорный вид опорного блока отличается от текущего вида текущего блока текстуры; получает предсказанное значение текущего блока текстуры, используя опорный блок; получает флаг межвидовой компенсации, указывающий, выполнять ли межвидовую компенсацию над предсказанным значением текущего блока текстуры; получает первый коэффициент компенсации и второй коэффициент компенсации, когда флаг межвидовой компенсации указывает выполнять межвидовую компенсацию над предсказанным значением текущего блока текстуры; выполняет межвидовую компенсацию для предсказанного значения текущего блока текстуры, используя первый коэффициент компенсации и второй коэффициент компенсации; и декодирует текущий блок текстуры, используя предсказанное значение текущего блока текстуры, подвергнутого межвидовой компенсации,
причем флаг межвидовой компенсации получают посредством сравнения суммы абсолютных значений для разности между значением пикселя текущего изображения, включающего в себя текущий блок текстуры, и значением пикселя опорного изображения, включающего в себя опорный блок, с предварительно определенной пороговой величиной.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261670145P | 2012-07-11 | 2012-07-11 | |
US61/670,145 | 2012-07-11 | ||
PCT/KR2013/006131 WO2014010935A1 (ko) | 2012-07-11 | 2013-07-10 | 비디오 신호 처리 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2015104394A RU2015104394A (ru) | 2016-08-27 |
RU2609753C2 true RU2609753C2 (ru) | 2017-02-02 |
Family
ID=49916306
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2015104394A RU2609753C2 (ru) | 2012-07-11 | 2013-07-10 | Способ и устройство для обработки видеосигнала |
Country Status (11)
Country | Link |
---|---|
US (1) | US20150195569A1 (ru) |
EP (1) | EP2854393A4 (ru) |
JP (1) | JP2015527806A (ru) |
KR (1) | KR20150034729A (ru) |
CN (1) | CN104541507A (ru) |
AU (1) | AU2013287481B2 (ru) |
CA (1) | CA2878160C (ru) |
IN (1) | IN2014KN03053A (ru) |
MX (1) | MX340482B (ru) |
RU (1) | RU2609753C2 (ru) |
WO (1) | WO2014010935A1 (ru) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2733933A1 (en) * | 2012-09-19 | 2014-05-21 | Thomson Licensing | Method and apparatus of compensating illumination variations in a sequence of images |
US9716899B2 (en) | 2013-06-27 | 2017-07-25 | Qualcomm Incorporated | Depth oriented inter-view motion vector prediction |
WO2017035833A1 (en) * | 2015-09-06 | 2017-03-09 | Mediatek Inc. | Neighboring-derived prediction offset (npo) |
US11250780B2 (en) | 2019-08-15 | 2022-02-15 | Samsung Display Co., Ltd. | Estimation of pixel compensation coefficients by adaptation |
US11087656B2 (en) | 2019-08-15 | 2021-08-10 | Samsung Display Co., Ltd. | Fully differential front end for sensing |
US11069282B2 (en) | 2019-08-15 | 2021-07-20 | Samsung Display Co., Ltd. | Correlated double sampling pixel sensing front end |
CN111031319B (zh) * | 2019-12-13 | 2022-04-19 | 浙江大华技术股份有限公司 | 一种局部光照补偿预测方法、终端设备及计算机存储介质 |
US11081064B1 (en) | 2020-01-13 | 2021-08-03 | Samsung Display Co., Ltd. | Reference signal generation by reusing the driver circuit |
US11257416B2 (en) | 2020-02-14 | 2022-02-22 | Samsung Display Co., Ltd. | Voltage mode pre-emphasis with floating phase |
KR20210112042A (ko) * | 2020-03-04 | 2021-09-14 | 에스케이하이닉스 주식회사 | 이미지 센싱 장치 및 그의 동작 방법 |
US11719738B2 (en) | 2020-10-15 | 2023-08-08 | Samsung Display Co., Ltd. | Two-domain two-stage sensing front-end circuits and systems |
CN113014905B (zh) * | 2021-02-24 | 2023-04-14 | 北京金山云网络技术有限公司 | 图像帧的生成方法及装置、存储介质、电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100215101A1 (en) * | 2007-04-09 | 2010-08-26 | Yong Joon Jeon | Method and an apparatus for processing a video signal |
WO2011037420A2 (ko) * | 2009-09-25 | 2011-03-31 | 에스케이텔레콤 주식회사 | 인접 화소를 이용한 인터 예측 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치 |
US20110286678A1 (en) * | 2009-02-12 | 2011-11-24 | Shinya Shimizu | Multi-view image coding method, multi-view image decoding method, multi-view image coding device, multi-view image decoding device, multi-view image coding program, and multi-view image decoding program |
RU2444856C2 (ru) * | 2007-06-25 | 2012-03-10 | Ниппон Телеграф Энд Телефон Корпорейшн | Способ кодирования видеосигнала и способ декодирования, устройства для этого и носители хранения информации, которые хранят программы для этого |
US20120121015A1 (en) * | 2006-01-12 | 2012-05-17 | Lg Electronics Inc. | Processing multiview video |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050114751A (ko) * | 2004-06-01 | 2005-12-06 | 경희대학교 산학협력단 | 예측 부호화/복호화 장치 및 예측 부호화/복호화 방법 |
CN101375593A (zh) * | 2006-01-12 | 2009-02-25 | Lg电子株式会社 | 处理多视图视频 |
WO2009131688A2 (en) * | 2008-04-25 | 2009-10-29 | Thomson Licensing | Inter-view skip modes with depth |
CN101931803B (zh) * | 2009-06-26 | 2013-01-09 | 华为技术有限公司 | 视频图像运动信息获取方法、装置及设备、模板构造方法 |
KR101432767B1 (ko) * | 2009-10-20 | 2014-08-26 | 에스케이텔레콤 주식회사 | 움직임 정보 기반의 인접 화소를 이용한 인터 예측 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치 |
KR20110068792A (ko) * | 2009-12-16 | 2011-06-22 | 한국전자통신연구원 | 적응적 영상 부호화 장치 및 방법 |
KR20110071047A (ko) * | 2009-12-20 | 2011-06-28 | 엘지전자 주식회사 | 비디오 신호 디코딩 방법 및 장치 |
KR101893559B1 (ko) * | 2010-12-14 | 2018-08-31 | 삼성전자주식회사 | 다시점 비디오 부호화/복호화 장치 및 방법 |
-
2013
- 2013-07-10 MX MX2015000288A patent/MX340482B/es active IP Right Grant
- 2013-07-10 CA CA2878160A patent/CA2878160C/en not_active Expired - Fee Related
- 2013-07-10 RU RU2015104394A patent/RU2609753C2/ru active
- 2013-07-10 CN CN201380036986.1A patent/CN104541507A/zh active Pending
- 2013-07-10 US US14/413,157 patent/US20150195569A1/en not_active Abandoned
- 2013-07-10 JP JP2015521547A patent/JP2015527806A/ja active Pending
- 2013-07-10 KR KR1020157001374A patent/KR20150034729A/ko not_active Application Discontinuation
- 2013-07-10 AU AU2013287481A patent/AU2013287481B2/en not_active Ceased
- 2013-07-10 IN IN3053KON2014 patent/IN2014KN03053A/en unknown
- 2013-07-10 EP EP13817183.0A patent/EP2854393A4/en not_active Ceased
- 2013-07-10 WO PCT/KR2013/006131 patent/WO2014010935A1/ko active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120121015A1 (en) * | 2006-01-12 | 2012-05-17 | Lg Electronics Inc. | Processing multiview video |
US20100215101A1 (en) * | 2007-04-09 | 2010-08-26 | Yong Joon Jeon | Method and an apparatus for processing a video signal |
RU2444856C2 (ru) * | 2007-06-25 | 2012-03-10 | Ниппон Телеграф Энд Телефон Корпорейшн | Способ кодирования видеосигнала и способ декодирования, устройства для этого и носители хранения информации, которые хранят программы для этого |
US20110286678A1 (en) * | 2009-02-12 | 2011-11-24 | Shinya Shimizu | Multi-view image coding method, multi-view image decoding method, multi-view image coding device, multi-view image decoding device, multi-view image coding program, and multi-view image decoding program |
WO2011037420A2 (ko) * | 2009-09-25 | 2011-03-31 | 에스케이텔레콤 주식회사 | 인접 화소를 이용한 인터 예측 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
EP2854393A4 (en) | 2015-12-30 |
RU2015104394A (ru) | 2016-08-27 |
JP2015527806A (ja) | 2015-09-17 |
MX2015000288A (es) | 2015-04-10 |
AU2013287481B2 (en) | 2015-12-10 |
AU2013287481A1 (en) | 2015-01-29 |
IN2014KN03053A (ru) | 2015-05-08 |
US20150195569A1 (en) | 2015-07-09 |
CA2878160A1 (en) | 2014-01-16 |
CN104541507A (zh) | 2015-04-22 |
WO2014010935A1 (ko) | 2014-01-16 |
MX340482B (es) | 2016-07-08 |
EP2854393A1 (en) | 2015-04-01 |
KR20150034729A (ko) | 2015-04-03 |
CA2878160C (en) | 2017-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2609753C2 (ru) | Способ и устройство для обработки видеосигнала | |
US20240107010A1 (en) | Intra prediction method and apparatus in image coding system | |
WO2009023091A2 (en) | Methods and apparatus for motion skip mode in multi-view coded video using regional disparity vectors | |
CN113424529A (zh) | 用于执行基于mrl的帧内预测的图像编译方法和装置 | |
US20160050429A1 (en) | Method and apparatus for processing video signal | |
RU2653258C2 (ru) | Способ и устройство для обработки видеосигнала | |
EP2874390A1 (en) | Method and device for processing video signal | |
WO2012128241A1 (ja) | 画像処理装置、画像処理方法、及び、プログラム | |
CN114270833A (zh) | 用于在视频/图像编译系统中移除重叠信令的方法和装置 | |
CN114175660A (zh) | 使用bdpcm的图像解码方法及其装置 | |
US9602831B2 (en) | Method and apparatus for processing video signals | |
RU2625526C2 (ru) | Способ и устройство для обработки видеосигнала | |
CN114342387A (zh) | 基于运动预测的图像编译方法和装置 | |
US9936219B2 (en) | Method and apparatus for processing video signals | |
US20150304676A1 (en) | Method and apparatus for processing video signals | |
KR20150079606A (ko) | 비디오 신호 처리 방법 및 장치 | |
US10080030B2 (en) | Video signal processing method and device | |
WO2009139569A2 (ko) | 비디오 신호 디코딩 방법 및 장치 | |
CN117337565A (zh) | 基于多个dimd模式的帧内预测方法和装置 | |
CN113273210A (zh) | 用于编译关于合并数据的信息的方法和装置 | |
KR20080029788A (ko) | 비디오 신호의 디코딩 방법 및 장치 | |
KR20080029944A (ko) | 비디오 신호 처리 방법 및 장치 |