RU2669470C1 - Устройство для удаления логотипов и субтитров с видеопоследовательностей - Google Patents

Устройство для удаления логотипов и субтитров с видеопоследовательностей Download PDF

Info

Publication number
RU2669470C1
RU2669470C1 RU2017145433A RU2017145433A RU2669470C1 RU 2669470 C1 RU2669470 C1 RU 2669470C1 RU 2017145433 A RU2017145433 A RU 2017145433A RU 2017145433 A RU2017145433 A RU 2017145433A RU 2669470 C1 RU2669470 C1 RU 2669470C1
Authority
RU
Russia
Prior art keywords
unit
output
input
storage unit
image
Prior art date
Application number
RU2017145433A
Other languages
English (en)
Inventor
Вячеслав Владимирович Воронин
Роман Алексеевич Сизякин
Николай Валерьевич Гапон
Евгений Александрович Семенищев
Original Assignee
федеральное государственное бюджетное образовательное учреждение высшего образования "Донской государственный технический университет" (ДГТУ)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by федеральное государственное бюджетное образовательное учреждение высшего образования "Донской государственный технический университет" (ДГТУ) filed Critical федеральное государственное бюджетное образовательное учреждение высшего образования "Донской государственный технический университет" (ДГТУ)
Priority to RU2017145433A priority Critical patent/RU2669470C1/ru
Application granted granted Critical
Publication of RU2669470C1 publication Critical patent/RU2669470C1/ru

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

Изобретение относится к области вычислительной техники и может быть использовано в системах анализа и обработки изображений, цифровом телевидении. Технический результат – обеспечение реконструкции значений пикселей динамических двумерных сигналов, которые были потеряны путем наложения субтитров и логотипов. Устройство содержит генератор тактовых импульсов, блок хранения данных, блок хранения пикселей, блок создания словаря, блок хранения словаря, блок поиска подобия, блок обработки, блок вычисления приоритета, блок заполнения изображения, блок хранения кадров, блок формирования маски, блок обнаружения субтитров, блок обнаружения логотипов, блок задержки. 4 ил.

Description

Предлагаемое изобретение относится к области вычислительной техники и может быть использовано в системах анализа и обработки изображений, цифровом телевидении.
Известно устройство по способу локализации текста на изображении с помощю дискретного косинусного преобразования [Jung H.K., Canedo-Rodríguez A., Kim J.H., Kelly J.. Simple and Efficient Text Localization for Compressed Image in Mobile Phone \\ Journal of Signal and Information Processing, 2014]
Устройство содержит блок хранения изображения, блок центрирования изображения пользователем, блок вычисления ДКП, блок вычисления энергии текста, блок суммирования энергий, блок задания порога для гистограммы энергий.
Недостатками известного устройства являются:
- априорно задаваемые пороговые значения;
- необходимость центрирования текста
Известен «Способ и система выделения данных об изображении объекта переднего плана на основе данных о цвете и глубине» [Патент RU № 2426172, МПК G 06 K 9/34]. Изобретение относится к области распознавания и сегментации изображений, и в частности к способу и системе для выделения целевого объекта из фонового изображения и изображения объекта путем создания маски, используемой для выделения целевого объекта. Техническим результатом является создание усовершенствованного способа выделения данных об изображении объекта, используя данные о глубине изображения. Указанный технический результат достигается тем, что создается скалярное изображение разности изображения объекта и фона на основе разности освещенности, а в областях, где разность освещенности ниже заранее установленного порогового значения, на основе разности цвета; инициализируется маска по результатам, полученным из предыдущего видеокадра, где скалярное изображение разности меньше заранее установленного порога, если эти результаты доступны, при этом маску объекта заполняют нулями и единицами, где единица означает, что соответствующий пиксель принадлежит объекту, и нуль в ином случае; кластеризуется скалярное изображение разности и данные по глубине на основе нескольких кластеров; создается маска для каждого положения пикселя видеокадра, используя центры тяжести кластеров скалярной разности и данные по глубине для текущего положения пикселя; компенсируется изменение фона сцены во времени путем обновления изображения фона на основе использования созданной маски и изображения разности.
Система, реализующая способ выделения данных об изображении объекта из последовательности видеокадров, из изображения фона, не содержащего данных об изображении объекта, и из последовательности данных о глубине, соответствующих видеокадрам, на основе создаваемой маски объекта для каждого видеокадра, включающая в себя две цифровые видеокамеры, удаленные одна от другой и выполненные с возможностью съемки сцены в стерео формате, причем одна из цифровых видеокамер выполняет роль эталонной камеры; обработчик данных по цвету, выполненный с возможностью преобразования данных от камер в цветовые данные RGB; обработчик данных о глубине, выполненный с возможностью определения соответствия между пикселями в изображениях от каждой из двух цифровых видеокамер; обработчик данных по фону, выполненный с возможностью обработки фона для каждого видеокадра и запускающийся цветным цифровым изображением сцены, не содержащей объекта, от эталонной камеры; оценщик разности, выполненный с возможностью вычисления разности в освещенности и цвете фонового изображения и текущего видеокадра; детектор фона/переднего плана, выполненный с возможностью определения принадлежности конкретного пикселя фону или объекту.
Недостатками известной системы являются:
Использование двух видеокамер приводит к большим вычислительным затратам при получении альфа-канала выделяемого объекта.
Известно устройство по способу выделения объекта на изображении на основе решения уравнений Пуассона (Poisson matting for images) [Patent USA № 7636128], которое содержит блок хранения изображения, блок задания глобальной маски для решения уравнений Пуассона, блок задания локальной маски для решения уравнений Пуассона, блок принятия решений о проверке корректности полученной маски, блок ручного уточнения полученной маски
Недостатками известного способа являются:
- Применение локальных фильтров, исправляющие вручную окончательный результат с помощью решения локальных уравнений Пуассона, что не позволяет получить эффективной автоматизированной системы обработки.
Наиболее близким к изобретению является устройство по способу восстановления изображений на основе заполнения похожими областями и устройство его реализующее (Image region filling by exemplar-based inpainting) [Patent USA № 11/095,138, №10/453,404].
Рассматриваемое устройство - прототип содержит: блок хранения изображения, блок хранения пикселей, блок создания словаря, блок хранения словаря, блок обработки, блок вычисления приоритета, блок поиска подобия, блок заполнения изображения.
Недостатками известного устройства-прототипа являются:
– видимость границ на восстановленном изображении между найденными похожими блоками;
– неправильное восстановление при отсутствии похожего блока;
– зависимость эффективности восстановления от выбора размера блока.
Причины, препятствующие достижению требуемого технического результата, заключаются в следующем:
– отсутствие похожего блока приводит не правильному восстановлению, так как замена пикселей происходи на пиксели блока, для которого евклидова метрика минимальна, даже в том случае если она имеет большое значение по абсолютной величине;
– выбор размера блока зависит от априорной информации о размере и формы области восстановления и геометрических свойств изображения.
Упрощенная математическая модель изображения представляет собой двумерный дискретный сигнал
Figure 00000001
, (фиг. 1), где
Figure 00000002
– доступные пиксели неискаженного изображения,
Figure 00000003
- область изображения с отсутствующими пикселями,
Figure 00000004
– граница области
Figure 00000005
.
Техническая задача – реконструкция значений пикселей динамических двумерных сигналов, которые были потеряны путем наложения субтитров и логотипов.
Технический результат достигается за счет того, что устройство для удаления логотипов и субтитров с видеопоследовательностей содержит блок хранения кадров, вход которого является информационным входом устройства, первый выход которого подключён к входу блока задержки, выход которого подключён ко второму входу блока обнаружения логотипов; третий выход блока хранения кадров подключён к входу блока обнаружения субтитров; второй выход блока хранения кадров подключён к первому входу блока обнаружения логотипов; выход блока обнаружения субтитров и выход блока обнаружения логотипов, подключены к первому и второму входу блока формирования маски соответственно, выход которого подключен первому входу блока хранения данных; четвертый выход блока хранения кадров подключён ко второму входу блока хранения данных, первый выход которого подключён к входу блока хранения пикселей, выход которого подключён к входу блока создания словаря, выход которого подключён к входу блока хранения словаря, выход которого подключён к первому входу блока поиска подобия; второй выход блока хранения данных, подключён к входу блока обработки, выход которого подключён к входу блока вычисления приоритета, выход которого подключён ко второму входу блока поиска подобия, выход которого подключён к входу блока заполнения изображения, выход которого подключён к третьему входу блока хранения данных, третий выход которого является информационным выходом устройства.
На фиг. 1 представлено математическая модель изображения.
На фиг. 2 представлено построение ортогональных векторов.
На фиг. 3 представлен поиск похожих блоков.
На фиг. 4 представлена блок-схема устройства.
Устройство для удаления логотипов и субтитров с видеопоследовательностей содержит блок хранения кадров 1, вход которого является информационным входом устройства, первый выход которого подключён к входу блока задержки 5, выход которого подключён ко второму входу блока обнаружения логотипов 3; третий выход блока хранения кадров 1 подключён к входу блока обнаружения субтитров 2; второй выход блока хранения кадров 1 подключён к первому входу блока обнаружения логотипов 3; выход блока обнаружения субтитров 2 и выход блока обнаружения логотипов 3, подключены к первому и второму входу блока формирования маски 4 соответственно, выход которого подключен первому входу блока хранения данных 6; четвертый выход блока хранения кадров 1 подключён ко второму входу блока хранения данных 6, первый выход которого подключён к входу блока хранения пикселей 7, выход которого подключён к входу блока создания словаря 8, выход которого подключён к входу блока хранения словаря 9, выход которого подключён к первому входу блока поиска подобия 12; второй выход блока хранения данных 6, подключён к входу блока обработки 10, выход которого подключён к входу блока вычисления приоритета 11, выход которого подключён ко второму входу блока поиска подобия 12, выход которого подключён к входу блока заполнения изображения 13, выход которого подключён к третьему входу блока хранения данных 6, третий выход которого является информационным выходом устройства. Синхронность работы устройства обеспечивается генератором тактовых импульсов 14.
В видеоданных встречаются статические изображения, которые мешают просмотру, закрывая часть полезной информации от зрителя. К таким изображениям относятся различные логотипы каналов, дата, время или субтитры, которые были наложены на фильм с дальнейшим кодированием. Также отдельным классом областей, мешающим просмотру видео, являются искаженные блоки при работе видеокодека, появление которых объясняется ненадежностью среды передачи данных от кодера к декодеру. Удаление данных изображений включает в себя два шага: автоматическую локализацию их в кадре, а также последующая реконструкция потерянной полезной составляющей в кадре.
Для автоматической локализации данных изображений существует большое количество методов. Грубо большинство методов можно разделить на две группы: методы, основанные на пространственных преобразованиях методы, основанные на машинном обучении. Для большинства методов необходимо априорное задание пороговых значений, что в свою очередь может привести к сужению круга решаемых практических задач. Дополнительно методы основанные на машинном обучении нуждаются в достаточном количестве обучающих данных, что также может ограничить спектр решаемых задач.
Предлагаемое устройство для удаления логотипов и субтитров с видеопоследовательностей позволяет удалять логотипы и субтитры с видеопоследовательности используя копирование блоков пикселей с остальной части кадра видеопоследовательности. Устройство реализует следующие этапы обработки. На первом этапе загружается видеопоследовательность, на которой необходимо удалить некоторый объект. После чего происходит разбиение видеопоследовательности на кадры. В случае динамического изображения рассматривается модель, которая представляет собой двумерную дискретную последовательность
Figure 00000006
, на которой происходит автоматический поиск логотипов и субтитров. Для локализации логотипов делается предположение о том, что он имеет постоянное значение яркости. После чего случайным образом из видеопоследовательности выделяются два кадра
Figure 00000007
и
Figure 00000008
, - где
Figure 00000009
случайное число. Далее определяется разность между кадрами
Figure 00000010
. Результирующая маска формируется в соответствии с условием
Figure 00000011
. Для локализации субтитров вводится три предположения. Первое предположение заключается в том, что буквы имеют постоянное значение яркости, второе, что они имеют темный или светлый оттенок, и третье, то что они локализованы в нижней части кадра видеопоследовательности. На первом этапе выполняется предобработка в виде морфологической операции «верх шляпы»
Figure 00000012
для субтитров имеющий светлый оттенок, и «низ шляпы»
Figure 00000013
для темных значений, где
Figure 00000014
- текущий кадр,
Figure 00000015
- структурообразующий элемент. Маска с предварительной локализацией субтитров формируется путем пороговой обработки, в соответствии с условием
Figure 00000016
, - где
Figure 00000017
априорно заданное пороговое значение. Результирующая маска формируется путем ранжирования высот объектов на маске
Figure 00000018
. Таким образом, если более 3 объектов имеют одинаковое значение высоты, делается предположение что это буквы.
При невыполнении данного условия пользователю предлагается расставить метки повторно. Метки, установленные пользователем и найденные в автоматическом режиме необходимы для создания бинарной маски
Figure 00000019
, на которой единичными значениями помечены пиксели, относящиеся к объекту, а нулевыми к фону. Создание бинарной маски
Figure 00000020
, осуществляется с помощью способа, предложенного в патенте № 2522044 «Устройство выделения контуров объектов на текстурированном фоне при обработки цифровых изображений». Суть данного метода заключается в следующем. На первом шаге исходное изображение
Figure 00000021
, на котором представлен некоторый объект на произвольном фоне, двумерный массив
Figure 00000022
, содержащий маркеры фона и выделяемого объекта, двумерный массив
Figure 00000023
, содержащий маркеры только выделяемого объекта децимируются на 2. На втором шаге для изображения
Figure 00000024
с уменьшенным разрешением и двумерного массива
Figure 00000025
с уменьшенной размерностью строится разреженная матрица Лапласа
Figure 00000026
размерностью
Figure 00000027
:
Figure 00000028
,
где
Figure 00000029
- ковариационная матрица 3х3,
Figure 00000030
- вектор 3х1 средних цветов в окне
Figure 00000031
и
Figure 00000032
– идентичная матрица 3х3.
На третьем шаге для двумерного массива
Figure 00000033
с уменьшенной размерностью строится диагональная матрица
Figure 00000034
, диагональные элементы которой равны единице для маркированных пикселей и равны 0 для всех остальных. На четвертом шаге из двумерного массива
Figure 00000035
формируется вектор-столбец
Figure 00000036
размерностью
Figure 00000037
, с поэлементным возведением в квадрат. Полученный вектор-столбец b и диагональная матрица
Figure 00000038
умножаются на константу
Figure 00000039
. На пятом шаге формируется разреженная матрица
Figure 00000040
:
Figure 00000041
Для полученной разреженной матрицы
Figure 00000040
находят обратную матрицу
Figure 00000042
. На шестом шаге формируется альфа-канал для изображения с уменьшенным размером:
Figure 00000043
.
Далее с помощью исходного изображения
Figure 00000044
, уменьшенного изображения
Figure 00000045
альфа-канал
Figure 00000046
интерполируется в 2 раза на основе линейных коэффициентов по формуле
Figure 00000047
Figure 00000048
,
где c – канал цвета,
Figure 00000049
.
После чего альфа канал
Figure 00000050
бинаризуется, образуя маску
Figure 00000051
.
Далее маски суммируются, образуя маску
Figure 00000052
, по которой, на кадре
Figure 00000053
, алгоритмом восстановления изображений происходит удаление отмеченного объекта. Суть данного алгоритма заключается в следующем. На первом этапе загружается изображение с потерянными пикселями, а также изображение с маской. После чего создаются двумерные матрицы. Данные матрицы используются для заполнения участков изображения с потерянными пикселями. Заполнение происходит для пикселей смежных к пикселю, для которого приоритет оказывается максимальным. Вычисление значения приоритета
Figure 00000054
для каждого значения пикселя границы, состоит из двух множителей (фиг. 2):
Figure 00000055
,
Figure 00000056
,
Figure 00000057
,
Figure 00000056
,
где:
Figure 00000058
- текущий пиксель на границе доступных пикселей;
Figure 00000059
- коэффициент доверия;
Figure 00000060
- коэффициент градиента;
Figure 00000061
- квадратный блок пикселей с центром в пикселе
Figure 00000062
;
Figure 00000063
- количество пикселей квадратного блока,
Figure 00000064
вектор, ортогональный градиенту в точке
Figure 00000062
;
Figure 00000065
- вектор, ортогональный границе
Figure 00000066
в точке
Figure 00000067
;
Figure 00000068
- нормированный множитель, который для восьми битных изображений равен 255.
Вначале предполагается, что значение коэффициента доверия
Figure 00000069
для пикселей из области
Figure 00000070
равно 1, а для области
Figure 00000071
равно 0. Вычисление приоритета позволяет придавать больший вес пикселям, которые находятся на перепадах яркости (границах), таким образом, восстанавливая их в первую очередь. Учет коэффициента доверия
Figure 00000072
позволяет присваивать меньший вес восстановленным пикселям при увеличении расстояния от доступных пикселей из области
Figure 00000073
. Далее происходит поиск блока
Figure 00000074
с максимальным приоритетом
Figure 00000075
.
На следующем шаге находится блок
Figure 00000076
в области доступных пикселей
Figure 00000077
, для которого евклидова норма минимальна (фиг. 3):
Figure 00000078
Значения пикселей из найденного блока копируются в области
Figure 00000079
. Данные доверия
Figure 00000080
для восстановленных пикселей присваиваются равным текущему значению
Figure 00000081
с ограничением
Figure 00000082
, что
Figure 00000083
. Процедура пересчета приоритета и поиска похожих областей с последующей заменой повторяется. После того как объект был удален, текущий кадр
Figure 00000053
и все последующие кадры
Figure 00000084
формируются в видеопоследовательность.
Устройство для удаления логотипов и субтитров с видеопоследовательностей работает следующим образом. На вход блока хранения кадров 1 поступает видеопоследовательность, где она разбивается на кадры. После чего кадры через блок задержки 5 поступают на вход блока обнаружения логотипов 3. Далее происходит поиск логотипов в блоке 3 и блоке поиска субтитров 2 соответственно для каждого кадра из видеопоследовательности. Полученные маски суммируются и хранятся в блоке формирования маски 4, и после чего поступают на вход блока хранения данных 6. Доступные пиксели сохраняются в блоке хранения пикселей 7, с помощью которых в блоке создания словаря 8 создаются двумерные матрицы, которые используются далее для восстановления изображения. Матрицы создаются путем формирования квадратных блоков размером 15 на 15 пикселей из исходного изображения путем смещения блока по всем доступным пикселям изображения. Данные матрицы хранятся в блоке хранения словаря 9. В блоке обработки 10 происходит формирование граничных пикселей вокруг области с потерянными пикселями из блока хранения данных 6. Далее информация о граничных пикселях поступает на вход блока вычисления приоритета 11, в котором вычисляется приоритет для всех граничных пикселей, который состоит из двух множителей: коэффициент доверия и коэффициент градиента. В данном блоке так же осуществляется ранжировка приоритета и определение граничного пикселя с максимальным значением приоритета. Область поступает на вход блока поиска подобия 12, в котором осуществляется вычисление евклидовой метрики со всеми двумерными матрицам, которые хранятся в блоке хранения словаря 9. В блоке поиска подобия 12 так же определяется наиболее похожий блок, для которого евклидова метрика минимальна. Далее этот блок поступает в блок заполнения изображения 13, в котором копируются значения пикселей смежных к пикселю с максимальным приоритетом в блок хранения данных 6 на соответственные координаты. Далее процесс вычисления приоритета с поиском похожих блоков и последующей заменой повторяется до тех пор, пока не будут восстановлены все значения в блоке хранения данных 6. Синхронность работы устройства обеспечивается генератором тактовых импульсов 14.

Claims (1)

  1. Устройство для удаления логотипов и субтитров с видеопоследовательностей содержит генератор тактовых импульсов, блок хранения кадров, вход которого является информационным входом устройства, первый выход которого подключён к входу блока задержки, выход которого подключён ко второму входу блока обнаружения логотипов; третий выход блока хранения кадров подключён к входу блока обнаружения субтитров; второй выход блока хранения кадров подключён к первому входу блока обнаружения логотипов; выход блока обнаружения субтитров и выход блока обнаружения логотипов подключены к первому и второму входам блока формирования маски соответственно, выход которого подключен к первому входу блока хранения данных; четвертый выход блока хранения кадров подключён ко второму входу блока хранения данных, первый выход которого подключён к входу блока хранения пикселей, выход которого подключён к входу блока создания словаря, выход которого подключён к входу блока хранения словаря, выход которого подключён к первому входу блока поиска подобия; второй выход блока хранения данных подключён к входу блока обработки, выход которого подключён к входу блока вычисления приоритета, выход которого подключён ко второму входу блока поиска подобия, выход которого подключён к входу блока заполнения изображения, выход которого подключён к третьему входу блока хранения данных, третий выход которого является информационным выходом устройства.
RU2017145433A 2017-12-25 2017-12-25 Устройство для удаления логотипов и субтитров с видеопоследовательностей RU2669470C1 (ru)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2017145433A RU2669470C1 (ru) 2017-12-25 2017-12-25 Устройство для удаления логотипов и субтитров с видеопоследовательностей

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2017145433A RU2669470C1 (ru) 2017-12-25 2017-12-25 Устройство для удаления логотипов и субтитров с видеопоследовательностей

Publications (1)

Publication Number Publication Date
RU2669470C1 true RU2669470C1 (ru) 2018-10-12

Family

ID=63862242

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2017145433A RU2669470C1 (ru) 2017-12-25 2017-12-25 Устройство для удаления логотипов и субтитров с видеопоследовательностей

Country Status (1)

Country Link
RU (1) RU2669470C1 (ru)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2738025C1 (ru) * 2020-03-27 2020-12-07 Общество с Ограниченной Ответственностью "СТРИМ Лабс" Способ обнаружения логотипа телеканала в телевизионной трансляции
RU2739716C1 (ru) * 2020-03-27 2020-12-28 Общество с Ограниченной Ответственностью "СТРИМ Лабс" Способ обнаружения логотипа телеканала в телевизионной трансляции
RU2771212C1 (ru) * 2021-06-02 2022-04-28 Общество с Ограниченной Ответственностью "СТРИМ Лабс" Способ обнаружения логотипа телеканала в телевизионной трансляции

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7551181B2 (en) * 2003-02-24 2009-06-23 Microsoft Corporation Image region filling by exemplar-based inpainting
US7636128B2 (en) * 2005-07-15 2009-12-22 Microsoft Corporation Poisson matting for images
RU2426172C1 (ru) * 2010-01-21 2011-08-10 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ и система выделения данных об изображении объекта переднего плана на основе данных о цвете и глубине
RU2440614C1 (ru) * 2010-08-02 2012-01-20 Государственное образовательное учреждение высшего профессионального образования "Южно-Российский государственный университет экономики и сервиса" (ГОУ ВПО "ЮРГУЭС") Устройство обработки двумерных сигналов при реконструкции изображений
RU2450342C1 (ru) * 2011-08-01 2012-05-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Южно-Российский государственный университет экономики и сервиса" (ФГБОУ ВПО "ЮРГУЭС") Устройство для восстановления изображений
RU2572377C1 (ru) * 2014-12-30 2016-01-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Донской государственный технический университет" (ФГБОУ ВПО "ДГТУ") Устройство редактирования видеопоследовательностей

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7551181B2 (en) * 2003-02-24 2009-06-23 Microsoft Corporation Image region filling by exemplar-based inpainting
US7636128B2 (en) * 2005-07-15 2009-12-22 Microsoft Corporation Poisson matting for images
RU2426172C1 (ru) * 2010-01-21 2011-08-10 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ и система выделения данных об изображении объекта переднего плана на основе данных о цвете и глубине
RU2440614C1 (ru) * 2010-08-02 2012-01-20 Государственное образовательное учреждение высшего профессионального образования "Южно-Российский государственный университет экономики и сервиса" (ГОУ ВПО "ЮРГУЭС") Устройство обработки двумерных сигналов при реконструкции изображений
RU2450342C1 (ru) * 2011-08-01 2012-05-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Южно-Российский государственный университет экономики и сервиса" (ФГБОУ ВПО "ЮРГУЭС") Устройство для восстановления изображений
RU2572377C1 (ru) * 2014-12-30 2016-01-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Донской государственный технический университет" (ФГБОУ ВПО "ДГТУ") Устройство редактирования видеопоследовательностей

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2738025C1 (ru) * 2020-03-27 2020-12-07 Общество с Ограниченной Ответственностью "СТРИМ Лабс" Способ обнаружения логотипа телеканала в телевизионной трансляции
RU2739716C1 (ru) * 2020-03-27 2020-12-28 Общество с Ограниченной Ответственностью "СТРИМ Лабс" Способ обнаружения логотипа телеканала в телевизионной трансляции
RU2771212C1 (ru) * 2021-06-02 2022-04-28 Общество с Ограниченной Ответственностью "СТРИМ Лабс" Способ обнаружения логотипа телеканала в телевизионной трансляции

Similar Documents

Publication Publication Date Title
CN108073857B (zh) 动态视觉传感器dvs事件处理的方法及装置
US9426449B2 (en) Depth map generation from a monoscopic image based on combined depth cues
US10958854B2 (en) Computer-implemented method for generating an output video from multiple video sources
US9679387B2 (en) Depth-weighted group-wise principal component analysis for video foreground/background separation
Zhang et al. A coarse-to-fine framework for cloud removal in remote sensing image sequence
CN108694705A (zh) 一种多帧图像配准与融合去噪的方法
RU2669470C1 (ru) Устройство для удаления логотипов и субтитров с видеопоследовательностей
KR102380862B1 (ko) 영상 처리 방법 및 장치
Ling et al. Virtual contour guided video object inpainting using posture mapping and retrieval
US20120201462A1 (en) Joint image compression method and apparatus
Jonna et al. A multimodal approach for image de-fencing and depth inpainting
CN110443228B (zh) 一种行人匹配方法、装置、电子设备及存储介质
Ghanbari et al. Contour-based video inpainting
Chugunov et al. Shakes on a plane: Unsupervised depth estimation from unstabilized photography
KR101921608B1 (ko) 깊이 정보 생성 장치 및 방법
Qin et al. Foreground extraction of underwater videos via sparse and low-rank matrix decomposition
Xu Panoramic video stitching
Köppel et al. Filling disocclusions in extrapolated virtual views using hybrid texture synthesis
KR20120063795A (ko) 동영상에 포함된 오브젝트를 처리하는 방법 및 장치
Mathai et al. Automatic 2D to 3D video and image conversion based on global depth map
KR101619486B1 (ko) 좌표변환 매트릭스를 이용한 3차원 큐브 파노라마 장치
KR20170115757A (ko) 깊이 정보 생성 장치 및 방법
Calagari et al. Data driven 2-D-to-3-D video conversion for soccer
RU2572377C1 (ru) Устройство редактирования видеопоследовательностей
Voronin et al. Video inpainting of complex scenes based on local statistical model