RU2108005C1 - Способ имплантации изображения и устройство для его осуществления - Google Patents

Способ имплантации изображения и устройство для его осуществления Download PDF

Info

Publication number
RU2108005C1
RU2108005C1 RU96121405A RU96121405A RU2108005C1 RU 2108005 C1 RU2108005 C1 RU 2108005C1 RU 96121405 A RU96121405 A RU 96121405A RU 96121405 A RU96121405 A RU 96121405A RU 2108005 C1 RU2108005 C1 RU 2108005C1
Authority
RU
Russia
Prior art keywords
specified
image
mask
model
frame
Prior art date
Application number
RU96121405A
Other languages
English (en)
Other versions
RU96121405A (ru
Inventor
Хаим Крейтман
Дан Бар-Эль
Йоэль Амир
Эхуд Тирош
Original Assignee
Скитекс Америка Корпорейшн
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Скитекс Америка Корпорейшн filed Critical Скитекс Америка Корпорейшн
Application granted granted Critical
Publication of RU2108005C1 publication Critical patent/RU2108005C1/ru
Publication of RU96121405A publication Critical patent/RU96121405A/ru

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N5/2723Insertion of virtual advertisement; Replacing advertisements physical present in the scene by virtual advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Landscapes

  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Electrotherapy Devices (AREA)
  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Television Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

Предлагаются устройство и способ микширования изображений, таких как рекламные изображения, в видеопоток событий, происходящих в пределах главным образом неизменного пространства, такого как игровое поле. В системе использована модель пространства заднего фона для изменения видеопотока таким образом, чтобы ввести изображение в некоторое местоположение в пределах пространства заднего фона. Система включает в себя механизм захвата видеокадра и систему имплантации изображения. Механизм захвата видеокадра одновременно (в течение одного промежутка времени) выделяет единственный кадр видеосигнала. Система имплантации изображения обычно внедряет изображение в кадре на заданном участке, выбранном на поверхностях пространства заднего фона, если этот участок виден в кадре. 4 с. и 18 з.п.ф-лы, 30 ил.

Description

Изобретение главным образом имеет отношение к объединению подготовленного изображения и видеосигнала.
Спортивные арены обычно содержат спортивные площадки, на которых происходят различные игровые состязания, имеющие места, где сидят зрители, и некую стену, разделяющую две указанных зоны. Обычно эта стена по меньшей мере частично покрыта рекламными объявлениями фирм, которые являются спонсорами соревнований. В том случае, когда производится съемка соревнования, то рекламные объявления на стене снимаются как часть спортивной арены. Реклама не может быть представлена публике целиком, если только она не снимается телекамерами.
Известны системы, которые осуществляют объединение определенных объявлений на различных поверхностях со съемкой спортивной арены. В одной из таких систем оператор определяет поверхность цели на арене. После этого система замыкается на поверхности цели и объединяет заранее выбранное объявление с участком видеопотока, соответствующим этой поверхности. Когда камера перестает быть направленной на эту поверхность, то система оставляет эту поверхность цели и оператор вновь должен указать поверхность, которая должна быть использована.
Описанная выше система работает в реальном масштабе времени. Известны и другие системы, которые осуществляют в основном такую же операцию, но не в реальном масштабе времени.
Известны другие системы для осуществления объединения данных с видеопоследовательностью. В них осуществляется вставка изображения между видеосценами, а также наложение данных изображения на определенную часть телевизионного кадра (такую как логотип телевизионной станции), и даже электронный ввод данных изображения как "замена" специфической выбранной доски объявлений. Последнее осуществляется при помощи такой техники, как цветовое кодирование.
В патенте США N 5264933 описаны устройство и способ для изменения видеоизображений, применяемые для того, чтобы осуществлять добавку рекламных изображений как части первоначально показываемого изображения. Оператор определяет, где в захваченном изображении должно быть имплантировано рекламное изображение. Система в соответствии с патентом США N 5264933 также позволяет имплантировать изображения в выбранных основных зонах широковещания, при поступлении аудиосигналов, таких как типичные выражения комментаторов.
В заявке PCT/FR 91/00296 описаны способ и устройство для модификации зоны в последовательных изображениях. В этих изображениях имеется не деформируемая зона цели, вблизи от которой отмаркирован регистр. Система производит поиск меток регистра и использует их для определения положения зоны. После этого ранее подготовленное изображение может быть наложено на эту зону. Метками регистра являются любые легко обнаруживаемые метки (такие как кресты или другие "графемы"), расположенные вблизи от зоны цели. Система в соответствии с PCT/FR 91/00296 позволяет получать захваченное изображение с множеством разрешений, которые используются системой в ее процессе идентификации.
Задачей изобретения является создание системы и способа, которые позволяют осуществлять смешение (микширование) изображений, таких как рекламные изображения, с видеопотоком действия, происходящего в пределах главным образом относительно неизменного пространства. Таким пространством может быть игровая площадка или корт, (театральная) сцена или комната, причем это место обычно выбирают ранее начала действия (например, игры или шоу). Изображения "имплантированы" в выбранную поверхность пространства заднего фона, причем термин "имплантированы" в данном случае означает, что изображения смешаны с частью видеопотока, показывающего выбранную поверхность.
В частности, в соответствии с изобретением используется априорная информация, касающаяся пространства заднего фона, который подлежит изменению в видеопотоке, таким образом, чтобы включить расположенное в некотором месте изображение в пределы пространства заднего фона. Система и способ функционируют вне зависимости от перспективного вида пространства заднего фона, имеющегося в видеопотоке.
В соответствии с предпочтительным вариантом осуществления изобретения система преимущественно включает в себя механизм захвата видеокадра и систему внедрения (имплантации) изображения. Механизм захвата кадра в любой момент времени выбирает только один кадр видеосигнала. Система имплантации изображения обычно внедряет рекламное изображение в кадре на заранее выбранном участке одной из выбранных поверхностей пространства заднего фона, если этот участок показывается в этом кадре. Для того чтобы определить участок, в который будет производиться имплантация, система имплантации изображения включает блок приема: а) плоской модели фиксированных поверхностей пространства заднего фона и б) маски изображения, указывающей участок плоской модели, с которым изображение будет объединено. При помощи модели система имплантации изображения определяет, следует ли показывать участок в кадре и в каком его месте.
Более того, в соответствии с предпочтительным вариантом осуществления изобретения система также включает в себя дизайнерскую рабочую станцию, при помощи которой могут быть созданы изображение и маска изображения, которые указывают заранее выбранную поверхность.
Кроме того, идентификация преимущественно предусматривает: а) повторный просмотр кадра и извлечение из него характеристик фиксированных поверхностей; (б) установление перспективной трансформации между моделью и извлеченными характеристиками.
Кроме того, повторный просмотр кадра и извлечение включают в себя создание маски заднего фона и маски переднего фона. Маска заднего фона указывает положения представляющих интерес характеристик, а также элементов заднего фона в кадре и используется для извлечения желательных характеристик. Маска заднего фона формируется из элементов заднего фона, которые должны оставаться неизменными.
Дополнительно, в соответствии с предпочтительным вариантом осуществления изобретения имплантация включает в себя операции: а) трансформирование изображения, маски изображения и, в случае необходимости, маски смешивания при помощи трансформации перспективы, и б) микширование (смешение) трансформированного изображения, маски изображения и опционной маски смешивания с кадром и с маской. Маска заднего фона, как это упоминалось ранее, указывает положения данных заднего фона, которые не должны быть покрыты трансформированным изображением.
Кроме того, система преимущественно включает просмотровую таблицу для преобразования множества цветов в кадре в один из цветов представляющих интерес характеристик, цветов элементов заднего фона и цвета, индицирующего элементы заднего фона. Если соответствующие цвета более не указывают представляющие интерес характеристики и элементы заднего фона (обычно в результате изменений освещения), то пользователь может указать новые цвета, которые должны указывать желательные элементы, при этом просмотровая таблица корректируется.
Кроме того, в соответствии с предпочтительным вариантом осуществления изобретения просмотровая таблица используется для создания масок заднего фона и переднего фона кадра, указывающих положение представляющих интерес характеристик, элементов заднего фона и элементов переднего фона в кадре.
В соответствии с примерным вариантом осуществления изобретения характеристиками являются линии. В соответствии с одним из вариантов они извлекаются при помощи трансформации Хуга (Hough). В соответствии с другим вариантом они извлекаются при помощи определения углов сегментов линий. При этом определяются представляющие интерес элементы изображения (пиксели) и открывается их окружение (расположенная рядом область). Окружение делится на секторы и выбирается сектор, представляющий наибольший интерес. После этого выбранный сектор расширяется и делится. В случае необходимости этот процесс повторяется.
Более того, в соответствии с предпочтительным вариантом осуществления изобретения система проецирует извлеченные характеристики на асимптотическую функцию для определения того, какая из характеристик является перспективной версией параллельных линий.
Кроме того, в соответствии с примерным вариантом осуществления изобретения пространство заднего фона представляет собой спортивную арену, имеющую отмаркированные на ней линии. Система содержит модель спортивной арены и преимущественно имеет список прямоугольников в модели и расположение их угловых точек. Система преимущественно осуществляет следующие операции:
а) выбирает две вертикальные и две горизонтальные линии из извлеченных характеристик и определяет их точки пересечения;
б) вырабатывает матрицу преобразования из угловых точек каждого прямоугольника модели для характеристик точек пересечения;
в) трансформирует модель при помощи каждой матрицы трансформации;
г) с использованием элементов заднего фона маски заднего фона производит согласование каждой модели трансформации с кадром; и
д) выбирает матрицу трансформации, которая лучше всего подходит для характеристик кадра.
Более того, в соответствии с примерным вариантом осуществления изобретения параметры камеры могут быть использованы для уменьшения числа линий в кадре, необходимых для идентификации спортивных полей. В соответствии с этим вариантом происходят следующие операции:
получение или экстрагирование набора координат камер;
представление текущей матрицы трансформации (преобразования) как произведения матриц координаты, наклона, поворота и трансфокации, а затем определение величин наклона, поворота и трансфокации; и
идентификация камеры, имеющей вычисленные значения наклона, поворота и трансфокации, и запоминание этой информации; и
повторение операций получения представления и идентификации при любом прямом переходе к следующему кадру.
Теперь может быть обработан любой кадр в видеопотоке, который может быть аналогичен предшествующему кадру или который является частью нового кадра, полученного выбранной камерой.
На фиг.1 показана блок-схема системы для внедрения изображений в видеопоток, сконструированной и работающей в соответствии с предпочтительным вариантом осуществления настоящего изобретения.
На фиг. 2 - игра в теннис, которая использована в качестве примера для объяснения работы системы фиг.1.
На фиг. 3 - модель теннисного корта, полезная для понимания работы системы фиг.1.
На фиг.4 - изображение, которое должно быть имплантировано.
На фиг. 5 - маска области изображения для изображения фиг. 4 и модель фиг.3.
На фиг.6 - маска смешения для изображения фиг. 4 и модель фиг. 3
На фиг.7 - блок-схема элементов блока имплантации изображения, образующего часть системы фиг.1.
На фиг.8 - пример видеокадра, в который может быть имплантировано изображение фиг.4.
На фиг.9 - маска заднего фона, полученная из видеокадра фиг.8.
На фиг.10 - блок-схема, иллюстрирующая работу блока идентификации характеристик, образующего часть блока имплантации изображения фиг.7.
На фиг.11 - блок-схема, иллюстрирующая способ экстракции характеристик.
На фиг.12 - участок маски заднего фона.
На фиг.13 - гистограмма подсекторов маски заднего фона фиг.12, полезная для понимания способа фиг.11.
На фиг.14 - блок-схема, иллюстрирующая работу блока идентификации перспективы, образующего часть блока имплантации изображения фиг.7.
На фиг.15 - точки встречи экстрагированных характеристик фиг.9
На фиг.16 - параллельные линии перспективы, пересекающиеся (сходящиеся) в различных точках в результате несовершенства вычислений.
На фиг. 17 и 18 - гномонические проекции, полезные в понимании работы блока идентификации перспективы фиг.14.
На фиг. 19 - графическая иллюстрация примерной функции, полезной для гномонических проекций фиг.17 и 18.
На фиг.20 - подробная блок-схема, иллюстрирующая работу блока фиг. 14.
Фиг.21 и 22 помогают понять работу блока фиг.20.
На фиг.23 объясняется пользование матрицами преобразования.
Фиг. 24 полезна для понимания процесса согласования четырехугольников и геометрической модели, используемого при работе блока фиг.20.
На фиг. 25 показана блок-схема, отображающая функционирование блоков трансформации и смешения блока имплантации изображения фиг.7.
На фиг. 26 - блок-схема, отображающая способ корректировки для модернизации просмотровой таблицы, используемой в блоке имплантации изображения фиг.7.
На фиг.27 схематически показаны параметры камеры.
На фиг. 28 - блок-схема, отображающая операции матрицы преобразования в том случае, когда параметры камеры фиг.27 известны или могут быть вычислены.
На фиг.29 - таблица, полезная в понимании способа фиг.28.
На фиг. 30 - приведена блок-схема, отображающая способ работы в том случае, когда параметры камеры известны или могут быть вычислены.
Обратимся теперь к рассмотрению фиг.1, на которой показана система для микширования изображений, таких как реклама, с видеопотоком действий, происходящих в пределах относительно неизменного пространства заднего фона. Изображения имплантируют на выбранную поверхность заднего фона. Система будет описана в контексте видеосъемки теннисной игры, показанной со ссылками на фиг. 2. Следует иметь в виду, что изобретение может быть применено для всех ситуаций, в которых поверхности, на которых происходит действие, известны заранее и могут быть идентифицированы.
Система в соответствии с изобретением обычно включает в себя механизм захвата видеокадра 10 для преобразования входной видеопоследовательности (такой как игра в теннис) в видеокадры, дизайнерскую рабочую станцию 12 для осуществления дизайна изображений (таких как реклама), которые должны быть имплантированы на выбранные поверхности (такие как теннисный корт), показываемые в видеокадре, систему имплантации изображения 14 для объединения видеокадра с дизайнерским изображением, управляющую компьютерную систему 16 для управления операциями и для подключения входа оператора к системе имплантации изображения 14 и к широковещательному монитору 18.
Управляющая компьютерная система 16 типично включает в себя центральный процессор (ЦП) 20, клавиатуру 22, мышь 24, диск 26, съемный диск, такой как дискета 27, и монитор 28. Монитор 28 обычно управляется через графический адаптер, который является частью ЦП 20. Дизайнерская рабочая станция 12 обычно также имеет съемный диск, такой как дискета 27.
Управляющая компьютерная система 16 и система имплантации изображения 14 обычно сообщаются при помощи системной шины 29. Дизайнерская рабочая станция и управляющая компьютерная система 16 обычно сообщаются при помощи съемного диска.
Видеопоследовательность может быть получена из любого источника, например, такого как видеолента, с удаленной передающей станции при помощи спутника, при помощи микроволн или любого другого типа видеосообщений и т.п. Если последовательность получают со спутника, то система не имеет управления по видеочастоте. Поэтому система имплантации изображения 14 должна осуществлять ее работу в рамках видеочастоты спутника, составляющей обычно 30 мс между кадрами. Если последовательность получают при помощи видеоленты, то система имеет управление по видеочастоте и может работать с любой желательной скоростью.
Видеопоследовательность получают первоначально на игровой площадке. Как это можно видеть на фиг.2, при игре в теннис обычно используют две телевизионные камеры 30, которые следят за действиями, проистекающими на теннисном корте 32. Положение камер 30 обычно фиксированное.
Корт 32 разделен на две половины при помощи сетки 34. Каждая из половин имеет множество зон 36, обычно окрашенных первым оттенком зеленого цвета, которые разделены множеством линий 38, обычно окрашенных в белый цвет. Внешняя зона 40 корта обычно окрашена вторым оттенком зеленого.
В действительности линии 38 являются параллельными и перпендикулярными линиями. Так как камера 30 совершает "наезд" с угла, а не сверху, то в результате этого получают перспективные изображения. Поэтому на видеовыходе камер 30 параллельные линии 38 выглядят так, как будто они сходятся в бесконечности. Угол перспективы на видеовыходе изменяется при изменении углов расположения камер 30 и степени трансфокации.
В соответствии с изобретением будет имплантировано изображение 42, такое как слово "IMAGE", в желаемом положении на выбранной поверхности заднего фона, для всех углов перспективы и всех значений трансфокации. Для теннисных кортов возможными положениями являются любые прямоугольники в пределах одной из половин теннисного корта 32, ограниченные четырьмя линиями 38. Как показано на фиг.2, изображение 42 не должно перекрывать действия игроков 44; оно должно выглядеть так, словно нарисованное на поверхности корта.
Так как в действительности форма корта 32 и положение линий 38 в пределах корта 32 не изменяются, то если система имплантации изображения имеет модель игрового пространства, которая включает в себя положение, в котором должно быть имплантировано изображение, и если эта система может идентифицировать по меньшей мере углы зрения и степень трансфокации, то она может вводить изображение в видеопоследовательность таким образом, что это изображение появляется в желательном местоположении. Для того, чтобы сделать это, система имплантации изображения дополнительно должна знать цвета корта, который видят камеры. Эти цвета могут изменяться при изменении освещения (дневной свет или искусственный).
Обратимся теперь к рассмотрению фиг.3, на которой можно видеть геометрическую модель 50 теннисного корта, и к фиг.4, 5 и 6, на которых показаны данные, которые готовит дизайнер имплантации.
Дизайнер имплантации работает на дизайнерской рабочей станции 12, такой как рабочая станция BLAZE производства фирмы Scitex Corporation Ltd. of Herzlia, Israel, и обычно имеет геометрическую модель 50 теннисного корта 32, обычно в виде сверху. Модель 50 обычно является масштабной версией корта 32, причем на ней показаны элементы, подлежащие идентификации при помощи системы имплантации 14, такие как линии 38. Другие игровые площадки могут содержать круги или другие четко обозначенные кривые. Другими идентифицируемыми элементами являются пересечения 54 линий 38.
Дизайнер имплантации конструирует изображение 42 (показанное на фиг.4), которое следует имплантировать, и определяет, где на модели 50 оно должно быть размещено. Ряд возможных положений 52 показан на фиг.3. После этого дизайнер приготавливает маску локализации изображения 56 (фиг.5) для идентификации положения в пределах модели 50, где должно быть помещено изображение 42. Маска 56 светлая на модели 50 там, где должно быть помещено изображение 42, и темная в других местах.
Так как изображение 42 может иметь яркие цвета, то может быть желательно внедрять не само изображение, а его смягченную версию, чтобы не нарушать существенным образом происходящие на корте 32 действия игроков. Поэтому в случае необходимости дизайнер имплантации может приготовить маску смешивания 58 (фиг. 6), которая показывает, как изображение 42 должно быть смешано с цветами корта 32 в положении имплантации, которое указано при помощи маски положения 56. Маска смешивания 58 может быть любой подходящей маской, такой как известные сами по себе маски. На фиг.6 показана маска 58 с четырьмя зонами 59, каждая из которых показывает введение различных количеств цвета корта, в то время как внешняя зона 59 обычно содержит намного больше цвета корта, чем внутренние зоны.
Обратимся теперь вновь к фиг.1 и 2. Данные имплантации, образованные геометрической моделью 50, изображение 42, маска 56 локализации изображения и опционная маска смешивания 58 обычно приготавливаются перед теннисным матчем и поступают в систему имплантации изображения 14 обычно при помощи съемного диска, с последующей имплантацией во входную видеопоследовательность в ходе матча.
Большинство видеопоследовательностей передаваемых "живьем" по телевизору игр начинаются с исходной последовательности, которая позволяет операторам местных станций синхронизировать их системы с входной последовательностью. Это также верно и для видеоданных на ленте.
В соответствии с изобретением исходная последовательность захватывается механизмом захвата кадра 10 и поступает прежде всего на управляющую компьютерную систему 16. Оператор станции выбирает кадр с четким видом игрового поля и использует его для получения информации калибровки, как это будет описано ниже. Информация калибровки используется в системе имплантации изображения 14 для идентификации корта 32 и его характеристик (таких как линии 38). В описанном далее варианте информация калибровки содержит цвета представляющих интерес характеристик заднего фона, таких как линии поля, игровое поле (корт 32) и участок вне игрового поля (внешние зоны 40 корта). Другие принимаемые цвета могут быть определены как цвета переднего плана. Другие игровые поля могут потребовать больше или меньше характеристик для их определения и поэтому больше или меньше цветов.
Оператор станции, используя мышь 24 и клавиатуру 22, интерактивно определяет цвета калибровки. Это может быть достигнуто различными путями, один из которых описан ниже. Четвертый цветовой слой накладывается сверху над текущим кадром, который виден на контрольном мониторе 28. Первоначально четвертый цветовой слой содержит только один цвет, а именно прозрачный цвет. Поэтому первоначально текущий кадр виден.
Оператор указывает элементы изображения (пиксели), описывающие одну из трех характеристик, а именно линии 38, внутреннее игровое поле 36 и внешнее игровое поле 40. Когда он выбирает элемент изображения, то те элементы изображения в наложенном слое, которые совпадают с элементами изображения в текущем кадре, имеющими выбранный цвет, окрашиваются в единственный прозрачный цвет, в результате чего они покрывают их соответствующими элементами изображения текущий кадр. Выбранный цвет запоминается. Процесс повторяется для всех трех зон. Все не выбранные цвета относятся к четвертому цвету трансляции.
Если оператор признает четвертый цветовой слой, то создается просмотровая таблица (ПТ) между цветами, выбранными из текущего кадра, и цветами трансляции.
По желанию компьютерная система управления 16 может запоминать элементы изображения, которые выбрал оператор, для дальнейшего использования в цикле корректировки ПТ, который описан ниже со ссылкой на фиг.26.
Компьютерная система управления 16 создает данные кадра, образованные из ПТ и элементов изображения, использованных для создания ПТ, для системы имплантации изображения 14. Система 14 использует эти данные кадра для идентификации желательных характеристик в каждом кадре входного видеосигнала.
Обратимся теперь к рассмотрению фиг.7, на которой можно видеть основные элементы системы имплантации изображения 14. Для понимания работы системы 14 следует обратиться к фиг.8 и 9.
Система 14 обычно включает в себя блок идентификации характеристик 60 (фиг. 7), который определяет, какие характеристики корта 32 присутствуют в каждом входном видеокадре, и блок перспективной идентификации 62 для определения углов зрения и трансфокации активной камеры 30, а также для определения соответствующей трансформации перспективы между моделью 50 и входным видеокадром. Система 14 также включает в себя трансформатор 64 для преобразования данных имплантации из плоскости модели в плоскость просмотра изображения и смеситель 66 для смешения данных имплантации перспективы с текущим видеокадром, в результате чего происходит имплантация изображения 42 на поверхность корта 32.
Как это описано более детально ниже, блок идентификации характеристик 60 использует ПТ для создания маски заднего фона входного кадра, указывающей, какие участки кадра имеют представляющие интерес характеристики заднего фона, а какие участки являются передним фоном и поэтому не должны изменяться в последующих операциях. На фиг. 8 и 9 показаны соответственно примерный входной кадр 68 и его соответствующая маска 70 заднего фона.
Входной кадр 68 фиг. 8 включает в себя двух игроков 44 и корт 32. На маске 70 заднего фона фиг.9 показаны зоны четырех цветов. Зоны 1 - 4 являются соответственно зонами цвета линий, цвета внутреннего корта, цвета внешнего корта и остальных цветов. Следует отметить, что зоны игроков 44 отмечены цветом 4 заднего фона и покрывают другие важные зоны, такие как зоны белых линий 1.
Блок 60 (фиг.7) извлекает из маски заднего фона 70 характеристики игрового поля. Для теннисного корта представляющими интерес характеристиками являются линии 38. Блок идентификации перспективы 62 сравнивает извлеченные характеристики с характеристиками модели 50 и создает из них матрицу преобразования (транформации).
При использовании маски преобразования трансформатор 64 преобразует данные имплантации изображения (то есть подлежащее имплантации изображение 42, маску локализации изображения 56 и маску смешивания 58) в перспективу входного видеокадра.
Наконец, при использовании маски локализации трансформированного изображения 56 и маски заднего фона 70 микшер 66 имплантирует перспективную версию изображения 42 в желательные участки заднего фона входного видеокадра. Так, например, когда игроки перемещаются на одной из частей корта 32, где имплантировано изображение 42, они будут перемещаться "над" имплантированным изображением. Если есть такое желание, то трансформированная маска смешивания 58 может быть использована для смешивания изображения 42 с цветами поля, на которое изображение 42 имплантировано.
Обратимся теперь к рассмотрению фиг.10, на которой детализирована работа блока идентификации характеристик 60. При осуществлении операции 72 блок 60 использует ПТ для одного многоцветного входного видеокадра в четырехцветное изображение, именуемое маской 70 заднего фона. В частности, для теннисного корта 32 ПТ имеет первое значение для пикселей, имеющих цвет линий 38, второе значение для пикселей, имеющих цвета внутреннего корта 36, третье значение для пикселей, имеющих цвета внешнего корта 40, и четвертое значение (указывающее пиксели заднего фона) для остальных пикселей. Это отображено на фиг. 9. ПТ может быть внедрена при помощи любого подходящего метода, которые известны сами по себе.
Маска заднего фона 70 не только определяет, какие пиксели принадлежат к представляющему интерес заднему фону, но и включает в себя представляющие интерес характеристики, такие как линии 38. Так, например, при проведении операции 74 блок идентификации характеристик 60 производит обработку маски заднего фона 70 для извлечения из нее представляющих интерес характеристик. Обычно, хотя и не обязательно, ПТ обычно проектируется так, чтобы выдавать характеристики единственным значением цвета.
В примере, относящемся к теннисному матчу, экстракция предусматривает повторный просмотр тех пикселей маски заднего фона 70, которые имеют первое значение, и экстрагирование из них прямых сегментов. Операция 74, например, может быть осуществлена при помощи преобразования Хуга, воздействующего на маску заднего фона 70. Преобразование Хуга описано на с. 121-126 книги Digital Picture Processing, Второе издание, том 2, 1982.
Результатом является решетка линейных параметров, каждый из которых описывает один прямой сегмент в маске заднего фона 70. Линейные параметры для каждого сегмента включают в себя коэффициенты линейного уравнения, описывающего его, также как и весовое значение, указывающее число пикселей, включенных в сегмент.
Альтернативный способ экстракции (извлечения) показан на фиг.11, 12 и 13. Как показано в общем виде на фиг.11, способ начинается с первого пикселя 69 (фиг. 12) маски заднего фона 70, имеющего представляющий интерес цвет (в данном примере белый), затем рассматривается окружающая его область 75 для определения, где здесь находятся более белые пиксели (отмеченные затенением). Для того, чтобы это сделать, окружающая область 75 делится на подсекторы 71-74 заранее определенного размера и строится гистограмма распределения белых пикселей в каждом подсекторе. На фиг.13 показана гистограмма для секторов 71-74 фиг.12 Один из подсекторов с высоким максимумом (подсектор 73) выбран как следующий сектор для поиска.
При осуществлении следующей операции выбирается новая окружающая область 78, которая состоит из выбранного подсектора 73 и его расширения. Полная окружающая область 78 вдвое длиннее окружающей области 75. Эта новая окружающая область 78 подразделяется на четыре подсектора 76 и процесс повторяется.
Этот процесс продолжается до выполнения одного из следующих критериев:
подсектор достаточно узок, чтобы его определить как прямую линию;
в гистограмме нет высокого максимума;
Если выполняется условие 1, то запоминаются коэффициенты прямой линии; затем "окрашиваются" пиксели, образующие прямую линию, таким образом, чтобы иметь "остаточный цвет", и устраняются из поиска.
При осуществлении процесса экстракции характеристики получают решетку возможных характеристик, которая включает в себя как истинные характеристики, так и прямые линии.
Обратимся теперь к фиг.14, на которой показана в общем виде работа блока идентификации перспективы 62 фиг.7. Фиг.15 и 16 полезны в понимании работы блока 62 в целом, на фиг.20 приведены детали работы блока 62 для примера теннисного корта 32, а фиг.17, 18, 19, 21 и 22 полезны для понимания показанных на фиг.20 операций.
Используя априорную информацию блок 62 в операции 80 производит обработку возможных характеристик и определяет, какая из них вероятнее всего является характеристикой, представляющей интерес. При проведении операции 82 блок 62 выбирает минимальный набор характеристик из результирующих истинных характеристик и пытается согласовать их с характеристиками модели 50. Процесс повторяется с необходимой частотой до получения согласования. При проведении операции 84 согласованные характеристики используют для выработки матрицы М трансформации, преобразующей модель в характеристики входного видеокадра.
В примере теннисного корта 32 при операции 80 используется тот факт, что линии 38 модели 50 параллельны в двух направлениях (вертикальном и горизонтальном) и что в перспективном изображении (таком как во входном видеокадре) линии, которые параллельны в действительности, пересекаются в конечной точке. Это показано на фиг.15, на которой все извлеченные линейные сегменты, показанные основными линиями, продолжены пунктиром. Перспективные линии, которые соответствуют в действительности параллельным линиям (например, псевдопараллельные линии 90), пересекаются в точке 91, удаленной от внешних краев 92 кадра. Все другие пересечения 94 происходят в пределах границ 92 или вблизи от них.
Однако, как показано на фиг.16, в результате ошибок цифрового преобразования может случиться так, что три псевдопараллельные линии встречаются не в единственной точке, а встреча происходит в трех разделенных точках 96.
Заявители пришли к выводу, что если перспективные параллельные линии не встречаются в бесконечности, то проекция экстрагированных линий в асимптотическую функцию будет создавать точки пересечения, расположенные вблизи друг от друга. Поэтому в соответствии с предпочтительным вариантом осуществления изобретения извлеченные линейные сегменты проецируются на двумерную асимптотическую функцию. Одна из таких проекций известна как "гномоническая проекция" и описана на с. 258, 259 и 275 книги Robot Vision, 1986, включенных в качестве ссылки. Примеры гномонической проекции показаны на фиг.17 и 18.
В гномонической проекции точка 100 в плоскости XY 102 проецируется в точку 100' на полусфере 104. Линия 106 в плоскости XY проецируется в большую дугу 106' на полусфере 104 (то есть в дугу большого круга сферы). Начальная точка отображается южным полюсом 109, а бесконечность отображена экватором 108. Таким образом, любой кластер 110 (фиг.18) точек вблизи экватора 108 отражает пересечения псевдопараллельных линий, поэтому линии, которые имеют точки, проходящие через кластер 110, являются параллельными линиями.
На фиг.18 показано множество больших дуг 120a-120f, соответствующих некоторым случайным извлеченным линейным сегментам (не показаны). Три дуги 120a - 120c имеют точку пересечения 122, которая образует кластер 110a вблизи экватора 108. Большие дуги 120d-120f также пересекаются вблизи от экватора в кластере 110b. Все большие дуги пересекаются друг с другом, однако их другие пересечения расположены ближе к южному полюсу 109, чем к экватору 108.
При осуществлении операции 130 (фиг.20) гномоническая проекция использована для создания больших дуг из решетки сегментов прямых линий, полученных при экстракции характеристик (операция 74, фиг.10).
При проведении операции 132 производится поиск зоны вокруг экватора 108, чтобы найти все точки пересечения 122. Каждой точке пересечения присваивается величина Vk, которая является функцией весов Wi линейных сегментов, которые пересекаются, и координаты Z точки пересечения 122. Пример функции Vk дан уравнением (1).
Vk=Wлиния 1•Wлиния 2• f(Zточка пересечения)
где
f (Zточка пересечения) представляет собой любую функцию, образующую кривую, аналогичную кривой 134 фиг.19, в которой большинство точек имеет низкое значение, и только точки, близкие к экватору 108 (Z=1), имеют значения, близкие к 1. Например, f(Zточка пересечения может быть Z5.
При проведении операции 136 небольшая область, окружающая точку пересечения 122, просматривается для поиска других точек пересечения. Если таковые находят, то известная точка пересечения и найденные точки пересечения запоминают как кластер 110 (фиг.18). Кластер 110 также определен как тот, в котором значение f (Zточка пересечения) превышает заданный порог. Таким образом, кластер 110 может включать в себя только одну точку пересечения. На фиг. 18 показаны три кластера 110a- 110c, один из которых, а именно кластер 110c, включает в себя только одну точку пересечения 122.
После того как все точки найдены, положение каждого кластера 110 определяется нахождением "центра тяжести" точек кластера. Вес кластера 110 является суммой значений Vk точек кластера.
При проведении операции 138 выбирают два кластера с наибольшими весами. Для показанного на фиг.18 примера выбирают кластеры 110a и 110b.
При проведении операции 140 принимают, что один кластер представляет "вертикальные" линии, а другой представляет "горизонтальные" линии. При проведении операции 140 также соответственно маркируют как "вертикальные" или "горизонтальные" прямые сегменты, соответствующие линиям двух выбранных кластеров.
При проведении операции 142 повторно просматривают "вертикальные" и "горизонтальные" линии и выбирают две вертикальные и две горизонтальные линии с самым "тяжелым" весом, что определяют при помощи значений Wi Выбранные для линиq фиг.15 линии 146 показаны на фиг.21. При проведении операции 144 определяют и запоминают точки пересечения A, B, C и D четырех выбранных линий. Как показано на фиг.21. выбранные линии могут пересекаться вне кадра.
Операции 130-144 необходимы для идентификации истинных характеристик в видеокадре (операция 80 фиг. 14). По завершении операции 144 получают характеристики, которые должны соответствовать модели. В остальных операциях согласовывают характеристики с моделью и определяют трансформацию (шаги 82 и 84 фиг.14) как интегральный набор операций.
Стандартный теннисный корт имеет четыре вертикальных и четыре горизонтальных линии. Так как невозможно сделать различие двух половин корта, то важными являются только три горизонтальные линии. Число различных четырехугольников, которые могут быть образованы выбором двух горизонтальных линий из трех (три возможные комбинации) и двух вертикальных линий из пяти (10 возможных комбинаций), равно тридцати. Тридцать четырехугольников могут иметь четыре возможных ориентации для общего числа 120 прямоугольников.
При проведении операции 150 выбирают один из 120 прямоугольников в геометрической модели 50 выбором его четырех углов A', B', C' и D' (фиг.22). Как можно видеть, это не является правильным совмещением.
При проведении операции 152 определяют матрицу трансформации М четырех точек модели A', B', C' и D' (фиг.22) в четыре точки A, B, C и D видеокадра (фиг. 21). Матрица M может быть представлена как суперпозиция последующих трансформаций, как это объясняется со ссылкой на фиг.23.
На фиг.23 показаны три четырехугольника 180, 182 и 184. Четырехугольник 180 является моделью четырехугольника ABCD, показанного в плоскости XY, четырехугольник 182 является единичным квадратом, имеющим точки (0, 1), (1, 1), (0, 0) и (1, 0) в плоскости TS, а четырехугольник 184 является перспективным четырехугольником в плоскости UV.
Трансформация M от четырехугольника модели 180 в перспективный четырехугольник 184 может быть представлена суперпозицией двух матриц трансформаций, а именно матрицы T трансляции и масштабирования от четырехугольника 180 в единичный квадрат 182 и перспективной матрицы P от единичного квадрата 182 в четырехугольник 184. Матрица T в гомогенных координатах имеет вид
Figure 00000002

где
Sx и Sy являются масштабными коэффициентами в направлениях X и Y, а Tx и Ty являются коэффициентами трансляции (линейного перемещения) в направлениях X и Y. Sx, Sy, Tx и Ty могут быть определены уравнением
(x,y,1)•T=(s,t,1)
для четырех координат (x,y,1) четырехугольника 180 и четырех координат (s,t,1) единичного квадрата 182.
Матрица P в гомогенных координатах имеет вид
Figure 00000003

Элементы матрицы P могут быть определены решением следующего уравнения:
(s,t,1)•P=(u,v,w)
в котором (u,v,w) отображает четыре известных координаты точек A, B, C и D четырехугольника 184, как это показано на фиг.23, причем w всегда нормализовано.
Положим, что a33=1, тогда P может быть вычислено следующим образом:
Из (s,t,1)=(0,0,1) находим, что:
a31=U00
a32=V00
Из (s,t,1)=(1,0,1) находим, что:
a11+a31=U10(a13+1) ⇒ a11=U10(a13+1)-Uoo
a12+a32=V10(a13+1) ⇒ a12=V10(a13+1)-Voo
Из (s,t,1)=(0,1,1) находим, что
Figure 00000004

Из (s,t,1)=(1,1,1) находим, что:
a11 + a21 + a31 = U11(a13 + a23 + 1)
a12 + a22 + a32 = V11(a13 + a23 + 1)
Из уравнений 7 - 9 можно получить два уравнения для двух неизвестных a13 и a23
a13(U10-U11)+a23(U01-U11)= U11+U00-U10-U01
a13(V10-V11)+a23(V01-V11)= V11+V00-V10-V01
После нахождения a13 и a23 остальные элементы могут быть определены из уравнений 7 и 8. Трансформацию или преобразование матрицы M получают как произведение матриц T и P
M=T•P.
При осуществлении операции 154 линии 38 модели 50 трансформируют в видеокадр с использованием матрицы преобразования M. В результате получают искривленный кадр 156 (фиг.24), в котором существуют единицы в местах нахождения преобразованных пикселей модели и нули во всех других местах. Как можно видеть, точки A', B', C' и D' совпадают с соответствующими точками A, B, C и D. Однако для остальной части геометрической модели 50 совпадения нет.
При осуществлении операции 158 искривленный кадр 156 совмещают по XOR с матрицей 70 заднего фона (фиг.9). На выходе операции XOR (ИЛИ) получают 0 в двух случаях: а) пиксели искаженного кадра 156 имеют значение 1 и пиксели видеокадра имеют поле цвета линии; и б) пиксели искаженного кадра 156 имеют значение 0 и пиксели видеокадра имеют "не линейный" цвет. В других ситуациях получают значение 1.
При осуществлении операций 160 и 161 подсчитывают число пикселей, имеющих значение 1, и эту величину объединяют с матрицей трансформации M.
После определения всех матриц М при осуществлении операции 162 выбирают матрицу с наименьшим весом. Так как имеется возможность, что согласование не сделано (например, если идет коммерческий показ, телекамера 30 направлена на зрителей и т.п.), то при осуществлении операции 164 производят сравнение с порогом весов выбранной матрицы. Если веса превышают порог, то тогда получают нулевую матрицу трансформации. В противном случае выбранную матрицу определяют как матрицу трансформации M. Нулевые матрицы трансформации получают также в любой из предыдущих операций при невыполнении условий проверки.
Обратимся теперь к рассмотрению фиг.25 на которой показана работа преобразователя (трансформатора) 64 и микшера 66 фиг.7. Преобразователь 64 использует матрицу трансформации M для дисторзии (искривления) каждого изображения 42, области изображения маски 56 и маски 58 смешивания в плоскости видеокадра (операция 170). При этом осуществляется операция И объединения искривленной области изображения маски с маской 70 заднего фона, в результате чего получают маску разрешения. Маска разрешения указывает те пиксели видеокадра, которые являются одновременно пикселями заднего фона и находятся в пределах области изображения. На эти пиксели должно быть имплантировано изображение.
Микшер 66 комбинирует искривленное изображение с видеокадром в соответствии с масками смешивания и разрешения. Формула, применимая для каждого пикселя (x,y), обычно выглядит так:
Figure 00000005

где выход (x, y) представляет собой значение пикселя выходного кадра, изображение (x, y) и видео (x,y) представляют собой значения имплантированного изображения 42 и видеокадра, соответственно, ∝ (x,y) представляет собой значение в маске смешивания 58, а P (x,y) представляет собой значение в маске разрешения.
В приведенном выше описании предполагается, что просмотровая таблица ПТ, которая позволяет получить маску заднего фона 70, остается неизменной в течение всего времени. Если освещение изменяется (что обычно происходит при играх вне помещения), то цвета в видеопоследовательности могут измениться и в результате маска заднего фона 70 не будет правильно указывать элементы заднего фона. Поэтому периодически следует проводить процедуру корректировки. Обратимся теперь к рассмотрению фиг.18, на которой описана процедура корректировки.
Как отмечалось ранее, при процессе калибровки выбираются оператором испытательные участки, указывающие представляющие интерес характеристики заднего фона (такие как линии поля и внутренние и внешние участки корта).
После того, как матрица для калибровки видеокадра определена, местоположения испытательных участков конвертируются из плоскости видеокадра в плоскость геометрической модели (например, с использованием инверсии матрицы М). Позднее, когда потребуется произвести калибровку, испытательные участки конвертируются в текущую плоскость видеокадра. Производится выбор искривленных испытательных участков в текущем видеокадре и производится оценка окружающей их области. Производится определение цветовых характеристик каждой окружающей области (с использованием, например, гистограмм) и результат сравнивается с характеристиками запомненных испытательных участков. Если имеется существенное изменение цветов, то ПТ корректируется, соответствующие испытательные участки конвертируются в геометрическую модель и запоминаются.
Следует иметь в виду, что способ в соответствии с настоящим изобретением подходит как для игры в теннис, так и для других ситуаций, в которых информация заднего фона фиксирована и известна. Описанный выше процесс может быть усовершенствован с использованием динамической балансировки белого и параметров камеры, как это описано ниже.
В том случае, когда может быть получена информация (задаваемая внешне или определяемая самой системой) о положении камеры, углах поворота и степени трансфокации, то описанные выше операции могут быть сокращены, так как число степеней свободы матрицы P перспективы сокращается.
В частности, матрица P перспективы содержит информацию о положении использованной камеры, углах поворота и степени трансфокации. Эта информация может быть извлечена и матрица P перспективы (или, аналогично, матрица трансформации M) может быть переопределена как функция каждого из параметров камеры.
На фиг.27 показана камера и ее параметры. Положение камеры показано вектором 171, имеющим координаты (x, y, z) с началом отсчета О системы координат X, Y, Z 172. Соответствующие крены, наклоны, повороты и панорамирование камеры относительно связанных с камерой осей U, V и W показаны стрелками 173, 174 и 175. Кроме того, объектив камеры может иметь трансфокацию вдоль оси V, как это показано стрелкой 176.
Предположим, что камера не имеет крена и что формат изображения (соотношение между шириной и высотой пикселя изображения, создаваемого камерой) таков, что пиксель квадратный. В этом случае матрица перспективы P может быть параметризована как функция местоположения камеры (x, y, z) и ее наклона, поворота и трансфокации. Предполагается, что от кадра к кадру камера не изменяет своего положения, но только меняются ее наклон, поворот, углы и трансфокация.
На фиг.28, 29 и 30 представлен способ определения и последующего использования параметров камеры. На фиг. 28, когда новый кадр идентифицируют в видеопотоке, то осуществляют полный процесс идентификации перспективы (операция 180), как это показано на фиг.10, для первого нового кадра. В результате операции 180 получают элементы а (i,j)) матрицы перспективы P. Процесс продолжается в двух направлениях:
а) производят определение матрицы трансформации Т, начиная с операции 154 фиг. 20 и
б) извлекают координаты камеры (x, y, z) из матрицы P (операция 184), как это описано в разделе 3.4 книги "Трехмерное компьютерное видение: геометрическая точка зрения"(Three-Dimensionl Computer Vision: A Geometric Viewpoint, Oliver Faugeras, MIT Press, 1993).
После того, как извлечены координаты камеры (x, y, z), осуществляют две проверки (операции 186 и 188) следующим образом.
Условие 186: камера не имеет крена в направлении 174. Крен присутствует, если элемент a13 не равен нулю.
Условие 188: формат изображения камеры (AR) дает квадратные пиксели (то есть AR = 1).
Если любое из условий не выполняется, то сокращение процесса не может быть достигнуто.
Если выполняются оба условия, то тогда, как это показано в упомянутой книге "Трехмерное компьютерное видение: геометрическая точка зрения", 1993, матрица P может быть повторно представлена (операция 190) как произведение следующих матриц:
а) трансфокация (f): матрица проекции камеры в фокальную плоскость;
б) трансляция (поступательное перемещение): матрица трансляции из исходной системы координат в вычисленное положение камеры (x, y, z);
в) наклон (∝ ) : матрица поворота вокруг оси U на угол ∝; и
г) поворот (Θ): матрица поворота вокруг оси W на угол Θ .
После получения величин трансфокации, наклона, поворота и трансляции первая камера полностью откалибрована (операция 192) и ее параметры введены в таблицу 194 идентифицированных камер (показанную на фиг.29). Аналогично описанному могут быть идентифицированы и зарегистрированы в таблице 194 и другие камеры.
Сокращенный процесс вычисления, описанный со ссылкой на фиг.30, после этого осуществляется для всех кадров. Кадр исследуется (операция 196) для определения его аналогичности предшествующим кадрам с использованием ∝, Θ и f. Аналогичность измеряется при помощи коэффициентов согласования (т.е. путем оценки процента представляющих интерес пикселей в кадре, успешно преобразованных в модель с использованием вычисленной матрицы). Если получено хорошее соответствие, то вычисленная матрица может быть использована для осуществления процесса ввода (описанного со ссылкой на фиг.25). Если коэффициент согласования невысок, то имеется возможность того, что данный кадр снят другой камерой с таблицей 194.
Для нахождения другой камеры текущий кадр должен быть вновь просмотрен и одна из его линий должна быть идентифицирована. Кроме того, одна из точек идентифицированной линии, такая как точка пересечения с другой линией, также должна быть идентифицирована (операция 198). Обычно идентифицированной линией является самая "мощная" линия.
При проведении операции 200 следующим образом определяют величину согласования для каждой камеры, указанную в таблице 194.
Идентифицированные линия и точка объединяются с линией и точкой в геометрической модели, затем для этого объединения определяют матрицу перспективы P, которая трансформирует линию и точку модели в идентифицированные линию и точку. Так как каждая матрица перспективы P является функцией координат (x, y, z) текущей камеры (которая известна) и наклона ∝ , поворота Θ и трансфокации f (которые неизвестны), то результирующая матрица может быть определена через величины наклона, поворота и трансфокации, которые могут быть подсчитаны, в предположении, что идентифицированные линия и точка надлежащим образом соответствуют линии и точке модели.
Как и в способе в соответствии с фиг.14 определяют матрицу M трансформации из матрицы перспективы P, а затем трансформируют при помощи матрицы M геометрическую модель в плоскость изображения в кадре. Линии модели совпадают с линиями изображения и с полученной величиной согласования.
Процесс объединения линии и точки модели с идентифицированными линией и точкой, создания матрицы перспективы P из известных координат камеры и объединения линий и точек, а также получения в результате величины согласования повторяют для каждой комбинации линии и точки в геометрической модели. Если величины согласования значительно меньше 1, что свидетельствует о плохом согласовании, то описанный выше процесс согласования для идентифицированной линии и точки повторяют для другой камеры, координаты которой (x, y, z) известны.
Самый большой вычисленный коэффициент согласования для каждой камеры вводят в колонку 202 таблицы 194 (фиг.29). При осуществлении операции 204 выбирают камеру с наибольшим значением коэффициента 202, а затем, если этот коэффициент превышает заданный порог, его матрицу перспективы P используют в процессе встраивания (введения) изображения фиг.25. Если наибольший коэффициент в колонке 202 имеет значение ниже порога, то известная камера используется для съемки текущих кадров. Процесс фиг.14 может быть осуществлен в соответствии с процессом идентификации фиг.28.
Несмотря на то, что был описан предпочтительный вариант осуществления изобретения, совершенно ясно, что в него специалистами в данной области могут быть внесены изменения и дополнения, которые не выходят однако за рамки приведенной далее формулы изобретения.

Claims (22)

1. Способ имплантации изображения в один одновременно выбранный из множества видеокадров, отображающих поток действий, происходящих в пределах пространства заднего фона, причем это пространство имеет фиксированные плоские поверхности и сканируется по меньшей мере одной видеокамерой, отличающийся тем, что он включает в себя следующие операции: выработка модели одной выбранной из указанных фиксированных поверхностей, не зависящей от указанного множества видеокадров, которая включает в себя отображение геометрических характеристик, отличительных для данной поверхности, и использование указанной модели для имплантации указанного изображения в указанные кадры, причем эта операция использования включает в себя операцию перспективного искривления указанной модели.
2. Способ по п.1, отличающийся тем, что указанные геометрические характеристики включают в себя по меньшей мере одну из групп, образованных линиями и дугами.
3. Способ по п.2, отличающийся тем, что он дополнительно включает в себя операцию выработки индикации плоской связи между индивидуальными линиями и дугами.
4. Способ по п.1, отличающийся тем, что указанное отображение является плоским векторным отображением.
5. Устройство для имплантации изображения в один одновременно выбранный из множества видеокадров, отображающих поток действий, происходящих в пределах пространства заднего фона, причем это пространство имеет фиксированные плоские поверхности и сканируется по меньшей мере одной видеокамерой, отличающееся тем, что оно включает в себя средства для выработки модели одной выбранной из указанных фиксированных поверхностей, не зависящей от указанного множества видеокадров, которая включает в себя отображение геометрических характеристик, отличительных для данной поверхности, и средства для использования указанной модели для имплантации указанного изображения в указанные кадры, причем указанные средства для использования включает в себя средства для перспективного искривления указанной модели.
6. Устройство по п.5, отличающееся тем, указанные геометрические характеристики включают в себя по меньшей мере одну из групп, образованных линиями и дугами.
7. Устройство по п.6, отличающееся тем, что оно дополнительно включает в себя средства для выработки индикации плоской связи между индивидуальными линиями и дугами.
8. Устройство по п.5, отличающееся тем, что указанное отображение является плоским векторным отображением.
9. Способ имплантации изображения в один одновременно выбранный из множества видеокадров, отображающих поток действий, происходящих в пределах пространства заднего фона, причем это пространство имеет фиксированные плоские поверхности и сканируется по меньшей мере одной видеокамерой, отличающийся тем, что он включает в себя следующие операции: выработка модели одной выбранной из указанных фиксированных поверхностей, которая включает в себя отображение геометрических характеристик, отличительных для данной поверхности, использование указанной модели для перспективного искривления указанного изображения так, чтобы представить его главным образом в той же перспективе в указанном выбранном кадре, выработка маски заднего фона указанного выбранного кадра, который включает в себя по меньшей мере один из участков указанной фиксированной поверхности, причем указанная маска заднего фона ограничивает как изменяемые области указанного выбранного кадра, так и неизмененные его области, и замешивание указанного перспективного искривления изображения в указанный выбранный участок указанной изменяемой области, в результате чего происходит имплантация указанного изображения в указанный выбранный кадр.
10. Способ по п.9, отличающийся тем, что указанная выработка указанной модели предусматривает выработку указанной модели независимо от указанного множества видеокадров.
11. Способ по п.9, отличающийся тем, что указанное использование предусматривает использование указанной модели и выбранной изменяемой области для получения маски трансформации, которая перспективно искривляет указанное изображение.
12. Способ по п.9, отличающийся тем, что он дополнительно предусматривает создание, ранее указанного использования, маски локализации изображения, определяющей местоположение указанного изображения по отношению к указанной модели, в результате чего указанная маска локализации изображения искривлена в указанном изображении.
13. Способ по п.12, отличающийся тем, что указанное замешивание предусматривает добавление указанной искривленной маски локализации изображения и указанной выбранной изменяемой области указанной маски заднего фона, в результате чего получают маску разрешения, ограничивающую пиксели в указанном кадре, в которые имплантируют соответствующие пиксели указанного изображения.
14. Способ по п.13, отличающийся тем, что он дополнительно предусматривает выработку перспективно искривленной маски смешивания, которая ограничивает величины прозрачности, при этом указанное замешивание дополнительно предусматривает микширование указанного изображения, указанной маски разрешения и указанной маски смешивания, в результате чего осуществляют имплантирование указанного изображения с желательными цветовыми значениями.
15. Способ по п.14, отличающийся тем, что указанное микширование предусматривает присвоение одного цветового значения каждому пикселю (х,у), причем цветовое значение для пикселя (x,y) = β(x,y)* изображение (x,y)+(1-β(x,y))*кадр(x,y) причем β(x,y) = ∝(x,y)*P(x,y), при этом ∝(x,y) и P(x,y) представляет собой значения масок смешивания и разрешения для пикселя (х,у), причем изображение (х,у) имеет указанное значение изображения для пикселя (х,у), а указанный кадр (х,у) имеет значение указанной выбранной изменяемой области для пикселя (х,у).
16. Устройство для имплантации изображения в один одновременно выбранный из множества видеокадров, отображающих поток действий, происходящих в пределах пространства заднего фона, причем это пространство имеет фиксированные плоские поверхности и сканируется по меньшей мере одной видеокамерой, отличающееся тем, что оно включает в себя средства для выработки модели одной выбранной из указанных фиксированных поверхностей, которая включает в себя отображение геометрических характеристик, отличительных для данной поверхности, средства для использования указанной модели для перспективного искривления указанного изображения так, чтобы представить его главным образом в той же перспективе в указанном выбранном кадре, средства для выработки маски заднего фона указанного выбранного кадра, который включает в себя по меньшей мере один из участков указанной фиксированной поверхности, причем указанная маска заднего фона ограничивает как изменяемые области указанного выбранного кадра, так и неизменяемые его области, и средства для замешивания указанного перспективного искривленного изображения в указанный выбранный участок указанной изменяемой области, в результате чего происходит имплантация указанного изображения в указанный выбранный кадр.
17. Устройство по п.16, отличающееся тем, что указанная выработка указанной модели предусматривает выработку модели независимо от указанного множества видеокадров.
18. Устройство по п. 16, отличающееся тем, что указанные средства для использования включают в себя средства для использования указанной модели и выбранной изменяемой области для получения маски трансформации, которая перспективно искривляет указанное изображение.
19. Устройство по п.16, отличающееся тем, что дополнительно включает в себя средства получения, работающие ранее указанных средств для использования, маски локализации изображения, определяющей местоположение указанного изображения по отношению к указанной модели, в результате чего указанная маска локализации изображения искривлена в указанном изображении.
20. Устройство по п.19, отличающееся тем, что указанные средства для замешивания включает в себя средства для добавления указанной искривленной маски локализации изображения и указанной выбранной изменяемой области указанной маски заднего фона, в результате чего получают маску разрешения, ограничивающую пиксели в указанном кадре, в которые имплантированы соответствующие пиксели указанного изображения.
21. Устройство по п.20, отличающееся тем, что дополнительно включает в себя средства для выработки перспективно искривленной маски смешивания, которая ограничивает величины прозрачности, при этом указанные средства для смешивания дополнительно включают в себя средства микширования указанного изображения, указанной маски разрешения и указанной маски смешивания, в результате чего осуществляют имплантирование указанного изображения с желательными цветовыми значениями.
22. Устройство по п.21, отличающееся тем, что указанные средства для микширования включает в себя средства для присвоения одного цветового значения каждому пикселю (х,у), причем цветовое значение для пикселя (x,y) = β(x,y)* изображение (x,y)+(1-β(x,y))*кадр(x,y), причем β(x,y) = ∝(x,y)*P(x,y), при этом ∝(x,y) и P(x,y) представляют собой значения масок смашивания и разрешения для пикселя (х,у), причем изображение (х,у) имеет указанное значение изображения для пикселя (х,у), а указанный кадр (х,у) имеет значение указанной выбранной изменяемой области для пикселя (х,у).
RU96121405A 1994-03-14 1995-02-27 Способ имплантации изображения и устройство для его осуществления RU2108005C1 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IL108,957 1994-03-14
IL10895794A IL108957A (en) 1994-03-14 1994-03-14 Video sequence imaging system
PCT/US1995/002424 WO1995025399A1 (en) 1994-03-14 1995-02-27 A system for implanting an image into a video stream

Publications (2)

Publication Number Publication Date
RU2108005C1 true RU2108005C1 (ru) 1998-03-27
RU96121405A RU96121405A (ru) 1999-01-10

Family

ID=11065923

Family Applications (1)

Application Number Title Priority Date Filing Date
RU96121405A RU2108005C1 (ru) 1994-03-14 1995-02-27 Способ имплантации изображения и устройство для его осуществления

Country Status (22)

Country Link
US (2) US5491517A (ru)
EP (1) EP0750819B1 (ru)
JP (1) JPH09510336A (ru)
KR (1) KR100260786B1 (ru)
CN (1) CN1087549C (ru)
AT (1) ATE211872T1 (ru)
AU (1) AU692529B2 (ru)
BG (1) BG62114B1 (ru)
BR (1) BR9507057A (ru)
CA (1) CA2179031C (ru)
CZ (1) CZ286248B6 (ru)
DE (1) DE69524946D1 (ru)
HU (1) HU220409B (ru)
IL (1) IL108957A (ru)
LV (1) LV11716B (ru)
NO (1) NO963811L (ru)
NZ (1) NZ282275A (ru)
PL (1) PL176135B1 (ru)
RU (1) RU2108005C1 (ru)
TW (1) TW367452B (ru)
WO (1) WO1995025399A1 (ru)
ZA (1) ZA951403B (ru)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000014958A1 (fr) * 1998-09-04 2000-03-16 Latypov Nurakhmed Nurislamovic Procede de creation de programmes video, variantes, et systeme de mise en oeuvre de ce procede
WO2003036557A1 (en) * 2001-10-22 2003-05-01 Intel Zao Method and apparatus for background segmentation based on motion localization
RU2443070C1 (ru) * 2007-12-13 2012-02-20 Суппонор Ой Способ изменения содержания телевизионного изображения
RU2480832C2 (ru) * 2009-12-23 2013-04-27 Интел Корпорейшн Совмещение игрового поля на основе модели
RU2572207C2 (ru) * 2010-09-20 2015-12-27 Фраунхофер-Гезелльшафт Цур Фёрдерунг Дер Ангевандтен Форшунг Э.Ф. Способ различения фона и переднего плана сцены и способ замены фона в изображениях сцены
RU2612378C1 (ru) * 2013-03-08 2017-03-09 ДиджитАрена СА Способ замены объектов в потоке видео
RU2673966C1 (ru) * 2017-10-23 2018-12-03 Федеральное государственное казенное военное образовательное учреждение высшего образования "Академия Федеральной службы охраны Российской Федерации" (Академия ФСО России) Способ идентификации кадров в потоке мультимедийных данных

Families Citing this family (183)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US5903317A (en) * 1993-02-14 1999-05-11 Orad Hi-Tech Systems Ltd. Apparatus and method for detecting, identifying and incorporating advertisements in a video
EP0792068B1 (en) * 1993-10-27 1999-11-03 Princeton Video Image, Inc. . Downstream control of electronic billboard
IL109487A (en) 1994-04-29 1996-09-12 Orad Hi Tec Systems Ltd Chromakeying system
EP0711078B1 (en) 1994-11-04 2002-05-15 Matsushita Electric Industrial Co., Ltd. Picture coding apparatus and method
US5726716A (en) * 1995-03-07 1998-03-10 Nec Corporation Perspective representation system for displaying portions of an original picture in a displayable picture
US6047130A (en) * 1995-04-24 2000-04-04 Environmental Protection Systems, Inc. Apparatus and method for portrait photography
US5892554A (en) * 1995-11-28 1999-04-06 Princeton Video Image, Inc. System and method for inserting static and dynamic images into a live video broadcast
AU6276196A (en) * 1995-06-16 1997-01-15 Princeton Video Image, Inc. System and method of real time insertions into video using adaptive occlusion with a synthetic reference image
US5912700A (en) * 1996-01-10 1999-06-15 Fox Sports Productions, Inc. System for enhancing the television presentation of an object at a sporting event
GB9514313D0 (en) * 1995-07-13 1995-09-13 Beattie Robert J Live-ads
GB2305050A (en) * 1995-09-08 1997-03-26 Orad Hi Tec Systems Ltd Determining the position of a television camera for use in a virtual studio employing chroma keying
GB9601101D0 (en) * 1995-09-08 1996-03-20 Orad Hi Tech Systems Limited Method and apparatus for automatic electronic replacement of billboards in a video image
US20090012864A1 (en) * 2007-07-02 2009-01-08 Goldberg Sheldon F Compensation model for network services
US9530150B2 (en) * 1996-01-19 2016-12-27 Adcension, Llc Compensation model for network services
GB2312582A (en) * 1996-01-19 1997-10-29 Orad Hi Tech Systems Limited Insertion of virtual objects into a video sequence
US6264560B1 (en) 1996-01-19 2001-07-24 Sheldon F. Goldberg Method and system for playing games on a network
US5823879A (en) * 1996-01-19 1998-10-20 Sheldon F. Goldberg Network gaming system
EP0896772A4 (en) 1996-04-29 2001-12-05 Princeton Video Image Inc ELECTRONIC INSERTION OF VISUAL ELEMENTS ASSORTED WITH SOUND EFFECTS IN VIDEO SIGNALS
JP2947170B2 (ja) * 1996-05-29 1999-09-13 日本電気株式会社 線対称図形整形装置
WO1997047130A1 (es) * 1996-06-04 1997-12-11 Rafael Calvo Beca Plato virtual movil
SE506544C2 (sv) * 1996-06-20 1998-01-12 Telia Ab Anordning och metod för generering av digitala reklamskyltar
US6075542A (en) * 1996-07-29 2000-06-13 Eastman Kodak Company Method of combining two digital images
US5696995A (en) * 1996-08-30 1997-12-09 Huang; Sming Automatic photography booth
US6229904B1 (en) * 1996-08-30 2001-05-08 American Alpha, Inc Automatic morphing photography booth
US5897220A (en) * 1996-08-30 1999-04-27 American Alpha Inc. Automatic photograph booth for forming sketches
GB9619117D0 (en) * 1996-09-12 1996-10-23 Pandora Int Ltd Digital image processing
US5917553A (en) * 1996-10-22 1999-06-29 Fox Sports Productions Inc. Method and apparatus for enhancing the broadcast of a live event
JPH10145674A (ja) 1996-11-12 1998-05-29 Sony Corp ビデオ信号処理装置及びビデオ信号処理方法
JP3480648B2 (ja) * 1996-11-12 2003-12-22 ソニー株式会社 ビデオ信号処理装置及びビデオ信号処理方法
US6100925A (en) * 1996-11-27 2000-08-08 Princeton Video Image, Inc. Image insertion in video streams using a combination of physical sensors and pattern recognition
EP0943211B1 (en) * 1996-11-27 2008-08-13 Princeton Video Image, Inc. Image insertion in video streams using a combination of physical sensors and pattern recognition
BR9714949A (pt) * 1996-12-20 2005-04-12 Princeton Video Image Inc Dispositivo de ajuste superior para inserção eletrônica direcionada de indicações em vìdeo
US6072537A (en) * 1997-01-06 2000-06-06 U-R Star Ltd. Systems for producing personalized video clips
US6252632B1 (en) 1997-01-17 2001-06-26 Fox Sports Productions, Inc. System for enhancing a video presentation
US5953077A (en) * 1997-01-17 1999-09-14 Fox Sports Productions, Inc. System for displaying an object that is not visible to a camera
JPH10232940A (ja) * 1997-02-20 1998-09-02 Sony Corp コーナ検出装置及びコーナ検出方法
US6209028B1 (en) 1997-03-21 2001-03-27 Walker Digital, Llc System and method for supplying supplemental audio information for broadcast television programs
US7143177B1 (en) 1997-03-31 2006-11-28 West Corporation Providing a presentation on a network having a plurality of synchronized media types
WO1998044733A1 (en) * 1997-03-31 1998-10-08 Broadband Associates Method and system for providing a presentation on a network
US7490169B1 (en) 1997-03-31 2009-02-10 West Corporation Providing a presentation on a network having a plurality of synchronized media types
US7412533B1 (en) 1997-03-31 2008-08-12 West Corporation Providing a presentation on a network having a plurality of synchronized media types
GB9712724D0 (en) * 1997-06-18 1997-08-20 Holmes Steven Method and apparatus for interaction with broadcast television content
US6011595A (en) * 1997-09-19 2000-01-04 Eastman Kodak Company Method for segmenting a digital image into a foreground region and a key color region
US6061088A (en) * 1998-01-20 2000-05-09 Ncr Corporation System and method for multi-resolution background adaptation
US6750919B1 (en) 1998-01-23 2004-06-15 Princeton Video Image, Inc. Event linked insertion of indicia into video
US6258418B1 (en) 1998-06-24 2001-07-10 Ronald A. Rudder Method for producing diamond-tiled cooking utensils and other workpieces for durable stick-resistant surfaces
US6229550B1 (en) 1998-09-04 2001-05-08 Sportvision, Inc. Blending a graphic
US6266100B1 (en) 1998-09-04 2001-07-24 Sportvision, Inc. System for enhancing a video presentation of a live event
GB2344714A (en) * 1998-09-22 2000-06-14 Orad Hi Tec Systems Ltd Method and apparatus for creating real digital video effects
US6525780B1 (en) * 1998-12-18 2003-02-25 Symah Vision, Sa “Midlink” virtual insertion system
US11109114B2 (en) 2001-04-18 2021-08-31 Grass Valley Canada Advertisement management method, system, and computer program product
US20010017671A1 (en) * 1998-12-18 2001-08-30 Pierre Pleven "Midlink" virtual insertion system and methods
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US6381362B1 (en) * 1999-04-08 2002-04-30 Tata America International Corporation Method and apparatus for including virtual ads in video presentations
US6466275B1 (en) * 1999-04-16 2002-10-15 Sportvision, Inc. Enhancing a video of an event at a remote location using data acquired at the event
ES2158797B1 (es) * 1999-08-12 2002-04-01 Nieto Ramon Rivas Dispositivo generador multiuso y/o multidestino de los contenidos en modulos o paneles publicitarios, informativos u ornamentaltes y similatres, que quedan integrados en las imagenes retransmitidas y/o filmadas.
US7996878B1 (en) * 1999-08-31 2011-08-09 At&T Intellectual Property Ii, L.P. System and method for generating coded video sequences from still media
AU1250501A (en) * 1999-09-10 2001-04-10 Quokka Sports, Inc. A system for distributing and delivering multiple streams of multimedia data
JP4427140B2 (ja) * 1999-09-28 2010-03-03 株式会社東芝 オブジェクト映像表示装置
US8341662B1 (en) 1999-09-30 2012-12-25 International Business Machine Corporation User-controlled selective overlay in a streaming media
US7010492B1 (en) 1999-09-30 2006-03-07 International Business Machines Corporation Method and apparatus for dynamic distribution of controlled and additional selective overlays in a streaming media
US7075556B1 (en) * 1999-10-21 2006-07-11 Sportvision, Inc. Telestrator system
US7230653B1 (en) * 1999-11-08 2007-06-12 Vistas Unlimited Method and apparatus for real time insertion of images into video
IL149543A0 (en) * 1999-11-08 2002-11-10 Mirage Systems Inc Method and apparatus for real time insertion of images into video
US6335765B1 (en) * 1999-11-08 2002-01-01 Weather Central, Inc. Virtual presentation system and method
AU2090701A (en) * 1999-12-13 2001-06-18 Princeton Video Image, Inc. 2-d/3-d recognition and tracking algorithm for soccer application
US6573945B1 (en) * 2000-01-12 2003-06-03 General Instrument Corporation Logo insertion on an HDTV encoder
IL134182A (en) 2000-01-23 2006-08-01 Vls Com Ltd Method and apparatus for visual lossless pre-processing
US6909438B1 (en) 2000-02-04 2005-06-21 Sportvision, Inc. Video compositor
US6593973B1 (en) 2000-03-21 2003-07-15 Gateway, Inc. Method and apparatus for providing information in video transitions
JP2001283079A (ja) * 2000-03-28 2001-10-12 Sony Corp 通信サービス方法とその装置、通信端末装置、通信システム、広告宣伝方法
KR20000054304A (ko) * 2000-06-01 2000-09-05 이성환 방송 중계 영상 화면에 광고를 삽입하는 시스템 및 그제어방법
US6753929B1 (en) * 2000-06-28 2004-06-22 Vls Com Ltd. Method and system for real time motion picture segmentation and superposition
JP3564701B2 (ja) * 2000-09-01 2004-09-15 オムロン株式会社 画像印刷装置および方法
US7319479B1 (en) 2000-09-22 2008-01-15 Brickstream Corporation System and method for multi-camera linking and analysis
JP2007189730A (ja) * 2000-12-27 2007-07-26 Casio Comput Co Ltd 画像加工システム、光源、撮像装置、及び、画像加工プログラム
KR20010035174A (ko) * 2001-01-10 2001-05-07 엄장필 컴퓨터 중독 방지 시스템
JP4596201B2 (ja) * 2001-02-01 2010-12-08 ソニー株式会社 画像処理装置および方法、並びに記録媒体
US6856323B2 (en) * 2001-04-09 2005-02-15 Weather Central, Inc. Layered image rendering
US7224403B2 (en) * 2001-04-17 2007-05-29 Bowden Raymond E Televised scoreboard or statistics presentation with colors corresponding to players' uniforms
US20020149698A1 (en) * 2001-04-17 2002-10-17 Bowden Raymond E. Scoreboard tied to players
US6870945B2 (en) * 2001-06-04 2005-03-22 University Of Washington Video object tracking by estimating and subtracting background
US7231651B2 (en) * 2001-06-18 2007-06-12 Ta-Ching Pong System and method for insertion and modification of advertisements
KR20030002919A (ko) * 2001-07-02 2003-01-09 에이알비전 (주) 방송 영상에서의 실시간 이미지 삽입 시스템
KR100387901B1 (ko) * 2001-07-03 2003-06-18 에이알비전 (주) 카메라 센서를 이용한 이미지 추적 및 삽입 시스템
US7206434B2 (en) 2001-07-10 2007-04-17 Vistas Unlimited, Inc. Method and system for measurement of the duration an area is included in an image stream
JP2005516620A (ja) * 2001-07-24 2005-06-09 ユニバーシティ オブ ピッツバーグ ポリウレタンコーティング内のジイソプロピルフルオロホスファターゼの不可逆的固定化
GB0120134D0 (en) * 2001-08-17 2001-10-10 Nokia Corp Improvements in or relating to communication networks and methods of distributing information around the network
DE10140902A1 (de) * 2001-08-21 2003-03-27 Klaus Saitzek Sportbande
US7019764B2 (en) * 2001-09-20 2006-03-28 Genesis Microchip Corporation Method and apparatus for auto-generation of horizontal synchronization of an analog signal to digital display
US7341530B2 (en) * 2002-01-09 2008-03-11 Sportvision, Inc. Virtual strike zone
KR20030090372A (ko) * 2002-05-23 2003-11-28 주식회사 밀리오네어즈 디지털 방송 중계를 위한 광고 교체 방법 및 그 장치
US20040002896A1 (en) * 2002-06-28 2004-01-01 Jenni Alanen Collection of behavior data on a broadcast data network
US20040100563A1 (en) 2002-11-27 2004-05-27 Sezai Sablak Video tracking system and method
US20040116183A1 (en) * 2002-12-16 2004-06-17 Prindle Joseph Charles Digital advertisement insertion system and method for video games
EP1606332B1 (en) 2003-03-27 2016-04-27 Milliken & Company High-strength black polyurethane foams
US20040194128A1 (en) * 2003-03-28 2004-09-30 Eastman Kodak Company Method for providing digital cinema content based upon audience metrics
US20040194127A1 (en) * 2003-03-28 2004-09-30 Eastman Kodak Company Method and system for modifying digital cinema frame content
US20040194123A1 (en) * 2003-03-28 2004-09-30 Eastman Kodak Company Method for adapting digital cinema content to audience metrics
US7116342B2 (en) * 2003-07-03 2006-10-03 Sportsmedia Technology Corporation System and method for inserting content into an image sequence
SE0302065D0 (sv) * 2003-07-14 2003-07-14 Stefan Carlsson Video - method and apparatus
GB2408164A (en) * 2003-11-12 2005-05-18 Alastair Breward Controlling a dynamic display apparatus
US7171024B2 (en) * 2003-12-01 2007-01-30 Brickstream Corporation Systems and methods for determining if objects are in a queue
JP2005184458A (ja) * 2003-12-19 2005-07-07 Canon Inc 映像信号処理装置
JP4813376B2 (ja) * 2004-01-20 2011-11-09 トムソン ライセンシング テレビ制作技術
US7382400B2 (en) * 2004-02-19 2008-06-03 Robert Bosch Gmbh Image stabilization system and method for a video camera
US7742077B2 (en) * 2004-02-19 2010-06-22 Robert Bosch Gmbh Image stabilization system and method for a video camera
US7590310B2 (en) 2004-05-05 2009-09-15 Facet Technology Corp. Methods and apparatus for automated true object-based image analysis and retrieval
US9210312B2 (en) * 2004-06-02 2015-12-08 Bosch Security Systems, Inc. Virtual mask for use in autotracking video camera images
US20050270372A1 (en) * 2004-06-02 2005-12-08 Henninger Paul E Iii On-screen display and privacy masking apparatus and method
US8212872B2 (en) * 2004-06-02 2012-07-03 Robert Bosch Gmbh Transformable privacy mask for video camera images
US7903902B2 (en) 2004-07-26 2011-03-08 Sheraizin Semion M Adaptive image improvement
US7639892B2 (en) * 2004-07-26 2009-12-29 Sheraizin Semion M Adaptive image improvement
SG119229A1 (en) * 2004-07-30 2006-02-28 Agency Science Tech & Res Method and apparatus for insertion of additional content into video
CN100337473C (zh) * 2004-09-30 2007-09-12 中国科学院计算技术研究所 运动视频的全景图合成方法
US7526142B2 (en) * 2005-02-22 2009-04-28 Sheraizin Vitaly S Enhancement of decompressed video
US7451041B2 (en) * 2005-05-06 2008-11-11 Facet Technology Corporation Network-based navigation system having virtual drive-thru advertisements integrated with actual imagery from along a physical route
GB0510793D0 (en) * 2005-05-26 2005-06-29 Bourbay Ltd Segmentation of digital images
FR2875038B1 (fr) * 2005-06-29 2007-04-06 Leo Vision Soc Par Actions Sim Procede pour tracer des objets graphiques virtuels sur des images d'un terrain notamment un terrain de jeu pour un evenement sportif
US20070035665A1 (en) * 2005-08-12 2007-02-15 Broadcom Corporation Method and system for communicating lighting effects with additional layering in a video stream
IL170320A (en) * 2005-08-17 2010-04-29 Orad Hi Tec Systems Ltd System and method for managing the visual effects insertion in a video stream
KR100703704B1 (ko) 2005-11-02 2007-04-06 삼성전자주식회사 동적 영상물 자동 생성 장치 및 방법
US7596540B2 (en) 2005-12-01 2009-09-29 Exent Technologies, Ltd. System, method and computer program product for dynamically enhancing an application executing on a computing device
US8629885B2 (en) 2005-12-01 2014-01-14 Exent Technologies, Ltd. System, method and computer program product for dynamically identifying, selecting and extracting graphical and media objects in frames or scenes rendered by a software application
US7596536B2 (en) 2005-12-01 2009-09-29 Exent Technologies, Ltd. System, method and computer program product for dynamically measuring properties of objects rendered and/or referenced by an application executing on a computing device
US20070296718A1 (en) * 2005-12-01 2007-12-27 Exent Technologies, Ltd. Dynamic resizing of graphics content rendered by an application to facilitate rendering of additional graphics content
US20070160123A1 (en) * 2006-01-11 2007-07-12 Gillespie Richard P System for isolating an object in a broadcast signal
CN101512553B (zh) 2006-07-16 2012-06-20 西姆比有限公司 用于虚拟内容安置的系统和方法
US8098330B2 (en) * 2006-07-28 2012-01-17 International Business Machines Corporation Mapping of presentation material
US20080117333A1 (en) * 2006-11-17 2008-05-22 Disney Enterprises, Inc. Method, System And Computer Program Product For Video Insertion
US10885543B1 (en) 2006-12-29 2021-01-05 The Nielsen Company (Us), Llc Systems and methods to pre-scale media content to facilitate audience measurement
US8572642B2 (en) 2007-01-10 2013-10-29 Steven Schraga Customized program insertion system
US9363576B2 (en) 2007-01-10 2016-06-07 Steven Schraga Advertisement insertion systems, methods, and media
FR2912026B1 (fr) * 2007-01-29 2010-03-12 Cineact Procede de generation d'un signal de modification et d'une sequence infographique, signal source, sequence infographique, procede et dispositif de diffusion et systeme de gestion correspondants
EP1959692B9 (en) * 2007-02-19 2011-06-22 Axis AB A method for compensating hardware misalignments in a camera
US8335345B2 (en) 2007-03-05 2012-12-18 Sportvision, Inc. Tracking an object with multiple asynchronous cameras
US8988609B2 (en) 2007-03-22 2015-03-24 Sony Computer Entertainment America Llc Scheme for determining the locations and timing of advertisements and other insertions in media
GB2452508A (en) * 2007-09-05 2009-03-11 Sony Corp Generating a three-dimensional representation of a sports game
GB2452546B (en) * 2007-09-07 2012-03-21 Sony Corp Video processing system and method
US8281334B2 (en) * 2008-03-31 2012-10-02 Microsoft Corporation Facilitating advertisement placement over video content
US8109829B1 (en) * 2008-04-10 2012-02-07 Acme Embedded Solutions Inc. Compositing device for combining visual content
GB0809631D0 (en) * 2008-05-28 2008-07-02 Mirriad Ltd Zonesense
US8477246B2 (en) * 2008-07-11 2013-07-02 The Board Of Trustees Of The Leland Stanford Junior University Systems, methods and devices for augmenting video content
US20110217022A1 (en) * 2008-11-06 2011-09-08 Ofer Miller System and method for enriching video data
US8175413B1 (en) * 2009-03-05 2012-05-08 Google Inc. Video identification through detection of proprietary rights logos in media
TWI423154B (zh) * 2009-12-30 2014-01-11 Univ Nat Chi Nan Book Inventory Management System and Its Method
US8786415B2 (en) * 2010-02-24 2014-07-22 Sportvision, Inc. Tracking system using proximity and/or presence
JP2012156797A (ja) * 2011-01-26 2012-08-16 Sony Corp 画像処理装置及び画像処理方法
US8941685B1 (en) * 2011-03-08 2015-01-27 Google Inc. Showing geo-located information in a 3D geographical space
JP4977255B1 (ja) * 2011-03-31 2012-07-18 株式会社ナナオ 表示装置、画像処理装置、画像領域検出方法、画像処理方法及びコンピュータプログラム
US9215383B2 (en) 2011-08-05 2015-12-15 Sportsvision, Inc. System for enhancing video from a mobile camera
US10089550B1 (en) 2011-08-17 2018-10-02 William F. Otte Sports video display
US8538233B2 (en) * 2011-08-24 2013-09-17 Disney Enterprises, Inc. Automatic camera identification from a multi-camera video stream
US8970666B2 (en) * 2011-09-16 2015-03-03 Disney Enterprises, Inc. Low scale production system and method
US9584736B2 (en) 2011-09-23 2017-02-28 Disney Enterprises, Inc. Automatic repositioning of video elements
US8805007B2 (en) 2011-10-13 2014-08-12 Disney Enterprises, Inc. Integrated background and foreground tracking
JP5362052B2 (ja) * 2012-01-24 2013-12-11 Eizo株式会社 表示装置、画像処理装置、画像領域検出方法及びコンピュータプログラム
EP2765766A1 (en) * 2013-02-08 2014-08-13 PIXarithmic GmbH Hard key control panel for a video processing apparatus
US9514381B1 (en) 2013-03-15 2016-12-06 Pandoodle Corporation Method of identifying and replacing an object or area in a digital image with another object or area
US20170039867A1 (en) 2013-03-15 2017-02-09 Study Social, Inc. Mobile video presentation, digital compositing, and streaming techniques implemented via a computer network
US9467750B2 (en) * 2013-05-31 2016-10-11 Adobe Systems Incorporated Placing unobtrusive overlays in video content
CN105284122B (zh) 2014-01-24 2018-12-04 Sk 普兰尼特有限公司 用于通过使用帧聚类来插入广告的装置和方法
JP2017510167A (ja) * 2014-02-07 2017-04-06 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー メディアにおける広告および他の挿入物の位置およびタイミングを判定するスキーム
CN104618745B (zh) * 2015-02-17 2017-08-01 北京影谱科技股份有限公司 一种在视频中动态植入广告的装置
EP3094082A1 (en) * 2015-05-13 2016-11-16 AIM Sport Vision AG Digitally overlaying an image with another image
TWI546772B (zh) * 2015-11-18 2016-08-21 粉迷科技股份有限公司 影像疊層處理方法與系統
US10839573B2 (en) 2016-03-22 2020-11-17 Adobe Inc. Apparatus, systems, and methods for integrating digital media content into other digital media content
US10290119B2 (en) 2016-09-15 2019-05-14 Sportsmedia Technology Corporation Multi view camera registration
CN106548446B (zh) 2016-09-29 2019-08-09 北京奇艺世纪科技有限公司 一种在球面全景图像上贴图的方法及装置
DE102016119640A1 (de) 2016-10-14 2018-04-19 Uniqfeed Ag System zur Erzeugung angereicherter Bilder
DE102016119639A1 (de) 2016-10-14 2018-04-19 Uniqfeed Ag System zur dynamischen Kontrastmaximierung zwischen Vordergrund und Hintergrund in Bildern oder/und Bildsequenzen
DE102016119637A1 (de) 2016-10-14 2018-04-19 Uniqfeed Ag Fernsehübertragungssystem zur Erzeugung angereicherter Bilder
KR102019299B1 (ko) * 2017-06-30 2019-09-06 강동민 홈 스타일링 서버 및 이를 포함하는 시스템과, 홈 스타일링을 위한 영상 처리 방법
US11010946B2 (en) * 2017-12-21 2021-05-18 Rovi Guides, Inc. Systems and method for dynamic insertion of advertisements
US10922871B2 (en) 2018-01-19 2021-02-16 Bamtech, Llc Casting a ray projection from a perspective view
WO2019244153A1 (en) * 2018-06-21 2019-12-26 Baseline Vision Ltd. Device, system, and method of computer vision, object tracking, image analysis, and trajectory estimation
CN111866301B (zh) * 2019-04-30 2022-07-05 阿里巴巴集团控股有限公司 数据的处理方法、装置及设备
CN110121034B (zh) 2019-05-09 2021-09-07 腾讯科技(深圳)有限公司 一种在视频中植入信息的方法、装置、设备及存储介质
US11336949B2 (en) * 2019-06-07 2022-05-17 Roku, Inc. Content-modification system with testing and reporting feature
CN111986133B (zh) * 2020-08-20 2024-05-03 叠境数字科技(上海)有限公司 一种应用于子弹时间的虚拟广告植入方法
CN112488063B (zh) * 2020-12-18 2022-06-14 贵州大学 一种基于多阶段聚合Transformer模型的视频语句定位方法
CN113988906B (zh) * 2021-10-13 2024-05-28 咪咕视讯科技有限公司 广告投放方法、装置及计算设备

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2566934B1 (fr) * 1984-06-29 1987-05-07 Giraud Daniel Procede d'affichage d'informations telles que par exemple des messages publicitaires sur un certain nombre de panneaux a elements d'affichage disposes dans un lieu de manifestations sportives et systeme pour la mise en oeuvre d'un tel procede
US4907086A (en) * 1987-09-04 1990-03-06 Texas Instruments Incorporated Method and apparatus for overlaying a displayable image with a second image
US5099331A (en) * 1987-09-04 1992-03-24 Texas Instruments Incorporated Apparatus for overlaying a displayed image with a second image
JPH01296785A (ja) * 1988-05-24 1989-11-30 Fujitsu Ltd 画像重畳装置
JP3138264B2 (ja) * 1988-06-21 2001-02-26 ソニー株式会社 画像処理方法及び装置
GB8822062D0 (en) * 1988-09-20 1988-10-19 Quantel Ltd Video processing
US4947256A (en) * 1989-04-26 1990-08-07 The Grass Valley Group, Inc. Adaptive architecture for video effects
US5279954A (en) * 1989-06-30 1994-01-18 Board Of Regents Of The University Of Nebraska And Bionebraska Exopeptidase catalyzed site-specific bonding of supports, labels and bioactive agents to proteins
FR2661061B1 (fr) * 1990-04-11 1992-08-07 Multi Media Tech Procede et dispositif de modification de zone d'images.
JP3166173B2 (ja) * 1991-07-19 2001-05-14 プリンストン エレクトロニック ビルボード,インコーポレイテッド 選択および挿入された標章を有するテレビ表示
GB9119964D0 (en) * 1991-09-18 1991-10-30 Sarnoff David Res Center Pattern-key video insertion
US5436672A (en) * 1994-05-27 1995-07-25 Symah Vision Video processing system for modifying a zone in successive images

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
US, 5243429, патент, кл. H 04 N 5/265, 1993. US, 5264933, патент, кл. H 04 N 5/262, 1993. *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000014958A1 (fr) * 1998-09-04 2000-03-16 Latypov Nurakhmed Nurislamovic Procede de creation de programmes video, variantes, et systeme de mise en oeuvre de ce procede
US6909451B1 (en) 1998-09-04 2005-06-21 Nurakhmed Nurislamovich Latypov Method for generating video programs, variants, and system for realizing this method
WO2003036557A1 (en) * 2001-10-22 2003-05-01 Intel Zao Method and apparatus for background segmentation based on motion localization
RU2443070C1 (ru) * 2007-12-13 2012-02-20 Суппонор Ой Способ изменения содержания телевизионного изображения
RU2480832C2 (ru) * 2009-12-23 2013-04-27 Интел Корпорейшн Совмещение игрового поля на основе модели
RU2572207C2 (ru) * 2010-09-20 2015-12-27 Фраунхофер-Гезелльшафт Цур Фёрдерунг Дер Ангевандтен Форшунг Э.Ф. Способ различения фона и переднего плана сцены и способ замены фона в изображениях сцены
RU2612378C1 (ru) * 2013-03-08 2017-03-09 ДиджитАрена СА Способ замены объектов в потоке видео
RU2673966C1 (ru) * 2017-10-23 2018-12-03 Федеральное государственное казенное военное образовательное учреждение высшего образования "Академия Федеральной службы охраны Российской Федерации" (Академия ФСО России) Способ идентификации кадров в потоке мультимедийных данных

Also Published As

Publication number Publication date
TW367452B (en) 1999-08-21
EP0750819A1 (en) 1997-01-02
ZA951403B (en) 1996-01-10
AU692529B2 (en) 1998-06-11
PL176135B1 (pl) 1999-04-30
US5491517A (en) 1996-02-13
WO1995025399A1 (en) 1995-09-21
AU1933495A (en) 1995-10-03
BG62114B1 (bg) 1999-02-26
HUT75487A (en) 1997-05-28
IL108957A (en) 1998-09-24
DE69524946D1 (de) 2002-02-14
CN1087549C (zh) 2002-07-10
HU220409B (hu) 2002-01-28
LV11716A (lv) 1997-02-20
BR9507057A (pt) 1997-09-02
PL316621A1 (en) 1997-01-20
NZ282275A (en) 1997-03-24
NO963811L (no) 1996-11-14
CN1144588A (zh) 1997-03-05
EP0750819A4 (en) 1998-12-30
HU9602444D0 (en) 1996-11-28
ATE211872T1 (de) 2002-01-15
CA2179031C (en) 2005-05-10
CZ286248B6 (cs) 2000-02-16
BG100879A (en) 1997-12-30
CZ265396A3 (cs) 1999-08-11
JPH09510336A (ja) 1997-10-14
NO963811D0 (no) 1996-09-11
EP0750819B1 (en) 2002-01-09
IL108957A0 (en) 1994-06-24
MX9604084A (es) 1997-12-31
US5731846A (en) 1998-03-24
KR100260786B1 (ko) 2000-07-01
CA2179031A1 (en) 1995-09-21
LV11716B (en) 1997-08-20

Similar Documents

Publication Publication Date Title
RU2108005C1 (ru) Способ имплантации изображения и устройство для его осуществления
CN104246795B (zh) 用于超广角透镜图像的自适应透视修正的方法和系统
US7864215B2 (en) Method and device for generating wide image sequences
EP3295663B1 (en) Digitally overlaying an image with another image
Ikeda et al. Calibration method for an omnidirectional multicamera system
CA2231849A1 (en) Method and apparatus for implanting images into a video sequence
EP1219115A2 (en) Narrow bandwidth broadcasting system
MXPA96004084A (en) A system for implanting an image into a video stream
US11900635B2 (en) Organic camera-pose mapping
CN117156258B (zh) 一种基于全景直播的多视角自切换系统
US11823410B1 (en) Video match moving system and method
Owen et al. Augmented imagery for digital video applications
Tan Virtual imaging in sports broadcasting: an overview
Wang et al. PTZ camera calibration for Augmented Virtual Environments