PL176135B1 - Sposób i urządzenie do wprowadzania obrazu do treści obrazu istniejącego - Google Patents

Sposób i urządzenie do wprowadzania obrazu do treści obrazu istniejącego

Info

Publication number
PL176135B1
PL176135B1 PL95316621A PL31662195A PL176135B1 PL 176135 B1 PL176135 B1 PL 176135B1 PL 95316621 A PL95316621 A PL 95316621A PL 31662195 A PL31662195 A PL 31662195A PL 176135 B1 PL176135 B1 PL 176135B1
Authority
PL
Poland
Prior art keywords
image
mask
video frame
input
input video
Prior art date
Application number
PL95316621A
Other languages
English (en)
Other versions
PL316621A1 (en
Inventor
Haim Kreitman
Dan Bar-El
Yoel Amir
Ehud Tirosh
Original Assignee
Scidel Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Scidel Technologies Ltd filed Critical Scidel Technologies Ltd
Publication of PL316621A1 publication Critical patent/PL316621A1/xx
Publication of PL176135B1 publication Critical patent/PL176135B1/pl

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N5/2723Insertion of virtual advertisement; Replacing advertisements physical present in the scene by virtual advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Landscapes

  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Electrotherapy Devices (AREA)
  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Television Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

1. Sposób wprowadzania obrazu do tresci obrazu istniejacego, znaj- dujacego sie w kazdej ramce wejsciowej sekwencji obrazow ej, i przedsta- wiajacego filmowane przynajmniej przez jedna, ruchom a kam ere telew izyjna dzialania zachodzace w przestrzeni tla o statycznych plaskich pow ierzch- niach, w które w pisuje sie wprowadzany obraz, znam ienny tym , ze niezalez- nie dla kazdej wejsciowej ramki wizyjnej z kamery generuje sie plaski model geometryczny o statycznych pow ierzchniach przestrzeni tla, i majacy okre- slajace go cechy charakterystyczne oraz maske lokalizacji, okreslajaca w y- brana powierzchnie modelu geom etrycznego dla wprowadzanego obrazu, po czym, na podstawie modelu geom etrycznego i maski lokalizacji okresla sie w ybrana powierzchnie w wejsciowej ram ce wizyjnej, w która w pisuje sie wprowadzany obraz, jezeli wybrana powierzchnia znajduje sie w wejsciowej ramce wizyjnej. 26 Urzadzenie do wprowadzania obrazu do tresci obrazu istniejacego, przedstawionego w przestrzeni tla o statycznych powierzchniach i filmowa- nego przynajmniej przez jedna kam ere oraz zaopatrzone w komputerowy uklad sterujacy, znam ienne tym , ze sklada sie z ukladu w ychw ytyw ania ram - ki (10) z sygnalu wizyjnego, i z polaczonego z nim na wyjsciu ukladu w pisy- wania (14) wprowadzanego obrazu (42), polaczonego z komputerowym ukladem sterujacym (16) za pom oca magistrali danych (29) i zaopatrzonego w uklad identyfikacji cech charakterystycznych (60) powierzchni statycznych wejsciowej ramki wizyjnej, w polaczony z nim uklad identyfikacji perspekty- wy (62) do okreslenia transformacji perspektywy miedzy modelem geometry- cznym (50), a cechami charakterystycznymi wejsciowej ramki wizyjnej, oraz w polaczony z ukladem identyfikacji perspektywy (62) przetwornik (64), na któ- rego wyjsciu przylaczony jest mikser (66), polaczony z wejsciem ukladu iden- tyfikacji cech charakterystycznych (60). P L 176135 B 1 FIG . 1 PL PL PL PL

Description

Przedmiotem wynalazku jest sposób wprowadzania obrazu do treści obrazu istniejącego, znajdującego się w każdej ramce wejściowej sekwencji obrazowej, i przedstawiającego filmowane przynajmniej przez jedną, ruchomakamerę telewizyjną działania zachodzące w przestrzeni tła o statycznych płaskich powierzchniach, w które wpisuje się wprowadzany obraz.
Przedmiotem wynalazku jest również urządzenie do wprowadzania obrazu do treści obrazu istniejącego, przedstawionego w przestrzeni tła o statycznych powierzchniach i filmowanego przynajmniej przez jedną kamerę, oraz zaopatrzone w komputerowy układ sterujący.
W czasie filmowania 'przez kamery telewizyjne zawodów sportowych, rozgrywanych na różnego typu stadionach, filmuje się również reklamy, znajdujące się na ścianach stadionu oddzielających przestrzeń rozgrywania zawodów od widowni. Reklamy te, reklamują firmy sponsorujące rozgrywane zawody, i pokazywane są publiczności podczas transmisji tych zawodów. W tym celu, przygotowane uprzednio reklamy wpisuje się do treści filmowanego obrazu telewizyjnego.
Znany sposób wprowadzania reklam do treści obrazu filmowanego w czasie rzeczywistym polega na określeniu docelowej powierzchni stadionu, a następnie na wpisaniu w tę filmowaną powierzchnię reklamy. Podczas zmiany pola widzenia kamery, filmowaną powierzchnię określa się ponownie.
Wpisywanie obrazu do treści obrazu istniejącego wykorzystuje się nie tylko podczas filmowania zawodów sportowych, ale również i podczas montażu obrazu w czasie rzeczywistym. W tym przypadku, obraz wstawia się między sceny wizyjne, przez jego nałożenie w określonym miej scu ramki obrazu telewizyjnego (na przykład znak identyfikacyjny stacj i telewizyjnych), lub też w miejsce obrazów filmowanych przez kamerę.
Z opisu patentowego Stanów Zjednoczonych A. P. nr US 4 806 924 znany jest sposób i urządzenie do wyświetlania informacji reklamowych na panelach wyśw ietlających, rozmieś/.176135 czonych wokół boiska na stadionie. Ruch filmującej kamery, zmieniającej pole widzeniajednego panelu wyświetlającego na inny powoduje automatyczne przeniesienie informacji reklamowej wyświetlanej na tym panelu na panel aktualnie filmowany. Do tego celu stosuje się w filmującej kamerze nadajnik podczerwieni, a w panelach wyświetlających - detektor podczerwieni. Proces wyświetlania informacji reklamowej na panelach sterowany jest przez komputer.
W opisie patentowym Stanów Zjednoczonych A. P. nr US 4 947 526 przedstawione jest urządzenie do tworzenia wizyjnych efektów specjalnych, takich jak zmiana wymiarów·', lokalizacji, obrót i zmiana perspektywy wyświetlanego na monitorze telewizyjnym obrazu. Urządzenie składa się z matrycy źródeł sygnałów video, z generatora sygnałów synchronizacyjnych, oraz z połączonych z nimi przełącznika i cyfrowego układu efektów video. Cyfrowy układ efektów video składa się z modułu przekształcającego wejściowy sygnał video, z połączonego z nim na wejściu układu czasowego, kontrolera i przetwornika analogowo-cyfrowego, zaś na wyjściu - z przetwornikiem cyfrowo-analogowym, na którego wyjściu znajduje się mikser wideo. Sygnał wyjściowy z przetwornika cyfrowo-analogowego kierowany jest do przełącznika i do miksera video, do którego kierowany jest również sygnał wyjściowy z przełącznika, zawierający informacje przekształconego wejściowego sygnału video. Urządzenie umożliwia wstawienie przekształconego wejściowego sygnału video w dowolne miejsce pierwotnego sygnału wejściowego video.
W opisie patentowym Stanów Zjednoczonych A. P. nr US 4 967 276 przedstawione jest urządzenie do mieszania sygnału wizyjnego z kamery wizyjnej z sygnałem podczerwonym pochodzącym z kamery na podczerwień, skierowanej na ten sam przedmiot. Kamera wizyjna jest połączona na wyjściu z układem wyboru sygnału wizyjnego, zaś kamera na podczerwień z układem detekcji poziomu czerni i z mikserem, który połączony jest na wejściu z wyjściem układu wyboru sygnału wizyjnego. Na wyjściu miksera znajduje się monitor telewizyjny. Urządzenie umożliwia więc oglądanie przedmiotujednocześnie w świetle widzialnym, jak i podczerwieni, dając w efekcie pełny jego obraz.
Z opisu patentowego Stanów Zjednoczonych A. P. nr US 4 907 086 znany jest sposób i urządzenie do nakładania obrazu ze źródła zewnętrznego, na przykład z kamery, na część obrazu aktualnie wyświetlanego, na przykład na monitorze telewizyjnym. Urządzenie składa się z układu wyświetlającego, z połączonej z nim na wejściu głównej pamięci buforowej do przechowywania danych obrazu aktualnego, z pierwszego obwodu adresowego, połączonego z główną pamięcią buforową, ze źródła danych obrazu nakładanego, z połączonej z nim na wejściu pomocniczej pamięci buforowej do przechowywania danych obrazu nakładanego, z drugiego obwodu adresowego, połączonego z pomocnicząpamięciąbuforową, oraz z magistrali danych, łączących obydwa obwody adresowe. Sposób nakładania obrazu na część obrazu aktualnie wyświetlanego polega na pobraniu danych aktualnego obrazu z głównej pamięci buforowej, umieszczeniu danych nakładanego obrazu w pomocniczej pamięci buforowej, oraz na przeniesieniu danych nakładanego obrazu z pomocniczej pamięci buforowej do głównej pamięci buforowej.
Analogiczne urządzenie do nakładania obrazu ze źródła zewnętrznego, na część obrazu aktualnie wyświetlanego, przedstawione jest w opisie patentowym Stanów Zjednoczonych A. P. nr US 5 099 331. Pomocnicza pamięć buforowa urządzenia jest zaopatrzona w układ pamięci RAM, który wyposażonyjest w szeregowy port wej ściowy, połączony ze źródłem danych obrazu nakładanego, w macierz adresowanych swobodnie komórek pamięci, oraz w połączony z tą macierzą port o swobodnym dostępie.
Z opisu patentowego Stanów Zjednoczonych A. P. nr US 5 107 252 znane jest urządzenie do przetwarzania obrazu video w przestrzeni trójwymiarowej. Urządzenie to, składa się z ekranu dotykowego, służącego do generacji adresu punktów narożnych wyświetlanego na monitorze czworokąta, z połączonego z nim procesora, do obliczania nowych adresów punktów narożnych · wielokąta podczas jego ruchu w przestrzeni trójwymiarowej, z połączonego z procesorem układu transformacji, przekształcającego adresy pikseli ramki wejściowej sekwencji obrazowej na adresy pikseli ramki wyjściowej sekwencji obrazowej w przestrzeni trójwymiarowej, oraz z pamięci do przechowywania obrazów wejściowych, jak i przetworzonych.
176 135
W opisie patentowym Stanów Zjednoczonych A. P. nr US 5 264 933 przedstawiony jest sposób i urządzenie umożliwiające wstawienie obrazów reklamowych w wybrane miejsca obrazu telewizyjnego, aby stanowiły one część obrazu istniejącego. Obrazy reklamowe wpisuje się do obrazu istniejącego również w odpowiedzi na sygnały dźwiękowe, na przykład na głos komentatora.
Niedogodnością tych wszystkich, przedstawionych powyżej sposobów i urządzeń do wpisywania obrazu w obraz istniejący, względnie do przetwarzania obrazów video, jest brak możliwości wprowadzania obrazu w określony obszar obrazu filmowanego w czasie rzeczywistym na statycznym tle, niezależnie od wejściowych ramek wizyjnych, z uwzględnieniem zmiennych parametrów filmujących kamer, i zmiennego widoku perspektywicznego filmowanego obrazu, oraz zmiennego oświetlenia filmowanego tła. W większości rozwiązań, wprowadzane obrazy zakrywają określony obszar obrazu aktualnie wyświetlanego.
W międzynarodowym zgłoszeniu patentowym nr PCT / FR91 / 00296 przedstawiony jest sposób i urządzenie do modyfikacji sekwencji kolejnych ramek wizyjnych, pochodzących z kamery, filmującej sceny na nieruchomym tle. Sposób ten, umożliwiający wprowadzenie obrazu w obraz filmowany, polega na identyfikacji niezniekształconego obszaru docelowego na statycznym tle, w okolicy którego znajdująsię znaki identyfikacyjne, umożliwiające jego lokalizację, na określeniu położenia i wymiarów tego obszaru docelowego, na przekształceniu uprzednio przygotowanego wprowadzanego obrazu (zapisanego w postaci cyfrowej) w stosunku do obszaru docelowego, oraz na zamianie pikseli z obszaru docelowego na piksele z obrazu wprowadzanego. Znaki identyfikacyjne stanowią dowolne, łatwo rozpoznawalne znaki graficzne, na przykład krzyżyki, które mogą być zlokalizowane w różnych ujęciach. W tym . celu, obszar docelowy statycznego tła i wprowadzany obraz są przechowywane w pamięci w różnych .skalach i położeniach kątowych. Urządzenie do realizacj i tego sposobu składa się z kamery i z połączonego z nim komputera, zaopatrzonego w pamięć obrazową o bardzo dużej pojemności, w połączony z nią procesor i dwa komparatory, w pamięć RAM, połączonąz procesorem i z pierwszym komparatorem, który połączony jest z drugim komparatorem za pomocąpamięci buforowej, oraz w obwód miksujący, połączony na wejściu z obydwoma komparatorami z pierwsząpamięciąmasową, zaś na wyjściu - z drugą pamięcią masową i z monitorem. W pamięci obrazowej znajj^ią^się filmowane ramki wizyjne, zaś w pamięci RAM - znaki identyfikacyjne, które po wyszukaniu przesyłane są przez procesor pierwszego komparatora, a następnie do pamięci buforowej. Po określeniu w drugim komparatorze części obszaru docelowego, niezakrytego przez inne obiekty, obwód miksujący zamienia piksele obszaru docelowego przez piksele obrazu wprowadzanego, przechowywanego w pierwszej pamięci masowej'. Wyjściowy obraz jest przechowywany w drugiej pamięci masowej i wyświetlany na monitorze.
Niedogodnością przedstawionego powyżej sposobu i urządzenia do modyfikacji sekwencji kolejnych ramek wizyjnych są błędy przetwarzania, powstałe w przypadku zmiany tła w kolejnych ramkach wizyjnych sekwencji wejściowej, jak również konieczność stosowania znaków identyfikacyjnych. Ponadto, urządzenie do realizacji tego sposobu jest zaopatrzone w kilka kosztownych pamięci, służących do przechowywania obrazów w różnych operacjach przetwarzania sekwencji obrazowej.
Celem wynalazku jest opracowanie takiego sposobu wprowadzania obrazu do treści obrazu istniejącego, który wyeliminuje niedogodności znanych dotychczas podobnych sposobów.
Cel ten, zrealizowano w sposobie wprowadzania obrazu do treści obrazu istniejącego według wynalazku, który charakteryzuje się tym, że niezależnie dla każdej wejściowej ramki wizyjnej z kamery generuje, się płaski model geometryczny o statycznych powierzchniach przestrzeni tła, i mający określające go cechy charakterystyczne, oraz maskę lokalizacji, określającą wybraną powierzchnię modelu geometrycznego dla wprowadzanego obrazu, po czym, na podstawie modelu geometrycznego i maski lokalizacji, określa 'się wybranąpowierzchnię w wejściowej ramce wizyjnej, w którą wpisuje się wprowadzany obraz, jeżeli wybrana powierzchnia znajduje się w wejściowej ramce wizyjnej.
176 135
Wprowadzany obraz i maskę lokalizacji konstruuje się korzystnie na oddzielnym stanowisku projektowania.
Określenie wybranej powierzchni w wejściowej ramce wizyjnej realizuje się korzystnie przez przeglądanie każdej pojedynczej wejściowej ramki wizyjnej i identyfikację cech charakterystycznych jej statycznych powierzchni, oraz przez określenie transformacji perspektywicznej między modelem geometrycznym a cechami charakterystycznymi każdej wejściowej ramki wizyjnej, przy czym do przeglądania każdej pojedynczej wejściowej ramki wizyjnej i identyfikacji cech charakterystycznychjej statycznych powierzchni wykorzystuje się utworzoną uprzednio maskę tła, określającą lokalizację cech charakterystycznych elementów tła, i maskę planu czołowego, wskazującą obszary tła czołowego nie pokrywanego przez wprowadzany obraz, i którą tworzy się z części danych maski tła.
Maskę tła tworzy się przez przetworzenie, korzystnie za pośrednictwem tablicy przejścia. LUT, kolorów każdej wejściowej ramki wizyjnej na kolor cech charakterystycznych, kolor elementów tła i kolor elementów planu czołowego, przy czym tablicę przejścia LUT tworzy się z kolorów wskazanych przez użytkownika.
Wprowadzany obraz i maskę lokalizacji poddaje się korzystnie transformacji perspektywicznej, po czym miksuje się je z każdą pojedynczą wejściową ramką wizyjną i maską planu czołowego.
Wprowadzany obraz, maskę lokalizacji i utworzoną uprzednio maskę mieszania, poddaje się korzystnie transformacji perspektywicznej, po czym miksuje się je z każdą pojedynczą wejściową ramką wizyjną i maską planu czołowego.
Wykorzystuje się cechy charakterystyczne mające postać korzystnie linii, przy czym identyfikacji cech charakterystycznych dokonuje się przez poddanie linii transformacji Hougha, względnie przez badanie i ciągłe zawężanie otoczenia pikseli, po czym na podstawie znalezionych pikseli określa się współczynniki kierunkowe uzyskanych linii, które określa się przez rzutowanie uzyskanych cech charakterystycznych na płaszczyznę za pomocą funkcji asymptotycznej.
Wykorzystuje się przestrzeń tła będącą korzystnie boiskiem sportowym, przy czym po określeniu współczynników kierunkowych linii określa się liczbę możliwych prostokątów na modelu geometrycznym i lokalizację ich naroży, przez wybranie dwóch poziomych i dwóch pionowych linii ze zidentyfikowanych cech charakterystycznych i określenie ich punktów przecięcia, po czym generuje się macierz transformacji i przekształca się naroża każdego prostokąta modelu geometrycznego na punkty przecięcia się linii z cech charakterystycznych w wejściowej ramce wizyjnej, z wykorzystaniem maski tła do dopasowania każdego przetransformowanego modelu geometrycznego do każdej pojedynczej wejściowej ramki wizyjnej, a następnie, do analizy następnej wejściowej ramki wybiera się tę macierz transformacji, która najlepiej pasuje do cech charakterystycznych wejściowej ramki wizyjnej.
Podczas wprowadzania obrazu do treści obrazu istniejącego określa się korzystnie współrzędne kamer telewizyjnych, po czym oblicza się bieżącą macierz transformacji jako iloczyn macierzy współrzędnych pochylenia, obrotu i długości ogniskowej kamer, a następnie, na podstawie tych macierzy identyfikuje się kamery przez określenie współczynnika dopasowania, i zapamiętuje się parametry zidentyfikowanych kamer, przy czym określenie współrzędnych i identyfikację kamer powtarza się dla każdej wejściowej ramki wizyjnej.
Cel wynalazku zrealizowano również w odmianie sposobu wprowadzania obrazu do treści obrazu istniejącego, który charakteryzuje się tym, że niezależnie dla każdej wejściowej ramki wizyjnej generuje się płaski model geometryczny statycznych powierzchni tła, i zawierający określające te powierzchnie cechy charakterystyczne, po czym, przed wpisaniem w nie wprowadzanego obrazu, płaski model geometryczny przekształca się perspektywicznie.
W modelu geometrycznym wykorzystuje się cechy charakterystyczne stanowiące przynajmniej jedną grupę linii i łuków, które opisane są zależnościami na płaszczyźnie.
Cechy charakterystyczne modelu geometrycznego opisane sąna płaszczyźnie zależnościami wektorowymi.
176 135
Cel wynalazku zrealizowano również w innej odmianie sposobu wprowadzania obrazu do treści obrazu istniejącego, który charakteryzuje się tym, że generuje się płaski model geometryczny o statycznych powierzchniach przestrzeni tła, zawierający określające te powierzchnie cechy charakterystyczne, po czym, model geometryczny wykorzystuje się do perspektywicznego zniekształcenia wprowadzanego obrazu, analogicznie do perspektywy wejściowej ramki wizyjnej, a następnie, dla tej ramki, zawierającej przynajmniej część powierzchni statycznych modelu geometrycznego, tworzy się maskę tła, określającej obszary zmienialne wejściowej ramki wizyjnej, oraz jej powierzchnie stałe, po czym zniekształcony perspektywicznie wprowadzany obraz miksuje się z obszarem zmienialnym maski tła.
Model geometryczny generuje się korzystnie niezależnie od wejściowych ramek wizyjnych.
Do zniekształcenia perspektywicznego wprowadzanego obrazu wykorzystuje się korzystnie macierz transformacji.
Przed perspektywicznym zniekształceniem wprowadzanego obrazu tworzy się korzystnie maskę lokalizacji, określającej położenie wprowadzanego obrazu na modelu geometrycznym, którą zniekształca się perspektywicznie łącznie z wprowadzanym obrazem, przy czym podczas miksowania zniekształconego perspektywicznie wprowadzanego obrazu z obszarem zmienialnym maski tła, miksuje się z nimi maskę lokalizacji, tworząc maskę zezwolenia określającąte piksele w wejściowej ramki wizyjnej, w które wpisuje się kolejne piksele wprowadzanego obrazu.
W procesie wprowadzania obrazu do treści obrazu istniejącego tworzy się korzystnie zniekształconąperspektywicznie maskę mieszania, określającą różne odcienie kolorów wprowadzanego obrazu, którą miksuje się następnie z wprowadzanym obrazem i z maską zezwolenia. Podczas miksowania maski mieszania, maski zezwolenia i wprowadzanego obrazu, każdemu pikselowi z wejściowej ramki wizyjnej o współrzędnych (x, y) przypisuje się wartość koloru korzystnie zgodnie z zależnością: Wyjście(x, y) = β(χ, y) x obraz(x, y) + [ 1-β(χ, y)] x ramka(x, y), gdzie e(x, y) = a(x, y) x P'(x, y), przy czym a(x, y) i P'(x, y) sąwartościami pikseli maski mieszania i maski zezwolenia, zaś obraz(x, y) i ramka(x, y) są odpowiednio wartościami pikseli wprowadzanego obrazu i zmienialnego obszaru wejściowej ramki wizyjnej.
Celem wynalazku jest również opracowanie takiego urządzenia do wprowadzania obrazu do treści obrazu istniejącego, który wyeliminuje niedogodności znanych dotychczas podobnych urządzeń.
Cel ten, zrealizowano w urządzeniu do wprowadzania obrazu do treści obrazu istniejącego według wynalazku, które składa się z układu wychwytywania ramki z sygnału wizyjnego, i z połączonego z nim na wyjściu układu wpisywania wprowadzanego obrazu, połączonego z komputerowym układem sterującym za pomocą magistrali danych i zaopatrzonego w układ identyfikacji cech charakterystycznych powierzchni statycznych wejściowej ramki wizyjnej, w połączony z mm układ identyfikacji perspektywy do określenia transformacji perspektywy między modelem geometrycznym, a cechami charakterystycznymi wejściowej ramki wizyjnej, oraz w połączony z układem identyfikacji perspektywy przetwornik, na którego wyjściu przyłączony jest mikser, połączony z wejściem układu identyfikacji cech charakterystycznych.
Urządzenie zaopatrzone jest korzystnie w oddzielny układ projektowania do konstruowania wprowadzanego obrazu i maski lokalizacji.
Układ identyfikacji cech charakterystycznych połączonyjest korzystnie na wyjściu z mikserem.
Zaletą sposobu i urządzenia do wprowadzania obrazu do treści obrazu istniejącego według wynalazku jest możliwość wprowadzania obrazu w określony obszar obrazu filmowanego w czasie rzeczywistym na statycznym tle, niezależnie od wejściowych ramek wizyjnych, z uwzględnieniem zmiennych parametrów filmujących kamer, i zmiennego widoku perspektywicznego filmowanego obrazu, oraz zmiennego oświetlenia filmowanego tła.
Wynalazekjest przykładowo wyjaśniony na rysunku, na którym fig. 1 przedstawia schemat blokowy urządzenia do wprowadzania obrazu do treści obrazu istniejącego, fig. 2 - schemat obrazu filmowanego kortu tenisowego, do którego wprowadza się obraz, za pomocą urządzenia według fig. 1, fig. 3 - model geometryczny obrazu kortu tenisowego według fig. 2, fig. 4A - schemat obrazu wprowadzanego do modelu geometrycznego obrazu kortu tenisowego, fig. 4B - sche176 135 mat maski lokalizacji, nakładanej na model geometryczny obrazu kortu według fig. 3 z odsłoniętym obszarem na wprowadzany obraz według fig. 4A, fig. 4C - schemat maski mieszania dla wprowadzanego obrazu według fig. 4A i modelu geometrycznego obrazu kortu według fig. 3, fig. 5 - schemat blokowy układu wpisywania obrazu w obraz ramki wizyjnej, stanowiącego część urządzenia według fig. 1, fig. 6 - schemat ramki wizyjnej wejściowej sekwencji obrazowej, fig. 7 - schemat maski tła, utworzonej dla ramki wizyjnej według fig. 6, fig. 8 - algorytm działania układu identyfikacji cech charakterystycznych według fig. 5, fig. 9A - odmiana algorytmu uzyskiwania cech charakterystycznych obrazu istniejącego, fig. 9B - schemat maski tła, stosowanej do uzyskiwania cech charakterystycznych obrazu istniejącego, fig. 9C - histogram wycinków maski tła według fig. 9B, fig. 10 - algorytm działania układu identyfikacji perspektywy, stanowiącego część układu identyfikacji cech charakterystycznych według fig. 5, fig. 11A schemat konstrukcji punktów stykowych cech charakterystycznych uzyskanych z obrazu istniejącego, na podstawie maski tła według fig. 7, fig. 11B - schemat konstrukcji punktów stykowych cech charakterystycznych uzyskanych z obrazu istniejącego, wynikłych z niedokładności obliczeń, fig. 12A i B - schemat rzutu gnomonicznego, stosowanego w układzie identyfikacji perspektywy według fig. 10, fig. 12C - graficzną ilustrację funkcji wykorzystywanej w rzucie gnomonicznym według fig. 12A i 12B, fig. 13 - algorytm działania układu identyfikacji perspektywy według fig. 10, fig. 14A - schemat ramki wizyjnej z modelem obrazu kortu tenisowego, podczas identyfikacji linii tego kortu, fig. 14B - schemat modelu geometrycznego kortu tenisowego z uwidocznionymi czworobokami dla wprowadzanego obrazu, fig. 15 - schematyczną ilustrację macierzy transformacji, fig. 16 - ilustrację procesu dopasowywania czworoboku do modelu geometrycznego kortu, realizowaną w algorytmie według fig. 13, fig. 17 - algorytm działania przetwornika i miksera, stanowiącego część układu identyfikacj i cech charakterystycznych według fig. 5, fig. 18 - algorytm działania układu korekcyjnego, stanowiącego część układu identyfikacji cech charakterystycznych według fig. 5, fig. 19 - schemat kamery i jej parametry, fig. 20 - algorytm tworzenia macierzy transformacji dla zadanych parametrów kamery według fig. 19, fig. 21 - tablicę parametrów kamery według fig. 19, a fig. 22 - algorytm tworzenia macierzy transformacji dla wyliczanych, zmiennych parametrów kamery według fig. 19.
Przedstawione na fig. 1 urządzenie umożliwia wprowadzanie obrazów, na przykład reklam, do obrazu istniejącego, przedstawionego na statycznym tle. Urządzenie składa się z układu wychwytywania ramki 10, przetwarzającego ramki wejściowej sekwencji obrazowej (na przykład grę w tenisa) na kolejne ramki wizyjne, z układu projektowania 12 wprowadzanych obrazów (na przykład reklam) na wybrane powierzchnie obrazu istniejącego, na przykład na statyczny obraz kortu tenisowego widocznego w ramce obrazu istniejącego, z układu wpisywania 14 zaprojektowanego uprzednio wprowadzanego obrazu w ramkę wizyjną obrazu istniejącego, w komputerowy układ sterujący 16, służący do sterowania układem wpisywania 14, oraz z monitora 18.
Komputerowy układ sterujący 16 jest zaopatrzony w centralną jednostkę przetwarzającą 20, w połączoną z nim klawiaturę 22, mysz 24, pamięć dyskową 26, napęd dyskietek 27, oraz monitor 28, sterowany za pomocą karty graficznej stanowiącej część centralnej jednostki przetwarzającej 20. Układ projektowania 12 wprowadzanych obrazów jest zaopatrzony w napęd dyskietek 27, co umożliwia przeniesienie zaprojektowanego w tym układzie 12 obrazu do komputerowego układu sterującego 16. Komputerowy układ sterujący 16 i układ wpisywania 14 wprowadzanego obrazu do treści obrazu istniejącego są połączone za pomocą magistrali danych 29.
Wejściowa sekwencja obrazowa może być odbierana z dowolnego źródła, na przykład z taśmy wizyjnej, telewizji satelitarnej, albo z łącz mikrofalowych. Jeżeli wejściowa sekwencja obrazowa pochodzi z satelity, to proces wprowadzania obrazu w obraz istniejący, realizowany w układzie wpisywania 14 musi pracować z częstotliwościąpowtarzania pól sygnału wizyjnego satelity, o okresie wynoszącym 30 ms. Jeżeli natomiast wejściowa sekwencja obrazowa pochodzi z taśmy, wówczas układ wpisywania 14 może kontrolować częstotliwość powtarzania pól obrazu, i pracować z dowolną szybkością.
Wejściową sekwencję obrazową wytwarza się w miejscu, gdzie odbywa się gra, na przykład gra w tenisa (fig. 2). Wprowadzane obrazy umieszcza się na wybranych obszarach tła
176 135 stanowiącego statyczny kort tenisowy 32. Do filmowania gry w tenisa na korcie tenisowym 32, stosuje się typowo dwie kamery telewizyjne 30, rozmieszczone w określonych miejscach.
Kort tenisowy 32 podzielony jest siatką34 na dwie połowy, z których każda zawiera określoną liczbę obszarów wewnętrznych 36, najczęściej w określonym odcieniu zieleni, oraz z linii 38 wzajemnie równoległych i prostopadłych, najczęściej białych i oddzielających obszary wewnętrzne 36. Zewnętrzny obszar 40 kortu tenisowego 32 ma najczęściej odcień zieleni, ale różniący się od odcienia obszarów wewnętrznych 36.
Kamery 30 filmująkort tenisowy 32 pod określonym kątem, dlatego też, ramki wejściowej sekwencji obrazowej przedstawione są w widoku perspektywicznym, w którym linie 38 nie są ani wzajemnie równoległe, ani prostopadłe, i wyglądaiątak, jakby były zbieżne w odległym punkcie. Kąty widoku perspektywicznego obrazów na wyjściu kamer 30 zmieniaiąsię w zależności od kąta pola widzenia kamer 30, oraz od długości ogniskowej ich obiektywów.
Sposobem według wynalazku można umieścić wprowadzany obraz 42, na przykład obraz ze słowem IMAGE, w dowolnym miejscu na powierzchni tła kortu tenisowego 32, dla dowolnych kątów widoku perspektywicznego kamer 30, oraz długości ogniskowych ich obiektywów. Dla kortu tenisowego 32, możliwe lokalizacje wprowadzanego obrazu 42 znajdują się w dowolnych prostokątnych obszarach wewnętrznych 36, na każdej połowie tego kortu, ograniczonych liniami 38. Umieszczony na obszarze wewnętrznym 36 kortu tenisowego 32 wprowadzany obraz 42 nie przeszkodzi przy tym obserwacji ruchów graczy 44, sprawiając wrażenie, jakby był on namalowany na obszarze wewnętrznym 36 tego kortu.Wprowkdzyoie obrazu 42 w obraz kortu tenisowego 32 dokonuje się z wykorzystaniem modelu geometrycznego tego kortu, którego rzeczywisty kształt i rozmieszczone na nim linie 38 są statyczne. Do realizacji tego procesu konieczna jest znajomość przynajmniej kąta pola widzenia i długości ogniskowej obiektywu kamer 30, jak również widzianych przez te kamery 30 kolorów kortu tenisowego 32, który zmieniają się wraz ze zmianą oświetlenia (naturalnego, lub sztucznego).
Wprowadzany obraz 42 przygotowuje się w układzie projektowania 12, stanowiącym na przykład stanowisko projektowe typu BLAZE (wytwarzane przez Scifex Corporation w Izraelu), z wykorzystaniem modelu geometrycznego 50 kortu tenisowego 32, przedstawionego w widoku z góry na fig. 3.
Model geometryczny 50 zawiera cechy charakterystyczne, mające postać linii 38, lub punktów ich przecięć 54, które są identyfikowane przez układ wpisywania 14. Modele geometryczne innych kortów, albo boisk, mogą zawierać koła, lub inne krzywe.
W układzie projektowania 12 projektant konstruuje wprowadzany obraz 42 (fig. 4A), i określa jeden z obszarów 52 na modelu geometrycznym 50, gdzie ma on być umieszczony. Następnie projektant przygotowywuje maskę lokalizacji 56 (fig. 4B) dla wprowadzanego obrazu 42, która wskazuje miejsce jego umieszczenia na modelu geometrycznym 50. Maska lokalizacji 56 składa się z obszaru rozjaśnionego, dla wprowadzanego obrazu 42, oraz z otaczającego go obszaru zaciemnionego.
Jeżeli wprowadzany obraz 42 ma jaskrawe kolory, które mogą w istotny sposób zakłócić grę na korcie tenisowym 32, wówczas kolory te modyfikuje się odpowiednio. Do tego celu stosuje się przedstawioną na fig. 4C maskę mieszania 58, wskazującą odcienie kolorów wprowadzanego obrazu 42, które mogą być zmieszane z kolorem kortu tenisowego 32, w miejscach wskazanych przez maskę mieszania 58. Maska mieszania 58 może składać się z czterech stref 59, z których każda wskazuje na włączenie we wprowadzany obraz 42 różnej ilości koloru kortu tenisowego 32, przy czym zewnętrzna strefa 59 zawiera najwięcej koloru tego kortu.
Wszystkie dane wprowadzanego obrazu 42, zaprojektowane na podstawie modelu geometrycznego 50, maski lokalizacji 56, oraz ewentualnie maski mieszania 58, przygotowywuje się przed rozpoczęciem meczu tenisowego, a następnie wprowadza się je do układu wpisywania 14, za pomocą przenośnych nośników informacji, na przykład dyskietek, odczytywanych z napędu dyskietek 27 komputerowego układu sterującego 16 (fig. 1), w celu wprowadzenia go w każdą ramkę wizyjną wejściowej sekwencji obrazowej po rozpoczęciu meczu.
Większość wejściowych sekwencji obrazowych z gier transmitowanych na żywo, względnie odtwarzanych z taśmy, rozpoczyna się od sekwencji inicjującej, co umożliwia operatorom stacji telewizyjnych zsynchronizować ich systemy z częstotliwościąwejściowej sekwencji obrazowej. Sekwencję inicjującą odbiera się za pomocą układu wychwytywania ramki 10 (fig. 1), i przekazuje się do komputerowego układu sterującego 1(5. Operator stacji telewizyjnej wybiera ramkę dającą wyraźny obraz pola gry, którą wykorzystuje następnie do uzyskania informacji kalibracyjnej, umożliwiającej identyfikację kortu tenisowego 32 przez układ wpisywania 14, oraz jego cech charakterystycznych, na przykład linii 38. Informacja kalibracyjna obejmuje kolory tła, to jest kolory kortu tenisowego 32, kolory jego cech charakterystycznych, na przykład linii 38, oraz kolory obszaru zewnętrznego 40. Pozostałe kolory, odbierane przez operatora stacji telewizyjnej, lecz nie należące do tła, definiuje się jako kolory planu czołowego. Ilość cech charakterystycznych i kolorów, niezbędnych do identyfikacji filmowanego pola, dobiera się w zależności od rodzaju kortu, lub boiska.
Kolory w informacji kalibracyjnej określa się interaktywnie za pośrednictwem myszy 24 i klawiatury 22, na przykład przez nałożenie na ramkę wyświetlaną na monitorze 28 warstwy złożonej z czterech kolorów. Początkowo, czterokolorowa warstwa składa się tylko z jednego przezroczystego koloru, co umożliwia widzenie początkowej, bieżącej ramki wizyjnej.
Operator stacji telewizyjnej wskazuje początkowo w czterokolorowej warstwie piksele opisujące jedną z trzech cech charakterystycznych kortu tenisowego 32, a mianowicie linie 38, względnie obszary wewnętrzne 36, albo obszar zewnętrzny 40. Wybrane piksele w czterokolorowej warstwie, mające określony kolor, koloruje się pojedynczym, przesuniętym kolorem, który pokrywa odpowiadające im piksele w ramce bieżącej, a następnie zapamiętuje się je. Proces kolorowania czterokolorowej warstwy powtarza się dla wszystkich trzech cech charakterystycznych. Wszystkie nie wybrane kolory z bieżącej ramki przepisuje się do czwartego przesuniętego koloru czterokolorowej warstwy.
Po akceptacji przez operatora wypadkowej czterokolorowej warstwy tworzy się tablicę przejścia LUT, określającą transformację wybranych kolorów ramki bieżącej, a przesuniętymi kolorami czterokolorowej warstwy. W razie potrzeby, wybrane przez operatora piksele zapamiętuje się w komputerowym układzie sterującym 16, co umożliwi dokonywanie korekty tablicy przejścia w czasie rzeczywistym.
W celu identyfikacji cech charakterystycznych w każdej ramce wejściowej sekwencji obrazowej, komputerowy układ sterujący 16 przesyła do układu wpisywania 14 dane każdej ramki, złożone z tablicy przejścia, oraz z pikseli wykorzystywanych do jej utworzenia.
Przedstawiony na fig. 5 układ wpisywania 14 składa się z układu identyfikacji cech charakterystycznych 60 kortu tenisowego 32, występujących w każdej ramce wejściowej sekwencji obrazowej, z układu identyfikacji perspektywy 62 do określenia kąta pola widzenia i ogniskowej aktywnej kamery 30, oraz z przetwornika 64, połączonego z układem 62 i przetwarzającego dane z płaszczyzny modelu geometrycznego 50 na płaszczyznę pola widzenia obrazu w każdej wejściowej ramce wizyjnej. Układ identyfikacji perspektywy 62 służy do określenia transformacji perspektywy między modelem geometrycznym 50, a każdą ramką wizyjną z wejściowej sekwencji obrazowej. Na wyjściu przetwornika 64 znajduje się mikser 66, służący do miksowania danych modelu geometrycznego 50 z danymi każdej ramki wizyjnej z wejściowej sekwencji obrazowej, umożliwiając tym samym wpisanie wprowadzanego obrazu 42 w istniejący obraz kortu tenisowego 32.
Układ identyfikacji cech charakterystycznych 60, wykorzystując tablicę przejścia LUT, tworzy maskę tła dla każdej wejściowej ramki wizyjnej, która to maska wskazuje części wejściowej ramki wizyjnej mające cechy tła (a więc obszary wewnętrzne, linie i obszar zewnętrzny kortu), oraz cechy planu czołowego, które nie podlegają zmianom w trakcie dalszych operacji wprowadzania obrazu do treści obrazu istniejącego.
Na fig. 6 przedstawiona jest ramka wizyjna 68 wejściowej sekwencji obrazowej, a na fig. 7 - odpowiadająca jej maska tła 70. Ramka wizyjna 68 obejmuje dwóch graczy 44, znajdujących się na korcie tenisowym 32. Maska tła 70 określa cztery obszary o czterech różnych kolorach,
176 135 które stanowią: obszar koloru linii 1, obszar koloru kortu wewnętrznego 2, obszar koloru kortu zewnętrznego 3, oraz obszar kolorów pozostałych 4. Obszary zajmowane przez graczy 44 są oznaczone obszarem kolorów pozostałych 4, i zakrywają wszystkie pozostałe obszary, na przykład obszary koloru linii 1.
Z maski tła 70, układ 60 (fig. 5) identyfikuje wszystkie cechy charakterystyczne tła (pola gry). Dlakortu tenisowego 32 tymi cechami charakterystycznymi sąbiałe linie 38. Układ identyfikacji perspektywy 62 porównuje te cechy charakterystyczne z maski tła 70 z odpowiadającymi im cechami modelu geometrycznego 50, i tworzy macierz transformacji, na podstawie której, przetwornik 64 przekształca odpowiednio wszystkie, konieczne do wpisania obrazu dane, a mianowicie: wprowadzany obraz 42, maskę lokalizacji 56 i maskę mieszania 58, dostosowując je do perspektywy wejściowej ramki wizyjnej. Następnie, z wykorzystaniem przetworzonych danych, mikser 66 wprowadza perspektywiczną wersję obrazu 42 w określony obszar tła wejściowej ramki wizyjnej. Po tej operacji, poruszający się po korcie tenisowym 32 gracze 44 zasłaniająnie tylko linie 38, ale również i wprowadzony obraz 42, co sprawia wrażenie, jakby obraz ten rzeczywiście znajdował się na korcie tenisowym 32. W celu zmieszania kolorów wprowadzonego obrazu 42 z kolorami obszaru wewnętrznego 2 kortu tenisowego 32, w który jest on wpisany, stosuje się maskę mieszania 58.
Na fig. 8 przedstawiony jest algorytm działania układu identyfikacji cech charakterystycznych 60. W operacji 72 tworzy się maskę tła 70, przez przetworzenie wielokolorowej wejściowej ramki wizyjnej na obraz czterokolorowy. z wykorzystaniem t aibli cyz przejścia LUT. Na przykhicL dla kortu tenisowego 32, w tablicy przejścia znajdują się wartości kolorów pikseli mających kolory linii 38, wartości pikseli mających kolor obszarów wewnętrznych 36 kortu 32, wartości pikseli mających kolor obszaru zewnętrznego 40, oraz wartości pikseli mających kolory pozostałe. Tablicę przejścia można utworzyć w dowolny, znany sposób.
Maska tła 70 określa piksele należące do tła, oraz piksele obszarów cech charakterystycznych, na przykład linii 38. W drugiej operacji 74, układ identyfikacji cech charakterystycznych 60 przetwarza maskę tła 70, w celu uzyskania z niej cech charakterystycznych. Tablicę przejścia konstruuje się tak, aby znajdujące się w niej cechy charakterystyczne miały jeden kolor. Dla kortu tenisowego 32, uzyskiwanie cech charakterystycznych wykonuje się przez przeglądanie kolejnych pikseli maski tła 70, i wybranie tych pikseli, które mają wartość koloru obszaru linii 1, a następnie utworzenie z nich prostych odcinków. Operacja 74 może być realizowana przez przekształcenie maski tła 70 za pomocą transformaty Hougha, opisanej na stronach 121-126 książki “Digital Picture Processing” (A. Rosenfeld i A. C. Kak, Academic Press 1981, wydanie drugie).
W wyniku przetworzenia maski tła 70, w operacji 74 powstaje tablica możliwych ech charakterystycznych, obejmująca parametry linii, opisujących odcinki w masce tła 70. Parametry te, obejmują współczynniki kierunkowe równań linii prostych, oraz współczynnik wagowy, określający liczbę pikseli w każdym odcinku prostej.
Odmiana algorytmu uzyskiwania cech charakterystycznych obrazu istniejącego przedstawiona jest na fig. 9A, 9B i 9C. Proces ten, rozpoczyna się od wybrania początkowego piksela 69 (fig. 9B) z maski tła 70, maj ącego określony kolor, na przykład biały, i od przeglądujego najbliższego otoczenia 75, w celu lokalizacji pikseli o tym samym kolorze (piksele zakreskowane na fig. 9B). W tym celu, otoczenie 75 początkowego piksela 69 dzieli się na podobszary 7172,73 i 74 o określonej wielkości, i wykonuje się histogram zawartości w tych podobszarach pikseli o szukanym kolorze (fig. 9C). Podobszar 73, mający wyraźne maksimum na histogramie wybiera się następnie jako obszar do następnego przeszukiwania.
W drugiej operacji określa się inne, przedłużone otoczenie 78, które składa się z wybranego podobszaru 73, oraz z jego przedłużenia. Całkowita długość przedłużonego otoczenia 78 jest dwukrotnie większa od długości otoczenia 75. Przedłużone otoczenie 78 dzieli się następnie na cztery podobszary 76, i operacja wyszukiwania pikseli o żądanym kolorze powtarza się.
Proces wyszukiwania cech charakterystycznych obrazu istniejącego kontynuuje się aż do czasu spełnienia jednego z dwóch kryteriów: podobszar 76 jest na tyle wąski, że może być określony jako linia prosta, lub nie otrzymuje się wyraźnego maksimum na histogramie.
W przypadku spełnienia pierwszego kryterium, zapamiętuje się współczynniki uzyskanej linii prostej, a tworzące jąpiksele koloruje się kolorem z obszaru kolorów pozostałych 4, oraz eliminuje się je z dalszych przeszukiwań. W wyniku operacji uzyskiwania cech charakterystycznych obrazu istniejącego powstaje tablica możliwych cech charakterystycznych, obejmująca cechy zarówno rzeczywiste, jak i błędne.
Na fig. 10, 11A i 11B przedstawione jest działanie układu identyfikacji perspektywy 62, według fig. 5. W operacji 80 układ identyfikacji perspektywy 62 przetwarza możliwe cechy charakterystyczne, określając przy tym cechy najbardziej prawdopodobne. W drugiej operacji 82, układ identyfikacji perspektywy 62 wybiera z cech najbardziej prawdopodobnych minimalny zestaw tych cech, i dopasowuje je do modelu geometrycznego 50. Operacja ta powtarza się do momentu znalezienia dopasowania minimalnego zestawu cech charakterystycznych do cech charakterystycznych modelu geometrycznego 50. W trzeciej operacji 84, dopasowane cechy charakterystyczne wykorzystuje się do generacji , mauerzy tnusfhrmaKjji M , przekształcającej model geometryczny 50 na obraz wejściowej ramki wizyjnej.
W operacji 80, dla kortu tenisowego 32 wykorzystuje się fakt, że linie 38 w modelu geometrycznym 50 sąrównoległe w kierunku poziomym i pionowym, zaś w widoku perspektywicznym (to jest w wejściowej ramce wizyjnej) - są zbieżne w określonej, skończonej odległości. Jest to przedstawione na fig. 11 A, na którym linie 38 kortu tenisowego 32 zostały przedłużone liniami przerywanymi, tworzące linie perspektywy 90, które przecinają się w punkcie 91 leżącym poza zewnętrznymi brzegami wejściowej ramki wizyjnej 92. Jednakże, w wyniku błędów powstałych z przetwarzania sygnału analogowego na cyfrowy może okazać się, że przedłużenia trzech linii perspektywy 90 nie przecinają się w jednym punkcie, lecz w trzech, oddalonych od siebie punktach 96 (fig. 11B).
Podczas przeprowadzania badań stwierdzono, że skoro linie perspektywy są zbieżne w odległych punktach (w przybliżenu w nieskończoności), to ich rzutowanie na płaszczyznę za pomocą funkcji asymptotycznej spowoduje, że przetną się one w punktach znajdujących się blisko siebie. Dlatego też, zgodnie ze sposobem według wynalazku, wybrane odcinki linii rzutuje się na płaszczyznę za pomocą dwuwymiarowej funkcji asymptotycznej. Jeden z takich rzutów znany jest jako rzut gnomoniczny, przedstawiony na fig. 12A i 12B.
W rzucie gnomonicznym, znajdujący się na płaszczyźnie XY 102 punkt 100 przechodzi w punkt 100' na półkuli 104. Odcinek 106 na płaszczyźnie XY 102 przechodzi w rzucie gnomonicznym w duży łuk 106' dużego koła półkuli 104.
Początek układu współrzędnych płaszczyzny XY 102 znajduje się na biegunie południowym 109 półkuli 104, zaś nieskończoność na płaszczyźnie XY 102 reprezentuje w rzucie gnomonicznym równik 108 półkuli 104. Dowolna grupa punktów 110 (fig. 12B) w pobliżu równika 108 przedstawia punkty przecięć linii perspektywy, a rzeczywiste linie posiadające te punkty, są liniami równoległymi.
Przedstawione na fig. 12B wielkie łuki 120a do 120f odpowiadają nieuwidocznionym na rysunku określonym odcinkom linii na płaszczyźnie XY 102. Trzy wielkie łuki 120a, 120bi 120c majątrzy, leżące blisko siebie punkty przecięcia 122, tworząc grupę 110a, znajdującą się w pobliżu równika 108. Wielkie łuki 120d, 120e i 120f również przecinają się w pobliżu równika 108, tworząc grupę 11 Ob. Wszystkie wielkie łuki przecinają się również w innych miejscach, bliżej bieguna południowego 109. Na przykład, wielki łuk 120a i 120e przecinają się w punkcie 122, należącym do grupy 110c.
W operacji 130, przedstawionego na fig. 13 algorytmu tworzy się tablicę wielkich łuków, z tablicy odcinków linii prostych, utworzonych z cech charakterystycznych (operacja 74 na fig. 8). Tablicę wielkich łuków tworzy się z wykorzystaniem rzutu gnomonicznego. W celu znalezienia punktów przecięcia 122, w operacji 132 przeszukuje się obszar wokół równika 108 półkuli 104.
176 135
Każdemu punktowi przecięciaprzypisuje się wartość Vk, która równajest następującemu iloczynowi:
Vk WliniaPxWlinia2^xf(Zpunktu przecięcia)’ O) gdzie f(Zpunktu przecięcia) jest dowolną funkcją asymptotyczną, mającą przebieg korzystnie analogiczny do krzywej 134 przedstawionej na fig. 12C. Większość punktów na tej krzywej 134 ma małe wartości, natomiast punkty znajdujące się w pobliżu równika 108 mająwartości bliskie jedności. Przykładem krzywej 134 może być funkcja f(Zpunktt przecięcia)=Z5.
W operacji 136 przeszukuje się najbliższe otoczenie każdego punktu przecięcia 122, w celu znalezienia ewentualnie innych punktów przecięcia. Jeżeli w otoczeniu każdego punktu przecięcia 122 znajdują się inne punkty przecięcia, wówczas punkt przecięcia 122, oraz punkty nowoznalezione zapamiętuje się jako grupę 110 (fig. 12B), która może być określona za pomocą wartości progowej funkcji f(Zpunku przecięci.). Grupa 110 może obejmować jeden punkt przecięcia 122 (grupa 110c), lub kilka punktów przecięcia 122 (grupa 110b). Po znalezieniu wszystkich punktów przecięcia 122, określa się położenie każdej z grup 110, przez określenie wyznaczonego przez nie środka ciężkości, określonego przez współczynnik wagowy będący sumą wartości Vk punktów przecięcia 122. W operacji 138 wybiera się dwie grupy 110 o największych współczynnikach wagowych, na przykład grupy 110a i 110b. W następnej operacji 140 przyjmuje się, że jedna z grup 110a albo 110b reprezentuje linie poziome, a druga linie pionowe, natomiast odcinki linii prostych, odpowiadające wielkim łukom obydwu wybranych grup 110a i 110b, określa się jako linie poziome i pionowe. W operacji 142, ze wszystkich poziomych i pionowych linii wybiera się dwie linie pionowe i dwie linie poziome, o największych współczynnikach wagowych, określonych wartością Wnna j.
Wybrane poziome i pionowe linie 146 z linii na fig. 11A przedstawione są na fig. 14A. W operacji 144 (fig. 13) określa się i zapamiętuje punkty narożne A, B, C i D, powstałe z przecięcia się czterech wybranych linii 146, które mogąprzecinać się poza wejściowąramkąwizyjną(fig. 14A).
W operacjach 130 do 144 identyfikuje się rzeczywiste cechy w wejściowej ramce wizyjnej (operacja 80 na fig. 10). Po realizacji operacji 144 uzyskuje się rzeczywiste cechy charakterystyczne wejściowej ramki wizyjnej, służące do dopasowania do modelu geometrycznego 50, co realizuje się w pozostałych operacjach 150, 152, 154, 156, 158, 160, 161, 162 i 164 na fig. 13. Dodatkowo, w tych operacjach określa się transformację przekształcającą model geometryczny 50 na obraz wejściowej ramki wizyjnej (operacja 82 i 84 na fig. 10).
Standardowy kort tenisowy 32 zawiera pięć linii pionowych i cztery linie poziome. Ze względu na identyczność obydwu połówek kortu tenisowego 32, w analizie ważne sąjedynie trzy linie poziome. Liczba różnych czworoboków, które mogą być utworzone z dwóch, z trzech możliwych linii poziomych (trzy kombinacje), oraz z dwóch z pięciu linii pionowych (dziesięć kombinacji) wynosi trzydzieści. Trzydzieści czworoboków może mieć cztery różne konfiguracje, co daje całkowitą liczbę czworoboków 120.
W operacji 150 (fig. 13), z modelu geometrycznego 50 wybiera się jeden ze 120 czworoboków, przez wybór czterech jego punktów narożnych A', B', C' i D' (fig. 14B). W kolejnej operacji 152 określa się macierz transformacji M, która przekształca cztery punkty narożne A', B', C' i D' modelu geometrycznego 50 na cztery punkty narożne A, B, C i D wejściowej ramki wizyjnej (fig. 14A). Macierz transformacji M można przedstawić jako złożenie kilku kolejnych przekształceń prostych, co jest przedstawione na fig. 15.
Czworobok 180' o punktach narożnych A', B', C' i D'jest modelowym czworobokiem na płaszczyźnie XY. Czworobok 182 jest kwadratem jednostkowym o współrzędnych (0,1), (11), (0, 0) i (1,0) na płaszczyźnie TS, zaś czworobok 184 jest czworobokiem w widoku perspektywicznym na płaszczyźnie UV. Transformacja czworoboku modelowego 180' na czworobok perspektywiczny 184 może być przedstawiona jako złożenie dwóch przekształceń: przesunięcia i skalowania czworoboku modelowego 180' na czworobok jednostkowy 182, opisanych macierzą przesunięcia i skalowania T, oraz przeniesienia perspektywicznego czworoboku jednostkowego
176 135
182 na czworobok perspektywiczny 184, opisanego przez macierz perspektywy P. Macierz przesunięcia i skalowania T ma we współrzędnych prostokątnych XY postać:
0 S, 0 Ty L (2) gdzie Sx i Sy są współczynnikami skali, a Tx i Ty są współczynnikami przeniesienia w kierunku osi X i Y, określonych równaniem:
(x,y, l)xT = (s, t, 1) (3) dla czterech współrzędnych (x, y, 1) czworoboku modelowego 180' i czterech współrzędnych (s, t, 1) czworoboku jednostkowego 182.
Macierz perspektywy P ma we współrzędnych UV następującą postać:
«1! «12 «13
P= «21 «22 «23
-«31 «32 «33 -
(4) której elementy określa się z następującego równania:
(s, t, 1) x P = (u, v, w) (5) gdzie (u, v, w) przedstawiają znane współrzędne punktów narożnych A, B, C i D czworoboku 184, przy czym współrzędna w jest zawsze znormalizowana.
Zakładając ajj = 1, można obliczyć pozostałe elementy macierzy perspektywy P następująco:
Z warunku (s, t, 1) - (0, 0, 1) określa się:
a31 = U00 i a32 = V00 (6)
Z warunku (s, t, 1) = (1, 0, 1) określa się:
a11 + a31 = U10(a13 + 1) => a1 = Uio(a13 + O U00 a12 + a32 = V10(a13 + 1) => a22 = V,0(a^ + 11 - Voo (7)
Z warunku (s, t, 1) = (0, 1, 1) określa się:
a21 + a31 = U0i(a23 + 1) => a21 = U0|(a23 + 1) - U00 a22 + a32 = V01(a23+ 1) => a22 = V0](a23 + 1)- Voo (8)
Natomiast z warunku (s, t, 1) = (0, 0, 1) określa się: an + a21 + a31 = U^a^ + a23 + 1) a12 + a22 + a32 = V1l(a13 + a23 + 1 (9)
176 135
Z równań (7, 8 i 9) uzyskuje się układ dwóch równań z dwiema niewiadomymi, będącymi elementami an i a23:
a13(UW Ul0 + a23(U01 - U11) = U11J + U00 - U10 - U01 a13(VW - VlÓ + a23(V01 - V11) = Vu + V00 - Vlo - V01 (10)
Po wyznaczeniu, elementów an i a23 macierzy perspektywy P znajduje się pozostałe jej elementy z równań (7) i (8). Macierz transformacji M jest iloczynem macierzy przeniesienia i skalowania T i macierzy perspektywy P, w postaci:
M = T x P (11)
Po odwzorowaniu linii 38 modelu geometrycznego 50 na wejściowej ramce wizyjnej, w wyniku zastosowania macierzy transformacji M, w operacji 154 (fig. 13) otrzymuje się zniekształconą ramkę 156 (fig. 16), mającą wartości boolowskie 1 w miejscach przetworzonych pikseli modelu geometrycznego 50, oraz wartości boolowskie 0 w pozostałych miejscach. Punkty narożne A', B', C' i D' modelu geometrycznego 50 odpowiadają przyporządkowanym im punktom narożnym A, B, C i D wejściowej ramki wizyjnej, a pozostałe punkty tego modelu geometrycznego 50, które nie są dopasowane do wejściowej ramki wizyjnej, nie są uwzględniane w analizie.
W operacji 158 (fig. 13) zniekształconą ramkę 156 (fig. 16) poddaje się, łącznie z maską tła 70A (fig. 7), operacji logicznej EXOR, która daje na wyjściu wartość boolowską 0 w dwu przypadkach, a mianowicie kiedy piksele zniekształconej ramki 156 mają wartość boolowską 1 (kolor linii w wejściowej ramce wizyjnej), oraz kiedy piksele zniekształconej ramki 156 mają wartość boolowską 0, a piksele wejściowej ramki wizyjnej mają inny kolor niż kolor linii w tej ramce wizyjnej. W pozostałych przypadkach, operacja logiczna EXOR daje na wyjściu wartość boolowską 1.
W operacjach 160 i 161 (fig. 13) zlicza się piksele mające wartość boolowską 1, a otrzymana wartość stanowi współczynnik wagowy dla macierzy transformacji M. Po określeniu wszystkich współczynników wagowych dla każdej macierzy· transformacj i M, w operacj i 162 wybiera się· macierz transformacji M o najmniejszym współczynniku wagowym. W operacji 164, współczynnik wagowy wybranej macierzy transformacji M porównuje się z ustaloną wartością progową. Jeżeli współczynnik wagowy wybranej macierzy transformacji M jest większy od wartości progowej, wówczas elementy tej macierzy transformacji M przyjmują wartości zerowe. Ma to na przykład miejsce, kiedy kamery telewizyjne filmują publiczność, a nie kort tenisowy. Zerowe macierze transformacji M pojawiają się również wtedy, gdy wynik poprzedniej operacji jest negatywny, w przeciwnym przypadku, wybrana macierz transformacji M wykorzystywana jest w dalszej analizie.
Na fig. 17 przedstawiony jest algorytm działania przetwornika 64 i miksera 66 z fig. 5. W celu zniekształcenia wprowadzanego obrazu 42, maski lokalizacji 56 i maski mieszania 58, aby dopasować je do wejściowej ramki wizyjnej, w operacji 170 przetwornik 64, wykorzystując wybraną macierz transformacji M, poddaje maskę lokalizacji 56 i maskę tła 70 operacji logicznej AND. Wynikiem tej operacji jest maska zezwolenia, która określa te piksele z wejściowej ramki wizyjnej, które są zarówno pikselami tła, jak i pikselami w rejonie wprowadzanego obrazu 42. Na podstawie maski mieszania 58 i maski zezwolenia, mikser 66 tworzy kombinację zniekształconego wprowadzanego obrazu 42 i wejściowej ramki wizyjnej. Miksowanie to, realizuje się dla każdego piksela o współrzędnych (x, y) zgodnie z zależnością:
Wyjście(x, y) = β(χ, y) x obraz(x, y) + [1-β(χ, y)] x ramka(x, y) β(χ, y) = a(x, y) x P(x, y) (12) (13) gdzie wyjście^, y) stanowi wartość piksela wejściowej ramki wizyjnej, obraz^, y) i ramka(x, y) są odpowiednio wartościami pikseli wprowadzanego obrazu 42 i wejściowej ramki wizyjnej, aa(x, y) jest wkrtościącikseli maski mieszania 58, zaś P (x, y) jest wartościąpikseli maski zezwolenia.
W powyższej operacji zakłada się, że tablica przejścia LUT, tworząca maskę tła 70, pozostaje niezmienna podczas całej gry na korcie tenisowym 32. W przypadku zmiany oświetlenia, co często ma miejsce podczas gry na otwartej przestrzeni, kolory w wejściowej ramce wizyjnej zmieniają się, w wyniku czego maska tła 70 nie określa prawidłowo kolorów elementów tła. Z tego powodu,· okresowo przeprowadza się operację kalibracyanel zilustrowaną na fig. 18.
W operacji kklibracyjoej, punkty testowe, określające cechy charakterystyczne tła (to jest linie kortu tenisowego, obszar wewnętrzny tego kortu, i obszar zewnętrzny) wybierane są przez operatora, a ich lokalizacje, oraz wartości ich kolorów - zapamiętywane. Po określeniu macierzy kolyracyanya wejściowej ramki wizyjnej, lokalizacje punktów testowych przetwarza się z płaszczyzny tej ramki wizyjnej na płaszczyznę modelu geometrycznego 50, przez zastosowanie odwrotnej macierzy transformacji M.
Po określonym czasie, kiedy niezbędna jest ponowna kalibracja, punkty testowe przetwarza się z płaszczyzny modelu geometrycznego 50 na płaszczyznę bieżącej wejściowej ramki wizyjnej. W tym celu, wybiera się znajdujące się w tej ramce wizyjnej zniekształcone punkty testowe i bada się ich otoczenie. Następnie przelicza się charakterystyki koloru każdego otoczenia (na przykład z wykorzystaniem histogramów), a otrzymane wartości porównuje się z charakterystykami koloru zapamiętanymi dla danego punktu testowego.· Jeżeli po tej ponownej kalibracji wystąpi znaczna zmiana koloru, wówczas koryguje się tablicę przejścia LUT, a określone punkty testowe przetwarza się stosownie do modelu geometrycznego 50 i zapamiętuje.
Opisany powyżej proces wprowadzania obrazu w obraz istniejący odnosi się do gier rozgrywanych na statycznym tle, którego cechy są znane. Jeżeli natomiast informacje o tle ulegają zmianom, wtedy proces wprowadzania obrazu w obraz istniejący modyfikuje się, przez wprowadzenie dodatkowej operacji śledzenia, oraz przez uwzględnienie zmiennych parametrów kamery. Jeżeli informacje o położeniu każdej filmującej kamery, kątach ich obrotu, oraz długości ich ogniskowych sąz^ne i sczytywane z zewnątrz, względnie obliczone, wówczas opisany powyżej proces wprowadzania obrazu w obraz istniejący ulega skróceniu, gdyż zmniejsza się liczba stopni swobody macierzy perspektywy P.
Informacje dotyczące położenia, kąta obrotu i długości ogniskowej każdej kamery mogą być zawarte w macierzy perspektywy P, co z kolei umożliwia ponowne określenie zarówno macierzy perspektywy P, jak i macierzy transformacji M, jako funkcję parametrów każdej z kamer, zilustrowanej na fig. 19. Lokalizacja kamery jest określona wektorem 171, mającym współrzędne (x, y, z) w prostokątnym układzie współrzędnych XYZ172, o środku w punkcie 0. Kamera obraca się i pochyla wokół swoich trzech osi U, V i W, w kierunku 173,174 i 175. Ponadto, kamera zmienia swą ogniskową wzdłuż osi V w kierunku 176.
Figury 20,21 i 22 przedstawiają operację identyfikacji kamery, przez określanie, a następnie wykorzystanie parametrów kamery do procesu wprowadzania obrazu w obraz istniejący. W tym przykładzie rozwiązania zakłada się, że: kamera nie obraca się wokół osi V, format piksela w obrazie kamery (to jest stosunek szerokości piksela do jego wysokości) jest kwadratowy i równy jedności, oraz, że kamera nie zmienia swego położenia podczas każdej ramki wizyjnej, ajedynie pochylenie, obrót i długość ogniskowej. Wówczas macierz perspektywy P parametryzuje się jako funkcję położenia (x, y, z) kamery, jej pochylenia, obrotu i długości ogniskowej. Po zidentyfikowaniu nowego ujęcia kamery, całą operację identyfikacji perspektywy (operacja 180 na fig. 20) przeprowadza się na pierwszej ramce wizyjnej tego ujęcia. W operacji. 180 tworzy się elementy ι(ι, j) macierzy perspektywy P. Następnie, operacja przebiega dwukierunkowo. W pierwszym z nich określa się macierz transformacji M (zaczynając od operacji 154 na fig. 13), zaś w drugim - określa się współrzędne kamery (x, y, z) (operacja 184) z macierzy perspektywy P (rozdział 3.4 książki “Three Dimensional Computer Vision: A Feometric Viewcoint”, O. Fangeras, MIT Press 1993).
176 135
Po określeniu współrzędnych (x, y, z) kamery, w operacjach 186 i 188 wykonuje się sprawdzenie dwóch warunków: czy element a13 macierzy perspektywy P jest równy zero (operacja 186), oraz czy format AR pikseli w obrazie kamery jest kwadratowy (operacja 188). Niespełnienie pierwszego warunku oznacza, że kamera nie obraca się w kierunku 174. Jeżeli jeden z tych dwóch warunków nie jest spełniony, wówczas dalszą część procesu anuluje się, zaś w przypadku spełnienia obydwu tych warunków, tworzy się iloczyn następujących macierzy (operacja 190): ogniskowej [f] (stanowiącej macierz rzutu ogniskowej kamery na płaszczyznę XYZ), przeniesienia (stanowiącej macierz przeniesienia położenia ze środka układu współrzędnych do położenia obliczonego (x, y, z)), pochylenia [a] (stanowiącej macierz obrotu kamery wokół osi U o kąt α, oraz obrotu [Θ] (stanowiącej macierz obrotu wokół osi W o kąt Θ).
Z wykorzystaniem parametrów kamery: długości ogniskowej, pochylenia, obrotu i przesunięcia, kalibruje się pierwszą kamerę (operacja 192), ajej parametry wpisuje się do tablicy 194 zidentyfikowanych kamer (fig. 21).
Skrócony algorytm obliczeniowy, przedstawiony na fig. 22, wykonuje się dla wszystkich ramek wizyjnych kamery. W celu określenia podobieństwa bieżącej ramki wizyjnej do poprzednich ramek, każdą bieżącą ramkę bada się w operacji 196, z wykorzystaniem macierzy [a], [0] i [f]. To dopasowanie określa się za pomocą współczynnika dopasowania, będącego 'stosunkiem ilości niezbędnych pikseli w ramce wizyjnej po odwzorowaniu, do ilości pikseli w modelu geometrycznym 50, będącej wartością wyliczoną. Jeżeli uzyskuje się duży współczynnik dopasowania między bieżącąramką wizyjną, a poprzednimi ramkami, to wyliczoną macierz transformacji M stosuje się w procesie wprowadzania obrazu 42 w obraz istniejący (fig. 17). Mała wartość współczynnika dopasowania oznacza, że ta ramka wizyjna może pochodzić z drugiej kamery, której parametry są zawarte w tablicy 194.
W celu zidentyfikowania drugiej kamery przegląda się bieżącą ramkę wizyjną, oraz identyfikuje się jedną z linii i należący do niej punkt charakterystyczny, na przykład punkt przecięcia z inną linią (operacja 198).
W operacji 200, dla każdej kamery, której parametry zawarte są w tablicy 194, określa się współczynnik dopasowania następująco: zidentyfikowaną linię i jej punkt charakterystyczny bieżącej ramki wizyjnej łączy się z odpowiadającąjej linią i punktem charakterystycznym z modelu geometrycznego 50, po czym określa się macierz perspektywy P, a następnie, z wykorzystaniem tej macierzy perspektywy P transformuje się linię i punkt charakterystyczny z modelu geometrycznego 50 na zidentyfikowaną linię i punkt charakterystyczny bieżącej ramki wizyjnej. Każda macierz perspektywy P jest funkcją znanych współrzędnych (x, y, z) kamery, oraz nieznanych macierzy: ogniskowej [f], pochylenia [α] i obrotu [Θ], Wypadkową macierz perspektywy P określa się zatem przez obliczenie tych nieznanych macierzy, przy założeniu, że zidentyfikowana linia i jej punkt charakterystyczny są dopasowane do analogicznej linii i punktu charakterystycznego z modelu geometrycznego 50.
Macierz transformacji M (analogicznie jak na fig. 10) określa się z macierzy perspektywy P, którą wykorzystuje się następnie do przekształcenia (deformacji) modelu geometrycznego 50 na płaszczyznę obrazu w bieżącej ramce wizyjnej. Po dopasowaniu linii modelu geometrycznego 50 do linii w obrazie bieżącej ramki wizyjnej uzyskuje się określoną wartość współczynnika dopasowania.
Operację łączenia zidentyfikowanej linii i jej punktu charakterystycznego w bieżącej ramce wizyjnej z określoną linią i punktem charakterystycznym modelu geometrycznego 50, tworzenie macierzy perspektywy P ze znanych parametrów kamery, oraz określanie wartości współczynnika dopasowania powtarza się dla każdej możliwej kombinacji linii i jej punktu charakterystycznego z modelu geometrycznego 50.
Jeżeli wartości współczynników dopasowania mają wartości znormalizowane, znacznie mniejsze od jedności (co oznacza złe dopasowanie), to operacja dopasowania powtarza się dla bieżącej ramki wizyjnej z drugiej kamery, której współrzędne (x, y, z) sąznane. Największy, obliczony dla każdej kamery współczynnik dopasowania wpisuje się do kolumny 202 tablicy 194 (fig. 21).
176 135
W operacji 204 wybiera się z tablicy 194 kamerę o największym współczynniku dopasowania i porównuje się go z ustaloną wartością progową. Jeżeli współczynnik dopasowania wybranej kamery jest większy od wartości progowej, wówczas uzyskaną macierz perspektywy P wykorzystuje się do algorytmu działania przetwornika i miksera (fig. 17). Największa, lecz mniejsza od wartości progowej wartość współczynnika dopasowania z kolumny 202 tablicy 194 oznacza, że wejściowe ramki obrazowe nie pochodzą z tych kamer. W tym przypadku przeprowadza się operację identyfikacji perspektywy (fig. 10), a następnie operację identyfikacji kamery (fig. 20).
FIG. 3
176 135
FIG. 4A
FIG 4B
FIG.4C
176 135
Wprowadzany obraz
FIG. 5
FIG. 7
177)135
Tablica
LUT
Ramka wejściowa
FIG. 8
Ustalenie otoczenia piksela: kąt początkowy:0° kąt końcowy: 180° odległość: 8 pikseli
W ramce zostały sprawdzone wszystkie piksele
Konstrukcja obszaru otoczenia piksela i jego podział na cztery podobszary
Konstrukcja histogramów dla czterech podobszarów
Wstawienie:
kąt początkowy =» początek podobszaru kąt końcowy = koniec podobszaru odległość = odległość x 2 ^Czy podobszar jest dość wąski*’
TAK
NIE
Przestawienie pierwszego białego piksela na kolor pozostały
Przestawienie wszystkich białych pikseli tworzących ' linię na kolor pozostały Zapamiętanie współczynników kierunkowych linii proste
176 135
FIG. 9B FIG. 9C
Liczba pikseli
FIG. 10
176 135 s
Β
ι
D
FIG. 11B
176 135
FIG. 12B
176 135
FIG. 12C
Czy istnieje grupa o
FIG. 14A
C’ , B' /V
\
D' A'
E
FIG. 14B
176 135
FIG. 15
FIG. 16
176 135
Maska tła
wejściowa
Ramka wyjściowa
FIG. 17
Dane użytkownika
Skorygowana tablica LUT
FIG. 18
W
FIG. 20
202
Numer kamery Stałe współrzędne kamery Zmienne współrzędne kamery Współczynnik dopasowania
1 ΧΧΖ °1 .Θ1 . f1
2
3
N
194
FIG. 21
FIG. 22
176 135
Ramka wejściowa jL
Ramka wyjściowa
-X
Θ27 26
24
FIG. 1
Departament Wydawnictw UP RP. Nakład 70 egz. Cena 6,00 zł.

Claims (28)

  1. Zastrzeżenia patentowe
    1. Sposób wprowadzania obrazu do treści obrazu istniejącego, znajdującego się w każdej ramce wejściowej sekwencji obrazowej, i przedstawiającego filmowane przynajmniej przez jedną, ruchomą kamerę telewizyjną działania zachodzące w przestrzeni tła o statycznych płaskich powierzchniach, w które wpisuje się wprowadzany obraz, znamienny tym, że niezależnie dla każdej wejściowej ramki wizyjnej z kamery generuje się płaski model geometryczny o statycznych powierzchniach przestrzeni tła, i mający określające go cechy charakterystyczne oraz maskę lokalizacji, określaj ącąwybranąpowierzchnię modelu geometrycznego dla wprowadzanego obrazu, po czym, na podstawie modelu geometrycznego i maski lokalizacji określa się wybraną powierzchnię w wejściowej ramce wizyjnej, w którą wpisuje się wprowadzany obraz, jeżeli wybrana powierzchnia znajduje się w wejściowej ramce wizyjnej.
  2. 2. Sposób według zastrz. 1, znamienny tym, że wprowadzany obraz i maskę lokalizacji konstruuje się na oddzielnym stanowisku projektowania.
  3. 3. Sposób według zastrz. 1, znamienny tym, że określenie wybranej powierzchni w wejściowej ramce wizyjnej realizuje się przez przeglądanie każdej pojedynczej wejściowej ramki wizyjnej i identyfikację cech charakterystycznych jej statycznych powierzchni oraz przez określenie transformacji perspektywicznej między modelem geometrycznym a cechami charakterystycznymi każdej wejściowej ramki wizyjnej.
  4. 4. Sposób według zastrz. 3, znamienny tym, że do przeglądania każdej pojedynczej wejściowej ramki wizyjnej i identyfikacji cech charakterystycznych jej statycznych powierzchni wykorzystuje się utworzoną uprzednio maskę tła, określającą lokalizację cech charakterystycznych elementów tła, i maskę planu czołowego, wskazującą obszary tła czołowego nie pokrywanego przez wprowadzany obraz, i którą tworzy się z części danych maski tła.
  5. 5. Sposób według zastrz. 4, znamienny tym, że maskę tła tworzy się przez przetworzenie, za pośrednictwem tablicy przejścia (LUT), kolorów każdej wejściowej ramki wizyjnej na kolor cech charakterystycznych, kolor elementów tła i kolor elementów planu czołowego.
  6. 6. Sposób według zastrz. 5, znamienny tym, że tablicę przejścia (LUT) tworzy się z kolorów wskazanych przez użytkownika.
  7. 7. Sposób według zastrz. 4, znamienny tym, że wprowadzany obraz i maskę lokalizacji poddaje się transformacji perspektywicznej, po czym miksuje się je z każdą pojedynczą wejściową ramką wizyjną i maską planu czołowego.
  8. 8. Sposób według zastrz. 4, znamienny tym, że wprowadzany obraz, maskę lokalizacji i utworzoną uprzednio maskę mieszania, poddaje się transformacji perspektywicznej, po czym miksuje się je z każdą pojedynczą wejściową ramką wizyjną i maską planu czołowego.
  9. 9. Sposób według zastrz. 4, znamienny tym, że wykorzystuje się cechy charakterystyczne mające postać linii.
  10. 10. Sposób według zastrz. 9, znamienny tym, że identyfikacji cech charakterystycznych dokonuje się przez poddanie linii transformacji Hougha.
  11. 11. Sposób według zastrz. 9, znamienny tym, że identyfikacji cech charakterystycznych dokonuje się przez badanie i ciągłe zawężanie otoczenia pikseli, po czym na podstawie znalezionych pikseli określa się współczynniki kierunkowe uzyskanych linii.
  12. 12. Sposób według zastrz. 11, znamienny tym, że współczynniki kierunkowe linii określa się przez rzutowanie uzyskanych cech charakterystycznych na płaszczyznę za pomocą funkcji asymptotycznej.
  13. 13. Sposób według zastrz. 9, znamienny tym, że wykorzystuje się przestrzeń tła będącą boiskiem sportowym, przy czym po określeniu współczynników kierunkowych linii określa się liczbę możliwych prostokątów na modelu geometrycznym i lokalizację ich naroży, przez wybranie dwóch poziomych i dwóch pionowych linii ze zidentyfikowanych cech charakterystycznych i określenie ich punktów przecięcia, po czym generuje się macierz transformacji i przekształca się naroża każdego prostokąta modelu geometrycznego na punkty przecięcia się linii z cech charakterystycznych w wejściowej ramce wizyjnej, z wykorzystaniem maski tła do dopasowania każdego przetransformowanego modelu geometrycznego do każdej pojedynczej wejściowej ramki wizyjnej, anastępnie, do analizy następnej wejściowej ramki wybiera się tę macierz transformacji, która najlepiej pasuje do cech charakterystycznych wejściowej ramki wizyjnej.
  14. 14. Sposób według zastrz. 13, znamienny tym, że określa się współrzędne kamer telewizyjnych, po czym oblicza się bieżącą macierz transformacji jako iloczyn macierzy współrzędnych pochylenia, obrotu i długości ogniskowej kamer, a następnie, na podstawie tych macierzy identyfikuje się kamery przez określenie współczynnika dopasowania, i zapamiętuje się parametry zidentyfikowanych kamer, przy czym określanie współrzędnych i identyfikację kamer powtarza się dla każdej wejściowej ramki wizyjnej.
  15. 15. Sposób wprowadzania obrazu do treści obrazu istniejącego, znajdującego się w każdej ramce wejściowej sekwencji obrazowej, i przedstawiającego filmowane przynajmniej przez jedną, ruchomą kamerę telewizyjną działania zachodzące w przestrzeni tła o statycznych płaskich powierzchniach, w które wpisuje się wprowadzany obraz, znamienny tym, że niezależnie dla każdej wejściowej ramki wizyjnej generuje się płaski model geometryczny statycznych powierzchni tła, i zawierający określające te powierzchnie cechy charakterystyczne, po czym, przed wpisaniem w nie wprowadzanego obrazu, płaski model geometryczny przekształca się perspektywicznie.
  16. 16. Sposób według zastrz. 15, znamienny tym, że w modelu geometrycznym wykorzystuje się cechy charakterystyczne stanowiące przynajmniej jedną grupę linii i łuków.
  17. 17. Sposób według zastrz. 16, znamienny tym, że linie i łuki modelu geometrycznego opisane są zależnościami na płaszczyźnie.
  18. 18. Sposób według zastrz. 15, znamienny tym, że cechy charakterystyczne modelu geometrycznego opisane są na płaszczyźnie zależnościami wektorowymi.
  19. 19. Sposób wprowadzania obrazu do treści obrazu istniejącego, znajdującego się w każdej ramce wejściowej sekwencji obrazowej, i przedstawiającego filmowane przynajmniej przez jedną, ruchomą kamerę telewizyjną działania zachodzące w przestrzeni tła o statycznych płaskich powierzchniach, w które wpisuje się wprowadzany obraz, znamienny tym, że generuje się płaski model geometryczny o statycznych powierzchniach przestrzeni tła, zawierający określające te powierzchnie cechy charakterystyczne, po czym modelel geometryczny wykorzystuje się do perspektywicznego zniekształcenia wprowadzanego obrazu, analogicznie do perspektywy wejściowej ramki wizyjnej, a następnie, dla tej ramki, zawierającej przynajmniej część powierzchni statycznych modelu geometrycznego, tworzy się maskę tła, określającej obszary zmienialne wejściowej ramki wizyjnej oraz jej powierzchnie stałe, po czym zniekształcony perspektywicznie wprowadzany obraz miksuje się z obszarem zmienialnym maski tła.
  20. 20. Sposób według zastrz. 19, znamienny tym, że generuje się model geometryczny niezależnie od wejściowych ramek wizyjnych.
  21. 21. Sposób według zastrz. 19, znamienny tym, że do zniekształcenia perspektywicznego wprowadzanego obrazu wykorzystuje się macierz transformacji.
  22. 22. Sposób według zastrz. 19, znamienny tym, że przed perspektywicznym zniekształceniem wprowadzanego obrazu tworzy się maskę lokalizacji, określającej położenie wprowadzanego obrazu na modelu geometrycznym, którą zniekształca się perspektywicznie łącznie z wprowadzanym obrazem.
  23. 23. Sposób według zastrz. 22, znamienny tym, że podczas miksowania zniekształconego perspektywicznie wprowadzanego obrazu z obszarem zmienialnym maski tła, miksuje się z nimi maskę lokalizacji, tworząc maskę zezwolenia określającą te piksele w wejściowej ramce wizyjnej, w które wpisuje się kolejne piksele wprowadzanego obrazu.
  24. 24. Sposób według zastrz. 23, znamienny tym, że tworzy się zniekształconą perspektywicznie maskę mieszania, określającą różne odcienie kolorów wprowadzanego obrazu, którą miksuje się następnie z wprowadzanym obrazem i z maską zezwolenia.
  25. 25. Sposób według zastrz. 24, znamienny tym, że podczas miksowania maski mieszania, maski zezwolenia i wprowadzanego obrazu, każdemu pikselowi z wejściowej ramki wizyjnej o współrzędnych (x, y) przypisuje się wartość koloru zgodnie z zależnością:
    (Wyjście)(x, y) = (β)(χ, y) x (obraz)(x, y) + [1-(β)(χ, y)] x (ramka)(x, y), gdzie (β)(χ, y) = (a)(x, y) x (P')(x, y), przy czym («)(x, y) i (P')(x, y) są wartościami pikseli maski mieszania i maski zezwolenia, zaś (obraz)(x, y) i (ramka)(x, y) są odpowiednio wartościami pikseli wprowadzanego obrazu i zmienialnego obszaru wejściowej ramki wizyjnej.
  26. 26. Urządzenie do wprowadzania obrazu do treści obrazu istniejącego, przedstawionego w przestrzeni tła o statycznych powierzchniach i filmowanego przynajmniej przez jedną kamerę oraz zaopatrzone w komputerowy układ sterujący, znamienne tym, że składa się z układu wychwytywania ramki (10) z sygnału wizyjnego, i z połączonego z nim na wyjściu układu wpisywania (14) wprowadzanego obrazu (42), połączonego z komputerowym układem sterującym (16) za pomocą magistrali danych (29) i zaopatrzonego w układ identyfikacji cech charakterystycznych (60) powierzchni statycznych wejściowej ramki wizyjnej, w połączony z nim układ identyfikacji perspektywy (62) do określenia transformacji perspektywy między modelem geometrycznym (50), a cechami charakterystycznymi wejściowej ramki wizyjnej, oraz w połączony z układem identyfikacji perspektywy (62) przetwornik (64), na którego wyjściu przyłączony jest mikser (66), połączony z wejściem układu identyfikacji cech charakterystycznych (60).
  27. 27. Urządzenie według zastrz. 26, znamienne tym, że jest zaopatrzone w oddzielny układ projektowania (12) do konstruowania wprowadzanego obrazu (42) i maski lokalizacji (56).
  28. 28. Urządzenie według zastrz. 26, znamienne tym, że układ identyfikacji cech charakterystycznych (60) połączony jest na wyjściu z mikserem (66).
PL95316621A 1994-03-14 1995-02-27 Sposób i urządzenie do wprowadzania obrazu do treści obrazu istniejącego PL176135B1 (pl)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IL10895794A IL108957A (en) 1994-03-14 1994-03-14 Video sequence imaging system
PCT/US1995/002424 WO1995025399A1 (en) 1994-03-14 1995-02-27 A system for implanting an image into a video stream

Publications (2)

Publication Number Publication Date
PL316621A1 PL316621A1 (en) 1997-01-20
PL176135B1 true PL176135B1 (pl) 1999-04-30

Family

ID=11065923

Family Applications (1)

Application Number Title Priority Date Filing Date
PL95316621A PL176135B1 (pl) 1994-03-14 1995-02-27 Sposób i urządzenie do wprowadzania obrazu do treści obrazu istniejącego

Country Status (22)

Country Link
US (2) US5491517A (pl)
EP (1) EP0750819B1 (pl)
JP (1) JPH09510336A (pl)
KR (1) KR100260786B1 (pl)
CN (1) CN1087549C (pl)
AT (1) ATE211872T1 (pl)
AU (1) AU692529B2 (pl)
BG (1) BG62114B1 (pl)
BR (1) BR9507057A (pl)
CA (1) CA2179031C (pl)
CZ (1) CZ286248B6 (pl)
DE (1) DE69524946D1 (pl)
HU (1) HU220409B (pl)
IL (1) IL108957A (pl)
LV (1) LV11716B (pl)
NO (1) NO963811L (pl)
NZ (1) NZ282275A (pl)
PL (1) PL176135B1 (pl)
RU (1) RU2108005C1 (pl)
TW (1) TW367452B (pl)
WO (1) WO1995025399A1 (pl)
ZA (1) ZA951403B (pl)

Families Citing this family (190)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US5903317A (en) * 1993-02-14 1999-05-11 Orad Hi-Tech Systems Ltd. Apparatus and method for detecting, identifying and incorporating advertisements in a video
EP0792068B1 (en) * 1993-10-27 1999-11-03 Princeton Video Image, Inc. . Downstream control of electronic billboard
IL109487A (en) 1994-04-29 1996-09-12 Orad Hi Tec Systems Ltd Chromakeying system
EP0711078B1 (en) 1994-11-04 2002-05-15 Matsushita Electric Industrial Co., Ltd. Picture coding apparatus and method
US5726716A (en) * 1995-03-07 1998-03-10 Nec Corporation Perspective representation system for displaying portions of an original picture in a displayable picture
US6047130A (en) * 1995-04-24 2000-04-04 Environmental Protection Systems, Inc. Apparatus and method for portrait photography
US5892554A (en) * 1995-11-28 1999-04-06 Princeton Video Image, Inc. System and method for inserting static and dynamic images into a live video broadcast
AU6276196A (en) * 1995-06-16 1997-01-15 Princeton Video Image, Inc. System and method of real time insertions into video using adaptive occlusion with a synthetic reference image
US5912700A (en) * 1996-01-10 1999-06-15 Fox Sports Productions, Inc. System for enhancing the television presentation of an object at a sporting event
GB9514313D0 (en) * 1995-07-13 1995-09-13 Beattie Robert J Live-ads
GB2305050A (en) * 1995-09-08 1997-03-26 Orad Hi Tec Systems Ltd Determining the position of a television camera for use in a virtual studio employing chroma keying
GB9601101D0 (en) * 1995-09-08 1996-03-20 Orad Hi Tech Systems Limited Method and apparatus for automatic electronic replacement of billboards in a video image
US20090012864A1 (en) * 2007-07-02 2009-01-08 Goldberg Sheldon F Compensation model for network services
US9530150B2 (en) * 1996-01-19 2016-12-27 Adcension, Llc Compensation model for network services
GB2312582A (en) * 1996-01-19 1997-10-29 Orad Hi Tech Systems Limited Insertion of virtual objects into a video sequence
US6264560B1 (en) 1996-01-19 2001-07-24 Sheldon F. Goldberg Method and system for playing games on a network
US5823879A (en) * 1996-01-19 1998-10-20 Sheldon F. Goldberg Network gaming system
EP0896772A4 (en) 1996-04-29 2001-12-05 Princeton Video Image Inc ELECTRONIC INSERTION OF VISUAL ELEMENTS ASSORTED WITH SOUND EFFECTS IN VIDEO SIGNALS
JP2947170B2 (ja) * 1996-05-29 1999-09-13 日本電気株式会社 線対称図形整形装置
WO1997047130A1 (es) * 1996-06-04 1997-12-11 Rafael Calvo Beca Plato virtual movil
SE506544C2 (sv) * 1996-06-20 1998-01-12 Telia Ab Anordning och metod för generering av digitala reklamskyltar
US6075542A (en) * 1996-07-29 2000-06-13 Eastman Kodak Company Method of combining two digital images
US5696995A (en) * 1996-08-30 1997-12-09 Huang; Sming Automatic photography booth
US6229904B1 (en) * 1996-08-30 2001-05-08 American Alpha, Inc Automatic morphing photography booth
US5897220A (en) * 1996-08-30 1999-04-27 American Alpha Inc. Automatic photograph booth for forming sketches
GB9619117D0 (en) * 1996-09-12 1996-10-23 Pandora Int Ltd Digital image processing
US5917553A (en) * 1996-10-22 1999-06-29 Fox Sports Productions Inc. Method and apparatus for enhancing the broadcast of a live event
JPH10145674A (ja) 1996-11-12 1998-05-29 Sony Corp ビデオ信号処理装置及びビデオ信号処理方法
JP3480648B2 (ja) * 1996-11-12 2003-12-22 ソニー株式会社 ビデオ信号処理装置及びビデオ信号処理方法
US6100925A (en) * 1996-11-27 2000-08-08 Princeton Video Image, Inc. Image insertion in video streams using a combination of physical sensors and pattern recognition
EP0943211B1 (en) * 1996-11-27 2008-08-13 Princeton Video Image, Inc. Image insertion in video streams using a combination of physical sensors and pattern recognition
BR9714949A (pt) * 1996-12-20 2005-04-12 Princeton Video Image Inc Dispositivo de ajuste superior para inserção eletrônica direcionada de indicações em vìdeo
US6072537A (en) * 1997-01-06 2000-06-06 U-R Star Ltd. Systems for producing personalized video clips
US6252632B1 (en) 1997-01-17 2001-06-26 Fox Sports Productions, Inc. System for enhancing a video presentation
US5953077A (en) * 1997-01-17 1999-09-14 Fox Sports Productions, Inc. System for displaying an object that is not visible to a camera
JPH10232940A (ja) * 1997-02-20 1998-09-02 Sony Corp コーナ検出装置及びコーナ検出方法
US6209028B1 (en) 1997-03-21 2001-03-27 Walker Digital, Llc System and method for supplying supplemental audio information for broadcast television programs
US7143177B1 (en) 1997-03-31 2006-11-28 West Corporation Providing a presentation on a network having a plurality of synchronized media types
WO1998044733A1 (en) * 1997-03-31 1998-10-08 Broadband Associates Method and system for providing a presentation on a network
US7490169B1 (en) 1997-03-31 2009-02-10 West Corporation Providing a presentation on a network having a plurality of synchronized media types
US7412533B1 (en) 1997-03-31 2008-08-12 West Corporation Providing a presentation on a network having a plurality of synchronized media types
GB9712724D0 (en) * 1997-06-18 1997-08-20 Holmes Steven Method and apparatus for interaction with broadcast television content
US6011595A (en) * 1997-09-19 2000-01-04 Eastman Kodak Company Method for segmenting a digital image into a foreground region and a key color region
US6061088A (en) * 1998-01-20 2000-05-09 Ncr Corporation System and method for multi-resolution background adaptation
US6750919B1 (en) 1998-01-23 2004-06-15 Princeton Video Image, Inc. Event linked insertion of indicia into video
US6258418B1 (en) 1998-06-24 2001-07-10 Ronald A. Rudder Method for producing diamond-tiled cooking utensils and other workpieces for durable stick-resistant surfaces
US6229550B1 (en) 1998-09-04 2001-05-08 Sportvision, Inc. Blending a graphic
US6266100B1 (en) 1998-09-04 2001-07-24 Sportvision, Inc. System for enhancing a video presentation of a live event
RU2157054C2 (ru) 1998-09-04 2000-09-27 Латыпов Нурахмед Нурисламович Способ создания видеопрограмм (варианты) и система для осуществления способа
GB2344714A (en) * 1998-09-22 2000-06-14 Orad Hi Tec Systems Ltd Method and apparatus for creating real digital video effects
US6525780B1 (en) * 1998-12-18 2003-02-25 Symah Vision, Sa “Midlink” virtual insertion system
US11109114B2 (en) 2001-04-18 2021-08-31 Grass Valley Canada Advertisement management method, system, and computer program product
US20010017671A1 (en) * 1998-12-18 2001-08-30 Pierre Pleven "Midlink" virtual insertion system and methods
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US6381362B1 (en) * 1999-04-08 2002-04-30 Tata America International Corporation Method and apparatus for including virtual ads in video presentations
US6466275B1 (en) * 1999-04-16 2002-10-15 Sportvision, Inc. Enhancing a video of an event at a remote location using data acquired at the event
ES2158797B1 (es) * 1999-08-12 2002-04-01 Nieto Ramon Rivas Dispositivo generador multiuso y/o multidestino de los contenidos en modulos o paneles publicitarios, informativos u ornamentaltes y similatres, que quedan integrados en las imagenes retransmitidas y/o filmadas.
US7996878B1 (en) * 1999-08-31 2011-08-09 At&T Intellectual Property Ii, L.P. System and method for generating coded video sequences from still media
AU1250501A (en) * 1999-09-10 2001-04-10 Quokka Sports, Inc. A system for distributing and delivering multiple streams of multimedia data
JP4427140B2 (ja) * 1999-09-28 2010-03-03 株式会社東芝 オブジェクト映像表示装置
US8341662B1 (en) 1999-09-30 2012-12-25 International Business Machine Corporation User-controlled selective overlay in a streaming media
US7010492B1 (en) 1999-09-30 2006-03-07 International Business Machines Corporation Method and apparatus for dynamic distribution of controlled and additional selective overlays in a streaming media
US7075556B1 (en) * 1999-10-21 2006-07-11 Sportvision, Inc. Telestrator system
US7230653B1 (en) * 1999-11-08 2007-06-12 Vistas Unlimited Method and apparatus for real time insertion of images into video
IL149543A0 (en) * 1999-11-08 2002-11-10 Mirage Systems Inc Method and apparatus for real time insertion of images into video
US6335765B1 (en) * 1999-11-08 2002-01-01 Weather Central, Inc. Virtual presentation system and method
AU2090701A (en) * 1999-12-13 2001-06-18 Princeton Video Image, Inc. 2-d/3-d recognition and tracking algorithm for soccer application
US6573945B1 (en) * 2000-01-12 2003-06-03 General Instrument Corporation Logo insertion on an HDTV encoder
IL134182A (en) 2000-01-23 2006-08-01 Vls Com Ltd Method and apparatus for visual lossless pre-processing
US6909438B1 (en) 2000-02-04 2005-06-21 Sportvision, Inc. Video compositor
US6593973B1 (en) 2000-03-21 2003-07-15 Gateway, Inc. Method and apparatus for providing information in video transitions
JP2001283079A (ja) * 2000-03-28 2001-10-12 Sony Corp 通信サービス方法とその装置、通信端末装置、通信システム、広告宣伝方法
KR20000054304A (ko) * 2000-06-01 2000-09-05 이성환 방송 중계 영상 화면에 광고를 삽입하는 시스템 및 그제어방법
US6753929B1 (en) * 2000-06-28 2004-06-22 Vls Com Ltd. Method and system for real time motion picture segmentation and superposition
JP3564701B2 (ja) * 2000-09-01 2004-09-15 オムロン株式会社 画像印刷装置および方法
US7319479B1 (en) 2000-09-22 2008-01-15 Brickstream Corporation System and method for multi-camera linking and analysis
JP2007189730A (ja) * 2000-12-27 2007-07-26 Casio Comput Co Ltd 画像加工システム、光源、撮像装置、及び、画像加工プログラム
KR20010035174A (ko) * 2001-01-10 2001-05-07 엄장필 컴퓨터 중독 방지 시스템
JP4596201B2 (ja) * 2001-02-01 2010-12-08 ソニー株式会社 画像処理装置および方法、並びに記録媒体
US6856323B2 (en) * 2001-04-09 2005-02-15 Weather Central, Inc. Layered image rendering
US7224403B2 (en) * 2001-04-17 2007-05-29 Bowden Raymond E Televised scoreboard or statistics presentation with colors corresponding to players' uniforms
US20020149698A1 (en) * 2001-04-17 2002-10-17 Bowden Raymond E. Scoreboard tied to players
US6870945B2 (en) * 2001-06-04 2005-03-22 University Of Washington Video object tracking by estimating and subtracting background
US7231651B2 (en) * 2001-06-18 2007-06-12 Ta-Ching Pong System and method for insertion and modification of advertisements
KR20030002919A (ko) * 2001-07-02 2003-01-09 에이알비전 (주) 방송 영상에서의 실시간 이미지 삽입 시스템
KR100387901B1 (ko) * 2001-07-03 2003-06-18 에이알비전 (주) 카메라 센서를 이용한 이미지 추적 및 삽입 시스템
US7206434B2 (en) 2001-07-10 2007-04-17 Vistas Unlimited, Inc. Method and system for measurement of the duration an area is included in an image stream
JP2005516620A (ja) * 2001-07-24 2005-06-09 ユニバーシティ オブ ピッツバーグ ポリウレタンコーティング内のジイソプロピルフルオロホスファターゼの不可逆的固定化
GB0120134D0 (en) * 2001-08-17 2001-10-10 Nokia Corp Improvements in or relating to communication networks and methods of distributing information around the network
DE10140902A1 (de) * 2001-08-21 2003-03-27 Klaus Saitzek Sportbande
US7019764B2 (en) * 2001-09-20 2006-03-28 Genesis Microchip Corporation Method and apparatus for auto-generation of horizontal synchronization of an analog signal to digital display
WO2003036557A1 (en) * 2001-10-22 2003-05-01 Intel Zao Method and apparatus for background segmentation based on motion localization
US7341530B2 (en) * 2002-01-09 2008-03-11 Sportvision, Inc. Virtual strike zone
KR20030090372A (ko) * 2002-05-23 2003-11-28 주식회사 밀리오네어즈 디지털 방송 중계를 위한 광고 교체 방법 및 그 장치
US20040002896A1 (en) * 2002-06-28 2004-01-01 Jenni Alanen Collection of behavior data on a broadcast data network
US20040100563A1 (en) 2002-11-27 2004-05-27 Sezai Sablak Video tracking system and method
US20040116183A1 (en) * 2002-12-16 2004-06-17 Prindle Joseph Charles Digital advertisement insertion system and method for video games
EP1606332B1 (en) 2003-03-27 2016-04-27 Milliken & Company High-strength black polyurethane foams
US20040194128A1 (en) * 2003-03-28 2004-09-30 Eastman Kodak Company Method for providing digital cinema content based upon audience metrics
US20040194127A1 (en) * 2003-03-28 2004-09-30 Eastman Kodak Company Method and system for modifying digital cinema frame content
US20040194123A1 (en) * 2003-03-28 2004-09-30 Eastman Kodak Company Method for adapting digital cinema content to audience metrics
US7116342B2 (en) * 2003-07-03 2006-10-03 Sportsmedia Technology Corporation System and method for inserting content into an image sequence
SE0302065D0 (sv) * 2003-07-14 2003-07-14 Stefan Carlsson Video - method and apparatus
GB2408164A (en) * 2003-11-12 2005-05-18 Alastair Breward Controlling a dynamic display apparatus
US7171024B2 (en) * 2003-12-01 2007-01-30 Brickstream Corporation Systems and methods for determining if objects are in a queue
JP2005184458A (ja) * 2003-12-19 2005-07-07 Canon Inc 映像信号処理装置
JP4813376B2 (ja) * 2004-01-20 2011-11-09 トムソン ライセンシング テレビ制作技術
US7382400B2 (en) * 2004-02-19 2008-06-03 Robert Bosch Gmbh Image stabilization system and method for a video camera
US7742077B2 (en) * 2004-02-19 2010-06-22 Robert Bosch Gmbh Image stabilization system and method for a video camera
US7590310B2 (en) 2004-05-05 2009-09-15 Facet Technology Corp. Methods and apparatus for automated true object-based image analysis and retrieval
US9210312B2 (en) * 2004-06-02 2015-12-08 Bosch Security Systems, Inc. Virtual mask for use in autotracking video camera images
US20050270372A1 (en) * 2004-06-02 2005-12-08 Henninger Paul E Iii On-screen display and privacy masking apparatus and method
US8212872B2 (en) * 2004-06-02 2012-07-03 Robert Bosch Gmbh Transformable privacy mask for video camera images
US7903902B2 (en) 2004-07-26 2011-03-08 Sheraizin Semion M Adaptive image improvement
US7639892B2 (en) * 2004-07-26 2009-12-29 Sheraizin Semion M Adaptive image improvement
SG119229A1 (en) * 2004-07-30 2006-02-28 Agency Science Tech & Res Method and apparatus for insertion of additional content into video
CN100337473C (zh) * 2004-09-30 2007-09-12 中国科学院计算技术研究所 运动视频的全景图合成方法
US7526142B2 (en) * 2005-02-22 2009-04-28 Sheraizin Vitaly S Enhancement of decompressed video
US7451041B2 (en) * 2005-05-06 2008-11-11 Facet Technology Corporation Network-based navigation system having virtual drive-thru advertisements integrated with actual imagery from along a physical route
GB0510793D0 (en) * 2005-05-26 2005-06-29 Bourbay Ltd Segmentation of digital images
FR2875038B1 (fr) * 2005-06-29 2007-04-06 Leo Vision Soc Par Actions Sim Procede pour tracer des objets graphiques virtuels sur des images d'un terrain notamment un terrain de jeu pour un evenement sportif
US20070035665A1 (en) * 2005-08-12 2007-02-15 Broadcom Corporation Method and system for communicating lighting effects with additional layering in a video stream
IL170320A (en) * 2005-08-17 2010-04-29 Orad Hi Tec Systems Ltd System and method for managing the visual effects insertion in a video stream
KR100703704B1 (ko) 2005-11-02 2007-04-06 삼성전자주식회사 동적 영상물 자동 생성 장치 및 방법
US7596540B2 (en) 2005-12-01 2009-09-29 Exent Technologies, Ltd. System, method and computer program product for dynamically enhancing an application executing on a computing device
US8629885B2 (en) 2005-12-01 2014-01-14 Exent Technologies, Ltd. System, method and computer program product for dynamically identifying, selecting and extracting graphical and media objects in frames or scenes rendered by a software application
US7596536B2 (en) 2005-12-01 2009-09-29 Exent Technologies, Ltd. System, method and computer program product for dynamically measuring properties of objects rendered and/or referenced by an application executing on a computing device
US20070296718A1 (en) * 2005-12-01 2007-12-27 Exent Technologies, Ltd. Dynamic resizing of graphics content rendered by an application to facilitate rendering of additional graphics content
US20070160123A1 (en) * 2006-01-11 2007-07-12 Gillespie Richard P System for isolating an object in a broadcast signal
CN101512553B (zh) 2006-07-16 2012-06-20 西姆比有限公司 用于虚拟内容安置的系统和方法
US8098330B2 (en) * 2006-07-28 2012-01-17 International Business Machines Corporation Mapping of presentation material
US20080117333A1 (en) * 2006-11-17 2008-05-22 Disney Enterprises, Inc. Method, System And Computer Program Product For Video Insertion
US10885543B1 (en) 2006-12-29 2021-01-05 The Nielsen Company (Us), Llc Systems and methods to pre-scale media content to facilitate audience measurement
US8572642B2 (en) 2007-01-10 2013-10-29 Steven Schraga Customized program insertion system
US9363576B2 (en) 2007-01-10 2016-06-07 Steven Schraga Advertisement insertion systems, methods, and media
FR2912026B1 (fr) * 2007-01-29 2010-03-12 Cineact Procede de generation d'un signal de modification et d'une sequence infographique, signal source, sequence infographique, procede et dispositif de diffusion et systeme de gestion correspondants
EP1959692B9 (en) * 2007-02-19 2011-06-22 Axis AB A method for compensating hardware misalignments in a camera
US8335345B2 (en) 2007-03-05 2012-12-18 Sportvision, Inc. Tracking an object with multiple asynchronous cameras
US8988609B2 (en) 2007-03-22 2015-03-24 Sony Computer Entertainment America Llc Scheme for determining the locations and timing of advertisements and other insertions in media
GB2452508A (en) * 2007-09-05 2009-03-11 Sony Corp Generating a three-dimensional representation of a sports game
GB2452546B (en) * 2007-09-07 2012-03-21 Sony Corp Video processing system and method
RU2443070C1 (ru) * 2007-12-13 2012-02-20 Суппонор Ой Способ изменения содержания телевизионного изображения
US8281334B2 (en) * 2008-03-31 2012-10-02 Microsoft Corporation Facilitating advertisement placement over video content
US8109829B1 (en) * 2008-04-10 2012-02-07 Acme Embedded Solutions Inc. Compositing device for combining visual content
GB0809631D0 (en) * 2008-05-28 2008-07-02 Mirriad Ltd Zonesense
US8477246B2 (en) * 2008-07-11 2013-07-02 The Board Of Trustees Of The Leland Stanford Junior University Systems, methods and devices for augmenting video content
US20110217022A1 (en) * 2008-11-06 2011-09-08 Ofer Miller System and method for enriching video data
US8175413B1 (en) * 2009-03-05 2012-05-08 Google Inc. Video identification through detection of proprietary rights logos in media
US8553982B2 (en) * 2009-12-23 2013-10-08 Intel Corporation Model-based play field registration
TWI423154B (zh) * 2009-12-30 2014-01-11 Univ Nat Chi Nan Book Inventory Management System and Its Method
US8786415B2 (en) * 2010-02-24 2014-07-22 Sportvision, Inc. Tracking system using proximity and/or presence
PT2619975T (pt) * 2010-09-20 2018-06-07 Fraunhofer Ges Zur Foerderung Der Angewandten Forschung Processo para distinguir o plano de fundo e o primeiro plano de um cenário, bem como processo para substituir um plano de fundo em imagens de um cenário
JP2012156797A (ja) * 2011-01-26 2012-08-16 Sony Corp 画像処理装置及び画像処理方法
US8941685B1 (en) * 2011-03-08 2015-01-27 Google Inc. Showing geo-located information in a 3D geographical space
JP4977255B1 (ja) * 2011-03-31 2012-07-18 株式会社ナナオ 表示装置、画像処理装置、画像領域検出方法、画像処理方法及びコンピュータプログラム
US9215383B2 (en) 2011-08-05 2015-12-15 Sportsvision, Inc. System for enhancing video from a mobile camera
US10089550B1 (en) 2011-08-17 2018-10-02 William F. Otte Sports video display
US8538233B2 (en) * 2011-08-24 2013-09-17 Disney Enterprises, Inc. Automatic camera identification from a multi-camera video stream
US8970666B2 (en) * 2011-09-16 2015-03-03 Disney Enterprises, Inc. Low scale production system and method
US9584736B2 (en) 2011-09-23 2017-02-28 Disney Enterprises, Inc. Automatic repositioning of video elements
US8805007B2 (en) 2011-10-13 2014-08-12 Disney Enterprises, Inc. Integrated background and foreground tracking
JP5362052B2 (ja) * 2012-01-24 2013-12-11 Eizo株式会社 表示装置、画像処理装置、画像領域検出方法及びコンピュータプログラム
EP2765766A1 (en) * 2013-02-08 2014-08-13 PIXarithmic GmbH Hard key control panel for a video processing apparatus
WO2014135910A1 (en) * 2013-03-08 2014-09-12 JACQUEMET, Jean-Philippe Method of replacing objects in a video stream and computer program
US9514381B1 (en) 2013-03-15 2016-12-06 Pandoodle Corporation Method of identifying and replacing an object or area in a digital image with another object or area
US20170039867A1 (en) 2013-03-15 2017-02-09 Study Social, Inc. Mobile video presentation, digital compositing, and streaming techniques implemented via a computer network
US9467750B2 (en) * 2013-05-31 2016-10-11 Adobe Systems Incorporated Placing unobtrusive overlays in video content
CN105284122B (zh) 2014-01-24 2018-12-04 Sk 普兰尼特有限公司 用于通过使用帧聚类来插入广告的装置和方法
JP2017510167A (ja) * 2014-02-07 2017-04-06 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー メディアにおける広告および他の挿入物の位置およびタイミングを判定するスキーム
CN104618745B (zh) * 2015-02-17 2017-08-01 北京影谱科技股份有限公司 一种在视频中动态植入广告的装置
EP3094082A1 (en) * 2015-05-13 2016-11-16 AIM Sport Vision AG Digitally overlaying an image with another image
TWI546772B (zh) * 2015-11-18 2016-08-21 粉迷科技股份有限公司 影像疊層處理方法與系統
US10839573B2 (en) 2016-03-22 2020-11-17 Adobe Inc. Apparatus, systems, and methods for integrating digital media content into other digital media content
US10290119B2 (en) 2016-09-15 2019-05-14 Sportsmedia Technology Corporation Multi view camera registration
CN106548446B (zh) 2016-09-29 2019-08-09 北京奇艺世纪科技有限公司 一种在球面全景图像上贴图的方法及装置
DE102016119640A1 (de) 2016-10-14 2018-04-19 Uniqfeed Ag System zur Erzeugung angereicherter Bilder
DE102016119639A1 (de) 2016-10-14 2018-04-19 Uniqfeed Ag System zur dynamischen Kontrastmaximierung zwischen Vordergrund und Hintergrund in Bildern oder/und Bildsequenzen
DE102016119637A1 (de) 2016-10-14 2018-04-19 Uniqfeed Ag Fernsehübertragungssystem zur Erzeugung angereicherter Bilder
KR102019299B1 (ko) * 2017-06-30 2019-09-06 강동민 홈 스타일링 서버 및 이를 포함하는 시스템과, 홈 스타일링을 위한 영상 처리 방법
RU2673966C1 (ru) * 2017-10-23 2018-12-03 Федеральное государственное казенное военное образовательное учреждение высшего образования "Академия Федеральной службы охраны Российской Федерации" (Академия ФСО России) Способ идентификации кадров в потоке мультимедийных данных
US11010946B2 (en) * 2017-12-21 2021-05-18 Rovi Guides, Inc. Systems and method for dynamic insertion of advertisements
US10922871B2 (en) 2018-01-19 2021-02-16 Bamtech, Llc Casting a ray projection from a perspective view
WO2019244153A1 (en) * 2018-06-21 2019-12-26 Baseline Vision Ltd. Device, system, and method of computer vision, object tracking, image analysis, and trajectory estimation
CN111866301B (zh) * 2019-04-30 2022-07-05 阿里巴巴集团控股有限公司 数据的处理方法、装置及设备
CN110121034B (zh) 2019-05-09 2021-09-07 腾讯科技(深圳)有限公司 一种在视频中植入信息的方法、装置、设备及存储介质
US11336949B2 (en) * 2019-06-07 2022-05-17 Roku, Inc. Content-modification system with testing and reporting feature
CN111986133B (zh) * 2020-08-20 2024-05-03 叠境数字科技(上海)有限公司 一种应用于子弹时间的虚拟广告植入方法
CN112488063B (zh) * 2020-12-18 2022-06-14 贵州大学 一种基于多阶段聚合Transformer模型的视频语句定位方法
CN113988906B (zh) * 2021-10-13 2024-05-28 咪咕视讯科技有限公司 广告投放方法、装置及计算设备

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2566934B1 (fr) * 1984-06-29 1987-05-07 Giraud Daniel Procede d'affichage d'informations telles que par exemple des messages publicitaires sur un certain nombre de panneaux a elements d'affichage disposes dans un lieu de manifestations sportives et systeme pour la mise en oeuvre d'un tel procede
US4907086A (en) * 1987-09-04 1990-03-06 Texas Instruments Incorporated Method and apparatus for overlaying a displayable image with a second image
US5099331A (en) * 1987-09-04 1992-03-24 Texas Instruments Incorporated Apparatus for overlaying a displayed image with a second image
JPH01296785A (ja) * 1988-05-24 1989-11-30 Fujitsu Ltd 画像重畳装置
JP3138264B2 (ja) * 1988-06-21 2001-02-26 ソニー株式会社 画像処理方法及び装置
GB8822062D0 (en) * 1988-09-20 1988-10-19 Quantel Ltd Video processing
US4947256A (en) * 1989-04-26 1990-08-07 The Grass Valley Group, Inc. Adaptive architecture for video effects
US5279954A (en) * 1989-06-30 1994-01-18 Board Of Regents Of The University Of Nebraska And Bionebraska Exopeptidase catalyzed site-specific bonding of supports, labels and bioactive agents to proteins
FR2661061B1 (fr) * 1990-04-11 1992-08-07 Multi Media Tech Procede et dispositif de modification de zone d'images.
JP3166173B2 (ja) * 1991-07-19 2001-05-14 プリンストン エレクトロニック ビルボード,インコーポレイテッド 選択および挿入された標章を有するテレビ表示
GB9119964D0 (en) * 1991-09-18 1991-10-30 Sarnoff David Res Center Pattern-key video insertion
US5436672A (en) * 1994-05-27 1995-07-25 Symah Vision Video processing system for modifying a zone in successive images

Also Published As

Publication number Publication date
TW367452B (en) 1999-08-21
EP0750819A1 (en) 1997-01-02
ZA951403B (en) 1996-01-10
AU692529B2 (en) 1998-06-11
US5491517A (en) 1996-02-13
WO1995025399A1 (en) 1995-09-21
RU2108005C1 (ru) 1998-03-27
AU1933495A (en) 1995-10-03
BG62114B1 (bg) 1999-02-26
HUT75487A (en) 1997-05-28
IL108957A (en) 1998-09-24
DE69524946D1 (de) 2002-02-14
CN1087549C (zh) 2002-07-10
HU220409B (hu) 2002-01-28
LV11716A (lv) 1997-02-20
BR9507057A (pt) 1997-09-02
PL316621A1 (en) 1997-01-20
NZ282275A (en) 1997-03-24
NO963811L (no) 1996-11-14
CN1144588A (zh) 1997-03-05
EP0750819A4 (en) 1998-12-30
HU9602444D0 (en) 1996-11-28
ATE211872T1 (de) 2002-01-15
CA2179031C (en) 2005-05-10
CZ286248B6 (cs) 2000-02-16
BG100879A (en) 1997-12-30
CZ265396A3 (cs) 1999-08-11
JPH09510336A (ja) 1997-10-14
NO963811D0 (no) 1996-09-11
EP0750819B1 (en) 2002-01-09
IL108957A0 (en) 1994-06-24
MX9604084A (es) 1997-12-31
US5731846A (en) 1998-03-24
KR100260786B1 (ko) 2000-07-01
CA2179031A1 (en) 1995-09-21
LV11716B (en) 1997-08-20

Similar Documents

Publication Publication Date Title
PL176135B1 (pl) Sposób i urządzenie do wprowadzania obrazu do treści obrazu istniejącego
US4463380A (en) Image processing system
AU660753B2 (en) Video imaging method and apparatus for audience participation
US6122013A (en) Chromakeying system
US4513374A (en) Memory system
US4965753A (en) System for constructing images in 3-dimension from digital data to display a changing scene in real time in computer image generators
US20040032407A1 (en) Method and system for simulating stereographic vision
JPH06510893A (ja) パターン・キー挿入を用いたビデオ合併
CN109559349A (zh) 一种用于标定的方法和装置
JP2000503177A (ja) 2次元映像(motion picture)を3次元映像に変換する方法及び装置
CN110458964B (zh) 一种现实环境动态光照的实时计算方法
CN109752855A (zh) 一种光斑发射装置和检测几何光斑的方法
JPH08153213A (ja) 画像合成表示方法
CN112866507B (zh) 智能化的全景视频合成方法、系统、电子设备及介质
US4545765A (en) Scene simulator
JPH11265440A (ja) 任意光源位置の画像合成方法および表示装置
CN113568700B (zh) 显示画面调整方法、装置、计算机设备和存储介质
Owen et al. Augmented imagery for digital video applications
CN115063307A (zh) 一种基于亮度一致性的增强现实色度调节方法
CN113658318A (zh) 数据处理方法及系统、训练数据生成方法和电子设备
Yonemoto et al. Projection Mapping of Animation by Object Recognition
KR20050008247A (ko) 스포츠 비디오에서의 3차원 그래픽 영상 합성을 위한 장치및 방법
Czernuszenko Modeling three-dimensional scenes from video for virtual environments
MXPA96004084A (en) A system for implanting an image into a video stream
Ferguson et al. Simulation of Synthetic Aperture Radar II: Simulating SAR (Synthetic Aperture Radar) Using the Advanced Visual Technology System

Legal Events

Date Code Title Description
LAPS Decisions on the lapse of the protection rights

Effective date: 20060227