PL231159B1 - Sposób uzyskiwania czasowego predykcyjnego wektora ruchu i urządzenie do stosowania tego sposobu - Google Patents

Sposób uzyskiwania czasowego predykcyjnego wektora ruchu i urządzenie do stosowania tego sposobu

Info

Publication number
PL231159B1
PL231159B1 PL407911A PL40791112A PL231159B1 PL 231159 B1 PL231159 B1 PL 231159B1 PL 407911 A PL407911 A PL 407911A PL 40791112 A PL40791112 A PL 40791112A PL 231159 B1 PL231159 B1 PL 231159B1
Authority
PL
Poland
Prior art keywords
block
collocated
prediction
lcu
boundary
Prior art date
Application number
PL407911A
Other languages
English (en)
Other versions
PL407911A1 (pl
Inventor
Bae Keun Lee
Jae Cheol Kwon
Joo Young Kim
Original Assignee
Kt Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020120039501A external-priority patent/KR101204026B1/ko
Application filed by Kt Corp filed Critical Kt Corp
Publication of PL407911A1 publication Critical patent/PL407911A1/pl
Publication of PL231159B1 publication Critical patent/PL231159B1/pl

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/40Tree coding, e.g. quadtree, octree

Description

Opis wynalazku
Dziedzina techniki
Wynalazek dotyczy sposobu kodowania i dekodowania wideo, a zwłaszcza wynalazek odnosi się do sposobu uzyskiwania czasowego wektora predykcji ruchu i urządzenia do stosowania tego sposobu. Tło wynalazku
W ostatnich latach w różnych obszarach zwiększyło się zapotrzebowanie na wideo o wysokiej jakości i wysokiej rozdzielczości, takie jak wideo HD (ang. High Definition) i wideo UHD (ang. Ultra High Definition). Ponieważ dane wideo zaczynają występować w wysokiej rozdzielczości i/lub wysokiej jakości, ilość danych wideo stosunkowo zwiększa się w porównaniu z istniejącymi danym wideo, i dlatego też gdy dane wideo są transmitowane za pośrednictwem konwencjonalnej przewodowej/bezprzewodowej sieci szerokopasmowej lub przechowywane są w istniejącym nośniku pamięci, zwiększają się koszty transmisji i przechowywania. Aby rozwiązać takie problemy, które występują, gdy dane wideo przechodzą do wysokiej rozdzielczości i wysokiej jakości, można wykorzystać technologie o wysokiej efektywności kompresji wideo.
Do kompresji wideo wprowadzono pewną liczbę schematów, takich jak schemat inter-predykcji, który przewiduje wartości pikseli zawarte w aktualnym obrazie z obrazu przed lub po aktualnym obrazie, schemat inter-predykcji, który przewiduje wartości pikseli zawarte w aktualnym obrazie, wykorzystując informacje o pikselach w aktualnym obrazie, i schemat kodowania entropijnego, który przypisuje krótsze słowo kodowe do wartości, która pojawia się częściej, przypisując przy tym dłuższe słowo kodowe do wartości, która pojawia się rzadziej. Takie schematy kompresji wideo można zastosować do efektywnego kompresowania, transmitowania lub przechowywania danych wideo.
Streszczenie wynalazku
Problem techniczny
Przedmiotem wynalazku jest zapewnienie sposobu uzyskiwania czasowego wektora predykcji ruchu dla bloku przylegającego do granicy jednostki LCU.
Kolejnym przedmiotem wynalazku jest zapewnienie urządzenia do wykonywania sposobu uzyskiwania czasowego wektora predykcji ruchu dla bloku przylegającego do granicy jednostki LCU.
Rozwiązanie techniczne
Aby osiągnąć pierwszy przedmiot wynalazku, według pewnego aspektu wynalazku, sposób uzyskiwania kandydującego wektora predykcji ruchu obejmuje: określanie, przez moduł inter-predykcji, wskaźnika obrazu odniesienia wskazującego obraz odniesienia zawierający kolokowany blok docelowego bloku predykcji; i określanie, przez moduł inter-predykcji, wektora predykcji ruchu kolokowanego bloku, przy czym kolokowany blok jest adaptacyjnie określony za pomocą lokalizacji docelowego bloku predykcji w największej jednostce kodującej (LCU, ang. Largest Coding Unit). Kolokowany blok może być określany na podstawie tego, czy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU. Kolokowany blok może być określany na podstawie tego, czy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU lub czy prawa granica docelowego bloku predykcji przylega do granicy jednostki LCU. Kolokowany blok może być określany za pomocą położeń odniesienia pikseli w jednostce LCU. Jeden spośród pierwszego kolokowanego bloku i piątego kolokowanego bloku może być określany selektywnie jako kolokowany blok według tego, czy lewa granica lub dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU, i przy czym jeżeli lokalizacją górnego lewego piksela docelowego bloku predykcji jest (xP, yP), szerokością docelowego bloku predykcji jest nPSW, a wysokością docelowego bloku predykcji jest nPSH, pierwszy kolokowany blok zawiera piksel w (xP+nPSW, yP+nPSH) w kolokowanym obrazie, a piąty kolokowany blok zawiera piksel w (xP+(nPSW>>1), yP+(nPSH>>1)) w kolokowanym obrazie.
Aby osiągnąć drugi przedmiot wynalazku, według pewnego aspektu wynalazku, sposób uzyskiwania kandydującego wektora predykcji ruchu obejmuje określanie, przez moduł inter-predykcji, czy granica docelowego bloku predykcji przylega do granicy największej jednostki kodującej LCU; i określanie, przez moduł inter-predykcji, dostępności pierwszego kolokowanego bloku według określenia, czy granica docelowego bloku predykcji przylega do granicy jednostki LCU. Sposób uzyskiwania kandydującego wektora predykcji ruchu może ponadto obejmować etap określania innego kolokowanego bloku, z wyjątkiem pierwszego kolokowanego bloku, jako kolokowany blok do uzyskiwania kandydującego wektora predykcji ruchu, jeżeli określa się, że pierwszy kolokowany blok nie jest dostępny. Etap określania innego kolokowanego bloku z wyjątkiem pierwszego kolokowanego bloku jako kolokowany blok
PL 231 159 B1 do uzyskiwania kandydującego wektora predykcji ruchu, jeżeli pierwszy kolokowany blok nie jest dostępny, stanowi etap określania różnych kolokowanych bloków do uzyskiwania kandydującego wektora predykcji ruchu w przypadku, gdy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU lub gdy prawa granica docelowego bloku predykcji przylega do granicy jednostki LCU. Etap określania dostępności pierwszego kolokowanego bloku według określenia, czy granica kolokowanego docelowego bloku predykcji przylega do granicy jednostki LCU, stanowi etap określania pierwszego kolokowanego bloku jako niedostępny, jeżeli dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU. Ponadto objęty może być etap określania jednego spośród pierwszego kolokowanego bloku i piątego kolokowanego bloku jako bloku do uzyskiwania kandydującego wektora predykcji ruchu, w oparciu o dostępność pierwszego kolokowanego bloku, i przy czym jeżeli lokalizacja górnego lewego piksela docelowego bloku predykcji jest (xP, yP), szerokością docelowego bloku predykcji jest nPSW, a wysokością docelowego bloku predykcji jest nPSH, pierwszy kolokowany blok zawiera piksel w (xP+nPSW, yP+nPSH) w kolokowanym obrazie, a piąty kolokowany blok zawiera piksel w (xP+(nPSW>>1), yP+(nPSH>>1)) w kolokowanym obrazie.
Aby osiągnąć trzeci przedmiot wynalazku, według pewnego aspektu wynalazku, urządzenie do dekodowania wideo zawiera:
jednostkę do dekodowania entropijnego, skonfigurowaną do dekodowania informacji o rozmiarze największej jednostki kodującej LCU; i jednostkę inter-predykcji, skonfigurowaną do:
określania wskaźnika obrazu odniesienia wskazującego obraz odniesienia zawierający kolokowany blok docelowego bloku predykcji, określania wektora predykcji ruchu kolokowanego bloku, określania kolokowanego bloku docelowego bloku predykcji w oparciu o informacje o rozmiarze LCU dekodowane przez jednostkę do dekodowania entropijnego, przy czym kolokowany blok jest adaptacyjnie określony przez lokalizację docelowego bloku predykcji w jednostce LCU.
Kolokowany blok może być określany w oparciu o to, czy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU. Kolokowany blok może być określany w oparciu o to, czy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU lub czy prawa granica docelowego bloku predykcji przylega do granicy jednostki LCU. Kolokowany blok może być określany za pomocą położeń odniesienia pikseli w jednostce LCU. Jeden spośród pierwszego kolokowanego bloku i piątego kolokowanego bloku może być określany selektywnie jako kolokowany blok według tego czy lewa granica lub dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU, i przy czym jeżeli lokalizacją górnego lewego piksela docelowego bloku predykcji jest (xP, yP), szerokością docelowego bloku predykcji jest nPSW, a wysokością docelowego bloku predykcji jest nPSH, pierwszy kolokowany blok zawiera piksel (xP+nPSW, yP+nPSH) w kolokowanym obrazie, a piąty kolokowany blok zawiera piksel (xP+(nPSW>>1), yP+(nPSH>>1)) w kolokowanym obrazie.
Aby osiągnąć czwarty przedmiot wynalazku, według pewnego aspektu wynalazku, urządzenie do dekodowania wideo zawiera:
jednostkę do dekodowania entropijnego, skonfigurowaną do dekodowania informacji o rozmiarze największej jednostki kodującej LCU; jednostkę inter-predykcji skonfigurowaną do:
określania, w oparciu o informacje o rozmiarze LCU dekodowane przez jednostkę do dekodowania entropijnego, czy granica docelowego bloku predykcji przylega do granicy jednostki LCU, określania dostępności pierwszego kolokowanego bloku według określenia, czy granica docelowego bloku predykcji przylega do granicy jednostki LCU.
Jednostka predykcji może określać inny kolokowany blok z wyjątkiem pierwszego kolokowanego bloku jako kolokowany blok do uzyskiwania kandydującego wektora predykcji ruchu, jeżeli jest określone, że pierwszy kolokowany blok nie jest dostępny. Jednostka predykcji może określać różne kolokowane bloki do uzyskiwania kandydującego wektora predykcji ruchu w przypadku, gdy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU lub gdy prawa granica docelowego bloku predykcji przylega do granicy jednostki LCU. Jednostka predykcji może określać pierwszy kolokowany blok jako niedostępny, jeżeli dolna granica docelowego bloku predykcji przylega do granicy jednostki
PL 231 159 B1
LCU. Jednostka predykcji może określać jeden spośród pierwszego kolokowanego bloku i piątego kolokowanego bloku jako blok do uzyskiwania czasowego wektora predykcji ruchu, w oparciu o dostępność pierwszego kolokowanego bloku, i przy czym jeżeli lokalizacją górnego lewego piksela docelowego bloku predykcji jest (xP, yP), szerokością docelowego bloku predykcji jest nPSW, a wysokością docelowego bloku predykcji jest nPSH, pierwszy kolokowany blok zawiera piksel w (xP+nPSW, yP+nPSH) w kolokowanym obrazie, a piąty kolokowany blok zawiera piksel (xP+(nPSW>>1), yP+(nPSH>>1) w kolokowanym obrazie.
Korzystne działanie
Jak opisano powyżej, sposób uzyskiwania czasowego wektora predykcji ruchu i urządzenie do stosowania sposobu według przykładu wykonania wynalazku mogą różnie stosować kolokowany obraz, z którego uzyskiwany jest czasowy wektor ruchu zależnie od tego, czy docelowy blok predykcji przylega do jednostki LCU. Stosują ten sposób, przepustowość pamięci niepotrzebnie stosowana do uzyskiwania czasowego wektora ruchu może zostać zredukowana oraz zminimalizować można złożoność realizacji. Opis rysunków
Fig. 1 jest schematem blokowym przedstawiającym urządzenie do kodowania wideo według przykładu wykonania wynalazku.
Fig. 2 jest schematem blokowym przedstawiającym dekoder wideo według kolejnego przykładu wykonania wynalazku.
Fig. 3 jest widokiem koncepcyjnym przedstawiającym sposób uzyskiwania czasowego wektora predykcji ruchu według przykładu wykonania wynalazku.
Fig. 4 jest schematem działań sposobu uzyskiwania czasowego wektora predykcji ruchu według przykładu wykonania wynalazku.
Fig. 5 jest widokiem koncepcyjnym przedstawiającym położenie kolokowanego bloku do uzyskiwania czasowego wektora ruchu według przykładu wykonania wynalazku.
Fig. 6 jest widokiem koncepcyjnym przedstawiającym sposób określania kolokowanego bloku do uzyskiwania wektora predykcji ruchu według przykładu wykonania wynalazku.
Fig. 7 jest widokiem koncepcyjnym przedstawiającym przypadek, w którym docelowy blok predykcji przylega do dolnej granicy jednostki LCU według przykładu wykonania wynalazku.
Fig. 8 jest schematem działań przedstawiającym sposób inter-predykcji stosujący tryb scalania według przykładu wykonania wynalazku.
Fig. 9 jest widokiem koncepcyjnym przedstawiającym lokalizacje kandydatów przestrzennego scalania według przykładu wykonania wynalazku.
Fig. 10 jest schematem działań przedstawiającym sposób inter-predykcji stosujący AMVP według przykładu wykonania wynalazku.
Tryb wynalazku
Można dokonać różnych modyfikacji wynalazku, a wynalazek może mieć pewną liczbę przykładów wykonania. Konkretne przykłady wykonania opisane są szczegółowo w odniesieniu do figur. Jednak wynalazek nie ogranicza się do konkretnych przykładów wykonania i należy rozumieć, że wynalazek obejmuje wszelkie modyfikacje, odpowiedniki lub zamienniki, które zawarte są w duchu i zakresie technicznym wynalazku. Podobne znaki odniesienia mogą być stosowane między podobnymi modułami, gdy objaśniane są figury.
Określenia „pierwszy” i „drugi” mogą być stosowane do opisania różnych elementów komponentów (lub elementów). Jednak komponenty nie ograniczają się do nich. Określenia te stosuje się jedynie, aby odróżnić jeden komponent od drugiego. Na przykład pierwszy komponent może być również nazwany drugim komponentem, a drugi komponent może być w podobny sposób nazwany pierwszym komponentem. Określenie „i/lub” obejmuje kombinację licznych powiązanych elementów, jakie opisano, lub jeden z licznych powiązanych elementów.
Gdy komponent (lub element) jest „połączony” lub „sprzężony” z innym komponentem, komponent może być bezpośrednio połączony lub sprzężony z drugim komponentem. Natomiast gdy komponent jest „bezpośrednio połączony lub sprzężony” z innym komponentem, żadne inne komponenty nie pośredniczą.
Określenia tutaj stosowane podane są dla opisania przykładów wykonania, ale nie mają ograniczać wynalazku. Określenie w liczbie pojedynczej obejmuje określenie w liczbie mnogiej, chyba że w kontekście wyraźnie zaznaczono inaczej. W stosowanym tu znaczeniu określenia „zawierać”, „obejPL 231 159 B1 mować” lub „mieć” etc. stosuje się, aby wskazać, że istnieję elementy, liczby, etapy, operacje, komponenty, części lub ich kombinacje, jak tutaj opisano, ale nie wykluczają one obecności lub możliwości dodania jednej lub większej liczby elementów, liczb, etapów, operacji, komponentów, części lub ich kombinacji.
W dalszej części korzystne przykłady wykonania wynalazku zostaną opisane bardziej szczegółowo w odniesieniu do załączonych rysunków. Te same odnośniki numeryczne odnoszą się do tych samych komponentów na wszystkich rysunkach, a opis tych samych komponentów nie powtarza się.
Fig. 1 jest schematem blokowym przedstawiającym urządzenie do kodowania wideo według przykładu wykonania wynalazku.
W odniesieniu do fig. 1 urządzenie 100 do kodowania wideo może zawierać moduł 110 podziału obrazu, moduł inter-predykcji 120, moduł intra-predykcji 125, moduł transformacji 130, moduł kwantyzacji 135, moduł przegrupowania 160, moduł kodowania entropijnego 165, moduł dekwantyzacji 140, moduł transformacji odwrotnej 145, moduł filtracji 150 i pamięć 155.
Wszystkie moduły z fig. 1 przedstawione są niezależnie od siebie, aby reprezentować różne funkcje w urządzeniu do kodowania wideo, ale nie oznacza to, że każdy moduł powinien być realizowany w odrębnej jednostce (komponencie) modułu sprzętu lub oprogramowania. Oznacza to, że dla uproszczenia opisu moduły przedstawione są jako zapewnione niezależnie, a co najmniej dwa z modułów mogą być połączone dla utworzenia jednego modułu, lub jeden z modułów może być podzielony na liczne moduły realizujące funkcje. Przykłady wykonania kombinacji modułów lub przykłady wykonania rozdzielenia modułów również są zawarte w zakresie wynalazku, nie wykraczając poza istotę wynalazku.
Ponadto niektóre z modułów mogą nie być zasadniczymi modułami, które realizują zasadnicze funkcje wynalazku, ale mogą być raczej opcjonalnymi modułami poprawiającymi wydajność. Wynalazek może zawierać jedynie zasadnicze moduły konieczne do realizacji istoty wynalazku, wykluczając moduły stosowane jedynie do poprawy wydajności, i taka struktura również zawiera się w zakresie wynalazku.
Moduł 110 podziału obrazu może dzielić obraz wejściowy na co najmniej jedną jednostkę przetwarzającą. W tym czasie jednostką przetwarzającą może być jednostka predykcji (PU), jednostka transformacji (TU) lub jednostka kodująca (CU). Moduł 110 podziału obrazu może kodować obraz poprzez podzielenie obrazu na kombinację licznych jednostek kodujących, jednostek predykcji i jednostek transformacji, a kombinację jednej jednostki kodującej, jednostki predykcji i jednostki transformacji można dobrać według wcześniej określonego standardu (lub odniesienia), takiego jak funkcja kosztów i można ją zakodować.
Na przykład jeden obraz można podzielić na liczne jednostki kodujące. Rekursywną strukturę drzewa, taką jak drzewo czwórkowe, można zastosować do podziału obrazu na jednostki kodujące. W przypadku obrazu lub największej jednostki kodującej jako korzenia, jednostka kodująca może zostać podzielona na inne jednostki kodujące z tyloma węzłami podrzędnymi, ile jest podzielonych jednostek kodujących. Jednostka kodująca, która nie jest już dzielona ze względu na wcześniej określone ograniczenie ma być węzłem liścia. Przyjmując, że jedynie podział w kształcie kwadratu jest dostępny dla jednostki kodującej, oznacza to, że jednostka kodująca może zostać podzielona maksymalnie na cztery inne jednostki kodujące.
W dalszej części w przykładach wykonania wynalazku jednostka kodująca może oznaczać je dnostkę, w której wykonuje się dekodowanie, jak również kodowanie.
Jednostka predykcji może zostać podzielona na kształt co najmniej jednego kwadratu lub prostokąta o tym samym rozmiarze w jednostce kodującej.
Po wygenerowaniu jednostki predykcji, w której wykonuję się intra-predykcję w oparciu o jednostkę kodującą, jeżeli jednostka kodująca nie jest najmniejszą jednostką kodującą, intra-predykcję można wykonać bez podziału jednostki predykcji na liczne jednostki predykcji NxN.
Moduł predykcji może zawierać moduł inter-predykcji 120, który wykonuje inter-predykcję i moduł intra-predykcji 125, który wykonuje intra-predykcję. Można określić, czy wykonać inter-predykcję czy intra-predykcję względem jednostki predykcji i według każdego sposobu predykcji można określić konkretne informacje (np. tryb intra-predykcji, wektor ruchu, obraz odniesienia etc.). W tym czasie jednostka przetwarzająca, na której wykonuje się predykcję może różnić się od jednostki przetwarzającej, na której określa się sposób predykcji i jego szczegóły. Na przykład sposób predykcji i tryb predykcji można określić za pomocą jednostki predykcji a predykcję można wykonać w jednostce transformacji. Wartość rezydualną (blok rezydualny) między wygenerowanym blokiem predykcji a oryginalnym blokiem można
PL 231 159 B1 wprowadzić do modułu transformacji 130. Ponadto informacje o trybie predykcji i informacje o wektorze ruchu etc. stosowane do predykcji, wraz z wartością rezydualną można zakodować w module kodowania entropijnego 165, a następnie można transmitować do urządzenia do dekodowania, Jeżeli zastosuje się raczej konkretny tryb kodowania niż generowanie bloku predykcji za pomocą modułu predykcji 120 i 125, oryginalny blok, jako taki, może zostać zakodowany i transmitowany do urządzenia do dekodowania.
Moduł inter-predykcji może przewidzieć jednostkę predykcji w oparciu o informacje z co najmniej jednego obrazu spośród obrazów przed aktualnym obrazem lub obrazów po aktualnym obrazie. Moduł inter-predykcji może zawierać moduł interpolacji obrazu odniesienia, moduł predykcji ruchu i moduł kompensacji ruchu.
Moduł interpolacji obrazu odniesienia może odbierać informacje o obrazie odniesienia z pamięci 155 i może generować informacje o pikselach w jednostce mniejszej niż całkowita jednostka piksela w obrazie odniesienia. W przypadku pikseli typu luma filtr interpolacyjny z 8-krotnym próbkowaniem oparty na DCT z różnymi współczynnikami filtra i dla każdego próbkowania można zastosować do generowania informacji o pikselach w jednostce mniejszej niż całkowita jednostka piksela, jednostce 1/4 piksela. W przypadku sygnału typu chroma filtr interpolacyjny z 4-krotnym próbkowaniem oparty na DCT z różnymi współczynnikami filtra dla każdego próbkowania można zastosować do generowania informacji o pikselach w jednostce mniejszej niż całkowita jednostka piksela, jednostce 1/8 piksela.
Moduł predykcji ruchu może wykonać predykcję ruchu w oparciu o obraz odniesienia interpolowany przez moduł interpolacji obrazu odniesienia. Aby uzyskać wektor ruchu, można zastosować różne sposoby, takie jak FBMA (ang. Full search-based Block Matching Algorithm, algorytm dopasowujący bloki oparty na pełnym wyszukiwaniu), TSS (ang. Three Step Search, wyszukiwanie trójetapowe), NTS (ang. New Three-Step Search Algorithm, nowy algorytm wyszukiwania trójetapowego) etc. Wektor ruchu może mieć wartość wektora ruchu w jednostce 1/2 piksela lub w jednostce 1/4 piksela w oparciu o interpolowany piksel. Moduł predykcji ruchu może przewidywać aktualną jednostkę predykcji poprzez zastosowanie różnych sposobów predykcji ruchu. Co do sposobu predykcji ruchu można stosować różne sposoby, takie jak sposób pomijania, sposób scalania lub sposób AMVP (ang. Advanced Motion Vector Prediction, sposób zaawansowanej predykcji wektora ruchu).
Według przykładu wykonania wynalazku moduł inter-predykcji może określić, czy granica docelowego bloku predykcji przylega do granicy jednostki LCU (największej jednostki kodującej), i może określić, czy pierwszy kolokowany blok jest dostępny według określenia, czy granica docelowego bloku predykcji przylega do granicy jednostki LCU. Na przykład w przypadku, gdy pierwszy kolokowany blok nie jest dostępny, drugi kolokowany blok można określić jako kolokowany blok do uzyskiwania czasowego wektora predykcji ruchu. Alternatywnie w przypadku, gdy pierwszy kolokowany blok nie jest dostępny, położenie pierwszego kolokowanego bloku może zostać zmienione i pierwszy kolokowany blok o zmienionym położeniu można określić jako kolokowany blok do uzyskiwania czasowego wektora predykcji ruchu.
Ponadto moduł inter-predykcji może zawierać moduł predykcji, który określa wskaźnik obrazu odniesienia kolokowanego bloku docelowego bloku predykcji i określa predykcji wektor ruchu kolokowanego bloku. Kolokowany blok może zostać adaptacyjnie określony według lokalizacji docelowego bloku predykcji w jednostce LCU (największej jednostce kodującej). W dalszej części szczegółowo opisana zostanie operacja modułu predykcji według wynalazku.
Moduł inter-predykcji może wygenerować jednostkę predykcji w oparciu o informacje o pikselu odniesienia sąsiadującym z aktualnym blokiem, które są informacjami o pikselach w aktualnym obrazie. W przypadku, gdy blok sąsiadujący z aktualną jednostką predykcji jest blokiem, dla którego stosuje się inter-predykcję, a tym samym piksel odniesienia jest pikselem poprzez inter-predykcję, piksel odniesienia zawarty w bloku, dla którego zastosowano inter-predykcję można zamienić stosując informacje o pikselu odniesienia z bloku, dla którego zastosowano intra-predykcję. Oznacza to, że w przypadku, gdy piksel odniesienia nie jest dostępny, informacje o niedostępnym pikselu odniesienia mogą zostać wymienione z co najmniej jednym z dostępnych pikseli odniesienia.
Jeżeli chodzi o intra-predykcję, tryby predykcji mogą obejmować tryb predykcji kierunkowej, w którym informacje o pikselu odniesienia stosowane są według kierunku predykcji, i tryb bezkierunkowy, w którym po predykcji nie stosuje się żadnych informacji kierunkowych. Tryb do predykcji informacji typu luma może być inny od trybu do predykcji informacji typu chroma. Ponadto informacje o trybie intra-predykcji, w których informacje typu luma zostały przewidziane lub przewidziane informacje o sygnale typu luma można zastosować do przewidzenia informacji typu chroma.
PL 231 159 B1
Po wykonaniu intra-predykcji jeżeli rozmiar jednostki predykcji jest taki sam jak rozmiar jednostki transformacji, intra-predykcję wykonuje się w oparciu o piksele zlokalizowane po lewej stronie jednostki predykcji, piksel zlokalizowany w górnej lewej części jednostki predykcji i piksele zlokalizowane w górnej części na jednostce predykcji. Jednak po wykonaniu intra-predykcji, jeżeli rozmiar jednostki predykcji jest inny od rozmiaru jednostki transformacji, można wykonać intra-predykcję, stosując piksele odniesienia w oparciu o jednostkę transformacji. Ponadto jedynie w przypadku najmniejszej jednostki kodującej intra-predykcję można wykonać, stosując podział NxN.
W sposobie intra-predykcji blok predykcji można wygenerować po zastosowaniu filtra MDIS (ang. Mode Dependent Intra Smoothing, wygładzanie wewnątrzobrazowe zależne od trybu) na pikselach odniesienia według trybu predykcji. Na pikselach odniesienia można stosować różne rodzaje filtrów MDIS. Aby wykonać sposób intra-predykcji, tryb intra-predykcji aktualnej jednostki predykcji można przewidzieć na podstawie trybu intra-predykcji sąsiedniej jednostki predykcji do aktualnej jednostki predykcji. W przypadku, gdy tryb predykcji aktualnej jednostki predykcji przewiduje się przy pomocy informacji o trybie, przewidzianych z sąsiedniej jednostki predykcji, jeżeli tryb intra-predykcji aktualnej jednostki predykcji jest taki sam jak tryb intra-predykcji sąsiedniej jednostki predykcji, wcześniej określone informacje znacznikowe można zastosować do transmitowania informacji wskazujących, że aktualna jednostka predykcji jest identyczna w trybie predykcji z sąsiednią jednostką predykcji. Natomiast jeżeli tryb predykcji aktualnej jednostki predykcji jest inny od trybu predykcji sąsiedniej jednostki predykcji, można wykonać kodowanie entropijne, aby zakodować informacje o trybie predykcji aktualnego bloku.
Ponadto można uzyskać blok rezydualny, który zawiera informacje o wartości rezydualnej, która jest wartością różnicową między oryginalnym blokiem jednostki predykcji a jednostką predykcji, na której wykonuje się predykcję w oparciu o jednostkę predykcji wygenerowaną w module predykcji 120 i 125. Uzyskany blok rezydualny można wprowadzić do modułu transformacji 130. Moduł transformacji 130 może przekształcić blok rezydualny za pomocą sposobu transformacji, takiego jak DCT (ang. Discrete Cosine Transform, dyskretna transformacja cosinusowa) lub DST (ang. Discrete Sine Transform, dyskretna transformacja sinusowa). Blok rezydualny zawiera informacje rezydualne między jednostką predykcji wygenerowaną przez moduł predykcji 120 i 125 a oryginalnym blokiem. To, czy zastosować DCT czy DST do przekształcenia bloku rezydualnego można określić w oparciu o informacje o trybie intra predykcji jednostki predykcji stosowanej do generowania bloku rezydualnego.
Moduł kwantyzacji 135 może kwantyzować wartości przekształcone do dziedziny częstotliwości przez moduł transformacji 130. Parametr kwantyzacji może zmieniać się w zależności od bloku lub znaczenia obrazu. Wartość wytworzona w module kwantyzacji 135 może zostać dostarczona do modułu dekwantyzacji 140 i modułu przegrupowania 160.
Moduł przegrupowania 160 może wykonać ponowne rozmieszczanie współczynników dla skwantyzowanej wartości rezydualnej.
Moduł przegrupowania 160 może zmienić współczynniki w kształcie bloku dwuwymiarow ego (2D) na postać jednowymiarowego wektora za pomocą sposobu skanowania współczynników. Na przykład moduł przegrupowania 160 może zastosować sposób skanowania ukośnego do skanowania ze współczynników DC na współczynniki wysokiej częstotliwości, rozmieszczając tym samym współczynniki w kształcie bloku 2D do postaci jednowymiarowego wektora. W zależności od rozmiaru jednostki transformacji i trybu intra-predykcji, zamiast sposobu skanowania ukośnego, można zastosować sposób skanowania pionowego, w którym współczynniki w kształcie bloku 2D skanowane są w kierunku kolumn lub sposób skanowania poziomego, w którym współczynniki w kształcie bloku 2D skanowane są w kierunku rzędów. Innymi słowy, można zastosować jedno spośród skanowania ukośnego, skanowania pionowego i skanowania poziomego, w zależności od rozmiaru jednostki transformacji i trybu intra-predykcji.
Moduł kodowania entropijnego 165 może wykonać kodowanie entropijne w oparciu o wartości wytworzone za pomocą modułu przegrupowania 160. W przypadku kodowania entropijnego można zastosować różne sposoby kodowania, takie jak np. wykładniczy kod Golomba, CABAC (ang. ContextAdaptive Binary Arithmetic Coding, adaptacyjne binarne kodowanie arytmetyczne).
Moduł kodowania entropijnego 165 może kodować różne informacje, takie jak informacje o współczynniku rezydualnym i informacje o rodzaju bloku jednostki kodującej, informacje o trybie predykcji, informacje o jednostce podziału, informacje o jednostce predykcji i informacje o jednostce transmisyjnej, informacje o wektorze ruchu, informacje o ramce odniesienia, informacje o interpolacji dla bloku, informacje o filtrowaniu i informacje o rozmiarze jednostki LCU, które zapewnione są przez moduł przegrupowania 160 i moduł predykcji 120 i 125.
PL 231 159 B1
Moduł kodowania entropijnego 165 może wykonać kodowanie entropijne na wartościach współczynników jednostki kodującej jako wejście z modułu przegrupowania 160 przy pomocy sposobu kodowania entropijnego, takiego jak CABAC.
Moduł dekwantyzacji 140 może wykonać dekwantyzację na wartościach skwantyzowanych przez moduł kwantyzacji 135, a moduł transformacji odwrotnej 145 może wykonać odwrotne przekształcenie na wartościach przekształconych przez moduł transformacji 130. Wartości rezydualne wygenerowane przez moduł dekwantyzacji 140 i moduł transformacji odwrotnej 145 mogą zostać dodane przy pomocy jednostki predykcji przewidzianej poprzez moduł szacowania ruchu, moduł kompensacji ruchu i moduł intra-predykcji zawarte w module predykcji 120 i 125, generując tym samym przywrócony blok.
Moduł filtracji 150 może zawierać co najmniej jeden spośród filtra odblokowania, modułu korekcji przesunięcia (ang. offset correcting module) i filtra ALF (ang. Adaptive Loop Filter, adaptacyjny filtr pętli).
Filtr odblokowania może usunąć zniekształcenie bloku, które pojawia się ze względu na granicę bloku w przywróconym (lub zrekonstruowanym) obrazie. To, czy zastosować filtr odblokowania w aktualnym bloku można określić za pomocą piksela zawartego w kilku rzędach lub kolumnach zawartych w blokach. W przypadku, gdy w bloku stosuje się filtr odblokowania, można zastosować silny filtr lub słaby filtr, w zależności od koniecznej siły filtra odblokowania. Ponadto w przypadku, gdy w bloku stosuje się filtr odblokowania, można równolegle zastosować filtrowanie w kierunku poziomym i filtrowanie w kierunku pionowym.
Moduł korekcji przesunięcia może skorygować przesunięcia między oryginalnym obrazem a obrazem z zastosowanym odblokowaniem w jednostce piksela (lub w przełożeniu na piksel). Aby wykonać korekcję przesunięcia na konkretnym obrazie, piksele zawarte w obrazie dzielone są na wcześniej określoną liczbę obszarów, z których jeden jest następnie określany, aby wykonać przesunięcie, i można zastosować sposób stosowania przesunięcia w odpowiednim obszarze lub sposób stosowania przesunięcia uwzględniający informacje o krawędziach każdego piksela.
Filtr ALF (adaptacyjny filtr pętli) może wykonać filtrację w oparciu o wartość uzyskaną przez porównanie filtrowanego zrekonstruowanego (przywróconego) obrazu z oryginalnym obrazem. Piksele zawarte w obrazie są dzielone na wcześniej określone grupy, a następnie określa się jeden filtr do zastosowania w odpowiedniej grupie, aby tym samym wykonać filtrację na każdej grupie w rozróżniający sposób. W odniesieniu do informacji, czy zastosować filtr ALF, sygnał typu luma można transmitować dla każdej jednostki kodującej, a rozmiar i współczynnik filtra ALF do zastosowania mogą zmieniać się dla każdego bloku. Filtr ALF może mieć różne kształty, a liczba współczynników zawartych w filtrze może się odpowiednio zmieniać. Informacje dotyczące takiego filtra ALF (np. informacje o współczynniku filtra, informacje o włączeniu/wyłączeniu filtra ALF lub informacje o kształcie filtra) mogą być transmitowane, zawarte we wcześniej określonym zestawie parametrów strumienia bitów.
Pamięć 155 może przechowywać zrekonstruowany blok lub obraz wygenerowany poprzez moduł filtracji 150, i przechowywany zrekonstruowany blok lub obraz mogą zostać dostarczone do modułu predykcji 120 i 125, gdy wykonuje się inter-predykcję.
Fig. 2 jest schematem blokowym przedstawiającym dekoder wideo według kolejnego przykładu wykonania wynalazku.
W odniesieniu do fig. 2 dekoder wideo może zawierać moduł dekodowania entropijnego 210, moduł przegrupowania 215, moduł dekwantyzacji 220, moduł transformacji odwrotnej 225, moduł predykcji 230 i 235, moduł filtracji 240 i pamięć 245.
W przypadku, gdy strumień bitów jest wprowadzany z kodera wideo, wprowadzany strumień bitów można dekodować w procedurze odwrotnej do tej z kodera wideo.
Moduł dekodowania entropijnego 210 może wykonać dekodowanie entropijne w procedurze odwrotnej do tej z kodowania entropijnego wykonanego w module kodowania entropijnego kodera wideo. Spośród fragmentów informacji dekodowanych w module dekodowania entropijnego 210, informacje stosowane do uzyskania bloku predykcji, takie jak informacje o rozmiarze jednostki LCU lub informacje o rozmiarze bloku, dostarcza się do modułu predykcji 230 i 235, a wartości rezydualne uzyskane poprzez dekodowanie i entropijne w module dekodowania entropijnego można wprowadzać do modułu przegrupowania 215.
Moduł dekodowania entropijnego 210 może dekodować informacje dotyczące intra-predykcji i inter-predykcji wykonywanych w koderze. Jak opisano powyżej, w przypadku, gdy istnieje wcześniej określone ograniczenie, gdy koder wideo wykonuje intra-predykcję i inter-predykcję, dekodowanie entropijne wykonuje się w oparciu o takie ograniczenie dla odbieranych informacji dotyczących intra-predykcji i inter-predykcji dla aktualnego bloku.
PL 231 159 B1
Moduł przegrupowania 215 może wykonać ponowne rozmieszczanie w oparciu o sposób przegrupowania, przez koder, strumienia bitów, który jest dekodowany entropijnie w module dekodowania entropijnego 210. Takie ponowne rozmieszczanie może zostać wykonane przez współczynniki przywracania przedstawione w postaci jednowymiarowych wektorów do postaci bloku 2D współczynników.
Moduł dekwantyzacji 220 może wykonać dekwantyzację w oparciu o blok ponownie rozmieszczonych współczynników i parametry kwantyzacji dostarczone z kodera.
Moduł transformacji odwrotnej 225 może wykonać odwrotne DCT i odwrotne DST, w odniesieniu do DCT i DST, które wykonywane są przez moduł transformacji, na wyniku kwantyzacji wykonanej w koderze wideo. Odwrotne przekształcenie można wykonać na podstawie jednostki transmisyjnej określonej w koderze wideo. Moduł transformacji kodera wideo może selektywnie wykonać DCT lub DST w zależności od licznych informacji, takich jak sposób predykcji, rozmiar aktualnego bloku i kierunek predykcji, a moduł transformacji odwrotnej 225 dekodera wideo może wykonać odwrotne przekształcenie w oparciu o przekształcone informacje wykonane przez moduł transformacji kodera wideo.
Moduł predykcji 230 i 235 może wygenerować blok predykcji w oparciu o wcześniej dekodowany blok lub informacje o wcześniej dekodowanym obrazie, jakie dostarcza się z pamięci 245 i informacje dotyczące generowania bloku predykcji dostarczone z modułu dekodowania entropijnego 210.
Moduł predykcji 230 i 235 może zawierać moduł określający jednostkę predykcji, moduł interpredykcji i moduł intra-predykcji. Moduł określający jednostkę predykcji może odbierać różne informacje zawierające informacje o trybie predykcji sposobu intra- predykcji, informacje dotyczące predykcji ruchu sposobu inter-predykcji i informacje o jednostce predykcji, przy czym te różne informacje wprowadzane są z modułu dekodowania entropijnego. Moduł określający jednostkę predykcji może oddzielić jednostkę predykcji od aktualnej jednostki kodującej i może określić, czy na jednostce predykcji wykonywana jest intra-predykcja czy wykonywana jest inter-predykcja. Moduł inter-predykcji może wykonać inter-predykcję na aktualnej jednostce predykcji według informacji zawartych w co najmniej jednym z obrazów spośród obrazów przed aktualnym obrazem lub obrazów po aktualnym obrazie. Moduł inter-predykcji może wykonać inter-predykcję na aktualnej jednostce predykcji, stosując informacje konieczne do inter-predykcji aktualnej jednostki predykcji, dostarczone z dekodera wideo.
Można określić, który spośród trybu pomijania, trybu scalania i trybu AMVP jest sposobem predykcji ruchu dla jednostki predykcji zawartej w odpowiedniej jednostce kodującej, w oparciu o jednostkę kodującą, aby wykonać inter-predykcję.
Według przykładu wykonania wynalazku moduł inter-predykcji może określić, czy docelowy blok predykcji przylega do granicy jednostki LCU (największa jednostka kodująca), i może określić, czy pierwszy kolokowany blok jest dostępny według określenia, czy docelowy blok predykcji przylega do granicy jednostki LCU. Na przykład, jeżeli określa się, że pierwszy kolokowany blok nie jest dostępny, drugi kolokowany blok można określić jako kolokowany blok dla uzyskania czasowego wektora predykcji ruchu, lub jeżeli pierwszy kolokowany blok nie jest dostępny, położenie pierwszego kolokowanego bloku może zostać zmienione tak, że pierwszy kolokowany blok o zmienionym położeniu może zostać określony jako kolokowany blok dla uzyskania czasowego wektora predykcji ruchu. Ponadto moduł interpredykcji może zawierać moduł predykcji, który określa wskaźnik obrazu odniesienia kolokowanego bloku docelowego bloku predykcji i określa wektor predykcji ruchu kolokowanego bloku. Kolokowany blok może zostać adaptacyjnie określony według lokalizacji docelowego bloku predykcji w jednostce LCU (największa jednostka kodująca). W dalszej części szczegółowo opisane zostanie działanie modułu predykcji według wynalazku.
Moduł intra-predykcji może generować blok predykcji w oparciu o informacje o pikselach w aktualnym obrazie. W przypadku, gdy jednostka predykcji jest tą, dla której stosuje się intra-predykcję, intrapredykcję można wykonać w oparciu o informacje o trybie intra-predykcji jednostki predykcji dostarczone z kodera wideo. Moduł intra-predykcji może zawierać filtr MDIS, moduł interpolacji pikseli odniesienia i filtr DC. Filtr MDIS wykonuje filtrację na pikselach odniesienia aktualnego bloku. W przypadku filtra MDIS można określić, czy zastosować filtr według trybu predykcji aktualnej jednostki predykcji. Filtrację na pikselach odniesienia aktualnego bloku można wykonać przy pomocy informacji o filtrze MDIS i trybu predykcji jednostki predykcji dostarczonych z kodera wideo. W przypadku, gdy tryb predykcji aktualnego bloku jest trybem, w którym nie wykonuje się filtracji, nie można zastosować filtra MDIS.
W przypadku, gdy tryb predykcji jednostki predykcji jest trybem predykcji, w którym intra-predykcję wykonuje się w oparciu o wartości pikseli uzyskane przez interpolację piksela odniesienia, piksel
PL 231 159 B1 odniesienia z jednostką poniżej całkowitego piksela można uzyskać poprzez interpolację pikseli odniesienia. W przypadku, gdy tryb predykcji aktualnej jednostki predykcji jest trybem predykcji, w którym blok predykcji generuje się bez interpolacji pikseli odniesienia, piksel odniesienia nie może być poddany interpolacji. Filtr DC może generować blok predykcji poprzez filtrację, jeżeli tryb predykcji aktualnego bloku jest trybem DC.
Zrekonstruowany blok lub obraz można dostarczyć do modułu filtracji 240. Moduł filtracji 240 może zawierać filtr odblokowania, moduł korekcji przesunięcia i filtr ALF.
Informacje o tym, czy odpowiedni blok lub obraz został zastosowany z filtrem odblokowania mogą zostać dostarczone z kodera wideo (lub obrazu). Jeżeli zastosowano filtr odblokowania, informacje o tym, czy zastosowany filtr odblokowania jest silnym filtrem czy słabym filtrem mogą zostać dostarczone z kodera wideo. Filtr odblokowania dekodera wideo może odbierać informacje dotyczące filtra odblokowania z kodera wideo, a filtrację odblokowania można wykonać na odpowiednim bloku w dekoderze wideo. Podobnie jak koder wideo, dekoder wideo może najpierw wykonać filtrację odblokowania pionowego i filtrację odblokowania poziomego. Nakładający się fragment (fragmenty) może zostać poddany co najmniej odblokowaniu pionowemu i odblokowaniu poziomemu. W obszarze, w którym filtracja odblokowania pionowego i filtracja odblokowania poziomego nakładają się na siebie, jedna spośród filtracji odblokowania pionowego i filtracji odblokowania poziomego, która nie została wykonana wcześniej może zostać wykonana dla tego obszaru. Taki proces filtracji odblokowania umożliwia równoległe przetwarzanie filtracji odblokowania.
Moduł korekcji przesunięcia może wykonać korekcję przesunięcia na rekonstruowanym obrazie w oparciu o rodzaj korekcji przesunięcia, zastosowanej w obrazie w procesie kodowania i informacje o wartości przesunięcia, zastosowanej w procesie kodowania.
Filtr ALF może wykonać filtrację według porównania między zrekonstruowanym obrazem po filtracji a oryginalnym obrazem. Filtr ALF można wykonać na jednostce kodującej w oparciu o informacje o tym, czy zastosowano filtr ALF i informacje o współczynnikach filtra ALF, które są dostarczane z kodera. Takie informacje o filtrze ALF mogą zostać dostarczone, będąc zawarte w konkretnym zestawie parametrów.
Pamięć 245 może przechowywać zrekonstruowany obraz lub zrekonstruowany blok, aby go zastosować jako obraz odniesienia lub blok odniesienia, oraz może dostarczyć zrekonstruowany obraz do modułu wyświetlania.
Jak opisano powyżej, nawet jeżeli dla uproszczenia opisu stosuje się określenie „jednostka kodująca” w przykładzie wykonania wynalazku, jednostkę kodującą można również stosować jako jednostkę do dekodowania. W dalszej części sposób predykcji opisany poniżej w powiązaniu z fig. od 3 do 10 według przykładu wykonania wynalazku można wykonać w komponencie, takim jak moduł predykcji, jak przedstawiono na fig. 1 i 2.
Fig. 3 jest widokiem koncepcyjnym przedstawiającym sposób uzyskiwania czasowego wektora predykcji ruchu według przykładu wykonania wynalazku.
W odniesieniu do fig. 3 czasowy wektor predykcji ruchu można uzyskać w oparciu o wartość wektora ruchu kolokowanego bloku (colPu) w kolokowanym obrazie (colPic).
Kolokowany obraz jest obrazem zawierającym kolokowany blok do uzyskiwania informacji dotyczących czasowego wektora predykcji ruchu po wykonaniu sposobu inter-predykcji, takiego jak scalanie lub AMVP. Kolokowany blok może być zdefiniowany jako blok zawarty w kolokowanym obrazie, przy czym kolokowany blok uzyskuje się w oparciu o informacje o lokalizacji docelowego bloku predykcji i ma czasowo inną fazę niż docelowy blok predykcji.
Dla jednego docelowego bloku predykcji może być wiele kolokowanych bloków. Informacje dotyczące ruchu kolokowanego bloku zawartego w kolokowanym obrazie mogą być przechowywane jako jedna wartość reprezentatywna w odniesieniu do wcześniej określonej jednostki. Na przykład w odniesieniu do jednostki o rozmiarze bloku 16x16, informacje dotyczące predykcji ruchu (wektor ruchu, obraz odniesienia etc.) można określić i przechowywać w postaci jednej reprezentatywnej wartości w jednostce bloku 16x16.
Fig. 4 jest schematem działań sposobu uzyskiwania czasowego wektora predykcji ruchu według przykładu wykonania wynalazku.
W dalszej części sposób uzyskiwania czasowego wektora predykcji ruchu, który zostanie opisany poniżej, można stosować w sposobie inter-predykcji, takim jak tryb scalania lub tryb AMVP. Sposób uzyskiwania czasowego wektora predykcji ruchu może być sposobem uzyskiwania czasowego bloku kandydującego (kolokowany blok) do wykonania trybu scalania, sposobem uzyskiwania czasowego
PL 231 159 B1 bloku kandydującego (kolokowany blok) do wykonania trybu AMVP i sposobem uzyskiwania czasowego wektora predykcji ruchu.
W dalszej części w przykładzie wykonania wynalazku kolokowany blok może być zdefiniowany i stosowany jako określenie wskazujące na czasowy blok kandydujący stosowany w trybie scalania i trybie AMVP.
W odniesieniu do fig. 4 uzyskuje się informacje o kolokowanym obrazie (etap S400).
Informacje o lokalizacji docelowego bloku predykcji, informacje o rozmiarze docelowego bloku predykcji i informacje o wskaźniku obrazu odniesienia docelowego bloku predykcji można zastosować, aby uzyskać informacje o kolokowanym obrazie, informacje o kolokowanym bloku i czasowy wektor predykcji ruchu.
Według przykładu wykonania wynalazku informacje o kolokowanym obrazie można uzyskać w oparciu o informacje o rodzaju segmentu (slice_type), informacje o liście obrazów odniesienia (collocated_from_I0_flag) i informacje o wskaźniku obrazu odniesienia (collocated_ref_idx). Stosując informacje o liście obrazów odniesienia (collocated_from_I0_flag), jeżeli informacje o liście obrazów odniesienia (collocated_from_I0_flag) wskazują 1, oznacza to, że kolokowany obraz jest zawarty w pierwszej liście obrazów odniesienia (List 0), a jeżeli informacje o liście obrazów odniesienia (collocated_from_I0_flag) wskazują 0, oznacza to, że kolokowany obraz jest zawarty w drugiej liście obrazów odniesienia (List 1).
Na przykład w przypadku, gdy rodzajem segmentu jest segment B, a wartością informacji o liście obrazów odniesienia (collocated_from_I0_flag) jest 0, kolokowany obraz można określić jako obraz zawarty w drugiej liście obrazów odniesienia, a w przypadku, gdy rodzajem segmentu jest segment B, a wartością informacji o liście obrazów odniesienia (collocated_from_I0_flag) jest 1 lub w przypadku, gdy rodzajem segmentu jest segment P, kolokowany obraz można określić jako obraz zawarty w pierwszej liście obrazów odniesienia.
W przypadku sposobu inter-predykcji wykorzystującego tryb scalania, jeżeli wcześniej określony warunek jest spełniony, informacje o wskaźniku obrazu odniesienia z sąsiedniego bloku w konkretnym położeniu można określić jako informacje dla kolokowanego obrazu, a jeżeli wcześniej określony warunek nie jest spełniony, poprzedni obraz aktualnego obrazu można określić jako kolokowany obraz.
Uzyskiwane są informacje dla kolokowanego bloku (etap S410).
Informacje dla kolokowanego bloku można różnie uzyskiwać w zależności od tego, czy część (lub fragment) docelowego bloku predykcji przylega do granicy jednostki LCU (największa jednostka kodująca). W dalszej części sposób określania kolokowanego bloku zależny od lokalizacji docelowego bloku predykcji i granicy jednostki LCU, opisany jest w odniesieniu do fig. od 5 do 9.
Fig. 5 jest widokiem koncepcyjnym przedstawiającym lokalizację kolokowanego bloku do uzyskiwania czasowego wektora ruchu według przykładu wykonania wynalazku.
W odniesieniu do fig. 5 bloki w rożnych położeniach w odniesieniu do docelowego bloku predykcji można zastosować jako kolokowane bloki do uzyskiwania czasowego wektora ruchu. Kolokowane bloki, które można stosować do uzyskiwania czasowego wektora ruchu można sklasyfikować w zależności od lokalizacji w następujący sposób.
W przypadku, gdy punktem położonym w górnej lewej części docelowego bloku predykcji jest (xP, yP), szerokością docelowego bloku predykcji jest nPSW, a wysokością docelowego bloku predykcji jest nPSH, pierwszym kolokowanym blokiem 500 może być blok zawierający punkt (xP+nPSW, yP+nPSH) w kolokowanym obrazie, drugim kolokowanym blokiem 510 może być blok zawierający punkt (xP+nPSW-MinPuSize, yP+nPSH) w kolokowanym obrazie, trzecim kolokowanym blokiem 520 może być blok zawierający punkt (xP+nPSW, yP+nPSH-MinPuSize) w kolokowanym obrazie, czwartym kolokowanym blokiem 530 może być blok zawierający punkt (xP+nPSW-1, yP+nPSH-1) w kolokowanym obrazie, piątym kolokowanym blokiem 540 może być blok zawierający punkt (xP+(nPSW>>1), yP+(nPSH>>1)) w kolokowanym obrazie, a szóstym kolokowanym blokiem 550 może być blok zawierający punkt (xP+(nPSW>>1)-1, yP+(nPSH>>1)-1) w kolokowanym obrazie.
Kolokowany blok można adaptacyjnie określić według położenia aktualnej jednostki predykcji zlokalizowanej w jednostce LCU. Wzajemne spozycjonowanie między docelowym blokiem predykcji a granicą jednostki LCU można poddać kategoryzacji w następujących przypadkach: 1) gdy dolny koniec i prawa strona docelowego bloku predykcji nie przylegają do granicy jednostki LCU, 2) gdy jedynie dolny koniec docelowego bloku predykcji przylega do granicy jednostki LCU, 3) gdy zarówno prawa strona, jak i dolny koniec docelowego bloku predykcji przylegają do granicy jednostki LCU i 4) gdy jedynie prawa strona docelowego bloku predykcji przylega do granicy jednostki LCU.
PL 231 159 B1
Według przykładu wykonania wynalazku kolokowany blok można adaptacyjnie określić w różny sposób zależnie od lokalizacji docelowego bloku predykcji w jednostce LCU.
1) W przypadku, gdy dolny koniec i prawa strona docelowego bloku predykcji nie przylegają do granicy jednostki LCU, pierwszy kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowany blok z kontrolą dostępności dla uzyskania czasowego wektora ruchu.
2) W przypadku, gdy jedynie dolny koniec docelowego bloku predykcji przylega do granicy jednostki LCU, trzeci kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowany blok z kontrolą dostępności dla uzyskania czasowego wektora ruchu.
3) W przypadku, gdy zarówno prawa strona, jak i dolny koniec docelowego bloku predykcji przylegają do granicy jednostki LCU, czwarty kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowany blok z kontrolą dostępności dla uzyskania czasowego wektora ruchu.
4) W przypadku, gdy jedynie prawa strona docelowego bloku predykcji przylega do granicy jednostki LCU, drugi kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowany blok z kontrolą dostępności dla uzyskania czasowego wektora ruchu.
To oznacza, że według przykładu wykonania wynalazku można adaptacyjnie określić czasowy blok kandydujący w zależności od lokalizacji aktualnego bloku w jednostce LCU. Położenia pikseli do określenia czasowego bloku kandydującego w przypadku, gdy dolna granica aktualnego bloku przylega do granicy jednostki LCU mogą być inne niż położenia pikseli do określenia czasowego bloku kandydującego w przypadku, gdy dolna granica aktualnego bloku nie przylega do granicy jednostki LCU. Ponadto położenia pikseli do określenia czasowego bloku kandydującego w przypadku, gdy dolna granica aktualnego bloku przylega do granicy jednostki LCU mogą być inne niż położenia pikseli do określenia czasowego bloku kandydującego w przypadku, gdy jedynie prawa granica aktualnego bloku przylega do granicy jednostki LCU.
Według kolejnego przykładu wykonania wynalazku można zastosować sposób, w którym kolokowany blok można określić (lub wybrać) w sposób adaptacyjny i różny w zależności od położenia docelowego bloku predykcji w jednostce LCU tak, że kolokowany blok i docelowy blok predykcji zlokalizowane będą w tej samej jednostce LCU, lub kolokowanego bloku nie będzie można zastosować, jeżeli kolokowany blok i docelowy blok predykcji nie będą zlokalizowane w tej samej jednostce LCU.
Fig. 6 jest widokiem koncepcyjnym przedstawiającym sposób określania kolokowanego bloku do uzyskiwania wektora predykcji ruchu według przykładu wykonania wynalazku.
W odniesieniu do fig. 6 znane mogą być położenia kolokowanych bloków licznych jednostek predykcji zawartych w pojedynczej jednostce LCU.
W przypadku PU0, PU1, PU2 i PU5 jednostkami predykcji są jednostki predykcji wewnątrz jednostki LCU, a pierwszy kolokowany blok można najpierw zastosować jako kolokowany blok do uzyskiwania czasowego wektora ruchu.
W przypadku PU4 i PU7 granice jednostek predykcji przylegają jedynie do dolnej granicy jednostki LCU, a trzeci kolokowany blok można najpierw zastosować jako kolokowany blok do uzyskiwania czasowego wektora ruchu.
W przypadku PU8 granica jednostki predykcji przylega zarówno do dolnej granicy, jak i prawej granicy jednostki LCU, a czwarty kolokowany blok można najpierw zastosować jako kolokowany blok do uzyskiwania czasowego wektora ruchu.
W przypadku PU3 i PU6 granice jednostek predykcji przylegają jedynie do prawej granicy jednostki LCU, a drugi kolokowany blok można najpierw zastosować jako kolokowany blok do uzyskiwania czasowego wektora ruchu.
To oznacza, że, jak opisany powyżej, czasowy blok kandydujący jest adaptacyjnie określany w zależności od lokalizacji aktualnego bloku w jednostce LCU, a położenia pikseli do określania czasowego bloku kandydującego w przypadkach, gdy dolna granica aktualnego bloku przylega do granicy jednostki LCU (przypadki PU4, PU7 i PU8) i w przypadkach, gdy dolna granica aktualnego bloku nie przylega do granicy jednostki LCU (przypadki PU0, PU1, PU2, PU3, PU5 i PU6) różnią się od siebie. Ponadto położenia pikseli do określenia czasowego bloku kandydującego mogą być różne w przypadkach, gdy dolna granica aktualnego bloku przylega do granicy jednostki LCU (przypadki PU4, PU7 i PU8) i w przypadkach, gdy jedynie prawa granica aktualnego bloku przylega do granicy jednostki LCU (przypadki PU3 i PU6).
PL 231 159 B1
Według kolejnego przykładu wykonania wynalazku, o ile kolokowany blok zlokalizowany jest w tej samej jednostce LCU wraz z docelowym blokiem predykcji, kolokowany blok określa się w sposób adaptacyjny i różny w zależności od lokalizacji docelowego bloku predykcji w jednostce LCU. Jeżeli konkretny kolokowany blok nie jest zlokalizowany w tej samej jednostce LCU wraz z docelowym blokiem predykcji, taki konkretny kolokowany blok może nie być dostępny. Na przykład jeżeli dolna granica bloku predykcji przylega do dolnej granicy jednostki LCU, tak jak PU4, PU7 i PU8, pierwszy kolokowany blok może być oznaczony (lub wskazany) jako niedostępny, a w zamian piąty kolokowany blok można zastosować jako kolokowany blok do uzyskiwania czasowego wektora predykcji.
Jako sposób uzyskiwania kolokowanego bloku można zastosować sposób, który, kategoryzując cechy docelowego bloku predykcji, jak opisano powyżej, w zależności od lokalizacji docelowego bloku predykcji i granicy jednostki LCU, wybiera blok do zastosowania jako kolokowany blok w zależności od skategoryzowanej lokalizacji docelowego bloku predykcji. Korzystnie przyjmuje się, że pierwszy kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowany blok do uzyskiwania czasowego wektora ruchu. Po sprawdzeniu dostępności pierwszego kolokowanego bloku (na przykład czy dolna granica docelowego bloku predykcji przylega do jednostki LCU), kolokowany blok, inny niż pierwszy kolokowany blok, można określić jako kolokowany blok do uzyskiwania czasowego wektora ruchu. Na przykład jeżeli pierwszy kolokowany blok określa się jako niedostępny poprzez etapy określania, czy docelowy blok predykcji przylega do granicy jednostki LCU (największa jednostka kodująca), kolokowany blok do uzyskiwania czasowego wektora ruchu można zmienić na inny kolokowany blok (np. trzeci kolokowany blok) lub piąty kolokowany blok można zastosować bezpośrednio bez stosowania pierwszego kolokowanego bloku.
W szczególności powyższy sposób można wykonać poprzez następujące etapy:
1) Etap określania, czy granica docelowego bloku predykcji przylega do granicy jednostki LCU (największa jednostka kodująca).
2) Etap określania, czy pierwszy kolokowany blok jest dostępny w zależności od tego, czy granica docelowego bloku predykcji przylega do granicy jednostki LCU. W szczególności w etapie 2), gdy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU, można określić, że pierwszy kolokowany blok nie jest dostępny.
3) Etap określania kolokowanego bloku, innego niż pierwszy kolokowany blok, jako kolokowany blok do uzyskiwania czasowego wektora predykcji ruchu, gdy pierwszy kolokowany blok nie jest dostępny. W szczególności w etapie 3) w przypadku, gdy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU i w przypadku, gdy prawa granica docelowego bloku predykcji przylega do granicy jednostki LCU, różne kolokowane bloki dla każdego z różnych przypadków można określić jako kolokowane bloki do uzyskiwania czasowego wektora predykcji ruchu.
4) Etap określania pierwszego kolokowanego bloku jako kolokowany blok do uzyskiwania czasowego wektora predykcji ruchu, jeżeli pierwszy kolokowany blok jest dostępny, i określania dostępności piątego kolokowanego bloku, jeżeli pierwszy kolokowany blok nie jest dostępny.
Powyższe etapy mogą być opcjonalnymi etapami, a sekwencyjne powiązanie etapów lub sposobu określania można zmienić, nie wykraczając poza istotę wynalazku.
Fig. 7 jest widokiem koncepcyjnym przedstawiającym przypadek, w którym docelowy blok predykcji przylega do dolnej granicy jednostki LCU według przykładu wykonania wynalazku.
W odniesieniu do fig. 7 przedstawiono przypadek, w którym lokalizacja kolokowanego bloku zmienia się, gdy docelowy blok predykcji (PU, PU7 lub PU8) zlokalizowany jest w dolnej granicy jednostki LCU. W przypadku, gdy docelowy blok predykcji (PU4, PU7 lub PU8) zlokalizowany jest w dolnej granicy jednostki LCU, lokalizację kolokowanego bloku można ustalić tak, aby informacje dotyczące predykcji ruchu można było uzyskać nawet bez przeszukiwania jednostki LCU położonej pod aktualną jednostką LCU pośród jednostek LCU. Na przykład czasowy wektor predykcji ruchu można uzyskać, stosując raczej trzeci kolokowany blok niż pierwszy kolokowany blok docelowego bloku predykcji, 1) w przypadku, gdy przylega jedynie prawa granica jednostki LCU, w zależności od dostępności, pierwszy kolokowany blok i piąty kolokowany blok są sekwencyjnie określane jako kolokowany blok do uzyskiwania czasowego wektora predykcji ruchu, 2) w przypadku, gdy przylega dolna granica jednostki LCU, w zależności od dostępności, trzeci kolokowany blok i piąty kolokowany blok mogą zostać sekwencyjnie określone jako kolokowany blok do uzyskiwania czasowego wektora predykcji ruchu. Oznacza to, że
PL 231 159 B1 według przykładu wykonania wynalazku położenia pikseli do określania czasowego bloku kandydującego mogą być różne w przypadku, gdy dolna granica aktualnego bloku przylega do granicy jednostki LCU i w przypadku, gdy dolna granica aktualnego bloku nie przylega do granicy jednostki LCU,
W odniesieniu do fig. 4, w oparciu o kolokowany blok określony poprzez sposób opisany powyżej w powiązaniu z fig. od 5 do 7 uzyskuje się wektor (mvLXCol) predykcji ruchu kolokowanego bloku i informacje (availableFlagLXCol) o dostępności kolokowanego bloku (etap S420).
Informacje (availableFlagLXCol) o dostępności kolokowanego bloku i wektor (mvLXCol) ruchu kolokowanego bloku, który ma zostać zastosowany do inter-predykcji docelowego bloku predykcji w oparciu o informacje o kolokowanym bloku określone poprzez procesy przedstawione na fig. od 5 do 7 można uzyskać za pomocą następującego sposobu:
1) Jeżeli kolokowany blok (colPu) jest kodowany w oparciu o tryb intra-predykcji, jeżeli kolokowany blok (colPu) nie jest dostępny, jeżeli kolokowany obraz (colPic) nie jest dostępny dla predykcji czasowego wektora predykcji ruchu, lub jeżeli inter-predykcję wykonuje się bez stosowania czasowego wektora predykcji ruchu, wektor (mvLXCol) ruchu kolokowanego bloku i informacje (availableFlagLXCol) o dostępności kolokowanego bloku można ustalić na 0.
2) W przypadku innym niż 1) informacje (mvLXCol) o wektorze ruchu kolokowanego bloku i informacje (availableFlagLXCol) o dostępności kolokowanego bloku można uzyskać poprzez znacznik (PredFIagL0) i znacznik (PredFIagL1), gdzie znacznik (PredFIagL0) wskazuje, czy stosuje się listę L0, a znacznik (PredFIagL1) wskazuje, czy stosuje się listę L1.
Najpierw, jeżeli określi się, że inter-predykcję wykonano na kolokowanym bloku bez stosowania listy L0 (wskaźnik (PredFIagL0) jest równy 0), informacje dotyczące predykcji ruchu kolokowanego bloku, takie jak informacje mvCol, informacje refldxCol i informacje listCol, można ustalić na L1 i MvL1 [xPCol][yPCol], RefldxL1[xPCol][yPCol], które są informacjami dotyczącymi predykcji ruchu kolokowanego bloku uzyskanymi poprzez zastosowanie listy L1, a informacje (availableFlagLXCol) o dostępności kolokowanego bloku można ustalić na 1.
W innych przypadkach, jeżeli określi się, że inter-predykcję wykonano na kolokowanym bloku, stosując listę L0 (wskaźnik (PredFIagL0) jest równy 1), informacje dotyczące predykcji ruchu kolokowanego bloku, takie jak informacje mvCol, informacje refldxCol i informacje listCol, można ustalić oddzielnie w przypadku, gdy PredFIagL1 wynosi 0 i w przypadku, gdy PredFIagL1 wynosi 1, a informacje (availableFlagLXCol) o dostępności kolokowanego bloku można ustalić na 1.
Uzyskany mvLXCol jest skalowany (etap S430).
Aby zastosować mvLXCol uzyskany poprzez etap S420 jako czasowy wektor predykcji ruchu docelowego bloku predykcji, uzyskaną wartość mvLXCol można skalować w oparciu o informacje o odległości dotyczące odległości między kolokowanym obrazem zawierającym kolokowany blok a obrazem odniesienia kolokowanego bloku powiązanym z kolokowanym blokiem i odległości między obrazem zawierającym docelowy blok predykcji a obrazem odniesienia powiązanym z docelowym blokiem predykcji. Po skalowaniu uzyskanej wartości mvLXCol można uzyskać czasowy wektor predykcji ruchu.
W dalszej części, według przykładu wykonania wynalazku, opisany jest sposób wykonywania inter-predykcji, taki jak scalanie i AMVP.
Fig. 8 jest schematem działań przedstawiającym sposób inter-predykcji stosujący tryb scalania według przykładu wykonania wynalazku.
W odniesieniu do fig. 8 informacje dotyczące predykcji ruchu można uzyskać z kandydata przestrzennego scalania (etap S1000).
Kandydata przestrzennego scalania można uzyskać z sąsiednich jednostek predykcji docelowego bloku predykcji. Aby uzyskać kandydata przestrzennego scalania, można odebrać informacje o szerokości i wysokości jednostki predykcji, informacje o MER (obszar szacowania ruchu, ang. Motion Estimation Region), informacje o singleMCLFIag i informacje o położeniu podziału. W oparciu o takie informacje wejściowe można uzyskać informacje (availableFlagN) o dostępności według położenia kandydata przestrzennego scalania, informacje (refldxL0, refldxL1) o obrazie odniesienia, informacje (predFIagL0N, redFIagL1N) o wykorzystaniu list i informacje (mvL0N, mvL1N) o wektorze ruchu. Kandydatami przestrzennego scalania mogą być liczne bloki sąsiadujące z docelowym blokiem predykcji.
Fig. 9 jest widokiem koncepcyjnym przedstawiającym położenia kandydatów przestrzennego scalania według przykładu wykonania wynalazku.
W odniesieniu do fig. 9 w przypadku, gdy lokalizacją punktu w górnej lewej części docelowego bloku predykcji jest (xP, yP), szerokością docelowego bloku predykcji jest nPSW, a wysokością docelowego bloku predykcji jest nPSH, kandydatem przestrzennego scalania może być blok A0 zawierający
PL 231 159 B1 punkt (xP-1, yP+nPSH), blok A1 zawierający punkt (xP-1, yP+nPSH-MinPuSize), blok B0 zawierający punkt (xP+nPSW, yP-1), blok B1 zawierający punkt (xP+nPSW-MinPuSize, yP-1) i blok B2 zawierający punkt (xP-MinPuSize, yP-1).
Odnosząc się ponownie do fig. 8, uzyskuje się wartość wskaźnika obrazu odniesienia kandydata czasowego scalania (etap S1010).
Wartość wskaźnika obrazu odniesienia kandydata czasowego scalania, jako wartość wskaźnika kolokowanego obrazu zawierającego kandydata czasowego scalania (kolokowany blok), można uzyskać poprzez specyficzne warunki w następujący sposób.
Następujące warunki są arbitralne i mogą być inne. Na przykład w przypadku, gdy lokalizacją punktu w górnej lewej części docelowego bloku predykcji jest (xP, yP), szerokością docelowego bloku predykcji jest nPSW, a wysokością docelowego bloku predykcji jest nPSH, gdy 1) istnieje sąsiednia jednostka predykcji docelowego bloku predykcji odpowiadająca położeniu (xP-1, yP+nPSH-1) (w dalszej części określana jako sąsiednia jednostka predykcji do uzyskiwania wskaźnika obrazu odniesienia), 2) wartość wskaźnika podziału sąsiedniej jednostki predykcji do uzyskiwania wskaźnika obrazu odniesienia wynosi 0, 3) sąsiednia jednostka predykcji do uzyskiwania wskaźnika obrazu odniesienia nie jest blokiem, na którym wykonuje się predykcję przy pomocy trybu intra-predykcji i 4) docelowy blok predykcji i sąsiedni blok predykcji do uzyskiwania wskaźnika obrazu odniesienia nie należą do tego samego obszaru MER (obszar szacowania ruchu), wartość wskaźnika obrazu odniesienia kandydata czasowego scalania można określić jako tę samą wartość, co wartość wskaźnika obrazu odniesienia sąsiedniej jednostki predykcji do uzyskiwania wskaźnika obrazu odniesienia. W przypadku nie spełnienia tych warunków wartość wskaźnika obrazu odniesienia kandydata czasowego scalania można ustalić na 0.
Określa się blok kandydujący czasowego scalania (kolokowany blok), a z kolokowanego bloku uzyskuje się informacje dotyczące predykcji ruchu (etap S1020).
Według przykładu wykonania wynalazku blok kandydujący czasowego scalania (kolokowany blok) można adaptacyjnie określić w zależności od lokalizacji docelowego bloku predykcji w jednostce LCU tak, że kolokowany blok będzie zawarty w tej samej jednostce LCU wraz z docelowym blokiem predykcji.
1) W przypadku, gdy dolny koniec i prawa strona docelowego bloku predykcji nie przylegają do granicy jednostki LCU, określając dostępność, pierwszy kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowany blok do uzyskiwania czasowego wektora ruchu.
2) W przypadku, gdy jedynie dolny koniec docelowego bloku predykcji przylega do granicy jednostki LCU, określając dostępność, trzeci kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowany blok do uzyskiwania czasowego wektora ruchu.
3) W przypadku, gdy zarówno prawa strona, jak i dolny koniec docelowego bloku predykcji przylegają do granicy jednostki LCU, określając dostępność, a czwarty kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowane bloki do wywołania czasowego wektora ruchu.
4) W przypadku, gdy jedynie prawa strona docelowego bloku predykcji przylega do granicy jednostki LCU, określa się dostępność, a drugi kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowane bloki do wywołania czasowego wektora ruchu.
Według przykładu wykonania wynalazku można zastosować sposób, który umożliwia określenie kolokowanego bloku w sposób adaptacyjny i różny w zależności od położenia docelowego bloku predykcji w jednostce LCU, który ma być obecny w położeniu zawartym w pojedynczej jednostce LCU wraz z docelowym blokiem predykcji, lub nie można zastosować kolokowanego bloku niezawartego w pojedynczej jednostce LCU wraz z docelowym blokiem predykcji.
Jak opisano powyżej, jako sposób wytwarzania kolokowanego bloku można zastosować sposób oddzielający cechy docelowego bloku predykcji, jak opisano powyżej, w zależności od położenia docelowego bloku predykcji i granicy jednostki LCU i określający blok do natychmiastowego zastosowania jako kolokowany blok w zależności od położenia oddzielonego docelowego bloku predykcji. Jednak można najpierw przyjąć pierwszy kolokowany blok i piąty kolokowany blok do sekwencyjnego zastosowania jako kolokowane bloki do wywołania czasowego wektora ruchu, określa się, czy pierwszy kolokowany blok jest dostępny (na przykład czy dolna granica docelowego bloku predykcji przylega do jednostki LCU), a następnie kolokowany blok, inny niż pierwszy kolokowany blok, można określić jako kolokowany blok do wywołania czasowego wektora ruchu.
PL 231 159 B1
Konfigurowana jest lista kandydatów scalania (etap S1030).
Lista kandydatów scalania może być skonstruowana tak, aby zawierała co najmniej jeden spośród kandydatów przestrzennego scalania i kandydata czasowego scalania. Kandydaci przestrzennego scalania i kandydat czasowego scalania zawarci na liście kandydatów scalania mogą być rozmieszczeni według wcześniej określonego pierwszeństwa.
Lista kandydatów scalania może być skonstruowana tak, aby zawierała ustaloną liczbę kandydatów scalania, a jeżeli liczba kandydatów scalania jest mniejsza od ustalonej liczby, informacje dotyczące predykcji ruchu które mają kandydaci scalania łączy się, aby wygenerować kandydatów scalania lub generuje się wektory zerowe jako kandydatów scalania, generując tym samym listę kandydatów scalania.
Fig. 10 jest schematem działań przedstawiającym sposób inter-predykcji stosujący AMVP według przykładu wykonania wynalazku.
W odniesieniu do fig. 10 informacje dotyczące predykcji ruchu uzyskuje się z bloku kandydującego przestrzennego AMPV (etap S1200).
Aby uzyskać informacje o wskaźniku obrazu odniesienia i wektor predykcji ruchu docelowego bloku predykcji, blok (bloki) kandydujący przestrzennego AMVP można uzyskać z sąsiednich bloków predykcji docelowego bloku predykcji.
Odwołując się ponownie do fig. 9, jeden z bloku A0 i bloku A1 można zastosować jako pierwszy blok kandydujący przestrzennego AMVP, a jeden z bloku B0, bloku B1 i bloku B2 można zastosować jako drugi blok kandydujący przestrzennego AMVP, uzyskując tym samym bloki kandydujące przestrzennego AMVP.
Informacje dotyczące predykcji ruchu uzyskuje się z bloku kandydującego czasowego AMPV (etap S1210).
Według przykładu wykonania wynalazku kolokowany blok można adaptacyjnie określić w zależności od lokalizacji docelowego bloku predykcji w jednostce LCU tak, że kolokowany blok będzie zawarty w tej samej jednostce LCU wraz z docelowym blokiem predykcji.
1. W przypadku, gdy dolny koniec i prawa strona docelowego bloku predykcji nie przylegają do granicy jednostki LCU, pierwszy kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowany blok do uzyskiwania czasowego wektora ruchu przy pomocy kontroli dostępności.
2. W przypadku, gdy jedynie dolny koniec docelowego bloku predykcji przylega do granicy jednostki LCU, trzeci kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowany blok do uzyskiwania czasowego wektora ruchu przy pomocy kontroli dostępności.
3. W przypadku, gdy zarówno prawa strona, jak i dolny koniec docelowego bloku predykcji przylegają do granicy jednostki LCU, czwarty kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowany blok do uzyskiwania czasowego wektora ruchu przy pomocy kontroli dostępności.
4. W przypadku, gdy jedynie prawa strona docelowego bloku predykcji przylega do granicy jednostki LCU, drugi kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowany blok do uzyskiwania czasowego wektora ruchu przy pomocy kontroli dostępności.
Według przykładu wykonania wynalazku nie można zastosować sposobu, według którego kolokowany blok nie jest zawarty w tej samej jednostce LCU wraz z docelowym blokiem predykcji, jak również nie można zastosować sposobu, według którego kolokowany blok jest adaptacyjnie określany w zależności od lokalizacji docelowego bloku predykcji w jednostce LCU, który ma być obecny w lokalizacji zawartej w tej samej jednostce LCU wraz z docelowym blokiem predykcji.
W etapie S1200 uzyskiwania bloków kandydujących przestrzennego AMVP, gdy pierwszy blok kandydujący przestrzennego AMVP i drugi blok kandydujący przestrzennego AMVP określa się jako dostępne, a uzyskane wartości wektora predykcji ruchu nie są takie same, nie można wykonać etapu S1210 uzyskiwania czasowego wektora predykcji ruchu.
Konstruowana jest lista kandydatów AMVP (etap S1220).
Lista kandydatów AMVP konstruowana jest przy pomocy informacji dotyczących predykcji ruchu, uzyskanych poprzez co najmniej jeden z etapów S1200 i S1210. W przypadku, gdy te same informacje dotyczące predykcji ruchu istnieją w skonstruowanej liście kandydatów AMVP, jedną wartość spośród tych samych informacji dotyczących predykcji ruchu można zastosować jako wartość kandydata AMVP.
PL 231 159 B1
Informacje dotyczące predykcji ruchu zawarte w liście kandydatów AMVP mogą zawierać ustaloną liczbę jedynie wartości kandydatów.
Chociaż przykłady wykonania wynalazku zostały opisane do tego momentu, znawcy, do których adresowany jest wynalazek, będą rozumieli, że w wynalazku można dokonać różnych modyfikacji i zmian, nie wykraczając poza ducha i zakres wynalazku.

Claims (20)

  1. Zastrzeżenia patentowe
    1. Sposób uzyskiwania kandydującego wektora predykcji ruchu, przy czym sposób obejmuje: określanie, przez moduł inter-predykcji, wskaźnika obrazu odniesienia wskazującego obraz odniesienia zawierający kolokowany blok docelowego bloku predykcji; i określanie, przez moduł inter-predykcji, wektora predykcji ruchu kolokowanego bloku, przy czym kolokowany blok jest adaptacyjnie określony za pomocą lokalizacji docelowego bloku predykcji w największej jednostce kodującej (LCU).
  2. 2. Sposób według zastrz. 1, w którym kolokowany blok jest różnie określany na podstawie tego, czy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU.
  3. 3. Sposób według zastrz. 1, w którym kolokowany blok jest różnie określany na podstawie tego, czy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU lub czy prawa granica docelowego bloku predykcji przylega do granicy jednostki LCU.
  4. 4. Sposób według zastrz. 1, przy czym kolokowany blok jest określany za pomocą położeń odniesienia pikseli w jednostce LCU.
  5. 5. Sposób według zastrz. 1, w którym jeden spośród pierwszego kolokowanego bloku i piątego kolokowanego bloku jest określany selektywnie jako kolokowany blok według tego, czy lewa granica lub dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU, i przy czym jeżeli lokalizacją górnego lewego piksela docelowego bloku predykcji jest (xP, yP), szerokością docelowego bloku predykcji jest nPSW, a wysokością docelowego bloku predykcji jest nPSH, pierwszy kolokowany blok zawiera piksel w (xP+nPSW, yP+nPSH) w kolokowanym obrazie, a piąty kolokowany blok zawiera piksel w (xP+(nPSW>>1), yP+(nPSH>>1)) w kolokowanym obrazie.
  6. 6. Sposób uzyskiwania kandydującego wektora predykcji ruchu, przy czym sposób obejmuje: określanie, przez moduł inter-predykcji, czy granica docelowego bloku predykcji przylega do granicy największej jednostki kodującej (LCU); i określanie, przez moduł inter-predykcji, dostępności pierwszego kolokowanego bloku według określenia, czy granica docelowego bloku predykcji przylega do granicy jednostki LCU.
  7. 7. Sposób według zastrz. 6, w którym jeżeli określa się, że pierwszy kolokowany blok nie jest dostępny, inny kolokowany blok, różny od pierwszego kolokowanego bloku, jest stosowany do uzyskiwania czasowego wektora predykcji ruchu.
  8. 8. Sposób według zastrz. 7, w którym gdy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU lub, gdy prawa granica docelowego bloku predykcji przylega do granicy jednostki LCU, pierwszy kolokowany blok jest określany jako niedostępny.
  9. 9. Sposób według zastrz. 6, przy czym pierwszy kolokowany blok jest określony jako niedostępny gdy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU.
  10. 10. Sposób według zastrz. 6, obejmujący ponadto określanie jednego spośród pierwszego kolokowanego bloku i piątego kolokowanego bloku jako bloku do uzyskiwania czasowego wektora predykcji ruchu, w oparciu o dostępność pierwszego kolokowanego bloku, i przy czym jeżeli lokalizacja górnego lewego piksela docelowego bloku predykcji jest (xP, yP), szerokością docelowego bloku predykcji jest nPSW, a wysokością docelowego bloku predykcji jest nPSH, pierwszy kolokowany blok zawiera piksel w (xP+nPSW, yP+nPSH) w kolokowanym obrazie, a piąty kolokowany blok zawiera piksel w (xP+(nPSW>>1), yP+(nPSH>>1)) w kolokowanym obrazie.
  11. 11. Urządzenie do dekodowania wideo, przy czym urządzenie zawiera:
    jednostkę do dekodowania entropijnego skonfigurowaną do dekodowania informacji o rozmiarze największej jednostki kodującej (LCU); i jednostkę inter-predykcji skonfigurowaną do:
    PL 231 159 B1 określania wskaźnika obrazu odniesienia wskazującego obraz odniesienia zawierający kolokowany blok docelowego bloku predykcji, określania kolokowanego bloku docelowego bloku predykcji w oparciu o informacje o rozmiarze LCU dekodowane przez jednostkę do dekodowania entropijnego, przy czym kolokowany blok jest adaptacyjnie określony przez lokalizację docelowego bloku predykcji w jednostce LCU, i określania wektora predykcji ruchu kolokowanego bloku.
  12. 12. Urządzenie według zastrz. 11, przy czym kolokowany blok jest różnie określany w oparciu o to, czy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU.
  13. 13. Urządzenie według zastrz. 11, przy czym kolokowany blok jest różnie określany w oparciu o to, czy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU lub czy prawa granica docelowego bloku predykcji przylega do granicy jednostki LCU.
  14. 14. Urządzenie według zastrz. 11, przy czym kolokowany blok jest określany za pomocą położeń odniesienia pikseli w jednostce LCU.
  15. 15. Urządzenie według zastrz. 11, w którym jeden spośród pierwszego kolokowanego bloku i piątego kolokowanego bloku jest selektywnie określany jako kolokowany blok według tego czy lewa granica lub dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU, i przy czym jeżeli lokalizacją górnego lewego piksela docelowego bloku predykcji jest (xP, yP), szerokością docelowego bloku predykcji jest nPSW, a wysokością docelowego bloku predykcji jest nPSH, pierwszy kolokowany blok zawiera piksel (xP+nPSW, yP+nPSH) w kolokowanym obrazie, a piąty kolokowany blok zawiera piksel (xP+(nPSW>>1), yP+(nPSH>>1)) w kolokowanym obrazie.
  16. 16. Urządzenie do dekodowania wideo, przy czym urządzenie zawiera:
    jednostkę do dekodowania entropijnego skonfigurowaną do dekodowania informacji o rozmiarze największej jednostki kodującej (LCU); jednostkę inter-predykcji skonfigurowaną do:
    określania, w oparciu o informacje o rozmiarze LCU dekodowane przez jednostkę do dekodowania entropijnego, czy granica docelowego bloku predykcji przylega do granicy jednostki LCU, określania dostępności pierwszego kolokowanego bloku według określenia, czy granica docelowego bloku predykcji przylega do granicy jednostki LCU.
  17. 17. Urządzenie według zastrz. 16, w którym, jeśli jest określone, że pierwszy kolokowany blok nie jest dostępny, jednostka predykcji stosuje inny kolokowany blok, różny od pierwszego kolokowanego bloku, do uzyskiwania czasowego wektora predykcji ruchu.
  18. 18. Urządzenie według zastrz. 17, w którym, gdy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU lub gdy prawa granica docelowego bloku predykcji przylega do granicy jednostki LCU, pierwszy kolokowany blok jest określany jako niedostępny.
  19. 19. Urządzenie według zastrz. 16, w którym jednostka predykcji określa, że pierwszy kolokowany blok jest niedostępny, gdy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU.
  20. 20. Urządzenie według zastrz. 16, w którym jednostka predykcji określa jeden spośród pierwszego kolokowanego bloku i piątego kolokowanego bloku jako blok do uzyskiwania czasowego wektora predykcji ruchu, w oparciu o dostępność pierwszego kolokowanego bloku, i przy czym jeżeli lokalizacją górnego lewego piksela docelowego bloku predykcji jest (xP, yP), szerokością docelowego bloku predykcji jest nPSW, a wysokością docelowego bloku predykcji jest nPSH, pierwszy kolokowany blok zawiera piksel w (xP+nPSW, yP+nPSH) w kolokowanym obrazie, a piąty kolokowany blok zawiera piksel (xP+(nPSW>>1), yP+(nPSH>>1)) w kolokowanym obrazie.
PL407911A 2011-09-09 2012-09-06 Sposób uzyskiwania czasowego predykcyjnego wektora ruchu i urządzenie do stosowania tego sposobu PL231159B1 (pl)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR10-2011-0091782 2011-09-09
KR20110091782 2011-09-09
KR1020120039501A KR101204026B1 (ko) 2011-09-09 2012-04-17 시간적 예측 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치
KR10-2012-0039501 2012-04-17
PCT/KR2012/007174 WO2013036041A2 (ko) 2011-09-09 2012-09-06 시간적 예측 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치

Publications (2)

Publication Number Publication Date
PL407911A1 PL407911A1 (pl) 2015-05-25
PL231159B1 true PL231159B1 (pl) 2019-01-31

Family

ID=47832709

Family Applications (1)

Application Number Title Priority Date Filing Date
PL407911A PL231159B1 (pl) 2011-09-09 2012-09-06 Sposób uzyskiwania czasowego predykcyjnego wektora ruchu i urządzenie do stosowania tego sposobu

Country Status (14)

Country Link
US (4) US10523967B2 (pl)
EP (2) EP3179723B1 (pl)
JP (7) JP5745693B2 (pl)
CN (19) CN107396099B (pl)
AU (1) AU2012305071B2 (pl)
BR (1) BR112013022641B1 (pl)
CA (2) CA2829114C (pl)
ES (1) ES2487993B1 (pl)
GB (7) GB2562130B (pl)
MX (4) MX2013010155A (pl)
PL (1) PL231159B1 (pl)
RU (10) RU2600547C2 (pl)
SE (5) SE538057C2 (pl)
WO (1) WO2013036041A2 (pl)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10397599B2 (en) 2010-12-17 2019-08-27 Electronics And Telecommunications Research Institute Method and apparatus for inter prediction using motion vector candidate based on temporal motion prediction
EP3179723B1 (en) 2011-09-09 2023-01-25 KT Corporation Method for deriving a temporal predictive motion vector, and apparatus using the method
ES2705251B1 (es) * 2011-09-23 2020-01-29 Kt Corp Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo
CN105453564B (zh) 2013-07-30 2019-05-10 株式会社Kt 支持多个层的图像编码和解码方法以及使用该方法的装置
WO2015016536A1 (ko) * 2013-07-30 2015-02-05 주식회사 케이티 복수의 레이어를 지원하는 영상의 부호화 및 복호화 방법 및 이를 이용하는 장치
US9894369B2 (en) 2013-07-30 2018-02-13 Kt Corporation Image encoding and decoding method supporting plurality of layers and apparatus using same
CN111147845B (zh) * 2014-11-27 2023-10-10 株式会社Kt 对视频信号进行解码的方法和对视频信号进行编码的方法
WO2017008255A1 (en) * 2015-07-14 2017-01-19 Mediatek Singapore Pte. Ltd. Advanced intra prediction mode signaling in video coding
US10313765B2 (en) 2015-09-04 2019-06-04 At&T Intellectual Property I, L.P. Selective communication of a vector graphics format version of a video content item
WO2017048008A1 (ko) * 2015-09-17 2017-03-23 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측 방법 및 장치
CN105681788B (zh) * 2016-04-07 2019-05-03 中星技术股份有限公司 视频编码方法和视频编码装置
CN116546206A (zh) * 2016-04-08 2023-08-04 韩国电子通信研究院 用于导出运动预测信息的方法和装置
US10116957B2 (en) * 2016-09-15 2018-10-30 Google Inc. Dual filter type for motion compensated prediction in video coding
WO2018056703A1 (ko) * 2016-09-20 2018-03-29 주식회사 케이티 비디오 신호 처리 방법 및 장치
WO2018128223A1 (ko) * 2017-01-03 2018-07-12 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측 방법 및 장치
EP3383043A1 (en) * 2017-03-27 2018-10-03 Thomson Licensing Methods and apparatus for picture encoding and decoding
JP6867870B2 (ja) 2017-05-18 2021-05-12 スタンレー電気株式会社 車両用灯具
US11558633B2 (en) * 2017-11-01 2023-01-17 Vid Scale, Inc. Sub-block motion derivation and decoder-side motion vector refinement for merge mode
KR20190090728A (ko) * 2018-01-25 2019-08-02 주식회사 윌러스표준기술연구소 서브블록 기반의 모션 보상을 이용한 비디오 신호 처리 방법 및 장치
CN111886861B (zh) * 2018-02-22 2023-12-22 Lg电子株式会社 根据图像编码系统中的块划分结构的图像解码方法和设备
WO2019182385A1 (ko) * 2018-03-21 2019-09-26 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020003280A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Which lut to be updated or no updating
KR20210025537A (ko) 2018-06-29 2021-03-09 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 하나 또는 다수의 룩업 테이블들을 사용하여 이전에 코딩된 모션 정보를 순서대로 저장하고 이를 사용하여 후속 블록들을 코딩하는 개념
CN110662053B (zh) 2018-06-29 2022-03-25 北京字节跳动网络技术有限公司 使用查找表的视频处理方法、装置和存储介质
WO2020003255A1 (en) * 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Mer improvements
KR20210024502A (ko) 2018-06-29 2021-03-05 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Hmvp 후보를 병합/amvp에 추가할 때의 부분/풀 프루닝
WO2020003284A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and amvp
BR112020024202A2 (pt) 2018-06-29 2021-02-17 Beijing Bytedance Network Technology Co., Ltd. método de processamento de dados de vídeo, aparelho de processamento de vídeo e meios de armazenamento e gravação legíveis por computador não transitório
KR102660666B1 (ko) 2018-06-29 2024-04-26 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut들을 업데이트하기 위한 조건들
CN117812257A (zh) * 2018-07-02 2024-04-02 Lg电子株式会社 图像解码方法、图像编码方法、存储介质和发送方法
EP4307679A2 (en) 2018-07-02 2024-01-17 Beijing Bytedance Network Technology Co., Ltd. Luts with intra prediction modes and intra mode prediction from non-adjacent blocks
CN117241039A (zh) * 2018-08-28 2023-12-15 华为技术有限公司 帧间预测方法、装置以及视频编码器和视频解码器
KR20240013897A (ko) * 2018-08-29 2024-01-30 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 서브블록 기반 시간적 모션 벡터 예측을 사용한 비디오 코딩의 방법 및 장치
TWI820211B (zh) 2018-09-12 2023-11-01 大陸商北京字節跳動網絡技術有限公司 取決於總數減去k的開始檢查hmvp候選的條件
GB2579763B (en) * 2018-09-21 2021-06-09 Canon Kk Video coding and decoding
KR20200034646A (ko) 2018-09-21 2020-03-31 주식회사 엑스리스 영상 신호 부호화/복호화 방법 및 이를 위한 장치
EP3866470A4 (en) * 2018-10-10 2022-07-20 Samsung Electronics Co., Ltd. VIDEO ENCODING AND DECODING METHODS USING DIFFERENTIAL MOTION VECTOR VALUES, AND APPARATUS FOR ENCODING AND DECODING MOTION INFORMATION
GB2578150C (en) 2018-10-18 2022-05-18 Canon Kk Video coding and decoding
GB2595054B (en) 2018-10-18 2022-07-06 Canon Kk Video coding and decoding
JP7281890B2 (ja) * 2018-10-24 2023-05-26 シャープ株式会社 動画像符号化装置および動画像復号装置
EP3888355A4 (en) 2019-01-10 2022-03-23 Beijing Bytedance Network Technology Co., Ltd. LOOKUP TABLE UPDATE INVOCATION
CN113383554B (zh) * 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
WO2020147772A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Motion candidates derivation
CN113615193A (zh) 2019-03-22 2021-11-05 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
CN113365076B (zh) * 2019-06-21 2022-03-08 杭州海康威视数字技术股份有限公司 预测模式的解码、编码方法及装置
CN114631321B (zh) 2019-10-18 2024-04-12 北京字节跳动网络技术有限公司 子图片与环路滤波之间的相互影响
CN115176467A (zh) * 2020-02-14 2022-10-11 抖音视界有限公司 视频比特流中的通用约束标志的使用
CN115349254A (zh) * 2020-03-23 2022-11-15 抖音视界有限公司 控制编解码视频中不同级别的去块滤波
CN113840148A (zh) * 2020-06-24 2021-12-24 Oppo广东移动通信有限公司 帧间预测方法、编码器、解码器以及计算机存储介质
CN111698517B (zh) * 2020-06-29 2022-07-12 Oppo广东移动通信有限公司 运动矢量的确定方法、装置、电子设备和可读存储介质

Family Cites Families (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2003174C1 (ru) 1990-01-22 1993-11-15 Санкт-Петербургский государственный электротехнический университет им.В.И.Уль нова (Ленина) Способ распознавани изображений
US5508744A (en) * 1993-03-12 1996-04-16 Thomson Consumer Electronics, Inc. Video signal compression with removal of non-correlated motion vectors
JP3640318B2 (ja) 1995-09-01 2005-04-20 インターナショナル・ビジネス・マシーンズ・コーポレーション ディジタル画像の符号化方法及びシステム
RU2182727C2 (ru) * 2000-07-20 2002-05-20 Дворкович Александр Викторович Способ поиска векторов движения деталей в динамических изображениях
WO2002009419A2 (en) 2000-07-20 2002-01-31 Giant Leap Ahead Limited Method and apparatus for determining motion vectors in dynamic images
US20030099294A1 (en) * 2001-11-27 2003-05-29 Limin Wang Picture level adaptive frame/field coding for digital video content
KR100446083B1 (ko) * 2002-01-02 2004-08-30 삼성전자주식회사 움직임 추정 및 모드 결정 장치 및 방법
EP1514241A2 (en) * 2002-05-30 2005-03-16 Koninklijke Philips Electronics N.V. Unit for and method of estimating a motion vector
WO2004008775A1 (ja) * 2002-07-15 2004-01-22 Hitachi, Ltd. 動画像符号化方法及び復号化方法
KR100865034B1 (ko) 2002-07-18 2008-10-23 엘지전자 주식회사 모션 벡터 예측 방법
US7801217B2 (en) 2002-10-01 2010-09-21 Thomson Licensing Implicit weighting of reference pictures in a video encoder
AU2003273307A1 (en) 2002-10-01 2004-04-23 Thomson Licensing S.A. Implicit weighting of reference pictures in a video encoder
US7408986B2 (en) 2003-06-13 2008-08-05 Microsoft Corporation Increasing motion smoothness using frame interpolation with motion analysis
US20040258154A1 (en) * 2003-06-19 2004-12-23 Microsoft Corporation System and method for multi-stage predictive motion estimation
US7609763B2 (en) 2003-07-18 2009-10-27 Microsoft Corporation Advanced bi-directional predictive coding of video frames
CN1839632A (zh) 2003-08-22 2006-09-27 皇家飞利浦电子股份有限公司 用于速率-失真-复杂度优化的视频编码的运动矢量联合时空指向尺度预测和编码
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
AU2003282462A1 (en) 2003-10-09 2005-05-26 Thomson Licensing Direct mode derivation process for error concealment
KR100596706B1 (ko) 2003-12-01 2006-07-04 삼성전자주식회사 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치
KR100597402B1 (ko) 2003-12-01 2006-07-06 삼성전자주식회사 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치
MXPA06006107A (es) * 2003-12-01 2006-08-11 Samsung Electronics Co Ltd Metodo y aparato de codificacion y decodificacion escalables de video.
JP3879741B2 (ja) 2004-02-25 2007-02-14 ソニー株式会社 画像情報符号化装置および画像情報符号化方法
KR100694059B1 (ko) 2004-09-30 2007-03-12 삼성전자주식회사 멀티 타임 스캔 방식에 기초한 인터 모드 인코딩 및디코딩 방법 및 장치
KR100888962B1 (ko) * 2004-12-06 2009-03-17 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
KR100703770B1 (ko) 2005-03-25 2007-04-06 삼성전자주식회사 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치
JP2008538433A (ja) * 2005-04-12 2008-10-23 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 領域ベース複数パス動き推定及び時間的動きベクトル候補の更新を用いたビデオ処理
KR100896279B1 (ko) * 2005-04-15 2009-05-07 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
JP2006303734A (ja) 2005-04-18 2006-11-02 Victor Co Of Japan Ltd 動画像符号化装置及びそのプログラム
KR20060123939A (ko) 2005-05-30 2006-12-05 삼성전자주식회사 영상의 복부호화 방법 및 장치
US8761258B2 (en) 2005-06-17 2014-06-24 The Hong Kong University Of Science And Technology Enhanced block-based motion estimation algorithms for video compression
WO2007005750A2 (en) 2005-07-01 2007-01-11 Sonic Solutions Method, apparatus and system for use in multimedia signal encoding
KR20070038396A (ko) 2005-10-05 2007-04-10 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
KR100728031B1 (ko) * 2006-01-23 2007-06-14 삼성전자주식회사 가변 블록 크기 움직임 예측을 위한 부호화 모드 결정 방법및 장치
KR100959536B1 (ko) 2006-03-30 2010-05-27 엘지전자 주식회사 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치
US20100091845A1 (en) 2006-03-30 2010-04-15 Byeong Moon Jeon Method and apparatus for decoding/encoding a video signal
CN101455082B (zh) 2006-03-30 2013-02-13 Lg电子株式会社 用于解码/编码视频信号的方法和装置
CN101090491B (zh) * 2006-06-16 2016-05-18 香港科技大学 用于视频压缩的增强的基于块的运动估计算法
US8325814B2 (en) 2006-06-19 2012-12-04 Lg Electronics Inc. Method and apparatus for processing a video signal
CN101102503A (zh) 2006-07-07 2008-01-09 华为技术有限公司 视频分层编码层间运动矢量的预测方法
US8532178B2 (en) 2006-08-25 2013-09-10 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US20080101474A1 (en) * 2006-11-01 2008-05-01 Yi-Jen Chiu Optimizing the storage and reducing the computation of reference picture list processing in video decoding
CN101222638B (zh) * 2007-01-08 2011-12-07 华为技术有限公司 多视视频编解码方法及装置
CN101669367A (zh) 2007-03-02 2010-03-10 Lg电子株式会社 用于解码/编码视频信号的方法及设备
EP2149262A4 (en) 2007-04-25 2010-09-01 Lg Electronics Inc METHOD AND DEVICE FOR DECODING / CODING A VIDEO SIGNAL
CN101119493B (zh) 2007-08-30 2010-12-01 威盛电子股份有限公司 区块式数字编码图像的译码方法及装置
JP2011501497A (ja) 2007-10-15 2011-01-06 ノキア コーポレイション マルチビュー映像コンテンツのための動きスキップおよびシングルループ符号化
US8462853B2 (en) 2007-10-16 2013-06-11 Lg Electronics Inc. Method and an apparatus for processing a video signal
US8908765B2 (en) 2007-11-15 2014-12-09 General Instrument Corporation Method and apparatus for performing motion estimation
US9641861B2 (en) * 2008-01-25 2017-05-02 Mediatek Inc. Method and integrated circuit for video processing
CN101540902B (zh) * 2008-03-20 2011-02-02 华为技术有限公司 运动矢量的缩放方法和装置、编解码方法和系统
JP5681861B2 (ja) * 2008-03-31 2015-03-11 メディメトリクス ペルソナリズド ドルグ デリヴェリー ベー ヴェ センサを有する嚥下型カプセルを作成する方法
JP2010011075A (ja) * 2008-06-26 2010-01-14 Toshiba Corp 動画像符号化及び動画像復号化の方法及び装置
JP2010016454A (ja) * 2008-07-01 2010-01-21 Sony Corp 画像符号化装置および方法、画像復号装置および方法、並びにプログラム
TWI374672B (en) 2008-07-04 2012-10-11 Univ Nat Taiwan Seamless wireless video transmission for multimedia applications
CA2730383A1 (en) 2008-07-10 2010-01-14 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, and image decoding method
WO2010041856A2 (en) * 2008-10-06 2010-04-15 Lg Electronics Inc. A method and an apparatus for processing a video signal
CN101540926B (zh) 2009-04-15 2010-10-27 南京大学 基于h.264的立体视频编解码方法
CN102883160B (zh) 2009-06-26 2016-06-29 华为技术有限公司 视频图像运动信息获取方法、装置及设备、模板构造方法
KR101456498B1 (ko) 2009-08-14 2014-10-31 삼성전자주식회사 계층적 부호화 단위의 스캔 순서를 고려한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
US20130005493A1 (en) 2009-08-20 2013-01-03 Nak Sung Kim Swing ride tilting swing chair back and forth
JP2011097572A (ja) * 2009-09-29 2011-05-12 Canon Inc 動画像符号化装置
WO2011070730A1 (ja) 2009-12-07 2011-06-16 日本電気株式会社 映像符号化装置および映像復号装置
KR20110068792A (ko) * 2009-12-16 2011-06-22 한국전자통신연구원 적응적 영상 부호화 장치 및 방법
CN101860754B (zh) * 2009-12-16 2013-11-13 香港应用科技研究院有限公司 运动矢量编码和解码的方法和装置
JP2011151775A (ja) * 2009-12-22 2011-08-04 Jvc Kenwood Holdings Inc 画像復号装置、画像復号方法および画像復号プログラム
KR101522850B1 (ko) 2010-01-14 2015-05-26 삼성전자주식회사 움직임 벡터를 부호화, 복호화하는 방법 및 장치
US9036692B2 (en) 2010-01-18 2015-05-19 Mediatek Inc. Motion prediction method
CN102131094A (zh) * 2010-01-18 2011-07-20 联发科技股份有限公司 运动预测方法
KR20120086232A (ko) 2011-01-25 2012-08-02 (주)휴맥스 율-왜곡 최적화를 위한 영상 부호화/복호화 방법 및 이를 수행하는 장치
KR101495724B1 (ko) 2010-02-02 2015-02-25 삼성전자주식회사 계층적 데이터 단위의 스캔 순서에 기반한 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
US20120300850A1 (en) 2010-02-02 2012-11-29 Alex Chungku Yie Image encoding/decoding apparatus and method
KR20110090781A (ko) 2010-02-02 2011-08-10 (주)휴맥스 율-왜곡 최적화를 위한 영상 부호화/복호화 방법 및 이를 수행하는 장치
SG10201503179VA (en) * 2010-04-23 2015-06-29 M&K Holdings Inc Image encoding apparatus
KR101789635B1 (ko) * 2010-05-04 2017-10-25 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
US9124898B2 (en) 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
CN103081470B (zh) * 2010-09-02 2016-08-03 Lg电子株式会社 编码和解码视频的方法和使用该方法的装置
KR101033243B1 (ko) * 2010-11-17 2011-05-06 엘아이지넥스원 주식회사 객체 추적 방법 및 장치
US8824558B2 (en) 2010-11-23 2014-09-02 Mediatek Inc. Method and apparatus of spatial motion vector prediction
US9137544B2 (en) 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
US8711940B2 (en) * 2010-11-29 2014-04-29 Mediatek Inc. Method and apparatus of motion vector prediction with extended motion vector predictor
US10142630B2 (en) * 2010-12-10 2018-11-27 Texas Instruments Incorporated Mode adaptive intra prediction smoothing in video coding
US10397599B2 (en) 2010-12-17 2019-08-27 Electronics And Telecommunications Research Institute Method and apparatus for inter prediction using motion vector candidate based on temporal motion prediction
WO2012081949A2 (ko) 2010-12-17 2012-06-21 한국전자통신연구원 인터 예측 방법 및 그 장치
WO2012102021A1 (ja) 2011-01-25 2012-08-02 パナソニック株式会社 動画像符号化方法および動画像復号化方法
US9319716B2 (en) 2011-01-27 2016-04-19 Qualcomm Incorporated Performing motion vector prediction for video coding
PL2698999T3 (pl) 2011-04-12 2017-10-31 Sun Patent Trust Sposób kodowania ruchomych obrazów, urządzenie do kodowania ruchomych obrazów, sposób dekodowania ruchomych obrazów, urządzenie do dekodowania ruchomych obrazów, oraz urządzenie do kodowania/dekodowania ruchomych obrazów
US9247266B2 (en) * 2011-04-18 2016-01-26 Texas Instruments Incorporated Temporal motion data candidate derivation in video coding
EP3179723B1 (en) 2011-09-09 2023-01-25 KT Corporation Method for deriving a temporal predictive motion vector, and apparatus using the method
EP3471420B1 (en) 2011-11-18 2020-05-13 Google Technology Holdings LLC An explicit way for signaling a collocated picture for high efficiency video coding (hevc)
US9392235B2 (en) * 2011-11-18 2016-07-12 Google Technology Holdings LLC Explicit way for signaling a collocated reference picture for video coding
US9467694B2 (en) 2011-11-21 2016-10-11 Google Technology Holdings LLC Implicit determination and combined implicit and explicit determination of collocated picture for temporal prediction
US9525861B2 (en) 2012-03-14 2016-12-20 Qualcomm Incorporated Disparity vector prediction in video coding
US9445076B2 (en) 2012-03-14 2016-09-13 Qualcomm Incorporated Disparity vector construction method for 3D-HEVC
US10200709B2 (en) * 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
US9503720B2 (en) 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
KR102099485B1 (ko) 2012-04-11 2020-04-09 구글 테크놀로지 홀딩스 엘엘씨 시간적 예측을 위한 시간적 모션 벡터 예측기(mvp) 플래그의 시그널링
WO2013154674A1 (en) 2012-04-11 2013-10-17 Motorola Mobility Llc Evaluation of signaling of collocated reference picture for temporal prediction
US9325990B2 (en) 2012-07-09 2016-04-26 Qualcomm Incorporated Temporal motion vector prediction in video coding extensions

Also Published As

Publication number Publication date
JP6619045B2 (ja) 2019-12-11
EP3179723A1 (en) 2017-06-14
JP2014520477A (ja) 2014-08-21
JP2015167373A (ja) 2015-09-24
CN107580221B (zh) 2020-12-08
RU2016133579A3 (pl) 2020-01-30
CA2829114C (en) 2016-11-22
ES2487993B1 (es) 2015-09-29
CN107592528A (zh) 2018-01-16
CN103430550B (zh) 2017-10-13
GB2562635B (en) 2019-04-03
CN106170088B (zh) 2019-02-19
RU2716229C2 (ru) 2020-03-06
JP2016007039A (ja) 2016-01-14
GB201321881D0 (en) 2014-01-22
AU2012305071B2 (en) 2014-12-11
SE1651148A1 (sv) 2016-08-25
GB201809871D0 (en) 2018-08-01
RU2646384C1 (ru) 2018-03-02
GB2562129B (en) 2019-04-03
GB2559445A8 (en) 2018-10-03
CN107580219B (zh) 2020-12-08
CN107483926B (zh) 2020-06-05
SE1651149A1 (sv) 2016-08-25
CN107592527A (zh) 2018-01-16
GB201716265D0 (en) 2017-11-22
CN107580219A (zh) 2018-01-12
CN107580218A (zh) 2018-01-12
RU2716563C2 (ru) 2020-03-12
RU2016133580A3 (pl) 2020-01-30
US10523967B2 (en) 2019-12-31
CN107580221A (zh) 2018-01-12
CA2829114A1 (en) 2013-03-14
BR112013022641A2 (pl) 2017-09-21
GB2562129A (en) 2018-11-07
BR112013022641A8 (pt) 2017-09-12
CN107580220B (zh) 2020-06-19
GB2559227B (en) 2018-11-28
GB2559226A (en) 2018-08-01
RU2635235C1 (ru) 2017-11-09
CN107404651B (zh) 2020-03-06
SE1551592A1 (sv) 2015-12-03
AU2012305071A1 (en) 2013-10-03
MX351041B (es) 2017-09-29
GB201716275D0 (en) 2017-11-22
PL407911A1 (pl) 2015-05-25
MX351052B (es) 2017-09-29
US20130343461A1 (en) 2013-12-26
CN107396099B (zh) 2020-03-06
CN107396099A (zh) 2017-11-24
RU2013140661A (ru) 2015-10-20
RU2016133570A (ru) 2018-12-10
CN107580220A (zh) 2018-01-12
EP2672710B1 (en) 2022-10-26
CN107396098B (zh) 2020-03-06
CN103430550A (zh) 2013-12-04
US10805639B2 (en) 2020-10-13
GB201716271D0 (en) 2017-11-22
JP5993484B2 (ja) 2016-09-14
CN107592529B (zh) 2020-05-12
GB2562635A (en) 2018-11-21
ES2487993A2 (es) 2014-08-25
CN106170088A (zh) 2016-11-30
RU2636117C1 (ru) 2017-11-20
GB2559227A (en) 2018-08-01
CN107592527B (zh) 2020-05-12
JP5745693B2 (ja) 2015-07-08
AU2012305071A8 (en) 2013-10-31
WO2013036041A2 (ko) 2013-03-14
GB2562130B (en) 2019-04-03
CN104349164B (zh) 2018-02-02
JP2015167372A (ja) 2015-09-24
JP6062508B2 (ja) 2017-01-18
JP2016007040A (ja) 2016-01-14
CN107396098A (zh) 2017-11-24
CN107483927A (zh) 2017-12-15
SE538057C2 (sv) 2016-02-23
RU2636118C1 (ru) 2017-11-20
SE538787C2 (sv) 2016-11-22
EP2672710A2 (en) 2013-12-11
US20210044832A1 (en) 2021-02-11
GB2508739B (en) 2018-12-05
RU2716230C2 (ru) 2020-03-06
CN107483925B (zh) 2020-06-19
GB2562130A (en) 2018-11-07
GB201716270D0 (en) 2017-11-22
JP6322693B2 (ja) 2018-05-09
EP3179723B1 (en) 2023-01-25
CN107483928A (zh) 2017-12-15
CN107592529A (zh) 2018-01-16
RU2600547C2 (ru) 2016-10-20
US11089333B2 (en) 2021-08-10
ES2487993R1 (es) 2015-01-27
CN107483929A (zh) 2017-12-15
GB2559445A (en) 2018-08-08
MX338137B (es) 2016-04-05
SE1351475A1 (sv) 2014-06-09
GB201716273D0 (en) 2017-11-22
MX2013010155A (es) 2013-12-02
RU2716231C2 (ru) 2020-03-06
CN107635140A (zh) 2018-01-26
RU2016133579A (ru) 2018-12-10
GB2559445B (en) 2018-11-28
CN107580218B (zh) 2020-05-12
US20200084475A1 (en) 2020-03-12
CN107483928B (zh) 2020-05-12
SE1651147A1 (sv) 2016-08-25
RU2016133566A (ru) 2018-12-10
JP2017098967A (ja) 2017-06-01
CN107635140B (zh) 2020-12-08
CA2937483C (en) 2017-09-05
RU2016133570A3 (pl) 2020-01-30
CN107404651A (zh) 2017-11-28
CN107483925A (zh) 2017-12-15
CN107483926A (zh) 2017-12-15
CN107483929B (zh) 2020-05-12
WO2013036041A3 (ko) 2013-05-02
CN107592528B (zh) 2020-05-12
CA2937483A1 (en) 2013-03-14
JP6062507B2 (ja) 2017-01-18
JP6062480B2 (ja) 2017-01-18
US20150208093A1 (en) 2015-07-23
GB2508739A (en) 2014-06-11
CN104349164A (zh) 2015-02-11
RU2016133580A (ru) 2018-12-10
BR112013022641B1 (pt) 2022-07-12
GB2559226B (en) 2018-11-28
RU2016133566A3 (pl) 2020-01-30
RU2622849C1 (ru) 2017-06-20
EP2672710A4 (en) 2016-08-03
CN107483927B (zh) 2020-06-05
JP2018139422A (ja) 2018-09-06

Similar Documents

Publication Publication Date Title
PL231159B1 (pl) Sposób uzyskiwania czasowego predykcyjnego wektora ruchu i urządzenie do stosowania tego sposobu
CN109644271B (zh) 用于二叉树分割块的确定候选集的方法及装置
CN110710210B (zh) 视频信号处理方法及装置
CN116866567A (zh) 用于处理视频信号的方法和装置
KR102551609B1 (ko) 비디오 신호 처리 방법 및 장치
KR102551311B1 (ko) 비디오 신호 부호화/복호화 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체
US20220070452A1 (en) Image encoding/decoding method and device
AU2015200360B2 (en) Method for deriving a temporal predictive motion vector, and apparatus using the method
AU2016216719B2 (en) Method for deriving a temporal predictive motion vector, and apparatus using the method
KR101204026B1 (ko) 시간적 예측 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치