PL231159B1 - Sposób uzyskiwania czasowego predykcyjnego wektora ruchu i urządzenie do stosowania tego sposobu - Google Patents

Sposób uzyskiwania czasowego predykcyjnego wektora ruchu i urządzenie do stosowania tego sposobu

Info

Publication number
PL231159B1
PL231159B1 PL407911A PL40791112A PL231159B1 PL 231159 B1 PL231159 B1 PL 231159B1 PL 407911 A PL407911 A PL 407911A PL 40791112 A PL40791112 A PL 40791112A PL 231159 B1 PL231159 B1 PL 231159B1
Authority
PL
Poland
Prior art keywords
block
collocated
prediction
lcu
boundary
Prior art date
Application number
PL407911A
Other languages
English (en)
Other versions
PL407911A1 (pl
Inventor
Bae Keun Lee
Jae Cheol Kwon
Joo Young Kim
Original Assignee
Kt Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020120039501A external-priority patent/KR101204026B1/ko
Application filed by Kt Corp filed Critical Kt Corp
Publication of PL407911A1 publication Critical patent/PL407911A1/pl
Publication of PL231159B1 publication Critical patent/PL231159B1/pl

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/40Tree coding, e.g. quadtree, octree

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

Opis wynalazku
Dziedzina techniki
Wynalazek dotyczy sposobu kodowania i dekodowania wideo, a zwłaszcza wynalazek odnosi się do sposobu uzyskiwania czasowego wektora predykcji ruchu i urządzenia do stosowania tego sposobu. Tło wynalazku
W ostatnich latach w różnych obszarach zwiększyło się zapotrzebowanie na wideo o wysokiej jakości i wysokiej rozdzielczości, takie jak wideo HD (ang. High Definition) i wideo UHD (ang. Ultra High Definition). Ponieważ dane wideo zaczynają występować w wysokiej rozdzielczości i/lub wysokiej jakości, ilość danych wideo stosunkowo zwiększa się w porównaniu z istniejącymi danym wideo, i dlatego też gdy dane wideo są transmitowane za pośrednictwem konwencjonalnej przewodowej/bezprzewodowej sieci szerokopasmowej lub przechowywane są w istniejącym nośniku pamięci, zwiększają się koszty transmisji i przechowywania. Aby rozwiązać takie problemy, które występują, gdy dane wideo przechodzą do wysokiej rozdzielczości i wysokiej jakości, można wykorzystać technologie o wysokiej efektywności kompresji wideo.
Do kompresji wideo wprowadzono pewną liczbę schematów, takich jak schemat inter-predykcji, który przewiduje wartości pikseli zawarte w aktualnym obrazie z obrazu przed lub po aktualnym obrazie, schemat inter-predykcji, który przewiduje wartości pikseli zawarte w aktualnym obrazie, wykorzystując informacje o pikselach w aktualnym obrazie, i schemat kodowania entropijnego, który przypisuje krótsze słowo kodowe do wartości, która pojawia się częściej, przypisując przy tym dłuższe słowo kodowe do wartości, która pojawia się rzadziej. Takie schematy kompresji wideo można zastosować do efektywnego kompresowania, transmitowania lub przechowywania danych wideo.
Streszczenie wynalazku
Problem techniczny
Przedmiotem wynalazku jest zapewnienie sposobu uzyskiwania czasowego wektora predykcji ruchu dla bloku przylegającego do granicy jednostki LCU.
Kolejnym przedmiotem wynalazku jest zapewnienie urządzenia do wykonywania sposobu uzyskiwania czasowego wektora predykcji ruchu dla bloku przylegającego do granicy jednostki LCU.
Rozwiązanie techniczne
Aby osiągnąć pierwszy przedmiot wynalazku, według pewnego aspektu wynalazku, sposób uzyskiwania kandydującego wektora predykcji ruchu obejmuje: określanie, przez moduł inter-predykcji, wskaźnika obrazu odniesienia wskazującego obraz odniesienia zawierający kolokowany blok docelowego bloku predykcji; i określanie, przez moduł inter-predykcji, wektora predykcji ruchu kolokowanego bloku, przy czym kolokowany blok jest adaptacyjnie określony za pomocą lokalizacji docelowego bloku predykcji w największej jednostce kodującej (LCU, ang. Largest Coding Unit). Kolokowany blok może być określany na podstawie tego, czy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU. Kolokowany blok może być określany na podstawie tego, czy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU lub czy prawa granica docelowego bloku predykcji przylega do granicy jednostki LCU. Kolokowany blok może być określany za pomocą położeń odniesienia pikseli w jednostce LCU. Jeden spośród pierwszego kolokowanego bloku i piątego kolokowanego bloku może być określany selektywnie jako kolokowany blok według tego, czy lewa granica lub dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU, i przy czym jeżeli lokalizacją górnego lewego piksela docelowego bloku predykcji jest (xP, yP), szerokością docelowego bloku predykcji jest nPSW, a wysokością docelowego bloku predykcji jest nPSH, pierwszy kolokowany blok zawiera piksel w (xP+nPSW, yP+nPSH) w kolokowanym obrazie, a piąty kolokowany blok zawiera piksel w (xP+(nPSW>>1), yP+(nPSH>>1)) w kolokowanym obrazie.
Aby osiągnąć drugi przedmiot wynalazku, według pewnego aspektu wynalazku, sposób uzyskiwania kandydującego wektora predykcji ruchu obejmuje określanie, przez moduł inter-predykcji, czy granica docelowego bloku predykcji przylega do granicy największej jednostki kodującej LCU; i określanie, przez moduł inter-predykcji, dostępności pierwszego kolokowanego bloku według określenia, czy granica docelowego bloku predykcji przylega do granicy jednostki LCU. Sposób uzyskiwania kandydującego wektora predykcji ruchu może ponadto obejmować etap określania innego kolokowanego bloku, z wyjątkiem pierwszego kolokowanego bloku, jako kolokowany blok do uzyskiwania kandydującego wektora predykcji ruchu, jeżeli określa się, że pierwszy kolokowany blok nie jest dostępny. Etap określania innego kolokowanego bloku z wyjątkiem pierwszego kolokowanego bloku jako kolokowany blok
PL 231 159 B1 do uzyskiwania kandydującego wektora predykcji ruchu, jeżeli pierwszy kolokowany blok nie jest dostępny, stanowi etap określania różnych kolokowanych bloków do uzyskiwania kandydującego wektora predykcji ruchu w przypadku, gdy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU lub gdy prawa granica docelowego bloku predykcji przylega do granicy jednostki LCU. Etap określania dostępności pierwszego kolokowanego bloku według określenia, czy granica kolokowanego docelowego bloku predykcji przylega do granicy jednostki LCU, stanowi etap określania pierwszego kolokowanego bloku jako niedostępny, jeżeli dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU. Ponadto objęty może być etap określania jednego spośród pierwszego kolokowanego bloku i piątego kolokowanego bloku jako bloku do uzyskiwania kandydującego wektora predykcji ruchu, w oparciu o dostępność pierwszego kolokowanego bloku, i przy czym jeżeli lokalizacja górnego lewego piksela docelowego bloku predykcji jest (xP, yP), szerokością docelowego bloku predykcji jest nPSW, a wysokością docelowego bloku predykcji jest nPSH, pierwszy kolokowany blok zawiera piksel w (xP+nPSW, yP+nPSH) w kolokowanym obrazie, a piąty kolokowany blok zawiera piksel w (xP+(nPSW>>1), yP+(nPSH>>1)) w kolokowanym obrazie.
Aby osiągnąć trzeci przedmiot wynalazku, według pewnego aspektu wynalazku, urządzenie do dekodowania wideo zawiera:
jednostkę do dekodowania entropijnego, skonfigurowaną do dekodowania informacji o rozmiarze największej jednostki kodującej LCU; i jednostkę inter-predykcji, skonfigurowaną do:
określania wskaźnika obrazu odniesienia wskazującego obraz odniesienia zawierający kolokowany blok docelowego bloku predykcji, określania wektora predykcji ruchu kolokowanego bloku, określania kolokowanego bloku docelowego bloku predykcji w oparciu o informacje o rozmiarze LCU dekodowane przez jednostkę do dekodowania entropijnego, przy czym kolokowany blok jest adaptacyjnie określony przez lokalizację docelowego bloku predykcji w jednostce LCU.
Kolokowany blok może być określany w oparciu o to, czy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU. Kolokowany blok może być określany w oparciu o to, czy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU lub czy prawa granica docelowego bloku predykcji przylega do granicy jednostki LCU. Kolokowany blok może być określany za pomocą położeń odniesienia pikseli w jednostce LCU. Jeden spośród pierwszego kolokowanego bloku i piątego kolokowanego bloku może być określany selektywnie jako kolokowany blok według tego czy lewa granica lub dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU, i przy czym jeżeli lokalizacją górnego lewego piksela docelowego bloku predykcji jest (xP, yP), szerokością docelowego bloku predykcji jest nPSW, a wysokością docelowego bloku predykcji jest nPSH, pierwszy kolokowany blok zawiera piksel (xP+nPSW, yP+nPSH) w kolokowanym obrazie, a piąty kolokowany blok zawiera piksel (xP+(nPSW>>1), yP+(nPSH>>1)) w kolokowanym obrazie.
Aby osiągnąć czwarty przedmiot wynalazku, według pewnego aspektu wynalazku, urządzenie do dekodowania wideo zawiera:
jednostkę do dekodowania entropijnego, skonfigurowaną do dekodowania informacji o rozmiarze największej jednostki kodującej LCU; jednostkę inter-predykcji skonfigurowaną do:
określania, w oparciu o informacje o rozmiarze LCU dekodowane przez jednostkę do dekodowania entropijnego, czy granica docelowego bloku predykcji przylega do granicy jednostki LCU, określania dostępności pierwszego kolokowanego bloku według określenia, czy granica docelowego bloku predykcji przylega do granicy jednostki LCU.
Jednostka predykcji może określać inny kolokowany blok z wyjątkiem pierwszego kolokowanego bloku jako kolokowany blok do uzyskiwania kandydującego wektora predykcji ruchu, jeżeli jest określone, że pierwszy kolokowany blok nie jest dostępny. Jednostka predykcji może określać różne kolokowane bloki do uzyskiwania kandydującego wektora predykcji ruchu w przypadku, gdy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU lub gdy prawa granica docelowego bloku predykcji przylega do granicy jednostki LCU. Jednostka predykcji może określać pierwszy kolokowany blok jako niedostępny, jeżeli dolna granica docelowego bloku predykcji przylega do granicy jednostki
PL 231 159 B1
LCU. Jednostka predykcji może określać jeden spośród pierwszego kolokowanego bloku i piątego kolokowanego bloku jako blok do uzyskiwania czasowego wektora predykcji ruchu, w oparciu o dostępność pierwszego kolokowanego bloku, i przy czym jeżeli lokalizacją górnego lewego piksela docelowego bloku predykcji jest (xP, yP), szerokością docelowego bloku predykcji jest nPSW, a wysokością docelowego bloku predykcji jest nPSH, pierwszy kolokowany blok zawiera piksel w (xP+nPSW, yP+nPSH) w kolokowanym obrazie, a piąty kolokowany blok zawiera piksel (xP+(nPSW>>1), yP+(nPSH>>1) w kolokowanym obrazie.
Korzystne działanie
Jak opisano powyżej, sposób uzyskiwania czasowego wektora predykcji ruchu i urządzenie do stosowania sposobu według przykładu wykonania wynalazku mogą różnie stosować kolokowany obraz, z którego uzyskiwany jest czasowy wektor ruchu zależnie od tego, czy docelowy blok predykcji przylega do jednostki LCU. Stosują ten sposób, przepustowość pamięci niepotrzebnie stosowana do uzyskiwania czasowego wektora ruchu może zostać zredukowana oraz zminimalizować można złożoność realizacji. Opis rysunków
Fig. 1 jest schematem blokowym przedstawiającym urządzenie do kodowania wideo według przykładu wykonania wynalazku.
Fig. 2 jest schematem blokowym przedstawiającym dekoder wideo według kolejnego przykładu wykonania wynalazku.
Fig. 3 jest widokiem koncepcyjnym przedstawiającym sposób uzyskiwania czasowego wektora predykcji ruchu według przykładu wykonania wynalazku.
Fig. 4 jest schematem działań sposobu uzyskiwania czasowego wektora predykcji ruchu według przykładu wykonania wynalazku.
Fig. 5 jest widokiem koncepcyjnym przedstawiającym położenie kolokowanego bloku do uzyskiwania czasowego wektora ruchu według przykładu wykonania wynalazku.
Fig. 6 jest widokiem koncepcyjnym przedstawiającym sposób określania kolokowanego bloku do uzyskiwania wektora predykcji ruchu według przykładu wykonania wynalazku.
Fig. 7 jest widokiem koncepcyjnym przedstawiającym przypadek, w którym docelowy blok predykcji przylega do dolnej granicy jednostki LCU według przykładu wykonania wynalazku.
Fig. 8 jest schematem działań przedstawiającym sposób inter-predykcji stosujący tryb scalania według przykładu wykonania wynalazku.
Fig. 9 jest widokiem koncepcyjnym przedstawiającym lokalizacje kandydatów przestrzennego scalania według przykładu wykonania wynalazku.
Fig. 10 jest schematem działań przedstawiającym sposób inter-predykcji stosujący AMVP według przykładu wykonania wynalazku.
Tryb wynalazku
Można dokonać różnych modyfikacji wynalazku, a wynalazek może mieć pewną liczbę przykładów wykonania. Konkretne przykłady wykonania opisane są szczegółowo w odniesieniu do figur. Jednak wynalazek nie ogranicza się do konkretnych przykładów wykonania i należy rozumieć, że wynalazek obejmuje wszelkie modyfikacje, odpowiedniki lub zamienniki, które zawarte są w duchu i zakresie technicznym wynalazku. Podobne znaki odniesienia mogą być stosowane między podobnymi modułami, gdy objaśniane są figury.
Określenia „pierwszy” i „drugi” mogą być stosowane do opisania różnych elementów komponentów (lub elementów). Jednak komponenty nie ograniczają się do nich. Określenia te stosuje się jedynie, aby odróżnić jeden komponent od drugiego. Na przykład pierwszy komponent może być również nazwany drugim komponentem, a drugi komponent może być w podobny sposób nazwany pierwszym komponentem. Określenie „i/lub” obejmuje kombinację licznych powiązanych elementów, jakie opisano, lub jeden z licznych powiązanych elementów.
Gdy komponent (lub element) jest „połączony” lub „sprzężony” z innym komponentem, komponent może być bezpośrednio połączony lub sprzężony z drugim komponentem. Natomiast gdy komponent jest „bezpośrednio połączony lub sprzężony” z innym komponentem, żadne inne komponenty nie pośredniczą.
Określenia tutaj stosowane podane są dla opisania przykładów wykonania, ale nie mają ograniczać wynalazku. Określenie w liczbie pojedynczej obejmuje określenie w liczbie mnogiej, chyba że w kontekście wyraźnie zaznaczono inaczej. W stosowanym tu znaczeniu określenia „zawierać”, „obejPL 231 159 B1 mować” lub „mieć” etc. stosuje się, aby wskazać, że istnieję elementy, liczby, etapy, operacje, komponenty, części lub ich kombinacje, jak tutaj opisano, ale nie wykluczają one obecności lub możliwości dodania jednej lub większej liczby elementów, liczb, etapów, operacji, komponentów, części lub ich kombinacji.
W dalszej części korzystne przykłady wykonania wynalazku zostaną opisane bardziej szczegółowo w odniesieniu do załączonych rysunków. Te same odnośniki numeryczne odnoszą się do tych samych komponentów na wszystkich rysunkach, a opis tych samych komponentów nie powtarza się.
Fig. 1 jest schematem blokowym przedstawiającym urządzenie do kodowania wideo według przykładu wykonania wynalazku.
W odniesieniu do fig. 1 urządzenie 100 do kodowania wideo może zawierać moduł 110 podziału obrazu, moduł inter-predykcji 120, moduł intra-predykcji 125, moduł transformacji 130, moduł kwantyzacji 135, moduł przegrupowania 160, moduł kodowania entropijnego 165, moduł dekwantyzacji 140, moduł transformacji odwrotnej 145, moduł filtracji 150 i pamięć 155.
Wszystkie moduły z fig. 1 przedstawione są niezależnie od siebie, aby reprezentować różne funkcje w urządzeniu do kodowania wideo, ale nie oznacza to, że każdy moduł powinien być realizowany w odrębnej jednostce (komponencie) modułu sprzętu lub oprogramowania. Oznacza to, że dla uproszczenia opisu moduły przedstawione są jako zapewnione niezależnie, a co najmniej dwa z modułów mogą być połączone dla utworzenia jednego modułu, lub jeden z modułów może być podzielony na liczne moduły realizujące funkcje. Przykłady wykonania kombinacji modułów lub przykłady wykonania rozdzielenia modułów również są zawarte w zakresie wynalazku, nie wykraczając poza istotę wynalazku.
Ponadto niektóre z modułów mogą nie być zasadniczymi modułami, które realizują zasadnicze funkcje wynalazku, ale mogą być raczej opcjonalnymi modułami poprawiającymi wydajność. Wynalazek może zawierać jedynie zasadnicze moduły konieczne do realizacji istoty wynalazku, wykluczając moduły stosowane jedynie do poprawy wydajności, i taka struktura również zawiera się w zakresie wynalazku.
Moduł 110 podziału obrazu może dzielić obraz wejściowy na co najmniej jedną jednostkę przetwarzającą. W tym czasie jednostką przetwarzającą może być jednostka predykcji (PU), jednostka transformacji (TU) lub jednostka kodująca (CU). Moduł 110 podziału obrazu może kodować obraz poprzez podzielenie obrazu na kombinację licznych jednostek kodujących, jednostek predykcji i jednostek transformacji, a kombinację jednej jednostki kodującej, jednostki predykcji i jednostki transformacji można dobrać według wcześniej określonego standardu (lub odniesienia), takiego jak funkcja kosztów i można ją zakodować.
Na przykład jeden obraz można podzielić na liczne jednostki kodujące. Rekursywną strukturę drzewa, taką jak drzewo czwórkowe, można zastosować do podziału obrazu na jednostki kodujące. W przypadku obrazu lub największej jednostki kodującej jako korzenia, jednostka kodująca może zostać podzielona na inne jednostki kodujące z tyloma węzłami podrzędnymi, ile jest podzielonych jednostek kodujących. Jednostka kodująca, która nie jest już dzielona ze względu na wcześniej określone ograniczenie ma być węzłem liścia. Przyjmując, że jedynie podział w kształcie kwadratu jest dostępny dla jednostki kodującej, oznacza to, że jednostka kodująca może zostać podzielona maksymalnie na cztery inne jednostki kodujące.
W dalszej części w przykładach wykonania wynalazku jednostka kodująca może oznaczać je dnostkę, w której wykonuje się dekodowanie, jak również kodowanie.
Jednostka predykcji może zostać podzielona na kształt co najmniej jednego kwadratu lub prostokąta o tym samym rozmiarze w jednostce kodującej.
Po wygenerowaniu jednostki predykcji, w której wykonuję się intra-predykcję w oparciu o jednostkę kodującą, jeżeli jednostka kodująca nie jest najmniejszą jednostką kodującą, intra-predykcję można wykonać bez podziału jednostki predykcji na liczne jednostki predykcji NxN.
Moduł predykcji może zawierać moduł inter-predykcji 120, który wykonuje inter-predykcję i moduł intra-predykcji 125, który wykonuje intra-predykcję. Można określić, czy wykonać inter-predykcję czy intra-predykcję względem jednostki predykcji i według każdego sposobu predykcji można określić konkretne informacje (np. tryb intra-predykcji, wektor ruchu, obraz odniesienia etc.). W tym czasie jednostka przetwarzająca, na której wykonuje się predykcję może różnić się od jednostki przetwarzającej, na której określa się sposób predykcji i jego szczegóły. Na przykład sposób predykcji i tryb predykcji można określić za pomocą jednostki predykcji a predykcję można wykonać w jednostce transformacji. Wartość rezydualną (blok rezydualny) między wygenerowanym blokiem predykcji a oryginalnym blokiem można
PL 231 159 B1 wprowadzić do modułu transformacji 130. Ponadto informacje o trybie predykcji i informacje o wektorze ruchu etc. stosowane do predykcji, wraz z wartością rezydualną można zakodować w module kodowania entropijnego 165, a następnie można transmitować do urządzenia do dekodowania, Jeżeli zastosuje się raczej konkretny tryb kodowania niż generowanie bloku predykcji za pomocą modułu predykcji 120 i 125, oryginalny blok, jako taki, może zostać zakodowany i transmitowany do urządzenia do dekodowania.
Moduł inter-predykcji może przewidzieć jednostkę predykcji w oparciu o informacje z co najmniej jednego obrazu spośród obrazów przed aktualnym obrazem lub obrazów po aktualnym obrazie. Moduł inter-predykcji może zawierać moduł interpolacji obrazu odniesienia, moduł predykcji ruchu i moduł kompensacji ruchu.
Moduł interpolacji obrazu odniesienia może odbierać informacje o obrazie odniesienia z pamięci 155 i może generować informacje o pikselach w jednostce mniejszej niż całkowita jednostka piksela w obrazie odniesienia. W przypadku pikseli typu luma filtr interpolacyjny z 8-krotnym próbkowaniem oparty na DCT z różnymi współczynnikami filtra i dla każdego próbkowania można zastosować do generowania informacji o pikselach w jednostce mniejszej niż całkowita jednostka piksela, jednostce 1/4 piksela. W przypadku sygnału typu chroma filtr interpolacyjny z 4-krotnym próbkowaniem oparty na DCT z różnymi współczynnikami filtra dla każdego próbkowania można zastosować do generowania informacji o pikselach w jednostce mniejszej niż całkowita jednostka piksela, jednostce 1/8 piksela.
Moduł predykcji ruchu może wykonać predykcję ruchu w oparciu o obraz odniesienia interpolowany przez moduł interpolacji obrazu odniesienia. Aby uzyskać wektor ruchu, można zastosować różne sposoby, takie jak FBMA (ang. Full search-based Block Matching Algorithm, algorytm dopasowujący bloki oparty na pełnym wyszukiwaniu), TSS (ang. Three Step Search, wyszukiwanie trójetapowe), NTS (ang. New Three-Step Search Algorithm, nowy algorytm wyszukiwania trójetapowego) etc. Wektor ruchu może mieć wartość wektora ruchu w jednostce 1/2 piksela lub w jednostce 1/4 piksela w oparciu o interpolowany piksel. Moduł predykcji ruchu może przewidywać aktualną jednostkę predykcji poprzez zastosowanie różnych sposobów predykcji ruchu. Co do sposobu predykcji ruchu można stosować różne sposoby, takie jak sposób pomijania, sposób scalania lub sposób AMVP (ang. Advanced Motion Vector Prediction, sposób zaawansowanej predykcji wektora ruchu).
Według przykładu wykonania wynalazku moduł inter-predykcji może określić, czy granica docelowego bloku predykcji przylega do granicy jednostki LCU (największej jednostki kodującej), i może określić, czy pierwszy kolokowany blok jest dostępny według określenia, czy granica docelowego bloku predykcji przylega do granicy jednostki LCU. Na przykład w przypadku, gdy pierwszy kolokowany blok nie jest dostępny, drugi kolokowany blok można określić jako kolokowany blok do uzyskiwania czasowego wektora predykcji ruchu. Alternatywnie w przypadku, gdy pierwszy kolokowany blok nie jest dostępny, położenie pierwszego kolokowanego bloku może zostać zmienione i pierwszy kolokowany blok o zmienionym położeniu można określić jako kolokowany blok do uzyskiwania czasowego wektora predykcji ruchu.
Ponadto moduł inter-predykcji może zawierać moduł predykcji, który określa wskaźnik obrazu odniesienia kolokowanego bloku docelowego bloku predykcji i określa predykcji wektor ruchu kolokowanego bloku. Kolokowany blok może zostać adaptacyjnie określony według lokalizacji docelowego bloku predykcji w jednostce LCU (największej jednostce kodującej). W dalszej części szczegółowo opisana zostanie operacja modułu predykcji według wynalazku.
Moduł inter-predykcji może wygenerować jednostkę predykcji w oparciu o informacje o pikselu odniesienia sąsiadującym z aktualnym blokiem, które są informacjami o pikselach w aktualnym obrazie. W przypadku, gdy blok sąsiadujący z aktualną jednostką predykcji jest blokiem, dla którego stosuje się inter-predykcję, a tym samym piksel odniesienia jest pikselem poprzez inter-predykcję, piksel odniesienia zawarty w bloku, dla którego zastosowano inter-predykcję można zamienić stosując informacje o pikselu odniesienia z bloku, dla którego zastosowano intra-predykcję. Oznacza to, że w przypadku, gdy piksel odniesienia nie jest dostępny, informacje o niedostępnym pikselu odniesienia mogą zostać wymienione z co najmniej jednym z dostępnych pikseli odniesienia.
Jeżeli chodzi o intra-predykcję, tryby predykcji mogą obejmować tryb predykcji kierunkowej, w którym informacje o pikselu odniesienia stosowane są według kierunku predykcji, i tryb bezkierunkowy, w którym po predykcji nie stosuje się żadnych informacji kierunkowych. Tryb do predykcji informacji typu luma może być inny od trybu do predykcji informacji typu chroma. Ponadto informacje o trybie intra-predykcji, w których informacje typu luma zostały przewidziane lub przewidziane informacje o sygnale typu luma można zastosować do przewidzenia informacji typu chroma.
PL 231 159 B1
Po wykonaniu intra-predykcji jeżeli rozmiar jednostki predykcji jest taki sam jak rozmiar jednostki transformacji, intra-predykcję wykonuje się w oparciu o piksele zlokalizowane po lewej stronie jednostki predykcji, piksel zlokalizowany w górnej lewej części jednostki predykcji i piksele zlokalizowane w górnej części na jednostce predykcji. Jednak po wykonaniu intra-predykcji, jeżeli rozmiar jednostki predykcji jest inny od rozmiaru jednostki transformacji, można wykonać intra-predykcję, stosując piksele odniesienia w oparciu o jednostkę transformacji. Ponadto jedynie w przypadku najmniejszej jednostki kodującej intra-predykcję można wykonać, stosując podział NxN.
W sposobie intra-predykcji blok predykcji można wygenerować po zastosowaniu filtra MDIS (ang. Mode Dependent Intra Smoothing, wygładzanie wewnątrzobrazowe zależne od trybu) na pikselach odniesienia według trybu predykcji. Na pikselach odniesienia można stosować różne rodzaje filtrów MDIS. Aby wykonać sposób intra-predykcji, tryb intra-predykcji aktualnej jednostki predykcji można przewidzieć na podstawie trybu intra-predykcji sąsiedniej jednostki predykcji do aktualnej jednostki predykcji. W przypadku, gdy tryb predykcji aktualnej jednostki predykcji przewiduje się przy pomocy informacji o trybie, przewidzianych z sąsiedniej jednostki predykcji, jeżeli tryb intra-predykcji aktualnej jednostki predykcji jest taki sam jak tryb intra-predykcji sąsiedniej jednostki predykcji, wcześniej określone informacje znacznikowe można zastosować do transmitowania informacji wskazujących, że aktualna jednostka predykcji jest identyczna w trybie predykcji z sąsiednią jednostką predykcji. Natomiast jeżeli tryb predykcji aktualnej jednostki predykcji jest inny od trybu predykcji sąsiedniej jednostki predykcji, można wykonać kodowanie entropijne, aby zakodować informacje o trybie predykcji aktualnego bloku.
Ponadto można uzyskać blok rezydualny, który zawiera informacje o wartości rezydualnej, która jest wartością różnicową między oryginalnym blokiem jednostki predykcji a jednostką predykcji, na której wykonuje się predykcję w oparciu o jednostkę predykcji wygenerowaną w module predykcji 120 i 125. Uzyskany blok rezydualny można wprowadzić do modułu transformacji 130. Moduł transformacji 130 może przekształcić blok rezydualny za pomocą sposobu transformacji, takiego jak DCT (ang. Discrete Cosine Transform, dyskretna transformacja cosinusowa) lub DST (ang. Discrete Sine Transform, dyskretna transformacja sinusowa). Blok rezydualny zawiera informacje rezydualne między jednostką predykcji wygenerowaną przez moduł predykcji 120 i 125 a oryginalnym blokiem. To, czy zastosować DCT czy DST do przekształcenia bloku rezydualnego można określić w oparciu o informacje o trybie intra predykcji jednostki predykcji stosowanej do generowania bloku rezydualnego.
Moduł kwantyzacji 135 może kwantyzować wartości przekształcone do dziedziny częstotliwości przez moduł transformacji 130. Parametr kwantyzacji może zmieniać się w zależności od bloku lub znaczenia obrazu. Wartość wytworzona w module kwantyzacji 135 może zostać dostarczona do modułu dekwantyzacji 140 i modułu przegrupowania 160.
Moduł przegrupowania 160 może wykonać ponowne rozmieszczanie współczynników dla skwantyzowanej wartości rezydualnej.
Moduł przegrupowania 160 może zmienić współczynniki w kształcie bloku dwuwymiarow ego (2D) na postać jednowymiarowego wektora za pomocą sposobu skanowania współczynników. Na przykład moduł przegrupowania 160 może zastosować sposób skanowania ukośnego do skanowania ze współczynników DC na współczynniki wysokiej częstotliwości, rozmieszczając tym samym współczynniki w kształcie bloku 2D do postaci jednowymiarowego wektora. W zależności od rozmiaru jednostki transformacji i trybu intra-predykcji, zamiast sposobu skanowania ukośnego, można zastosować sposób skanowania pionowego, w którym współczynniki w kształcie bloku 2D skanowane są w kierunku kolumn lub sposób skanowania poziomego, w którym współczynniki w kształcie bloku 2D skanowane są w kierunku rzędów. Innymi słowy, można zastosować jedno spośród skanowania ukośnego, skanowania pionowego i skanowania poziomego, w zależności od rozmiaru jednostki transformacji i trybu intra-predykcji.
Moduł kodowania entropijnego 165 może wykonać kodowanie entropijne w oparciu o wartości wytworzone za pomocą modułu przegrupowania 160. W przypadku kodowania entropijnego można zastosować różne sposoby kodowania, takie jak np. wykładniczy kod Golomba, CABAC (ang. ContextAdaptive Binary Arithmetic Coding, adaptacyjne binarne kodowanie arytmetyczne).
Moduł kodowania entropijnego 165 może kodować różne informacje, takie jak informacje o współczynniku rezydualnym i informacje o rodzaju bloku jednostki kodującej, informacje o trybie predykcji, informacje o jednostce podziału, informacje o jednostce predykcji i informacje o jednostce transmisyjnej, informacje o wektorze ruchu, informacje o ramce odniesienia, informacje o interpolacji dla bloku, informacje o filtrowaniu i informacje o rozmiarze jednostki LCU, które zapewnione są przez moduł przegrupowania 160 i moduł predykcji 120 i 125.
PL 231 159 B1
Moduł kodowania entropijnego 165 może wykonać kodowanie entropijne na wartościach współczynników jednostki kodującej jako wejście z modułu przegrupowania 160 przy pomocy sposobu kodowania entropijnego, takiego jak CABAC.
Moduł dekwantyzacji 140 może wykonać dekwantyzację na wartościach skwantyzowanych przez moduł kwantyzacji 135, a moduł transformacji odwrotnej 145 może wykonać odwrotne przekształcenie na wartościach przekształconych przez moduł transformacji 130. Wartości rezydualne wygenerowane przez moduł dekwantyzacji 140 i moduł transformacji odwrotnej 145 mogą zostać dodane przy pomocy jednostki predykcji przewidzianej poprzez moduł szacowania ruchu, moduł kompensacji ruchu i moduł intra-predykcji zawarte w module predykcji 120 i 125, generując tym samym przywrócony blok.
Moduł filtracji 150 może zawierać co najmniej jeden spośród filtra odblokowania, modułu korekcji przesunięcia (ang. offset correcting module) i filtra ALF (ang. Adaptive Loop Filter, adaptacyjny filtr pętli).
Filtr odblokowania może usunąć zniekształcenie bloku, które pojawia się ze względu na granicę bloku w przywróconym (lub zrekonstruowanym) obrazie. To, czy zastosować filtr odblokowania w aktualnym bloku można określić za pomocą piksela zawartego w kilku rzędach lub kolumnach zawartych w blokach. W przypadku, gdy w bloku stosuje się filtr odblokowania, można zastosować silny filtr lub słaby filtr, w zależności od koniecznej siły filtra odblokowania. Ponadto w przypadku, gdy w bloku stosuje się filtr odblokowania, można równolegle zastosować filtrowanie w kierunku poziomym i filtrowanie w kierunku pionowym.
Moduł korekcji przesunięcia może skorygować przesunięcia między oryginalnym obrazem a obrazem z zastosowanym odblokowaniem w jednostce piksela (lub w przełożeniu na piksel). Aby wykonać korekcję przesunięcia na konkretnym obrazie, piksele zawarte w obrazie dzielone są na wcześniej określoną liczbę obszarów, z których jeden jest następnie określany, aby wykonać przesunięcie, i można zastosować sposób stosowania przesunięcia w odpowiednim obszarze lub sposób stosowania przesunięcia uwzględniający informacje o krawędziach każdego piksela.
Filtr ALF (adaptacyjny filtr pętli) może wykonać filtrację w oparciu o wartość uzyskaną przez porównanie filtrowanego zrekonstruowanego (przywróconego) obrazu z oryginalnym obrazem. Piksele zawarte w obrazie są dzielone na wcześniej określone grupy, a następnie określa się jeden filtr do zastosowania w odpowiedniej grupie, aby tym samym wykonać filtrację na każdej grupie w rozróżniający sposób. W odniesieniu do informacji, czy zastosować filtr ALF, sygnał typu luma można transmitować dla każdej jednostki kodującej, a rozmiar i współczynnik filtra ALF do zastosowania mogą zmieniać się dla każdego bloku. Filtr ALF może mieć różne kształty, a liczba współczynników zawartych w filtrze może się odpowiednio zmieniać. Informacje dotyczące takiego filtra ALF (np. informacje o współczynniku filtra, informacje o włączeniu/wyłączeniu filtra ALF lub informacje o kształcie filtra) mogą być transmitowane, zawarte we wcześniej określonym zestawie parametrów strumienia bitów.
Pamięć 155 może przechowywać zrekonstruowany blok lub obraz wygenerowany poprzez moduł filtracji 150, i przechowywany zrekonstruowany blok lub obraz mogą zostać dostarczone do modułu predykcji 120 i 125, gdy wykonuje się inter-predykcję.
Fig. 2 jest schematem blokowym przedstawiającym dekoder wideo według kolejnego przykładu wykonania wynalazku.
W odniesieniu do fig. 2 dekoder wideo może zawierać moduł dekodowania entropijnego 210, moduł przegrupowania 215, moduł dekwantyzacji 220, moduł transformacji odwrotnej 225, moduł predykcji 230 i 235, moduł filtracji 240 i pamięć 245.
W przypadku, gdy strumień bitów jest wprowadzany z kodera wideo, wprowadzany strumień bitów można dekodować w procedurze odwrotnej do tej z kodera wideo.
Moduł dekodowania entropijnego 210 może wykonać dekodowanie entropijne w procedurze odwrotnej do tej z kodowania entropijnego wykonanego w module kodowania entropijnego kodera wideo. Spośród fragmentów informacji dekodowanych w module dekodowania entropijnego 210, informacje stosowane do uzyskania bloku predykcji, takie jak informacje o rozmiarze jednostki LCU lub informacje o rozmiarze bloku, dostarcza się do modułu predykcji 230 i 235, a wartości rezydualne uzyskane poprzez dekodowanie i entropijne w module dekodowania entropijnego można wprowadzać do modułu przegrupowania 215.
Moduł dekodowania entropijnego 210 może dekodować informacje dotyczące intra-predykcji i inter-predykcji wykonywanych w koderze. Jak opisano powyżej, w przypadku, gdy istnieje wcześniej określone ograniczenie, gdy koder wideo wykonuje intra-predykcję i inter-predykcję, dekodowanie entropijne wykonuje się w oparciu o takie ograniczenie dla odbieranych informacji dotyczących intra-predykcji i inter-predykcji dla aktualnego bloku.
PL 231 159 B1
Moduł przegrupowania 215 może wykonać ponowne rozmieszczanie w oparciu o sposób przegrupowania, przez koder, strumienia bitów, który jest dekodowany entropijnie w module dekodowania entropijnego 210. Takie ponowne rozmieszczanie może zostać wykonane przez współczynniki przywracania przedstawione w postaci jednowymiarowych wektorów do postaci bloku 2D współczynników.
Moduł dekwantyzacji 220 może wykonać dekwantyzację w oparciu o blok ponownie rozmieszczonych współczynników i parametry kwantyzacji dostarczone z kodera.
Moduł transformacji odwrotnej 225 może wykonać odwrotne DCT i odwrotne DST, w odniesieniu do DCT i DST, które wykonywane są przez moduł transformacji, na wyniku kwantyzacji wykonanej w koderze wideo. Odwrotne przekształcenie można wykonać na podstawie jednostki transmisyjnej określonej w koderze wideo. Moduł transformacji kodera wideo może selektywnie wykonać DCT lub DST w zależności od licznych informacji, takich jak sposób predykcji, rozmiar aktualnego bloku i kierunek predykcji, a moduł transformacji odwrotnej 225 dekodera wideo może wykonać odwrotne przekształcenie w oparciu o przekształcone informacje wykonane przez moduł transformacji kodera wideo.
Moduł predykcji 230 i 235 może wygenerować blok predykcji w oparciu o wcześniej dekodowany blok lub informacje o wcześniej dekodowanym obrazie, jakie dostarcza się z pamięci 245 i informacje dotyczące generowania bloku predykcji dostarczone z modułu dekodowania entropijnego 210.
Moduł predykcji 230 i 235 może zawierać moduł określający jednostkę predykcji, moduł interpredykcji i moduł intra-predykcji. Moduł określający jednostkę predykcji może odbierać różne informacje zawierające informacje o trybie predykcji sposobu intra- predykcji, informacje dotyczące predykcji ruchu sposobu inter-predykcji i informacje o jednostce predykcji, przy czym te różne informacje wprowadzane są z modułu dekodowania entropijnego. Moduł określający jednostkę predykcji może oddzielić jednostkę predykcji od aktualnej jednostki kodującej i może określić, czy na jednostce predykcji wykonywana jest intra-predykcja czy wykonywana jest inter-predykcja. Moduł inter-predykcji może wykonać inter-predykcję na aktualnej jednostce predykcji według informacji zawartych w co najmniej jednym z obrazów spośród obrazów przed aktualnym obrazem lub obrazów po aktualnym obrazie. Moduł inter-predykcji może wykonać inter-predykcję na aktualnej jednostce predykcji, stosując informacje konieczne do inter-predykcji aktualnej jednostki predykcji, dostarczone z dekodera wideo.
Można określić, który spośród trybu pomijania, trybu scalania i trybu AMVP jest sposobem predykcji ruchu dla jednostki predykcji zawartej w odpowiedniej jednostce kodującej, w oparciu o jednostkę kodującą, aby wykonać inter-predykcję.
Według przykładu wykonania wynalazku moduł inter-predykcji może określić, czy docelowy blok predykcji przylega do granicy jednostki LCU (największa jednostka kodująca), i może określić, czy pierwszy kolokowany blok jest dostępny według określenia, czy docelowy blok predykcji przylega do granicy jednostki LCU. Na przykład, jeżeli określa się, że pierwszy kolokowany blok nie jest dostępny, drugi kolokowany blok można określić jako kolokowany blok dla uzyskania czasowego wektora predykcji ruchu, lub jeżeli pierwszy kolokowany blok nie jest dostępny, położenie pierwszego kolokowanego bloku może zostać zmienione tak, że pierwszy kolokowany blok o zmienionym położeniu może zostać określony jako kolokowany blok dla uzyskania czasowego wektora predykcji ruchu. Ponadto moduł interpredykcji może zawierać moduł predykcji, który określa wskaźnik obrazu odniesienia kolokowanego bloku docelowego bloku predykcji i określa wektor predykcji ruchu kolokowanego bloku. Kolokowany blok może zostać adaptacyjnie określony według lokalizacji docelowego bloku predykcji w jednostce LCU (największa jednostka kodująca). W dalszej części szczegółowo opisane zostanie działanie modułu predykcji według wynalazku.
Moduł intra-predykcji może generować blok predykcji w oparciu o informacje o pikselach w aktualnym obrazie. W przypadku, gdy jednostka predykcji jest tą, dla której stosuje się intra-predykcję, intrapredykcję można wykonać w oparciu o informacje o trybie intra-predykcji jednostki predykcji dostarczone z kodera wideo. Moduł intra-predykcji może zawierać filtr MDIS, moduł interpolacji pikseli odniesienia i filtr DC. Filtr MDIS wykonuje filtrację na pikselach odniesienia aktualnego bloku. W przypadku filtra MDIS można określić, czy zastosować filtr według trybu predykcji aktualnej jednostki predykcji. Filtrację na pikselach odniesienia aktualnego bloku można wykonać przy pomocy informacji o filtrze MDIS i trybu predykcji jednostki predykcji dostarczonych z kodera wideo. W przypadku, gdy tryb predykcji aktualnego bloku jest trybem, w którym nie wykonuje się filtracji, nie można zastosować filtra MDIS.
W przypadku, gdy tryb predykcji jednostki predykcji jest trybem predykcji, w którym intra-predykcję wykonuje się w oparciu o wartości pikseli uzyskane przez interpolację piksela odniesienia, piksel
PL 231 159 B1 odniesienia z jednostką poniżej całkowitego piksela można uzyskać poprzez interpolację pikseli odniesienia. W przypadku, gdy tryb predykcji aktualnej jednostki predykcji jest trybem predykcji, w którym blok predykcji generuje się bez interpolacji pikseli odniesienia, piksel odniesienia nie może być poddany interpolacji. Filtr DC może generować blok predykcji poprzez filtrację, jeżeli tryb predykcji aktualnego bloku jest trybem DC.
Zrekonstruowany blok lub obraz można dostarczyć do modułu filtracji 240. Moduł filtracji 240 może zawierać filtr odblokowania, moduł korekcji przesunięcia i filtr ALF.
Informacje o tym, czy odpowiedni blok lub obraz został zastosowany z filtrem odblokowania mogą zostać dostarczone z kodera wideo (lub obrazu). Jeżeli zastosowano filtr odblokowania, informacje o tym, czy zastosowany filtr odblokowania jest silnym filtrem czy słabym filtrem mogą zostać dostarczone z kodera wideo. Filtr odblokowania dekodera wideo może odbierać informacje dotyczące filtra odblokowania z kodera wideo, a filtrację odblokowania można wykonać na odpowiednim bloku w dekoderze wideo. Podobnie jak koder wideo, dekoder wideo może najpierw wykonać filtrację odblokowania pionowego i filtrację odblokowania poziomego. Nakładający się fragment (fragmenty) może zostać poddany co najmniej odblokowaniu pionowemu i odblokowaniu poziomemu. W obszarze, w którym filtracja odblokowania pionowego i filtracja odblokowania poziomego nakładają się na siebie, jedna spośród filtracji odblokowania pionowego i filtracji odblokowania poziomego, która nie została wykonana wcześniej może zostać wykonana dla tego obszaru. Taki proces filtracji odblokowania umożliwia równoległe przetwarzanie filtracji odblokowania.
Moduł korekcji przesunięcia może wykonać korekcję przesunięcia na rekonstruowanym obrazie w oparciu o rodzaj korekcji przesunięcia, zastosowanej w obrazie w procesie kodowania i informacje o wartości przesunięcia, zastosowanej w procesie kodowania.
Filtr ALF może wykonać filtrację według porównania między zrekonstruowanym obrazem po filtracji a oryginalnym obrazem. Filtr ALF można wykonać na jednostce kodującej w oparciu o informacje o tym, czy zastosowano filtr ALF i informacje o współczynnikach filtra ALF, które są dostarczane z kodera. Takie informacje o filtrze ALF mogą zostać dostarczone, będąc zawarte w konkretnym zestawie parametrów.
Pamięć 245 może przechowywać zrekonstruowany obraz lub zrekonstruowany blok, aby go zastosować jako obraz odniesienia lub blok odniesienia, oraz może dostarczyć zrekonstruowany obraz do modułu wyświetlania.
Jak opisano powyżej, nawet jeżeli dla uproszczenia opisu stosuje się określenie „jednostka kodująca” w przykładzie wykonania wynalazku, jednostkę kodującą można również stosować jako jednostkę do dekodowania. W dalszej części sposób predykcji opisany poniżej w powiązaniu z fig. od 3 do 10 według przykładu wykonania wynalazku można wykonać w komponencie, takim jak moduł predykcji, jak przedstawiono na fig. 1 i 2.
Fig. 3 jest widokiem koncepcyjnym przedstawiającym sposób uzyskiwania czasowego wektora predykcji ruchu według przykładu wykonania wynalazku.
W odniesieniu do fig. 3 czasowy wektor predykcji ruchu można uzyskać w oparciu o wartość wektora ruchu kolokowanego bloku (colPu) w kolokowanym obrazie (colPic).
Kolokowany obraz jest obrazem zawierającym kolokowany blok do uzyskiwania informacji dotyczących czasowego wektora predykcji ruchu po wykonaniu sposobu inter-predykcji, takiego jak scalanie lub AMVP. Kolokowany blok może być zdefiniowany jako blok zawarty w kolokowanym obrazie, przy czym kolokowany blok uzyskuje się w oparciu o informacje o lokalizacji docelowego bloku predykcji i ma czasowo inną fazę niż docelowy blok predykcji.
Dla jednego docelowego bloku predykcji może być wiele kolokowanych bloków. Informacje dotyczące ruchu kolokowanego bloku zawartego w kolokowanym obrazie mogą być przechowywane jako jedna wartość reprezentatywna w odniesieniu do wcześniej określonej jednostki. Na przykład w odniesieniu do jednostki o rozmiarze bloku 16x16, informacje dotyczące predykcji ruchu (wektor ruchu, obraz odniesienia etc.) można określić i przechowywać w postaci jednej reprezentatywnej wartości w jednostce bloku 16x16.
Fig. 4 jest schematem działań sposobu uzyskiwania czasowego wektora predykcji ruchu według przykładu wykonania wynalazku.
W dalszej części sposób uzyskiwania czasowego wektora predykcji ruchu, który zostanie opisany poniżej, można stosować w sposobie inter-predykcji, takim jak tryb scalania lub tryb AMVP. Sposób uzyskiwania czasowego wektora predykcji ruchu może być sposobem uzyskiwania czasowego bloku kandydującego (kolokowany blok) do wykonania trybu scalania, sposobem uzyskiwania czasowego
PL 231 159 B1 bloku kandydującego (kolokowany blok) do wykonania trybu AMVP i sposobem uzyskiwania czasowego wektora predykcji ruchu.
W dalszej części w przykładzie wykonania wynalazku kolokowany blok może być zdefiniowany i stosowany jako określenie wskazujące na czasowy blok kandydujący stosowany w trybie scalania i trybie AMVP.
W odniesieniu do fig. 4 uzyskuje się informacje o kolokowanym obrazie (etap S400).
Informacje o lokalizacji docelowego bloku predykcji, informacje o rozmiarze docelowego bloku predykcji i informacje o wskaźniku obrazu odniesienia docelowego bloku predykcji można zastosować, aby uzyskać informacje o kolokowanym obrazie, informacje o kolokowanym bloku i czasowy wektor predykcji ruchu.
Według przykładu wykonania wynalazku informacje o kolokowanym obrazie można uzyskać w oparciu o informacje o rodzaju segmentu (slice_type), informacje o liście obrazów odniesienia (collocated_from_I0_flag) i informacje o wskaźniku obrazu odniesienia (collocated_ref_idx). Stosując informacje o liście obrazów odniesienia (collocated_from_I0_flag), jeżeli informacje o liście obrazów odniesienia (collocated_from_I0_flag) wskazują 1, oznacza to, że kolokowany obraz jest zawarty w pierwszej liście obrazów odniesienia (List 0), a jeżeli informacje o liście obrazów odniesienia (collocated_from_I0_flag) wskazują 0, oznacza to, że kolokowany obraz jest zawarty w drugiej liście obrazów odniesienia (List 1).
Na przykład w przypadku, gdy rodzajem segmentu jest segment B, a wartością informacji o liście obrazów odniesienia (collocated_from_I0_flag) jest 0, kolokowany obraz można określić jako obraz zawarty w drugiej liście obrazów odniesienia, a w przypadku, gdy rodzajem segmentu jest segment B, a wartością informacji o liście obrazów odniesienia (collocated_from_I0_flag) jest 1 lub w przypadku, gdy rodzajem segmentu jest segment P, kolokowany obraz można określić jako obraz zawarty w pierwszej liście obrazów odniesienia.
W przypadku sposobu inter-predykcji wykorzystującego tryb scalania, jeżeli wcześniej określony warunek jest spełniony, informacje o wskaźniku obrazu odniesienia z sąsiedniego bloku w konkretnym położeniu można określić jako informacje dla kolokowanego obrazu, a jeżeli wcześniej określony warunek nie jest spełniony, poprzedni obraz aktualnego obrazu można określić jako kolokowany obraz.
Uzyskiwane są informacje dla kolokowanego bloku (etap S410).
Informacje dla kolokowanego bloku można różnie uzyskiwać w zależności od tego, czy część (lub fragment) docelowego bloku predykcji przylega do granicy jednostki LCU (największa jednostka kodująca). W dalszej części sposób określania kolokowanego bloku zależny od lokalizacji docelowego bloku predykcji i granicy jednostki LCU, opisany jest w odniesieniu do fig. od 5 do 9.
Fig. 5 jest widokiem koncepcyjnym przedstawiającym lokalizację kolokowanego bloku do uzyskiwania czasowego wektora ruchu według przykładu wykonania wynalazku.
W odniesieniu do fig. 5 bloki w rożnych położeniach w odniesieniu do docelowego bloku predykcji można zastosować jako kolokowane bloki do uzyskiwania czasowego wektora ruchu. Kolokowane bloki, które można stosować do uzyskiwania czasowego wektora ruchu można sklasyfikować w zależności od lokalizacji w następujący sposób.
W przypadku, gdy punktem położonym w górnej lewej części docelowego bloku predykcji jest (xP, yP), szerokością docelowego bloku predykcji jest nPSW, a wysokością docelowego bloku predykcji jest nPSH, pierwszym kolokowanym blokiem 500 może być blok zawierający punkt (xP+nPSW, yP+nPSH) w kolokowanym obrazie, drugim kolokowanym blokiem 510 może być blok zawierający punkt (xP+nPSW-MinPuSize, yP+nPSH) w kolokowanym obrazie, trzecim kolokowanym blokiem 520 może być blok zawierający punkt (xP+nPSW, yP+nPSH-MinPuSize) w kolokowanym obrazie, czwartym kolokowanym blokiem 530 może być blok zawierający punkt (xP+nPSW-1, yP+nPSH-1) w kolokowanym obrazie, piątym kolokowanym blokiem 540 może być blok zawierający punkt (xP+(nPSW>>1), yP+(nPSH>>1)) w kolokowanym obrazie, a szóstym kolokowanym blokiem 550 może być blok zawierający punkt (xP+(nPSW>>1)-1, yP+(nPSH>>1)-1) w kolokowanym obrazie.
Kolokowany blok można adaptacyjnie określić według położenia aktualnej jednostki predykcji zlokalizowanej w jednostce LCU. Wzajemne spozycjonowanie między docelowym blokiem predykcji a granicą jednostki LCU można poddać kategoryzacji w następujących przypadkach: 1) gdy dolny koniec i prawa strona docelowego bloku predykcji nie przylegają do granicy jednostki LCU, 2) gdy jedynie dolny koniec docelowego bloku predykcji przylega do granicy jednostki LCU, 3) gdy zarówno prawa strona, jak i dolny koniec docelowego bloku predykcji przylegają do granicy jednostki LCU i 4) gdy jedynie prawa strona docelowego bloku predykcji przylega do granicy jednostki LCU.
PL 231 159 B1
Według przykładu wykonania wynalazku kolokowany blok można adaptacyjnie określić w różny sposób zależnie od lokalizacji docelowego bloku predykcji w jednostce LCU.
1) W przypadku, gdy dolny koniec i prawa strona docelowego bloku predykcji nie przylegają do granicy jednostki LCU, pierwszy kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowany blok z kontrolą dostępności dla uzyskania czasowego wektora ruchu.
2) W przypadku, gdy jedynie dolny koniec docelowego bloku predykcji przylega do granicy jednostki LCU, trzeci kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowany blok z kontrolą dostępności dla uzyskania czasowego wektora ruchu.
3) W przypadku, gdy zarówno prawa strona, jak i dolny koniec docelowego bloku predykcji przylegają do granicy jednostki LCU, czwarty kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowany blok z kontrolą dostępności dla uzyskania czasowego wektora ruchu.
4) W przypadku, gdy jedynie prawa strona docelowego bloku predykcji przylega do granicy jednostki LCU, drugi kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowany blok z kontrolą dostępności dla uzyskania czasowego wektora ruchu.
To oznacza, że według przykładu wykonania wynalazku można adaptacyjnie określić czasowy blok kandydujący w zależności od lokalizacji aktualnego bloku w jednostce LCU. Położenia pikseli do określenia czasowego bloku kandydującego w przypadku, gdy dolna granica aktualnego bloku przylega do granicy jednostki LCU mogą być inne niż położenia pikseli do określenia czasowego bloku kandydującego w przypadku, gdy dolna granica aktualnego bloku nie przylega do granicy jednostki LCU. Ponadto położenia pikseli do określenia czasowego bloku kandydującego w przypadku, gdy dolna granica aktualnego bloku przylega do granicy jednostki LCU mogą być inne niż położenia pikseli do określenia czasowego bloku kandydującego w przypadku, gdy jedynie prawa granica aktualnego bloku przylega do granicy jednostki LCU.
Według kolejnego przykładu wykonania wynalazku można zastosować sposób, w którym kolokowany blok można określić (lub wybrać) w sposób adaptacyjny i różny w zależności od położenia docelowego bloku predykcji w jednostce LCU tak, że kolokowany blok i docelowy blok predykcji zlokalizowane będą w tej samej jednostce LCU, lub kolokowanego bloku nie będzie można zastosować, jeżeli kolokowany blok i docelowy blok predykcji nie będą zlokalizowane w tej samej jednostce LCU.
Fig. 6 jest widokiem koncepcyjnym przedstawiającym sposób określania kolokowanego bloku do uzyskiwania wektora predykcji ruchu według przykładu wykonania wynalazku.
W odniesieniu do fig. 6 znane mogą być położenia kolokowanych bloków licznych jednostek predykcji zawartych w pojedynczej jednostce LCU.
W przypadku PU0, PU1, PU2 i PU5 jednostkami predykcji są jednostki predykcji wewnątrz jednostki LCU, a pierwszy kolokowany blok można najpierw zastosować jako kolokowany blok do uzyskiwania czasowego wektora ruchu.
W przypadku PU4 i PU7 granice jednostek predykcji przylegają jedynie do dolnej granicy jednostki LCU, a trzeci kolokowany blok można najpierw zastosować jako kolokowany blok do uzyskiwania czasowego wektora ruchu.
W przypadku PU8 granica jednostki predykcji przylega zarówno do dolnej granicy, jak i prawej granicy jednostki LCU, a czwarty kolokowany blok można najpierw zastosować jako kolokowany blok do uzyskiwania czasowego wektora ruchu.
W przypadku PU3 i PU6 granice jednostek predykcji przylegają jedynie do prawej granicy jednostki LCU, a drugi kolokowany blok można najpierw zastosować jako kolokowany blok do uzyskiwania czasowego wektora ruchu.
To oznacza, że, jak opisany powyżej, czasowy blok kandydujący jest adaptacyjnie określany w zależności od lokalizacji aktualnego bloku w jednostce LCU, a położenia pikseli do określania czasowego bloku kandydującego w przypadkach, gdy dolna granica aktualnego bloku przylega do granicy jednostki LCU (przypadki PU4, PU7 i PU8) i w przypadkach, gdy dolna granica aktualnego bloku nie przylega do granicy jednostki LCU (przypadki PU0, PU1, PU2, PU3, PU5 i PU6) różnią się od siebie. Ponadto położenia pikseli do określenia czasowego bloku kandydującego mogą być różne w przypadkach, gdy dolna granica aktualnego bloku przylega do granicy jednostki LCU (przypadki PU4, PU7 i PU8) i w przypadkach, gdy jedynie prawa granica aktualnego bloku przylega do granicy jednostki LCU (przypadki PU3 i PU6).
PL 231 159 B1
Według kolejnego przykładu wykonania wynalazku, o ile kolokowany blok zlokalizowany jest w tej samej jednostce LCU wraz z docelowym blokiem predykcji, kolokowany blok określa się w sposób adaptacyjny i różny w zależności od lokalizacji docelowego bloku predykcji w jednostce LCU. Jeżeli konkretny kolokowany blok nie jest zlokalizowany w tej samej jednostce LCU wraz z docelowym blokiem predykcji, taki konkretny kolokowany blok może nie być dostępny. Na przykład jeżeli dolna granica bloku predykcji przylega do dolnej granicy jednostki LCU, tak jak PU4, PU7 i PU8, pierwszy kolokowany blok może być oznaczony (lub wskazany) jako niedostępny, a w zamian piąty kolokowany blok można zastosować jako kolokowany blok do uzyskiwania czasowego wektora predykcji.
Jako sposób uzyskiwania kolokowanego bloku można zastosować sposób, który, kategoryzując cechy docelowego bloku predykcji, jak opisano powyżej, w zależności od lokalizacji docelowego bloku predykcji i granicy jednostki LCU, wybiera blok do zastosowania jako kolokowany blok w zależności od skategoryzowanej lokalizacji docelowego bloku predykcji. Korzystnie przyjmuje się, że pierwszy kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowany blok do uzyskiwania czasowego wektora ruchu. Po sprawdzeniu dostępności pierwszego kolokowanego bloku (na przykład czy dolna granica docelowego bloku predykcji przylega do jednostki LCU), kolokowany blok, inny niż pierwszy kolokowany blok, można określić jako kolokowany blok do uzyskiwania czasowego wektora ruchu. Na przykład jeżeli pierwszy kolokowany blok określa się jako niedostępny poprzez etapy określania, czy docelowy blok predykcji przylega do granicy jednostki LCU (największa jednostka kodująca), kolokowany blok do uzyskiwania czasowego wektora ruchu można zmienić na inny kolokowany blok (np. trzeci kolokowany blok) lub piąty kolokowany blok można zastosować bezpośrednio bez stosowania pierwszego kolokowanego bloku.
W szczególności powyższy sposób można wykonać poprzez następujące etapy:
1) Etap określania, czy granica docelowego bloku predykcji przylega do granicy jednostki LCU (największa jednostka kodująca).
2) Etap określania, czy pierwszy kolokowany blok jest dostępny w zależności od tego, czy granica docelowego bloku predykcji przylega do granicy jednostki LCU. W szczególności w etapie 2), gdy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU, można określić, że pierwszy kolokowany blok nie jest dostępny.
3) Etap określania kolokowanego bloku, innego niż pierwszy kolokowany blok, jako kolokowany blok do uzyskiwania czasowego wektora predykcji ruchu, gdy pierwszy kolokowany blok nie jest dostępny. W szczególności w etapie 3) w przypadku, gdy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU i w przypadku, gdy prawa granica docelowego bloku predykcji przylega do granicy jednostki LCU, różne kolokowane bloki dla każdego z różnych przypadków można określić jako kolokowane bloki do uzyskiwania czasowego wektora predykcji ruchu.
4) Etap określania pierwszego kolokowanego bloku jako kolokowany blok do uzyskiwania czasowego wektora predykcji ruchu, jeżeli pierwszy kolokowany blok jest dostępny, i określania dostępności piątego kolokowanego bloku, jeżeli pierwszy kolokowany blok nie jest dostępny.
Powyższe etapy mogą być opcjonalnymi etapami, a sekwencyjne powiązanie etapów lub sposobu określania można zmienić, nie wykraczając poza istotę wynalazku.
Fig. 7 jest widokiem koncepcyjnym przedstawiającym przypadek, w którym docelowy blok predykcji przylega do dolnej granicy jednostki LCU według przykładu wykonania wynalazku.
W odniesieniu do fig. 7 przedstawiono przypadek, w którym lokalizacja kolokowanego bloku zmienia się, gdy docelowy blok predykcji (PU, PU7 lub PU8) zlokalizowany jest w dolnej granicy jednostki LCU. W przypadku, gdy docelowy blok predykcji (PU4, PU7 lub PU8) zlokalizowany jest w dolnej granicy jednostki LCU, lokalizację kolokowanego bloku można ustalić tak, aby informacje dotyczące predykcji ruchu można było uzyskać nawet bez przeszukiwania jednostki LCU położonej pod aktualną jednostką LCU pośród jednostek LCU. Na przykład czasowy wektor predykcji ruchu można uzyskać, stosując raczej trzeci kolokowany blok niż pierwszy kolokowany blok docelowego bloku predykcji, 1) w przypadku, gdy przylega jedynie prawa granica jednostki LCU, w zależności od dostępności, pierwszy kolokowany blok i piąty kolokowany blok są sekwencyjnie określane jako kolokowany blok do uzyskiwania czasowego wektora predykcji ruchu, 2) w przypadku, gdy przylega dolna granica jednostki LCU, w zależności od dostępności, trzeci kolokowany blok i piąty kolokowany blok mogą zostać sekwencyjnie określone jako kolokowany blok do uzyskiwania czasowego wektora predykcji ruchu. Oznacza to, że
PL 231 159 B1 według przykładu wykonania wynalazku położenia pikseli do określania czasowego bloku kandydującego mogą być różne w przypadku, gdy dolna granica aktualnego bloku przylega do granicy jednostki LCU i w przypadku, gdy dolna granica aktualnego bloku nie przylega do granicy jednostki LCU,
W odniesieniu do fig. 4, w oparciu o kolokowany blok określony poprzez sposób opisany powyżej w powiązaniu z fig. od 5 do 7 uzyskuje się wektor (mvLXCol) predykcji ruchu kolokowanego bloku i informacje (availableFlagLXCol) o dostępności kolokowanego bloku (etap S420).
Informacje (availableFlagLXCol) o dostępności kolokowanego bloku i wektor (mvLXCol) ruchu kolokowanego bloku, który ma zostać zastosowany do inter-predykcji docelowego bloku predykcji w oparciu o informacje o kolokowanym bloku określone poprzez procesy przedstawione na fig. od 5 do 7 można uzyskać za pomocą następującego sposobu:
1) Jeżeli kolokowany blok (colPu) jest kodowany w oparciu o tryb intra-predykcji, jeżeli kolokowany blok (colPu) nie jest dostępny, jeżeli kolokowany obraz (colPic) nie jest dostępny dla predykcji czasowego wektora predykcji ruchu, lub jeżeli inter-predykcję wykonuje się bez stosowania czasowego wektora predykcji ruchu, wektor (mvLXCol) ruchu kolokowanego bloku i informacje (availableFlagLXCol) o dostępności kolokowanego bloku można ustalić na 0.
2) W przypadku innym niż 1) informacje (mvLXCol) o wektorze ruchu kolokowanego bloku i informacje (availableFlagLXCol) o dostępności kolokowanego bloku można uzyskać poprzez znacznik (PredFIagL0) i znacznik (PredFIagL1), gdzie znacznik (PredFIagL0) wskazuje, czy stosuje się listę L0, a znacznik (PredFIagL1) wskazuje, czy stosuje się listę L1.
Najpierw, jeżeli określi się, że inter-predykcję wykonano na kolokowanym bloku bez stosowania listy L0 (wskaźnik (PredFIagL0) jest równy 0), informacje dotyczące predykcji ruchu kolokowanego bloku, takie jak informacje mvCol, informacje refldxCol i informacje listCol, można ustalić na L1 i MvL1 [xPCol][yPCol], RefldxL1[xPCol][yPCol], które są informacjami dotyczącymi predykcji ruchu kolokowanego bloku uzyskanymi poprzez zastosowanie listy L1, a informacje (availableFlagLXCol) o dostępności kolokowanego bloku można ustalić na 1.
W innych przypadkach, jeżeli określi się, że inter-predykcję wykonano na kolokowanym bloku, stosując listę L0 (wskaźnik (PredFIagL0) jest równy 1), informacje dotyczące predykcji ruchu kolokowanego bloku, takie jak informacje mvCol, informacje refldxCol i informacje listCol, można ustalić oddzielnie w przypadku, gdy PredFIagL1 wynosi 0 i w przypadku, gdy PredFIagL1 wynosi 1, a informacje (availableFlagLXCol) o dostępności kolokowanego bloku można ustalić na 1.
Uzyskany mvLXCol jest skalowany (etap S430).
Aby zastosować mvLXCol uzyskany poprzez etap S420 jako czasowy wektor predykcji ruchu docelowego bloku predykcji, uzyskaną wartość mvLXCol można skalować w oparciu o informacje o odległości dotyczące odległości między kolokowanym obrazem zawierającym kolokowany blok a obrazem odniesienia kolokowanego bloku powiązanym z kolokowanym blokiem i odległości między obrazem zawierającym docelowy blok predykcji a obrazem odniesienia powiązanym z docelowym blokiem predykcji. Po skalowaniu uzyskanej wartości mvLXCol można uzyskać czasowy wektor predykcji ruchu.
W dalszej części, według przykładu wykonania wynalazku, opisany jest sposób wykonywania inter-predykcji, taki jak scalanie i AMVP.
Fig. 8 jest schematem działań przedstawiającym sposób inter-predykcji stosujący tryb scalania według przykładu wykonania wynalazku.
W odniesieniu do fig. 8 informacje dotyczące predykcji ruchu można uzyskać z kandydata przestrzennego scalania (etap S1000).
Kandydata przestrzennego scalania można uzyskać z sąsiednich jednostek predykcji docelowego bloku predykcji. Aby uzyskać kandydata przestrzennego scalania, można odebrać informacje o szerokości i wysokości jednostki predykcji, informacje o MER (obszar szacowania ruchu, ang. Motion Estimation Region), informacje o singleMCLFIag i informacje o położeniu podziału. W oparciu o takie informacje wejściowe można uzyskać informacje (availableFlagN) o dostępności według położenia kandydata przestrzennego scalania, informacje (refldxL0, refldxL1) o obrazie odniesienia, informacje (predFIagL0N, redFIagL1N) o wykorzystaniu list i informacje (mvL0N, mvL1N) o wektorze ruchu. Kandydatami przestrzennego scalania mogą być liczne bloki sąsiadujące z docelowym blokiem predykcji.
Fig. 9 jest widokiem koncepcyjnym przedstawiającym położenia kandydatów przestrzennego scalania według przykładu wykonania wynalazku.
W odniesieniu do fig. 9 w przypadku, gdy lokalizacją punktu w górnej lewej części docelowego bloku predykcji jest (xP, yP), szerokością docelowego bloku predykcji jest nPSW, a wysokością docelowego bloku predykcji jest nPSH, kandydatem przestrzennego scalania może być blok A0 zawierający
PL 231 159 B1 punkt (xP-1, yP+nPSH), blok A1 zawierający punkt (xP-1, yP+nPSH-MinPuSize), blok B0 zawierający punkt (xP+nPSW, yP-1), blok B1 zawierający punkt (xP+nPSW-MinPuSize, yP-1) i blok B2 zawierający punkt (xP-MinPuSize, yP-1).
Odnosząc się ponownie do fig. 8, uzyskuje się wartość wskaźnika obrazu odniesienia kandydata czasowego scalania (etap S1010).
Wartość wskaźnika obrazu odniesienia kandydata czasowego scalania, jako wartość wskaźnika kolokowanego obrazu zawierającego kandydata czasowego scalania (kolokowany blok), można uzyskać poprzez specyficzne warunki w następujący sposób.
Następujące warunki są arbitralne i mogą być inne. Na przykład w przypadku, gdy lokalizacją punktu w górnej lewej części docelowego bloku predykcji jest (xP, yP), szerokością docelowego bloku predykcji jest nPSW, a wysokością docelowego bloku predykcji jest nPSH, gdy 1) istnieje sąsiednia jednostka predykcji docelowego bloku predykcji odpowiadająca położeniu (xP-1, yP+nPSH-1) (w dalszej części określana jako sąsiednia jednostka predykcji do uzyskiwania wskaźnika obrazu odniesienia), 2) wartość wskaźnika podziału sąsiedniej jednostki predykcji do uzyskiwania wskaźnika obrazu odniesienia wynosi 0, 3) sąsiednia jednostka predykcji do uzyskiwania wskaźnika obrazu odniesienia nie jest blokiem, na którym wykonuje się predykcję przy pomocy trybu intra-predykcji i 4) docelowy blok predykcji i sąsiedni blok predykcji do uzyskiwania wskaźnika obrazu odniesienia nie należą do tego samego obszaru MER (obszar szacowania ruchu), wartość wskaźnika obrazu odniesienia kandydata czasowego scalania można określić jako tę samą wartość, co wartość wskaźnika obrazu odniesienia sąsiedniej jednostki predykcji do uzyskiwania wskaźnika obrazu odniesienia. W przypadku nie spełnienia tych warunków wartość wskaźnika obrazu odniesienia kandydata czasowego scalania można ustalić na 0.
Określa się blok kandydujący czasowego scalania (kolokowany blok), a z kolokowanego bloku uzyskuje się informacje dotyczące predykcji ruchu (etap S1020).
Według przykładu wykonania wynalazku blok kandydujący czasowego scalania (kolokowany blok) można adaptacyjnie określić w zależności od lokalizacji docelowego bloku predykcji w jednostce LCU tak, że kolokowany blok będzie zawarty w tej samej jednostce LCU wraz z docelowym blokiem predykcji.
1) W przypadku, gdy dolny koniec i prawa strona docelowego bloku predykcji nie przylegają do granicy jednostki LCU, określając dostępność, pierwszy kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowany blok do uzyskiwania czasowego wektora ruchu.
2) W przypadku, gdy jedynie dolny koniec docelowego bloku predykcji przylega do granicy jednostki LCU, określając dostępność, trzeci kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowany blok do uzyskiwania czasowego wektora ruchu.
3) W przypadku, gdy zarówno prawa strona, jak i dolny koniec docelowego bloku predykcji przylegają do granicy jednostki LCU, określając dostępność, a czwarty kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowane bloki do wywołania czasowego wektora ruchu.
4) W przypadku, gdy jedynie prawa strona docelowego bloku predykcji przylega do granicy jednostki LCU, określa się dostępność, a drugi kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowane bloki do wywołania czasowego wektora ruchu.
Według przykładu wykonania wynalazku można zastosować sposób, który umożliwia określenie kolokowanego bloku w sposób adaptacyjny i różny w zależności od położenia docelowego bloku predykcji w jednostce LCU, który ma być obecny w położeniu zawartym w pojedynczej jednostce LCU wraz z docelowym blokiem predykcji, lub nie można zastosować kolokowanego bloku niezawartego w pojedynczej jednostce LCU wraz z docelowym blokiem predykcji.
Jak opisano powyżej, jako sposób wytwarzania kolokowanego bloku można zastosować sposób oddzielający cechy docelowego bloku predykcji, jak opisano powyżej, w zależności od położenia docelowego bloku predykcji i granicy jednostki LCU i określający blok do natychmiastowego zastosowania jako kolokowany blok w zależności od położenia oddzielonego docelowego bloku predykcji. Jednak można najpierw przyjąć pierwszy kolokowany blok i piąty kolokowany blok do sekwencyjnego zastosowania jako kolokowane bloki do wywołania czasowego wektora ruchu, określa się, czy pierwszy kolokowany blok jest dostępny (na przykład czy dolna granica docelowego bloku predykcji przylega do jednostki LCU), a następnie kolokowany blok, inny niż pierwszy kolokowany blok, można określić jako kolokowany blok do wywołania czasowego wektora ruchu.
PL 231 159 B1
Konfigurowana jest lista kandydatów scalania (etap S1030).
Lista kandydatów scalania może być skonstruowana tak, aby zawierała co najmniej jeden spośród kandydatów przestrzennego scalania i kandydata czasowego scalania. Kandydaci przestrzennego scalania i kandydat czasowego scalania zawarci na liście kandydatów scalania mogą być rozmieszczeni według wcześniej określonego pierwszeństwa.
Lista kandydatów scalania może być skonstruowana tak, aby zawierała ustaloną liczbę kandydatów scalania, a jeżeli liczba kandydatów scalania jest mniejsza od ustalonej liczby, informacje dotyczące predykcji ruchu które mają kandydaci scalania łączy się, aby wygenerować kandydatów scalania lub generuje się wektory zerowe jako kandydatów scalania, generując tym samym listę kandydatów scalania.
Fig. 10 jest schematem działań przedstawiającym sposób inter-predykcji stosujący AMVP według przykładu wykonania wynalazku.
W odniesieniu do fig. 10 informacje dotyczące predykcji ruchu uzyskuje się z bloku kandydującego przestrzennego AMPV (etap S1200).
Aby uzyskać informacje o wskaźniku obrazu odniesienia i wektor predykcji ruchu docelowego bloku predykcji, blok (bloki) kandydujący przestrzennego AMVP można uzyskać z sąsiednich bloków predykcji docelowego bloku predykcji.
Odwołując się ponownie do fig. 9, jeden z bloku A0 i bloku A1 można zastosować jako pierwszy blok kandydujący przestrzennego AMVP, a jeden z bloku B0, bloku B1 i bloku B2 można zastosować jako drugi blok kandydujący przestrzennego AMVP, uzyskując tym samym bloki kandydujące przestrzennego AMVP.
Informacje dotyczące predykcji ruchu uzyskuje się z bloku kandydującego czasowego AMPV (etap S1210).
Według przykładu wykonania wynalazku kolokowany blok można adaptacyjnie określić w zależności od lokalizacji docelowego bloku predykcji w jednostce LCU tak, że kolokowany blok będzie zawarty w tej samej jednostce LCU wraz z docelowym blokiem predykcji.
1. W przypadku, gdy dolny koniec i prawa strona docelowego bloku predykcji nie przylegają do granicy jednostki LCU, pierwszy kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowany blok do uzyskiwania czasowego wektora ruchu przy pomocy kontroli dostępności.
2. W przypadku, gdy jedynie dolny koniec docelowego bloku predykcji przylega do granicy jednostki LCU, trzeci kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowany blok do uzyskiwania czasowego wektora ruchu przy pomocy kontroli dostępności.
3. W przypadku, gdy zarówno prawa strona, jak i dolny koniec docelowego bloku predykcji przylegają do granicy jednostki LCU, czwarty kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowany blok do uzyskiwania czasowego wektora ruchu przy pomocy kontroli dostępności.
4. W przypadku, gdy jedynie prawa strona docelowego bloku predykcji przylega do granicy jednostki LCU, drugi kolokowany blok i piąty kolokowany blok można sekwencyjnie zastosować jako kolokowany blok do uzyskiwania czasowego wektora ruchu przy pomocy kontroli dostępności.
Według przykładu wykonania wynalazku nie można zastosować sposobu, według którego kolokowany blok nie jest zawarty w tej samej jednostce LCU wraz z docelowym blokiem predykcji, jak również nie można zastosować sposobu, według którego kolokowany blok jest adaptacyjnie określany w zależności od lokalizacji docelowego bloku predykcji w jednostce LCU, który ma być obecny w lokalizacji zawartej w tej samej jednostce LCU wraz z docelowym blokiem predykcji.
W etapie S1200 uzyskiwania bloków kandydujących przestrzennego AMVP, gdy pierwszy blok kandydujący przestrzennego AMVP i drugi blok kandydujący przestrzennego AMVP określa się jako dostępne, a uzyskane wartości wektora predykcji ruchu nie są takie same, nie można wykonać etapu S1210 uzyskiwania czasowego wektora predykcji ruchu.
Konstruowana jest lista kandydatów AMVP (etap S1220).
Lista kandydatów AMVP konstruowana jest przy pomocy informacji dotyczących predykcji ruchu, uzyskanych poprzez co najmniej jeden z etapów S1200 i S1210. W przypadku, gdy te same informacje dotyczące predykcji ruchu istnieją w skonstruowanej liście kandydatów AMVP, jedną wartość spośród tych samych informacji dotyczących predykcji ruchu można zastosować jako wartość kandydata AMVP.
PL 231 159 B1
Informacje dotyczące predykcji ruchu zawarte w liście kandydatów AMVP mogą zawierać ustaloną liczbę jedynie wartości kandydatów.
Chociaż przykłady wykonania wynalazku zostały opisane do tego momentu, znawcy, do których adresowany jest wynalazek, będą rozumieli, że w wynalazku można dokonać różnych modyfikacji i zmian, nie wykraczając poza ducha i zakres wynalazku.

Claims (20)

  1. Zastrzeżenia patentowe
    1. Sposób uzyskiwania kandydującego wektora predykcji ruchu, przy czym sposób obejmuje: określanie, przez moduł inter-predykcji, wskaźnika obrazu odniesienia wskazującego obraz odniesienia zawierający kolokowany blok docelowego bloku predykcji; i określanie, przez moduł inter-predykcji, wektora predykcji ruchu kolokowanego bloku, przy czym kolokowany blok jest adaptacyjnie określony za pomocą lokalizacji docelowego bloku predykcji w największej jednostce kodującej (LCU).
  2. 2. Sposób według zastrz. 1, w którym kolokowany blok jest różnie określany na podstawie tego, czy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU.
  3. 3. Sposób według zastrz. 1, w którym kolokowany blok jest różnie określany na podstawie tego, czy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU lub czy prawa granica docelowego bloku predykcji przylega do granicy jednostki LCU.
  4. 4. Sposób według zastrz. 1, przy czym kolokowany blok jest określany za pomocą położeń odniesienia pikseli w jednostce LCU.
  5. 5. Sposób według zastrz. 1, w którym jeden spośród pierwszego kolokowanego bloku i piątego kolokowanego bloku jest określany selektywnie jako kolokowany blok według tego, czy lewa granica lub dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU, i przy czym jeżeli lokalizacją górnego lewego piksela docelowego bloku predykcji jest (xP, yP), szerokością docelowego bloku predykcji jest nPSW, a wysokością docelowego bloku predykcji jest nPSH, pierwszy kolokowany blok zawiera piksel w (xP+nPSW, yP+nPSH) w kolokowanym obrazie, a piąty kolokowany blok zawiera piksel w (xP+(nPSW>>1), yP+(nPSH>>1)) w kolokowanym obrazie.
  6. 6. Sposób uzyskiwania kandydującego wektora predykcji ruchu, przy czym sposób obejmuje: określanie, przez moduł inter-predykcji, czy granica docelowego bloku predykcji przylega do granicy największej jednostki kodującej (LCU); i określanie, przez moduł inter-predykcji, dostępności pierwszego kolokowanego bloku według określenia, czy granica docelowego bloku predykcji przylega do granicy jednostki LCU.
  7. 7. Sposób według zastrz. 6, w którym jeżeli określa się, że pierwszy kolokowany blok nie jest dostępny, inny kolokowany blok, różny od pierwszego kolokowanego bloku, jest stosowany do uzyskiwania czasowego wektora predykcji ruchu.
  8. 8. Sposób według zastrz. 7, w którym gdy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU lub, gdy prawa granica docelowego bloku predykcji przylega do granicy jednostki LCU, pierwszy kolokowany blok jest określany jako niedostępny.
  9. 9. Sposób według zastrz. 6, przy czym pierwszy kolokowany blok jest określony jako niedostępny gdy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU.
  10. 10. Sposób według zastrz. 6, obejmujący ponadto określanie jednego spośród pierwszego kolokowanego bloku i piątego kolokowanego bloku jako bloku do uzyskiwania czasowego wektora predykcji ruchu, w oparciu o dostępność pierwszego kolokowanego bloku, i przy czym jeżeli lokalizacja górnego lewego piksela docelowego bloku predykcji jest (xP, yP), szerokością docelowego bloku predykcji jest nPSW, a wysokością docelowego bloku predykcji jest nPSH, pierwszy kolokowany blok zawiera piksel w (xP+nPSW, yP+nPSH) w kolokowanym obrazie, a piąty kolokowany blok zawiera piksel w (xP+(nPSW>>1), yP+(nPSH>>1)) w kolokowanym obrazie.
  11. 11. Urządzenie do dekodowania wideo, przy czym urządzenie zawiera:
    jednostkę do dekodowania entropijnego skonfigurowaną do dekodowania informacji o rozmiarze największej jednostki kodującej (LCU); i jednostkę inter-predykcji skonfigurowaną do:
    PL 231 159 B1 określania wskaźnika obrazu odniesienia wskazującego obraz odniesienia zawierający kolokowany blok docelowego bloku predykcji, określania kolokowanego bloku docelowego bloku predykcji w oparciu o informacje o rozmiarze LCU dekodowane przez jednostkę do dekodowania entropijnego, przy czym kolokowany blok jest adaptacyjnie określony przez lokalizację docelowego bloku predykcji w jednostce LCU, i określania wektora predykcji ruchu kolokowanego bloku.
  12. 12. Urządzenie według zastrz. 11, przy czym kolokowany blok jest różnie określany w oparciu o to, czy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU.
  13. 13. Urządzenie według zastrz. 11, przy czym kolokowany blok jest różnie określany w oparciu o to, czy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU lub czy prawa granica docelowego bloku predykcji przylega do granicy jednostki LCU.
  14. 14. Urządzenie według zastrz. 11, przy czym kolokowany blok jest określany za pomocą położeń odniesienia pikseli w jednostce LCU.
  15. 15. Urządzenie według zastrz. 11, w którym jeden spośród pierwszego kolokowanego bloku i piątego kolokowanego bloku jest selektywnie określany jako kolokowany blok według tego czy lewa granica lub dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU, i przy czym jeżeli lokalizacją górnego lewego piksela docelowego bloku predykcji jest (xP, yP), szerokością docelowego bloku predykcji jest nPSW, a wysokością docelowego bloku predykcji jest nPSH, pierwszy kolokowany blok zawiera piksel (xP+nPSW, yP+nPSH) w kolokowanym obrazie, a piąty kolokowany blok zawiera piksel (xP+(nPSW>>1), yP+(nPSH>>1)) w kolokowanym obrazie.
  16. 16. Urządzenie do dekodowania wideo, przy czym urządzenie zawiera:
    jednostkę do dekodowania entropijnego skonfigurowaną do dekodowania informacji o rozmiarze największej jednostki kodującej (LCU); jednostkę inter-predykcji skonfigurowaną do:
    określania, w oparciu o informacje o rozmiarze LCU dekodowane przez jednostkę do dekodowania entropijnego, czy granica docelowego bloku predykcji przylega do granicy jednostki LCU, określania dostępności pierwszego kolokowanego bloku według określenia, czy granica docelowego bloku predykcji przylega do granicy jednostki LCU.
  17. 17. Urządzenie według zastrz. 16, w którym, jeśli jest określone, że pierwszy kolokowany blok nie jest dostępny, jednostka predykcji stosuje inny kolokowany blok, różny od pierwszego kolokowanego bloku, do uzyskiwania czasowego wektora predykcji ruchu.
  18. 18. Urządzenie według zastrz. 17, w którym, gdy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU lub gdy prawa granica docelowego bloku predykcji przylega do granicy jednostki LCU, pierwszy kolokowany blok jest określany jako niedostępny.
  19. 19. Urządzenie według zastrz. 16, w którym jednostka predykcji określa, że pierwszy kolokowany blok jest niedostępny, gdy dolna granica docelowego bloku predykcji przylega do granicy jednostki LCU.
  20. 20. Urządzenie według zastrz. 16, w którym jednostka predykcji określa jeden spośród pierwszego kolokowanego bloku i piątego kolokowanego bloku jako blok do uzyskiwania czasowego wektora predykcji ruchu, w oparciu o dostępność pierwszego kolokowanego bloku, i przy czym jeżeli lokalizacją górnego lewego piksela docelowego bloku predykcji jest (xP, yP), szerokością docelowego bloku predykcji jest nPSW, a wysokością docelowego bloku predykcji jest nPSH, pierwszy kolokowany blok zawiera piksel w (xP+nPSW, yP+nPSH) w kolokowanym obrazie, a piąty kolokowany blok zawiera piksel (xP+(nPSW>>1), yP+(nPSH>>1)) w kolokowanym obrazie.
PL407911A 2011-09-09 2012-09-06 Sposób uzyskiwania czasowego predykcyjnego wektora ruchu i urządzenie do stosowania tego sposobu PL231159B1 (pl)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR10-2011-0091782 2011-09-09
KR20110091782 2011-09-09
KR1020120039501A KR101204026B1 (ko) 2011-09-09 2012-04-17 시간적 예측 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치
KR10-2012-0039501 2012-04-17
PCT/KR2012/007174 WO2013036041A2 (ko) 2011-09-09 2012-09-06 시간적 예측 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치

Publications (2)

Publication Number Publication Date
PL407911A1 PL407911A1 (pl) 2015-05-25
PL231159B1 true PL231159B1 (pl) 2019-01-31

Family

ID=47832709

Family Applications (1)

Application Number Title Priority Date Filing Date
PL407911A PL231159B1 (pl) 2011-09-09 2012-09-06 Sposób uzyskiwania czasowego predykcyjnego wektora ruchu i urządzenie do stosowania tego sposobu

Country Status (14)

Country Link
US (4) US10523967B2 (pl)
EP (2) EP3179723B1 (pl)
JP (7) JP5745693B2 (pl)
CN (19) CN104349164B (pl)
AU (1) AU2012305071B2 (pl)
BR (1) BR112013022641B1 (pl)
CA (2) CA2829114C (pl)
ES (1) ES2487993B1 (pl)
GB (7) GB2559227B (pl)
MX (6) MX2013010155A (pl)
PL (1) PL231159B1 (pl)
RU (10) RU2716230C2 (pl)
SE (5) SE1651149A1 (pl)
WO (1) WO2013036041A2 (pl)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120068743A (ko) * 2010-12-17 2012-06-27 한국전자통신연구원 인터 예측 방법 및 그 장치
MX2013010155A (es) 2011-09-09 2013-12-02 Kt Corp Metodo para derivar un vector de movimiento predictivo temporal y aparato que usa el metodo.
GB2557516B (en) 2011-09-23 2018-11-14 Kt Corp Method for inducing a merge candidate block and device using same
WO2015016536A1 (ko) * 2013-07-30 2015-02-05 주식회사 케이티 복수의 레이어를 지원하는 영상의 부호화 및 복호화 방법 및 이를 이용하는 장치
CN105453564B (zh) 2013-07-30 2019-05-10 株式会社Kt 支持多个层的图像编码和解码方法以及使用该方法的装置
CN105453562B (zh) 2013-07-30 2018-12-25 株式会社Kt 支持多个层的图像编码和解码方法以及使用该方法的装置
CN112584139B (zh) * 2014-11-27 2024-08-13 株式会社Kt 对视频信号进行解码或编码的方法
WO2017008255A1 (en) * 2015-07-14 2017-01-19 Mediatek Singapore Pte. Ltd. Advanced intra prediction mode signaling in video coding
US10313765B2 (en) 2015-09-04 2019-06-04 At&T Intellectual Property I, L.P. Selective communication of a vector graphics format version of a video content item
WO2017048008A1 (ko) * 2015-09-17 2017-03-23 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측 방법 및 장치
CN105681788B (zh) * 2016-04-07 2019-05-03 中星技术股份有限公司 视频编码方法和视频编码装置
CN116546205A (zh) * 2016-04-08 2023-08-04 韩国电子通信研究院 用于导出运动预测信息的方法和装置
US10116957B2 (en) * 2016-09-15 2018-10-30 Google Inc. Dual filter type for motion compensated prediction in video coding
KR102471208B1 (ko) 2016-09-20 2022-11-25 주식회사 케이티 비디오 신호 처리 방법 및 장치
WO2018128223A1 (ko) * 2017-01-03 2018-07-12 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측 방법 및 장치
EP3383043A1 (en) * 2017-03-27 2018-10-03 Thomson Licensing Methods and apparatus for picture encoding and decoding
JP6867870B2 (ja) 2017-05-18 2021-05-12 スタンレー電気株式会社 車両用灯具
JP7382332B2 (ja) * 2017-11-01 2023-11-16 ヴィド スケール インコーポレイテッド マージモード用のサブブロック動き導出およびデコーダサイド動きベクトル精緻化
US11570443B2 (en) * 2018-01-25 2023-01-31 Wilus Institute Of Standards And Technology Inc. Method and apparatus for video signal processing using sub-block based motion compensation
US11233996B2 (en) 2018-02-22 2022-01-25 Lg Electronics Inc. Image decoding method and apparatus according to block division structure in image coding system
CN118381904A (zh) 2018-03-21 2024-07-23 Lx 半导体科技有限公司 图像编码/解码设备以及发送图像数据的设备
TWI728388B (zh) 2018-06-29 2021-05-21 大陸商北京字節跳動網絡技術有限公司 Lut中的運動候選的檢查順序
CN114845108B (zh) 2018-06-29 2025-08-12 抖音视界(北京)有限公司 查找表的更新:fifo、约束的fifo
CN110662053B (zh) 2018-06-29 2022-03-25 北京字节跳动网络技术有限公司 使用查找表的视频处理方法、装置和存储介质
TWI752331B (zh) 2018-06-29 2022-01-11 大陸商北京字節跳動網絡技術有限公司 當向Merge/AMVP添加HMVP候選時的部分/完全修剪
WO2020003261A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Selection from multiple luts
WO2020003279A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Concept of using one or multiple look up tables to store motion information of previously coded in order and use them to code following blocks
SG11202013028PA (en) 2018-06-29 2021-01-28 Beijing Bytedance Network Technology Co Ltd Interaction between lut and amvp
TWI744660B (zh) 2018-06-29 2021-11-01 大陸商北京字節跳動網絡技術有限公司 運動估計區域改進
EP3794824A1 (en) 2018-06-29 2021-03-24 Beijing Bytedance Network Technology Co. Ltd. Conditions for updating luts
CN117812256A (zh) * 2018-07-02 2024-04-02 Lg电子株式会社 图像解码设备、图像编码设备和发送设备
WO2020008353A1 (en) 2018-07-02 2020-01-09 Beijing Bytedance Network Technology Co., Ltd. Usage of luts
CN117241039A (zh) * 2018-08-28 2023-12-15 华为技术有限公司 帧间预测方法、装置以及视频编码器和视频解码器
JP7128348B2 (ja) 2018-08-29 2022-08-30 ベイジン・ダジア・インターネット・インフォメーション・テクノロジー・カンパニー,リミテッド サブブロックベースの時間動きベクトル予測を使用するビデオコーディング方法及び装置
GB2590310B (en) 2018-09-12 2023-03-22 Beijing Bytedance Network Tech Co Ltd Conditions for starting checking HMVP candidates depend on total number minus K
WO2020060329A1 (ko) 2018-09-21 2020-03-26 주식회사 엑스리스 영상 신호 부호화/복호화 방법 및 이를 위한 장치
GB2577318B (en) * 2018-09-21 2021-03-10 Canon Kk Video coding and decoding
GB2579763B (en) 2018-09-21 2021-06-09 Canon Kk Video coding and decoding
CN118741154A (zh) 2018-10-10 2024-10-01 三星电子株式会社 视频编解码方法和设备
GB2595053B (en) 2018-10-18 2022-07-06 Canon Kk Video coding and decoding
GB2578151B (en) 2018-10-18 2021-06-09 Canon Kk Video coding and decoding
JP7281890B2 (ja) * 2018-10-24 2023-05-26 シャープ株式会社 動画像符号化装置および動画像復号装置
EP3888356A2 (en) 2018-11-26 2021-10-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Inter-prediction concept using tile-independency constraints
JP7275286B2 (ja) 2019-01-10 2023-05-17 北京字節跳動網絡技術有限公司 Lut更新の起動
WO2020143824A1 (en) * 2019-01-13 2020-07-16 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and shared merge list
WO2020147772A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Motion candidates derivation
CN113615193B (zh) 2019-03-22 2024-06-25 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
KR102662616B1 (ko) 2019-05-21 2024-04-30 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 어파인 모드를 위한 적응적 모션 벡터 차이 해상도
CN113382262B (zh) * 2019-06-21 2022-03-08 杭州海康威视数字技术股份有限公司 预测模式的解码、编码方法及装置
WO2021027774A1 (en) 2019-08-10 2021-02-18 Beijing Bytedance Network Technology Co., Ltd. Subpicture dependent signaling in video bitstreams
WO2021052507A1 (en) * 2019-09-22 2021-03-25 Beijing Bytedance Network Technology Co., Ltd. Sub-picture coding and decoding of video
EP4032290A4 (en) 2019-10-18 2022-11-30 Beijing Bytedance Network Technology Co., Ltd. SYNTAX RESTRICTIONS IN PARAMETER SET SIGNALING OF SUBPICTURES
CN115280774B (zh) 2019-12-02 2025-08-19 抖音视界有限公司 视觉媒体处理的方法、装置及非暂时性计算机可读存储介质
KR102788065B1 (ko) 2020-02-14 2025-03-31 두인 비전 컴퍼니 리미티드 비디오 비트스트림내에 서브픽처 정보 (subpicture information) 시그널링
EP4107941A4 (en) * 2020-03-23 2023-04-19 Beijing Bytedance Network Technology Co., Ltd. PREDICTION REFINEMENT FOR AFFINE MERGE AND AFFINER MOTION VECTOR PREDICTION MODE
CN113840148A (zh) * 2020-06-24 2021-12-24 Oppo广东移动通信有限公司 帧间预测方法、编码器、解码器以及计算机存储介质
CN111698517B (zh) * 2020-06-29 2022-07-12 Oppo广东移动通信有限公司 运动矢量的确定方法、装置、电子设备和可读存储介质
CN113709488B (zh) 2020-06-30 2023-02-28 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备

Family Cites Families (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2003174C1 (ru) * 1990-01-22 1993-11-15 Санкт-Петербургский государственный электротехнический университет им.В.И.Уль нова (Ленина) Способ распознавани изображений
US5508744A (en) 1993-03-12 1996-04-16 Thomson Consumer Electronics, Inc. Video signal compression with removal of non-correlated motion vectors
JP3640318B2 (ja) * 1995-09-01 2005-04-20 インターナショナル・ビジネス・マシーンズ・コーポレーション ディジタル画像の符号化方法及びシステム
AU2001270885A1 (en) 2000-07-20 2002-02-05 Giant Leap Ahead Limited Method and apparatus for determining motion vectors in dynamic images
RU2182727C2 (ru) 2000-07-20 2002-05-20 Дворкович Александр Викторович Способ поиска векторов движения деталей в динамических изображениях
US20030099294A1 (en) * 2001-11-27 2003-05-29 Limin Wang Picture level adaptive frame/field coding for digital video content
KR100446083B1 (ko) * 2002-01-02 2004-08-30 삼성전자주식회사 움직임 추정 및 모드 결정 장치 및 방법
JP2005528709A (ja) * 2002-05-30 2005-09-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 現動きベクトルを推定するユニット及び方法
CN100566420C (zh) 2002-07-15 2009-12-02 株式会社日立制作所 动态图像的编码方法
KR100865034B1 (ko) 2002-07-18 2008-10-23 엘지전자 주식회사 모션 벡터 예측 방법
EP2603001A1 (en) * 2002-10-01 2013-06-12 Thomson Licensing Implicit weighting of reference pictures in a video encoder
US7801217B2 (en) 2002-10-01 2010-09-21 Thomson Licensing Implicit weighting of reference pictures in a video encoder
US7408986B2 (en) * 2003-06-13 2008-08-05 Microsoft Corporation Increasing motion smoothness using frame interpolation with motion analysis
US20040258154A1 (en) 2003-06-19 2004-12-23 Microsoft Corporation System and method for multi-stage predictive motion estimation
US7609763B2 (en) 2003-07-18 2009-10-27 Microsoft Corporation Advanced bi-directional predictive coding of video frames
US20060294113A1 (en) 2003-08-22 2006-12-28 Deepak Turaga Joint spatial-temporal-orientation-scale prediction and coding of motion vectors for rate-distortion-complexity optimized video coding
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
BR0318528A (pt) * 2003-10-09 2006-09-12 Thomson Licensing processo de derivação de modo direto para encobrimento de erros
AU2004310915B2 (en) * 2003-12-01 2008-05-22 Samsung Electronics Co., Ltd. Method and apparatus for scalable video encoding and decoding
KR100597402B1 (ko) 2003-12-01 2006-07-06 삼성전자주식회사 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치
KR100596706B1 (ko) 2003-12-01 2006-07-04 삼성전자주식회사 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치
JP3879741B2 (ja) 2004-02-25 2007-02-14 ソニー株式会社 画像情報符号化装置および画像情報符号化方法
KR100694059B1 (ko) * 2004-09-30 2007-03-12 삼성전자주식회사 멀티 타임 스캔 방식에 기초한 인터 모드 인코딩 및디코딩 방법 및 장치
KR100888962B1 (ko) * 2004-12-06 2009-03-17 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
KR100703770B1 (ko) 2005-03-25 2007-04-06 삼성전자주식회사 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치
US20080192827A1 (en) 2005-04-12 2008-08-14 Koninklijke Philips Electronics, N.V. Video Processing With Region-Based Multiple-Pass Motion Estimation And Update Of Temporal Motion Vector Candidates
KR100896279B1 (ko) * 2005-04-15 2009-05-07 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
JP2006303734A (ja) 2005-04-18 2006-11-02 Victor Co Of Japan Ltd 動画像符号化装置及びそのプログラム
KR20060123939A (ko) 2005-05-30 2006-12-05 삼성전자주식회사 영상의 복부호화 방법 및 장치
US8761258B2 (en) 2005-06-17 2014-06-24 The Hong Kong University Of Science And Technology Enhanced block-based motion estimation algorithms for video compression
CN101253777A (zh) 2005-07-01 2008-08-27 极速决件公司 用于在多媒体信号编码中使用的方法、装置和系统
KR20070038396A (ko) 2005-10-05 2007-04-10 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
KR100728031B1 (ko) * 2006-01-23 2007-06-14 삼성전자주식회사 가변 블록 크기 움직임 예측을 위한 부호화 모드 결정 방법및 장치
KR100949982B1 (ko) 2006-03-30 2010-03-29 엘지전자 주식회사 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치
US20100091845A1 (en) 2006-03-30 2010-04-15 Byeong Moon Jeon Method and apparatus for decoding/encoding a video signal
CN101461242B (zh) 2006-03-30 2011-08-03 Lg电子株式会社 用于解码/编码视频信号的方法和装置
CN101090491B (zh) * 2006-06-16 2016-05-18 香港科技大学 用于视频压缩的增强的基于块的运动估计算法
WO2007148907A1 (en) 2006-06-19 2007-12-27 Lg Electronics, Inc. Method and apparatus for processing a vedeo signal
CN101102503A (zh) 2006-07-07 2008-01-09 华为技术有限公司 视频分层编码层间运动矢量的预测方法
TWI375469B (en) 2006-08-25 2012-10-21 Lg Electronics Inc A method and apparatus for decoding/encoding a video signal
US20080101474A1 (en) * 2006-11-01 2008-05-01 Yi-Jen Chiu Optimizing the storage and reducing the computation of reference picture list processing in video decoding
CN101222638B (zh) * 2007-01-08 2011-12-07 华为技术有限公司 多视视频编解码方法及装置
CN101669367A (zh) 2007-03-02 2010-03-10 Lg电子株式会社 用于解码/编码视频信号的方法及设备
EP2149262A4 (en) 2007-04-25 2010-09-01 Lg Electronics Inc METHOD AND DEVICE FOR DECODING / CODING A VIDEO SIGNAL
CN101119493B (zh) * 2007-08-30 2010-12-01 威盛电子股份有限公司 区块式数字编码图像的译码方法及装置
WO2009050658A2 (en) 2007-10-15 2009-04-23 Nokia Corporation Motion skip and single-loop encoding for multi-view video content
JP2011501555A (ja) 2007-10-16 2011-01-06 エルジー エレクトロニクス インコーポレイティド ビデオ信号処理方法及び装置
US8908765B2 (en) 2007-11-15 2014-12-09 General Instrument Corporation Method and apparatus for performing motion estimation
US9641861B2 (en) 2008-01-25 2017-05-02 Mediatek Inc. Method and integrated circuit for video processing
CN101540902B (zh) * 2008-03-20 2011-02-02 华为技术有限公司 运动矢量的缩放方法和装置、编解码方法和系统
US8990018B2 (en) * 2008-03-31 2015-03-24 MEDIMETRICS Personalized Drug Delivery B.V. Method of preparing a swallowable capsule comprising a sensor
JP2010011075A (ja) * 2008-06-26 2010-01-14 Toshiba Corp 動画像符号化及び動画像復号化の方法及び装置
JP2010016454A (ja) 2008-07-01 2010-01-21 Sony Corp 画像符号化装置および方法、画像復号装置および方法、並びにプログラム
TWI374672B (en) * 2008-07-04 2012-10-11 Univ Nat Taiwan Seamless wireless video transmission for multimedia applications
MX2011000261A (es) 2008-07-10 2011-02-22 Mitsubishi Electric Corp Dispositivo codificador de imagenes, dispositivo descodificador de imagenes, metodo de codificacion de imagenes, y metodo de descodificacion de imagenes.
US8699562B2 (en) * 2008-10-06 2014-04-15 Lg Electronics Inc. Method and an apparatus for processing a video signal with blocks in direct or skip mode
CN101540926B (zh) * 2009-04-15 2010-10-27 南京大学 基于h.264的立体视频编解码方法
CN102883160B (zh) 2009-06-26 2016-06-29 华为技术有限公司 视频图像运动信息获取方法、装置及设备、模板构造方法
KR101456498B1 (ko) 2009-08-14 2014-10-31 삼성전자주식회사 계층적 부호화 단위의 스캔 순서를 고려한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
CN102361671B (zh) 2009-08-20 2013-08-21 金落成 朝前后倾斜椅子而摇荡的秋千
JP2011097572A (ja) * 2009-09-29 2011-05-12 Canon Inc 動画像符号化装置
WO2011070730A1 (ja) 2009-12-07 2011-06-16 日本電気株式会社 映像符号化装置および映像復号装置
CN101860754B (zh) * 2009-12-16 2013-11-13 香港应用科技研究院有限公司 运动矢量编码和解码的方法和装置
KR20110068792A (ko) * 2009-12-16 2011-06-22 한국전자통신연구원 적응적 영상 부호화 장치 및 방법
JP2011151775A (ja) * 2009-12-22 2011-08-04 Jvc Kenwood Holdings Inc 画像復号装置、画像復号方法および画像復号プログラム
KR101522850B1 (ko) 2010-01-14 2015-05-26 삼성전자주식회사 움직임 벡터를 부호화, 복호화하는 방법 및 장치
US9036692B2 (en) 2010-01-18 2015-05-19 Mediatek Inc. Motion prediction method
CN102131094A (zh) * 2010-01-18 2011-07-20 联发科技股份有限公司 运动预测方法
KR20120086232A (ko) 2011-01-25 2012-08-02 (주)휴맥스 율-왜곡 최적화를 위한 영상 부호화/복호화 방법 및 이를 수행하는 장치
US8792740B2 (en) 2010-02-02 2014-07-29 Humax Holdings Co., Ltd. Image encoding/decoding method for rate-distortion optimization and apparatus for performing same
KR101495724B1 (ko) 2010-02-02 2015-02-25 삼성전자주식회사 계층적 데이터 단위의 스캔 순서에 기반한 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
WO2011096770A2 (ko) * 2010-02-02 2011-08-11 (주)휴맥스 영상 부호화/복호화 장치 및 방법
PE20170650A1 (es) * 2010-04-23 2017-05-11 Mandk Holdings Inc Dispositivo de procesamiento de imagenes digitales para codificar una imagen
CN104811734B (zh) 2010-05-04 2018-04-13 Lg电子株式会社 处理视频信号的方法和设备
US9124898B2 (en) 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
PL2613535T3 (pl) * 2010-09-02 2021-10-25 Lg Electronics Inc. Sposób kodowania i dekodowania wideo
KR101033243B1 (ko) * 2010-11-17 2011-05-06 엘아이지넥스원 주식회사 객체 추적 방법 및 장치
US8824558B2 (en) 2010-11-23 2014-09-02 Mediatek Inc. Method and apparatus of spatial motion vector prediction
US8711940B2 (en) * 2010-11-29 2014-04-29 Mediatek Inc. Method and apparatus of motion vector prediction with extended motion vector predictor
US9137544B2 (en) 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
US10142630B2 (en) * 2010-12-10 2018-11-27 Texas Instruments Incorporated Mode adaptive intra prediction smoothing in video coding
KR20120068743A (ko) 2010-12-17 2012-06-27 한국전자통신연구원 인터 예측 방법 및 그 장치
WO2012081949A2 (ko) 2010-12-17 2012-06-21 한국전자통신연구원 인터 예측 방법 및 그 장치
WO2012102021A1 (ja) 2011-01-25 2012-08-02 パナソニック株式会社 動画像符号化方法および動画像復号化方法
US9319716B2 (en) 2011-01-27 2016-04-19 Qualcomm Incorporated Performing motion vector prediction for video coding
EP3136727B1 (en) 2011-04-12 2018-06-13 Sun Patent Trust Motion-video coding method and motion-video coding apparatus
US9247266B2 (en) * 2011-04-18 2016-01-26 Texas Instruments Incorporated Temporal motion data candidate derivation in video coding
MX2013010155A (es) 2011-09-09 2013-12-02 Kt Corp Metodo para derivar un vector de movimiento predictivo temporal y aparato que usa el metodo.
EP2781098B1 (en) * 2011-11-18 2019-02-06 Google Technology Holdings LLC An explicit way for signaling a collocated picture for high efficiency video coding (hevc)
US9392235B2 (en) * 2011-11-18 2016-07-12 Google Technology Holdings LLC Explicit way for signaling a collocated reference picture for video coding
EP2783510A1 (en) * 2011-11-21 2014-10-01 Motorola Mobility LLC Implicit determination and combined implicit and explicit determination of collocated picture for temporal prediction
US9525861B2 (en) 2012-03-14 2016-12-20 Qualcomm Incorporated Disparity vector prediction in video coding
US9445076B2 (en) * 2012-03-14 2016-09-13 Qualcomm Incorporated Disparity vector construction method for 3D-HEVC
US10200709B2 (en) 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
US9503720B2 (en) 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
US9549177B2 (en) 2012-04-11 2017-01-17 Google Technology Holdings LLC Evaluation of signaling of collocated reference picture for temporal prediction
CN104937939B (zh) 2012-04-11 2018-10-23 谷歌技术控股有限责任公司 用于时间运动矢量预测符标志的编码器和解码器及其方法
US9325990B2 (en) * 2012-07-09 2016-04-26 Qualcomm Incorporated Temporal motion vector prediction in video coding extensions

Also Published As

Publication number Publication date
CA2829114A1 (en) 2013-03-14
GB2562635B (en) 2019-04-03
RU2016133566A (ru) 2018-12-10
CN107396098A (zh) 2017-11-24
CN107592528A (zh) 2018-01-16
EP3179723B1 (en) 2023-01-25
US20200084475A1 (en) 2020-03-12
GB201716275D0 (en) 2017-11-22
RU2636117C1 (ru) 2017-11-20
GB2559227B (en) 2018-11-28
GB2508739B (en) 2018-12-05
RU2636118C1 (ru) 2017-11-20
GB2562130B (en) 2019-04-03
AU2012305071A8 (en) 2013-10-31
RU2622849C1 (ru) 2017-06-20
CN107483926A (zh) 2017-12-15
CN107580221A (zh) 2018-01-12
SE1651147A1 (sv) 2016-08-25
RU2016133580A3 (pl) 2020-01-30
JP2016007040A (ja) 2016-01-14
JP2015167373A (ja) 2015-09-24
WO2013036041A2 (ko) 2013-03-14
US10805639B2 (en) 2020-10-13
CN107580218B (zh) 2020-05-12
RU2646384C1 (ru) 2018-03-02
GB201716265D0 (en) 2017-11-22
GB2562635A (en) 2018-11-21
US10523967B2 (en) 2019-12-31
CN106170088A (zh) 2016-11-30
RU2016133570A (ru) 2018-12-10
RU2635235C1 (ru) 2017-11-09
MX381916B (es) 2025-03-13
JP2017098967A (ja) 2017-06-01
GB201716273D0 (en) 2017-11-22
GB2559445A (en) 2018-08-08
JP6322693B2 (ja) 2018-05-09
JP6062507B2 (ja) 2017-01-18
GB2559445B (en) 2018-11-28
GB201321881D0 (en) 2014-01-22
EP2672710B1 (en) 2022-10-26
CN107483928B (zh) 2020-05-12
RU2016133566A3 (pl) 2020-01-30
CN107483928A (zh) 2017-12-15
CN103430550B (zh) 2017-10-13
CN107483929B (zh) 2020-05-12
US20210044832A1 (en) 2021-02-11
CN107396098B (zh) 2020-03-06
JP2015167372A (ja) 2015-09-24
RU2716230C2 (ru) 2020-03-06
CN104349164A (zh) 2015-02-11
BR112013022641B1 (pt) 2022-07-12
MX2013010155A (es) 2013-12-02
RU2716229C2 (ru) 2020-03-06
SE538057C2 (sv) 2016-02-23
GB201809871D0 (en) 2018-08-01
ES2487993R1 (es) 2015-01-27
JP5745693B2 (ja) 2015-07-08
CN107592527B (zh) 2020-05-12
RU2016133579A (ru) 2018-12-10
MX351052B (es) 2017-09-29
EP2672710A4 (en) 2016-08-03
EP3179723A1 (en) 2017-06-14
SE538787C2 (sv) 2016-11-22
CN107404651B (zh) 2020-03-06
AU2012305071B2 (en) 2014-12-11
CN106170088B (zh) 2019-02-19
GB2559227A (en) 2018-08-01
RU2016133580A (ru) 2018-12-10
GB201716270D0 (en) 2017-11-22
CN107580219A (zh) 2018-01-12
CN107483929A (zh) 2017-12-15
CN107580220A (zh) 2018-01-12
RU2016133579A3 (pl) 2020-01-30
ES2487993A2 (es) 2014-08-25
CN107483926B (zh) 2020-06-05
MX338137B (es) 2016-04-05
CN103430550A (zh) 2013-12-04
US20150208093A1 (en) 2015-07-23
CN107635140B (zh) 2020-12-08
US20130343461A1 (en) 2013-12-26
RU2716563C2 (ru) 2020-03-12
ES2487993B1 (es) 2015-09-29
CN104349164B (zh) 2018-02-02
JP5993484B2 (ja) 2016-09-14
CN107580221B (zh) 2020-12-08
CN107396099B (zh) 2020-03-06
MX351041B (es) 2017-09-29
RU2600547C2 (ru) 2016-10-20
US11089333B2 (en) 2021-08-10
BR112013022641A2 (pl) 2017-09-21
CN107580219B (zh) 2020-12-08
GB2508739A (en) 2014-06-11
SE1351475A1 (sv) 2014-06-09
BR112013022641A8 (pt) 2017-09-12
CN107592529B (zh) 2020-05-12
GB2559226B (en) 2018-11-28
RU2013140661A (ru) 2015-10-20
JP6062480B2 (ja) 2017-01-18
SE1651149A1 (sv) 2016-08-25
JP2018139422A (ja) 2018-09-06
JP6062508B2 (ja) 2017-01-18
GB2562129A (en) 2018-11-07
GB2562130A (en) 2018-11-07
CN107635140A (zh) 2018-01-26
AU2012305071A1 (en) 2013-10-03
CN107404651A (zh) 2017-11-28
CN107483925A (zh) 2017-12-15
GB2559226A (en) 2018-08-01
CN107396099A (zh) 2017-11-24
JP2014520477A (ja) 2014-08-21
PL407911A1 (pl) 2015-05-25
CA2937483C (en) 2017-09-05
RU2716231C2 (ru) 2020-03-06
SE1651148A1 (sv) 2016-08-25
JP6619045B2 (ja) 2019-12-11
CN107483925B (zh) 2020-06-19
CA2829114C (en) 2016-11-22
SE1551592A1 (sv) 2015-12-03
GB201716271D0 (en) 2017-11-22
WO2013036041A3 (ko) 2013-05-02
MX381917B (es) 2025-03-13
CN107483927B (zh) 2020-06-05
CN107592528B (zh) 2020-05-12
GB2559445A8 (en) 2018-10-03
EP2672710A2 (en) 2013-12-11
CN107592529A (zh) 2018-01-16
CA2937483A1 (en) 2013-03-14
CN107483927A (zh) 2017-12-15
JP2016007039A (ja) 2016-01-14
GB2562129B (en) 2019-04-03
CN107592527A (zh) 2018-01-16
CN107580218A (zh) 2018-01-12
CN107580220B (zh) 2020-06-19
RU2016133570A3 (pl) 2020-01-30

Similar Documents

Publication Publication Date Title
PL231159B1 (pl) Sposób uzyskiwania czasowego predykcyjnego wektora ruchu i urządzenie do stosowania tego sposobu
KR102551609B1 (ko) 비디오 신호 처리 방법 및 장치
US20240291973A1 (en) Image encoding/decoding method and device
KR102551311B1 (ko) 비디오 신호 부호화/복호화 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체
AU2015200360B2 (en) Method for deriving a temporal predictive motion vector, and apparatus using the method
KR101204026B1 (ko) 시간적 예측 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치
AU2016216719B2 (en) Method for deriving a temporal predictive motion vector, and apparatus using the method