PL231926B1 - Sposób wywoływania bloku kandydatów łączących - Google Patents

Sposób wywoływania bloku kandydatów łączących

Info

Publication number
PL231926B1
PL231926B1 PL407774A PL40777412A PL231926B1 PL 231926 B1 PL231926 B1 PL 231926B1 PL 407774 A PL407774 A PL 407774A PL 40777412 A PL40777412 A PL 40777412A PL 231926 B1 PL231926 B1 PL 231926B1
Authority
PL
Poland
Prior art keywords
block
prediction
candidates
mer
spatial
Prior art date
Application number
PL407774A
Other languages
English (en)
Other versions
PL407774A1 (pl
Inventor
Bae Keun Lee
Jae Cheol Kwon
Joo Young Kim
Original Assignee
Kt Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020120039500A external-priority patent/KR101197176B1/ko
Application filed by Kt Corp filed Critical Kt Corp
Publication of PL407774A1 publication Critical patent/PL407774A1/pl
Publication of PL231926B1 publication Critical patent/PL231926B1/pl

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

Opis wynalazku
Niniejszy wynalazek dotyczy sposobu kodowania i dekodowania wideo, a bardziej szczegółowo sposobu uzyskiwania bloku kandydatów łączących.
Ostatnio zapotrzebowanie na wideo o wysokiej rozdzielczości i wysokiej jakości, takie jak wideo high definition (HD) i wideo ultra high definition (UHD) wzrosło w wielu obszarach zastosowań. Rozdzielczość i jakość wideo stały się wyższe, ilość wideo stosunkowo wzrasta w porównaniu z istniejącym wideo, a tym samym w przypadku, gdy wideo jest transmitowane przy pomocy ośrodka takiego jak istniejąca przewodowa lub bezprzewodowa sieć szerokopasmowa lub przechowywane w istniejącym nośniku pamięci, koszt transmisji i koszt przechowywania zwiększają się. Aby rozwiązać te problemy powstałe wraz ze wzrostem rozdzielczości i jakości, można wykorzystać techniki kompresji wideo o wysokiej wydajności.
Techniki kompresji wideo obejmują różne techniki, takie jak technika predykcji razowej do przewidywania wartości piksela zawartego w bieżącym obrazie na podstawie poprzedniego lub następnego obrazu względem bieżącego obrazu, technika predykcji wewnątrzobrazowej do przewidywania wartości piksela zawartego w bieżącym obrazie przy pomocy informacji o pikselach w bieżącym obrazie i technika kodowania entropijnego do przypisywania krótszego kodu do wartości częstotliwości o wysokim występowaniu i przypisywania dłuższego kodu do wartości częstotliwości o niskim występowaniu, przy czym dane wideo można skutecznie kompresować, aby je transmitować lub przechowywać przy pomocy takiej techniki kompresji wideo.
Celem niniejszego wynalazku jest zapewnienie sposobu uzyskiwania kandydata łączącego przy równoległym przetwarzaniu.
Niniejszy opis ujawnia również urządzenie do wykonywania sposobu uzyskiwania kandydata łączącego przy równoległym przetwarzaniu.
Według przedmiotu niniejszego wynalazku, aby osiągnąć cel niniejszego wynalazku opisany powyżej, zapewnia się sposób uzyskiwania kandydata łączącego. Sposób może obejmować dekodowanie informacji dotyczących obszaru szacowania ruchu (MER - motion estimation region); określanie, czy blok obiektów predykcyjnych i blok przestrzennych kandydatów łączących są zawarte w tym samym MER; i ustanawianie bloku przestrzennych kandydatów łączących jako niedostępnego bloku kandydatów łączących, jeżeli określa się blok kandydatów łączących, który nie stosuje bloku przestrzennych kandydatów łączących, gdy blok obiektów predykcyjnych i blok przestrzennych kandydatów łączących są zawarte w tym samym MER. Sposób może ponadto obejmować adaptacyjne określanie bloku przestrzennych kandydatów łączących według rozmiaru MER i rozmiaru bloku obiektów predykcyjnych, jeżeli blok obiektów predykcyjnych i blok przestrzenn ych kandydatów łączących zawarte są w tym samym MER. Jeżeli rozmiar MER jest równy 8x8, a rozmiar bloku obiektów predykcyjnych jest równy 8x4 lub 4x8, co najmniej jeden z bloków przestrzennych kandydatów łączących z bloku obiektów predykcyjnych może zostać zastąpiony blokiem zawierającym punkt znajdujący się poza MER. Sposób może obejmować ponadto określanie, czy blok przestrzennych kandydatów łączących zawiera się w MER, który nie był jeszcze dekodowany. Sposób może ponadto obejmować zastąpienie bloku przestrzennych kandydatów łączących blokiem zawartym w innym MER, jeżeli blok obiektów predykcyjnych i blok przestrzennych kandydatów łączących zawarte są w tym samym MER. Zastąpiony blok przestrzennych kandydatów łączących może być blokiem przestrzennych kand ydatów łączących, który jest adaptacyjnie zastępowany, aby zawierał się w MER innym niż blok obiektów predykcyjnych według lokalizacji bloku przestrzennych kandydatów łączących zawartego w tym samym MER. Informacje dotyczące MER mogą być informacjami dotyczącymi rozmiaru MER i transmitowanymi w jednostce obrazu. Określenie, czy blok obiektów predykcyjnych i blok przestrzennych kandydatów łączących zawarte są w tym samym MER może polegać na określeniu, czy blok obiektów predykcyjnych i blok przestrzennych kandydatów łączących zawarte są w tym samym MER według równania określającego opartego na informacjach o lokalizacji bloku obiektów predykcyjnych, informacjach o lokalizacji bloku przestrzennych kandydatów łączących i informacjach o rozmiarze MER.
Sposób według wynalazku można wykonać w urządzeniu do dekodowania obrazu. Urządzenie może zawierać jednostkę dekodowania entropijnego do dekodowania informacji dotyczących obszaru szacowania ruchu (MER); i jednostkę predykcyjną do określania, czy blok obiektów predykcyjnych i blok przestrzennych kandydatów łączących są zawarte w tym samym MER i ustanawiania bloku przestrzenPL 231 926 B1 nych kandydatów łączących jako niedostępnego bloku kandydatów łączących, jeżeli blok obiektów predykcyjnych i blok przestrzennych kandydatów łączących są zawarte w tym samym MER. Jednostka predykcyjna może być jednostką predykcyjną, która adaptacyjnie określa blok przestrzennych kandydatów łączących według rozmiaru MER i rozmiaru bloku obiektów predykcyjnych, jeżeli blok obiektów predykcyjnych i blok przestrzennych kandydatów łączących zawarte są w tym samym MER. Jeżeli rozmiar MER jest równy 8x8, a rozmiar bloku obiektów predykcyjnych jest równy 8x4 lub 4x8, jednostka predykcyjna może zastąpić co najmniej jeden z bloków przestrzennych kandydatów łączących z bloku obiektów predykcyjnych blokiem zawierającym punkt znajdujący się poza MER. Jednostka predykcyjna może określać, czy blok przestrzennych kandydatów łączących zawiera się w MER, który nie był jeszcze dekodowany. Jednostka predykcyjna może być jednostką predykcyjną, która zastępuje blok przestrzennych kandydatów łączących blokiem zawartym w innym MER, gdy blok obiektów predykcyjnych i blok przestrzennych kandydatów łączących zawarte są w tym samym MER. Zastąpiony blok przestrzennych kandydatów łączących może być blokiem przestrzennych kandydatów łączących, który jest adaptacyjnie zastępowany, aby zawierał się w MER innym niż blok obiektów predykcyjnych według lokalizacji bloku przestrzennych kandydatów łączących zawartego w tym samym MER. Informacje dotyczące MER mogą być informacjami dotyczącymi rozmiaru MER i transmitowanymi w jednostce obrazu. Jednostka predykcyjna może być jednostką predykcyjną, która określa, czy blok obiektów predykcyjnych i blok przestrzennych kandydatów łączących zawarte są w tym samym MER w oparciu o równanie określające według informacji o lokalizacji bloku obiektów predykcyjnych, informacji o lokalizacji bloku przestrzennych kandydatów łączących i informacji o rozmiarze MER.
Według sposobu uzyskiwania bloku kandydatów łączących według wynalazku i urządzenia go stosującego opisanych w przykładach wykonania niniejszego wynalazku, równoległe przetwarzanie można osiągnąć poprzez wykonywanie sposobu uzyskiwania bloku kandydatów łączących równolegle, a tym samym można zmniejszyć jakość obliczeniową i złożoność implementacji.
Fig. 1 jest diagramem blokowym ilustrującym koder wideo.
Fig. 2 jest diagramem blokowym ilustrującym dekoder wideo.
Fig. 3 jest widokiem koncepcyjnym ilustrującym bloki kandydatów do zastosowania trybu łączenia i trybu pomijania według przykładu wykonania niniejszego wynalazku.
Fig. 4 jest widokiem koncepcyjnym ilustrującym sposób ustanawiania bloku kandydatów łączących według przykładu wykonania niniejszego wynalazku.
Fig. 5 jest widokiem koncepcyjnym ilustrującym sposób ustanawiania bloku kandydatów łączących według rozmiaru MER według przykładu wykonania niniejszego wynalazku.
Fig. 6 jest widokiem koncepcyjnym ilustrującym sposób określania, czy blok przestrzennych kandydatów łączących z bieżącego bloku jest dostępny.
Fig. 7 jest schematem blokowym ilustrującym sposób otrzymywania bloku przestrzennych kandydatów łączących w trybie łączenia według przykładu wykonania niniejszego wynalazku.
Fig. 8 jest schematem blokowym ilustrującym sposób predykcji międzyobrazowej stosującej tryb łączenia według przykładu wykonania niniejszego wynalazku.
Podczas gdy można dokonać różnych modyfikacji i przykładów wykonania, jedynie konkretne przykłady wykonania zostaną dokładniej opisane niniejszym w odniesieniu do załączonych rysunków. Jednakże niniejszego wynalazku nie powinno się interpretować jako ograniczonego jedynie do niniejszym przedstawionych przykładów wykonania, a raczej powinien on być rozumiany jako obejmujący wszystkie modyfikacje, odpowiedniki lub alternatywy objęte zakresem i określeniami technicznymi wynalazku. Podobne liczby odnoszą się do podobnych elementów na wszystkich rysunkach.
Należy rozumieć, że chociaż niniejszym stosuje się określenia pierwszy, drugi etc., aby opisać różne elementy, elementy te nie powinny być ograniczone przez te określenia. Określenia te stosuje się jedynie, aby odróżnić jeden element od innego elementu. Na przykład pierwszy element można określić jako drugi element, nie wykraczając poza ujawnienia niniejszego wynalazku, i podobnie drugi element można określić jako pierwszy element. Określenie „i/lub” obejmuje kombinację wielości powiązanych wyszczególnionych elementów lub którykolwiek z wielości powiązanych wyszczególnionych elementów.
Należy rozumieć, że gdy cechę lub element określa się jako „połączony” lub „sprzężony” z inną cechą lub elementem, może być on bezpośrednio połączony lub sprzężony z innym elementem lub mogą być obecne elementy pośredniczące. Natomiast gdy cechę lub element określa się jako „bezpośrednio połączony” lub „bezpośrednio sprzężony” z innym elementem, należy rozumieć, że nie są tam obecne elementy pośredniczące.
PL 231 926 B1
Niniejszym stosowana terminologia ma na celu opisanie jedynie poszczególnych przykładów wykonania i nie ma ograniczać przykładów wykonania wynalazku. Formy w liczbie pojedynczej mają obejmować również formy w liczbie mnogiej, chyba że kontekst wyraźnie wskazuje inaczej. Należy rozumieć, że określenia „zawiera”, „obejmuje” w stosownym tu znaczeniu określają obecność podanych cech, całości, etapów, operacji, elementów, komponentów lub dowolnych ich kombinacji, ale nie wykluczają obecności lub dodania jednej lub więcej cech, całości, etapów, operacji, elementów, komponentów lub dowolnych ich kombinacji.
W dalszej części niniejszy wynalazek zostanie szczegółowo opisany w odniesieniu do załączonych rysunków. W dalszej części te same odnośniki numeryczne stosuje się we wszystkich rysunkach dla odniesienia do tych samych części, przy czym pominięte zostaną powtarzające się objaśnienia tych samych części.
Fig. 1 jest diagramem blokowym ilustrującym przykład wykonania kodera wideo.
W odniesieniu do fig. 1, koder 100 wideo może zawierać moduł 110 podziału obrazu, moduł 120 predykcji międzyobrazowej (inter predykcja), moduł 125 predykcji wewnątrzobrazowej (intra predykcja), moduł 130 przekształcania, moduł 135 kwantyzacji, moduł 160 przestawiania, moduł 165 kodowania entropijnego, moduł 140 dekwantyzacji, moduł 145 odwrotnego przekształcenia, moduł 150 filtrowania i pamięć 155.
Każdy moduł przedstawiony na fig. 1 jest niezależnie zilustrowany, aby zapewniać różne cechy funkcji w koderze wideo i nie ma to oznaczać, że każdy moduł jest skonfigurowany jako osobny sprzęt komputerowy lub jednostka składnika oprogramowania. Oznacza to, że każdy moduł jest wyszczególniony jako kolejny element dla celów ilustracyjnych i co najmniej dwa moduły spośród modułów mogą być połączone w jeden element lub jeden moduł może być podzielony na liczne elementy, aby wykonywać funkcję, przy czym przykład wykonania, w którym kolejne moduły są połączone lub podzielone objęty jest zakresem zastrzeżeń niniejszego wynalazku, nie wykraczając poza istotę niniejszego wynalazku.
Co więcej, część elementów może nie być niezbędnym elementem do wykonania zasadniczej funkcji w niniejszym wynalazku, a jedynie selektywnym elementem do poprawy wydajności. Niniejszy wynalazek można zrealizować jedynie za pomocą elementów zasadniczych dla realizacji istoty niniejszego wynalazku i wyłączając elementy stosowane jedynie do poprawy wydajności, przy czym konfiguracja obejmująca jedynie zasadnicze elementy z wyłączeniem selektywnych elementów, które stosuje się jedynie do poprawy wydajności, również objęta jest zakresem zastrzeżeń niniejszego wynalazku.
Moduł 110 podziału obrazu może dzielić obraz wejściowy na co najmniej jedną jednostkę przetwarzającą. Tutaj jednostką przetwarzającą może być jednostka predykcyjna (PU), jednostka przekształcająca (TU) lub jednostka kodująca (CU). Moduł 110 podziału obrazu może dzielić jeden obraz na kombinację licznych jednostek kodujących, jednostek predykcyjnych i jednostek przekształcających oraz może kodować obraz, wybierając jedną kombinację jednostki kodującej, jednostki (jednostek) predykcyjnej i jednostki (jednostek) przekształcających w oparciu o wstępnie określone kryterium (na przykład funkcję kosztu).
Na przykład jeden obraz można podzielić na liczne jednostki kodujące. Aby podzielić jednostkę kodującą, można zastosować rekurencyjną strukturę drzewa, taką jak czwórkowa struktura drzewa, a jednostkę kodującą, która dzielona jest na inne jednostki kodujące z obrazem lub największą jednostką kodującą w postaci korzenia, można podzielić tak, aby miała tyle węzłów dzieci co podzielonych jednostek kodujących. Jednostka kodująca, która nie jest już dalej dzielona według pewnego ograniczenia, staje się węzłem liściem. Innymi słowy, gdy przyjmuje się, że jedynie kwadratowy podział jest dostępny dla pojedynczej jednostki kodującej, pojedynczą jednostkę kodującą można podzielić na maksymalnie cztery różne jednostki kodujące.
W dalszej części w przykładach wykonania sposobu według niniejszego wynalazku jednostkę kodującą można zastosować dla odniesienia nie tylko do jednostki do kodowania, ale również jednostki do dekodowania.
Jednostka predykcyjna może zostać podzielona na kształt kwadratu lub prostokąta o tym samym rozmiarze w pojedynczej jednostce kodującej.
Podczas generowania jednostki predykcyjnej do wykonywania predykcji wewnątrzobrazowej (intra predykcja) w oparciu o jednostkę kodującą, jeżeli jednostka kodująca nie jest najmniejszą jednostką kodującą, predykcję wewnątrzobrazową można wykonać bez podziału na liczne jednostki predykcyjne w jednostce NxN.
PL 231 926 B1
Moduł predykcji może zawierać moduł 120 predykcji międzyobrazowej (inter predykcja) do wykonywania predykcji międzyobrazowej i moduł 125 predykcji wewnątrzobrazowej do wykonywania predykcji wewnątrzobrazowej. W odniesieniu do jednostki predykcyjnej, moduł predykcji może określać, czy wykonać predykcję międzyobrazową lub czy wykonać predykcję wewnątrzobrazową, przy czym można określić konkretne informacje (np. tryb predykcji wewnątrzobrazowej, wektor ruchu, obraz odniesienia etc.) według każdego sposobu predykcji. Tutaj jednostka przetwarzająca do wykonywania predykcji i jednostka przetwarzająca do określania sposobu predykcji i konkretnego szczegółu mogą być różne. Na przykład sposób predykcji i tryb predykcji można określić w jednostce predykcyjnej, a predykcję można wykonać w jednostce przekształcającej. Wartość rezydualną (blok rezydualny) między wygenerowanym blokiem predykcyjnym a oryginalnym blokiem można wprowadzić do modułu 130 przekształcenia. Co więcej, informacje o trybie predykcji, informacje o wektorze ruchu etc. stosowane do predykcji można kodować w module 135 kodowania entropijnego wraz z wartością rezydualną do transmisji do dekodera. Gdy stosuje się konkretny tryb kodowania, możliwe jest, że blok predykcyjny nie jest generowany przez moduł 120, 125 predykcji, ale koduje się oryginalny blok, ponieważ ma ona zostać transmitowany do dekodera.
Moduł predykcji międzyobrazowej może przewidzieć jednostkę predykcyjną w oparciu o informacje o co najmniej jednym obrazie spośród obrazów przed lub po bieżącym obrazie. Moduł predykcji międzyobrazowej może zawierać moduł interpolacji obrazu odniesienia, moduł predykcji ruchu i moduł kompensacji ruchu.
Moduł interpolacji obrazu odniesienia może być wyposażony w informacje o obrazie odniesienia z pamięci 155 i może generować informacje o pikselach w mniej niż całkowitej jednostce piksela z obrazu odniesienia. W przypadku piksela luma można zastosować filtr interpolacyjny z 8-krotnym próbkowaniem oparty na DCT, w którym współczynnik filtra jest zmienny, do generowania informacji o pikselach poniżej całkowitej jednostki piksela o jednostkę 1/4 piksela. W przypadku sygnału chroma można zastosować filtr interpolacyjny z 8-krotnym próbkowaniem oparty na DCT, w którym współczynnik filtra jest zmienny, do generowania informacji o pikselach poniżej całkowitej jednostki piksela o jednostkę 1/8 piksela.
Moduł predykcji ruchu może wykonać predykcję ruchu w oparciu o obraz odniesienia interpolowany za pomocą modułu interpolacji obrazu odniesienia. W przypadku sposobu otrzymywania wektora ruchu można zastosować różne sposoby, takie jak FBMA (algorytm dopasowujący bloki oparty na pełnym wyszukiwaniu), TSS (trójetapowe wyszukiwanie) lub NTS (nowy algorytm trójetapowego wyszukiwania). Wektor ruchu może mieć wartość wektora ruchu w jednostce 1/2 lub 1/4 piksela w oparciu o interpolowany piksel. Moduł predykcji ruchu może przewidywać bieżącą jednostkę predykcyjną poprzez zmienianie sposobu predykcji ruchu. Jako sposób predykcji ruchu można zastosować różne sposoby, takie jak tryb pomijania, tryb łączenia lub tryb zaawansowanej predykcji (AMVP) wektora ruchu.
Według przykładów wykonania sposobu według niniejszego wynalazku, przy wykonywaniu predykcji międzyobrazowej, aby wykonać predykcję równolegle, można określić obszar (MER) szacowania ruchu. Na przykład podczas wykonywania predykcji międzyobrazowej przy pomocy trybu łączenia lub trybu pomijania można określić, czy blok obiektów predykcyjnych i blok przestrzennych kandydatów łączących zawierają się w tym samym MER, a gdy blok obiektów predykcyjnych i blok przestrzen nych kandydatów łączących nie zawierają się w tym samym MER, blok przestrzennych kandydatów łączących można określić jako niedostępny lub blok kandydatów łączących można określić poprzez określenie, czy blok przestrzennych kandydatów łączących zawiera się w MER, który nie został jeszcze dekodowany. W dalszej części w przykładach wykonania sposobu według wynalazku opisane jest działanie jednostki predykcyjnej podczas wykonywania predykcji międzyobrazowej.
Jednostka predykcji międzyobrazowej może wygenerować jednostkę predykcyjną w oparciu o informacje o pikselach odniesienia sąsiadujących z bieżącym blokiem, gdzie piksele odniesienia są pikselami w bieżącym obrazie. Jeżeli blok sąsiadujący z bieżącą jednostką predykcyjną jest blokiem, na którym wykonuje się predykcję międzyobrazową, piksele odniesienia zawarte w bloku, na którym wykonuje się predykcję międzyobrazową, mogą zostać zastąpione pikselami odniesienia z sąsiadującego bloku, na którym wykonuje się predykcję wewnątrzobrazową. Innymi słowy, gdy piksel odniesienia nie jest dostępny, piksele odniesienia, które nie są dostępne mogą zostać zastąpione co najmniej jednym pikselem odniesienia spośród dostępnych pikseli odniesienia.
Predykcja wewnątrzobrazowa (intra predykcja) może mieć kierunkowe tryby predykcji, które stosują informacje o pikselach odniesienia według kierunku predykcji i niekierunkowe tryby, które nie stosują informacji kierunkowych podczas wykonywania predykcji. Tryb do przewidywania informacji na
PL 231 926 B1 próbkach luma i tryb do przewidywania informacji na próbkach chroma mogą się różnić. Ponadto informacje o trybie predykcji wewnątrzobrazowej, który stosuje się dla próbek luma lub informacje o przewidywanym sygnale luma można wykorzystać do przewidzenia informacji o próbkach chroma.
W przypadku, gdy rozmiar jednostki predykcyjnej i rozmiar jednostki przekształcającej są takie same podczas wykonywania predykcji wewnątrzobrazowej, predykcję wewnątrzobrazową można wykonać na jednostce predykcyjnej w oparciu o piksele, które występują w lewej części jednostki predykcyjnej, piksele, które występują w lewym górnym obszarze i piksele, które występują w górnym obszarze. Jednakże w przypadku, gdy rozmiar jednostki predykcyjnej i rozmiar jednostki przekształcającej są różne podczas wykonywania predykcji wewnątrzobrazowej, predykcję wewnątrzobrazową można wykonać przy pomocy pikseli odniesienia w oparciu o jednostkę przekształcającą. Co więcej, można zastosować predykcję wewnątrzobrazową, która stosuje podział NxN jedynie w odniesieniu do najmniejszej jednostki kodującej.
W sposobie predykcji wewnątrzobrazowej (intra predykcja), według trybu predykcji, można zastosować dla piksela odniesienia filtr wygładzania wewnątrzobrazowego (MDIS) zależny od trybu, aby wygenerować blok predykcyjny. Rodzaj filtra MDIS, który stosuje się dla piksela odniesienia może być inny. Aby wykonać predykcję wewnątrzobrazową, tryb predykcji wewnątrzobrazowej bieżącej jednostki predykcyjnej można przewidzieć na podstawie trybu predykcji wewnątrzobrazowej jednostki predykcyjnej sąsiadującej z bieżącą jednostką predykcyjną. Podczas przewidywania trybu predykcji bieżącej jednostki predykcyjnej przy pomocy informacji o trybie przewidzianych na podstawie sąsiadującej jednostki predykcyjnej, jeżeli tryby predykcji wewnątrzobrazowej bieżącej jednostki predykcyjnej i sąsiadującej jednostki predykcyjnej są takie same, informacje o tym, że tryby predykcji bieżącej jednostki predykcyjnej i sąsiadującej jednostki predykcyjnej są takie same można transmitować przy pomocy wstępnie określonych informacji o znaczniku, a jeżeli tryby predykcji bieżącej jednostki predykcyjnej i sąsiadującej jednostki predykcyjnej różnią się, informacje o trybie predykcji bieżącego bloku można dekodować za pomocą kodowania entropijnego.
Co więcej, blok rezydualny zawierający informacje o wartości rezydualnej, która stanowi różnicę między jednostką predykcyjną, na której wykonuje się predykcję w oparciu o jednostkę predykcyjną wygenerowaną w module 120, 125 predykcji a oryginalnym blokiem jednostki predykcyjnej. Wygenerowany blok rezydualny można wprowadzić do modułu 130 przekształcenia. Moduł 130 przekształcenia może przekształcać blok rezydualny zawierający informacje o wartości rezydualnej oryginalnego bloku i jednostkę predykcyjną wygenerowaną w module 120, 125 predykcji przy pomocy sposobu przekształcania, takiego jak dyskretna transformacja kosinusowa (discrere cosine tranform - DCT) lub dyskretna transformacja sinusowa (disrete sine transform DST). To, czy zastosować DCT czy DST do przekształcenia bloku rezydualnego można określić w oparciu o informacje o trybie predykcji wewnątrzobrazowej jednostki predykcyjnej stosowanej do generowania bloku rezydualnego.
Moduł 135 kwantyzacji może kwantyzować wartości przekształcone do domeny częstotliwości przez moduł 130 przekształcenia. Zależnie od bloku i znaczenia obrazu parametr kwantyzacji może się zmieniać. Wartość wyprowadzona za pomocą modułu 135 kwantyzacji może zostać dostarczona do modułu 140 dekwantyzacji i modułu 160 przestawiania.
Moduł 160 przestawiania może przestawić kwantyzowaną wartość współczynnika w odniesieniu do wartości rezydualnej.
Moduł 160 przestawiania może zmodyfikować współczynnik dwuwymiarowej tablicy w postaci bloku do postaci jednowymiarowego wektora poprzez sposób skanowania współczynnika. Na przykład w module 160 przestawiania może być skanowany ze współczynnika DC na współczynnik w domenie wysokiej częstotliwości, aby zostać przestawionym do postaci jednowymiarowego wektora przy pomocy trybu skanowania diagonalnego. Według rozmiaru jednostki przekształcającej i trybu predykcji wewnątrzobrazowej, zamiast trybu skanowania diagonalnego można zastosować tryb skanowania pionowego skanujący dwuwymiarowe współczynniki w postaci bloku w kierunku kolumnowym lub tryb skanowania poziomego skanujący dwuwymiarowe współczynniki w postaci bloku w kierunku rzędów. Innymi słowy, można określić, który tryb skanowania spośród trybu skanowania diagonalnego, trybu skanowania pionowego i trybu skanowania poziomego stosuje się według rozmiaru jednostki przekształcającej i trybu predykcji wewnątrzobrazowej.
Moduł 165 kodowania entropijnego wykonuje kodowanie entropijne w oparciu o wartości wyprowadzone z modułu 160 przestawiania. Kodowanie entropijne może stosować różne sposoby kodowania, takie jak na przykład wykładnicze kodowanie Golomba, binarne kodowanie arytmetyczne (ContextAdaptive Binary Arithmetic Coding CAB AC) adaptacyjne względem kontekstu.
PL 231 926 B1
Jednostka 165 kodowania entropijnego może kodować różne informacje, takie jak informacje o współczynniku rezydualnym jednostki kodującej i informacje o rodzaju bloku, informacje o trybie predykcji, informacje o jednostce podziałowej, informacje o jednostce predykcyjnej, informacje o jednostce transmisyjnej, informacje o wektorze ruchu, informacje o obrazie odniesienia, informacje o interpolacji dla bloku, informacje o filtrowaniu, informacje o MER etc. z modułu 160 przestawiania i modułu 120, 125 predykcji.
Jednostka 165 kodowania entropijnego może wykonywać kodowanie entropijne na wartości współczynnika w jednostce kodującej wprowadzanej z modułu 160 przestawiania przy pomocy sposobu kodowania entropijnego, takiego jak CABAC.
Moduł 140 dekwantyzacji i moduł 145 odwrotnego przekształcenia dekwantyzuje wartości kwantyzowane za pomocą modułu 135 kwantyzacji i odwrotnie przekształca wartości przekształcone za pomocą modułu 130 przekształcenia. Wartość rezydualną wygenerowaną przez moduł 140 dekwantyzacji i moduł 145 odwrotnego przekształcenia można dodać do jednostki predykcyjnej przewidzianej przez moduł szacowania ruchu, moduł kompensacji ruchu i moduł predykcji wewnątrzobrazowej (intra predykcji) zawarte w module 120 i 125 predykcji, aby wygenerować zrekonstruowany blok.
Moduł 150 filtrowania może zawierać co najmniej jeden spośród filtra odblokowującego, modułu korekcji offsetu i adaptacyjnego filtra (ALF) pętli.
Filtr odblokowujący może usuwać zniekształcenie bloku, które powstaje ze względu na granicę między blokami w zrekonstruowanym obrazie. Aby określić, czy wykonać filtrowanie odblokowujące, można określić, czy zastosować filtr odblokowujący w bieżącym bloku w oparciu o piksele zawarte w kilku kolumnach lub rzędach zawartych w bloku. Podczas stosowania filtra odblokowującego w bloku, można zastosować silny filtr lub słaby filtr w zależności od wymaganej siły filtrowania odblokowującego. Co więcej, stosując filtr odblokowujący, podczas wykonywania filtrowania pionowego i filtrowania poziomego, filtrowanie w kierunku poziomym i filtrowanie w kierunku pionowym można przeprowadzać równolegle.
Moduł korekcji offsetu może korygować offset względem oryginalnego obrazu za pomocą jednostki piksela w odniesieniu do obrazu, na którym wykonuje się filtrowanie odblokowujące. Aby wykonać korekcję offsetu w odniesieniu do konkretnego obrazu, można zastosować sposób klasyfikacji pikseli zawartych w obrazie do wstępnie określonej liczby obszarów, określania obszaru, na którym offset ma zostać wykonany i stosowania offsetu w odpowiadającym obszarze lub sposób stosowania offsetu poprzez uwzględnienie informacji o krawędziach każdego piksela.
Adaptacyjny filtr (ALF) pętli może wykonywać filtrowanie w oparciu o porównanie filtrowanego zrekonstruowanego obrazu i oryginalnego obrazu. Po klasyfikacji pikseli zawartych w obrazie do wstępnie określonych grup i określeniu filtra do zastosowania dla odpowiedniej grupy, następnie można zastosować filtrowanie dla każdej określonej grupy w inny sposób z każdym filtrem. Informacje o tym, czy zastosować filtr ALF można transmitować za pomocą jednostki kodującej (CU), a rozmiar i współczynnik ALF do zastosowania mogą zmieniać się dla każdego bloku. ALF może mieć różne kształty i dlatego liczba współczynników w filtrze może być inna dla każdego filtra. Informacje dotyczące filtrowania dla ALF (informacje o współczynnikach filtra, informacje o włączeniu/wyłączeniu ALF, informacje o kształcie filtra etc.) mogą być zawarte i transmitowane we wstępnie określonym zestawie parametrów w strumieniu bitów.
Pamięć 155 może przechowywać zrekonstruowany blok lub obraz wyprowadzony z modułu 150 filtrowania, przy czym przechowywany zrekonstruowany blok lub obraz może zostać dostarczony do modułu 120, 125 predykcji, gdy wykonuje się predykcję międzyobrazową.
Fig. 2 jest diagramem blokowym ilustrującym przykład wykonania dekodera obrazu.
W odniesieniu do fig. 2 dekoder wideo może zawierać moduł 210 dekodowania entropijnego, moduł 215 przestawiania, moduł 220 dekwantyzacji, moduł 225 odwrotnego przekształcania, moduł 230, 235 predykcji, moduł 240 filtrowania i pamięć 245.
Gdy strumień bitów wideo jest wprowadzany z kodera wideo, wprowadzany strumień bitów można dekodować w kolejności odwrotnej do kolejności przetwarzania w koderze wideo.
Moduł 210 dekodowania entropijnego może wykonywać dekodowanie entropijne w kolejności odwrotnej do wykonywania kodowania entropijnego w module kodowania entropijnego kodera wideo. Informacje do generowania bloku predykcyjnego spośród informacji dekodowanych przez moduł 210 dekodowania entropijnego można dostarczyć do modułu 230, 235 predykcji, a wartości rezydualne, które są dekodowane entropijnie w module dekodowania entropijnego można wprowadzić do modułu 215 przestawiania.
PL 231 926 B1
Moduł 210 dekodowania entropijnego może dekodować informacje dotyczące predykcji wewnątrzobrazowej i predykcji międzyobrazowej wykonywanych za pomocą kodera. Jak opisano powyżej, gdy istnieje wstępnie określone ograniczenie dla predykcji wewnątrzobrazowej i predykcji międzyobrazowej w koderze wideo, informacje dotyczące predykcji wewnątrzobrazowej i predykcji międzyobrazowej bieżącego bloku można zapewnić poprzez wykonanie dekodowania entropijnego w oparciu o ograniczenie.
Moduł 215 przestawiania może wykonać przestawianie strumienia bitów, który jest dekodowany entropijnie za pomocą modułu 210 dekodowania entropijnego według sposobu przestawiania kodera. Współczynniki przedstawione w postaci jednowymiarowego wektora mogą zostać zrekonstruowane i przestawione do postaci dwuwymiarowego bloku.
Moduł 220 dekwantyzacji może wykonywać dekwantyzację w oparciu o parametr kwantyzacji dostarczony z kodera i blok przestawionych współczynników.
Moduł 225 odwrotnego przekształcania może wykonać odwrotne DCT i odwrotne DST w wyniku kwantyzacji wykonanej za pomocą kodera wideo w odniesieniu do DCT i DST wykonanych za pomocą modułu przekształcania. Odwrotne przekształcenie można wykonać w oparciu o jednostkę transmisyjną określoną za pomocą kodera wideo. W module przekształcania kodera wideo, DCT i DST mogą być selektywnie wykonywane według licznych informacji, takich jak sposób predykcji, rozmiar bieżącego bloku i kierunek predykcji, a moduł 225 odwrotnego przekształcania dekodera wideo może wykonać odwrotne przekształcenie w oparciu o informacje o przekształcaniu wykonywanym w module przekształcania kodera wideo.
Moduł 230, 235 predykcji może wygenerować blok predykcyjny w oparciu o informacje dotyczące generowania bloku predykcyjnego dostarczone z modułu 210 dekodowania entropijnego i informacje o wcześniej dekodowanym bloku lub obrazie dostarczone z pamięci 245.
Moduł 230 i 235 predykcji może zawierać moduł określający jednostkę predykcyjną, moduł predykcji międzyobrazowej (inter predykcja) i moduł predykcji wewnątrzobrazowej (intra predykcja). Moduł określający jednostkę predykcyjną może odbierać różne informacje, takie jak informacje o jednostce predykcyjnej, informacje o trybie predykcji ze sposobu predykcji wewnątrzobrazowej i informacje dotyczące predykcji ruchu ze sposobu predykcji międzyobrazowej wprowadzane z dekodera entropijnego, rozróżniać jednostkę predykcyjną w bieżącej jednostce kodującej w oparciu o odebrane informacje i określać, czy predykcję międzyobrazową wykonuje się na jednostce predykcyjnej czy predykcję wewnątrzobrazową wykonuje się na jednostce predykcyjnej. Jednostka predykcji międzyobrazowej może wykonywać predykcję międzyobrazową w odniesieniu do bieżącej jednostki predykcyjnej w oparciu o informacje zawarte w co najmniej jednym obrazie między poprzednimi obrazami a kolejnymi obrazami względem bieżącego obrazu zawierającego bieżącą jednostkę predykcyjną przy pomocy informacji wymaganych do predykcji międzyobrazowej bieżącej jednostki predykcyjnej zapewnionych za pomocą kodera wideo.
Aby wykonać predykcję międzyobrazową, można określić w oparciu o jednostkę kodującą, czy sposób predykcji ruchu w jednostce predykcyjnej zawartej w odpowiedniej jednostce kodującej jest trybem pomijania, trybem łączenia czy trybem AMVP.
Według przykładu wykonania niniejszego wynalazku, przy wykonywaniu predykcji międzyobrazowej, aby wykonać predykcję równolegle, można określić obszar (MER) szacowania ruchu. Na przykład podczas wykonywania predykcji międzyobrazowej przy pomocy trybu łączenia lub pomijania można określić, czy blok obiektów predykcyjnych i blok przestrzennych kandydatów łączących zawierają się w tym samym MER. Gdy blok obiektów predykcyjnych i blok przestrzennych kandydatów łączących nie zawierają się w tym samym MER, blok przestrzennych kandydatów łączących można określić jako niedostępny lub blok przestrzennych kandydatów łączących można określić jako blok kandydatów łączących poprzez określenie, czy blok przestrzennych kandydatów łączących zawiera się w MER, który nie został jeszcze dekodowany. Działanie modułu predykcji zostanie szczegółowo opisane w przykładzie wykonania niniejszego wynalazku.
Moduł predykcji wewnątrzobrazowej może wygenerować blok predykcyjny w oparciu o informacje o pikselach w bieżącym obrazie. Gdy jednostka predykcyjna jest jednostką predykcyjną do wykonywania predykcji wewnątrzobrazowej, predykcję wewnątrzobrazową można wykonać w oparciu o informacje o trybie predykcji wewnątrzobrazowej jednostki predykcyjnej zapewnione za pomocą kodera wideo. Moduł predykcji wewnątrzobrazowej może zawierać filtr MDIS, moduł interpolacji pikseli odniesienia i filtr DC. Filtr MDIS jest modułem do wykonywania filtracji na pikselu odniesienia bieżącego bloku, a to, czy zastosować filtr można określić i zastosować według trybu predykcji bieżącej jednostki predykcyjnej. Filtrację można wykonać na pikselu odniesienia bieżącego bloku przy pomocy trybu predykcji jednostki
PL 231 926 B1 predykcyjnej i informacji o filtrze MDIS zapewnionych przez koder wideo. Gdy tryb predykcji bieżącego bloku jest trybem, który nie wykonuje filtracji, nie można zastosować filtra MDIS.
Moduł interpolacji pikseli odniesienia może generować piksel odniesienia w jednostce piksela poniżej wartości całkowitej poprzez interpolację piksela odniesienia, gdy trybem predykcji jednostki predykcyjnej jest jednostka predykcyjna do wykonywania predykcji wewnątrzobrazowej w oparciu o wartość piksela interpolowanego piksela odniesienia. Gdy trybem predykcji bieżącej jednostki predykcyjnej jest tryb predykcji, który generuje blok predykcyjny bez interpolacji piksela odniesienia, piksela odniesienia nie można interpolować. Filtr DC może generować blok predykcyjny poprzez filtrację, jeżeli trybem predykcji bieżącego bloku jest tryb DC.
Zrekonstruowany blok lub obraz można dostarczyć do modułu 240 filtrowania. Moduł 240 filtrowania może zawierać filtr odblokowujący, moduł korekcji offsetu, ALF.
Informacje o tym, czy filtr odblokowujący stosuje się w odpowiednim bloku lub obrazie i czy stosuje się silny filtr czy słaby filtr, jeżeli stosuje się filtr odblokowujący, mogą być dostarczone z kodera wideo. Filtr odblokowujący dekodera wideo może być wyposażony w informacje o filtrze odblokowującym z kodera wideo i wykonywać filtrację odblokowującą dla odpowiedniego bloku w dekoderze wideo. Podobnie jak koder wideo, najpierw wykonuje się filtrację odblokowania pionowego i filtrację odblokowania poziomego, podczas gdy co najmniej jedno z odblokowania pionowego i odblokowania poziomego może być wykonywane na powierzchni zachodzącej na siebie. Na powierzchni zachodzącej na siebie filtracji odblokowania pionowego i filtracji odblokowania poziomego, można wykonać filtrację odblokowania pionowego lub filtrację odblokowania poziomego, która nie została wykonana wcześniej. Poprzez ten proces filtracji odblokowania możliwe jest równoległe przeprowadzanie filtracji odblokowania.
Moduł korekcji offsetu może wykonać korekcję offsetu na rekonstruowanym obrazie w oparciu o rodzaj korekcji offsetu zastosowanej w obrazie i informacje o wartości offsetu.
ALF może wykonać filtrację w oparciu o wartość z porównania oryginalnego obrazu i zrekonstruowanego obrazu poprzez filtrację. ALF można stosować w jednostce kodującej w oparciu o informacje o tym, czy zastosować ALF, informacje o współczynniku ALF dostarczone z dekodera. Informacje o ALF mogą zawierać się w określonym zestawie parametrów do zapewnienia.
Pamięć 245 może przechowywać zrekonstruowany obraz lub blok do zastosowania jako obraz odniesienia lub blok odniesienia, przy czym zrekonstruowany obraz mo że zostać dostarczony do modułu wyjściowego.
Jak to opisano wcześniej, chociaż jednostkę kodującą stosuje się w odniesieniu do jednostki kodowania w przykładzie wykonania, jednostką kodującą może być jednostka do wykonywania nie tylko kodowania, ale również dekodowania. W dalszej części sposób predykcji opisany na fig. od 3 do 11 według przykładu wykonania niniejszego wynalazku można wykonać za pomocą elementu, takiego jak moduł predykcji zawarty na fig. 1 i fig. 2.
Fig. 3 jest widokiem koncepcyjnym ilustrującym bloki kandydatów do zastosowania trybu łączenia i trybu pomijania według przykładu wykonania niniejszego wynalazku.
W dalszej części, w celach ilustracyjnych opis będzie odnosił się do trybu łączenia w przykładzie wykonania niniejszego wynalazku; jednakże ten sam sposób można zastosować w trybie pomijania i taki przykład wykonania jest również objęty zakresem zastrzeżeń w niniejszym wynalazku.
W odniesieniu do fig. 3, aby wykonać predykcję międzyobrazową poprzez tryb łączenia, można zastosować bloki 300, 305, 310, 315, 320 przestrzennych kandydatów łączących i bloki 350, 355 czasowych kandydatów łączących.
Gdy punkt (xP, yP) znajdujący się w górnym lewym fragmencie bloku obiektów predykcyjnych względem lokalizacji bloku obiektów predykcyjnych, przy szerokości bloku obiektów predykcyjnych, nPSW, i wysokości bloku obiektów predykcyjnych, sPSH, każdy blok spośród bloków 300, 305, 310, 315, 320 przestrzennych kandydatów łączących może być jednym spośród pierwszego bloku 300 zawierającego punkt (xP-1, yP+nPSH-MinPuSize), drugiego bloku 305 zawierającego punkt (xP+nPSWMinPuSize, yP-1), trzeciego bloku 310 zawierającego punkt (xP+nPSW, yP-1), czwartego bloku 315 zawierającego punkt (xP-1 , yP+nPSH) i piątego bloku 320 zawierającego punkt (xP-MinPuSize, yP-1).
Czasowy kandydat łączący może stosować wielość bloków kandydatów, a pierwszym blokiem blokiem Col (blok znajdujący się w jednej lokalizacji - collocated block) 350 może być blok zawierający punkt (xP+nPSW, yP+nPSH) znajdujący się na obrazie Col (obraz znajdujący się w jednej lokalizacji collocated picture). Jeżeli pierwszy blok Col 350 nie istnieje lub nie jest dostępny (na przykład jeżeli
PL 231 926 B1 pierwszy blok Col nie wykonuje predykcji międzyobrazowej), można zastosować zamiast niego drugi blok Col 355 zawierający punkt (xP+(nPSW>>1), yP+(nPSH>>1)) znajdujący się na obrazie Col.
Według przykładu wykonania niniejszego wynalazku, aby wykonać predykcję międzyobrazową przy pomocy trybu łączenia równolegle podczas wykonywania predykcji ruchu, można określić, czy zastosować blok kandydatów łączących względem pewnej powierzchni. Na przykład aby określić blok kandydatów łączących do wykonania trybu łączenia, względem wstępnie określonej powierzchni o pewnym rozmiarze, można określić, czy blok kandydatów łączących występuje na wstępnie określonej powierzchni wraz z blokiem obiektów predykcyjnych, aby określić, czy zastosować blok kandydatów łączących czy nie, lub zastąpić innym blokiem kandydatów łączących, wykonując tym samym predykcję ruchu równolegle względem wstępnie określonej powierzchni. W dalszej części sposób równoległej predykcji ruchu przy pomocy trybu łączenia zostanie opisany w przykładzie wykonania niniejszego wynalazku.
Fig. 4 jest widokiem koncepcyjnym ilustrującym sposób określania bloku kandydatów łączących według przykładu wykonania niniejszego wynalazku.
W odniesieniu do fig. 4, przyjmuje się, że największy blok kodujący (LCU) jest dzielony na cztery obszary (MER) szacowania ruchu.
W przypadku pierwszego bloku predykcyjnego PU0 zawartego w pierwszym MER (MER0), podobnie do fig. 4, gdy predykcję między obrazową wykonuje się przy pomocy trybu łączenia względem pierwszego bloku predykcyjnego PU0, pięć bloków przestrzennych kandydatów łączących 400, 405, 410, 415, 420 może występować jako bloki przestrzennych kandydatów łączących. Pięć bloków kandydatów łączących 400, 405, 410, 415, 420 może występować w lokalizacji, która nie zawiera się w pierwszym MER (MER0) i mogą być blokami, na których wykonane już zostało kodowanie/dekodowanie.
Drugim blokiem predykcyjnym (PU1) jest blok predykcyjny zawarty w drugim MER (MER1), a czterema blokami 430, 435, 445, 450 kandydatów łączących spośród bloków 430, 435, 440, 445, 450 przestrzennych kandydatów łączących do wykonywania predykcji międzyobrazowej (inter predykcja) przy pomocy trybu łączenia mogą być bloki, które występują w drugim MER (MER1) i bloki, które należą do tego samego MER, który obecnie wykonuje predykcję. Pozostałym jednym blokiem 440 kandydatów łączących może być blok, który występuje w prawej części bieżącego MER i blok zawarty w LCU lub MER, na którym nie zostało jeszcze wykonane kodowanie/dekodowanie.
Według przykładu wykonania niniejszego wynalazku, gdy blok kandydatów łączących z bieżącego bloku i bieżący blok należą do tego samego MER, blok kandydatów łączących z bieżącego bloku jest wyłączony, a informacje o ruchu co najmniej jednego bloku w kolejnej lokalizacji mogą zostać dodane jako kandydat łączący według rozmiaru bieżącego bloku i rozmiaru MER.
Blok zawierający punkt, który występuje w innym MER w pionowym lub poziomym kierunku może zostać dodany jako blok kandydatów łączących. Alternatywnie blok, który należy do innego MER w lokalizacji najbliższej bloku kandydatów, może zostać dodany jako blok kandydatów łączących. Alternatywnie blok we wstępnie określonej lokalizacji według kształtu i rozmiaru bieżącego bloku może zostać dodany jako blok kandydatów łączących.
Na przykład w przypadku bloku 435 kandydatów łączących znajdującego się w górnej części drugiej jednostki predykcyjnej (PU1) i bloku 450 kandydatów łączących znajdującego się w górnej lewej części drugiej jednostki predykcyjnej, bloki 455, 460 zawierające punkty znajdujące się poza drugim MER w pionowym kierunku można stosować jako zastąpione bloki kandydatów łączących. W przypadku bloku 430 kandydatów łączących znajdującego się w lewej części drugiej jednostki predykcyjnej i bloku 445 kandydatów łączących znajdującego się w dolnej lewej części drugiej jednostki predykcyjnej, bloki 465, 470 zawierające punkty poza MER w poziomym kierunku można stosować jako zastąpione bloki kandydatów łączących. Gdy blok zawiera się w tym samym MER z bieżącą jednostką predykcyjną, a tym samym nie może zostać zastosowany jako blok kandydatów łączących, blok kandydatów łączących może zostać zastąpiony innym blokiem zawierającym punkt w innym MER według lokalizacji bloku kandydatów łączących.
W przypadku trzeciego bloku predykcyjnego (PU2) blok 475 kandydatów łączących zawarty w tym samym MER z trzecim blokiem predykcyjnym może zostać zastąpiony, aby być zastosowanym przez blok 480, który występuje w górnej części w pionowym kierunku. Ponadto, według kolejnego przykładu wykonania niniejszego wynalazku można zastąpić lokalizację bloku kandydatów łączących poprzez zastąpienie lokalizacji bloku przestrzennych kandydatów łączących blokiem zawartym w innym
PL 231 926 B1
MER w kierunku nie pionowym lub kierunku poziomym, przy czym ten przykład wykonania jest również objęty zakresem zastrzeżeń niniejszego wynalazku.
Następujące etapy można wykonać w celu wykonania sposobu określania bloku kandydatów łączących.
1) Etap dekodowania informacji dotyczących obszaru (MER) szacowania ruchu
Informacje dotyczące MER mogą zawierać informacje o rozmiarze MER. W oparciu o informacje o rozmiarze MER i rozmiarze bloku obiektów predykcyjnych można określić, czy blok obiektów predykcyjnych zawiera się w MER.
2) Etap określania, czy blok obiektów predykcyjnych i blok przestrzennych kandydatów łączących zawierają się w tym samym MER
W przypadku, gdy blok obiektów predykcyjnych i blok przestrzennych kandydatów łączących zawierają się w tym samym MER, można wykonać następujące etapy, aby adaptacyjnie określić blok przestrzennych kandydatów łączących według rozmiaru MER i rozmiaru bloku obiektów predykcyjnych.
3) Etap określania, że blok przestrzennych kandydatów łączących jest niedostępny, gdy blok obiektów predykcyjnych i blok przestrzennych kandydatów łączących zawierają się w tym samym MER
Gdy blok obiektów predykcyjnych i blok przestrzennych kandydatów łączących nie zawierają się w tym samym MER, blok przestrzennych kandydatów łączących można określić jako niedostępny, a blok przestrzennych kandydatów łączących zawierający się w tym samym MER można zastąpić innym blokiem kandydatów łączących. Co więcej, jak opisano poniżej, możliwe jest, że bloku kandydatów łączących, który określony jest jako niedostępny, nie można zastosować w predykcji międzyobrazowej w trybie łączenia.
Według kolejnego przykładu wykonania niniejszego wynalazku można również zastosować sposób, który nie stosuje bloku kandydatów łączących zawierającego się w tym samym MER z blokiem obiektów predykcyjnych.
Na przykład spośród bloków kandydatów łączących, bloki, które zawierają się w MER, na którym wykonano już kodowanie/dekodowanie, jeżeli różni się od bieżącego MER, na którym obecnie wykonuje się predykcję, są dostępne dla równoległej predykcji międzyobrazowej (inter predykcja) stosującej tryb łączenia. Bloki można zastosować jako bloki kandydatów predykcji międzyobrazowej w trybie łączenia. Jednakże bloków, które należą do MER, na którym wykonuje się obecnie predykcję, nie można zastosować jako bloku kandydatów predykcji międzyobrazowej dla predykcji międzyobrazowej w trybie łączenia. Bloku, na którym nie wykonuje się kodowania/dekodowania, również nie można stosować jako bloku kandydatów predykcji międzyobrazowej. Ten przykład wykonania również objęty jest zakresem zastrzeżeń niniejszego wynalazku.
Fig. 5 jest widokiem koncepcyjnym ilustrującym sposób określania bloku kandydatów łączących w oparciu o rozmiar MER według przykładu wykonania niniejszego wynalazku.
W odniesieniu do fig. 5, kandydat łączący może zostać adaptacyjnie określony według rozmiaru MER i rozmiaru bieżącej jednostki predykcyjnej. Na przykład w przypadku, gdy kandydat łączący odpowiadający jednej z lokalizacji kandydatów łączących A, B, C, D, E zawiera się w tym samym MER z bieżącą jednostką predykcyjną, kandydat łączący zostaje określony jako niedostępny. Tutaj informacje o ruchu co najmniej jednego bloku w innej lokalizacji mogą zostać dodane jako kandydat łączący według rozmiaru bieżącego bloku i rozmiaru MER.
Na fig. 4 przyjmuje się, że rozmiar MER jest równy 8x8, a blok obiektów predykcyjnych jest równy 4x8. Gdy rozmiar MER jest równy 8x8, blok A zawarty w bloku obiektów predykcyjnych należy do tego samego MER co blok obiektów predykcyjnych, a bloki B, C, D i E zawarte są w innym MER niż blok obiektów predykcyjnych.
W przypadku bloku A blok może zostać zastąpiony lokalizacją bloku (na przykład boku A'), który zawiera się w innym MER. Dlatego też według przykładu wykonania niniejszego wynalazku, gdy blok kandydatów łączących z bieżącego bloku i bieżący blok należą do tego samego MER, blok kandydatów łączących z bieżącego bloku może być wyłączony z bloku dla kandydata łączącego, tak że informacje o ruchu co najmniej jednego bloku w innej lokalizacji mogą zostać dodane jako kandydat łączący według rozmiaru bieżącego bloku i rozmiaru MER.
Według przykładu wykonania niniejszego wynalazku informacje o rozmiarze MER mogą być zawarte w informacjach górnego poziomu składni do transmitowania.
PL 231 926 Β1
Tabela 1 poniżej związana jest ze sposobem transmisji informacji o rozmiarze MER w górnym poziomie składni.
cTabela 1>
pic paranieter set rbsp() f Deskryptor
picpara metersełid ue(v)
seq paranieter set id ue(v)
entropycoding modę flag u(i)
num teniporal layer switcliing point flags ue(v)
foi( i _ 0: i < nuni_temporaijayer_switching_point_flags: i— )
temporal_layer_sivitching_point_flag[ i ] u(l)
num_ref_idx_10_default_acnve_minusl ue(v)
num ref idx 11 default acrive minusl ue(v)
pic_init_qp_minus26 .·♦ relativeto 26 * se(v)
constrainedintrapredflag u(i)
sil a red pps info enabled flag u(l)
if( shared_pps_info_enabled_flag)
if( adaptive loopfilieieiiabledilag)
alf_paiani()
if( cu ąp delta enabled flag)
iiiax_cu_qp_delta_deptft U(4)
Iog2_parallel_jnerge_level_tninus2 ue(v)
rbsp_Traiiing_bits()
ł f
W odniesieniu do tabeli 1 informacje o rozmiarze MER można otrzymać w oparciu o element składni Iog2_parallel_merge_level_minus2 zawarty w strukturze górnego poziomu składni, takiej jak zestaw parametrów obrazu. Element składni Iog2_parallel_merge_level_minus2 również może być zawarty w strukturze górnego poziomu składni innej niż zestaw parametrów obrazu, przy czym ten przykład wykonania jest również objęty zakresem zastrzeżeń niniejszego wynalazku.
Tabela 2 poniżej opisuje związek między wartością Iog2_parallel_merge_level_minus2 a rozmiarem MER.
PL 231 926 Β1 cTabela 2>
Log2- parallel_merge_level_minus2 Rozmiar MER Uwaga
0 4x4 Tryb pomijania sekwencyjnego łączenia dla wszystkich PU w LCU, ponieważ dopuszczalnym rozmiarem PU akceptowanym przez HEVC jest 4x4
1 8x8 Wyszukiwanie w trybie pomijania równoległego łączenia akceptowane dla wszystkich PU wewnątrz bloku 8x8
2 16x16 Wyszukiwanie w trybie pomijania równoległego łączenia akceptowane dla wszystkich PU wewnątrz bloku 16x16
-> 32x32 Wyszukiwanie w trybie pomijania równoległego łączenia akceptowane dla wszystkich PU wewnątrz bloku 32x32
4 64x64 Wyszukiwanie w trybie pomijania równoległego łączenia akceptowane dla wszystkich PU wewnątrz bloku 64x64
W odniesieniu do tabeli 2 wartość Iog2_parallel_merge_level_minus2 może mieć wartość od 0 do 4 włącznie, a rozmiar rozmiaru MER może być różnie określony według wartości elementu składni. Gdy MER jest równy 0, jest to równoznaczne z wykonaniem predykcji międzyobrazowej (inter predykcja) przy pomocy trybu łączenia bez zastosowania MER.
Element składni zawierający informacje o rozmiarze MER może być, w przykładzie wykonania niniejszego wynalazku, reprezentowany i stosowany jako określenie „element składni z informacjami
PL 231 926 Β1 o rozmiarze MER”, a definiowanie elementu składni z informacjami o rozmiarze MER jak w tabeli 2 jest przykładem i można określić rozmiar MER przy pomocy wielu różnych sposobów, przy czym taki sposób wyrażania elementu składni również jest objęty zakresem zastrzeżeń niniejszego wynalazku.
Fig. 6 jest widokiem koncepcyjnym ilustrującym sposób określania, czy blok przestrzennych kandydatów łączących z bieżącego bloku jest dostępny.
W odniesieniu do fig. 6, w oparciu o lokalizacje bloku 600 obiektów predykcyjnych i bloku 650 przestrzennych kandydatów łączących sąsiadującego z bokiem 600 obiektów predykcyjnych i element składni z informacjami o rozmiarze MER można określić dostępność bloku przestrzennych kandydatów łączących.
Gdy przyjmuje się, że (xP, yP) jest punktem w lewej górnej części bloku kandydatów łączących, a (xN, yN) jest punktem w lewej górnej części bloku kandydatów łączących, poprzez Math 1 i Math 2 można określić, czy blok przestrzennych kandydatów łączących jest dostępny.
<Math 1>
(xP »(log2_paralleLmerg€_level_iiiinus2+2)) == (xN »(Iog2_p»rallel_nierge_level_minus2+2)) <Math 2>
(yP »(log2jmrallel_merge_levd_minu$2+2)) == (yN »(log2_par;illel_mei geJevd_ininus2+2))
Powyższe Math 1 i Math 2 są przykładowymi równaniami do określenia, czy blok kandydatów łączących i blok obiektów predykcyjnych zawierają się w tym samym MER. Dodatkowo można określić, czy blok kandydatów łączących i blok obiektów predykcyjnych zawierają się w tym samym MER za pomocą sposobu innego niż powyższy sposób określania, o ile nie wykracza on poza istotę niniejszego wynalazku.
Fig. 7 jest schematem blokowym ilustrującym sposób otrzymywania bloku przestrzennych kandydatów łączących w trybie łączenia według przykładu wykonania niniejszego wynalazku.
W odniesieniu do fig. 7, dekoduje się informacje dotyczące MER (etap S700).
Informacje dotyczące MER mogą być informacjami o elemencie składni, jak opisano powyżej, i mogą być zawarte w strukturze górnego poziomu składni. W oparciu o informacje dotyczące MER można określić, czy blok przestrzennych kandydatów łączących i blok obiektów predykcyjnych zawierają się w tym samym MER czy w różnych MER.
Określa się, czy blok przestrzennych kandydatów łączących i blok obiektów predykcyjnych zawierają się w tym samym MER (etap S710).
Według przykładu wykonania niniejszego wynalazku, gdy blok kandydatów łączących z bieżącego bloku i bieżący blok zawierają się w tym samym MER, blok kandydatów łączących z bieżącego bloku może zostać wyłączony, a informacje o ruchu co najmniej jednego bloku o innej lokalizacji niż blok kandydatów łączących mogą zostać dodane jako kandydat łączący według rozmiaru bieżącego bloku i rozmiaru MER (etap S720). Według kolejnego przykładu wykonania niniejszego wynalazku, gdy blok przestrzennych kandydatów łączących i blok obiektów predykcyjnych zawierają się w tym samym MER, zamiast stosować blok przestrzennych kandydatów łączących zawierający się w MER jako blok kandydatów łączących, blok zawierający się w innym MER z inną lokalizacją może zastąpić blok przestrzennych kandydatów łączących przy wykonywaniu predykcji międzyobrązowej (inter predykcji).
Co więcej, w kolejnym przykładzie wykonania, gdy blok przestrzennych kandydatów łączących i blok obiektów predykcyjnych zawierają się w tym samym MER, blok przestrzennych kandydatów łączących zawierający się w MER nie może zostać zastosowany jako blok kandydatów łączących, jak opisano powyżej.
PL 231 926 B1
Gdy blok przestrzennych kandydatów łączących i blok kandydatów predykcyjnych nie zawierają się w tym samym MER, predykcję międzyobrazową (inter predykcję) wykonuje się w oparciu o odpowiedni blok kandydatów łączących (etap S730).
Fig. 8 jest schematem blokowym ilustrującym sposób predykcji międzyobrazowej (inter predukcji) stosującej tryb łączenia według przykładu wykonania niniejszego wynalazku.
W odniesieniu do fig. 8, informacje dotyczące predykcji ruchu uzyskuje się od przestrzennego kandydata łączącego (etap S800).
Przestrzennego kandydata łączącego można uzyskać z sąsiedniej jednostki predykcyjnej bloku obiektów predykcyjnych. Aby uzyskać przestrzennego kandydata łączącego, można zapewnić informacje o szerokości i wysokości jednostki predykcyjnej, informacje o MER, informacje o singleMCLFlag i informacje o lokalizacji podziału. W oparciu o powyższe informacje wejściowe, według lokalizacji przestrzennego kandydata łączącego można uzyskać informacje (availableFlagN) o dostępności przestrzennego kandydata łączącego, informacje (refldxL0, refldxL1) o obrazie odniesienia, informacje (predFlagL0N, predFIagL1N) o wykorzystaniu list i informacje (mvL0N, mvL1N) o wektorze ruchu. Przestrzennym kandydatem łączącym mogą być liczne bloki sąsiadujące z blokiem obiektów predykcyjnych.
Według przykładu wykonania niniejszego wynalazku blok przestrzennych kandydatów łączących można zakwalifikować do trzech następujących grup: 1) blok przestrzennych kandydatów łączących, który nie zawiera się w tym samym MER i został już zakodowany lub dekodowany, 2) blok przestrzennych kandydatów łączących, który zawiera się w tym samym MER i 3) blok przestrzennych kandydatów łączących, na którym nie przeprowadzono jeszcze kodowania i dekodowania.
Według przykładu wykonania niniejszego wynalazku, aby wykonać predykcję międzyobrazową równolegle w jednostce MER, spośród bloków przestrzennych kandydatów łączących do wykonywania predykcji międzyobrazowej (inter predykcji) jako blok przestrzennych kandydatów łączących można zastosować blok przestrzennych kandydatów łączących, który nie zawiera się w tym samym MER i został już zakodowany lub dekodowany. Ponadto blok przestrzennych kandydatów łączących, który zastępuje lokalizację bloku przestrzennych kandydatów łączących zawierającego się w tym samym MER można zastosować jako blok przestrzennych kandydatów łączących. Innymi słowy, według przykładu wykonania niniejszego wynalazku, gdy blok kandydatów łączących z bieżącego bloku zawiera się w tym samym MER co bieżący blok, blok kandydatów łączących z bieżącego bloku jest wyłączony, a informacje o ruchu co najmniej jednego bloku w innej lokalizacji mogą zostać dodane jako kandydat łączący według rozmiaru bieżącego bloku i rozmiaru MER. Jak opisano powyżej, sposób określania bloku kandydatów łączących można wykonać poprzez etap dekodowania informacji dotyczących MER (obszar szacowania ruchu, Motion Estimation Region), etap określania, czy blok obiektów predykcyjnych i blok kandydatów łączących zawierają się w tym samym MER, i etap określania, że blok kandydatów łączących jest n iedostępny dla predykcji międzyobrazowej (inter predykcji) w trybie łączenia, gdy blok kandydatów łączących i blok obiektów predykcyjnych zawierają się w tym samym MER.
Według przykładu wykonania niniejszego wynalazku, spośród bloków przestrzennych kandydatów łączących do wykonywania predykcji między obrazowej, jedynie blok przestrzennych kandydatów łączących, który nie zawiera się w tym samym MER i został już zakodowany lub dekodowany, można zastosować do wykonywania predykcji międzyobrazowej (inter predykcji).
Uzyskuje się wartość wskaźnika obrazu odniesienia czasowego kandydata łączącego (etap
S810).
Wartość wskaźnika obrazu odniesienia czasowego kandydata łączącego jest wartością wskaźnika obrazu Col zawierającego czasowego kandydata łączącego (blok Col) i może zostać uzyskana poprzez określone warunki jak poniżej. Na przykład, gdy w górnej lewej części bloku obiektów predykcyjnych znajduje się (xP, yP), jego szerokość jest równa nPSW, a wysokość bloku obiektów predykcyjnych jest równa nPSH, wartość wskaźnika obrazu odniesienia czasowego kandydata łączącego można określić jako tę samą wartość, co wartość wskaźnika obrazu odniesienia sąsiadującej jednostki predykcyjnej (w dalszej części określanej jako „sąsiadująca jednostka predykcyjna do uzyskiwania wskaźnika obrazu odniesienia”), jeżeli 1) występuje sąsiadująca jednostka predykcyjna bloku obiektów predykcyjnych odpowiadająca lokalizacji (xP-1, yP+nPSH-1), 2) wartość wskaźnika podziału sąsiadującej jednostki predykcyjnej do uzyskiwania wskaźnika obrazu odniesienia jest równa 0, 3) sąsiadująca jednostka predykcyjna do uzyskiwania wskaźnika obrazu odniesienia nie jest blokiem, który wykonuje predykcję przy pomocy trybu predykcji wewnątrzobrazowej (intra predykcji), i 4) blok obiektów predykcyjnych i sąsiadująca jednostka predykcyjna do uzyskiwania wskaźnika obrazu odniesienia nie zawierają
PL 231 926 B1 się w tym samym MER (obszar szacowania ruchu). Jeżeli powyższe warunki nie są spełnione, wartość wskaźnika obrazu odniesienia czasowego kandydata łączącego można ustalić na 0.
Określa się czasowy kandydat łączący, a z czasowego kandydata łączącego uzyskuje się informacje dotyczące predykcji ruchu (etap S820).
Aby określić blok czasowych kandydatów łączących (blok Col) i uzyskać informacje dotyczące predykcji ruchu w oparciu o określony blok czasowych kandydatów łączących (blok Col), lokalizację bloku Col, który stosuje się do uzyskiwania czasowego wektora ruchu predykcji, można określić w oparciu o warunki, takie jak na przykład to, czy blok Col jest dostępny dla bloku obiektów predykcyjnych lub gdzie lokalizacja bloku obiektów predykcyjnych jest usytuowana względem LCU (np. czy lokalizacja bloku obiektów predykcyjnych znajduje się w dolnej granicy czy prawej granicy względem LCU). Poprzez uzyskanie informacji dotyczących predykcji ruchu w oparciu o określone informacje o obrazie odniesienia bloku Col i informacje o wektorze predykcji ruchu, z bloku czasowych kandydatów łączących (blok Col) można uzyskać informacje dotyczące predykcji ruchu.
Konstruowana jest lista kandydatów łączących (etap S830).
Listę kandydatów łączących można skonstruować tak, aby zawierała co najmniej jednego spośród przestrzennego kandydata łączącego i czasowego kandydata łączącego. Przestrzenny kandydat łączący i czasowy kandydat łączący zawierające się na liście kandydatów łączących mogą zostać przestawione według wstępnie określonego pierwszeństwa.
Listę kandydatów łączących można skonstruować tak, aby zawierała ustaloną liczbę kandydatów łączących. Gdy kandydaci łączący nie są wystarczający, aby wygenerować ustaloną liczbę kandydatów łączących, kandydata łączącego można wygenerować poprzez połączenie informacji dotyczących predykcji ruchu kandydata łączącego lub listę kandydatów łączących można wygenerować poprzez dodanie wektora zerowego jako kandydata łączącego.
Jak opisano powyżej, powyższy sposób uzyskiwania kandydata łączącego można zastosować nie tylko w sposobie predykcji międzyobrazowej stosującym tryb łączenia, ale również w trybie predykcji międzyobrazowej (inter predykcja) stosującym tryb pomijania, przy czym ten przykład wykonania jest również objęty zakresem zastrzeżeń niniejszego wynalazku.
Podczas gdy niniejsze ujawnienie zostało opisane w odniesieniu do jego przykładów wykonania, znawcy o przeciętnych umiejętnościach w tej dziedzinie będą rozumieli, że można w nich dokonać różnych zmian i modyfikacji, nie wykraczając poza ducha i zakres niniejszego wynalazku, jaki zdefiniowano za pomocą następujących zastrzeżeń.

Claims (10)

  1. Zastrzeżenia patentowe
    1. Sposób dekodowania sygnału wideo, znamienny tym, że obejmuje: dekodowanie informacji dotyczących obszaru szacowania ruchu MER;
    określenie, czy blok przestrzennych kandydatów łączących nie został już odkodowany, określenie, czy blok przestrzennych kandydatów łączących zawiera się w tym samym MER co bieżący blok predykcyjny;
    gdy blok przestrzennych kandydatów łączących jest już odkodowany i nie zawiera się w tym samym MER co bieżący blok predykcyjny, określenie, czy blok przestrzennych kandydatów łączących jest dostępnym blokiem kandydatów łączących do predykcji międzyobrazowej bieżącego bloku predykcyjnego;
    generowanie listy kandydatów łączących bieżącego bloku predykcyjnego, przy czym lista kandydatów łączących zawiera dostępny blok kandydatów łączących; oraz wykonanie predykcji międzyobrazowej bieżącego bloku predykcji w oparciu o listę kandydatów łączących.
  2. 2. Sposób według zastrz. 1, znamienny tym, że określenie czy blok przestrzennych kandydatów łączących zawiera się w tym samym MER co bieżący blok predykcyjny odbywa się poprzez użycie informacji poziomu łączenia równoległego.
  3. 3. Sposób według zastrz. 2, znamienny tym, że informacja poziomu łączenia równoległego jest informacją odnoszącą się do rozmiaru MER.
  4. 4. Sposób według zastrz. 2, znamienny tym, że predykcja międzyobrazowa każdego z bloków predykcji w MER wykonywana jest równolegle.
    PL 231 926 B1
  5. 5. Sposób według zastrz. 2, znamienny tym, że określenie czy blok przestrzennych kandydatów łączących zawiera się w tym samym MER co bieżący blok predykcyjny odbywa się poprzez użycie dodatkowej informacji o pozycji bieżącego bloku predykcji oraz informacji o pozycji bloku przestrzennych kandydatów łączących.
  6. 6. Sposób według zastrz. 5, znamienny tym, że określa się, że blok przestrzennych kandydatów łączących zawiera się w tym samym MER co bieżący blok predykcyjny, kiedy wartość wynikająca z operacji przesunięcia bitowego informacji o pozycji bieżącego bloku predykcyjnego nie jest równa wartości wynikającej z operacji przesunięcia bitowego informacji o pozycji bloku przestrzennych kandydatów łączących.
  7. 7. Sposób według zastrz. 6, znamienny tym, że operacja przesunięcia bitowego wykonana jest przy użyciu informacji poziomu łączenia równoległego.
  8. 8. Sposób według zastrz. 1, znamienny tym, że blok przestrzennych kandydatów łączących obejmuje co najmniej jeden spośród sąsiadujących bloków przyległych do bieżącego bloku predykcyjnego, przy czym sąsiadujące bloki obejmują lewy blok sąsiadujący, pr awy - górny blok sąsiadujący, lewy dolny blok sąsiadujący oraz lewy górny blok sąsiadujący.
  9. 9. Sposób według zastrz. 8, znamienny tym, że rozmiar MER jest równy 8x8, a rozmiar bloku kodującego jest równy 8x8, co najmniej jeden z bloków sąsiadujących zamienia się na blok zawierający punkt znajdujący się poza MER.
  10. 10. Sposób według zastrz. 9, znamienny tym, że blok kodujący zawiera bieżący blok predykcyjny, którego rozmiar wynosi 8x4 albo 4x8.
PL407774A 2011-09-23 2012-09-06 Sposób wywoływania bloku kandydatów łączących PL231926B1 (pl)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20110096138 2011-09-23
KR10-2011-0096138 2011-09-23
KR10-2012-0039500 2012-04-17
KR1020120039500A KR101197176B1 (ko) 2011-09-23 2012-04-17 머지 후보 블록 유도 방법 및 이러한 방법을 사용하는 장치
PCT/KR2012/007176 WO2013042888A2 (ko) 2011-09-23 2012-09-06 머지 후보 블록 유도 방법 및 이러한 방법을 사용하는 장치

Publications (2)

Publication Number Publication Date
PL407774A1 PL407774A1 (pl) 2015-05-25
PL231926B1 true PL231926B1 (pl) 2019-04-30

Family

ID=47914988

Family Applications (2)

Application Number Title Priority Date Filing Date
PL12833938T PL2787728T3 (pl) 2011-09-23 2012-09-06 Sposób wywoływania bloku kandydującego do scalania
PL407774A PL231926B1 (pl) 2011-09-23 2012-09-06 Sposób wywoływania bloku kandydatów łączących

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PL12833938T PL2787728T3 (pl) 2011-09-23 2012-09-06 Sposób wywoływania bloku kandydującego do scalania

Country Status (14)

Country Link
US (10) US9253498B2 (pl)
EP (2) EP2787728B1 (pl)
JP (10) JP5746792B2 (pl)
CN (10) CN107105279B (pl)
AU (1) AU2012310514B2 (pl)
BR (1) BR112013018993B1 (pl)
CA (2) CA2968598C (pl)
ES (16) ES2612494B1 (pl)
GB (5) GB2562132B (pl)
MX (4) MX2013008349A (pl)
PL (2) PL2787728T3 (pl)
RU (6) RU2696304C2 (pl)
SE (10) SE539969C2 (pl)
WO (1) WO2013042888A2 (pl)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2010228415B2 (en) 2009-03-23 2016-01-07 Ntt Docomo, Inc. Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
FR2959376A1 (fr) * 2010-04-22 2011-10-28 France Telecom Procede de traitement d'une information de mouvement, procedes de codage et de decodage, dispositifs, signal et programme d'ordinateur correspondants
CN105120280B (zh) * 2010-07-20 2018-04-20 株式会社Ntt都科摩 图像预测编码装置及方法、图像预测解码装置及方法
CN103797795B (zh) * 2011-07-01 2017-07-28 谷歌技术控股有限责任公司 用于运动矢量预测的方法和设备
US9819963B2 (en) * 2011-07-12 2017-11-14 Electronics And Telecommunications Research Institute Inter prediction method and apparatus for same
PL4009641T3 (pl) * 2011-09-09 2024-02-26 Lg Electronics Inc. Sposób dekodowania obrazu, sposób kodowania obrazu, sposób przesyłania danych dla informacji obrazu, odczytywalny komputerowo nośnik przechowujący strumień bitów obejmujący zakodowane informacje obrazu
CN107105279B (zh) * 2011-09-23 2020-03-06 株式会社Kt 用于引导合并候选块的方法和使用该方法的设备
JP2013118627A (ja) * 2011-10-31 2013-06-13 Jvc Kenwood Corp 動画像復号装置、動画像復号方法、動画像復号プログラム、受信装置、受信方法及び受信プログラム
CN110198441B (zh) * 2011-11-08 2022-01-11 韩国电子通信研究院 用于共享候选者列表的方法和装置
JP5842803B2 (ja) * 2011-12-28 2016-01-13 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、並びに、送信装置、送信方法、及び送信プログラム
JP5835208B2 (ja) * 2011-12-28 2015-12-24 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、並びに、送信装置、送信方法、及び送信プログラム
US11317101B2 (en) 2012-06-12 2022-04-26 Google Inc. Inter frame candidate selection for a video encoder
US9544612B2 (en) * 2012-10-04 2017-01-10 Intel Corporation Prediction parameter inheritance for 3D video coding
US9503746B2 (en) 2012-10-08 2016-11-22 Google Inc. Determine reference motion vectors
US9485515B2 (en) 2013-08-23 2016-11-01 Google Inc. Video coding using reference motion vectors
US9432685B2 (en) * 2013-12-06 2016-08-30 Qualcomm Incorporated Scalable implementation for parallel motion estimation regions
US10469864B2 (en) 2014-11-27 2019-11-05 Kt Corporation Method and apparatus for video signal coding using current picture reference flag
CN112584139A (zh) 2014-11-27 2021-03-30 株式会社Kt 对视频信号进行解码或编码的方法
US10666936B2 (en) 2015-12-17 2020-05-26 Samsung Electronics Co., Ltd. Video decoding method and video decoding apparatus using merge candidate list
KR102424417B1 (ko) * 2016-08-03 2022-07-22 주식회사 케이티 비디오 신호 처리 방법 및 장치
CN116847068A (zh) 2016-10-04 2023-10-03 株式会社Kt 用于处理视频信号的方法和装置
US10484703B2 (en) 2017-02-07 2019-11-19 Mediatek Inc. Adapting merge candidate positions and numbers according to size and/or shape of prediction block
US10602180B2 (en) 2017-06-13 2020-03-24 Qualcomm Incorporated Motion vector prediction
US10655846B2 (en) 2017-09-18 2020-05-19 Haier Us Appliance Solutions, Inc. Gas burner assembly for a cooktop appliance
KR20210008105A (ko) 2018-05-30 2021-01-20 디지털인사이트 주식회사 영상 부호화/복호화 방법 및 장치
MX2020012662A (es) 2018-06-08 2021-02-09 Kt Corp Método y aparato para procesar una señal de video.
CN110662075B (zh) 2018-06-29 2023-04-25 北京字节跳动网络技术有限公司 改进的时域运动矢量预测推导
CN117956139A (zh) 2018-08-17 2024-04-30 寰发股份有限公司 视频编解码的帧间预测方法及装置
EP3837841A4 (en) 2018-09-03 2021-10-20 Huawei Technologies Co., Ltd. CODIFICATION PROCESS, DEVICE AND SYSTEM WITH MERGING MODE
CN110650344B (zh) * 2018-09-14 2022-01-21 北京达佳互联信息技术有限公司 生成合并候选列表的方法、装置以及电子设备、存储介质
CN118055251A (zh) * 2018-09-22 2024-05-17 Lg 电子株式会社 使用间预测处理视频信号的方法和装置
CN110944184B (zh) * 2018-09-25 2022-05-31 华为技术有限公司 视频解码方法及视频解码器
CN110958452B (zh) * 2018-09-27 2023-11-03 华为技术有限公司 视频解码方法及视频解码器
US11172214B2 (en) * 2018-12-21 2021-11-09 Qualcomm Incorporated Derivation of processing area for parallel processing in video coding
WO2020140218A1 (zh) * 2019-01-02 2020-07-09 深圳市大疆创新科技有限公司 用于视频编码或解码的运动信息获取方法与装置
CN113475075B (zh) * 2019-02-13 2023-09-08 北京字节跳动网络技术有限公司 基于共享Merge列表的运动预测
CN111240622B (zh) * 2020-01-07 2022-01-25 卡莱特云科技股份有限公司 一种绘制方法及装置

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1234567A (pl) * 1967-06-22 1971-06-03
CH682614A5 (fr) * 1990-02-21 1993-10-15 Kudelski Sa Procédé d'embrouillage et de désembrouillage d'un signal vidéo.
US5122875A (en) * 1991-02-27 1992-06-16 General Electric Company An HDTV compression system
KR0134483B1 (ko) * 1994-06-14 1998-05-15 배순훈 디코더에 있어서 어드레스 보정 회로(address correction circuit of the decoder)
US5666170A (en) * 1995-07-12 1997-09-09 Thomson Consumer Electronics, Inc. Apparatus for decoding video signals encoded in different formats
US7099949B1 (en) * 1995-10-23 2006-08-29 Imec Vzw Interprocess communication protocol system
CN1293759C (zh) * 2001-09-06 2007-01-03 佳能株式会社 图象处理方法和装置,图象处理系统以及存储介质
CN1219283C (zh) * 2001-08-07 2005-09-14 北京大恒鼎芯科技有限公司 可视音带的图文数据生成和编码方法及图文数据播放装置
JP2003299103A (ja) * 2002-03-29 2003-10-17 Toshiba Corp 動画像符号化方法と装置及び動画像復号化方法と装置
JP2004007379A (ja) * 2002-04-10 2004-01-08 Toshiba Corp 動画像符号化方法及び動画像復号化方法
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US7154952B2 (en) 2002-07-19 2006-12-26 Microsoft Corporation Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures
JP3977716B2 (ja) * 2002-09-20 2007-09-19 株式会社東芝 動画像符号化/復号化方法及び装置
JP2005175997A (ja) * 2003-12-12 2005-06-30 Sony Corp 復号化装置、電子機器、コンピュータ、復号化方法、プログラム及び記録媒体
KR20050075483A (ko) * 2004-01-15 2005-07-21 삼성전자주식회사 비디오 코딩 및 디코딩 방법, 및 이를 위한 장치
KR100703770B1 (ko) * 2005-03-25 2007-04-06 삼성전자주식회사 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치
JP5089878B2 (ja) * 2005-10-28 2012-12-05 パナソニック株式会社 画像符号化装置
EP2008461B1 (en) * 2006-03-30 2015-09-16 LG Electronics Inc. A method and apparatus for decoding/encoding a multi-view video signal
US8213509B2 (en) * 2006-10-06 2012-07-03 Calos Fund Limited Liability Company Video coding on parallel processing systems
JP4793366B2 (ja) * 2006-10-13 2011-10-12 日本ビクター株式会社 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム
KR100900294B1 (ko) * 2006-11-09 2009-05-29 엘지전자 주식회사 비디오 신호의 디코딩/인코딩 방법 및 장치
EP2106666B1 (en) * 2007-01-08 2019-06-12 Nokia Technologies Oy Improved inter-layer prediction for extended spatial scalability in video coding
CN104023242B (zh) * 2007-04-09 2017-07-07 株式会社Ntt都科摩 图像预测编码装置及方法、图像预测解码装置及方法
KR100921465B1 (ko) * 2007-04-19 2009-10-13 엘지전자 주식회사 디지털 방송 신호 송수신기 및 그 제어 방법
WO2009032255A2 (en) * 2007-09-04 2009-03-12 The Regents Of The University Of California Hierarchical motion vector processing method, software and devices
WO2009054347A1 (ja) * 2007-10-25 2009-04-30 Nippon Telegraph And Telephone Corporation 動画像スケーラブル符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体
US7844937B2 (en) * 2007-12-06 2010-11-30 Freescale Semiconductor, Inc. Method and apparatus for making a semiconductor device using hardware description having merged functional and test logic blocks
KR101591825B1 (ko) * 2008-03-27 2016-02-18 엘지전자 주식회사 비디오 신호의 인코딩 또는 디코딩 방법 및 장치
KR101578052B1 (ko) * 2008-04-02 2015-12-17 삼성전자주식회사 움직임 추정 장치 및 이를 구비하는 동영상 부호화 장치
JP5406465B2 (ja) * 2008-04-24 2014-02-05 株式会社Nttドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
JP4670918B2 (ja) 2008-08-26 2011-04-13 ソニー株式会社 フレーム補間装置及びフレーム補間方法
KR101306834B1 (ko) 2008-09-22 2013-09-10 에스케이텔레콤 주식회사 인트라 예측 모드의 예측 가능성을 이용한 영상 부호화/복호화 장치 및 방법
US8665964B2 (en) * 2009-06-30 2014-03-04 Qualcomm Incorporated Video coding based on first order prediction and pre-defined second order prediction mode
KR20110008653A (ko) * 2009-07-20 2011-01-27 삼성전자주식회사 움직임 벡터 예측 방법과 이를 이용한 영상 부호화/복호화 장치 및 방법
KR101452859B1 (ko) * 2009-08-13 2014-10-23 삼성전자주식회사 움직임 벡터를 부호화 및 복호화하는 방법 및 장치
US8379718B2 (en) 2009-09-02 2013-02-19 Sony Computer Entertainment Inc. Parallel digital picture encoding
KR20110033676A (ko) 2009-09-25 2011-03-31 삼성중공업 주식회사 해수 유입 차단 장치
KR101348613B1 (ko) * 2009-12-23 2014-01-10 한국전자통신연구원 영상의 부호화/복호화 장치 및 그 방법
US9124898B2 (en) 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
US8824558B2 (en) 2010-11-23 2014-09-02 Mediatek Inc. Method and apparatus of spatial motion vector prediction
US9137544B2 (en) 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
US8711940B2 (en) 2010-11-29 2014-04-29 Mediatek Inc. Method and apparatus of motion vector prediction with extended motion vector predictor
WO2012081949A2 (ko) 2010-12-17 2012-06-21 한국전자통신연구원 인터 예측 방법 및 그 장치
JP2014501091A (ja) 2010-12-17 2014-01-16 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート インター予測方法及びその装置
CN103299630B (zh) 2011-01-19 2016-10-19 寰发股份有限公司 获取运动矢量预测子的方法和装置
US8755437B2 (en) * 2011-03-17 2014-06-17 Mediatek Inc. Method and apparatus for derivation of spatial motion vector candidate and motion vector prediction candidate
WO2012122927A1 (en) 2011-03-14 2012-09-20 Mediatek Inc. Method and apparatus for derivation of motion vector candidate and motion vector prediction candidate
CN103392340B (zh) 2011-03-14 2017-02-08 寰发股份有限公司 推导运动向量预测子的方法与装置
US9143795B2 (en) 2011-04-11 2015-09-22 Texas Instruments Incorporated Parallel motion estimation in video coding
US9247266B2 (en) 2011-04-18 2016-01-26 Texas Instruments Incorporated Temporal motion data candidate derivation in video coding
US9313494B2 (en) * 2011-06-20 2016-04-12 Qualcomm Incorporated Parallelization friendly merge candidates for video coding
PL4009641T3 (pl) 2011-09-09 2024-02-26 Lg Electronics Inc. Sposób dekodowania obrazu, sposób kodowania obrazu, sposób przesyłania danych dla informacji obrazu, odczytywalny komputerowo nośnik przechowujący strumień bitów obejmujący zakodowane informacje obrazu
KR101391829B1 (ko) * 2011-09-09 2014-05-07 주식회사 케이티 시간적 후보 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치
PL231159B1 (pl) * 2011-09-09 2019-01-31 Kt Corp Sposób uzyskiwania czasowego predykcyjnego wektora ruchu i urządzenie do stosowania tego sposobu
CN107105279B (zh) 2011-09-23 2020-03-06 株式会社Kt 用于引导合并候选块的方法和使用该方法的设备
CN110198441B (zh) 2011-11-08 2022-01-11 韩国电子通信研究院 用于共享候选者列表的方法和装置
US20130125904A1 (en) 2011-11-18 2013-05-23 R.J. Reynolds Tobacco Company Smokeless tobacco product comprising pectin component
HUE043876T2 (hu) 2011-12-16 2019-09-30 Jvc Kenwood Corp Dinamikus kép dekódoló eszköz, dinamikus kép dekódoló eljárás és dinamikus kép dekódoló program
EP3965425A3 (en) * 2011-12-23 2022-06-08 Electronics And Telecommunications Research Institute Method and apparatus for setting reference picture index of temporal merging candidate
TWI600315B (zh) 2011-12-28 2017-09-21 Jvc Kenwood Corp 動態影像解碼裝置、動態影像解碼方法及記錄有動態影像解碼程式的記錄媒體
US9667995B2 (en) 2012-01-19 2017-05-30 Sony Corporation Image processing apparatus and method

Also Published As

Publication number Publication date
ES2705334R1 (es) 2019-04-23
ES2572577A2 (es) 2016-06-01
CN106878743A (zh) 2017-06-20
ES2705334B1 (es) 2020-01-29
ES2705357B1 (es) 2020-01-29
CN107094259B (zh) 2020-10-13
GB201717600D0 (en) 2017-12-13
JP6595020B2 (ja) 2019-10-23
SE1850159A2 (sv) 2018-12-11
JP6062509B2 (ja) 2017-01-18
US9554144B2 (en) 2017-01-24
GB2557516A (en) 2018-06-20
JP2018088695A (ja) 2018-06-07
CN107087193B (zh) 2020-10-09
CN107105267A (zh) 2017-08-29
ES2532857B1 (es) 2015-12-04
US9253498B2 (en) 2016-02-02
JP6279700B2 (ja) 2018-02-14
US20160105683A1 (en) 2016-04-14
EP3754990A1 (en) 2020-12-23
ES2602201R1 (es) 2017-05-23
SE1850140A1 (en) 2018-02-09
RU2016100984A3 (pl) 2019-05-29
ES2705337A2 (es) 2019-03-22
ES2647622B1 (es) 2018-11-07
MX352017B (es) 2017-11-06
SE542455C2 (sv) 2020-05-05
ES2705337B1 (es) 2020-02-05
ES2631477B1 (es) 2018-09-20
ES2612494A2 (es) 2017-05-17
SE1651202A1 (en) 2016-09-07
ES2705331A2 (es) 2019-03-22
ES2705357R1 (es) 2019-04-23
RU2016101150A3 (pl) 2019-05-29
SE1651201A1 (sv) 2016-09-07
MX352016B (es) 2017-11-06
JP6595019B2 (ja) 2019-10-23
ES2647572A2 (es) 2017-12-22
ES2612493R1 (es) 2017-05-31
EP2787728A4 (en) 2015-07-08
AU2012310514A1 (en) 2013-08-08
SE1651199A2 (en) 2017-01-10
CA2824755A1 (en) 2013-03-28
ES2532857R1 (es) 2015-04-30
ES2705251R1 (es) 2019-04-23
US9357225B2 (en) 2016-05-31
US10165294B2 (en) 2018-12-25
ES2705331R1 (es) 2019-04-23
CN103444172B (zh) 2017-02-08
GB2557516B (en) 2018-11-14
CN104349170A (zh) 2015-02-11
AU2012310514B2 (en) 2014-12-04
GB2562132A (en) 2018-11-07
MX2013008349A (es) 2013-11-04
CN107105269B (zh) 2020-01-10
JP2018088697A (ja) 2018-06-07
US20160323593A1 (en) 2016-11-03
JP2018088696A (ja) 2018-06-07
US9924185B2 (en) 2018-03-20
JP6009633B2 (ja) 2016-10-19
EP2787728A2 (en) 2014-10-08
RU2016100984A (ru) 2018-11-19
ES2647600R1 (es) 2018-03-06
ES2580278B1 (es) 2017-07-05
ES2647600B1 (es) 2018-11-07
SE1651202A2 (en) 2017-01-10
PL2787728T3 (pl) 2021-05-17
ES2612493A2 (es) 2017-05-17
ES2705251A2 (es) 2019-03-22
SE1651199A1 (sv) 2016-09-07
SE539969C2 (sv) 2018-02-13
ES2532857A2 (es) 2015-04-01
BR112013018993B1 (pt) 2022-05-03
ES2580278R1 (es) 2016-09-28
GB2557517B (en) 2018-11-14
ES2647600A2 (es) 2017-12-22
RU2016101150A (ru) 2018-11-19
SE1651203A1 (sv) 2016-09-07
RU2696304C2 (ru) 2019-08-01
RU2016101148A3 (pl) 2019-05-27
WO2013042888A2 (ko) 2013-03-28
JP6279699B2 (ja) 2018-02-14
US20150172695A1 (en) 2015-06-18
GB2507910B (en) 2018-12-12
ES2705251B1 (es) 2020-01-29
US20160295236A1 (en) 2016-10-06
SE542454C2 (sv) 2020-05-05
SE1651051A1 (sv) 2016-07-13
US9253499B2 (en) 2016-02-02
GB2557517A (en) 2018-06-20
ES2705331B1 (es) 2020-01-29
ES2580278A2 (es) 2016-08-23
ES2705334A2 (es) 2019-03-22
SE542456C2 (sv) 2020-05-05
SE1850159A1 (en) 2018-02-14
SE1651050A1 (sv) 2016-07-13
RU2013134438A (ru) 2015-10-27
CN107094259A (zh) 2017-08-25
ES2612494R1 (es) 2017-06-08
US20180160135A1 (en) 2018-06-07
CA2968598C (en) 2019-04-30
SE1850140A2 (sv) 2018-12-11
GB2556695B (en) 2018-11-14
CN107105268B (zh) 2020-10-23
RU2696301C2 (ru) 2019-08-01
JP2014520478A (ja) 2014-08-21
JP2016007043A (ja) 2016-01-14
JP2017085611A (ja) 2017-05-18
ES2705355A2 (es) 2019-03-22
RU2696237C2 (ru) 2019-07-31
JP6130430B2 (ja) 2017-05-17
US20130279595A1 (en) 2013-10-24
GB201803926D0 (en) 2018-04-25
RU2016101148A (ru) 2018-11-16
GB2507910A (en) 2014-05-14
CN107105279B (zh) 2020-03-06
CN107105269A (zh) 2017-08-29
CN107105279A (zh) 2017-08-29
US20160100182A1 (en) 2016-04-07
GB2562132B (en) 2019-01-23
CN107087193A (zh) 2017-08-22
SE1850158A2 (sv) 2018-12-11
ES2602201B1 (es) 2018-01-26
GB201803930D0 (en) 2018-04-25
JP6545838B2 (ja) 2019-07-17
JP5969654B2 (ja) 2016-08-17
US9930359B2 (en) 2018-03-27
ES2631477R1 (es) 2017-12-12
SE1651201A2 (en) 2017-01-10
RU2696229C2 (ru) 2019-07-31
US10165295B2 (en) 2018-12-25
ES2612494B1 (es) 2018-01-26
SE1450126A1 (sv) 2014-04-23
SE1651203A2 (en) 2017-01-10
MX341932B (es) 2016-09-08
CN107071456B (zh) 2020-09-04
CA2824755C (en) 2018-01-16
ES2647572R1 (es) 2018-04-02
SE1850158A1 (en) 2018-02-14
JP2016007044A (ja) 2016-01-14
RU2015153835A3 (pl) 2019-05-29
BR112013018993A2 (pt) 2021-02-02
US9578348B2 (en) 2017-02-21
RU2015153835A (ru) 2019-01-16
CN106878744A (zh) 2017-06-20
ES2631477A2 (es) 2017-08-31
CA2968598A1 (en) 2013-03-28
US10182237B2 (en) 2019-01-15
ES2572577R1 (es) 2016-07-01
PL407774A1 (pl) 2015-05-25
GB2557516A8 (en) 2018-07-11
GB201717601D0 (en) 2017-12-13
ES2705357A2 (es) 2019-03-22
CN106878744B (zh) 2020-06-19
RU2694018C2 (ru) 2019-07-08
ES2705337R1 (es) 2019-04-29
US20170094309A1 (en) 2017-03-30
EP3754990B1 (en) 2024-05-08
ES2705355R1 (es) 2019-04-23
ES2647622R1 (es) 2018-02-28
WO2013042888A3 (ko) 2013-05-30
ES2612493B1 (es) 2018-01-26
GB2556695A (en) 2018-06-06
RU2016101153A (ru) 2018-11-19
ES2602201A2 (es) 2017-02-20
SE542569C2 (sv) 2020-06-09
JP2015180074A (ja) 2015-10-08
JP2017085609A (ja) 2017-05-18
JP5746792B2 (ja) 2015-07-08
CN103444172A (zh) 2013-12-11
ES2647622A2 (es) 2017-12-22
CN106878743B (zh) 2020-07-17
US20180152717A1 (en) 2018-05-31
GB201402657D0 (en) 2014-04-02
ES2705355B1 (es) 2020-01-29
CN107071456A (zh) 2017-08-18
RU2576499C2 (ru) 2016-03-10
ES2647572B1 (es) 2019-01-17
RU2016101153A3 (pl) 2019-05-06
CN107105268A (zh) 2017-08-29
JP2015180075A (ja) 2015-10-08
ES2572577B1 (es) 2017-06-13
CN107105267B (zh) 2020-09-04
GB2557517A8 (en) 2018-07-11
EP2787728B1 (en) 2020-11-11
US20180152718A1 (en) 2018-05-31

Similar Documents

Publication Publication Date Title
PL231926B1 (pl) Sposób wywoływania bloku kandydatów łączących
US11438589B2 (en) Video encoding/decoding method and apparatus, and recording medium in which bit stream is stored
US11509930B2 (en) Image encoding/decoding method and recording medium therefor
KR101552635B1 (ko) 예측 단위의 파티션 모드에 기초한 계수 스캔 방법 및 장치
CN112740697B (zh) 图像编码/解码方法和装置及存储比特流的记录介质
CN116567224A (zh) 图像编码/解码方法和图像数据的发送方法
CN117221588A (zh) 图像编码/解码方法以及图像数据的传输方法
CA3108468A1 (en) Image encoding/decoding method and device, and recording medium storing bitstream
AU2015200359B2 (en) Method for inducing a merge candidate block and device using same
AU2016200597A1 (en) Method for inducing a merge candidate block and device using same