SE1651203A1 - Method for inducing a merge candidate block and device using same - Google Patents

Method for inducing a merge candidate block and device using same Download PDF

Info

Publication number
SE1651203A1
SE1651203A1 SE1651203A SE1651203A SE1651203A1 SE 1651203 A1 SE1651203 A1 SE 1651203A1 SE 1651203 A SE1651203 A SE 1651203A SE 1651203 A SE1651203 A SE 1651203A SE 1651203 A1 SE1651203 A1 SE 1651203A1
Authority
SE
Sweden
Prior art keywords
block
prediction
fusion
mer
candidate
Prior art date
Application number
SE1651203A
Other languages
English (en)
Other versions
SE1651203A2 (en
Inventor
Keun Lee Bae
Young Kim Joo
Cheol Kwon Jae
Original Assignee
Kt Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020120039500A external-priority patent/KR101197176B1/ko
Application filed by Kt Corp filed Critical Kt Corp
Publication of SE1651203A1 publication Critical patent/SE1651203A1/sv
Publication of SE1651203A2 publication Critical patent/SE1651203A2/sv

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Föreliggande uppfinning avser ett förfarande för att avkoda en videosignal. Förfa-randet innefattar att erhålla ett kolokaliserat referensindex för att identifiera en kolokolari-serad bild med ett aktuellt blocks kandidat block för temporal fusion; att fastställa den ko-lokaliserade bilden baserat på det kolokolariserade referensindexet; att erhålla informationrelaterad till rörelseprediktion från kandidatblocket för temporal fusion i den kolokolarise-rade bilden; att generera en kandidatlista för fusion innefattande kandidatblocket för tem-poral fusion; och att utföra interprediktion för det aktuella blocket baserat på den genere- rade kandidatlistan.

Description

FÖRFARANDE FÖR ATT UTSE ETT KANDIDATBLOCK FÖR FUSION SAMT EN AN-ORDNING FÖR TILLÄMPNING AV DETTA FÖRFARANDE Beskrivning Tekniskt områdeFöreliggande uppfinning avser ett förfarande för att koda och avkoda video, närmare be-stämt ett förfarande för att utse ett kandidatblock för fusion samt en anordning för att till- lämpa detta förfarande.
Teknikens ståndpunktPå senare tid har efterfrågan inom olika områden vuxit på video med hög upplösning och hög kvalitet, så kallad HD-video och UHD-video (med ultrahög upplösning). När videokva-liteten och upplösningen växer blir mängden video större jämfört med befintlig video, vilketinnebär att om video överförs på ett medium som en befintlig ledning eller ett trådlöst bredbandsnät, eller om den lagras på ett befintligt lagringsmedium, så ökar kostnaden föröverföring/lagring. För att kunna lösa dessa problem, som sammanhänger med ökad upp- lösning och högre kvalitet, så behövs effektivare videokomprimeringsmetoder.
Till de olika metoderna för videokomprimering hör inter(bild)prediktion, då värdet för enpixel ingående i en aktuell bild förutspås utgående från föregående eller efterföljande bild,intra(bild)prediktion, då värdet för en pixel ingående i en aktuell bild förutspås utgåendefrån pixelinformation inom denna bild, samt en entropikodningsteknik då en kortare kodtilldelas frekvensvärden som förekommer ofta och längre kod tilldelas frekvensvärden somförekommer mer sällan, och dessa videokomprimeringsmetoder gör att videodata kan komprimeras effektivt för överföring eller lagring.
Redogörelse för uppfinningen Tekniskt problemDet första syftet med föreliggande uppfinning är att erbjuda ett förfarande för att utse en kandidat för fusion genom parallell bearbetning.Det andra syftet med föreliggande uppfinning är att erbjuda en anordning för tillämpning av ett förfarande för att utse en kandidat för fusion genom parallell bearbetning.
Teknisk lösningEnligt en aspekt av föreliggande uppfinning, i enlighet med det första av ovannämnda syf- ten, erbjuds ett förfarande för att ta fram en kandidat för fusion. Förfarandet kan innefattaatt avkoda information som sammanhänger med en rörelseberäkningsregion (MER, Mot-ion Estimation Region); att avgöra huruvida ett målblock för prediktion och ett kandidat-block för spatial fusion ingår i samma MER; och att fastställa att kandidatblocket för spati-al fusion inte är tillgängligt om det finns ett kandidatblock för fusion som inte använderkandidatblocket för spatial fusion när målblocket för prediktion och kandidatblocket förspatial fusion ingår i samma MER. Förfarandet kan vidare innefatta adaptiv bestämning avett kandidatblock för spatial fusion utgående från storleken på MER och storleken på mål-blocket för prediktion, om målblocket för prediktion och kandidatblocket för spatial fusioningår i samma MER. Om MER har storleken 8x8 och storleken på målblocket för predikt-ion är 8x4 eller 4x8, så kan minst ett av kandidatblocken för spatial fusion i målblocket förprediktion ersättas med ett block som innehåller en punkt utanför MER. Förfarandet kanvidare innefatta att avgöra huruvida kandidatblocket för spatial fusion ingår i en MER somännu inte avkodats. Förfarandet kan vidare innefatta att ersätta kandidatblocket för spatialfusion med ett block som ingåri någon annan MER om målblocket för prediktion och kan-didatblocket för spatial fusion ingår i samma MER. Det ersatta kandidatblocket för spatialfusion kan väljas adaptivt så att det ingår i en annan MER än målblocket för prediktion,utgående från platsen för det ersatta kandidatblocket för spatial fusion i samma MER. Deninformation som sammanhänger med MER kan sammanhänga med storleken på MERoch överföras i en bildenhet. Avgörandet av huruvida målblocket för prediktion och kandi-datblocket för spatial fusion ingår i samma MER kan innefatta att avgöra huruvida mål-blocket för prediktion och kandidatblocket för spatial fusion ingår i samma MER utgåendefrån en kontrollekvation som baseras på information om var målblocket för prediktion är beläget, var kandidatblocket för spatial fusion är beläget samt hur stort MER är.
Enligt en annan aspekt av föreliggande uppfinning avseende det andra syftet enligt ovanerbjuds en anordning för avkodning av bilder. Anordningen kan innefatta en entropiavko-dande enhet som avkodar information som sammanhänger med en rörelseberäkningsreg-ion (MER) samt en prediktionsenhet som avgör huruvida ett målblock för prediktion ochett kandidatblock för spatial fusion ingår i samma MER, och fastställer att kandidatblocketför spatial fusion inte är tillgängligt om målblocket för prediktion och kandidatblocket förspatial fusion ingår i samma MER. Prediktionsenheten kan vara en prediktionsenhet somadaptivt bestämmer ett kandidatblock för spatial fusion utgående från storleken på MER och storleken på målblocket för prediktion, om målblocket för prediktion och kandidat- 3 blocket för spatial fusion ingår i samma MER. Om MER har storleken 8x8 och storlekenpå målblocket för prediktion är 8x4 eller 4x8, så kan prediktionsenheten ersätta minst ettav kandidatblocken för spatial fusion i målblocket för prediktion med ett block som inne-håller en punkt utanför MER. Prediktionsenheten kan avgöra om kandidatblocket förspatial fusion ingår i en MER som ännu inte avkodats. Prediktionsenheten kan vara enprediktionsenhet som ersätter kandidatblocket för spatial fusion med ett block som ingår inågon annan MER, om målblocket för prediktion och kandidatblocket för spatial fusion in-går i samma MER. Det ersatta kandidatblocket för spatial fusion kan vara ett kandidat-blocket för spatial fusionsom ersätts adaptivt så att det ingår i en annan MER än mål-blocket för prediktion, utgående från platsen för det ersatta kandidatblocket för spatial fus-ion i samma MER. lnformationen om MER kan sammanhänga med storleken på MER ochmedfölja en bildenhet. Prediktionsenheten kan vara en prediktionsenhet som avgörhuruvida målblocket för prediktion och kandidatblocket för spatial fusion ingår i sammaMER utgående från en kontrollekvation som baseras på information om var målblocket förprediktion är beläget, var kandidatblocket för spatial fusion är beläget, samt hur stort MER är.
Fördelar med uppfinningen Med ett förfarande för att utse ett kandidatblock för fusion och en anordning där förfaran-det tillämpas, enligt utföringsexemplen på föreliggande uppfinning, kan parallell bearbet- ning uppnås genom att metoden för att utse kandidatblocket för fusion tillämpas parallellt, vilket innebär att beräkningsvolymen och tillämpningskomplexiteten kan minska.
Kortfattad ritninqsbeskrivninqFiguren 1 är ett blockschema som illustrerar en videokodare enligt ett utföringsexempel på föreliggande uppfinning.
Figuren 2 är ett blockschema som illustrerar en videoavkodare enligt ett annat utfö- ringsexempel på föreliggande uppfinning.
Figuren 3 är en schematisk illustration av kandidatblock för tillämpning av en fusionsmod och en överhoppningsmod enligt ett utföringsexempel på föreliggande uppfinning.
Figuren 4 är en schematisk illustration av ett sätt att bestämma kandidatblock för fusion enligt ett utföringsexempel på föreliggande uppfinning. 4 Figuren 5 är en schematisk illustration av ett sätt att bestämma ett kandidatblock för fus-ion utgående från storleken på en MER enligt ett utföringsexempel på föreliggande upp- finning.
Figuren 6 är en schematisk illustration av ett sätt att avgöra huruvida ett kandidatblock för spatial fusion i ett aktuellt block är tillgängligt.
Figuren 7 är ett flödesschema som illustrerar ett sätt att i fusionsmod utse ett kandidat- block för spatial fusion, enligt ett utföringsexempel på föreliggande uppfinning.
Figuren 8 är ett flödesschema som illustrerar ett sätt att utföra interprediktion i fusions- mod, enligt ett utföringsexempel på föreliggande uppfinning.
Redogörelse för uppfinningen Flera ändringar och utföringsexempel är möjliga, men nedan kommer bara vissa utfö-ringsexempel att beskrivas närmare, under hänvisning till bifogade ritningsfigurer. Förelig-gande uppfinning ska dock inte uppfattas som begränsad till de utföringsexempel som be-skrivs nedan, utan omfattar alla modifikationer, motsvarigheter eller alternativ som liggerinom uppfinningens räckvidd och tekniska villkor. I alla ritningsfigurer avser samma hän- visningssiffra likartade element.
Man inser att även om uttrycken första, andra osv. används för att beskriva olika element,så begränsas elementen inte av dessa uttryck. Uttrycken används bara för att skilja olikaelement från varandra. Uttrycken används bara för att skilja olika element från varandra.Exempelvis kan ett första element benämnas ett andra element utan att detta avviker frånuppfinningens innehåll, liksom ett andra element kan benämnas ett första element. Ut-trycket "och/eller" innebär att ett av de angivna elementen eller en kombination av flera av de angivna elementen avses.
Man inser att när en egenskap eller ett element sägs vara "förbundet med" eller "kopplattill" en annan egenskap eller ett annat element, så innebär detta att förbindelsen ellerkopplingen kan vara direkt eller ha mellanliggande element. Där istället en egenskap ellerett element sägs vara "direkt förbundet med" eller "direkt kopplat till" ett annat element, så innebär detta att det inte föreligger några mellanliggande element.
Den terminologi som används här är avsedd för den närmare beskrivningen av de en- skilda utföringsexemplen och är inte avsedd att begränsa uppfinningens räckvidd. Entals- former som "en", "ett", "den", "det" ska uppfattas som täckande även flertalsformerna, ominte annat tydligt framgår av sammanhanget. Man inser att uttrycken "innefattar" eller "om-fattar" i den här beskrivningen avser att angivna egenskaper, tal, steg, åtgärder, element,komponenter eller kombinationer av sådana föreligger, men uttrycken utesluter inte att etteller flera andra egenskaper, tal, steg, åtgärder, element, komponenter eller kombination- er av sådana kan tillföras eller föreligger.
Uppfinningen kommer nedan att beskrivas närmare, med hänvisning till bifogade ritnings-figurer. l det följande används samma hänvisningssiffror i alla ritningarna för att beteckna samma komponenter, och samma komponent kommer inte att beskrivas mer än en gång.
Figuren 1 är ett blockschema som illustrerar en videokodare enligt ett utföringsexempel påföreliggande uppfinning.
Figuren 1 visar att en videokodare 100 kan innefatta en modul 110 för uppdelning av bil-den, en modul 120 för interprediktion, en modul 125 för intraprediktion, en modul 130 förtransformering, en modul 135 för kvantisering, en modul 160 för omstrukturering, en mo-dul 165 för entropikodning, en modul 140 för avkvantisering, en modul 145 för inverstrans- formering, en modul 150 för filtrering samt ett minne 155.
Var och en av de moduler som visas i figuren 1 avbildas fristående, för att tydliggöra olikafunktioner i videokodaren, vilket inte ska tolkas som att varje modul utgör en separathårdvaruenhet eller mjukvarukomponent. Modulerna räknas alltså upp för att illustrerafunktionerna, och minst två av modulerna kan kombineras till en, likaväl som en modulkan delas upp i flera element som tillsammans åstadkommer funktionen, och en utförings-form där de respektive modulerna kombineras eller delas upp ligger inom räckvidden för patentkraven till föreliggande uppfinning, och ligger inom uppfinningens tekniska ram.
Vissa av elementen kan också vara överflödiga för de väsentliga funktionerna i enlighetmed uppfinningen, men har tillagts för att de förbättrar prestanda. Föreliggande uppfinningkan förverkligas med bara sådana element som är väsentliga för att uppnå grundsyftetmed uppfinningen, utan medverkan av element som bara tillagts för att förbättra pre-standa, och en konfiguration som bara innefattar de väsentliga elementen och utesluterde tillagda element som bara förbättrar prestanda, ligger också inom räckvidden för pa- tentkraven till föreliggande uppfinning.
Modulen 110 för uppdelning av bilden kan dela upp en inkommande bild i minst en bear- betningsenhet. En sådan bearbetningsenhet kan utgöras av en prediktionsenhet (PU), en 6 transformeringsenhet (TU) eller en kodningsenhet (CU). Bilduppdelningsmodulen 110 kandela upp en bild i en kombination av kodningsenheter, prediktionsenheter och tranforme-ringsenheter, och kan koda bilden genom att välja ut någon kombination av kodningsen-het, prediktionsenhet(er) och transformeringsenhet(er), utgående från något förutbestämt kriterium (t.ex. en kostnadsfunktion).
Exempelvis kan en bild uppdelas i flera kodningsenheter. För att dela upp en kodningsen-het kan man tillämpa en rekursiv trädstruktur, exempelvis ett quad-träd, varvid en kod-ningsenhet som uppdelats i andra kodningsenheter, utgående från en bild eller en störstakodningsenhet som rot, kan delas upp i lika många avkommenoder som antalet uppde-lade kodningsenheter. En kodningsenhet som inte uppdelats ytterligare på grund av nå-gon viss restriktion blir en bladnod. Om man antar att bara kvadratisk uppdelning finns atttillgå för en kodningsenhet kan man alltså dela upp en kodningsenhet i fyra olika kod- ningsenheter.
I de följande utföringsexemplen på föreliggande uppfinning kan med uttrycket kodnings-enhet avses inte bara en kodningsenhet utan också en avkodningsenhet.Prediktionsenheten kan uppdelas i kvadrater eller rektanglar med samma storlek inom en kodningsenhet.
När prediktionsenheten för en intraprediktion skapas utgående från kodningsenheten kanintraprediktionen utföras utan uppdelning i flera prediktionsenheter som en NxN-enhet, om kodningsenheten inte utgör den minsta kodningsenheten.
Prediktionsmodulen kan innehålla interprediktionsmodulen 120 för att utföra en interpre-diktion och intraprediktionsmodulen 125 för att utföra en intraprediktion. I fråga om predikt-ionsenheten kan prediktionsmodulen avgöra om en interprediktion eller en intraprediktionska utföras, utgående från specifik information för respektive prediktionsmetod (t.ex.intraprediktionsmod, rörelsevektor, referensbild osv.). Här kan den bearbetningsenhetsom utför prediktionen och den bearbetningsenhet som avgör valet av prediktionsmetodoch den specifika informationen vara olika. Exempelvis kan prediktionsmetoden och pre-diktionsmoden bestämmas i prediktionsenheten, medan prediktionen utförs i transforme-ringsenheten. Ett restvärde (restblock) mellan ett genererat prediktionsblock och ett ur-sprungsblock kan utgöra indata för transformeringsmodulen 130. Vidare kan informationom prediktionsmod, rörelsevektor osv. som används vid prediktionen, kodas i entropi-kodningsmodulen 135, tillsammans med det restvärde som ska överföras till avkodaren.
När en viss kodningsmod används är det möjligt att prediktionsblocket inte genereras i 7 prediktionsmodulen 120, 125, utan att istället ursprungsblocket kodas därför att det ska överföras till en avkodare. lnterprediktionsmodulen kan utföra prediktion för prediktionsenheten utgående från in-formation om minst en bild ibland bilder som ligger före eller efter den aktuella bilden. ln-terprediktionsmodulen kan innehålla en modul för interpolation av referensbilder, en mo- dul för rörelseprediktion och en modul för rörelsekompensation.
Modulen för interpolation av referensbilder kan förses med information om referensbilderfrån minnet 155 och kan generera pixelinformation från referensbilden som är mindre änen hel pixel _ För en lumapixel kan ett DCT-baserat 8-koefficients interpolationsfilter an-vändas, där en filterkoefficient varieras för att generera pixelinformation som är 1/4 pixelmindre än en hel pixel. För en kromapixel kan ett DCT-baserat 4-koefficients interpolat-ionsfilter användas, där en filterkoefficient varieras för att generera pixelinformation som är 1/8 pixel mindre än en hel pixel.
Rörelseprediktionsmodulen kan utföra rörelseprediktion utgående från en referensbildsom har interpolerats av modulen för referensbildsinterpolation_ Det finns olika metoder atterhålla rörelsevektorn, exempelvis FBMA (full search-based block matching algorithm),TSS (three step search) och NTS (new three-step search). Rörelsevektorn kan ha ett rö-relsevektorvärde utgörande 1/2 eller 1/4 pixel utgående från den interpolerade pixeln. Rö-relseprediktionsmodulen kan förutsäga en aktuell prediktionsenhet genom att växla metodför rörelseprediktionen. Olika metoder för att utföra rörelseprediktion kan användas, ex-empelvis kan metoder såsom ett överhoppningsmod, ett fusionsmod eller ett mod för avancerad rörelsevektorprediktion (AMVP, advanced motion vector prediction) användas.
Enligt utföringsexempel på föreliggande uppfinning kan rörelseberäkningsregionen (MER)bestämmas vid interprediktionen så att interprediktionen kan utföras parallellt. När exem-pelvis fusionsmod eller överhoppningsmod används vid interprediktionen kan man avgöraom ett målblock för prediktion och ett kandidatblock för spatial fusion ingår i samma MER,och om målblocket för prediktion och kandidatblocket för spatial fusion inte ingår i sammaMER, så kan kandidatblocket för spatial fusion fastställas som icke tillgängligt, eller ettkandidatblock för fusion kan fastställas genom att man avgör om kandidatblocket förspatial fusion ingår i en MER som ännu inte avkodats. I det följande beskrivs hur predikt-ionsenheten arbetar när en interprediktion utförs, enligt utföringsexempel på föreliggande uppfinning. 8 lnterprediktionsenheten kan generera prediktionsenheten utgående från information omreferenspixlar som ligger intill ett aktuellt block, varvid referenspixlarna ingår i den aktuellabilden. Om ett intilliggande block i den aktuella prediktionsenheten är ett block för vilkeninterprediktion utförs, varvid referenspixlar är de pixlar för vilka interprediktionen utförs, såkan de referenspixlar som ingår i interprediktionsblocket ersättas med referenspixlarna iintilliggande block för vilka intraprediktion utförs. Om en referenspixel saknas kan alltså saknade referenspixlar ersättas med minst en referenspixel som är tillgänglig.
Vid intraprediktionen kan olika riktningsberoende prediktionsmoder tillämpas, varvid in-formation från referenspixlarna används, utgående från en prediktionsriktning, samtidigtsom riktningsoberoende moder tillämpas, som inte utnyttjar riktningsinformation vid pre-diktionen. En prediktionsmod för information om lumasampel och en prediktionsmod förinformation om kromasampel behöver inte vara samma. Vidare kan information om valdintraprediktionsmod för lumasampel eller information om förutsagda lumasignaler använ- das för att förutsäga information om kromasampel.
I ett fall där storleken på prediktionsenheten och storleken på transformeringsenheten ärlika vid intraprediktion, kan intraprediktionen utföras på den prediktionsenhet som baseraspå pixlar till vänster, pixlar upptill till vänster, och pixlar upptill i prediktionsenheten. I ett falldär storleken på prediktionsenheten och storleken på transformeringsenheten är olika vidintraprediktion, kan istället intraprediktionen utföras utgående från referenspixlarna base-rat på transformeringsenheten. Vidare kan intraprediktion som utnyttjar uppdelning i NxN bara för den minsta kodningsenheten användas.
Vid intraprediktionsmetoden kan, beroende på prediktionsmod, ett modberoende utjäm-ningsfilter (MDIS) användas för referenspixlarna för att generera prediktionsblocket. Ty-pen av MDIS-filter för referenspixelarna kan vara olika. Vid intraprediktionen kan intrapre-diktionsmoden för den aktuella prediktionsenheten förutsägas utgående från intrapredikt-ionsmoden för den prediktionsenhet som ligger intill den aktuella prediktionsenheten. Vidförutsägning av prediktionsmoden för den aktuella prediktionsenheten genom att användamodinformation för en intilliggande prediktionsenhet, gäller att om intraprediktionsmoder-na för den aktuella prediktionsenheten och den intilliggande prediktionsenheten ärsamma, så kan information om att prediktionsmoderna för den aktuella prediktionsenhet-en och den intilliggande prediktionsenheten är samma överföras med hjälp av en förutbe-stämd flagginformation, och om intraprediktionsmoderna för den aktuella prediktionsen-heten och den intilliggande prediktionsenheten är olika kan prediktionsmoden för det ak- tuella blocket avkodas genom entropikodning.
Vidare erhålls ett restblock med restvärdesinformation, som är skillnaden mellan den pre-diktionsenhet som prediktionen utförs på, den prediktionsenhet som genererats i predikt-ionsmodulen 120 eller 125, samt ursprungsblocket i prediktionsenheten. Det genereraderestblocket kan matas in i transformeringsmodulen 130. Transformeringsmodulen 130 kantransformera restblocket med restvärdet från ursprungsblocket och den prediktionsenhetsom genererats i prediktionsmodulen 120 eller 125, med hjälp av en transformeringsmet-od som diskret cosinustransform (DCT) eller diskret sinustransform (DST). Huruvida DCTeller DST ska användas för att transformera restblocket kan avgöras utgående från in-formation om intraprediktionsmoden för den prediktionsenhet som användes för att gene- rera restblocket.
Kvantiseringsmodulen 135 kan kvantisera värden som transformerats till en frekvensdo-män av transformeringsmodulen 130. Beroende på blocket eller bildens betydelse kankvantiseringsparametern varieras. Ett värde som matats ut från kvantiseringsmodulen 135 kan vara indata till avkvantiseringsmodulen 140 och omstruktureringsmodulen 160.
Omstruktureringsmodulen 160 kan omstrukturera det kvantiserade koefficientvärdet i re- lation till restvärdet.
Omstruktureringsmodulen 160 kan modifiera en koefficient i en tvådimensionell matris iblockform, till att bli en endimensionell vektor, med hjälp av en metod för koefficientskan-ning. Exempelvis kan omstruktureringsmodulen 160 genom diagonalskanning av koeffici-enter som ligger mellan likström och högfrekvensområdet omstrukturera dessa till en en-dimensionell vektor. Beroende på transformeringsenhetens storlek och intraprediktions-moden kan vertikalskanning av tvådimensionella koefficienteri blockform i kolumnrikt-ningen, eller en horisontalskanning av tvådimensionella koefficienter i blockform i radrikt-ningen, användas istället för diagonalskanning. Man kan med andra ord avgöra vilkenskanningsmod - diagonalskanning, vertikalskanning eller horisontalskanning - som skaanvändas, utgående från storleken på transformeringsenheten och den använda intrapre- diktionsmoden.
Entropikodningsmodulen 165 utför entropikodning utgående från värden som kommer frånomstruktureringsmodulen 160. Entropikodning kan utföras med hjälp av olika kodnings-metoder, som Exponential Golomb eller Context-Adaptive Binary Arithmetic Coding (CA-BAC).
Entropikodningsenheten 165 kan koda olika typer av information, som restkoefficient förkodningsenheten, blocktyp, prediktionsmod, partitionsenhet, prediktionsenhet, överfö-ringsenhet, rörelsevektor, referensbild, blockinterpolation, filter, MER osv., som härrör från omstruktureringsmodulen 160 och prediktionsmodulerna 120 och 125.
Entropikodningsenheten 165 kan utför entropikodningen av det koefficientvärde i kod-ningsenheten som härrör från omstruktureringsmodulen 160, med hjälp av en entropi- kodningsmetod, exempelvis CABAC.
Avkvantiseringsmodulen 140 och inverstransformeringsmodulen 145 avkvantiserar värdensom kvantiserats av kvantiseringsmodulen 135, och inverstransformerar de värden somtransformerats av transformeringsmodulen 130. Det restvärde som genereras av avkvan-tiseringsmodulen 140 och inverstransformeringsmodulen 145 kan adderas till den predikt-ionsenhet som förutsägs av rörelseberäkningsmodulen, rörelsekompensationsmodulenoch intraprediktionsmodulen i prediktionsmodulerna 120 och 125, varvid ett rekonstruerat block erhålls.
Filtreringsmodulen 150 kan innehålla åtminstone något av ett avblockeringsfilter, en mo- dul för offsetkorrigering, samt ett adaptivt loopfilter (ALF).
Avblockeringsfiltret kan ta bort en blockdistorsion som åstadkommits av en blockgräns ien rekonstruerad bild. För att avgöra om avblockeringsfiltrering behövs kan man avgöraom avblockeringsfiltret ska appliceras på det aktuella blocket utgående från de pixlar somingår i vissa kolumner eller rader som ingår i blocket. När man applicerar avblockeringsfilt-ret på blocket kan ett starkt filter eller ett svagt filter appliceras, beroende på vilken filter-styrka som behövs. Vid avblockeringsfiltrering i vertikal riktning och horisontell riktning kan filtreringarna ske parallellt.
Modulen för offsetkorrigering kan korrigera en offset från en ursprungsbild med en pixel-enhet i relation till den bild för vilken avblockeringsfiltrering utförs. För att utföra offsetkor-rigering i relation till en viss bild kan man använda en metod som innefattar att klassificerapixlari bilden till ett förvalt antal regioner, att bestämma vilken region offset ska gälla, ochatt applicera offset på motsvarande region, eller en metod som innefattar att applicera off- set utgående från kantinformation för varje pixel.
Det adaptiva loopfiltret (ALF) kan utföra filtrering baserad på en jämförelse mellan den fil- trerade och rekonstruerade bilden respektive ursprungsbilden. När pixlar som ingår i bil- 11 den har klassificerats till en förvald grupp och ett filter fastställts som ska användas förmotsvarande grupp, kan filtreringen utföras på respektive grupp med differentiering förolika filter. Information om huruvida ALF ska appliceras kan överföras av kodningsenheten(CU) och storlek och koefficient för ALF kan vara olika för varje block. ALF kan ha olikaform vilket betyder att olika koefficienter i filtret kan vara olika för olika filter. ALF-information som är relevant för filtreringen (filterkoefficient, ALF On/Off, filterform osv.) kan ingå och överföras inom en förvald parameteruppsättning i ett bitflöde.
Minnet 155 kan lagra ett rekonstruerat block eller bild som kommer från filtreringsmodulen150, och det lagrade rekonstruerade blocket eller bilden kan gå vidare till prediktionsmo- dulen 120, 125 när interprediktion ska utföras.
Figuren 2 är ett blockschema som illustrerar en bildavkodare enligt ett annat utföringsex- empel på föreliggande uppfinning.
Som framgår av figuren 2 kan en videoavkodare innefatta en modul 210 för entropiavkod-ning, en modul 215 för omstrukturering, en modul 220 för avkvantisering, en modul 225för inverstransformering, en modul 230, 235 för prediktion, en modul 240 för filtrering och ett minne 245.
När ett bitflöde med videodata inkommer från videokodaren kan detta bitflöde avkodas i motsatt ordning mot bearbetningen i videokodaren.
Entropiavkodningsmodulen 210 kan utföra entropiavkodning i motsatt ordning motentropikodningen i videokodarens entropikodningsmodul. Information för att genereraprediktionsblocket i den information som avkodas av entropiavkodningsmodulen 210 kangå vidare till prediktionsmodulen 230, 235, och de restvärden som har entropiavkodats i entropiavkodningsmodulen kan gå vidare till omstruktureringsmodulen 215.
Entropiavkodningsmodulen 210 kan avkoda information som sammanhänger med denintraprediktion och interprediktion som utförts av kodaren. Som beskrivits ovan kan, om enförutbestämd restriktion finns i videokodaren för intraprediktionen och interprediktionen,den information som sammanhänger med intraprediktion och interprediktion för det aktu- ella blocket erhållas genom entropiavkodning utgående från restriktionen.
Omstruktureringsmodulen 215 kan utföra omstrukturering av bitflödet som entropiavko- dats av entropiavkodningsmodulen 210, utgående från omstruktureringsmetoden i kodar- 12 en. Koefficienter som föreligger som en endimensionell vektor kan omkonstrueras och omstruktureras till tvådimensionell blockform.
Avkvantiseringsmodulen 220 kan utföra avkvantisering utgående från kvantiseringspara- metern som kommer från kodaren och det omstrukturerade koefficientblocket.
Modulen 225 för inverstransformering kan utföra en invers DCT och en invers DST på re-sultatet av den kvantisering som gjorts av videokodaren, utgående från den DCT och DSTsom utförts av transformeringsmodulen. lnverstransformeringen kan utföras utgående frånden överföringsenhet som bestämts av videokodaren. I videokodarens transformerings-modul kan DCT och DST utföras selektivt utgående från olika information, som prediktion-smetod, storleken på aktuellt block och prediktionsriktningen, medan videoavkodarensmodul 225 för inverstransformering kan utföra inverstransformering utgående från inform- ation om transformeringen i videokodarens transformeringsmodul.
Prediktionsmodulen 230, 235 kan generera prediktionsblocket utgående från informationsom sammanhänger med genereringen av prediktionsblocket och kommer från entropiav-kodningsmodulen 210, samt information om det närmast föregående avkodade blocket el- ler bilden som kommer från minnet 245.
Prediktionsmodulen 230, 235 kan innehålla en modul för bestämning av prediktionsenhet,en modul för interprediktion och en modul för intraprediktion. Modulen för bestämning avprediktionsenhet kan få olika informations, som prediktionsenhet, intraprediktionsmod förinterprediktionsmetoden och rörelseprediktion för interprediktionsmetoden från entropiav-kodaren, och kan särskilja prediktionsenheten i den aktuella kodningsenheten utgåendefrån den mottagna informationen och avgöra huruvida interprediktion eller intraprediktionska utföras på prediktionsenheten. lnterprediktionsenheten kan utföra interprediktion för den aktuella prediktionsenheten, ut-gående från information som ingåri minst en bild mellan de bilder som föregår och de bil-der som följer den aktuella bilden, inklusive den aktuella prediktionsenheten, utgåendefrån information som krävs för interprediktion för den aktuella prediktionsenheten och som erhålls av videokodaren.
För att utföra interprediktionen kan det avgöras, utgående från kodningsenheten, huruvidarörelseprediktionsmetoden för den prediktionsenhet som ingåri en motsvarande kod- ningsenhet är i överhoppningsmod, fusionsmod eller AMVP-mod. 13 Enligt ett utföringsexempel på föreliggande uppfinning kan rörelseberäkningsregionen(MER) vid interprediktion avgränsas för parallellprediktion. När exempelvis fusionsmod el-ler överhoppningsmod används vid interprediktionen kan det avgöras om ett målblock förprediktion och ett kandidatblock för spatial fusion ingår i samma MER. När målblocket förprediktion och kandidatblocket för spatial fusion inte ingår i samma MER, så kan kandi-datblocket för spatial fusion fastställas som icke tillgängligt eller också kan det fastställassom ett kandidatblock för fusion, om det ingår i en MER som ännu inte avkodats. I det föl-jande beskrivs närmare för ett utföringsexempel på föreliggande uppfinning hur predikt- ionsmodulen arbetar. lntraprediktionsmodulen kan generera ett prediktionsblock utgående från pixelinformation iden aktuella bilden. När prediktionsenheten är en prediktionsenhet för intraprediktion kanintraprediktionen utföras utgående från information om intraprediktionsmod för predikt-ionsenheten, som erhålls från videokodaren. lntraprediktionsmodulen kan innefatta MDIS-filtret, en modul för interpolering av referenspixlar och ett DC-filter. MDIS-filtret är en mo-dul för filtrering av referenspixlar i det aktuella blocket, och prediktionsmoden för den ak-tuella prediktionsenheten får avgöra huruvida filtret ska användas. Filtreringen kan utföraspå referenspixlar i det aktuella blocket med den prediktionsmod som används för predikt-ionsenheten, med hjälp av den MDlS-filterinformation som erhålls från videokodaren. Närprediktionsmoden för det aktuella blocket är sådant att ingen filtrering ska utföras behövsinte MDIS-filtret.
Modulen för interpolering av referenspixlar kan generera en referenspixel i en pixelenhetsom är mindre än ett heltal, genom att interpolera referenspixeln när prediktionsmoden förprediktionsenheten används för intraprediktion utgående från ett pixelvärde för den inter-polerade referenspixeln. När prediktionsmoden för den aktuella prediktionsenheten gene-rerar är en prediktionsmod som genererar prediktionsblocket utan interpolering av refe-renspixeln behövs ingen sådan interpolering av referenspixeln. DC-filtret kan genereraprediktionsblocket genom filtrering om prediktionsmoden för det aktuella blocket är DC- mod.
Det rekonstruerade blocket eller bilden kan gå vidare till filtreringsmodulen 240. Filtre-ringsmodulen 240 kan innehålla ett avblockeringsfilter, en modul för offsetkorrigering, samt ett adaptivt loopfilter (ALF).
Information om huruvida avblockeringsfiltrering utförs på ett visst block eller bild, och om ett starkt eller ett svagt filter i såfall används, kan erhållas från videokodaren. Avblocke- 14 ringsfiltret i videoavkodaren kan erhålla information om avblockeringsfiltret i videokodaren,och kan utföra avblockeringsfiltrering av ifrågavarande block i videoavkodaren. På sammasätt som i videokodaren utförs först en vertikal och en horisontell avblockeringsfiltrering,och minst en vertikal och horisontell avblockering kan utföras på ett överlappande om-råde. I det överlappande området för vertikal och horisontell avblockeringsfiltrering kanden vertikala eller horisontella avblockeringsfiltrering utföras som inte tidigare utförts. Ge- nom denna teknik för avblockeringsfiltrering kan parallell avblockeringsfiltrering utföras.
Modulen för offsetkorrigering kan utföra offsetkorrigering på den rekonstruerade bilden, utgående från vilken offsetkorrigering som utförts på bilden och ifrågavarande offsetvärde.
ALF kan utföra filtrering baserad på ett värde som erhålls vid en jämförelse mellan den fil-trerade och rekonstruerade bilden och ursprungsbilden. ALF kan användas för kodnings-enheten utgående från information från avkodaren om huruvida ALF ska användas samt ALF-koefficient. ALF-informationen kan ingå i en viss parameteruppsättning som medde- las.
Minnet 245 kan innehålla den rekonstruerade bild eller block som ska användas som refe-rensbild eller referensblock, och den rekonstruerade bilden kan gå vidare till utdatamodu- len.
I beskrivningen ovan har med kodningsenhet avsetts en kodningsenhet i en utföringsform,men den kan avse en enhet för såväl kodning som avkodning. Nedan kommer en predikt-ionsmetod som illustreras av figurerna 3-11 att beskrivas, enligt ett utföringsexempel på uppfinningen, som kan användas med hjälp av exempelvis den prediktionsmodul som av- bildas i figurerna 1 och 2.
Figuren 3 är en schematisk illustration av kandidatblock för tillämpning av fusionsmod och överhoppningsmod enligt ett utföringsexempel på föreliggande uppfinning.
Nedan kommeri illustrerande syfte att beskrivas fusionsmod i ett utföringsexempel påuppfinningen; samma metod kan dock användas för överhoppningsmod, och ett sådant utföringsexempel ligger inom räckvidden för patentkraven till föreliggande uppfinning.
Figuren 3 visar att interprediktion ifusionsmod kan utföras med hjälp av kandidatblockenför spatial fusion 300, 305, 310, 315 och 320, samt kandidatblocken för temporal fusion350 och 355.
Om en punkt (XP, yP) befinner sig upptill till vänster på prediktionsblocket, varvid predikt-ionsblocket har bredden nPSW och höjden sPSH, kan vart och ett av kandidatblocken förspatial fusion 300, 305, 310, 315 och 320 vara något av ett första block 300 med en punkt(xP-1, yP+nPSH-MinPuSize), ett andra block 305 med en punkt (xP+nPSW-MinPuSize,yP-1), ett tredje block 310 med en punkt (xP+nPSW, yP-1), ett fjärde block 315 med enpunkt (XP-1, yP+nPSH), och ett femte block 320 med en punkt (xP-MinPuSize, yP-1).
Kandidatblocket för temporal fusion kan använda flera kandidatblock, och ett första Col-block (kolokaliserat block) 350 kan vara ett block med en punkt (xP+nPSW, yP+nPSH)som befinner sig på en Col-bild (kolokaliserad bild). Om det första Col-blocket 350 saknaseller inte är åtkomligt (t.ex. om det första Col-blocket inte utför någon interprediktion), kanistället användas ett andra Col-block 355 med en punkt (xP+(nPSW>>1), yP+(nPSH>>1))i Col-bilden.
Enligt ett utföringsexempel på föreliggande uppfinning kan man avgöra huruvida ett kan-didatblock för fusion ska användas i relation till ett visst område, för att utföra parallell in-terprediktion i fusionsmod vid rörelseprediktion. Exempelvis kan man för att bestämmakandidatblock för fusion i fusionsmod, i relation till ett förvalt område av viss storlek, av-göra huruvida kandidatblocket för fusion ligger inom det förvalda området tillsammansmed målblocket för prediktion och utifrån detta avgöra om kandidatblocket för fusion skaanvändas eller bytas mot ett annat kandidatblock för fusion, och därigenom utföra rörel-seprediktionen parallellt i relation till det förvalda området. I det följande beskrivs närmare,för ett utföringsexempel på föreliggande uppfinning, en metod för parallell rörelsepredikt- ion i fusionsmod.
Figuren 4 är en schematisk illustration av ett sätt att bestämma kandidatblock för fusion enligt ett utföringsexempel på föreliggande uppfinning.
Figuren 4 visar ett antaget fall där en största kodningsenhet (LCU) delas upp i fyra reg- ioner för rörelseberäkning (MER).
För ett första prediktionsblock PUO, som ingår i en första MER (MERO), enligt figuren 4,kan det vid interprediktion i fusionsmod för det första prediktionsblocket PUO finnas femkandidatblock för spatial fusion 400, 405, 410, 415 och 420. Dessa fem kandidatblock förfusion 400, 405, 410, 415 och 420 kan finnas på platser som inte ingår i den första MER(MERO), och kan vara block för vilka kodning/avkodning redan skett. 16 Det andra prediktionsblocket (PU1) är ett prediktionsblock som ingår i en andra MER(MER1) och fyra kandidatblock för fusion 430, 435, 445 och 450 av kandidatblocken förspatial fusion 430, 435, 440, 445 och 450 för interprediktion i fusionsmod kan vara blocksom ligger i den andra MER (MER1) och block som tillhör den MER där prediktion vid till-fället utförs. Det återstående kandidatblocket för fusion 440 kan vara ett block som finnstill höger om aktuell MER och ett block i en LCU eller MER där kodning/avkodning ännu inte utförts.
Enligt ett utföringsexempel på föreliggande uppfinning gäller att om kandidatblocket förfusion i det aktuella blocket och det aktuella blocket ingår i samma MER, så utesluts kan-didatblocket för fusion i det aktuella blocket, och rörelseinformation för minst ett block påannan plats kan läggas till som kandidat för fusion, utgående från det aktuella blocketsoch MER:s storlek.
Ett block som innehåller en punkt som ligger i en annan MER i vertikal eller horisontellriktning kan läggas till som kandidatblock för fusion. Alternativt kan ett block som ingårien annan MER på en plats närmast kandidatblocket läggas till som kandidatblock för fus-ion. Alternativt kan ett block på en förvald plats utgående från det aktuella blockets form och storlek läggas till som kandidatblock för fusion.
Exempelvis kan för kandidatblocket för fusion 435, som ligger vid överkanten till denandra prediktionsenheten (PU1), och för kandidatblocket för fusion 450, som ligger i över-kant till vänster från den andra prediktionsenheten, istället blocken 455 och 460, som in-nehåller punkter utanför den andra MER i vertikal riktning, användas som ersättande kan-didatblock för fusion. För kandidatblocket för fusion 430, som ligger till vänster om denandra prediktionsenheten, och för kandidatblocket för fusion 445, som liggeri nederkanttill vänster från den andra prediktionsenheten, kan istället blocken 465 och 470, som in-nehåller punkter utanför MER i horisontell riktning, användas som ersättande kandidat-block för fusion. När ett block ingår i samma MER som den aktuella prediktionsenhetenoch därför inte kan användas som kandidatblock för fusion, så kan kandidatblocket förfusion ersättas med ett annat block som innehåller en punkt i en annan MER, utgående från var kandidatblocket för fusion är beläget.
För ett tredje prediktionsblock (PU2) kan ett kandidatblock för fusion 475, som ligger isamma MER som det tredje prediktionsblocket, ersättas med ett block 480, som ligger vid överkanten rakt ovanför. Vidare kan man enligt ett utföringsexempel på föreliggande upp- 17 finning ersätta platsen för kandidatblocket för spatial fusion med ett block som ingår i enannan MER i en annan riktning än vertikalt eller horisontellt, och detta utföringsexempel ligger också inom räckvidden för patentkraven till föreliggande uppfinning.
Följande steg kan utföras för att tillämpa ett förfarande för att bestämma kandidatblock förfusion. 1) Att avkoda information som sammanhänger med en rörelseberäkningsregion (MER).Informationen som sammanhänger med MER kan innehålla information om storleken påMER. Huruvida målblocket för prediktion ingåri MER kan avgöras utgående från informat- ion om MER:s storlek och storleken på målblocket för prediktion. 2) Att avgöra huruvida målblocket för prediktion och kandidatblocket för spatial fusion in-går i samma MER.
Om målblocket för prediktion och kandidatblocket för spatial fusion ingår i samma MER,så kan följande steg vidtas för att adaptivt bestämma kandidatblocket för spatial fusion, utgående från storleken på MER och storleken på målblocket för prediktion 3) Att fastställa att kandidatblocket för spatial fusion inte är tillgängligt om målblocket förprediktion och kandidatblocket för spatial fusion ingår i samma MER.
Kandidatblocket för spatial fusion kan bestämmas som otillgängligt om målblocket för pre-diktion och kandidatblocket för spatial fusion ingår i samma MER, och det kandidatblockför spatial fusion som ingår i samma MER kan ersättas med ett annat kandidatblock förfusion. Vidare kan det enligt beskrivningen nedan förekomma att kandidatblocket för fus-ion som bestämts som otillgängligt inte kan användas vid interprediktion i fusionsmod.Enligt ett annat utföringsexempel på föreliggande uppfinning kan en metod tillämpas, sominte utnyttjar det kandidatblock för fusion som finns i samma MER som målblocket för prediktion.
Bland kandidatblocken för fusion är exempelvis de tillgängliga för parallell interprediktion ifusionsmod som ingår i en MER där kodning/avkodning redan utförts, och inte i en MERdär aktuell prediktion utförs. Blocken kan användas som kandidatblock för interprediktion ifusionsmod. Dock kan inte block som ingår i den MER där prediktion utförs användas somkandidatblock för interprediktion i fusionsmod. Det block för vilket kodning/avkodning intehar utförts kan inte heller användas som kandidatblock för interprediktion. Utföringsex- emplet ligger också inom räckvidden för patentkraven till föreliggande uppfinning.
Figuren 5 är en schematisk illustration av ett sätt att bestämma kandidatblock för fusion 18 enligt ett utföringsexempel på föreliggande uppfinning, utgående från storleken på enMER.
Figuren 5 visar att kandidaten för fusion kan bestämmas adaptivt utgående från MER-storleken och storleken på den aktuella prediktionsenheten. I ett fall där en kandidat förfusion motsvarar någon av platserna A, B, C, D och E för kandidater för fusion och ingårisamma MER som den aktuella prediktionsenheten, så fastställs kandidaten för fusion somotillgänglig. Här kan rörelseinformation för minst ett block på annan plats läggas till som kandidat för fusion, utgående från det aktuella blockets och MER:s storlek.
I figuren 5 antas att storleken på MER är 8x8 och storleken på målblocket för prediktion är4x8. Om MER har storleken 8x8 tillhör ett block A som ingår i målblocket för prediktionbåde samma MER och samma målblock för prediktion, medan blocken B, C, D och E in-går i ett annat MER än målblocket för prediktion.
Detta block A kan ersättas med ett block (t.ex. blocket A') som ingår i en annan MER. En-ligt ett utföringsexempel på föreliggande uppfinning gäller därför att om kandidatblocketför fusion i det aktuella blocket och det aktuella blocket ingåri samma MER, så kan kan-didatblocket för fusion i det aktuella blocket uteslutas, så att rörelseinformation för minstett block på annan plats kan läggas till som kandidat för fusion, utgående från det aktuellablockets och MER:s storlek.
Enligt ett utföringsexempel på föreliggande uppfinning kan informationen om MER:s stor-lek ingå i den syntaxinformation för högre nivå som ska överföras.Tabell 1 nedan hör till en metod för överföring av information om storleken på MER i syn- taxen för högre nivå.
Tabell 1pic_parameter_set_rbsp() { Deskriptorpic_para_meter_set_id ue(v)seq_pa ra meter_set_id ue(v)entropy_coding_mode_f|ag u(l)num_tempora|_|ayer_switching_point_f|ags ue(v) 19 for (i = 0; i < num_temporal_layer_sWitching_point_flags: i--) tempora|_|ayer_switching_point_f|ag[ i ] uu) num_ref_idx_|0_defau|t_active_mi nus1 ue(v) num_ref_idx_|1_defau|t_active_minus1 ue(v) pic_init_qp_minus26 I* relative to 26 *I se(v) constrained_intra_pred_f|ag uu) shared_pps_i nfo_enab|ed_f|ag uu) if (shared_pps_info_enab|ed_f|ag) if (adaptive_loop_filter_enabled_flag) a|f_param() if (cu_qp_de|ta_enab|ed_f|ag) max_cu_q p_de|ta_depth u(4) log2_parallel_merge_level_minus2 ue(v) rbsp_trai|ing_bits() I tabell 1 visas att informationen om storleken på MER kan erhållas utgående från ett syn- taxelement Iog2_parallel_merge_level_minus2 som ingår i en syntaxstruktur för högre nivå, exempelvis en uppsättning bildparametrar. Ett syntaxelement log2_parallel_merge_level_minus2 kan också få ingå i en annan syntaxstruktur för högre nivå än uppsättningen bildparametrar, och detta utföringsexempel ligger också inom räck- vidden för patentkraven till föreliggande uppfinning.
Tabell 2 nedan beskriver sambandet mellan ett värde på log2_parallel_merge_level_minus2 och storleken på MER.
Tabe||2|og2_>para||e|_merge_|eve|_minus2 MER- Kommentarstorlek0 4x4 Sekventiell fusions/överhoppningsmod för alla PU inom en LCl, därför att minsta PU-storleksom tillåts enligt HEVC är 4x4 8x8 Parallell sökning i fusions/överhoppningsmod tillåten för alla PU inom ett 8x8-block 2 16x16 tillåten för alla PU inom ett 16x16-block Parallell sökning ifusions/överhoppningsmod 3 32x32tillåten för alla PU inom ett 32x32-block Parallell sökning ifusions/överhoppningsmod 4 64x64tillåten för alla PU inom ett 64x64-block Parallell sökning ifusions/överhoppningsmod I tabell 2 visas att värdet på log2_parallel_merge_level_minus2 kan ha ett värde i detslutna intervallet 0 till 4, och storleken på MER kan specificeras på annat sätt utgåendefrån värdet på syntaxelementet. Om MER är 0 betyder detta att interprediktionen utförs i fusionsmod utan att MER används.
Syntaxelementet med information om storleken på MER kan i ett utföringsexempel på fö-religgande uppfinning utgöra uttrycket "MER size information syntax element" och att de-finiera informationssyntaxelementet för MER-storleken på det sätt som anges i tabell 2 ärett exempel. Det går att specificera MER-storleken på olika sätt, och ett sådant sätt att ut-trycka syntaxelementet ligger också inom räckvidden för patentkraven till föreliggande uppfinning.
Figuren 6 är en schematisk illustration av ett sätt att avgöra huruvida ett kandidatblock för spatial fusion i ett aktuellt block är tillgängligt.
Enligt figuren 6 kan man avgöra huruvida ett kandidatblock för spatial fusion är tillgängligt utgående från platserna för ett målblock för prediktion 600 och ett kandidatblock för spatialfusion 650 som ligger intill målblocket för prediktion 600 plus syntaxelementet med in- formation om storleken på MER.
Om man antar att (xP, yP) är en punkt upptill till vänsteri målblocket för prediktion och att(xN, yN) är en punkt upptill till vänsteri kandidatblocket för fusion, så kan man avgörahuruvida kandidatblocket för spatial fusion är tillgängligt med hjälp av nedanstående ek-vationer Math 1 och Math 2.
Math 1: (xP ïi1= ï=f( log 2_parz1llel_n1e1'ge_le\'el_|ninus2+2 ))== (xN >>( log2_||araIle-Linerge_level_1ninus2+2)) Math 2: 21 (yP 11 '11=( log2_parallel_lnerge_le\'el_lnilllls2+2))== (yN >> ( log2_|1arallel_1nerge_level_lllilllls2+2)) Math 1 och Math 2 ovan är exempel på ekvationer som kan användas för att avgörahuruvida kandidatblocket för fusion och målblocket för prediktion ingår i samma MER. Omman vill avgöra huruvida kandidatblocket för fusion och målblocket för prediktion ingårisamma MER kan man också använda en annan metod än den ovan beskrivna, så länge som den inte avviker från det centrala i föreliggande uppfinning.
Figuren 7 är ett flödesschema som illustrerar ett sätt att utse ett kandidatblock för spatialfusion i fusionsmod, enligt ett utföringsexempel på föreliggande uppfinning.
Figuren 7 visar hur MER-relaterad information avkodas (steget S700).
Den MER-relaterade informationen kan vara syntaxelementinformation enligt beskrivning-en ovan, och kan ingå i syntaxstrukturen för högre nivå. Man kan avgöra huruvida mål-blocket för prediktion och kandidatblocket för spatial fusion ingår i samma eller olika MER utgående från den avkodade MER-relaterade informationen.
Man avgör huruvida målblocket för prediktion och kandidatblocket för spatial fusion ingårisamma MER (steget S710).
Enligt ett utföringsexempel på föreliggande uppfinning gäller att om kandidatblocket förfusion i det aktuella blocket och det aktuella blocket ingår i samma MER, så kan kandidat-blocket för fusion i det aktuella blocket uteslutas, och rörelseinformation för minst ett blockpå annan plats kan läggas till som kandidat för fusion, utgående från det aktuella blocketsoch MER:s storlek (steget S720). Enligt ett annat utföringsexempel på föreliggande upp-finning kan, istället för att använda det kandidatblock för spatial fusion som ingår i sammaMER som målblocket för prediktion, ett block i ett annat MER med annan plats ersätta kandidatblocket för fusion för utförande av interprediktionen.
Vidare,enligt ett annat utföringsexempel på föreliggande uppfinning, när kandidatblock förspatial fusion och målblocket för prediktion ingår i samma MER, behöver inte kandidat-blocket för fusion det kandidatblock för spatial fusion som ingår i samma MER användassom målblocket för prediktion.
När kandidatblocket för spatial fusion och målblocket för prediktion inte ingår i sammaMER, så utförs interprediktionen utgående från motsvarande kandidatblock för spatial fus-ion (steget S730). 22 Figuren 8 är ett flödesschema som illustrerar ett sätt att utföra interprediktion i fusions-mod, enligt ett utföringsexempel på föreliggande uppfinning.
Enligt figuren 8 erhålls informationen för rörelseprediktion från kandidaten för spatial fus-ion (steget S800).
Kandidaten för spatial fusion kan utses från den intilliggande prediktionsenheten i mål-blocket för prediktion. För att utse kandidaten för spatial fusion kan man hämta informat-ion om bredd och höjd för prediktionsenheten, information om MER, information omsingleMCLFlag, samt information om platsen för partitionen. Utgående från den inhäm-tade informationen enligt ovan kan man hämta information (availableFlagN) om huruvidakandidaten för spatial fusion är tillgänglig, om referensbilden (refldxL0, refldxL1), omlistanvändning (predFIagLON, predFlagL1N), samt om rörelsevektorn (mvLON, mvL1 N),för den plats där kandidaten för spatial fusion är belägen. Kandidaten för spatial fusion kan vara flera block som ligger intill målblocket för prediktion.
Enligt ett utföringsexempel på föreliggande uppfinning kan kandidatblocket för spatial fus- ion klassificeras i tre klasser: 1) ett kandidatblock för spatial fusion som inte ingår i sammaMER och som redan har kodats eller avkodats; 2) ett kandidatblock för spatial fusion som ingår i samma MER; och 3) ett kandidatblock för spatial fusion för vilket kodning och av- kodning ännu inte utförts.
Enligt ett utföringsexempel på föreliggande uppfinning kan man för att utföra parallell in-terprediktion i en MER-enhet välja som kandidatblock för spatial fusion bland de kandidat-block för spatial fusion som är tillgängliga för interprediktion det kandidatblock för spatialfusion som inte ingår i samma MER och som redan kodats eller avkodats. Vidare kan mansom kandidatblock för spatial fusion använda det kandidatblock för spatial fusion som er-sätter en plats för det kandidatblock för spatial fusion som ingår i samma MER. Med andraord kan man enligt ett utföringsexempel på föreliggande uppfinning om kandidatblocket förfusion i det aktuella blocket och det aktuella blocket ingår i samma MER, så utesluts kan-didatblocket för fusion i det aktuella blocket, och rörelseinformation för minst ett block påannan plats kan läggas till som kandidat för fusion, utgående från det aktuella blocketsoch MER:s storlek. Som beskrivits ovan kan man tillämpa en metod för att bestämmakandidatblocket för fusion genom steget att avkoda information som är kopplat till MER(Motion Estimation Region), steget att avgöra huruvida målblocket för prediktion och kan-didatblocket för fusion ingår i samma MER, och steget att fastställa att kandidatblocket förfusion inte är tillgängligt för interprediktion i fusionsmod om kandidatblocket för fusion in- går i samma MER som målblocket för prediktion. 23 Enligt ett annat utföringsexempel på föreliggande uppfinning kan man för att utföra inter-prediktionen som kandidatblock för fusion ut välja ut bland de kandidatblock för spatialfusion som är tillgängliga för interprediktion det kandidatblock för spatial fusion som inte ingår i samma MER och som redan kodats eller avkodats.
Man får fram ett värde på referensbildsindex för kandidaten för temporal fusion (stegetS810).
Värdet på referensbildsindex för kandidaten för temporal fusion är ett indexvärde för denCol-bild som innehåller kandidaten för temporal fusion (Col-blocket) och kan erhållas viaett särskilt villkor enligt nedan. Om till exempel målblocket för prediktion har en punkt (XP,yP) upptill till vänster, bredden nPSW och höjden nPSH, så kan värdet på rerefensbildsin-dex för kandidaten för temporal fusion bestämmas till samma värde som referensbildsin-dex för intilliggande prediktionsenhet (som hädanefter benämns "intilliggande prediktions-enhet för härledning av referensbildsindex") om 1) det finns en intilliggande prediktionsen-het i målblocket för prediktion som motsvarar platsen (XP-1, yP+nPSH-1); 2) ett partitions-indexvärde för intilliggande prediktionsenhet för härledning av referensbildsindex är 0; 3)intilliggande prediktionsenhet för härledning av referensbildsindex är inte ett block som ut-för prediktionen i intraprediktionsmod; och 4) målblocket för prediktion och intilliggandeprediktionsenhet för härledning av referensbildsindex ingår inte i samma MER (MotionEstimation Region). Om dessa villkor inte uppfylls kan referensbildsindex för kandidaten för temporal fusion sättas till 0.
Kandidaten för temporal fusion bestäms, och informationen för rörelseprediktion härledsfrån kandidaten för temporal fusion (steget S820).
För att bestämma kandidatblocket för temporal fusion (Col-blocket) och utvinna informat-ionen för rörelseprediktion utgående från det utsedda kandidatblocket för temporal fusion(Col-blocket), kan man bestämma en plats för Col-blocket som används för att utvinna enrörelsevektor för temporal prediktion, utgående från sådana villkor som exempelvishuruvida Col-blocket är tillgängligt för målblocket för prediktion, eller var en plats för mål-blocket för prediktion ligger i förhållande till LCU (t.ex. huruvida platsen för målblocket förprediktion är vid nederkanten eller högerkanten i förhållande till LCU). Genom att utvinnainformationen för rörelseprediktion utgående från den fastställda informationen för refe-rensbilden i Col-blocket och informationen för rörelsevektorn för prediktion, kan man ut-vinna informationen för rörelseprediktion från kandidatblocket för temporal fusion (Col-blocket). 24 En lista över kandidater för fusion upprättas (steget S830).
Listan över kandidater för fusion kan upprättas genom att man inkluderar minst en kandi-dat för spatial fusion och kandidaten för temporal fusion. Den kandidat för spatial fusionoch den kandidat för temporal fusion som finns på listan över kandidater för fusion kan ordnas med fast prioritet.
Listan över kandidater för fusion kan upprättas genom att man inkluderar ett fast antalkandidater för fusion. Om det inte finns tillräckligt många kandidater för fusion för attskapa det fasta antalet kandidater, kan en kandidat genereras genom att man kombinerarinformationen för rörelseprediktion för kandidaten för fusion, eller också kan listan överkandidater för fusion genereras genom att man lägger till en nollvektor som kandidat för fusion.
Som beskrivits ovan kan man använda metoden för att utse en kandidat för fusion intebara för interprediktion mellan bildramar i fusionsmod, utan också för intraprediktion inomen bildram i överhoppningsmod, och detta utföringsexempel faller också inom räckvidden för patentkraven till föreliggande uppfinning. Även om föreliggande uppfinning har beskrivits med hänvisning till utföringsexempel, såinser fackmannen att olika förändringar och variationer av dessa kan göras utan att mangår utanför föreliggande uppfinning och räckvidden för nedanstående patentkrav till denna.
Utföringsformer 1. Förfarande för att utse en kandidat för fusion, innefattande följande steg: att avkoda information som sammanhänger med en rörelseberäkningsregion (MER); att avgöra huruvida ett målblock för prediktion och ett kandidatblock för spatial fusion in-går i samma MER; och att fastställa att kandidatblocket för spatial fusion är ett otillgängligt kandidatblock för fus-ion om målblocket för prediktion och kandidatblocket för spatial fusion ingår i sammaMER. 2. Förfarande enligt utföringsform 1, också innefattandeatt adaptivt bestämma ett kandidatblock för spatial fusion utgående från storleken på MERoch storleken på målblocket för prediktion, om målblocket för prediktion och kandidat- blocket för spatial fusion ingår i samma MER. 3. Förfarande enligt utföringsform 2, innefattande att ersätta minst ett av kandidat-blocken för spatial fusion i målblocket för prediktion med ett block som innehåller en punktutanför MER, om storleken på MER är 8x8 och storleken på målblocket för prediktion är8x4 eller 4x8. 4. Förfarande enligt utföringsform 1, också innefattandeatt avgöra huruvida kandidatblocket för spatial fusion ingår i en MER som ännu inte avko-dats.
. Förfarande enligt utföringsform 1, också innefattandeatt ersätta kandidatblocket för spatial fusion med ett block som ingåri någon annan MER om målblocket för prediktion och kandidatblocket för spatial fusion ingår i samma MER. 6. Förfarande enligt utföringsform 5, innefattande att det ersatta kandidatblocket förspatial fusion är ett kandidatblock för spatial fusion som ersatts adaptivt så att det kommeratt ingå i en annan MER än målblocket för prediktion, utgående från platsen för det kandi- datblock för spatial fusion som ingår i samma MER. 7. Förfarande enligt utföringsform 1, innefattande att nämnda information som sammanhänger med MER har att göra med storleken på MER och överförs i en bildenhet. 8. Förfarande enligt utföringsform 1, där steget att avgöra huruvida målblocket för 26 prediktion och kandidatblocket för spatial fusion ingår i samma MER innefattar att avgörahuruvida målblocket för prediktion och kandidatblocket för spatial fusion ingår i sammaMER utgående från en kontrollekvation som baseras på information om var målblocket förprediktion är beläget, var kandidatblocket för spatial fusion är beläget samt hur stort MER är. 9. Anordning för avkodning av video, innefattande: en modul för entropiavkodning som avkodar information som sammanhänger med en rö-relseberäkningsregion (MER); och en modul för prediktion som avgör huruvida ett målblock för prediktion och ett kandidat-block för spatial fusion ingår i samma MER; och bestämmer att kandidatblocket för spatialfusion är ett otillgängligt kandidatblock för fusion om målblocket för prediktion och kandi- datblocket för spatial fusion ingår i samma MER.
. Anordning för avkodning av video enligt utföringsform 9, där nämnda predikt-ionsmodul adaptivt bestämmer ett kandidatblock för spatial fusion utgående från storlekenpå MER och storleken på målblocket för prediktion, om målblocket för prediktion och kan- didatblocket för spatial fusion ingår i samma MER. 11. Anordning för avkodning av video enligt utföringsform 10, där nämnda predikt-ionsmodul ersätter minst ett av kandidatblocken för spatial fusion i målblocket för predikt-ion med ett block som innehåller en punkt utanför MER, om MER har storleken 8x8 och storleken på målblocket för prediktion är 8x4 eller 4x8. 12. Anordning för avkodning av video enligt utföringsform 9, där nämnda predikt-ionsmodul avgör huruvida kandidatblocket för spatial fusion ingår i en MER som ännu inte avkod ats. 13. Anordning för avkodning av video enligt utföringsform 9, där nämnda predikt-ionsmodul ersätter kandidatblocket för spatial fusion med ett block som ingåri någon an-nan MER, om målblocket för prediktion och kandidatblocket för spatial fusion ingåri samma MER. 14. Anordning för avkodning av video enligt utföringsform 13, där det ersatta kandi-datblocket för spatial fusion är ett kandidatblock för spatial fusion som ersatts adaptivt såatt det ingår i en annan MER än målblocket för prediktion, utgående från platsen för det kandidatblock för spatial fusion som ingår i samma MER. 27 . Anordning för avkodning enligt utföringsform 9, där nämnda information som sammanhänger med MER har att göra med storleken på MER och överförs i en bildenhet. 16. Anordning för avkodning av video enligt utföringsform 9, där nämnda predikt-ionsmodul avgör huruvida målblocket för prediktion och kandidatblocket för spatial fusioningår i samma MER utgående från en kontrollekvation som baseras på information om varmålblocket för prediktion är beläget, var kandidatblocket för spatial fusion är beläget samthur stort MER är.

Claims (3)

1. Förfarande för att avkoda en videosignal, innefattande: att erhålla ett kolokaliserat referensindex för att identifiera en kolokolariserad bildmed ett aktuellt blocks kandidat block för temporal fusion; att fastställa den kolokaliserade bilden baserat på det kolokolariserade referensin-dexet erhålla information relaterad till rörelseprediktion från kandidatblocket för temporalfusion i den kolokolariserade bilden; att generera en kandidatlista för fusion innefattande kandidatblocket för temporalfusion; och att utföra interprediktion för det aktuella blocket baserat på den genererade kandi- datlistan.
2. Förfarandet enligt krav 1, varvid kandidatblocket för temporal fusion är ett koloko- lariserat block hos det aktuella blocket.
3. Förfarande enligt krav 1, varvid den kolokolariserade bilden är variabelt vald från ett flertal avkodade bilder baserat på det kolokolariserade referensindexet.
SE1651203A 2011-09-23 2012-09-06 Method for inducing a merge candidate block and device usingsame SE1651203A2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR20110096138 2011-09-23
KR1020120039500A KR101197176B1 (ko) 2011-09-23 2012-04-17 머지 후보 블록 유도 방법 및 이러한 방법을 사용하는 장치
PCT/KR2012/007176 WO2013042888A2 (ko) 2011-09-23 2012-09-06 머지 후보 블록 유도 방법 및 이러한 방법을 사용하는 장치

Publications (2)

Publication Number Publication Date
SE1651203A1 true SE1651203A1 (sv) 2016-09-07
SE1651203A2 SE1651203A2 (en) 2017-01-10

Family

ID=47914988

Family Applications (10)

Application Number Title Priority Date Filing Date
SE1450126A SE539969C2 (sv) 2011-09-23 2012-09-06 Förfarande för att utse ett kandidatblock för fusion samt enanordning för tillämpning av detta förfarande
SE1651051A SE542569C2 (sv) 2011-09-23 2012-09-06 Förfarande för att utse ett kandidatblock för fusion samt en anordning för tillämpning av detta förfarande
SE1651199A SE542455C2 (sv) 2011-09-23 2012-09-06 Förfarande för att utse ett kandidatblock för fusion samt en anordning för tillämpning av detta förfarande
SE1651202A SE1651202A2 (en) 2011-09-23 2012-09-06 Method for inducing a merge candidate block and device usingsame
SE1850159A SE1850159A2 (sv) 2011-09-23 2012-09-06 Förfarande för att utse ett kandidatblock för fusion samt en anordning för tillämpning av detta förfarande
SE1651201A SE542456C2 (sv) 2011-09-23 2012-09-06 Förfarande för att utse ett kandidatblock för fusion samt en anordning för tillämpning av detta förfarande
SE1651050A SE542454C2 (sv) 2011-09-23 2012-09-06 Förfarande för att utse ett kandidatblock för fusion samt en anordning för tillämpning av detta förfarande
SE1850158A SE1850158A2 (sv) 2011-09-23 2012-09-06 Förfarande för att utse ett kandidatblock för fusion samt en anordning för tillämpning av detta förfarande
SE1651203A SE1651203A2 (en) 2011-09-23 2012-09-06 Method for inducing a merge candidate block and device usingsame
SE1850140A SE1850140A2 (sv) 2011-09-23 2012-09-06 Förfarande för att utse ett kandidatblock för fusion samt en anordning för tillämpning av detta förfarande

Family Applications Before (8)

Application Number Title Priority Date Filing Date
SE1450126A SE539969C2 (sv) 2011-09-23 2012-09-06 Förfarande för att utse ett kandidatblock för fusion samt enanordning för tillämpning av detta förfarande
SE1651051A SE542569C2 (sv) 2011-09-23 2012-09-06 Förfarande för att utse ett kandidatblock för fusion samt en anordning för tillämpning av detta förfarande
SE1651199A SE542455C2 (sv) 2011-09-23 2012-09-06 Förfarande för att utse ett kandidatblock för fusion samt en anordning för tillämpning av detta förfarande
SE1651202A SE1651202A2 (en) 2011-09-23 2012-09-06 Method for inducing a merge candidate block and device usingsame
SE1850159A SE1850159A2 (sv) 2011-09-23 2012-09-06 Förfarande för att utse ett kandidatblock för fusion samt en anordning för tillämpning av detta förfarande
SE1651201A SE542456C2 (sv) 2011-09-23 2012-09-06 Förfarande för att utse ett kandidatblock för fusion samt en anordning för tillämpning av detta förfarande
SE1651050A SE542454C2 (sv) 2011-09-23 2012-09-06 Förfarande för att utse ett kandidatblock för fusion samt en anordning för tillämpning av detta förfarande
SE1850158A SE1850158A2 (sv) 2011-09-23 2012-09-06 Förfarande för att utse ett kandidatblock för fusion samt en anordning för tillämpning av detta förfarande

Family Applications After (1)

Application Number Title Priority Date Filing Date
SE1850140A SE1850140A2 (sv) 2011-09-23 2012-09-06 Förfarande för att utse ett kandidatblock för fusion samt en anordning för tillämpning av detta förfarande

Country Status (14)

Country Link
US (10) US9253498B2 (sv)
EP (2) EP3754990B1 (sv)
JP (10) JP5746792B2 (sv)
CN (10) CN107071456B (sv)
AU (1) AU2012310514B2 (sv)
BR (1) BR112013018993B1 (sv)
CA (2) CA2968598C (sv)
ES (16) ES2612493B1 (sv)
GB (5) GB2507910B (sv)
MX (4) MX2013008349A (sv)
PL (2) PL231926B1 (sv)
RU (6) RU2696229C2 (sv)
SE (10) SE539969C2 (sv)
WO (1) WO2013042888A2 (sv)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2549170C2 (ru) 2009-03-23 2015-04-20 Нтт Докомо, Инк. Устройство кодирования с предсказанием изображений, способ кодирования с предсказанием изображений, программа кодирования с предсказанием изображений, устройство декодирования с предсказанием изображений, способ декодирования с предсказанием изображений, программа декодирования с предсказанием изображений
FR2959376A1 (fr) * 2010-04-22 2011-10-28 France Telecom Procede de traitement d'une information de mouvement, procedes de codage et de decodage, dispositifs, signal et programme d'ordinateur correspondants
ES2887236T3 (es) * 2010-07-20 2021-12-22 Ntt Docomo Inc Método de decodificación predictiva de imágenes
EP2727357A1 (en) * 2011-07-01 2014-05-07 Motorola Mobility LLC Motion vector prediction design simplification
US9819963B2 (en) * 2011-07-12 2017-11-14 Electronics And Telecommunications Research Institute Inter prediction method and apparatus for same
SI4009641T1 (sl) * 2011-09-09 2023-12-29 Lg Electronics Inc. Postopek za dekodiranje slik, postopek za kodiranje slik, postopek za prenos podatkov za informacije o sliki in računalniško berljiv pomnilniški medij s shranjenim bitnim tokom, ki vključuje informacije o zakodirani sliki
CN107071456B (zh) 2011-09-23 2020-09-04 株式会社Kt 解码视频信号的方法
JP2013118627A (ja) * 2011-10-31 2013-06-13 Jvc Kenwood Corp 動画像復号装置、動画像復号方法、動画像復号プログラム、受信装置、受信方法及び受信プログラム
JP5969041B2 (ja) * 2011-11-08 2016-08-10 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 候補リスト共有方法及びこのような方法を使用する装置
JP5835208B2 (ja) * 2011-12-28 2015-12-24 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、並びに、送信装置、送信方法、及び送信プログラム
JP5842803B2 (ja) * 2011-12-28 2016-01-13 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、並びに、送信装置、送信方法、及び送信プログラム
US11317101B2 (en) 2012-06-12 2022-04-26 Google Inc. Inter frame candidate selection for a video encoder
US9544612B2 (en) * 2012-10-04 2017-01-10 Intel Corporation Prediction parameter inheritance for 3D video coding
US9503746B2 (en) 2012-10-08 2016-11-22 Google Inc. Determine reference motion vectors
US9485515B2 (en) 2013-08-23 2016-11-01 Google Inc. Video coding using reference motion vectors
US9432685B2 (en) * 2013-12-06 2016-08-30 Qualcomm Incorporated Scalable implementation for parallel motion estimation regions
WO2016085229A1 (ko) 2014-11-27 2016-06-02 주식회사 케이티 비디오 신호 처리 방법 및 장치
WO2016085231A1 (ko) * 2014-11-27 2016-06-02 주식회사 케이티 비디오 신호 처리 방법 및 장치
WO2017105097A1 (ko) * 2015-12-17 2017-06-22 삼성전자 주식회사 머지 후보 리스트를 이용한 비디오 복호화 방법 및 비디오 복호화 장치
CN116506597A (zh) * 2016-08-03 2023-07-28 株式会社Kt 视频解码方法、视频编码方法和视频数据的传送方法
CN116866568A (zh) * 2016-10-04 2023-10-10 株式会社Kt 用于处理视频信号的方法和装置
US10484703B2 (en) 2017-02-07 2019-11-19 Mediatek Inc. Adapting merge candidate positions and numbers according to size and/or shape of prediction block
US10602180B2 (en) 2017-06-13 2020-03-24 Qualcomm Incorporated Motion vector prediction
US10655846B2 (en) 2017-09-18 2020-05-19 Haier Us Appliance Solutions, Inc. Gas burner assembly for a cooktop appliance
US11350118B2 (en) * 2018-05-30 2022-05-31 Digitalinsights Inc. Image encoding/decoding method and device
US11412246B2 (en) 2018-06-08 2022-08-09 Kt Corporation Method and apparatus for processing video signal
CN116320489A (zh) 2018-06-29 2023-06-23 北京字节跳动网络技术有限公司 视频处理方法、编码装置和解码装置
EP3831062A4 (en) * 2018-08-17 2022-07-06 HFI Innovation Inc. SIMPLIFIED SUBMODE METHOD AND APPARATUS FOR VIDEO CODING
WO2020048366A1 (en) 2018-09-03 2020-03-12 Huawei Technologies Co., Ltd. Coding method, device, system with merge mode
CN110650344B (zh) * 2018-09-14 2022-01-21 北京达佳互联信息技术有限公司 生成合并候选列表的方法、装置以及电子设备、存储介质
KR102616766B1 (ko) * 2018-09-22 2023-12-27 엘지전자 주식회사 인터 예측을 기반으로 비디오 신호를 처리하기 위한 방법 및 장치
CN110944184B (zh) * 2018-09-25 2022-05-31 华为技术有限公司 视频解码方法及视频解码器
CN110958452B (zh) * 2018-09-27 2023-11-03 华为技术有限公司 视频解码方法及视频解码器
US11172214B2 (en) * 2018-12-21 2021-11-09 Qualcomm Incorporated Derivation of processing area for parallel processing in video coding
WO2020140218A1 (zh) * 2019-01-02 2020-07-09 深圳市大疆创新科技有限公司 用于视频编码或解码的运动信息获取方法与装置
WO2020164544A1 (en) 2019-02-13 2020-08-20 Beijing Bytedance Network Technology Co., Ltd. Updating of history based motion vector prediction tables
CN111240622B (zh) * 2020-01-07 2022-01-25 卡莱特云科技股份有限公司 一种绘制方法及装置

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1234567A (sv) * 1967-06-22 1971-06-03
CH682614A5 (fr) * 1990-02-21 1993-10-15 Kudelski Sa Procédé d'embrouillage et de désembrouillage d'un signal vidéo.
US5122875A (en) * 1991-02-27 1992-06-16 General Electric Company An HDTV compression system
KR0134483B1 (ko) * 1994-06-14 1998-05-15 배순훈 디코더에 있어서 어드레스 보정 회로(address correction circuit of the decoder)
US5666170A (en) * 1995-07-12 1997-09-09 Thomson Consumer Electronics, Inc. Apparatus for decoding video signals encoded in different formats
US7099949B1 (en) * 1995-10-23 2006-08-29 Imec Vzw Interprocess communication protocol system
CN1293759C (zh) * 2001-09-06 2007-01-03 佳能株式会社 图象处理方法和装置,图象处理系统以及存储介质
CN1219283C (zh) * 2001-08-07 2005-09-14 北京大恒鼎芯科技有限公司 可视音带的图文数据生成和编码方法及图文数据播放装置
JP2003299103A (ja) * 2002-03-29 2003-10-17 Toshiba Corp 動画像符号化方法と装置及び動画像復号化方法と装置
JP2004007379A (ja) * 2002-04-10 2004-01-08 Toshiba Corp 動画像符号化方法及び動画像復号化方法
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US7154952B2 (en) 2002-07-19 2006-12-26 Microsoft Corporation Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures
JP3977716B2 (ja) * 2002-09-20 2007-09-19 株式会社東芝 動画像符号化/復号化方法及び装置
JP2005175997A (ja) * 2003-12-12 2005-06-30 Sony Corp 復号化装置、電子機器、コンピュータ、復号化方法、プログラム及び記録媒体
KR20050075483A (ko) * 2004-01-15 2005-07-21 삼성전자주식회사 비디오 코딩 및 디코딩 방법, 및 이를 위한 장치
KR100703770B1 (ko) * 2005-03-25 2007-04-06 삼성전자주식회사 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치
JP5089878B2 (ja) * 2005-10-28 2012-12-05 パナソニック株式会社 画像符号化装置
KR100934674B1 (ko) * 2006-03-30 2009-12-31 엘지전자 주식회사 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치
US8213509B2 (en) * 2006-10-06 2012-07-03 Calos Fund Limited Liability Company Video coding on parallel processing systems
JP4793366B2 (ja) * 2006-10-13 2011-10-12 日本ビクター株式会社 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム
TWI368443B (en) * 2006-11-09 2012-07-11 Lg Electronics Inc Method and apparatus for decoding/encoding a video signal
EP2106666B1 (en) * 2007-01-08 2019-06-12 Nokia Technologies Oy Improved inter-layer prediction for extended spatial scalability in video coding
EP2453655A1 (en) * 2007-04-09 2012-05-16 NTT DoCoMo, Inc. Image coding using template matching
KR100921465B1 (ko) * 2007-04-19 2009-10-13 엘지전자 주식회사 디지털 방송 신호 송수신기 및 그 제어 방법
US8605786B2 (en) * 2007-09-04 2013-12-10 The Regents Of The University Of California Hierarchical motion vector processing method, software and devices
KR101123285B1 (ko) * 2007-10-25 2012-03-20 니폰덴신뎅와 가부시키가이샤 동화상 스케일러블 부호화 방법 및 복호 방법, 그 장치, 그 프로그램 및 프로그램을 기록한 기록매체
US7844937B2 (en) * 2007-12-06 2010-11-30 Freescale Semiconductor, Inc. Method and apparatus for making a semiconductor device using hardware description having merged functional and test logic blocks
KR101591825B1 (ko) * 2008-03-27 2016-02-18 엘지전자 주식회사 비디오 신호의 인코딩 또는 디코딩 방법 및 장치
KR101578052B1 (ko) * 2008-04-02 2015-12-17 삼성전자주식회사 움직임 추정 장치 및 이를 구비하는 동영상 부호화 장치
JP5406465B2 (ja) * 2008-04-24 2014-02-05 株式会社Nttドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
JP4670918B2 (ja) * 2008-08-26 2011-04-13 ソニー株式会社 フレーム補間装置及びフレーム補間方法
KR101306834B1 (ko) 2008-09-22 2013-09-10 에스케이텔레콤 주식회사 인트라 예측 모드의 예측 가능성을 이용한 영상 부호화/복호화 장치 및 방법
US8665964B2 (en) * 2009-06-30 2014-03-04 Qualcomm Incorporated Video coding based on first order prediction and pre-defined second order prediction mode
KR20110008653A (ko) * 2009-07-20 2011-01-27 삼성전자주식회사 움직임 벡터 예측 방법과 이를 이용한 영상 부호화/복호화 장치 및 방법
KR101452859B1 (ko) 2009-08-13 2014-10-23 삼성전자주식회사 움직임 벡터를 부호화 및 복호화하는 방법 및 장치
US8379718B2 (en) 2009-09-02 2013-02-19 Sony Computer Entertainment Inc. Parallel digital picture encoding
KR20110033676A (ko) 2009-09-25 2011-03-31 삼성중공업 주식회사 해수 유입 차단 장치
KR101348613B1 (ko) * 2009-12-23 2014-01-10 한국전자통신연구원 영상의 부호화/복호화 장치 및 그 방법
US9124898B2 (en) 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
US8824558B2 (en) 2010-11-23 2014-09-02 Mediatek Inc. Method and apparatus of spatial motion vector prediction
US9137544B2 (en) 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
US8711940B2 (en) 2010-11-29 2014-04-29 Mediatek Inc. Method and apparatus of motion vector prediction with extended motion vector predictor
US10397599B2 (en) 2010-12-17 2019-08-27 Electronics And Telecommunications Research Institute Method and apparatus for inter prediction using motion vector candidate based on temporal motion prediction
WO2012081949A2 (ko) 2010-12-17 2012-06-21 한국전자통신연구원 인터 예측 방법 및 그 장치
US8755437B2 (en) 2011-03-17 2014-06-17 Mediatek Inc. Method and apparatus for derivation of spatial motion vector candidate and motion vector prediction candidate
AU2012208842B2 (en) 2011-01-19 2014-08-07 Hfi Innovation Inc. Method and apparatus for parsing error robustness of temporal Motion Vector Prediction
CN103583047B (zh) * 2011-03-14 2017-03-29 寰发股份有限公司 导出运动矢量预测子的方法与装置
KR101532665B1 (ko) 2011-03-14 2015-07-09 미디어텍 인크. 시간적 움직임 백터 예측을 도출하기 위한 방법 및 장치
US9143795B2 (en) 2011-04-11 2015-09-22 Texas Instruments Incorporated Parallel motion estimation in video coding
US9247266B2 (en) 2011-04-18 2016-01-26 Texas Instruments Incorporated Temporal motion data candidate derivation in video coding
US9313494B2 (en) * 2011-06-20 2016-04-12 Qualcomm Incorporated Parallelization friendly merge candidates for video coding
SI4009641T1 (sl) 2011-09-09 2023-12-29 Lg Electronics Inc. Postopek za dekodiranje slik, postopek za kodiranje slik, postopek za prenos podatkov za informacije o sliki in računalniško berljiv pomnilniški medij s shranjenim bitnim tokom, ki vključuje informacije o zakodirani sliki
KR101391829B1 (ko) * 2011-09-09 2014-05-07 주식회사 케이티 시간적 후보 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치
GB2559226B (en) * 2011-09-09 2018-11-28 Kt Corp Method for deriving a temporal predictive motion vector
CN107071456B (zh) 2011-09-23 2020-09-04 株式会社Kt 解码视频信号的方法
JP5969041B2 (ja) 2011-11-08 2016-08-10 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 候補リスト共有方法及びこのような方法を使用する装置
US20130125904A1 (en) 2011-11-18 2013-05-23 R.J. Reynolds Tobacco Company Smokeless tobacco product comprising pectin component
DK3503554T3 (da) 2011-12-16 2020-05-11 Jvc Kenwood Corp Dynamisk billedkodningsapparat, dynamisk billedkodningsfremgangsmåde, dynamisk billedkodningsprogram
EP2797325A4 (en) 2011-12-23 2015-09-16 Korea Electronics Telecomm METHOD AND DEVICE FOR DETERMINING A REFERENCE FILE INDEX OF A TIMELY COMBINATION CANDIDATE
WO2013099285A1 (ja) * 2011-12-28 2013-07-04 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、並びに動画像復号装置、動画像復号方法及び動画像復号プログラム
EP2806636A1 (en) * 2012-01-19 2014-11-26 Sony Corporation Image processing device and method

Also Published As

Publication number Publication date
PL407774A1 (pl) 2015-05-25
GB201803930D0 (en) 2018-04-25
CN107105269A (zh) 2017-08-29
ES2705331R1 (es) 2019-04-23
CN107105269B (zh) 2020-01-10
EP3754990A1 (en) 2020-12-23
RU2016101148A3 (sv) 2019-05-27
US20130279595A1 (en) 2013-10-24
ES2580278B1 (es) 2017-07-05
CA2824755A1 (en) 2013-03-28
ES2647600B1 (es) 2018-11-07
CN107087193A (zh) 2017-08-22
US20180152718A1 (en) 2018-05-31
US9253499B2 (en) 2016-02-02
CN107094259A (zh) 2017-08-25
SE1651051A1 (sv) 2016-07-13
ES2647622B1 (es) 2018-11-07
US9930359B2 (en) 2018-03-27
ES2647572B1 (es) 2019-01-17
ES2647572A2 (es) 2017-12-22
ES2705251R1 (es) 2019-04-23
RU2696229C2 (ru) 2019-07-31
RU2016101150A3 (sv) 2019-05-29
JP5969654B2 (ja) 2016-08-17
RU2696304C2 (ru) 2019-08-01
US20170094309A1 (en) 2017-03-30
JP6279700B2 (ja) 2018-02-14
ES2612493R1 (es) 2017-05-31
US9924185B2 (en) 2018-03-20
SE1850158A1 (sv) 2018-02-14
ES2612494B1 (es) 2018-01-26
RU2016100984A (ru) 2018-11-19
US10182237B2 (en) 2019-01-15
US20150172695A1 (en) 2015-06-18
CA2824755C (en) 2018-01-16
ES2647622R1 (es) 2018-02-28
GB201402657D0 (en) 2014-04-02
US20160105683A1 (en) 2016-04-14
ES2647572R1 (es) 2018-04-02
CN103444172A (zh) 2013-12-11
ES2580278A2 (es) 2016-08-23
RU2016100984A3 (sv) 2019-05-29
GB201717601D0 (en) 2017-12-13
WO2013042888A2 (ko) 2013-03-28
GB2556695B (en) 2018-11-14
BR112013018993A2 (pt) 2021-02-02
US9578348B2 (en) 2017-02-21
RU2015153835A3 (sv) 2019-05-29
RU2013134438A (ru) 2015-10-27
CN107105268A (zh) 2017-08-29
EP2787728B1 (en) 2020-11-11
CN103444172B (zh) 2017-02-08
ES2572577R1 (es) 2016-07-01
US20160323593A1 (en) 2016-11-03
CA2968598C (en) 2019-04-30
RU2696237C2 (ru) 2019-07-31
SE542454C2 (sv) 2020-05-05
ES2631477B1 (es) 2018-09-20
RU2015153835A (ru) 2019-01-16
CN107071456B (zh) 2020-09-04
ES2705251B1 (es) 2020-01-29
GB2557516A (en) 2018-06-20
JP2018088695A (ja) 2018-06-07
JP2014520478A (ja) 2014-08-21
SE1850140A2 (sv) 2018-12-11
ES2705355R1 (es) 2019-04-23
GB2557517A8 (en) 2018-07-11
SE1651199A2 (en) 2017-01-10
RU2696301C2 (ru) 2019-08-01
CN106878744A (zh) 2017-06-20
GB2562132B (en) 2019-01-23
ES2612494R1 (es) 2017-06-08
ES2612493A2 (es) 2017-05-17
ES2705251A2 (es) 2019-03-22
GB2557516B (en) 2018-11-14
US20160100182A1 (en) 2016-04-07
GB2556695A (en) 2018-06-06
ES2532857B1 (es) 2015-12-04
ES2647600R1 (es) 2018-03-06
RU2016101150A (ru) 2018-11-19
ES2647600A2 (es) 2017-12-22
SE1450126A1 (sv) 2014-04-23
SE1651203A2 (en) 2017-01-10
CN107105279A (zh) 2017-08-29
JP5746792B2 (ja) 2015-07-08
ES2602201A2 (es) 2017-02-20
ES2705357A2 (es) 2019-03-22
ES2572577B1 (es) 2017-06-13
WO2013042888A3 (ko) 2013-05-30
ES2631477R1 (es) 2017-12-12
SE542455C2 (sv) 2020-05-05
JP2017085609A (ja) 2017-05-18
JP6595019B2 (ja) 2019-10-23
AU2012310514A1 (en) 2013-08-08
MX2013008349A (es) 2013-11-04
ES2705334R1 (es) 2019-04-23
SE1651199A1 (sv) 2016-09-07
JP6595020B2 (ja) 2019-10-23
ES2705334A2 (es) 2019-03-22
AU2012310514B2 (en) 2014-12-04
CN106878744B (zh) 2020-06-19
GB201717600D0 (en) 2017-12-13
EP2787728A2 (en) 2014-10-08
US20180160135A1 (en) 2018-06-07
GB2557517A (en) 2018-06-20
CN107105267B (zh) 2020-09-04
ES2532857A2 (es) 2015-04-01
ES2602201B1 (es) 2018-01-26
SE1850159A1 (sv) 2018-02-14
RU2016101153A3 (sv) 2019-05-06
ES2612494A2 (es) 2017-05-17
SE1651202A2 (en) 2017-01-10
GB2557516A8 (en) 2018-07-11
JP2015180074A (ja) 2015-10-08
CN107071456A (zh) 2017-08-18
SE1850159A2 (sv) 2018-12-11
GB2507910A (en) 2014-05-14
ES2580278R1 (es) 2016-09-28
US10165294B2 (en) 2018-12-25
ES2705337A2 (es) 2019-03-22
ES2705337B1 (es) 2020-02-05
JP6062509B2 (ja) 2017-01-18
US9554144B2 (en) 2017-01-24
MX352017B (es) 2017-11-06
SE1850158A2 (sv) 2018-12-11
CN104349170A (zh) 2015-02-11
ES2705357R1 (es) 2019-04-23
EP3754990B1 (en) 2024-05-08
RU2016101153A (ru) 2018-11-19
JP6545838B2 (ja) 2019-07-17
GB2507910B (en) 2018-12-12
ES2705331B1 (es) 2020-01-29
JP2016007043A (ja) 2016-01-14
SE1651201A2 (en) 2017-01-10
SE1651201A1 (sv) 2016-09-07
MX341932B (es) 2016-09-08
GB2557517B (en) 2018-11-14
ES2705355B1 (es) 2020-01-29
PL231926B1 (pl) 2019-04-30
JP2016007044A (ja) 2016-01-14
ES2532857R1 (es) 2015-04-30
JP2015180075A (ja) 2015-10-08
ES2631477A2 (es) 2017-08-31
JP6279699B2 (ja) 2018-02-14
US10165295B2 (en) 2018-12-25
JP2018088696A (ja) 2018-06-07
US9253498B2 (en) 2016-02-02
CN107094259B (zh) 2020-10-13
BR112013018993B1 (pt) 2022-05-03
JP6009633B2 (ja) 2016-10-19
ES2705331A2 (es) 2019-03-22
EP2787728A4 (en) 2015-07-08
ES2705337R1 (es) 2019-04-29
US20180152717A1 (en) 2018-05-31
SE539969C2 (sv) 2018-02-13
CA2968598A1 (en) 2013-03-28
GB2562132A (en) 2018-11-07
ES2602201R1 (es) 2017-05-23
JP6130430B2 (ja) 2017-05-17
CN107105279B (zh) 2020-03-06
JP2018088697A (ja) 2018-06-07
CN107105268B (zh) 2020-10-23
PL2787728T3 (pl) 2021-05-17
SE542456C2 (sv) 2020-05-05
ES2572577A2 (es) 2016-06-01
SE1651202A1 (en) 2016-09-07
SE542569C2 (sv) 2020-06-09
ES2705355A2 (es) 2019-03-22
SE1850140A1 (sv) 2018-02-09
US20160295236A1 (en) 2016-10-06
CN107105267A (zh) 2017-08-29
JP2017085611A (ja) 2017-05-18
RU2576499C2 (ru) 2016-03-10
CN106878743B (zh) 2020-07-17
GB201803926D0 (en) 2018-04-25
US9357225B2 (en) 2016-05-31
RU2016101148A (ru) 2018-11-16
ES2647622A2 (es) 2017-12-22
RU2694018C2 (ru) 2019-07-08
ES2705334B1 (es) 2020-01-29
ES2705357B1 (es) 2020-01-29
ES2612493B1 (es) 2018-01-26
MX352016B (es) 2017-11-06
SE1651050A1 (sv) 2016-07-13
CN106878743A (zh) 2017-06-20
CN107087193B (zh) 2020-10-09

Similar Documents

Publication Publication Date Title
SE1651203A1 (sv) Method for inducing a merge candidate block and device using same
US20230283773A1 (en) Video signal encoding/decoding method and device therefor
US11729376B2 (en) Method for encoding/decoding video signal and apparatus therefor
KR101430048B1 (ko) 동영상 복호화 장치
EP2658254B1 (en) Recntangular partitioning for motion estimation
KR101771332B1 (ko) 스케일러블 비디오 코딩을 위한 인트라 예측 개선들
JP2020074565A (ja) 量子化ブロック逆量子化方法
KR101520369B1 (ko) 예측 단위의 파티션 모드에 기초한 계수 스캔 방법 및 장치
KR20240035965A (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
EP3855740A1 (en) Image encoding/decoding method and apparatus, and recording medium storing bitstream
JP2017175661A (ja) 映像復号化装置
KR20190106804A (ko) 샘플 필터링을 이용한 영상 부호화/복호화 방법 및 장치
CA3108468A1 (en) Image encoding/decoding method and device, and recording medium storing bitstream
KR20200026758A (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
KR20200119744A (ko) 화면 내 예측에서 예측 모드 관련 신호를 시그널링하는 방법 및 장치
AU2016200597B2 (en) Method for inducing a merge candidate block and device using same

Legal Events

Date Code Title Description
NAV Patent application has lapsed