NO339262B1 - Dekoding av levende bilder - Google Patents
Dekoding av levende bilder Download PDFInfo
- Publication number
- NO339262B1 NO339262B1 NO20150299A NO20150299A NO339262B1 NO 339262 B1 NO339262 B1 NO 339262B1 NO 20150299 A NO20150299 A NO 20150299A NO 20150299 A NO20150299 A NO 20150299A NO 339262 B1 NO339262 B1 NO 339262B1
- Authority
- NO
- Norway
- Prior art keywords
- image
- signal
- decoded
- predictive
- block
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/423—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Color Television Systems (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Closed-Circuit Television Systems (AREA)
Description
Oppfinnelsens fagfelt
Oppfinnelsen angår en fremgangsmåte og et apparat for videodekoding ved høy effektivitet av et svekket eller fadet videosignal og oppløsning av et slikt signal.
Bakgrunn
Bevegelseskompenserende, prediktiv koding mellom datarammer eller - blokker, såkalt mterrammekoding, brukes som en av kodingsmodusene i en video-kodingsstandard, som f.eks. ITU-TH.261, H.263, ISO/IEC MPEG-2, eller MPEG-4. Som en prediksjons- eller prediksjonsmodell ved bevegelseskompensasjonskoding mellom datablokker kan en modell som gir den høyeste prediktive effektivitet når ingen endring i lysstyrke oppstår i tidsretningen, brukes. Når det gjelder et svekket videosignal som endrer lysstyrke i bildene, fins det hittil ikke noen kjent fremgangsmåte som tilveiebringer en skikkelig forutsigelse eller prediksjon mot en endring av bildenes lysstyrke når f.eks. et normalt bilde fades inn fra et mørkt bilde. For å opprettholde bildekvaliteten også i et svekket videosignal, kreves det derfor et stort antall binærsifre (b).
For å løse dette problemet blir f.eks. en svekket videodel påvist i det japanske patentskrift (JP) 3 166716, "Fade Countermeasure Video Encoder and Encoding Method", for å endre tildelingen av antall binærsifre (b). Når det gjelder utfading av et videosignal blir mer spesifikt et stort antall binærsifre (b) tildelt startdelen av utfadingen som skifter luminans. Generelt blir den siste del av utfadingen et monokromt bilde og dette kan derfor lett kodes. Av denne grunn blir antall binærsifre (b) tildelt denne del redusert. Dette gjør det mulig å forbedre den totale bildekvalitet uten vesentlig å øke det totale binærsifre (b).
I det japanske patentskrift 2 938 412, "Video Luminance Change Compen-sation Method, Video Encoding Apparatus, Video Decoding Apparatus, Recording Medium on Which Video Encoding or Decoding Program is Recorded, and Recording Medium on which Encoded Data of Video Is Recorded", er det foreslått et kodingssystem som tar for seg et svekket videosignal ved å kompensere for et referansebilde ifølge to parametere, dvs. en luminansendringsstørrelse og en kontrast-endringsstørrelse.
I patentsøknaden til Thomas Wiegand og Berand Girod, "Multi-frame motion-compensated prediction for video transmission", Kluwer Academic Publishers 2001, er det foreslått et kodingssystem basert på flere enkeltbildebuffere. I dette systemet har det blitt forsøkt å forbedre prediksjonseffektiviteten ved selektivt å generere et prediksjonsbilde fra flere referanseenkeltbilder i enkeltbildebufferne.
Ifølge konvensjonelle teknikker for å kode et svekket videosignal eller oppløst videosignal og samtidig opprettholde høy bildekvalitet, kreves det et stort antall binærsifre (b). Følgelig kan en forbedring i kodeeffektiviteten ikke forventes.
Oppsummering
Det er et mål med oppfinnelsen å komme frem til en fremgangsmåte og et apparat for dekoding, som kan behandle et videosignal som endrer luminans over tid, f.eks. et svekket videosignal eller oppløst videosignal, med høy effektivitet.
Ifølge et aspekt ved oppfinnelsen er det tilveiebrakt en videodekodingsfremgangsmåte som omfatter et trinn med å dekode kodede data, herunder et prediktivt feilsignal som representerer en feil i et prediksjonsbildesignal i forhold til et videosignal, bevegelsesvektorinformasjon og indeksinformasjon som indikerer en kombinasjon av minst et referansebildenummer og en prediktiv parameter, et trinn med å generere et prediksjonsbildesignal i samsvar med referansebildenummeret og prediktiv parameter av kombinasjonen indikert av den dekodede indeksinformasjon og et trinn med å generere et reproduksjonsvideosignal ved å bruke det prediktive feilsignal og prediksjonsbildesignalet. I denne sammenheng henvises til patentkrav 1 samt - når det gjelder en tilsvarende videodekoclmgsanordning - til patentkrav 2.
Som beskrevet ovenfor, og ifølge oppfinnelsen, blir det forberedt flere forskjellige prediktive systemer ved å bruke kombinasjoner av referansebildenummer og prediktive parametere eller kombinasjoner av flere prediktive parametere som tilsvarer benevnte referansebildenummer. Dette gjør det mulig å generere et riktig prediksjonsbildesignal på basis av et prediktivt system med høyere prediktiv effektivitet i forhold til et slikt videosignal hvor et riktig prediksjonsbildesignal ikke kan genereres av et generelt prediktivt system for videokoding, f.eks. et svekket videosignal eller oppløst videosignal.
I tillegg er videosignalet et signal som omfatter et bildesignal oppnådd for hvert enkelt bilde i et progressivt signal, idet bildesignalet som oppnås for hvert enkelt bilde oppnådd ved å føre sammen to felt av et sammenflettet signal og et bildesignal oppnådd for hvert felt av et sammenflettet signal. Når videosignalet er et bildesignal på enkeltbildebasis, indikerer referansebildesignalnummeret et referansebildesignal på en enkelt bildebasis. Når videosignalet er et bildesignal på en feltbasis, indikerer referansebildesignalnummeret et referansebildesignal på en feltbasis.
Dette gjør det mulig å generere et riktig prediksjonsbildesignal på basis av et prediktivt system med høyere prediktiv effektivitet i forhold til et slikt videosignal som omfatter både en enkelt bildestruktur og en feltstruktur som et riktig prediksjonsbildesignal ikke kan genereres av et generelt prediktivt system for videokoding, f.eks. et svekket videosignal eller oppløst videosignal.
Videre blir informasjon om selve referansebildenummeret eller den prediktive parameter ikke sendt fra kodingssiden til dekodingssiden, men indeksinformasjon om en kombinasjon av et referansebildenummer og en prediktiv parameter blir sendt eller et referansebildenummer blir sendt separat. I dette tilfellet kan kode effektiviteten forbedres ved å sende mdeksinformasjon om en kombinasjon av prediktive parametere.
Kort beskrivelse av figurene
Oppfinnelsen vil nå bli beskrevet i detalj under henvisning til eksempler på utførelser og vedføyde tegninger, og hvor: Fig. 1 er et blokkskjema over arrangementet av et videokodeapparat ifølge den
første utførelse av oppfinnelsen;
fig. 2 er et blokkskjema som viser det detaljerte arrangement av en bilde-minne/prediksjonsbildegenerator på fig. 1;
fig. 3 er et riss som viser et eksempel på en tabell og kombinasjoner av referansebildenummer og med prediktive parametere som brukes i den første utførelse; fig. 4 er et flytskjema som viser et eksempel på en sekvens for å velge et prediktivt system (en kombinasjon av referansebildenummer og en prediktiv parameter)
for hver makroblokk og bestemme en kodemodus i den første utførelse;
fig. 5 er et blokkskjema som viser arrangementet av et videodekodingsapparat
ifølge den første utførelse;
fig. 6 er et blokkskjema som viser det detaljerte arrangement av bilde-minnet/prediksjonsbildegeneratoren på fig. 5;
fig. 7 er et riss som viser et eksempel på en tabell over kombinasjoner av prediktive parametere i et tilfelle hvor antallet referansebilder er en og et referansebildenummer blir sendt som modusinformasjon ifølge den andre utførelse av
oppfinnelsen,
fig. 8 er et riss som viser et eksempel på en tabell over kombinasjoner av prediktive parametere i et tilfelle hvor antallet referansebilder er to og et referansebildenummer blir sendt som modusinformasjon ifølge den andre utførelse; fig. 9 er et riss som viser et eksempel over en tabell av kombinasjoner av referansebildenummeret og prediktive parametere i tilfellet hvor nummeret til
referansebildet er en ifølge den tredje utførelse av oppfinnelsen;
fig. 10 er et riss som viser et eksempel på en tabell bare for luminanssignalet ifølge
den tredje utførelse;
fig. 11 er et riss som viser et eksempel av en syntaks for hver blokk når
indeksinformasjonen skal kodes;
fig. 12 er et riss som viser et spesifikt eksempel på en kodet bitstrøm når
prediksjonsbildet skal genereres ved å bruke et referansebilde;
fig. 13 er et riss som viser et spesifikt eksempel på en kodet bitstrøm når et prediksjonsbilde skal genereres ved å bruke to referansebilder;
fig. 14 er et riss som viser et eksempel på en tabell over referansebildenummer,
referansefeltnummeret og prediktive parametere når informasjonen som skal
kodes er et toppfelt ifølge den fjerde utførelse av oppfinnelsen, og
fig. 15 er et riss som viser et eksempel på en tabell over referansebildenummeret;
referansefeltnummeret og prediktive parametere når informasjonen som skal kodes er et bunnfelt ifølge den fjerde utførelse av oppfinnelsen.
Detaljert beskrivelse av oppfinnelsen
Utførelsen av oppfinnelsen vil nå bli beskrevet nedenfor, og det vises dessuten til tegningene hvor norsk tekst er satt inn.
[ Første utførelse] ( Om kodingssiden)
Fig. 1 viser arrangementet av et videokodingsapparat ifølge den første ut-førelse av oppfinnelsen. Et videosignal 100 blir tilført videokodingsapparatet, f.eks. på en enkelt bildebasis. Videosignalet 100 blir sendt til en substrakter 101. Substrakteren 101 beregner forskjellen mellom videosignalet 100 og et prediksjonsbildesignal 212 for å generere et prediktivt feilsignal. En modus valgbryter 102 velger enten det prediktive feilsignal eller videosignalet 100. En ortogonal transformator 103 utsetter det valgte signal for en ortogonal omvandling, dvs. en diskret kosinus-omvandling (DCT) og genererer ortogonal transformasjonskoeffisientinformasjon, f.eks. DCT-koeffisientinformasjon, som blir kvantisert av en kvantiserer 104 og delt opp i to baner.
Den ene del av den ortogonale transformasjonskoeffisientinformasjon 210 som blir delt opp i to baner blir ført til en variabel lengdekoder 111, mens den andre ortogonale transformasjonskoeffisientinformasjon 210 etter kvantisering, fordelt i de to banene, deretter utsettes for en behandling motsatt den som ble foretatt i kvantisereren 104 og den ortogonale transformator 103 ved hjelp av en dekvantiserer eller omvendt kvantiserer 105 og den omvendte ortogonale transformator 106 for å bli rekonstruert til et prediktivt feilsignal. Deretter legger en tilleggingsenhet 107 det rekonstruerte, prediktive feilsignal til prediksjonsbildesignalets 212 inngangs signal gjennom en bryter 109 for å generere et lokalt dekodet videosignal 211. Det lokale, dekodede videosignal 211 blir sendt til en enkelt bildeminne/prediksjonsbilde-generator 108.
Enkeltbildeminne/prediksjonsbildegeneratoren 108 velger en av flere kombinasjoner av forberedte referanseenkeltbildenummer og prediktive parametere. Den lineære sum av videosignalet (lokalt dekodet videosignal 211) av referansebildet indikert av referansebildenummeret av den valgte kombinasjon, blir beregnet i samsvar med den prediktive parameter av den valgte kombinasjon og det resulterende signal blir lagt til en forskyvning basert på den prediktive parameter. Med dette blir i dette tilfellet et referansebildesignal generert på en enkelt bildebasis. Deretter bevegelseskompenserer enkeltbildeminnet/prediksjonsbildegeneratoren 108 for referansebildesignalet ved å bruke en bevegelsesvektor for å generere prediksjonsbildesignalet212.
Ved dette genererer enkeltbildeminnet/prediksjonsbildegeneratoren 108 bevegelsesvektorinformasjon 214 og mdeksinformasjon 215 som indikerer en valgt kombinasjon av referansebildenummer og en prediktiv parameter, og sender informasjonen som kreves for å velge en kodingsmodus til en modusvelger 110. Bevegelsesvektorinformasjonen 214 og indeksinformasjonen 215 blir sendt til en koder 111 for koder med variabel lengde. Bildeminnet/prediksjonsbildegeneratoren 108 vil bli beskrevet nedenfor i detalj.
Modusvelgeren 110 velger en kodingsmodus på en makroblokkbasis på grunnlag av den prediktive informasjon P fra bildeminnet/prediksjonsbildegenera-toren 108, dvs. at den enten velger mtrabildekodingsmodus eller bevegelse kom-pensert prediktivt interbildekodingsmodus og sender bryterkontrollsignaler M og S.
I mtrabildekodingsmodus blir bryterne 102 og 112 svitsjet til A-siden av bryterstyringssignalene M og S og inngangsvideosignalet 100 blir sendt til den ortogonale transformatoren 103. I interbildekodingsmodus blir bryterne 102 og 112 svitsjet til B-siden av bryterkontrollsignalene M og S. Som resultat blir det prediktive feilsignal fra subtraktoren 101 sendt til den ortogonale transformator 103 og prediksjonsbildesignalet 212 fra bildeminnet/prediksjonsbildegeneratoren 102 blir sendt til tilleggsenheten 107. Modusinformasjon 213 blir sendt fra modusvelgeren 110 og videre inn til den variable lengde-koderen 111. Variabel lengde-koderen 111 utsetter den ortogonale transformasjonskoeffisientinformasjonen 210 med kvantisering, modusinformasjonen 213, bevegelsesvektorinformasjonen 214 og indeksinformasjonen 215 for variabel lengde-koding. Variabel lengde-kodene generert gjennom dette, blir multiplekset av en multiplikator 114. De resulterende data blir så jevnet ut av en utgangsbuffer 115. Kodede data 116 fra utgangsbufferen 115 blir sendt ut til et overføringssystem eller lagringssystem (ikke vist).
En kodingsstyreenhet 113 styrer en kodingsenhet 112. Mer spesifikt overvåker kodingsstyreenheten 113 buffermengden i utgangsbufferen 115 og styrer kodingsparametrene, f.eks. kvantisermgstrinnstørrelsen av kvantisereren 104, for å holde bufferstørrelsen konstant.
Fig. 2 viser det detaljerte arrangement av enkeltbildeminne/prediksjonsbilde-generatoren 108 på fig. 1. På fig. 2 blir det lokalt dekodede videosignal 211 fra tillegningsenheten 107 på fig. 1, lagret i et enkeltbildeminnesett 202 under styring av en minnestyreenhet 201. Enkeltbildeminnesettet 202 har flere (N) enkeltbildeminner FM1 til FMN for midlertidig å holde det lokale dekodede videosignal 211 som et referansebilde.
I en prediktiv parameterstyreenhet 203 er det forberedt flere kombinasjoner av referansebildenummer og prediktive parametere på forhånd som en tabell. Den prediktive parameterstyreenhet 203 velger, på basis av videosignalet 100, en kombinasjon av referansebildenummeret til et referansebilde og en prediktiv parameter som brukes for å generere prediksjonsbildesignalet 212 og sender indeksinformasjonen 215 om den valgte kombinasjon.
Flerbildebevegelsesevaluatoren 204 genererer et referansebildesignal ifølge kombinasjonen av referansebildenummeret og indeksinformasjon velges av den prediktive parameterstyreenhet 203. Flerbildebevegelsesevaluatoren 204 evaluerer bevegelsesmengden og prediktive feil fra dette referansebildesignal og inngangsvideosignalet 100 og sender ut bevegelsesvektorinformasjonen 214 som minimerer den prediktive feil. Flerbildebevegelseskompensatoren 205 utfører bevegelseskompensasjonen for hver blokk ved å bruke et referansebildesignal som velges av flerbildebevegelsesevaluatoren 204 i samsvar med bevegelsesvektoren for å generere prediksjonsbildesignalet 212.
Minnestyreenheten 201 setter referansebildenummeret til et lokalt dekodet videosignal for hvert bilde og lagrer hvert bilde i et av bildeminnene FM1 til FMN i bildeminnesettet 202. F.eks. blir de respektive bilder nummerert etter hverandre fra bildet nærmest inngangsbildet. Det samme referansebildenummeret kan settes på forskjellige bilder. I dette tilfellet brukes f.eks. forskjellige prediktive parametere. Et bilde nær inngangsbildet blir valgt fra bildeminnene FM1 til FMN og sendt til den prediktive parameterstyreenhet 203.
Fig. 3 viser et eksempel over tabellen av kombinasjoner av referansebildenummer og prediktive parametere som blir forberedt i den prediktive parameterstyreenhet 203. "Indeks" tilsvarer prediksjonsbildene som kan velges for hver blokk. I dette tilfellet fins det åtte typer prediksjonsbilder. Et referansebildenummer n er nummeret til en lokal dekodet video brukt som referansebilde og som i dette tilfellet indikerer nummeret til en lokal dekodet video tilsvarende n tidligere bilder.
Når prediksjonsbildesignalet 212 genereres ved å bruke bildesignaler fra flere referansebilder lagret i bildeminnesettet 202, blir flere referansebildenummer benevnt og (antallet referansebilder + 1) koeffisienter blir benevnt som prediktive parametere for et luminanssignal (Y) og fargeforskjellsignal (Cb og Cr). Som vist av ligningene (1) til (3), forutsetter n at antallet referansebilder, n + 1 prediktive parametere Di (i =,..., n + 1), blir forberedt for luminanssignalet Y; n + 1 prediktive parametere Ei (i =,..., n + 1) for fargedifferansesignalet Cb; og n + 1 prediktive parametere Fi (i =,..., n + 1) for fargedifferansesignalet Cr:
Denne operasjonen vil bli beskrevet i detalj under henvisning til fig. 3. På fig. 3 viser siste nummer av hver prediktiv parameter en forskyvning og det første nummer av hver prediktive parameter representerer en veiefaktor (prediktiv koeffisient). For indeks 0 gis antallet referansenummer av n = 2, idet referansebildenummeret er 1 og de prediktive parametere er 1 og 0 for luminanssignalet Y og fargedifferansesignalet Cr og Cb. At de prediktive parametere er 1 og 0 som i dette tilfellet, indikerer at et lokalt dekodet videosignal tilsvarende referansebildenummeret "1" multipliseres med 1 og legges til forskyvningen 0. Med andre ord blir det lokale, dekodede videosignal tilsvarende referansebildenummeret 1 et referansebildesignal uten endring.
For indeks 1 brukes to referansebilder som lokale, dekodede videosignaler tilsvarende referansebildenumrene 1 og 2. Ifølge de prediktive parametrene 2, -1 og 0 for luminanssignalet Y, blir det lokale, dekodede videosignal tilsvarende referansebildenummeret 1 doblet og det lokale, dekodede videosignal tilsvarende referansebildenummeret 2 blir trukket fra resultatsignalet. Forskyvningen 0 blir så lagt til resultatsignalet. Dvs. at ekstrapoleringsprediksjonen utføres fra de lokale, dekodede videosignaler fra to bilder for å generere et referansebildesignal. For fargedifferansesignalene Cr og Cb, og siden de prediktive parametrene er 1, 0 og 0, blir det lokale, dekodede videosignal tilsvarende referansebildenummeret 1, brukt som referansebildesignal uten endring. Dette prediktive system, tilsvarende indeks 1, er spesielt effektivt for et oppløst videosignal.
For indeks 2 og i samsvar med de prediktive parametrene 5/4 og 16, blir det lokale, dekodede videosignal tilsvarende referansebildenummeret 1, multiplisert med 5/4 og lagt til forskyvningen 16. For fargedifferansesignalene Cr og Cb, og siden denne prediktive parameteren er 1, blir fargedifferansesignalene Cr og Cb referansebildesignalene uten endring. Dette prediktive system er spesielt effektivt for et infradingsvideosignal fra et mørkt bilde.
På denne måte kan referansebildesignalene velges på basis av flere prediktive systemer med forskjellige kombinasjoner av referansebildenummer og prediktive parametere. Dette gjør det mulig i denne utførelse å takle et svekket og oppløst videosignal, som har fått bildekvaliteten svekket på grunn av fravær av et skikkelig prediktivt system.
Et eksempel på en spesifikk sekvens for å velge et prediktivt system (en kombinasjon av referansebildenummer og prediktivt parameter) for hver makroblokk og bestemmelse av en kodingsmodus i denne utførelse, vil bli beskrevet i det følgende under henvisning til fig. 4.
For det første blir en maksimal antatt verdi satt til variabelen rnin D (trinn S101). LOOP1 (trinn S102) indikerer en repetisjon for valg av et prediktivt system ved interbildekoding og variabelen i representerer verdien av "indeks" på fig. 3. I dette tilfellet og for å oppnå en optimal bevegelsesvektor for hvert prediktivt system, blir en evalueringsverdi D for hver indeks (hver kombinasjon av et referansebildenummer og en prediktiv parameter) beregnet fra antallet binærsifre (b) tilknyttet bevegelsesvektorinformasjonen 214 (antallet binærsifre (b) av et variabel lengde-kodesignal fra variabellengde-koderen 111 i samsvar med bevegelsesvektorinformasjonen 214) og en absolutt prediktiv feilverdisum og en bevegelsesvektor som minimerer evalueringsverdien D velges (trinn S103). Evalueringsverdien D blir sammenlignet med rnin D (trinn S104). Hvis evalueringsverdien D er mindre enn rnin D, blir evalueringsverdien D satt til rnin D og indeksen i blir tildelt min i (trinn S105).
En evalueringsverdi D for intrabildekoding blir så beregnet (S106). Evalueringsverdien D blir sammenlignet med rnin D (trinn S107). Hvis denne sammen-ligning viser at rnin D er mindre enn evalueringsverdien D, blir modus MODE bestemt som interbildekoding, og min i blir tildelt indeksinformasjonen INDEX (trinn S108). Hvis evalueringsverdien D er mindre, blir modus MODE bestemt som intrabildekoding (trinn S109). I dette tilfellet blir evalueringsverdien D satt som den beregnede verdi for antallet binærsifre (b) med samme kvantisermgstrinnstørrelse.
Et videodekodingsapparat tilsvarende videokodingsapparatet vist på fig. 1, vil nå bli beskrevet. Fig. 6 viser arrangementet av videodekodingsapparatet ifølge denne utførelse. Kodede data 300 fra videokodingsapparatet vist på fig. 1, og sendt gjennom et overføringssystem eller lagringssystem, blir midlertidig lagret i en inngangsbuffer 301 og demultiplekset av demultiplekseren 302 for hvert bilde på basis av en syntaks. De resulterende data blir sendt til en variabel lengde-dekoder 303. Den variable lengde-dekoderen dekoder den variable lengde-koden av hver syntaks av de kodede data 300 for å reprodusere en kvantiseringsortogonal transformasjonskoeffisient, modusinformasjon 413, bevegelsesvektorinformasjon 414 og indeksinformasjon 415.
Fra den reproduserte informasjon, blir den ortogonale transformasjonskoeffisient om kvantisering, dekvantisert av en dekvantiserer 304 og omvendt orto-gonalt omdannet av en omvendt ortogonal transformator 305. Hvis modusinformasjonen 413 indikerer mtrabildekodingsmodus, blir et reprodukjonsvideosignal sendt ut fra den omvendt ortogonale transformator 305. Dette signalet blir så sendt som et reproduksjonsvideosignal 310 gjennom en tillegningsenhet 306.
Hvis modusinformasjonen 413 indikerer interbildekodingsmodus, blir et prediktivt feilsignal sendt fra den omvendte ortogonale transformator 305 og en modus velgerbryter 309 blir slått på. Prediksjonsbildesignalet 412 fra en bilde-minne/prediksjonsbildegenerator 308 blir lagt til det prediktive feilsignal av tillegningsenheten 306. Som resultat blir reproduksjonsvideosignalet 310 sendt ut. Reproduksjonsvideosignalet 310 blir lagret som et referansebildesignal i bildeminnet/prediksjonsbildegeneratoren 308.
Modusinformasjon 413, bevegelsesvektorinformasjon 414 og indeksinformasjon 415 blir sendt til bildemmne/prediksjonsbildegeneratoren 308. Modusinformasjonen 413 blir også sendt til modusvelgerbryteren 309.1 mtrabildekodingsmodus blir modusvelgerbryteren 309 slått av. I mterkodingsmodus blir bryteren slått på.
Som for bildeminne/prediksjonsbildegeneratoren 308 på kodingssiden på fig. 1, omfatter bildeminne/prediksjonsbildegeneratoren 308 flere forberedte kombinasjoner av referansebildenummeret og prediktive parametere som en tabell og velger en kombinasjon vist at indeksinformasjonen 415, fra tabellen. Den lineære sum av videosignalet (reproduksjonsvideosignalet 210) av referansebildet vist av referansebildenummeret av den valgte kombinasjon, blir beregnet i samsvar med den prediktive parameter av den valgte kombinasjon og en forskyvning basert på den prediktive parameter blir lagt til resultatsignalet. Med denne operasjonen blir et referansebildesignal generert. Deretter blir det genererte referansebildesignal bevegelses-kompensert for ved å bruke bevegelsesvektoren som indikert av bevegelsesvektorinformasjonen 414 for derved å generere et prediksjonsbildesignal 412.
Fig. 6 viser det detaljerte arrangement av bildeminne/prediksjonsbilde-generatoren 308 på fig. 5. På fig. 6 blir reproduksjonsvideosignalet 310 fra til-leggingsenheten 306 på fig. 5, lagret i bildeminnesettet 402 under kontroll av minnestyreenheten 401. Bildeminnesettet 402 har flere (N) bildeminner FM1 til FMN for midlertidig å holde reproduksjonsvideosignalet 310 som et referansebilde.
En prediktiv parameterstyreenhet 403 har på forhånd kombinasjoner av referansebildenummeret og prediktive parametere sammen med en tabell lik den som er vist på fig. 3. Den prediktive parameterstyreenheten 403 velger en kombinasjon av referansebildenummeret for et referansebilde og en prediktiv parameter som blir brukt for å generere prediksjonsbildesignalet 412 på basis av indeksinformasjonen 415 fra variabel lengde-dekoderen 303 på fig. 5. Flere flerbildebevegelseskompensatorer 404 genererer et referansebildesignal i samsvar med en kombinasjon av et referansebildenummer og indeksinformasjonen som velges av den prediktive parameterstyreenhet 403 og utfører bevegelseskompensasjon for hver blokk ved å bruke dette referansebildesignal i samsvar med bevegelsesvektoren som indikert av bevegelsesvektorinformasjonen 414 fra variabel lengde-dekoderen 303 på fig. 5 for derved å generere prediksjonsbildesignalet 412.
Andre utførelse
Den andre utførelse av oppfinnelsen vil nå bli beskrevet under henvisning til fig. 7 og 8. Siden de generelle arrangementer av et videokodingsapparat og videodekodingsapparat i denne utførelse er nesten de samme som i den første utførelse, vil bare forskjell fra denne første utførelse, bli beskrevet.
I denne utførelse er det beskrevet et eksempel på måten for å uttrykke de prediktive parametere basert på et system for å benevne flere referansebildenumre i samsvar med modusinformasjonen på en makroblokkbasis. Et referansebildenummer blir diskrimenert av modusinformasjonen for hver makroblokk. Denne utførelse bruker derfor en tabell over prediktive parametere som vist på fig. 7 og 8 i stedet for å bruke en tabell over kombinasjoner av referansebildenummeret og prediktive parametere som i den første utførelse. Dvs. at indeksinformasjonen ikke indikerer et referansebildenummer og bare en kombinasjon av prediktive parametere blir benevnt. Tabellen på fig. 7 viser et eksempel på en kombinasjon av prediktive parametere når nummeret for referansebildene er 1. Som prediktive parametere (antallet referansebilder + 1) parametere, dvs. to parametere (en vektfaktor og en forskjøvet), blir benevnt for et luminanssignal (Y) og fargedifferansesignalene (Cb og Cr). Tabellen på fig. 8 viser et eksempel på en kombinasjon av prediktive parametere når antallet referansebilder er 2. I dette tilfellet, og som prediktive parametere, (antallet referansebilder + 1), parametere, dvs. tre parametere (to vekt-faktorer og en er forskjøvet), blir benevnt for et luminanssignal (Y) og fargedifferansesignalene (Cb og Cr). Denne tabellen er forberedt for kodingssiden og dekodingssiden som i den første utførelse.
Tredje utførelse
Den tredje utførelse av oppfinnelsen vil nå bli beskrevet under henvisning til fig. 9 og 10. Siden det generelle arrangement av videokodingsapparatet og videodekodingsapparatet i denne utførelse er nesten de samme som i den første utførelse, vil bare forskjellen blant de første og andre utførelser bli beskrevet nedenfor.
I første og andre utførelse blir videosignalet behandlet på en enkelt bildebasis. I denne utførelse blir imidlertid et videosignal behandlet på en bildebasis. Hvis både et progressivt signal og et innflettet signal eksisterer som inngangsbilde-signaler, blir bildene ikke nødvendigvis kodet på en enkelt bildebasis. Ut fra dette forutsettes et bilde (a) et bilde av et enkelt bilde av et progressivt signal, (b) et bilde av et enkelt bilde generert ved å sammenføye to felt av et sammenflettet signal, eller (c) et bilde av et felt av et sammenflettet signal.
Hvis et bilde som skal kodes er et bilde med en enkeltbildestruktur ifølge (a) eller (b), blir et referansebilde brukt i bevegelseskompensasjonsprediksjon også be handlet som et enkeltbilde uansett om det kodede bilde, som er referansebildet, har en enkelt bildestruktur eller en feltstruktur. Et referansebildenummer blir tildelt dette bildet. Likeledes hvis et bilde som skal kodes er et bilde med en feltstruktur som f. eks. (c), blir et referansebilde brukt ved bevegelseskompensasjonsprediksjon også behandlet som et felt, uansett om det kodede bilde, som er referansebildet, har en enkelt bildestruktur eller en feltstruktur. Et referansebildenummer blir tildelt dette bildet.
Ligningene (4), (5) og (6) er eksempler på prediktive ligninger for referansebildenummer og prediktive parametere som blir forberedt i den prediktive parameters styreenhet 203. Disse eksemplene er prediktive ligninger for å generere et prediksjonsbildesignal ved bevegelseskompensasjonsprediksjon ved hjelp av et referansebildesignal.
hvor Y er et prediksjonsbildesignal av et luminanssignal, Cb og Cr er prediksjons-bildesignaler av to fargedifferansesignaler, Ry(i), Rcb(i), og hvor Rcr(i) er piksel-verdier av luminanssignalet og to fargedifferansesignaler av et referansebildesignal med indeks i, Di(i) og D2(i) er den prediktive koeffisient og forskyvning av luminanssignalet med indeks i, Ei (i) og E2(i) er den prediktive koeffisient og forskyvning av fargedifferansesignalet Cb med indeks i, og Fi(i) og F2(i) er den prediktive koeffisient og forskyvning av fargedifferansesignalet Cr med indeks i. Indeks i indikerer en verdi fra 0 (det maksimale antall referansebilder - 1) og kodet for hver blokk som skal kodes (f.eks. for hver makroblokk). De resulterende data blir så sendt til videodekodingsapparatet.
De prediktive parametere Di(i), D2(i), Ei(i), E2(i), Fi(i) og F2(i) er represen-tert av verdier bestemt på forhånd mellom videokodingsapparatet og videodekodingsapparatet eller en enhet for koding av f.eks. et bilde, felt eller skive og blir kodet sammen med kodede data som skal sendes fra videokodingsapparatet til videodekodingsapparatet. Med denne operasjon blir disse parametrene delt av de to apparatene.
Ligningene (4), (5) og (6) er prediktive ligninger hvor potensen av 2, dvs. 2, 4, 8, 16, ... velges som nevnere av prediktive koeffisienter som referansebildesignalene blir multiplisert med. De prediktive ligninger kan eliminere nød-vendigheten av deling og kan beregnes ved aritmetiske forskyvninger. Dette gjør det mulig å unngå en stor økning i beregningskostnader på grunn av deling.
I ligningene (4), (5) og (6), "»" av a»b representerer en operator for aritmetisk forskyvning av en integer a til høyre med b binærsifre (b). Funksjonen "klipp" representerer en klippefunksjon for innstilling av verdien i"()" til 0 når denne er mindre enn 0 og setter verdien til 255 når den er større enn 255.
I dette tilfellet forutsettes at LY er forskyvningsstørrelsen av et luminanssignal og Lcer forskyvningsstørrelsen av et fargedifferansesignal. Som disse forskyvnings-størrelser LY og Lc, blir verdier bestemt på forhånd mellom videokodingsapparatet og videodekodingsapparatet brukt. Videokodingsapparatet koder forskyvningsstørrelsene LY og Lcsammen med en tabell og kodede data i en forutbestemt kodingsenhet, f.eks. et enkeltbilde, felt eller skive og overfører de resulterende data til videodekodingsapparatet. Dette gjør at de to apparatene kan dele forskyvningsstørrelsene LY og Lc.
I denne utførelse blir tabeller over kombinasjoner av referansebildenummeret og prediktive parametere som vist på fig. 9 og 10, forberedt i den prediktive styreenhet 203 på fig. 2. På fig. 9 og 10 tilsvarer indeks i de prediktive bilder som kan velges for hver blokk. I dette tilfellet fins fire typer prediksjonsbilder i samsvar med 0-3 i indeks i. "Referansebildenummer" er med andre ord nummeret til et lokalt, dekodet videosignal brukt som referansebilde.
"Flagg" er et flagg som indikerer om en prediktiv ligning som bruker en prediktiv parameter blir tilført et referansebildenummer indikert av indeks i. Hvis flagget er "0", utføres bevegelseskompenseringsprediksjon ved å bruke det lokale, dekodede videosignal tilsvarende referansebildenummeret indikert av indeks i uten å bruke en prediktiv parameter. Hvis flagget er "1", blir et prediksjonsbilde generert ifølge ligningene (4), (5), og (6) ved å bruke et lokalt, dekodet videosignal og en prediktiv parameter tilsvarende referansebildenummeret indikert av indeks i, og så-ledes utføre bevegelseskompensasjonsprediksjon. Denne informasjonen av flagget er også kodet sammen med en tabell og kodede data ved å bruke en verdi som bestemmes på forhånd mellom videokodingsapparatet og videodekodingsapparatet eller i en bestemt kodingsenhet, f.eks. et enkelt bilde, felt eller skive i videokodingsapparatet. De resulterende data blir sendt til videodekodingsapparatet. Dette gjør at de to apparatene kan dele flagginformasjonen.
I disse tilfeller blir et prediksjonsbilde generert ved å bruke en prediktiv parameter når indeks i = 0 i forhold til et referansebildenummer 105 og bevegelseskompensasjonsprediksjonen ble utført uten å bruke en prediktiv parameter når i = 0. Som beskrevet ovenfor kan det finnes flere prediktive systemer for samme referansebildenummer.
Tabellen vist på fig. 9 har prediktive parametere Di(i), D2(i), Ei(i), E2(i), Fi(i) og F2(i) tildelt et luminanssignal og to fargedifferansesignaler i samsvar med ligningene (4), (5) og (6). Fig. 10 viser et eksempel på en tabell hvor prediktive parametere blir tildelt bare luminanssignalene. Generelt er antallet binærsifre (b) i et fargedifferansesignal ikke svært stort sammenlignet med antallet binærsifre (b) i et luminanssignal. For å minske beregningsmengden som kreves for å generere et prediksjonsbilde og antall binærsifre (b) overført i en tabell, blir derfor en tabell utarbeidet hvor prediktive parametere for fargedifferansesignaler er utelatt som vist på fig. 10 og prediktive parametere blir tildelt bare luminanssignalene. I dette tilfellet brukes bare ligning (4) som prediktiv ligning.
Ligningene (7) til (12) er prediktive ligninger i tilfellet hvor flere av (to i dette tilfellet) referansebilder blir brukt.
Opplysningene om de prediktive parametere Di(i), D2(i), Ei(i), E2(i), Fi(i), F2(i), LY og Lcog flagg er verdier som bestemmes på forhånd mellom videokodingsapparatet og videodekodingsapparatet eller som blir kodet sammen med de kodede data i en kodingsenhet, f.eks. et enkelt bilde, et felt eller skive og som blir overført fra videokodingsapparatet til videodekodingsapparatet. Dette gjør at de to apparatene kan dele denne informasjonen.
Hvis et bilde som skal dekodes er et bilde med en enkeltbildestruktur, blir et referansebilde brukt for bevegelseskompensasjonsprediksjon også behandlet som et enkelt bilde uansett om et dekodet bilde som et referansebilde har en enkelt bildestruktur eller en feltstruktur. Et referansebildenummer blir tildelt dette bildet. Likeledes hvis et bilde som skal programmeres er et bilde med en feltstruktur, blir et referansebilde brukt for bevegelseskompensasjonsprediksjon også behandlet som et felt uansett om et dekodet bilde som et referansebilde, har en enkelt bildestruktur eller en feltstruktur. Et referansebildenummer blir tildelt dette bildet.
Fig. 11 viser et eksempel på en syntaks i et tilfelle hvor indeksinformasjonen blir kodet i hver blokk. For det første er modusinformasjonen MODE til stede for hver blokk. Det blir bestemt i samsvar med modusinformasjonen MODE om indeksinformasjonen IDi som indikerer verdien av indeks i og indeksinformasjonen IDj som indikerer verdien av indeks j, blir kodet. Kodet informasjon om bevegelsesinforma-sjonen MVi for bevegelseskompensasjonsprediksjonen av indeks i og bevegelsesvektorinformasjonen MVj for bevegelsesprediktivkompensasjonen av indeks j blir lagt til som bevegelsesvektorinformasjon for hver blokk etter den kodede indeksinformasjon. Fig. 12 viser et spesifikt eksempel av en kodet bitstrøm for hver blokk når et prediksjonsbilde blir generert ved å bruke et referansebilde. Indeksinformasjonen IDi blir satt etter modusinformasjonen MODE, og bevegelse svektorinformasj onen MVi blir deretter satt. Bevegelsesvektorinformasjonen MVi er generelt todimensjonal vektorinformasjon. Avhengig av en bevegelseskompensasjonsmetode i en blokk som indikeres av modusinformasjonen, kan flere todimensjonale vektorer sendes ytterligere. Fig. 13 viser et spesifikt eksempel av en kodet bitstrøm for hver blokk når et prediksjonsbilde blir generert ved å bruke to referansebilder. Indeksinformasjonen IDi og indeksinformasjonen IDj blir satt etter modusinformasjonen MODE og etter bevegelsesvektorinformasjonen MVi og bevegelsesvektorinformasjonen MVj blir deretter satt. Bevegelsesvektorinformasjonen MVi og bevegelsesvektorinformasjonen X, er generelt en todimensjonal vektorinformasjon. Avhengig av en bevegelseskompensasjonsmetode i en blokk indikert av modusinformasjonen, kan flere todimensjonale vektorer sendes ytterligere.
Merk at de ovennevnte strukturer av en syntaks og bitstrøm likeledes kan brukes i forbindelse med alle de andre utførelsene.
Fjerde utførelse
Den fjerde utførelse av oppfinnelsen vil nå bli beskrevet under henvisning til fig. 14 og 15. Siden de generelle arrangementer av et videokodingsapparat og videodekodingsapparat i denne utførelse er nesten lik en første utførelse, vil bare forskjellene i forhold til første, andre og tredje utførelse bli beskrevet. I den tredje utførelse blir koding på en enkeltbildebasis og koding på en feltbasis blir svitsjet for hvert bilde. I den fjerde utførelse blir koding på en enkeltbildebasis og koding på en feltbasis svitsjet for hver makroblokk.
Når koding på en enkeltbildebasis og koding på en feltbasis blir svitsjet for hver makroblokk, vil samme referansebildenummer indikere forskjellige bilder, selv innenfor sammen bildet, avhengig av om en makroblokk blir kodet på enkeltbildebasis eller på feltbasis. Av denne grunn og som tabellen viser på fig. 9 og 10 brukt i den tredje utførelse, kan et riktig prediksjonsbildesignal ikke bli generert.
For å løse dette problem i denne utførelse, blir tabeller over kombinasjoner av referansebildenummer og prediktive parametere, lik de som er vist på fig. 14 og 15, utarbeidet i en prediktiv parameterstyreenhet 203 på fig. 2. Forutsatt at når en makro blokk skal kodes på feltbasis, blir samme prediktive parameter som det som tilsvarer et referansebildenummer (referanseenkeltbildeindeksnummer) brukt når makroblokken blir kodet på enkeltbildebasis, brukt. Fig. 14 viser en tabell som brukes når makroblokken blir kodet på en feltbasis og et bilde som skal kodes er et toppfelt. Øvre og nedre rekker av hver feltindekskolonne, tilsvarer henholdsvis toppfeltet og bunnfeltet. Som vist på fig. 14 er enkeltbildeindeksen j og feltindeksen k knyttet til hverandre, slik at når k = 2j i toppfeltet er k = 2j + 1 i bunnfeltet. Referanseenkeltbildenummeret m og referansefeltnummeret n, er relatert, slik at når n = 2m i toppfeltet, er n = 2m + 1 i bunnfeltet. Fig. 15 viser en tabell som brukes når makroblokken kodes på en feltbasis og et bilde som skal kodes er et bunnfelt. Som i tabellen vist på fig. 14, tilsvarer øvre og nedre rekker av hver feltindekskolonne et toppfelt og bunnfeltet. I tabellen på fig. 15 er enkeltbildeindeksen j og feltindeksen k relatert, slik at når k = 2 + 1 i toppfeltet, er k = 2j i bunnfeltet. Dette gjør det mulig å tildele en liten verdi som feltindeks k til et bunnfelt i fase. Forholdet mellom referanseenkeltbildenummeret m og referansefeltnummeret n er det samme som i tabellen på fig. 14. Når makroblokken skal kodes på feltbasis, blir en enkeltbildeindeks og feltindeks kodet som indeksinformasjon ved å bruke tabellene vist på fig. 14 og 15. Når makroblokken skal kodes på en enkeltbildebasis, blir bare enkeltbildeindeksen som er felles for tabellene på fig. 14 og 15 indekskodet som indeksinformasjon.
I denne utførelse blir prediktive parametere tildelt et enkeltbilde og felt ved å bruke en tabell. Imidlertid kan en tabell for enkeltbilder og en tabell for felt bli utarbeidet hver for seg for et bilde eller skive.
Hver utførelse beskrevet ovenfor har eksemplifisert videokoclings/dekodings-systemet ved å bruke ortogonal transformasjon på en blokkbasis. Selv om det blir brukt en annen transformasjonsteknikk, f.eks. liten bølge (wavelet)-transformasjon, kan teknikken ifølge oppfinnelsen beskrevet i de ovennevnte utførelser, brukes.
Videokodings- og deko(lmgsbehan(lling ifølge oppfinnelsen kan implementeres som maskinvare (apparat) eller programvare ved hjelp av en datamaskin. Noe behandling kan implementeres av maskinvare og den andre behandling kan utføres av programvare. Ifølge oppfinnelsen kan det være tilveiebrakt et program for en datamaskin for å utføre ovennevnte videokoding eller videodekoding eller et lagrings-medium som lagrer programmet.
Som beskrevet ovenfor, er koclmgs/dekodingsfremgangsmåten og apparatet ifølge oppfinnelsen egnet for bildebehandling, hvor et videosignal som endrer luminans over tid, f.eks. som et svekket video- eller oppløst videosignal især, blir kodet og dekodet.
Claims (2)
1 Videodekodingsfremgangsmåte for å dekode kodede data fremskaffet ved å utsette en video (100) som har en luminans (Y) og to fargeforskjeller (Cb, Cr) for precliksjonskoding, hvor videodekodingsfremgangsmåten omfatter: • et trinn med å motta kodede data fremskaffet ved koding, for en blokk som skal dekodes, en kvantisert ortogonal transformasjonskoeffisient av et prediksjonsfeilsignal vedrørende luminansen og to fargeforskjeller, informasjon om en bevegelsesvektor (414) og indeksinformasjon (415) som angir en kombinasjon av flere indekserte kombinasjoner som omfatter et referansebilde, en vektingsfaktor til hver av luminansen og de to fargeforskjellene og en forskyvning for hver av luminansen og de to fargeforskjellene; • et trinn med å utlede referansebildet, vektingsfaktoren og forskyvningen fra indeksinformasjonen for blokken som skal dekodes; • et trinn med å generere prediksjonsfeilsignalet for blokken som skal dekodes ved å utsette de kvantiserte ortogonale transformasjonskoeffisienter for invers kvantisering og invers ortogonal transformasjon; • et trinn med å generere et prediksjonsbilde (412) for blokken som skal dekodes ved å multiplisere referansebildet med vektingsfaktoren og å legge til forskyvningen, basert på bevegelsesvektoren for blokken som skal dekodes; og • et trinn med å generere et dekodet bildesignal (310) for blokken som skal dekodes ved å beregne en sum av prediksjonsfeilen og prediksjonsbildet.
2 Videodekoclmgsanordning for å dekode kodede data (300) skaffet til veie ved å utsette en video som har en luminans (Y) og to fargeforskjeller (Cb, Cr) for prediksjons-koding, hvor anordningen omfatter: • midler (301, 302, 303) for å motta kodede data skaffet til veie ved koding, for en blokk som skal dekodes, en kvantisert ortogonal transformasjonskoeffisient av et prediksjonsfeilsignal vedrørende luminansen og to fargeforskjeller, informasjon om en bevegelsesvektor og indeksinformasjon som angir en kombinasjon av flere indekserte kombinasjoner som omfatter et referansebilde, en vektingsfaktor til hver av luminansen og de to fargeforskjeller og en forskyvning for hver av luminansen og de to fargeforskjellene; • midler (403) for å utlede referansebildet, vektingsfaktoren og forskyvningen fra indeksinformasjonen for blokken som skal dekodes; • midler (304, 305) for å generere prediksjonsfeilsignalet for blokken som skal dekodes ved å utsette de kvantiserte ortogonale transformasjonskoeffisienter for invers kvantisering og invers ortogonal transformasjon; • midler (308) for å generere et bevegelseskompensasjonsprediksjonsbilde (412) for blokken som skal dekodes ved å multiplisere referansebildet med vektingsfaktoren og å legge til forskyvningen, basert på bevegelsesvektoren for blokken som skal dekodes; og • midler (306) for å generere et dekodet bildesignal (310) for blokken som skal dekodes ved å beregne en sum av prediksjonsfeilen og bevegelseskompensasjons-prediksjonsbildet.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002116718 | 2002-04-18 | ||
| PCT/JP2003/004992 WO2003088679A1 (fr) | 2002-04-18 | 2003-04-18 | Procede et dispositif de codage/decodage d'une image mobile |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| NO20150299L NO20150299L (no) | 2004-01-29 |
| NO339262B1 true NO339262B1 (no) | 2016-11-21 |
Family
ID=37390619
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| NO20150299A NO339262B1 (no) | 2002-04-18 | 2015-03-05 | Dekoding av levende bilder |
Country Status (4)
| Country | Link |
|---|---|
| JP (319) | JP4127718B2 (no) |
| CN (3) | CN100508609C (no) |
| ES (2) | ES2355656T3 (no) |
| NO (1) | NO339262B1 (no) |
Families Citing this family (43)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0858940A (ja) * | 1994-08-25 | 1996-03-05 | Mukai Kogyo Kk | コンベア装置 |
| US7075502B1 (en) | 1998-04-10 | 2006-07-11 | E Ink Corporation | Full color reflective display with multichromatic sub-pixels |
| JP4015934B2 (ja) | 2002-04-18 | 2007-11-28 | 株式会社東芝 | 動画像符号化方法及び装置 |
| CN100508609C (zh) * | 2002-04-18 | 2009-07-01 | 株式会社东芝 | 运动图像编码/解码方法和装置 |
| CN101222638B (zh) * | 2007-01-08 | 2011-12-07 | 华为技术有限公司 | 多视视频编解码方法及装置 |
| KR101365444B1 (ko) * | 2007-11-19 | 2014-02-21 | 삼성전자주식회사 | 영상의 해상도의 조정을 통하여 동영상을 효율적으로부호화/복호화하는 방법 및 장치 |
| JP5461892B2 (ja) | 2009-06-05 | 2014-04-02 | 株式会社ミツトヨ | 顕微鏡 |
| TWI562398B (en) | 2009-09-15 | 2016-12-11 | Showa Denko Kk | Light-emitting diode, light-emitting diode lamp and lighting apparatus |
| JP2011087202A (ja) | 2009-10-19 | 2011-04-28 | Sony Corp | 記憶装置およびデータ通信システム |
| JP5440927B2 (ja) | 2009-10-19 | 2014-03-12 | 株式会社リコー | 測距カメラ装置 |
| CN103826130B (zh) * | 2010-04-08 | 2017-03-01 | 株式会社东芝 | 图像解码方法以及图像解码装置 |
| CN102823248B (zh) | 2010-04-08 | 2015-06-24 | 株式会社东芝 | 图像编码方法以及图像编码装置 |
| CN103826131B (zh) * | 2010-04-08 | 2017-03-01 | 株式会社东芝 | 图像解码方法以及图像解码装置 |
| JP5325157B2 (ja) * | 2010-04-09 | 2013-10-23 | 株式会社エヌ・ティ・ティ・ドコモ | 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、及び、動画像復号プログラム |
| JP5482407B2 (ja) | 2010-04-28 | 2014-05-07 | 株式会社リコー | 情報処理装置、画像処理装置、画像処理システム、画面カスタマイズ方法、画面カスタマイズプログラム、及びそのプログラムを記録した記録媒体 |
| CN106067973B (zh) * | 2010-05-19 | 2019-06-18 | Sk电信有限公司 | 视频解码设备 |
| JP2012032611A (ja) | 2010-07-30 | 2012-02-16 | Sony Corp | 立体画像表示装置 |
| JP5757075B2 (ja) | 2010-09-15 | 2015-07-29 | ソニー株式会社 | 送信装置、送信方法、受信装置、受信方法、プログラム、および放送システム |
| KR101755601B1 (ko) | 2010-11-04 | 2017-07-10 | 삼성디스플레이 주식회사 | 터치 스크린 패널 일체형 액정표시장치 |
| WO2012093879A2 (ko) * | 2011-01-06 | 2012-07-12 | 삼성전자주식회사 | 경쟁 기반의 다시점 비디오 부호화/복호화 장치 및 방법 |
| KR20120080122A (ko) * | 2011-01-06 | 2012-07-16 | 삼성전자주식회사 | 경쟁 기반의 다시점 비디오 부호화/복호화 장치 및 방법 |
| GB2487200A (en) | 2011-01-12 | 2012-07-18 | Canon Kk | Video encoding and decoding with improved error resilience |
| EP2685724B1 (en) | 2011-03-06 | 2020-04-29 | LG Electronics Inc. | Intra prediction method of chrominance block using luminance sample, and apparatus using same |
| GB2491589B (en) | 2011-06-06 | 2015-12-16 | Canon Kk | Method and device for encoding a sequence of images and method and device for decoding a sequence of image |
| CN103069805B (zh) * | 2011-06-27 | 2017-05-31 | 太阳专利托管公司 | 图像编码方法、图像解码方法、图像编码装置、图像解码装置及图像编码解码装置 |
| KR101457398B1 (ko) * | 2011-06-28 | 2014-11-04 | 삼성전자주식회사 | 픽셀 분류에 따른 오프셋 조정을 이용하는 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치 |
| US8599652B2 (en) | 2011-07-14 | 2013-12-03 | Tdk Corporation | Thermally-assisted magnetic recording medium and magnetic recording/reproducing device using the same |
| JP5830993B2 (ja) * | 2011-07-14 | 2015-12-09 | ソニー株式会社 | 画像処理装置及び画像処理方法 |
| CN103124346B (zh) * | 2011-11-18 | 2016-01-20 | 北京大学 | 一种残差预测的确定方法及系统 |
| MY177654A (en) * | 2011-12-22 | 2020-09-23 | Samsung Electronics Co Ltd | Video encoding method using offset adjustment according to classification of pixels by maximum encoding units and apparatus thereof, and video decoding method and apparatus thereof |
| KR20180030250A (ko) * | 2012-01-20 | 2018-03-21 | 소니 주식회사 | 유효성 맵 코딩의 복잡성 감소 |
| WO2014007514A1 (ko) * | 2012-07-02 | 2014-01-09 | 엘지전자 주식회사 | 영상 디코딩 방법 및 이를 이용하는 장치 |
| US9724920B2 (en) | 2013-03-20 | 2017-08-08 | Hewlett-Packard Development Company, L.P. | Molded die slivers with exposed front and back surfaces |
| JP6087747B2 (ja) | 2013-06-27 | 2017-03-01 | Kddi株式会社 | 映像符号化装置、映像復号装置、映像システム、映像符号化方法、映像復号方法、およびプログラム |
| JP6142003B2 (ja) | 2014-01-08 | 2017-06-07 | 旭化成エレクトロニクス株式会社 | ダイオード型センサの出力電流検出icチップ及びダイオード型センサ装置 |
| JP6619930B2 (ja) | 2014-12-19 | 2019-12-11 | 株式会社Adeka | ポリオレフィン系樹脂組成物 |
| JP6434162B2 (ja) * | 2015-10-28 | 2018-12-05 | 株式会社東芝 | データ管理システム、データ管理方法およびプログラム |
| EP3420387A4 (en) | 2016-02-24 | 2019-10-30 | Magic Leap, Inc. | POLARIZING RADIANT WITH LIGHT LIGHT LOSSES |
| JP2018189977A (ja) * | 2018-07-12 | 2018-11-29 | 株式会社ニコン | 電子機器 |
| DE102019103438A1 (de) | 2019-02-12 | 2020-08-13 | Werner Krammel | Fahrzeug mit Neigerahmen und Federdämpfersystem |
| EP3751852A1 (en) * | 2019-06-12 | 2020-12-16 | intoPIX s.a. | Encoder and method of encoding a sequence of frames |
| JP7402714B2 (ja) | 2020-03-05 | 2023-12-21 | 東洋エンジニアリング株式会社 | 流動床型造粒装置または流動床/噴流床型造粒装置 |
| CN114213441B (zh) * | 2021-12-27 | 2023-12-01 | 中国科学院长春应用化学研究所 | 硼杂或磷杂稠环化合物及其制备方法和发光器件 |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH10136385A (ja) * | 1996-09-03 | 1998-05-22 | Nippon Telegr & Teleph Corp <Ntt> | 動画像の輝度変化補償方法、動画像符号化装置、動画像復号装置、動画像符号化もしくは復号プログラムを記録した記録媒体および動画像の符号化データを記録した記録媒体 |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| FR2755527B1 (fr) * | 1996-11-07 | 1999-01-08 | Thomson Multimedia Sa | Procede de prediction compensee en mouvement et codeur utilisant un tel procede |
| EP0924933A4 (en) * | 1997-07-08 | 2008-03-12 | Sony Corp | VIDEO DATA CODING METHOD, APPARATUS, TRANSMITTER AND RECORDING MEDIUM |
| JP2001333389A (ja) * | 2000-05-17 | 2001-11-30 | Mitsubishi Electric Research Laboratories Inc | ビデオ再生システムおよびビデオ信号処理方法 |
| CN100508609C (zh) * | 2002-04-18 | 2009-07-01 | 株式会社东芝 | 运动图像编码/解码方法和装置 |
-
2003
- 2003-04-18 CN CNB2006100899520A patent/CN100508609C/zh not_active Expired - Fee Related
- 2003-04-18 CN CN200910145811XA patent/CN101631248B/zh not_active Expired - Lifetime
- 2003-04-18 CN CN2009101458092A patent/CN101631247B/zh not_active Expired - Lifetime
- 2003-04-18 ES ES07006031T patent/ES2355656T3/es not_active Expired - Lifetime
- 2003-04-18 ES ES03717655T patent/ES2351306T3/es not_active Expired - Lifetime
-
2006
- 2006-10-30 JP JP2006294679A patent/JP4127718B2/ja not_active Expired - Lifetime
- 2006-10-30 JP JP2006294678A patent/JP4127717B2/ja not_active Expired - Lifetime
- 2006-10-30 JP JP2006294674A patent/JP4127714B2/ja not_active Expired - Lifetime
- 2006-10-30 JP JP2006294676A patent/JP4208913B2/ja not_active Expired - Lifetime
- 2006-10-30 JP JP2006294677A patent/JP4127716B2/ja not_active Expired - Lifetime
- 2006-10-30 JP JP2006294675A patent/JP4127715B2/ja not_active Expired - Lifetime
- 2006-10-30 JP JP2006294673A patent/JP4127713B2/ja not_active Expired - Lifetime
-
2008
- 2008-03-31 JP JP2008093243A patent/JP4208947B2/ja not_active Expired - Lifetime
- 2008-03-31 JP JP2008093244A patent/JP2008199651A/ja active Pending
- 2008-03-31 JP JP2008093241A patent/JP4208945B2/ja not_active Expired - Lifetime
- 2008-03-31 JP JP2008093242A patent/JP4208946B2/ja not_active Expired - Lifetime
- 2008-06-09 JP JP2008151017A patent/JP4208952B2/ja not_active Expired - Lifetime
- 2008-06-09 JP JP2008151019A patent/JP4208954B2/ja not_active Expired - Lifetime
- 2008-06-09 JP JP2008151020A patent/JP4208955B2/ja not_active Expired - Lifetime
- 2008-06-09 JP JP2008151018A patent/JP4208953B2/ja not_active Expired - Lifetime
- 2008-09-16 JP JP2008237024A patent/JP4234780B2/ja not_active Expired - Lifetime
- 2008-09-16 JP JP2008237025A patent/JP4256455B2/ja not_active Expired - Lifetime
- 2008-09-16 JP JP2008237026A patent/JP4256456B2/ja not_active Expired - Lifetime
- 2008-10-03 JP JP2008258465A patent/JP4213766B1/ja not_active Expired - Lifetime
- 2008-10-15 JP JP2008266422A patent/JP4256460B2/ja not_active Expired - Lifetime
- 2008-10-15 JP JP2008266419A patent/JP4256457B2/ja not_active Expired - Lifetime
- 2008-10-15 JP JP2008266423A patent/JP4256461B2/ja not_active Expired - Lifetime
- 2008-10-15 JP JP2008266420A patent/JP4256458B2/ja not_active Expired - Lifetime
- 2008-10-15 JP JP2008266424A patent/JP4256462B2/ja not_active Expired - Lifetime
- 2008-10-15 JP JP2008266421A patent/JP4256459B2/ja not_active Expired - Lifetime
- 2008-11-18 JP JP2008294770A patent/JP4256465B2/ja not_active Expired - Lifetime
- 2008-11-18 JP JP2008294768A patent/JP4234783B2/ja not_active Expired - Lifetime
- 2008-11-18 JP JP2008294766A patent/JP4234781B1/ja not_active Expired - Lifetime
- 2008-11-18 JP JP2008294769A patent/JP4234784B1/ja not_active Expired - Lifetime
- 2008-11-18 JP JP2008294767A patent/JP4234782B1/ja not_active Expired - Lifetime
- 2008-11-26 JP JP2008301019A patent/JP4247306B1/ja not_active Expired - Lifetime
- 2008-11-26 JP JP2008301018A patent/JP4247305B1/ja not_active Expired - Lifetime
- 2008-11-26 JP JP2008301017A patent/JP4247304B2/ja not_active Expired - Lifetime
-
2009
- 2009-01-08 JP JP2009002801A patent/JP4282755B2/ja not_active Expired - Lifetime
- 2009-01-08 JP JP2009002803A patent/JP4282757B2/ja not_active Expired - Lifetime
- 2009-01-08 JP JP2009002799A patent/JP4282753B2/ja not_active Expired - Lifetime
- 2009-01-08 JP JP2009002802A patent/JP4282756B2/ja not_active Expired - Fee Related
- 2009-01-08 JP JP2009002798A patent/JP4282752B2/ja not_active Expired - Lifetime
- 2009-01-08 JP JP2009002800A patent/JP4282754B2/ja not_active Expired - Lifetime
- 2009-01-08 JP JP2009002804A patent/JP4282758B2/ja not_active Expired - Lifetime
- 2009-01-08 JP JP2009002805A patent/JP4309469B2/ja not_active Expired - Lifetime
- 2009-03-23 JP JP2009069251A patent/JP4331259B2/ja not_active Expired - Lifetime
- 2009-03-23 JP JP2009069237A patent/JP4307526B2/ja not_active Expired - Lifetime
- 2009-03-23 JP JP2009069250A patent/JP4307539B2/ja not_active Expired - Lifetime
- 2009-03-23 JP JP2009069249A patent/JP4307538B2/ja not_active Expired - Lifetime
- 2009-03-23 JP JP2009069247A patent/JP4307536B2/ja not_active Expired - Lifetime
- 2009-03-23 JP JP2009069233A patent/JP4307522B2/ja not_active Expired - Lifetime
- 2009-03-23 JP JP2009069245A patent/JP4307534B2/ja not_active Expired - Lifetime
- 2009-03-23 JP JP2009069240A patent/JP4307529B2/ja not_active Expired - Lifetime
- 2009-03-23 JP JP2009069243A patent/JP4307532B2/ja not_active Expired - Lifetime
- 2009-03-23 JP JP2009069239A patent/JP4307528B2/ja not_active Expired - Lifetime
- 2009-03-23 JP JP2009069242A patent/JP4307531B2/ja not_active Expired - Lifetime
- 2009-03-23 JP JP2009069248A patent/JP4307537B2/ja not_active Expired - Lifetime
- 2009-03-23 JP JP2009069241A patent/JP4307530B2/ja not_active Expired - Lifetime
- 2009-03-23 JP JP2009069246A patent/JP4307535B2/ja not_active Expired - Lifetime
- 2009-03-23 JP JP2009069236A patent/JP4307525B2/ja not_active Expired - Lifetime
- 2009-03-23 JP JP2009069238A patent/JP4307527B2/ja not_active Expired - Lifetime
- 2009-03-23 JP JP2009069244A patent/JP4307533B2/ja not_active Expired - Fee Related
- 2009-03-23 JP JP2009069235A patent/JP4307524B2/ja not_active Expired - Lifetime
- 2009-03-23 JP JP2009069234A patent/JP4307523B2/ja not_active Expired - Lifetime
- 2009-04-22 JP JP2009103541A patent/JP4320366B2/ja not_active Expired - Lifetime
- 2009-04-22 JP JP2009103545A patent/JP4320370B2/ja not_active Expired - Lifetime
- 2009-04-22 JP JP2009103543A patent/JP4320368B2/ja not_active Expired - Lifetime
- 2009-04-22 JP JP2009103546A patent/JP4320371B2/ja not_active Expired - Lifetime
- 2009-04-22 JP JP2009103542A patent/JP4320367B2/ja not_active Expired - Lifetime
- 2009-04-22 JP JP2009103544A patent/JP4320369B2/ja not_active Expired - Lifetime
- 2009-05-15 JP JP2009118117A patent/JP4338775B2/ja not_active Expired - Lifetime
- 2009-05-15 JP JP2009118113A patent/JP4338771B2/ja not_active Expired - Lifetime
- 2009-05-15 JP JP2009118121A patent/JP2009219137A/ja active Pending
- 2009-05-15 JP JP2009118120A patent/JP4338778B2/ja not_active Expired - Lifetime
- 2009-05-15 JP JP2009118114A patent/JP4338772B2/ja not_active Expired - Lifetime
- 2009-05-15 JP JP2009118119A patent/JP4338777B2/ja not_active Expired - Lifetime
- 2009-05-15 JP JP2009118116A patent/JP4338774B2/ja not_active Expired - Lifetime
- 2009-05-15 JP JP2009118118A patent/JP4338776B2/ja not_active Expired - Lifetime
- 2009-05-15 JP JP2009118115A patent/JP4338773B2/ja not_active Expired - Lifetime
- 2009-06-05 JP JP2009136421A patent/JP4355756B2/ja not_active Expired - Lifetime
- 2009-06-05 JP JP2009136422A patent/JP4355757B2/ja not_active Expired - Lifetime
- 2009-06-05 JP JP2009136420A patent/JP4355755B2/ja not_active Expired - Lifetime
- 2009-06-19 JP JP2009145900A patent/JP4355759B2/ja not_active Expired - Lifetime
- 2009-06-19 JP JP2009145906A patent/JP4355765B2/ja not_active Expired - Lifetime
- 2009-06-19 JP JP2009145905A patent/JP4355764B2/ja not_active Expired - Lifetime
- 2009-06-19 JP JP2009145912A patent/JP4355771B2/ja not_active Expired - Lifetime
- 2009-06-19 JP JP2009145911A patent/JP4355770B2/ja not_active Expired - Lifetime
- 2009-06-19 JP JP2009145904A patent/JP4355763B2/ja not_active Expired - Lifetime
- 2009-06-19 JP JP2009145902A patent/JP4355761B2/ja not_active Expired - Lifetime
- 2009-06-19 JP JP2009145909A patent/JP4355768B2/ja not_active Expired - Lifetime
- 2009-06-19 JP JP2009145910A patent/JP4355769B2/ja not_active Expired - Lifetime
- 2009-06-19 JP JP2009145901A patent/JP4355760B2/ja not_active Expired - Lifetime
- 2009-06-19 JP JP2009145907A patent/JP4355766B2/ja not_active Expired - Lifetime
- 2009-06-19 JP JP2009145899A patent/JP4355758B2/ja not_active Expired - Lifetime
- 2009-06-19 JP JP2009145908A patent/JP4355767B2/ja not_active Expired - Lifetime
- 2009-06-19 JP JP2009145903A patent/JP4355762B2/ja not_active Expired - Lifetime
- 2009-07-24 JP JP2009173190A patent/JP4376312B1/ja not_active Expired - Lifetime
- 2009-07-24 JP JP2009173189A patent/JP4376311B2/ja not_active Expired - Lifetime
- 2009-07-24 JP JP2009173180A patent/JP4376302B1/ja not_active Expired - Lifetime
- 2009-07-24 JP JP2009173179A patent/JP4376301B2/ja not_active Expired - Lifetime
- 2009-07-24 JP JP2009173188A patent/JP4376310B1/ja not_active Expired - Lifetime
- 2009-07-24 JP JP2009173185A patent/JP4376307B2/ja not_active Expired - Lifetime
- 2009-07-24 JP JP2009173186A patent/JP4376308B1/ja not_active Expired - Lifetime
- 2009-07-24 JP JP2009173184A patent/JP4376306B2/ja not_active Expired - Lifetime
- 2009-07-24 JP JP2009173183A patent/JP4376305B1/ja not_active Expired - Lifetime
- 2009-07-24 JP JP2009173182A patent/JP4376304B2/ja not_active Expired - Lifetime
- 2009-07-24 JP JP2009173192A patent/JP4376314B1/ja not_active Expired - Lifetime
- 2009-07-24 JP JP2009173187A patent/JP4376309B2/ja not_active Expired - Lifetime
- 2009-07-24 JP JP2009173181A patent/JP4376303B2/ja not_active Expired - Lifetime
- 2009-07-24 JP JP2009173191A patent/JP4376313B2/ja not_active Expired - Lifetime
- 2009-07-24 JP JP2009173193A patent/JP4376315B2/ja not_active Expired - Lifetime
- 2009-07-24 JP JP2009173194A patent/JP4405584B2/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009212310A patent/JP4406070B2/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009211753A patent/JP4406061B2/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009211566A patent/JP4406055B2/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009212311A patent/JP4406071B2/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009211560A patent/JP4406049B1/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009212312A patent/JP4406072B2/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009212315A patent/JP4406075B2/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009211562A patent/JP4406051B2/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009212308A patent/JP4406068B2/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009211756A patent/JP4406064B1/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009211749A patent/JP4406057B2/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009211758A patent/JP4406066B1/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009212316A patent/JP4406076B2/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009211561A patent/JP4406050B2/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009212307A patent/JP4406067B2/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009211751A patent/JP4406059B2/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009211754A patent/JP4406062B1/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009212313A patent/JP4406073B2/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009211755A patent/JP4406063B2/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009211564A patent/JP4406053B1/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009211565A patent/JP4406054B2/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009211752A patent/JP4406060B1/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009211558A patent/JP4406047B2/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009211567A patent/JP4406056B2/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009211563A patent/JP4406052B2/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009211750A patent/JP4406058B2/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009211757A patent/JP4406065B2/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009212314A patent/JP4406074B2/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009212309A patent/JP4406069B2/ja not_active Expired - Lifetime
- 2009-09-14 JP JP2009211559A patent/JP4406048B2/ja not_active Expired - Lifetime
- 2009-09-25 JP JP2009220060A patent/JP4406086B1/ja not_active Expired - Lifetime
- 2009-09-25 JP JP2009220061A patent/JP4406087B1/ja not_active Expired - Lifetime
- 2009-09-25 JP JP2009220056A patent/JP4406082B1/ja not_active Expired - Lifetime
- 2009-09-25 JP JP2009220051A patent/JP4406077B1/ja not_active Expired - Lifetime
- 2009-09-25 JP JP2009220053A patent/JP4406079B1/ja not_active Expired - Lifetime
- 2009-09-25 JP JP2009220057A patent/JP4406083B1/ja not_active Expired - Lifetime
- 2009-09-25 JP JP2009220062A patent/JP4406088B1/ja not_active Expired - Lifetime
- 2009-09-25 JP JP2009220052A patent/JP4406078B1/ja not_active Expired - Lifetime
- 2009-09-25 JP JP2009220054A patent/JP4406080B1/ja not_active Expired - Lifetime
- 2009-09-25 JP JP2009220055A patent/JP4406081B1/ja not_active Expired - Lifetime
- 2009-09-25 JP JP2009220063A patent/JP4406089B1/ja not_active Expired - Lifetime
- 2009-09-25 JP JP2009220059A patent/JP4406085B1/ja not_active Expired - Lifetime
- 2009-09-25 JP JP2009220058A patent/JP4406084B1/ja not_active Expired - Lifetime
- 2009-10-30 JP JP2009249584A patent/JP4427623B2/ja not_active Expired - Lifetime
- 2009-10-30 JP JP2009249573A patent/JP4427612B2/ja not_active Expired - Lifetime
- 2009-10-30 JP JP2009249577A patent/JP4427616B2/ja not_active Expired - Lifetime
- 2009-10-30 JP JP2009249582A patent/JP4427621B2/ja not_active Expired - Lifetime
- 2009-10-30 JP JP2009249578A patent/JP4427617B2/ja not_active Expired - Lifetime
- 2009-10-30 JP JP2009249586A patent/JP4427625B2/ja not_active Expired - Lifetime
- 2009-10-30 JP JP2009249583A patent/JP4427622B2/ja not_active Expired - Lifetime
- 2009-10-30 JP JP2009249572A patent/JP4427611B2/ja not_active Expired - Lifetime
- 2009-10-30 JP JP2009249581A patent/JP4427620B2/ja not_active Expired - Lifetime
- 2009-10-30 JP JP2009249570A patent/JP4427609B2/ja not_active Expired - Lifetime
- 2009-10-30 JP JP2009249579A patent/JP4427618B2/ja not_active Expired - Lifetime
- 2009-10-30 JP JP2009249574A patent/JP4427613B2/ja not_active Expired - Lifetime
- 2009-10-30 JP JP2009249571A patent/JP4427610B2/ja not_active Expired - Lifetime
- 2009-10-30 JP JP2009249580A patent/JP4427619B2/ja not_active Expired - Lifetime
- 2009-10-30 JP JP2009249585A patent/JP4427624B2/ja not_active Expired - Lifetime
- 2009-10-30 JP JP2009249575A patent/JP4427614B2/ja not_active Expired - Lifetime
- 2009-10-30 JP JP2009249588A patent/JP4427627B2/ja not_active Expired - Lifetime
- 2009-10-30 JP JP2009249576A patent/JP4427615B2/ja not_active Expired - Lifetime
- 2009-10-30 JP JP2009249587A patent/JP4427626B2/ja not_active Expired - Lifetime
- 2009-10-30 JP JP2009249569A patent/JP4427608B2/ja not_active Expired - Lifetime
- 2009-11-27 JP JP2009269468A patent/JP4438904B1/ja not_active Expired - Lifetime
- 2009-11-27 JP JP2009269464A patent/JP4438900B1/ja not_active Expired - Lifetime
- 2009-11-27 JP JP2009269465A patent/JP4438901B1/ja not_active Expired - Lifetime
- 2009-11-27 JP JP2009269466A patent/JP4438902B1/ja not_active Expired - Lifetime
- 2009-11-27 JP JP2009269463A patent/JP4438899B1/ja not_active Expired - Lifetime
- 2009-11-27 JP JP2009269462A patent/JP4438898B1/ja not_active Expired - Lifetime
- 2009-11-27 JP JP2009269461A patent/JP4438897B1/ja not_active Expired - Lifetime
- 2009-11-27 JP JP2009269467A patent/JP4438903B1/ja not_active Expired - Lifetime
- 2009-12-25 JP JP2009293624A patent/JP4460638B2/ja not_active Expired - Lifetime
- 2009-12-25 JP JP2009293617A patent/JP4460631B2/ja not_active Expired - Lifetime
- 2009-12-25 JP JP2009293625A patent/JP4460639B2/ja not_active Expired - Lifetime
- 2009-12-25 JP JP2009293626A patent/JP4460640B2/ja not_active Expired - Lifetime
- 2009-12-25 JP JP2009293621A patent/JP4460635B2/ja not_active Expired - Lifetime
- 2009-12-25 JP JP2009293618A patent/JP4460632B2/ja not_active Expired - Lifetime
- 2009-12-25 JP JP2009293623A patent/JP4460637B2/ja not_active Expired - Lifetime
- 2009-12-25 JP JP2009293622A patent/JP4460636B2/ja not_active Expired - Lifetime
- 2009-12-25 JP JP2009293627A patent/JP4460641B2/ja not_active Expired - Lifetime
- 2009-12-25 JP JP2009293619A patent/JP4460633B2/ja not_active Expired - Lifetime
- 2009-12-25 JP JP2009293616A patent/JP4460630B2/ja not_active Expired - Lifetime
- 2009-12-25 JP JP2009293620A patent/JP4460634B2/ja not_active Expired - Lifetime
-
2010
- 2010-02-05 JP JP2010023654A patent/JP4478743B2/ja not_active Expired - Lifetime
- 2010-02-05 JP JP2010023662A patent/JP4478751B2/ja not_active Expired - Lifetime
- 2010-02-05 JP JP2010023663A patent/JP4478752B2/ja not_active Expired - Lifetime
- 2010-02-05 JP JP2010023651A patent/JP4478740B2/ja not_active Expired - Lifetime
- 2010-02-05 JP JP2010023649A patent/JP4478738B2/ja not_active Expired - Lifetime
- 2010-02-05 JP JP2010023646A patent/JP4478735B2/ja not_active Expired - Lifetime
- 2010-02-05 JP JP2010023657A patent/JP4478746B2/ja not_active Expired - Lifetime
- 2010-02-05 JP JP2010023655A patent/JP4478744B2/ja not_active Expired - Lifetime
- 2010-02-05 JP JP2010023652A patent/JP4478741B2/ja not_active Expired - Lifetime
- 2010-02-05 JP JP2010023653A patent/JP4478742B2/ja not_active Expired - Lifetime
- 2010-02-05 JP JP2010023644A patent/JP4478733B2/ja not_active Expired - Lifetime
- 2010-02-05 JP JP2010023659A patent/JP4478748B2/ja not_active Expired - Lifetime
- 2010-02-05 JP JP2010023656A patent/JP4478745B2/ja not_active Expired - Lifetime
- 2010-02-05 JP JP2010023645A patent/JP4478734B2/ja not_active Expired - Lifetime
- 2010-02-05 JP JP2010023660A patent/JP4478749B2/ja not_active Expired - Lifetime
- 2010-02-05 JP JP2010023650A patent/JP4478739B2/ja not_active Expired - Lifetime
- 2010-02-05 JP JP2010023661A patent/JP4478750B2/ja not_active Expired - Lifetime
- 2010-02-05 JP JP2010023648A patent/JP4478737B2/ja not_active Expired - Lifetime
- 2010-02-05 JP JP2010023647A patent/JP4478736B1/ja not_active Expired - Lifetime
- 2010-02-05 JP JP2010023658A patent/JP4478747B2/ja not_active Expired - Lifetime
- 2010-03-08 JP JP2010050119A patent/JP4496304B1/ja not_active Expired - Lifetime
- 2010-03-08 JP JP2010050123A patent/JP4496308B2/ja not_active Expired - Lifetime
- 2010-03-08 JP JP2010050117A patent/JP4496302B2/ja not_active Expired - Lifetime
- 2010-03-08 JP JP2010050129A patent/JP4496314B2/ja not_active Expired - Lifetime
- 2010-03-08 JP JP2010050127A patent/JP4496312B2/ja not_active Expired - Lifetime
- 2010-03-08 JP JP2010050130A patent/JP4496315B2/ja not_active Expired - Lifetime
- 2010-03-08 JP JP2010050118A patent/JP4496303B2/ja not_active Expired - Lifetime
- 2010-03-08 JP JP2010050116A patent/JP4496301B2/ja not_active Expired - Lifetime
- 2010-03-08 JP JP2010050128A patent/JP4496313B2/ja not_active Expired - Lifetime
- 2010-03-08 JP JP2010050115A patent/JP4496300B1/ja not_active Expired - Lifetime
- 2010-03-08 JP JP2010050124A patent/JP4496309B2/ja not_active Expired - Lifetime
- 2010-03-08 JP JP2010050122A patent/JP4496307B2/ja not_active Expired - Lifetime
- 2010-03-08 JP JP2010050120A patent/JP4496305B2/ja not_active Expired - Lifetime
- 2010-03-08 JP JP2010050126A patent/JP4496311B2/ja not_active Expired - Lifetime
- 2010-03-08 JP JP2010050121A patent/JP4496306B2/ja not_active Expired - Lifetime
- 2010-03-08 JP JP2010050125A patent/JP4496310B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089935A patent/JP4517020B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089947A patent/JP4517032B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089948A patent/JP4517033B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089938A patent/JP4517023B1/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089950A patent/JP4517035B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089942A patent/JP4517027B1/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089956A patent/JP4517041B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089953A patent/JP4517038B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089934A patent/JP4517019B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089954A patent/JP4517039B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089937A patent/JP4517022B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089939A patent/JP4517024B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089932A patent/JP4517017B1/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089933A patent/JP4517018B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089952A patent/JP4517037B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089926A patent/JP4517011B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089928A patent/JP4517013B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089955A patent/JP4517040B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089943A patent/JP4517028B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089941A patent/JP4517026B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089929A patent/JP4517014B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089927A patent/JP4517012B1/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089946A patent/JP4517031B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089951A patent/JP4517036B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089945A patent/JP4517030B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089940A patent/JP4517025B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089930A patent/JP4517015B1/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089936A patent/JP4517021B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089944A patent/JP4517029B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089949A patent/JP4517034B2/ja not_active Expired - Lifetime
- 2010-04-09 JP JP2010089931A patent/JP4517016B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109735A patent/JP4538549B1/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109727A patent/JP4538541B1/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109754A patent/JP4538568B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109740A patent/JP4538554B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109752A patent/JP4538566B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109741A patent/JP4538555B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109749A patent/JP4538563B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109746A patent/JP4538560B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109729A patent/JP4538543B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109751A patent/JP4538565B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109739A patent/JP4538553B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109731A patent/JP4538545B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109738A patent/JP4538552B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109742A patent/JP4538556B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109745A patent/JP4538559B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109737A patent/JP4538551B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109734A patent/JP4538548B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109730A patent/JP4538544B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109726A patent/JP4538540B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109747A patent/JP4538561B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109750A patent/JP4538564B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109725A patent/JP4538539B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109728A patent/JP4538542B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109732A patent/JP4538546B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109748A patent/JP4538562B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109744A patent/JP4538558B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109736A patent/JP4538550B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109743A patent/JP4538557B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109733A patent/JP4538547B2/ja not_active Expired - Lifetime
- 2010-05-12 JP JP2010109753A patent/JP4538567B1/ja not_active Expired - Lifetime
- 2010-05-19 JP JP2010115591A patent/JP4538571B2/ja not_active Expired - Lifetime
- 2010-05-19 JP JP2010115589A patent/JP4538569B2/ja not_active Expired - Lifetime
- 2010-05-19 JP JP2010115590A patent/JP4538570B2/ja not_active Expired - Lifetime
- 2010-06-24 JP JP2010144011A patent/JP4560138B2/ja not_active Expired - Lifetime
- 2010-06-24 JP JP2010144009A patent/JP4560136B2/ja not_active Expired - Lifetime
- 2010-06-24 JP JP2010144010A patent/JP4560137B2/ja not_active Expired - Lifetime
- 2010-06-24 JP JP2010144012A patent/JP4560139B2/ja not_active Expired - Lifetime
- 2010-06-24 JP JP2010144013A patent/JP4560140B2/ja not_active Expired - Lifetime
- 2010-09-29 JP JP2010219373A patent/JP4637277B2/ja not_active Expired - Fee Related
- 2010-09-29 JP JP2010219378A patent/JP4625543B1/ja not_active Expired - Fee Related
- 2010-09-29 JP JP2010219374A patent/JP4625542B1/ja not_active Expired - Fee Related
- 2010-09-29 JP JP2010219375A patent/JP4637278B2/ja not_active Expired - Fee Related
- 2010-09-29 JP JP2010219377A patent/JP4637280B2/ja not_active Expired - Fee Related
- 2010-09-29 JP JP2010219372A patent/JP4637276B2/ja not_active Expired - Fee Related
- 2010-09-29 JP JP2010219376A patent/JP4637279B2/ja not_active Expired - Fee Related
- 2010-10-07 JP JP2010227788A patent/JP4637288B2/ja not_active Expired - Fee Related
- 2010-10-07 JP JP2010227790A patent/JP4637290B2/ja not_active Expired - Fee Related
- 2010-10-07 JP JP2010227781A patent/JP4637282B2/ja not_active Expired - Fee Related
- 2010-10-07 JP JP2010227792A patent/JP4637292B2/ja not_active Expired - Fee Related
- 2010-10-07 JP JP2010227780A patent/JP4637281B2/ja not_active Expired - Fee Related
- 2010-10-07 JP JP2010227782A patent/JP4637283B2/ja not_active Expired - Fee Related
- 2010-10-07 JP JP2010227789A patent/JP4637289B2/ja not_active Expired - Fee Related
- 2010-10-07 JP JP2010227791A patent/JP4637291B2/ja not_active Expired - Fee Related
- 2010-10-07 JP JP2010227784A patent/JP4637285B2/ja not_active Expired - Fee Related
- 2010-10-07 JP JP2010227783A patent/JP4637284B2/ja not_active Expired - Fee Related
- 2010-10-07 JP JP2010227786A patent/JP4637287B2/ja not_active Expired - Fee Related
- 2010-10-07 JP JP2010227785A patent/JP4637286B2/ja not_active Expired - Fee Related
- 2010-10-07 JP JP2010227787A patent/JP4665062B2/ja not_active Expired - Fee Related
-
2012
- 2012-04-20 JP JP2012096738A patent/JP5481518B2/ja not_active Expired - Fee Related
-
2013
- 2013-12-02 JP JP2013249509A patent/JP5738968B2/ja not_active Expired - Fee Related
-
2014
- 2014-12-05 JP JP2014247290A patent/JP5921656B2/ja not_active Expired - Lifetime
-
2015
- 2015-03-05 NO NO20150299A patent/NO339262B1/no not_active IP Right Cessation
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH10136385A (ja) * | 1996-09-03 | 1998-05-22 | Nippon Telegr & Teleph Corp <Ntt> | 動画像の輝度変化補償方法、動画像符号化装置、動画像復号装置、動画像符号化もしくは復号プログラムを記録した記録媒体および動画像の符号化データを記録した記録媒体 |
Also Published As
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| NO339262B1 (no) | Dekoding av levende bilder | |
| NO337383B1 (no) | Koding og dekoding av levende bilder. |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| MK1K | Patent expired |