ITTO20120901A1 - Procedimento di codifica e decodifica di un video digitale e relativi dispositivi di codifica e decodifica - Google Patents

Procedimento di codifica e decodifica di un video digitale e relativi dispositivi di codifica e decodifica Download PDF

Info

Publication number
ITTO20120901A1
ITTO20120901A1 IT000901A ITTO20120901A ITTO20120901A1 IT TO20120901 A1 ITTO20120901 A1 IT TO20120901A1 IT 000901 A IT000901 A IT 000901A IT TO20120901 A ITTO20120901 A IT TO20120901A IT TO20120901 A1 ITTO20120901 A1 IT TO20120901A1
Authority
IT
Italy
Prior art keywords
regions
decoding
coding
video stream
video
Prior art date
Application number
IT000901A
Other languages
English (en)
Inventor
Marco Arena
Giovanni Ballocca
Paola Sunna
Original Assignee
Rai Radiotelevisione Italiana
S I Sv El Societa Italiana Per Lo Sviluppo Dell
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rai Radiotelevisione Italiana, S I Sv El Societa Italiana Per Lo Sviluppo Dell filed Critical Rai Radiotelevisione Italiana
Priority to IT000901A priority Critical patent/ITTO20120901A1/it
Priority to PCT/IB2013/059349 priority patent/WO2014060937A1/en
Priority to ES13812125T priority patent/ES2856077T3/es
Priority to SI201331851T priority patent/SI2907306T1/sl
Priority to CN201380053840.8A priority patent/CN104813657B/zh
Priority to EP13812125.6A priority patent/EP2907306B1/en
Priority to KR1020157012473A priority patent/KR102126813B1/ko
Priority to HUE13812125A priority patent/HUE052945T2/hu
Priority to DK13812125.6T priority patent/DK2907306T3/da
Priority to JP2015536276A priority patent/JP2015535148A/ja
Priority to US14/435,408 priority patent/US9961324B2/en
Priority to PL13812125T priority patent/PL2907306T3/pl
Priority to US16/863,620 priority patent/USRE49786E1/en
Priority to TW102137192A priority patent/TWI555383B/zh
Priority to ARP130103744A priority patent/AR093026A1/es
Publication of ITTO20120901A1 publication Critical patent/ITTO20120901A1/it
Priority to JP2017221897A priority patent/JP7028398B2/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/156Availability of hardware or computational resources, e.g. encoding based on power-saving criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/164Feedback from the receiver or from the transmission channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Description

“PROCEDIMENTO DI CODIFICA E DECODIFICA DI UN VIDEO DIGITALE E RELATIVI DISPOSITIVI DI CODIFICA E DECODIFICAâ€
DESCRIZIONE
La presente invenzione si riferisce ad un procedimento di codifica e decodifica di un video digitale, in particolare ad un procedimento di codifica in partizioni indipendenti di un flusso video e al relativo procedimento di decodifica indipendente di una o più delle partizioni che compongono il flusso video. La presente invenzione, inoltre, si riferisce ad un dispositivo per la codifica di un flusso video in partizioni indipendenti e a un dispositivo per la decodifica indipendente di una o più di dette partizioni.
È noto da tempo l’uso della codifica e distribuzione di flussi video indipendenti che rappresentano viste differenti di uno stesso evento o di un mosaico di servizi multimediali (Video multivista – Free-to-View Video). La distribuzione agli utenti di tali video multivista richiede tipicamente la codifica di un numero di flussi video indipendenti corrispondente al numero delle viste generate. Un procedimento di codifica e decodifica di questo tipo viene descritto, ad esempio, nel documento “ISO/IEC 13818-1 : 2000 (E) - Information technology — Generic coding of moving pictures and associated audio information: Systems†oppure dal documento “ISO/IEC 14496-10 Information technology — Coding of audio-visual objects Part 10: Advanced Video Coding†e nel corrispondente documento “ITU-T H.264 - Advanced video coding for generic audiovisual services†, nel seguito indicati come specifica H.264/AVC.
I procedimenti di codifica attualmente in uso presentano diversi svantaggi quali: necessità di utilizzare un numero di codificatori video pari al numero di componenti video da distribuire; difficoltà nella mutua sincronizzazione dei flussi video distribuiti e dei flussi video con i relativi flussi audio; aumento nella banda necessaria al trasporto dei flussi video dovuto alla necessità di replicare elementi di segnalazione simili necessari alla decodifica di ciascuno dei flussi indipendenti.
I corrispondenti procedimenti di decodifica, invece, richiedono l’uso di una moltitudine di decodificatori per la decodifica e visualizzazione di due o più delle viste trasmesse, aumentando la complessità, e quindi il costo, dell’architettura dei terminali utilizzati dagli utenti.
Sono anche noti l’uso di un singolo flusso video per la distribuzione di molteplici viste indipendenti, come accade, ad esempio, nei cosiddetti servizi “mosaico†, in cui il singolo quadro à ̈ costituito dalla composizione in una sola immagine di n quadri estratti da video indipendenti, oppure la composizione in un singolo quadro dei due video componenti una coppia stereoscopica 3D (i cosiddetti “Frame Packing Arrangement†o “frame compatible format†). Tali video compositi vengono tipicamente compressi utilizzando una qualsiasi delle tecniche di compressione disponibili, quali, ad esempio, MPEG-2, H.264/AVC, HEVC. Tali tecniche di compressione non forniscono strumenti che permettano ad un decoder conforme alle specifiche la decodifica indipendente di uno o più dei flussi video componenti. Sono stati sviluppati metodi che permettono ad un decodificatore 2D di estrarre dal video decodificato solo una delle due viste componenti la coppia stereoscopica, ma questi metodi si basano sull’uso di opportuna segnalazione che permette al decoder, una volta decodificato l’intero quadro contenitore, di ritagliare e visualizzare l’area del quadro che contiene solo una delle due viste.
Non à ̈ attualmente possibile codificare il video in modo tale da abilitare un decodificatore (per scelta dell’utente o per limitazioni delle sue risorse computazionali o di memoria) a decodificare solo un sottoinsieme prescelto dell’intero quadro. Ad esempio, non à ̈ possibile codificare un video contenente uno dei sopra citati Frame Packing Arrangement in modo tale che un decodificatore 2D, non interessato alle due immagini componenti la coppia stereoscopica, possa decodificare e visualizzare solo la regione corrispondente a una delle due viste (ad esempio, la sinistra).
Questo comporta uno spreco di risorse computazionali ed energetiche. Si noti che questo problema à ̈ sentito in modo sempre più acuto nel campo dei terminali mobili, dove l’uso indebito di risorse computazionali può ridurre drasticamente la durata della carica delle batterie.
Inoltre, può accadere che un decoder possa essere utilizzato in un dispositivo quale un set top box o uno smart gateway al quale possono essere collegati uno o più display, non necessariamente omogenei per caratteristiche. Si consideri, ad esempio, il caso di uno smart gateway, che riceve un flusso video codificato da una rete di distribuzione (ad esempio, una rete IP o una rete di broadcasting) o che legge il flusso da un dispositivo di memorizzazione. A tale smart gateway potrebbe essere connessa, per mezzo di cavi e/o di connessioni wireless, una moltitudine di display che possono avere caratteristiche differenti (ad esempio display HD o tablet). In tale caso, il decoder dovrebbe poter adattare il video decodificato alle caratteristiche del o dei display da servire: nel caso in cui al decoder venga connesso solamente un display avente risoluzione inferiore a quella del video decodificato, il decoder dovrebbe poter decodificare solamente la parte di video più rilevante per il terminale in oggetto.
Inoltre, con le tecniche attuali à ̈ possibile identificare automaticamente solamente uno dei flussi video componenti (come nell’esempio della coppia stereoscopica di cui sopra) e non à ̈ possibile indicare esplicitamente al decodificatore la presenza degli ulteriori uno o più flussi video componenti. Al decodificatore dotato di minori risorse, quindi, viene imposta una scelta per “default†e non à ̈ possibile indicare la presenza di contenuti alternativi.
Infine, la possibilità di codificare un singolo flusso video, oltre a permettere di scalare l’uso delle risorse computazionali durante il procedimento di decodifica, permette di codificare un singolo flusso video per servire, con modelli di servizio differenti, terminali caratterizzati da disponibilità di risorse computazionali e di memoria differenti. Ad esempio, à ̈ possibile pensare di codificare in forma di singolo flusso video 4k (3840x2160 pixel) la composizione di 4 video HD (1920x1080 pixel): di tale video un decodificatore dotato di risorse computazionali limitate potrebbe decodificare un sottoinsieme contenente una sola delle componenti HD; alternativamente, un decodificatore capace di prestazioni più elevate potrebbe decodificare l’intero video 4K e, ad esempio, visualizzare l’intero mosaico di contenuti.
Scopo della presente invenzione à ̈ definire un metodo di codifica che permetta di codificare in un singolo flusso video contenitore uno o più flussi video componenti differenti, in modo che almeno uno tra questi ultimi risulti decodificabile in modo indipendente rispetto agli altri.
È altresì uno scopo della presente invenzione specificare un procedimento di decodifica che permetta di decodificare in modo indipendente uno o più flussi video componenti da un singolo flusso video contenitore utilizzando un singolo decodificatore.
È inoltre scopo della presente invenzione fornire un codificatore che codifica un flusso video contenitore composto di più flussi video componenti in modo tale da rendere possibile la decodifica indipendente di uno più flussi video componenti.
È anche scopo della presente invenzione fornire un decodificatore che decodifica in modo indipendente almeno uno di una moltitudine di flussi video componenti codificati come un singolo flusso video contenitore.
Questi e ulteriori aspetti della presente invenzione risulteranno più chiari leggendo la seguente descrizione che illustra alcune forme di attuazione con riferimento alle figure allegate, in cui:
- la Figura 1 illustra un partizionamento di un’immagine da codificare in gruppi di macroblocchi (“slice†) secondo la specifica H.264/AVC;
- la Figura 2 illustra un partizionamento di un’immagine da codificare in “tile†secondo quanto previsto dalla specifica HEVC;
- la Figura 3 illustra un esempio di composizione di quattro flussi video 2D indipendenti in un singolo flusso video;
- la Figura 4 illustra la composizione di due flussi video stereoscopici indipendenti, in forma di coppie di video 2D, in un singolo flusso video;
- la Figura 5 illustra un processo di decodifica selettiva di una delle due immagini costituenti la coppia stereoscopica codificate come singolo flusso video;
- la Figura 6 illustra una composizione di un flusso video stereoscopico e delle relative mappe di profondità in un singolo flusso video contenitore;
- la Figura 7 illustra una composizione di un flusso video 2D e di un flusso video stereoscopico in un singolo flusso video contenitore;
- la Figura 8 illustra uno schema a blocchi del processo di composizione e codifica del flusso video generato dalla composizione di n flussi video indipendenti;
- la Figura 9 illustra un esempio di procedimento di decodifica di un flusso video generato dall’apparato di codifica descritto in Figura 8;
- la Figura 10 illustra un ulteriore procedimento di decodifica di un flusso video generato da un apparato di codifica secondo la Figura 8;
- le Figure 11 e 11bis illustrano la composizione di due viste di un flusso video stereoscopico in un singolo flusso video contenitore;
- la Figura 12 illustra una tabella che descrive una struttura di una segnalazione da inserire in un flusso video codificato;
- la Figura 13 illustra una tabella con possibili valori di un parametro della struttura di Figura 12;
- le Figure 14a-14d illustrano una tabella con le modifiche necessarie alla sintassi del PPS dello standard HEVC per inserire la segnalazione di Figura 12; - le Figure 15a-15f illustrano una tabella con le modifiche necessarie alla sintassi dell’SPS dello standard HEVC per inserire la segnalazione di Figura 12.
Gli standard di codifica video già esistenti, così come quelli in via di definizione, offrono la possibilità di partizionare le immagini costituenti flussi video digitali al fine di ottimizzare i processi di codifica e decodifica. Come illustrato in Figura 1, la specifica H.264/AVC permette di raggruppare i macroblocchi nei quali vengono suddivise le immagini da codificare in differenti tipi di gruppi, chiamati slice, che vengono codificati in modo indipendente gli uni rispetto agli altri. Ad esempio, come illustrato in Figura 1 per la suddivisione chiamata “Type 2†, à ̈ possibile raggruppare i macroblocchi in slice di forma arbitraria, così da permettere di variare in modo selettivo la qualità del video codificato in funzione della posizione di eventuali “regioni di interesse†.
Nella Figura 2, invece, viene illustrato un nuovo tipo di suddivisione dell’immagine, chiamato “tile†, che viene introdotto nella specifica del nuovo standard ITU/ISO/IEC HEVC (High Efficiency Video Coding). Questo tipo di ripartizione, costruito sulla struttura delle slice già esistenti nella specifica H.264/AVC, à ̈ stato introdotto per consentire la parallelizzazione del processo di codifica e decodifica del flusso video: la vasta diffusione e l’abbassamento dei costi dei processori grafici paralleli (le cosiddette GPU, Graphics Processing Unit), disponibili ormai anche su terminali mobili quali telefoni e tablet PC, ha reso conveniente l’introduzione di strumenti di supporto alla parallelizzazione che consentono di portare formati di immagine a risoluzioni molto elevate anche su terminali con capacità computazionali tipicamente ridotte.
La specifica HEVC ha definito le tile in modo da permettere la segmentazione in regioni delle immagini costituenti il flusso video e renderne mutuamente indipendente la decodifica. Il processo di decodifica, però, anche se parallelizzato, viene realizzato sempre e solo per l’intera immagine, e non à ̈ possibile utilizzare i segmenti in modo indipendente l’uno dall’altro.
Come già anticipato nei paragrafi precedenti, sarebbe invece utile poter partizionare il flusso video in modo tale che terminali di tipo differente possano decidere, in modo automatico o in funzione di istruzioni ricevute dall’utente, quali parti del video decodificare e inviarle al display per la visualizzazione.
Le Figure 3, 4, 6 e 7 illustrano differenti scenari d’uso in cui questo tipo di partizionamento potrebbe essere utile.
La Figura 3 illustra un flusso video contenitore che, ad esempio, potrebbe avere il formato 4K (3840x2160 pixel) e contenere quattro video HD (1920x1080 pixel) indipendenti tra loro. Un utente dotato di un decoder 4K potrebbe decodificare e visualizzare l’intero video mentre, invece, un utente dotato di un decoder dalle capacità computazionali più ridotte, potrebbe limitarsi alla decodifica di un singolo flusso HD per volta.
La Figura 4 illustra il trasporto in un singolo flusso video contenitore di due flussi video stereoscopici (in forma di due coppie indipendenti di video Left e Right), ad esempio, rappresentanti due viste stereoscopiche differenti di uno stesso evento tra le quali l’utente può scegliere la visualizzazione preferita senza dover necessariamente decodificare l’intero quadro (con le ovvie implicazioni in termini di risparmio energetico).
La Figura 5 illustra la composizione di un video stereoscopico e delle relative mappe di profondità in un singolo flusso video. In questo caso, un decoder di un televisore stereoscopico potrebbe decodificare solamente la parte relativa alle due immagini della coppia stereoscopica, sita nella metà superiore dell’immagine; la parte inferiore non verrebbe decodificata. Invece, un decoder di un televisore autostereoscopico utilizzante la ben nota tecnica 2D+Z (costruzione delle viste sintetiche da una singola immagine più la relativa mappa di profondità) potrebbe, ad esempio, decodificare solo la metà di sinistra dell’immagine, mentre il decoder di un televisore autostereoscopico più sofisticato potrebbe utilizzare le due viste e le due mappe di profondità per la sintesi delle viste intermedie.
La Figura 7 illustra la composizione di un video 2D a risoluzione doppia (destinato, ad esempio, ad un display in formato 21:9) situato nella metà superiore dell’immagine e della corrispondente vista stereoscopica in formato side by side nella regione inferiore.
La struttura delle tile descritta nella specifica HEVC non à ̈ sufficiente per permettere a un decoder di riconoscere e decodificare in modo proprio il contenuto trasportato dal video contenitore. Tale problema può essere risolto inserendo un opportuno livello di segnalazione che descrive quale contenuto viene trasportato in ciascuna delle regioni decodificabili in modo indipendente e come procedere per la decodifica e visualizzazione corrette.
Si possono prevedere almeno due scenari differenti. Nel primo, à ̈ necessario indicare l’associazione di almeno una delle tile nelle quali l’immagine à ̈ stata scomposta con i singoli contenuti e la relativa eventuale ricomposizione in un flusso video coerente (ad esempio, come illustrato in Figura 11, un flusso video stereoscopico potrebbe essere suddiviso in due tile e, mentre un decoder 2D deve essere informato della possibilità di decodificare una tile singola, un decoder 3D potrebbe non adottare alcuna strategia specifica e decodificare l’intero flusso). Nel secondo, invece, si indica l’associazione di ciascuna delle tile nelle quali l’immagine à ̈ stata scomposta con i singoli contenuti e la relativa eventuale ricomposizione in un flusso video coerente (ad esempio, un flusso video stereoscopico potrebbe essere suddiviso in due tile e, mentre un decoder 2D deve essere informato della possibilità di decodificare una tile singola, un decoder 3D deve essere informato della necessità di decodificare l’intero flusso). La soluzione proposta prevede l’inserimento di un descrittore che indichi, per almeno una delle tile, una o più caratteristiche specifiche: ad esempio, dev’essere possibile segnalare se il contenuto à ̈ 2D o, nel caso sia stereoscopico, il tipo di frame packing arrangement. Inoltre, à ̈ desiderabile indicare eventuali “relazioni†(decodifica e/o visualizzazione congiunta) tra le tiles; l’identificativo della vista (da usare, ad esempio, nel caso di contenuto multiview) e un messaggio che identifichi se la vista in oggetto à ̈ la vista destra o sinistra di una coppia stereoscopica oppure una mappa di profondità.
A solo titolo di esempio, la soluzione viene illustrata nella tabella di Figura 12 in forma di pseudocodice, che descrive la struttura della segnalazione da inserire nel flusso video codificato utilizzando le strutture dati già impiegate nelle specifiche H.264/AVC e HEVC. È comunque possibile adottare analoghe strutture di segnalazione, che permettano di descrivere il contenuto di una o più tile in modo tale da permettere a un decoder di decodificarle in modo opportuno.
Frame_packing_arrangement_type à ̈ un indice che potrebbe corrispondere, ad esempio, ai valori comunemente utilizzati nelle specifiche MPEG2, H.264/AVC, o SMPTE e che catalogano i formati attualmente noti e usati dei formati video stereoscopici.
Tile_content_relationship_bitmask à ̈ una bitmask che descrive in modo univoco per ciascuna delle tile la relativa associazione alle altre tile nelle quali il flusso video codificato à ̈ stato suddiviso.
Content_interpretation_type fornisce le informazioni necessarie per interpretare il contenuto di ogni tile. Un esempio à ̈ specificato nella tabella di Figura 13. Con riferimento al caso precedente, in cui un video stereoscopico viene codificato in forma di due tiles, al fine di garantire la decodifica di una sola delle viste da parte di un decoder 2D, alla tile 0 verrebbero associate le seguenti informazioni
o frame_packing_arrangement_type[0] = 3
o tile_content_relationship_bitmask[0] = 11
o view_id[0] = 0
o content_interpretation_type[0] = 2
Si noti che questo tipo di segnalazione potrebbe essere utilizzata insieme o in sostituzione di altri strumenti, quali, ad esempio, il cropping rectangle. La tecnica del cropping rectangle, che prevede il cropping obbligatorio della parte del quadro decodificato interna ad un rettangolo segnalato per mezzo di opportuni metadati, viene già comunemente utilizzata per rendere “3D compatible†un flusso video stereoscopico avente la forma di uno dei frame packing arrangement che prevedono l’inserimento della coppia stereoscopica all’interno di un singolo quadro. La Figura 11bis, illustra, ad esempio, un quadro contenente il codiddetto frame packing arrangement “side-by-side†, in cui la sola vista sinistra (quella grigia in figura) à ̈ contenuta nel cropping rectangle. Senza il partizionamento in tiles, un decoder 2D dovrebbe decodificare l’intero quadro e poi applicare il cropping, scartando la vista destra (in bianco in Figura 11bis). Utilizzando il metodo dell’invenzione, invece, à ̈ possibile codificare e segnalare le due viste come tile separate, permettendo ad un decoder 2D di decodificare la sola area contenuta all’interno del cropping rectangle.
Supposto, ad esempio, che il flusso video sia stato diviso in quattro tile, come illustrato in Figura 4, la reazione tra le tile verrebbe descritta dai seguenti valori:
o frame_packing_arrangement_type[0] = 3
o frame_packing_arrangement_type[1] = 3
o frame_packing_arrangement_type[2] = 3
o frame_packing_arrangement_type[3] = 3
o tile_content_relationship_bitmask[0] = 1100
o tile_content_relationship_bitmask[1] = 1100
o tile_content_relationship_bitmask[2] = 0011
o tile_content_relationship_bitmask[3] = 0011
o view_id[0] = 0
o view_id[1] = 0
o view_id[2] = 1
o view_id[3] = 1
o content_interpretation_type[0] = 2
o content_interpretation_type[1] = 1
o content_interpretation_type[2] = 2
o content_interpretation_type[3] = 1
Con questa segnalazione si sta indicando al decoder che le tile 0 e 1 fanno parte dello stesso contenuto video 3D (tile_content_relationship_bitmask = 1100) in side by side (frame_packing_arrangement_type = 3). Il valore di tile_content_relationship_bitmask permette al decoder di sapere che le due viste (che fanno parte della stessa coppia stereoscopica in quanto per entrambe le tile view_id = 0) sono contenute in tile differenti (e quindi, in questo caso, a piena risoluzione). Content_interpretation_type permette di capire che la tile 0 corrisponde alla vista sinistra mentre la tile 1 corrisponde alla vista destra.
Le stesse considerazioni valgono per le tile 1 e 2.
La disposizione di Figura 6, invece, viene descritta dalla seguente segnalazione: o frame_packing_arrangement_type[0] = 3
o frame_packing_arrangement_type[1] = 3
o frame_packing_arrangement_type[2] = 6
o frame_packing_arrangement_type[3] = 6
o tile_content_relationship_bitmask[0] = 1111
o tile_content_relationship_bitmask[1] = 1111
o tile_content_relationship_bitmask[2] = 1010
o tile_content_relationship_bitmask[3] = 0101
o view_id[0] = 1
o view_id[1] = 1
o content_interpretation_type[0] = 2
o content_interpretation_type[1] = 1
o content_interpretation_type[2] = 5
o content_interpretation_type[3] = 5
A differenza di Figura 4, tile_content_relationship_bitmask à ̈ 1111 per le tile 0 e 1. Questo significa che esiste una relazione tra tutte le tiles. In particolare le tile 2 e 3 sono dei contenuti 2D (frame_packing_arrangement_type = 6) che contegono una mappa di profondità (content_interpretation_type = 5) associata rispettivamente alla tile 0 (tile_content_relationship_bitmask = 1010) e alla tile 1 (tile_content_relationship_bitmask = 0101)
Nella sintassi della specifica HEVC questo tipo di segnalazione potrebbe facilmente essere codificato come messaggio di tipo SEI (Supplemental Enhancement Information): informazione di tipo applicativo che, senza alterare i meccanismi di base di codifica e decodifica, permette la costruzione di funzioni aggiuntive e relative non solo alla decodifica ma anche al successivo processo di visualizzazione. In alternativa, la stessa segnalazione potrebbe essere inserita all'interno del Picture Parameter Set (PPS), un elemento di sintassi che contiene le informazioni necessarie per la decodifica di un insieme di dati corrispondenti ad un quadro. Evidenziate in neretto, all'interno della tabella di Figure 14a-14d si possono vedere in forma di pseudocodice le modifiche necessarie alla sintassi del PPS dello standard HEVC per inserire la segnalazione citata in precedenza.
Una ulteriore generalizzazione potrebbe prevedere l'inserimento della segnalazione all'interno del Sequence Parameter Set (SPS): un elemento di sintassi che contiene le informazioni necessarie per la decodifica di un insieme di dati corrispondenti ad una sequenza consecutiva di quadri.
Evidenziate in neretto, all'interno della tabella di Figure 15a-15f si possono vedere in forma di pseudocodice le modifiche necessarie alla sintassi del SPS di HEVC per inserire la segnalazione citata in precedenza, in cui multiservice_flag à ̈ una variabile che informa sulla presenza di più servizi all'interno di ogni tile e num_tile à ̈ il numero di tiles all'interno di un quadro.
In Figura 5, viene illustrato il procedimento di decodifica selettiva delle tiles. Il flusso video contiene una coppia di viste stereoscopiche, codificate in due tile separate.
Queste sono descritte dalla stessa segnalazione che si usa per rappresentare il contenuto di Figura 4 (in questo caso però il numero totale di tile à ̈ 2).
La Figura 8 illustra un diagramma a blocchi di un apparato o un gruppo di apparati che possono realizzare la tecnica di codifica della presente invenzione. N contributi video S1– SNvengono inviati in ingresso a un “source composer†. Il “source composer†potrebbe essere un componente a sé stante oppure essere integrato come stadio di ingresso di un opportuno encoder. Il source composer compone il flusso video contenitore che trasporta gli N flussi video componenti e lo invia in uscita verso un encoder. Il source composer può, opzionalmente, aggiungere la segnalazione necessaria a descrivere all’encoder il formato dei flussi video componenti e la relativa posizione all’interno del flusso video contenitore.
Un encoder riceve il flusso video contenitore, costruisce le tile in modo da mapparle sulla struttura dei singoli flussi video componenti, genera la segnalazione descrittiva delle tiles, della struttura dei flussi video componenti e delle relative relazioni e comprime il flusso video contenitore. Nel caso in cui il “source composer †non generi in modo automatico la segnalazione descrittiva dei flussi video componenti, l’encoder può essere programmato in modo manuale dall’operatore. Il flusso video compresso in uscita dall’encoder può quindi essere decodificato in modi differenti, cioà ̈ selezionando parti indipendenti in funzione delle caratteristiche funzionali e/o di risorse computazionali del decoder e/o del display a cui questo à ̈ collegato. L’audio relativo ad ogni flusso video componente può essere trasportato in accordo a quanto specificato dalla parte System Layer adottata per il trasporto.
Un decoder 2D analizza il bitstream, trova la segnalazione delle due tile contenenti le due viste e decide di decodificare una singola tile, visualizzando solo un’immagine compatibile con un display 2D. Un decoder 3D, invece, decodifica le due tile e procede alla visualizzazione stereoscopica su un display 3D.
Analogamente, la Figura 9 illustra un decoder che, quando collegato al display, negozia le caratteristiche (ad esempio la risoluzione) del video da visualizzare e decide autonomamente in modo conseguente quale parte del flusso video decodificare. Tale decisione potrebbe anche essere dettata dall’intervento manuale di un utente: ad esempio, nel caso in cui il video trasmesso sia un video stereoscopico codificato in due tile, supponendo che l’utente, pur dotato di un televisore 3D, abbia deciso di fruire ugualmente del contenuto in 2D (tale decisione potrebbe manifestarsi come pressione di un opportuno pulsante del telecomando), il decoder potrebbe adottare una strategia di decodifica differente da quella che avrebbe adottato per pura scelta automatica basata sulla negoziazione del formato di visualizzazione migliore con il televisore. La Figura 10, invece, illustra il caso in cui il decoder sia situato all’interno di un gateway che riceve il flusso codificato e debba servire terminali eterogenei, caratterizzati dalla possibilità di supportare formati differenti del contenuto video (ad esempio, alcuni dispositivi potrebbero avere la capacità di visualizzare contenuti stereoscopici mentre, allo stesso tempo, altri potrebbero avere il solo display 2D). Il gateway negozia in modo automatico o riceve istruzioni di configurazione da ciascuno dei dispositivi e decodifica una o più parti del contenuto in ingresso così da adattarle alle caratteristiche di ciascuno dei dispositivi richiedenti.
Quindi la presente invenzione riguarda un metodo per generare un flusso video a partire da una pluralità di sequenze di frame video 2D e/o 3D, in cui un generatore di flusso video compone in un frame video contenitore frame video provenienti da N sorgenti diverse S1, S2, S3, SN. Successivamente un codificatore codifica l’unico flusso video in uscita di frame video contenitori inserendo in esso una segnalazione atta ad indicare la struttura dei frame video contenitori. L’invenzione riguarda anche un metodo per rigenerare un flusso video comprendente una sequenza di frame contenitori, ciascuno di essi comprendendo una pluralità di frame video 2D e/o 3D provenienti da N sorgenti diverse S1, S2, S3, SN. Un decodificatore legge una segnalazione atta ad indicare la struttura dei frame video contenitori, e rigenera una pluralità di flussi video estraendo almeno uno o un sottoinsieme della pluralità di frame video decodificando esclusivamente le porzioni dei frame video contenitori comprendenti i frame video della pluralità di frame video 2D e/o 3D dei flussi video che sono stati selezionati per la visualizzazione.

Claims (22)

  1. RIVENDICAZIONI 1. Procedimento di codifica di un flusso video digitale costituito da una o più regioni componenti indipendenti, comprendente il passo di inserire una segnalazione indicante la presenza di una o più regioni decodificabili in modo indipendente, caratterizzato dal fatto che il procedimento di codifica comprende l’ulteriore passo di inserire una segnalazione indicante l’associazione tra le una o più regioni componenti e le una o più regioni decodificabili in modo indipendente.
  2. 2. Procedimento di codifica di un flusso video digitale secondo la rivendicazione 1, comprendente inoltre il passo di inserire un descrittore indicante il tipo di contenuto di dette una o più regioni componenti.
  3. 3. Procedimento di codifica secondo la rivendicazione 1 o 2, in cui ciascuna delle regioni decodificabili in modo indipendente viene codificata in forma di tile.
  4. 4. Procedimento di codifica secondo una delle rivendicazioni 1 e 2, in cui la tecnica di codifica utilizzata à ̈ H.264/AVC o HEVC.
  5. 5. Procedimento di codifica secondo una qualsiasi delle rivendicazioni precedenti, in cui la segnalazione dell’associazione tra le una o più regioni componenti e le una o più regioni decodificabili in modo indipendente e il descrittore indicante il tipo di contenuto delle una o più regioni componenti à ̈ un messaggio SEI.
  6. 6. Procedimento di codifica secondo una qualsiasi delle rivendicazioni 1 a 3, in cui il segnale indicante l’associazione tra le una o più regioni componenti e le una o più regioni decodificabili in modo indipendente e il descrittore indicante il tipo di contenuto delle una o più regioni componenti à ̈ inserito nella segnalazione SPS o nella segnalazione PPS.
  7. 7. Procedimento di codifica secondo una qualsiasi delle rivendicazioni precedenti, in cui il segnale indicante l’associazione tra le una o più regioni componenti e le una o più regioni decodificabili in modo indipendente à ̈ costituito da una bitmask.
  8. 8. Procedimento di codifica secondo una qualsiasi delle rivendicazioni precedenti, in cui le una o più regioni componenti il flusso video digitale rappresentano uno o più flussi video indipendenti.
  9. 9. Procedimento di codifica secondo la rivendicazione 8 in cui i flussi video indipendenti comprendono uno o più dei seguenti formati: − una o più coppie video stereoscopiche; − flussi video e mappe di profondità; − uno o più flussi video in formato di frame packing arrangement; − mosaico di video indipendenti.
  10. 10. Procedimento di codifica secondo la rivendicazione 2, in cui il descrittore comprende uno o più metadati che descrivono − Frame packing arrangement; − Content interpretation type; − View ID.
  11. 11. Procedimento di decodifica di un flusso video digitale costituito da una o più regioni componenti indipendenti, comprendente il passo di leggere un segnale indicante la presenza di una o più regioni decodificabili in modo indipendente, comprendente inoltre almeno uno tra i seguenti passi: − leggere una segnalazione indicante l’associazione tra le una o più regioni componenti e le una o più regioni decodificabili in modo indipendente − leggere un descrittore indicante il tipo di contenuto di ciascuna delle una o più regioni decodificabili in modo indipendente e comprendente l’ulteriore passo di − selezionare per la decodifica una o più delle regioni decodificabili in modo indipendente indicate da detta segnalazione o detto descrittore.
  12. 12. Procedimento di decodifica secondo la rivendicazione 11, in cui il decodificatore seleziona una o più delle regioni decodificabili in modo indipendente in base a una valutazione delle proprie risorse computazionali.
  13. 13. Procedimento di decodifica secondo la rivendicazione 11, in cui le una o più regioni decodificate vengono rese disponibili per la visualizzazione su un singolo display.
  14. 14. Procedimento di decodifica secondo la rivendicazione 11, in cui le una o più regioni decodificate vengono rese disponibili per la visualizzazione su una moltitudine di dispositivi eterogenei.
  15. 15. Procedimento di decodifica secondo una qualsiasi delle rivendicazioni da 11 a 14, in cui la selezione per la decodifica delle una o più delle regioni decodificabili in modo indipendente viene determinata da un segnale di controllo esterno.
  16. 16. Procedimento per la decodifica secondo la rivendicazione 15, in cui il segnale di controllo viene generato automaticamente come risultato del processo di negoziazione del formato di visualizzazione con uno o più display.
  17. 17. Procedimento per la decodifica secondo la rivendicazione 15, in cui il segnale di controllo viene generato come risultato del processo di selezione manuale del formato di visualizzazione da parte di un utente.
  18. 18. Dispositivo generatore di flusso video digitale costituito da una o più regioni componenti indipendenti comprendente un source composer per la composizione in un singolo flusso video di una moltitudine di flussi video componenti e un codificatore video che implementa il procedimento di codifica di una qualsiasi delle rivendicazioni 1 a 10.
  19. 19. Dispositivo generatore secondo la rivendicazione 18, in cui il source composer e/o il codificatore video sono realizzati in forma di componenti di programmazione.
  20. 20. Dispositivo decodificatore comprendente mezzi di lettura e di selezione atti a effettuare un procedimento di decodifica secondo una qualsiasi delle rivendicazioni da 11 a 14.
  21. 21. Dispositivo elaboratore di flussi video che comprende un dispositivo decodificatore secondo la rivendicazione 20, caratterizzato dal fatto che comprende ulteriori mezzi atti a selezionare in modo automatico o manuale per la visualizzazione una o più delle regioni decodificate in modo indipendente.
  22. 22. Smart gateway che comprende un decoder secondo la rivendicazione 21, caratterizzato dal fatto che comprende ulteriori mezzi di selezione atti a selezionare per mezzo di un opportuno procedimento di negoziazione il formato di visualizzazione di una o più delle regioni decodificate in modo indipendente.
IT000901A 2012-10-15 2012-10-15 Procedimento di codifica e decodifica di un video digitale e relativi dispositivi di codifica e decodifica ITTO20120901A1 (it)

Priority Applications (16)

Application Number Priority Date Filing Date Title
IT000901A ITTO20120901A1 (it) 2012-10-15 2012-10-15 Procedimento di codifica e decodifica di un video digitale e relativi dispositivi di codifica e decodifica
HUE13812125A HUE052945T2 (hu) 2012-10-15 2013-10-14 Eljárás digitális videó elõállítására és dekódolására, valamint ilyen elõállító és dekódoló eszközök
DK13812125.6T DK2907306T3 (da) 2012-10-15 2013-10-14 Fremgangsmåde til at generere og afkode en digital video, og relaterede genererings- og afkodningsindretninger
SI201331851T SI2907306T1 (sl) 2012-10-15 2013-10-14 Postopek generiranja in dekodiranja digitalnega videa in ustrezne naprave za generiranje in dekodiranje
CN201380053840.8A CN104813657B (zh) 2012-10-15 2013-10-14 用于将数字视频编码和解码的方法以及相关编码和解码设备
EP13812125.6A EP2907306B1 (en) 2012-10-15 2013-10-14 Method for generating and decoding a digital video, and related generating and decoding devices
KR1020157012473A KR102126813B1 (ko) 2012-10-15 2013-10-14 디지털 비디오를 코딩 및 디코딩하기 위한 방법, 및 관련된 코딩 및 디코딩 디바이스들
PCT/IB2013/059349 WO2014060937A1 (en) 2012-10-15 2013-10-14 Method for coding and decoding a digital video, and related coding and decoding devices
ES13812125T ES2856077T3 (es) 2012-10-15 2013-10-14 Método para generar y decodificar un vídeo digital y dispositivos de generación y decodificación relacionados
JP2015536276A JP2015535148A (ja) 2012-10-15 2013-10-14 デジタルビデオをコード化およびデコードするための方法、ならびに関係するコード化およびデコードデバイス
US14/435,408 US9961324B2 (en) 2012-10-15 2013-10-14 Method for coding and decoding a digital video, and related coding and decoding devices
PL13812125T PL2907306T3 (pl) 2012-10-15 2013-10-14 Sposób generowania i dekodowania cyfrowego wideo oraz powiązane urządzenia generujące i dekodujące
US16/863,620 USRE49786E1 (en) 2012-10-15 2013-10-14 Method for coding and decoding a digital video, and related coding and decoding devices
TW102137192A TWI555383B (zh) 2012-10-15 2013-10-15 用於編碼及解碼數位視訊之方法及其相關編碼及解碼裝置
ARP130103744A AR093026A1 (es) 2012-10-15 2013-10-15 Procedimiento de codificacion y decodificacion de un video digital y dispositivos relacionados de codificacion y decodificacion
JP2017221897A JP7028398B2 (ja) 2012-10-15 2017-11-17 デジタルビデオをコード化およびデコードするための方法、ならびに関係するコード化およびデコードデバイス

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT000901A ITTO20120901A1 (it) 2012-10-15 2012-10-15 Procedimento di codifica e decodifica di un video digitale e relativi dispositivi di codifica e decodifica

Publications (1)

Publication Number Publication Date
ITTO20120901A1 true ITTO20120901A1 (it) 2014-04-16

Family

ID=47471945

Family Applications (1)

Application Number Title Priority Date Filing Date
IT000901A ITTO20120901A1 (it) 2012-10-15 2012-10-15 Procedimento di codifica e decodifica di un video digitale e relativi dispositivi di codifica e decodifica

Country Status (14)

Country Link
US (2) US9961324B2 (it)
EP (1) EP2907306B1 (it)
JP (2) JP2015535148A (it)
KR (1) KR102126813B1 (it)
CN (1) CN104813657B (it)
AR (1) AR093026A1 (it)
DK (1) DK2907306T3 (it)
ES (1) ES2856077T3 (it)
HU (1) HUE052945T2 (it)
IT (1) ITTO20120901A1 (it)
PL (1) PL2907306T3 (it)
SI (1) SI2907306T1 (it)
TW (1) TWI555383B (it)
WO (1) WO2014060937A1 (it)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2012391251B2 (en) * 2012-09-29 2016-04-21 Huawei Technologies Co., Ltd. Method, apparatus and system for encoding and decoding video
US11228764B2 (en) 2014-01-15 2022-01-18 Avigilon Corporation Streaming multiple encodings encoded using different encoding parameters
US20210195254A1 (en) * 2016-02-01 2021-06-24 Lg Electronics Inc. Device for transmitting broadcast signal, device for receiving broadcast signal, method for transmitting broadcast signal, and method for receiving broadcast signal
CN112601121B (zh) * 2016-08-16 2022-06-10 上海交通大学 一种面向多媒体内容组件个性化呈现的方法及系统
US10623635B2 (en) * 2016-09-23 2020-04-14 Mediatek Inc. System and method for specifying, signaling and using coding-independent code points in processing media contents from multiple media sources
CN111459441B (zh) * 2020-04-25 2020-11-10 薪得付信息技术(山东)有限公司 一种信息显示方法、装置及电子设备
EP4017001A1 (en) * 2020-12-17 2022-06-22 Axis AB Method and digital video camera for forming a combined image frame of a combined video stream
CN115706808A (zh) * 2021-08-06 2023-02-17 北京猿力未来科技有限公司 视频处理方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1524859A2 (en) * 2003-10-16 2005-04-20 Sharp Kabushiki Kaisha System and method for three-dimensional video coding
WO2008054100A1 (en) * 2006-11-01 2008-05-08 Electronics And Telecommunications Research Institute Method and apparatus for decoding metadata used for playing stereoscopic contents
WO2009136681A1 (en) * 2008-05-08 2009-11-12 Lg Electronics Inc. Method for encoding and decoding image, and apparatus for displaying image

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11346370A (ja) 1998-06-02 1999-12-14 Matsushita Electric Ind Co Ltd 符号化方法、符合化装置、復号方法、復号装置、及び記録媒体
JP2004007266A (ja) 2002-05-31 2004-01-08 Sony Corp 画像符号化装置及び方法、画像復号装置及び方法、並びにプログラム及び記録媒体
US20100027618A1 (en) * 2006-12-11 2010-02-04 Kazunori Ozawa Media transmitting/receiving method, media transmitting method, media receiving method, media transmitting/receiving apparatus, media transmitting apparatus, media receiving apparatus, gateway apparatus, and media server
WO2008143747A2 (en) 2007-05-16 2008-11-27 Thomson Licensing Methods and apparatus for the use of slice groups in decoding multi-view video coding (mvc) information
US8749615B2 (en) * 2007-06-07 2014-06-10 Reald Inc. Demultiplexing for stereoplexed film and video applications
EP2501137A3 (en) * 2007-06-11 2012-12-12 Samsung Electronics Co., Ltd. Method and apparatus for generating header information of stereoscopic image
JP2009100071A (ja) * 2007-10-15 2009-05-07 Victor Co Of Japan Ltd 多視点画像復号方法、多視点画像復号装置及び多視点画像復号プログラム
US8908763B2 (en) * 2008-06-25 2014-12-09 Qualcomm Incorporated Fragmented reference in temporal compression for video coding
CN101404765B (zh) * 2008-10-24 2010-12-08 宁波大学 一种交互式多视点视频编码方法
JP2011109397A (ja) 2009-11-17 2011-06-02 Sony Corp 画像送信方法、画像受信方法、画像送信装置、画像受信装置、及び画像伝送システム
IT1397591B1 (it) * 2009-12-21 2013-01-16 Sisvel Technology Srl Metodo per la generazione, trasmissione e ricezione di immagini stereoscopiche e relativi dispositivi.
US8908774B2 (en) * 2010-02-11 2014-12-09 Mediatek Inc. Method and video receiving system for adaptively decoding embedded video bitstream
IT1399417B1 (it) * 2010-04-12 2013-04-16 Sisvel Technology Srl Metodo per la generazione e ricostruzione di un flusso video stereoscopico compatibile e relativi dispositivi di codifica e decodifica.
IT1401731B1 (it) * 2010-06-28 2013-08-02 Sisvel Technology Srl Metodo per la decodifica 2d-compatibile di flussi video stereoscopici
US9319448B2 (en) 2010-08-10 2016-04-19 Qualcomm Incorporated Trick modes for network streaming of coded multimedia data
US20120106921A1 (en) 2010-10-25 2012-05-03 Taiji Sasaki Encoding method, display apparatus, and decoding method
IT1402995B1 (it) * 2010-11-12 2013-09-27 Sisvel Technology Srl Metodo di elaborazione di un contenuto video tridimensionale e relativo apparato

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1524859A2 (en) * 2003-10-16 2005-04-20 Sharp Kabushiki Kaisha System and method for three-dimensional video coding
WO2008054100A1 (en) * 2006-11-01 2008-05-08 Electronics And Telecommunications Research Institute Method and apparatus for decoding metadata used for playing stereoscopic contents
WO2009136681A1 (en) * 2008-05-08 2009-11-12 Lg Electronics Inc. Method for encoding and decoding image, and apparatus for displaying image

Also Published As

Publication number Publication date
KR102126813B1 (ko) 2020-06-26
CN104813657A (zh) 2015-07-29
WO2014060937A1 (en) 2014-04-24
AR093026A1 (es) 2015-05-13
CN104813657B (zh) 2018-12-21
HUE052945T2 (hu) 2021-05-28
EP2907306A1 (en) 2015-08-19
JP2018050327A (ja) 2018-03-29
US9961324B2 (en) 2018-05-01
JP2015535148A (ja) 2015-12-07
SI2907306T1 (sl) 2021-04-30
US20150281669A1 (en) 2015-10-01
ES2856077T3 (es) 2021-09-27
USRE49786E1 (en) 2024-01-02
JP7028398B2 (ja) 2022-03-02
PL2907306T3 (pl) 2021-06-14
TWI555383B (zh) 2016-10-21
DK2907306T3 (da) 2021-03-01
EP2907306B1 (en) 2020-12-02
KR20150074040A (ko) 2015-07-01
TW201419874A (zh) 2014-05-16

Similar Documents

Publication Publication Date Title
ITTO20120901A1 (it) Procedimento di codifica e decodifica di un video digitale e relativi dispositivi di codifica e decodifica
CN104486612B (zh) 用于广播发射机的3d视频数据处理方法及广播接收机
TWI449431B (zh) 用以對多視界視訊編碼利用可平行解碼切片之方法、裝置及電腦程式產品
EP2624570B1 (en) Image signal encoding method and apparatus
CN102415101B (zh) 广播发射机、广播接收机及其3d视频数据处理方法
JP6181848B2 (ja) 3d放送信号を処理する方法及び装置
US20120033039A1 (en) Encoding method, display device, and decoding method
US20120106921A1 (en) Encoding method, display apparatus, and decoding method
KR101797506B1 (ko) 방송 신호 송신 장치 및 방송 신호 수신 장치
CN103069817A (zh) 用于在3dtv中提供3d视频数据的方法
WO2012081874A2 (ko) 스테레오스코픽 비디오 서비스 위한 시그널링 방법 및 이러한 방법을 사용하는 장치
GB2581852A (en) Method and apparatus for encoding and decoding a video bitstream for merging regions of interest
KR20140057242A (ko) 부호화 장치 및 부호화 방법과 복호 장치 및 복호 방법
KR20140039231A (ko) 3d 서비스 처리 방법 및 장치
EP3439309B1 (en) Method and apparatus for transmitting and receiving broadcast signals
KR101651232B1 (ko) 스테레오스코픽 영상 정보의 전송 방법 및 장치
WO2020178144A1 (en) Method and apparatus for encoding and decoding a video bitstream for merging regions of interest
US20120274741A1 (en) Method and apparatus for transmitting and receiving stereoscopic video
WO2021001193A1 (en) Processing a point cloud
KR20120121831A (ko) 스테레오스코픽 비디오 송수신 방법 및 그 장치