ITTO20130503A1 - Metodo e dispositivo per la generazione, memorizzazione, trasmissione, ricezione e riproduzione di mappe di profondita¿ sfruttando le componenti di colore di un¿immagine facente parte di un flusso video tridimensionale - Google Patents
Metodo e dispositivo per la generazione, memorizzazione, trasmissione, ricezione e riproduzione di mappe di profondita¿ sfruttando le componenti di colore di un¿immagine facente parte di un flusso video tridimensionaleInfo
- Publication number
- ITTO20130503A1 ITTO20130503A1 IT000503A ITTO20130503A ITTO20130503A1 IT TO20130503 A1 ITTO20130503 A1 IT TO20130503A1 IT 000503 A IT000503 A IT 000503A IT TO20130503 A ITTO20130503 A IT TO20130503A IT TO20130503 A1 ITTO20130503 A1 IT TO20130503A1
- Authority
- IT
- Italy
- Prior art keywords
- pixels
- depth
- color image
- components
- values
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 73
- 230000005540 biological transmission Effects 0.000 title description 9
- 238000003860 storage Methods 0.000 title description 8
- 238000012856 packing Methods 0.000 claims description 10
- 230000009466 transformation Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 2
- 230000000875 corresponding effect Effects 0.000 description 17
- 239000002131 composite material Substances 0.000 description 8
- 230000006835 compression Effects 0.000 description 7
- 238000007906 compression Methods 0.000 description 7
- 238000009826 distribution Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000003780 insertion Methods 0.000 description 5
- 230000037431 insertion Effects 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 230000009467 reduction Effects 0.000 description 5
- 238000012800 visualization Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 230000001131 transforming effect Effects 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000008521 reorganization Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000005056 compaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000005693 optoelectronics Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/139—Format conversion, e.g. of frame-rate or size
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N1/32101—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N1/32144—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
- H04N1/32149—Methods relating to embedding, encoding, decoding, detection or retrieval operations
- H04N1/32309—Methods relating to embedding, encoding, decoding, detection or retrieval operations in colour image data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/46—Colour picture communication systems
- H04N1/64—Systems for the transmission or the storage of the colour picture signal; Details therefor, e.g. coding or decoding means therefor
- H04N1/642—Adapting to different types of images, e.g. characters, graphs, black and white image portions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/15—Processing image signals for colour aspects of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/63—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Description
Descrizione dell'Invenzione Industriale dal titolo:
“METODO E DISPOSITIVO PER LA GENERAZIONE, MEMORIZZAZIONE, TRASMISSIONE, RICEZIONE E RIPRODUZIONE DI MAPPE DI PROFONDITÀ SFRUTTANDO LE COMPONENTI DI COLORE DI UN’IMMAGINE FACENTE PARTE DI UN FLUSSO VIDEO TRIDIMENSIONALEâ€
DESCRIZIONE
Campo di applicazione dell’invenzione
La presente invenzione si riferisce ad un metodo e dispositivo per la generazione, memorizzazione, trasmissione, ricezione e riproduzione di mappe di profondità sfruttando le componenti di colore di un’immagine facente parte di un flusso video tridimensionale.
Stato della tecnica
Lo sviluppo delle applicazioni video di tipo stereoscopico dipende in larga parte dalla disponibilità di formati efficienti per la rappresentazione e compressione del segnale video tri-dimensionale. Inoltre nell’ambito delle applicazioni di tipo broadcasting televisivo (3D-TV) à ̈ necessario mantenere il più alto grado di retro-compatibilità con i sistemi 2D esistenti. Per la distribuzione (o trasmissione) le soluzioni tecniche più usate al momento sono basate sul cosiddetto “frame compatible arrangement†in cui le due viste stereoscopiche, relative al medesimo istante temporale, vengono riscalate e composte a formare una sola immagine compatibile con i formati esistenti. Tra queste soluzioni sono noti i formati Top and Bottom, Side by Side e Tile Format. Queste soluzioni permettono di riusare l’intera infrastruttura di distribuzione del segnale video (broadcasting terrestre, satellitare o via cavo oppure streaming su rete IP) e non richiedono nuovi standard per la compressione del flusso video. Inoltre l’attuale standard di codifica AVC/H.264 (Advanced Video Coding) e il futuro standard HEVC (High Efficiency Video Coding) includono già la possibilità di segnalare questo tipo di organizzazione al fine di consentire la corretta ricostruzione e visualizzazione da parte del ricevitore. Per la visualizzazione, invece, le due soluzioni tecniche più usate al momento si basano l’una sul principio del “frame alternate†(vale a dire le due viste sono presentate in successione temporale sullo schermo) e l’altra sul principio del “line alternate†, vale a dire le due viste sono disposte sullo schermo a righe alterne (cioà ̈ “interlacciate†). In entrambi i casi, per far sì che a ciascun occhio arrivi la vista relativa, à ̈ necessario che il telespettatore usi un paio di occhiali, che à ̈ “attivo†, cioà ̈ ad otturatore, nel caso del frame alternate e “passivo†, cioà ̈ con lenti polarizzate diversamente, nel caso del line alternate.
Il futuro della visione tridimensionale sarà determinato dalla diffusione di nuovi schermi di tipo autostereoscopico che non richiedono all’utente di indossare occhiali, di tipo né passivo né attivo. Questi dispositivi di visualizzazione 3D, attualmente in fase poco più che prototipale, sono basati sull’uso di lenti o barriere di parallasse in grado di far percepire all’osservatore due viste stereoscopiche diverse per ogni punto di vista che l’utente può assumere spostandosi angolarmente intorno allo schermo. Questi dispositivi permettono pertanto di migliorare l’esperienza della visione 3D, ma richiedono la generazione di un elevato numero di viste (dell’ordine di alcune decine).
Dal punto di vista della rappresentazione del video 3D risulta molto oneroso gestire la produzione e la distribuzione di un elevato numero di viste. La comunità scientifica sta valutando da alcuni anni la possibilità di creare un numero arbitrariamente alto di viste intermedie utilizzando tecniche note di tipo Depth Image Based Rendering (DIBR), sfruttando la cosiddetta mappa di profondità della scena. Questi formati sono anche noti come “Video Depth†(V+D), in cui ogni vista viene accompagnata da una mappa di profondità di tipo denso. Si definisce mappa di profondità densa un’immagine in cui ogni pixel in coordinata planare (x,y), ovvero colonna, riga, rappresenta un valore di profondità (z), corrispondente al pixel della vista relativa avente le stesse coordinate. I valori delle mappe di profondità possono essere calcolati a partire dalle due viste ottenute da una telecamera stereoscopica oppure misurati da appositi sensori. Tali valori sono generalmente rappresentati utilizzando immagini a 256 livelli di grigio che vengono compresse utilizzando tecniche standard. Le tecniche di Depth Image Based Rendering sfruttano il fatto che data la coordinata (x,y,z), ovvero posizione nel piano immagine più profondità associata a ciascun pixel, à ̈ possibile ri-proiettare il pixel su un altro piano immagine relativo a un nuovo punto di vista. Il contesto applicativo più diffuso à ̈ quello di un sistema di telecamere di tipo stereoscopico, ovvero in cui le due telecamere sono posizionate orizzontalmente con un distanza b tra i loro due centri ottici, assi ottici paralleli e piani immagine co-planari. In tale configurazione esiste una semplice relazione tra la profondità z, associata a un pixel, e la cosiddetta disparità d, ovvero la traslazione orizzontale che si deve applicare a un pixel dell’immagine della telecamera destra (o sinistra) per ottenere la corrispondente posizione nel piano immagine della camera sinistra (o destra). La disparità può essere positiva o negativa (traslazione verso sinistra o destra) a seconda della telecamera considerata. Detta f la lunghezza focale delle due telecamere sussiste la seguente relazione fra profondità z e disparità d:
d= f b / z.
Per maggiori dettagli si veda l’articolo: Paradiso, V.; Lucenteforte, M.; Grangetto, M., "A novel interpolation method for 3D view synthesis," 3DTV-Conference: The True Vision - Capture, Transmission and Display of 3D Video (3DTV-CON), 2012 , vol., no., pp.1,4, 15-17 Oct. 2012. Dato che la disparità nelle ipotesi precedentemente descritte à ̈ una semplice funzione della profondità , la mappa di profondità e la mappa di disparità portano la stessa informazione e quindi sono intercambiabili. In aggiunta si segnala che le immagini denominate mappe di profondità in ambito MPEG rappresentano i valori di 1/z anziché di z mappati nell’intervallo 0-255. Nel seguito si utilizzerà esclusivamente la dicitura “mappa di profondità †per indicare una qualsiasi rappresentazione della profondità o disparità .
Si noti che il segnale video composto da una coppia di immagini (sinistra e destra) e relative mappe di profondità à ̈ stato scelto come caso d’uso anche dal comitato di standardizzazione MPEG per la valutazione delle tecniche che saranno introdotte nei prossimi standard di codifica di tipo 3D.
Nasce quindi l’esigenza di gestire in modo efficiente la memorizzazione, trasmissione, ricezione e riproduzione di segnali televisivi comprendenti mappe di profondità .
Sommario dell’invenzione
Pertanto scopo della presente invenzione à ̈ quello di proporre un metodo e dispositivo per la generazione, memorizzazione, trasmissione, ricezione e riproduzione di mappe di profondità sfruttando le componenti di colore di un’immagine, atto a superare le limitazioni insite nelle soluzioni note.
Come precedentemente osservato la mappa di profondità si presta ad essere rappresentata come immagine a scala di grigi, ovvero costituita da un unico valore per ogni posizione (x,y). Nel seguito si userà il termine pixel per indicare il singolo elemento (o punto) di un’immagine; ogni pixel à ̈ caratterizzato dalla propria posizione (x,y) e da valori quali colore o intensità , variabili in funzione del sistema di rappresentazione adottato. In campo televisivo si adotta in genere il sistema di rappresentazione dei pixel noto come luminanza (Y) e crominanza (U,V). In genere le mappe di profondità vengono rappresentate come video digitale usando la sola componente Y.
L’idea alla base della presente invenzione à ̈ di sfruttare anche le componenti di crominanza U e V per rappresentare i valori della mappa di profondità creando una cosiddetta immagine “a colori fittizi†, il ché consente un maggiore compattamento delle immagini stesse. Per immagine a colori fittizi (nel seguito definita per brevità “immagine a colori†) si intende nel presente contesto un’immagine in cui le componenti di crominanza portano anch’esse un’informazione utile, che tuttavia non à ̈ un’informazione di colore ma, in questo caso, un’informazione di luminanza riferita a pixel che sono stati rimossi dalla componente Y.
La scelta dei pixel della matrice di profondità da inserire nelle componenti U e V dell’immagine a colori di dimensioni WxH à ̈ fatta in modo da ottenere la correlazione spaziale tra le componenti Y, U, V, vale a dire fra la vera luminanza e queste componenti fittizie aggiuntive, utile per garantire conformità al modo di operare degli algoritmi di codifica standard, ad esempio MPEG, che presumono l’esistenza di una correlazione tra le tre componenti Y, U, V dei vari pixel. Ciò consente inoltre di utilizzare codificatori e decodificatori standard relativi alle tecniche di compressione utilizzate per le immagini vere a colori.
Correlazione spaziale significa che i valori sistemati sulle componenti Y,U,V appartengono a pixel spazialmente vicini nella mappa di profondità .
In una soluzione preferita si utilizza il rettangolo WxH per inserire due mappe di profondità , ognuna riferita ad una relativa immagine video della coppia stereoscopica, ottenendo un’immagine sola a colori.
Soluzioni preferite utilizzano per le mappe di profondità i formati usati per le immagini televisive, noti con le sigle Y,U,V 4:2:0, oppure 4:2:2. Nel primo formato, usato tipicamente in distribuzione, nelle righe pari (0,2,4,ecc.) solo i pixel delle colonne pari (0,2,4,ecc.) contengono le informazioni di crominanza, mentre nelle righe dispari tutti i pixel contengono solo informazioni di luminanza: ne deriva che complessivamente solo un pixel su quattro contiene le informazioni di crominanza. Nel secondo formato, usato tipicamente nella catena di produzione, in tutte le righe solo i pixel delle colonne pari contengono le informazioni di crominanza; ne deriva che complessivamente un pixel su due contiene dette informazioni.
Tipicamente ci si riferisce all’uso di mappe di profondità con valori rappresentati su 256 livelli, ovvero 8 bit per pixel.
Una prima serie di esempi di soluzioni preferite nel seguito descritte à ̈ relativa all’uso del formato YUV 4:2:0, mentre una seconda serie di esempi si riferisce al formato YUV 4:2:2.
Fra i vari sistemi di frame packing, il Tile Format (descritto in WO2011/077343-A1) permette l’inserimento di una mappa di profondità senza sottrarre spazio alle immagini relative alle due viste.
Facendo riferimento alla Figura 1, nel Tile Format una coppia di immagini stereoscopiche L ed R vengono inserite in un frame video a dimensioni maggiori (C), ricopiando una delle due immagini (per esempio L) inalterata, mentre l’altra immagine (per esempio R) viene scomposta in tre regioni (R1, R2 ed R3). Queste regioni vengono disposte nel frame composito C nell’area lasciata libera dalla prima immagine; resta comunque un’area non utilizzata in cui à ̈ possibile inserire una mappa di profondità con risoluzione metà sia orizzontalmente che verticalmente. Utilizzando il metodo proposto nell’invenzione, à ̈ possibile nella stessa area inserire due mappe di profondità invece che una.
La presente idea brevettuale non à ̈ tuttavia limitata all’uso in un particolare frame packing arrangement, ma consente l’inserimento di una coppia di mappe di profondità in una generica immagine rettangolare di W colonne e H righe. Chiaramente l’area WxH può rappresentare la porzione di un’immagine di dimensioni maggiori utilizzata per il trasporto del video 3D con meccanismi di tipo frame packing.
Alternativamente, il flusso video stereoscopico può essere costituito da diversi data stream, inseriti ad esempio in un multiplex a pacchetti, ciascuno dei quali porta l’informazione di una o più immagini e della o delle relative mappe di profondità .
In un sistema di produzione, distribuzione e fruizione televisiva che utilizza i vari aspetti della presente invenzione, in fase di ricezione verranno svolte operazioni inverse a quelle eseguite in trasmissione, in modo da ricostruire le mappe di profondità . Nel ricevitore i valori delle mappe di profondità , che erano stati allocati alle componenti Y, U e V dell’immagine a colori in ingresso, vengono riposizionati in modo da formare le mappe di profondità di partenza. La procedura di ricostruzione può eventualmente utilizzare operazioni di filtraggio e/o di interpolazione di tipo noto per stimare valori di profondità originali che fossero stati scartati per mancanza di spazio disponibile durante la formazione dell’immagine a colori.
E’ oggetto della presente invenzione un metodo, e relativo apparato, per la generazione di un’immagine a colori composta da una pluralità di componenti, a partire da almeno una mappa di profondità , in cui sono inseriti nella componente di luminanza di detta immagine a colori un primo insieme di pixel di detta almeno una mappa di profondità , e in cui sono inseriti nelle due componenti di crominanza di detta immagine a colori un secondo e un terzo insieme di pixel di detta almeno una mappa di profondità .
E’ pure oggetto della presente invenzione, un metodo, e relativo apparato, per generare un flusso video comprendente una sequenza di immagini a colori, in cui almeno una parte del frame comprende un’immagine a colori ottenuta utilizzando un metodo per la generazione di un’immagine a colori come precedentemente descritto.
E’ pure oggetto della presente invenzione, un metodo, e relativo apparato, per la ricostruzione di almeno una mappa di profondità o disparità a partire da una immagine a colori composta da una pluralità di componenti, in cui vengono inseriti in detta almeno una mappa di profondità un primo insieme di pixel prelevati dalla componente di luminanza, un secondo insieme di pixel prelevati da una delle componenti di crominanza e un terzo insieme di pixel prelevati dall’altra componente di crominanza di detta immagine a colori.
E’ pure oggetto della presente invenzione, un metodo, e relativo apparato, per ricostruire due sequenze di mappe di profondità , a partire da un flusso video stereoscopico, in cui nella ricostruzione di ciascuna mappa delle due sequenze viene applicato su ciascun frame del flusso un metodo per la ricostruzione di almeno una mappa di profondità come precedentemente descritto.
E’ particolare oggetto della presente invenzione un metodo e dispositivo per la generazione, memorizzazione, trasmissione, ricezione e riproduzione di mappe di profondità sfruttando le componenti di colore di un’immagine a colori, come meglio descritto nelle rivendicazioni, che formano parte integrante della presente descrizione.
Breve descrizione delle figure
Ulteriori scopi e vantaggi della presente invenzione risulteranno chiari dalla descrizione particolareggiata di esempi di realizzazione della stessa e dai disegni annessi dati a puro titolo esplicativo e non limitativo, in cui:
nella figura 1 à ̈ rappresentato il formato di immagine video stereoscopica denominato “tile-format†;
nelle figure 2a e 2b sono mostrate due forme di rappresentazione grafica di una prima variante dell’invenzione relativa al modo di ottenere un’immagine a colori contenente due mappe di profondità secondo la soluzione side-by-side 4:2:0;
nella figura 3 à ̈ mostrato un esempio di realizzazione di una tecnica di interpolazione applicabile in ricezione per ricoprire certi valori mancanti nella mappa di profondità ricostruita;
nella figura 4 à ̈ mostrata una seconda variante dell’invenzione relativa al modo di ottenere un’immagine a colori contenente due mappe di profondità secondo la soluzione side-by-side 4:2:0;
nella figura 5 sono riportate immagini corrispondenti alle componenti Y,U,V di un’immagine a colori ottenuta affiancando due mappe di profondità in modalità side-byside 4:2:0;
nella figura 6 à ̈ mostrata una variante dell’invenzione relativa al modo di ottenere un’immagine a colori contenente due mappe di profondità secondo la soluzione top-and-bottom 4:2:0;
nella figura 7 sono riportate immagini corrispondenti alle componenti Y,U,V di un’immagine a colori ottenuta affiancando due mappe di profondità in modalità top-andbottom 4:2:0;
nella figura 8 à ̈ mostrata una variante dell’invenzione relativa al modo di ottenere un’immagine a colori contenente due mappe di profondità secondo la soluzione top-and-bottom 4:2:0 con riduzione delle componenti cromatiche;
nella figura 9 sono riportate immagini corrispondenti alle componenti Y,U,V di un’immagine a colori ottenuta affiancando due mappe di profondità in modalità top-andbottom 4:2:0 con riduzione delle componenti cromatiche; nella figura 10 à ̈ mostrata una variante dell’invenzione relativa al modo di trasformare i campioni di mappe di profondità per ottenere un’immagine a colori contenente due mappe di profondità secondo la soluzione top-and-bottom 4:2:0 con somme e differenze medie;
nella figura 11 sono riportate immagini corrispondenti alle componenti Y,U,V di un’immagine a colori ottenuta affiancando due mappe di profondità in modalità top-and-bottom 4:2:0 con somme e differenze medie;
nella figura 12 sono riportate immagini corrispondenti alle componenti Y,U,V di un primo esempio di un’immagine a colori ottenuta affiancando due mappe di profondità pretrattate con operazioni di trasformate a sottobande;
nella figura 13 à ̈ mostrata una variante dell’invenzione relativa al modo di trasformare i campioni di mappe di profondità per ottenere un’immagine a colori contenente due mappe di profondità pretrattate con operazioni di trasformate a sottobande;
nella figura 14 sono riportate immagini corrispondenti alle componenti Y,U,V di un secondo esempio di un’immagine a colori ottenuta affiancando due mappe di profondità pretrattate con operazioni di trasformate a sottobande;
nella figura 15 à ̈ mostrata una variante dell’invenzione relativa al modo di trasformare i campioni di mappe di profondità per ottenere un’immagine a colori contenente due mappe di profondità secondo la soluzione side-by-side 4:2:2;
nella figura 16 à ̈ mostrata una variante dell’invenzione relativa al modo di trasformare i campioni di mappe di profondità per ottenere un’immagine a colori contenente due mappe di profondità secondo la soluzione top-and-bottom 4:2:2;
nella figura 17 à ̈ mostrata una variante dell’invenzione relativa al modo di trasformare i campioni di mappe di profondità per ottenere un’immagine a colori contenente due mappe di profondità secondo la soluzione top-and-bottom oppure side-by-side 4:2:2 con riduzione delle componenti cromatiche;
nella figura 18 à ̈ mostrata una variante dell’invenzione relativa al modo di trasformare i campioni di mappe di profondità per ottenere un’immagine a colori contenente due mappe di profondità pretrattate con operazioni di trasformate a sottobande, per il formato 4:2:2;
nelle Figure 19a e 19b sono mostrati gli schemi a blocchi di un esempio di realizzazione di un sistema completo di generazione, e rispettivamente ricostruzione e visualizzazione di immagini tridimensionali che fa uso del formato di frame packing noto come Tile Format, per organizzare una coppia di sequenze video stereoscopiche, unitamente alle rispettive mappe di profondità secondo l’invenzione.
Gli stessi numeri e le stesse lettere di riferimento nelle figure identificano gli stessi elementi o componenti.
Descrizione di dettaglio di esempi di realizzazione Nel seguito vengono descritte diverse varianti di realizzazione specifica delle idee di base della presente invenzione per quanto concerne le varie possibili disposizioni di due mappe di profondità in una singola immagine a colori di dimensioni WxH pixel (la quale, come già spiegato, potrebbe essere a sua volta inserita in un frame composito più ampio contenente anche altre immagini relative allo stesso flusso video stereoscopico).
Siano date due mappe di profondità di risoluzione WxH, corrispondenti a 2xWxH campioni su 8 bit, ovvero 2xWxH byte. Si vuole inserire tale coppia di mappe in una singola immagine “composita†a colori YUV 4:2:0 o 4:2:2 di risoluzione WxH.
Le varie forme di realizzazione dell’invenzione di seguito descritte sono basate sull’utilizzo di un formato di frame packing per l’inserimento di due mappe di profondità nel rettangolo di dimensioni WxH. Due mappe di profondità possono ad esempio essere sistemate in modalità Top and Bottom, riducendone la risoluzione a Wx(H/2), e collocandole rispettivamente nella parte alta e nella parte bassa della sola componente Y, oppure in modalità side-by-side, riducendone la risoluzione a (W/2)xH e collocandole rispettivamente nella parte sinistra ed in quella destra della sola componente Y. Successivamente, secondo l’invenzione si effettua il recupero dei pixel scartati, inserendoli nei segnali U e V.
Soluzione Side-by-Side 4:2:0
Si descrivono nel seguito due tecniche, che differiscono per il posizionamento dei campioni sulle componenti di crominanza.
La prima tecnica (nel seguito modalità A) per ottenere una immagine a colori a partire da almeno una mappa di profondità à ̈ mostrata in Figura 2a. La figura si riferisce a una coppia di righe della mappa di profondità (ad esempio la mappa di profondità DM1 relativa alla vista di sinistra di un video stereoscopico) e mostra come associare i valori di profondità alle componenti Y,U,V di un’immagine composita a colori con numero di colonne dimezzato.
Si introduce la notazione D(j,i) per denotare il pixel di riga j e colonna i della mappa di profondità DM1 e DM2 con j=0,1,..,H-1 e i=0,1,..,W-1. Usando la tecnica descritta in Figura 2a, la mappa di profondità deve essere riorganizzata in un’immagine a colori composta da 3 componenti:
• Y(j,i) con j=0,…,H-1, e i=0,…,W/2-1
• U(j,i) e V(j,i) con j=0,…,H-1, e i=0,…,(W/2)-1 che assumono solo valori pari degli indici j e i per effetto del sottocampionamento di tipo YUV 4:2:0.
Utilizzando queste notazioni, la riorganizzazione dei pixel mostrata in Figura 2a si ottiene applicando le seguenti regole:
• Per ogni pixel D(j,i)
1. Se i à ̈ pari: Y(j,i/2)=D(j,i)
2. Se j à ̈ pari e il modulo rispetto a 4 di i à ̈<i- 1>
uguale a 1:V(j,)=D(j, i)<.>
2
3. Se j à ̈ pari e il modulo rispetto a 4 di i à ̈<i ->uguale a 3:U(j,<3>)=D(j, i).
2
4. Altrimenti D(i,j) viene scartato.
Applicando tali regole si ottiene una componente Y di risoluzione HxW/2 contenente le sole colonne pari della mappa di profondità . La componente V raccoglie i valori di profondità con indice di riga pari corrispondenti alle colonne 4k+1 con k intero positivo maggiore o uguale a zero, ovvero le colonne 1,5,9,,… della mappa di profondità vengono posizionate sulla componente V in corrispondenza delle colonne 0,2,4… della mappa a colori. La componente U raccoglie infine i valori di profondità con indice di riga pari corrispondenti alle colonne 4k+3 con k intero maggiore o uguale a zero, ovvero le colonne 3,7,11,… della mappa di profondità vengono posizionate sulla componente U in corrispondenza delle colonne 0,2,4,… della mappa a colori.
Si verifica quindi la perdita dei valori di profondità di riga dispari e colonna dispari, cioà ̈ quelli indicati in figura con una crocetta o lettera “X†che dir si voglia. Quindi per ciascuna mappa di profondità si organizzano spazialmente i campioni in una nuova immagine a colori YUV 4:2:0 di risoluzione W/2xH, mantenendo un’elevata correlazione spaziale fra le componenti Y,U,V, ovvero le immagini rappresentate dalle componenti Y, U e V rappresentano versioni con sottocampionamenti alternativi della stessa immagine. Questo à ̈ molto importante, perché gli algoritmi di compressione MPEG presuppongono una correlazione spaziale fra le componenti U e V, e quindi lavorerebbero male se tale correlazione non esistesse. Affiancando (orizzontalmente) due immagini così ottenute, a partire da una coppia di mappe di profondità , si genera infine un’immagine di risoluzione WxH come rappresentato in Figura 5. In tale figura, non potendo utilizzare i colori, sono state rappresentate separatamente le tre componenti Y, U e V.
Per maggior chiarezza, in Figura 2b si riporta la rappresentazione schematica di come vengono ripartite complessivamente nella immagine a colori (Y,U,V) 4:2:0, sempre in modalità A, le due mappe di profondità di dimensioni WxH indicate con DM1 e DM2. I pixel sono rappresentati da quadratini con figure geometriche inscritte, i blocchi di pixel 2x2 delle mappe di profondità DM1 e DM2 individuati implicitamente nella tecnica secondo la Figura 2a e le formule suddette sono numerati sequenzialmente in base ad una scansione per righe senza apici (1,2,…, NxM, con N=W/2 e M=H/2) o con apici (1’,2’,…, NxM’, con N=W/2 e M’=H/2) a secondo che appartengano a DM1 o DM2, e a quadratino uguale corrisponde lo stesso pixel del blocco di partenza. I pixel scartati sono contraddistinti da una crocetta.
Nella riorganizzazione dei pixel delle mappe di profondità DM1 e DM2 viene individuata una loro scomposizione in blocchi di 4 pixel di dimensione 2x2. I due pixel della colonna di sinistra di ciascun blocco 2x2 di DM1 (i blocchi di quadratini includenti un cerchio di 2 pixel a dimensioni 1x2) vengono collocati uno accanto all’altro nella componente di luminanza Y dell’immagine a colori fittizi, seguendo la scansione per righe dalle mappe di profondità . In tal modo viene a occuparsi la metà sinistra di Y; procedendo nello stesso modo per DM2 se ne occupa la metà destra.
Utilizzando sempre una scansione per righe, il pixel in alto a sinistra dei blocchi 2x2 suddetti di DM1 (blocco di un quadratino avente un quadrato iscritto) viene alternativamente collocato rispettivamente nella prima posizione libera in altro a sinistra della componente cromatica V (quadrato pieno) ed U (quadrato vuoto). In tal modo si occupano le metà sinistre di U e V. Procedendo nello stesso modo per i blocchi 2x2 di DM2 se ne occupano le metà destre. Ogni pixel dei blocchi 2x2 di DM1 e DM2 posto in basso a destra (contrassegnato in Figura 2b con una crocetta) viene scartato.
Si noti la configurazione di tipo side-by-side assunta da Y, U e V e la corrispondenza delle componenti con quelle ottenute sperimentalmente utilizzando questa forma di realizzazione dell’invenzione (Figura 5).
Una volta ricevuta l’immagine a colori, eventualmente dopo codifica, trasmissione, ricezione e decodifica, à ̈ possibile riposizionare i valori di profondità invertendo le operazioni descritte in Figura 2.
In particolare, con riferimento alla Figura 2b, si individua una scomposizione di W/2xH/2 blocchi di pixel 2x2 di DM1 e DM2. Seguendo sempre una scansione per righe, ciascun blocco di due pixel 1x2 della componente di Y delle prime W/2 colonne dell’immagine a colori fittizi viene ricopiato nella colonna sinistra degli omologhi blocchi 2x2 di DM1, mentre i blocchi 1x2 delle restanti W/2 colonne di Y vengono ricopiati nella colonna sinistra degli omologhi blocchi 2x2 di DM2 (i quadratini coi cerchi di Figura 2).
Scandendo le componenti cromatiche e le mappe per righe, i pixel delle prime W/4 colonne di V (quadrato pieno e U (quadrato vuoto) vengono alternativamente ricopiati nella posizione in alto a destra dell’omologo blocco di DM1, prendendoli dalla stessa posizione di riga e colonna di U e V. Procedendo analogamente coi pixel delle rimanenti W/4 colonne di destra di V e U coi blocchi 2x2 di DM2 si ricostruisce anche la seconda mappa di profondità . Entrambe presenteranno in questa forma di realizzazione una griglia comprendente WxH/4 posizioni con valori di pixel mancanti, ovvero risulterà mancante un valore ogni due sulle righe pari della mappa di profondità . Tali valori possono essere facilmente interpolati con tecniche di per sé note, sfruttando l’elevata correlazione spaziale che caratterizza le mappe di profondità .
In Figura 3 viene mostrato un esempio di tecnica di interpolazione in cui si utilizza un semplice filtro spaziale (ad esempio filtro media o filtro mediano) con maschera 3x3. Utilizzando una maschera 3x3 centrata intorno al valore mancante si possono sfruttare gli 8 valori di profondità ricevuti intorno a quello mancante per stimare quello in posizione centrale. Gli esperimenti con filtro mediano mostrano che, utilizzando le mappe di profondità fornite dal comitato MPEG, si riesce a ricostruire la mappa di profondità a risoluzione WxH con fedeltà superiore ai 50 dB di rapporto segnale rumore di picco (PSNR).
Questa tecnica di ricostruzione per interpolazione può ovviamente essere utilizzata in tutte le varianti descritte.
Nel seguito si introduce una variante della precedente soluzione side by side, denominata modalità B. La collocazione delle componenti U,V della precedente soluzione può essere migliorata dal punto di vista della correlazione spaziale tra le componenti come mostrato in Figura 4. Tale risultato si ottiene adottando le seguenti regole di collocamento:
• Per ogni pixel D(j,i)
1. Se i à ̈ pari: Y(j,i/2)=D(j,i)
2. Se j à ̈ pari e il modulo rispetto a 4 di i à ̈<i- 1>
uguale a 1:V(j,)=D(j, i).
2
3. Se j à ̈ pari e il modulo rispetto a 4 di i à ̈<i 1>
uguale a 3:U(j,)=D(j, i).
2
4. Altrimenti D(i,j) viene scartato.
Rispetto alla precedente soluzione si garantisce una minore distanza spaziale fra i pixel colocati delle componenti U,V e Y. In particolare le assegnazioni ai punti 2 e 3 dell’algoritmo garantiscono un maggior allineamento tra le componenti.
Applicando tali regole si ottiene una componente Y di risoluzione HxW/2 contenente le sole colonne pari della mappa di profondità . La componente V raccoglie i valori di profondità con indice di riga pari corrispondenti alle colonne 4k+1 con k intero maggiore o uguale a zero, ovvero le colonne 1,5,9,… della mappa di profondità di origine vengono posizionate sulla componente V in corrispondenza delle colonne 0,2,4,… dell’immagine a colori. La componente U raccoglie infine i valori di profondità con indice di riga pari corrispondenti alle colonne 4k+3 con k intero maggiore o uguale a zero, ovvero le colonne 3,7,… della mappa di profondità di origine vengono posizionate sulla componente U in corrispondenza delle colonne 2,4,… della mappa a colori.
Si osservi che al punto 3 dell’algoritmo si possono i 1 W
ottenere valori dell’indice colonna ≥ in 2 2
corrispondenza al bordo destro della mappa di profondità (ad esempio il valore di profondità con i=11 in figura non può essere rappresentato sull’immagine a colori). In fase di ricostruzione questi valori si possono interpolare con tecniche note.
Analogamente i pixel della prima colonna dell’immagine a colori non hanno un valore assegnato alla componente U (si può liberamente assegnare un valore di default, tipicamente 128).
Infine, in Figura 5, nell’impossibilità di riprodurre immagini a colori, sono riportate le immagini corrispondenti alle singole componenti Y,U,V di un’immagine a colori ottenuta affiancando in modalità side by side due mappe di profondità , corrispondenti a una coppia di immagini stereoscopiche, ottenute secondo le procedure precedentemente descritte.
Soluzione Top and Bottom 4:2:0.
Per ottenere una configurazione di tipo Top and Bottom occorre trasformare la mappa di profondità a risoluzione WxH in un’immagine a colori con risoluzione WxH/2. Tale risultato si ottiene applicando gli stessi metodi descritti sopra scambiando il ruolo delle righe e delle colonne.
A titolo di esempio la Figura 6 mostra come rappresentare una coppia di colonne della mappa di profondità sulle componenti YUV dimezzando il numero di righe seguendo l’approccio denominato modalità B nella soluzione Side by Side. La modalità A descritta per il metodo side by side 4:2:0 può essere utilizzata in modo del tutto analogo scambiando il ruolo di righe e colonne e non viene ulteriormente descritta per brevità .
Sovrapponendo (verticalmente) due immagini di risoluzione WxH/2 così ottenute, si genera infine un’immagine di risoluzione WxH che rappresenta la coppia di mappe di profondità in modalità top and bottom come rappresentato in Figura 7. In tale figura, non potendo utilizzare i colori, sono state rappresentate separatamente le tre componenti Y, U e V.
Soluzione Top and Bottom 4:2:0 con riduzione delle componenti cromatiche.
Le precedenti soluzioni permettono di rappresentare alcuni valori delle mappe di profondità come componenti di crominanza di un’immagine a colori garantendo una buona coerenza spaziale tra le componenti Y, U e V. Nel caso di una immagine comune (a veri colori) le componenti di crominanza sono caratterizzate da un basso contenuto energetico e quindi da una entropia bassa e possono essere agevolmente compresse usando le tecniche note. Al contrario, le componenti U, V delle precedenti soluzioni sono costituite da pixel con lo stesso contenuto energetico della luminanza.
Per ovviare a questo inconveniente à ̈ possibile sostituire i valori di profondità da inserire sulle componenti di crominanza con valori differenza rispetto a un valore predetto (o interpolato) usando i valori di profondità rappresentati sulla componente Y; in altre parole sulle componenti di crominanza si può inserire un errore di predizione. Siccome le mappe di profondità non contengono molti dettagli la predizione risulta efficace e l’errore di predizione presenta un contributo energetico molto limitato e quindi adatto a essere rappresentato come crominanza.
A titolo d’esempio, nella Figura 8, relativa alla configurazione top and bottom in modalità B, le frecce doppie identificano coppie di valori di profondità attraverso i quali à ̈ possibile interpolare i valori di profondità da collocare sulle componenti U e V.
In Figura 8 si identificano i campioni di profondità della componente Y che si possono usare come predizione per i valori di profondità destinati alle componenti U e V secondo i passi 2 e 3 dei precedenti algoritmi di riposizionamento. Utilizzando la notazione dei precedenti algoritmi si possono infatti calcolare i seguenti errori di predizione:
< 1>D e(4h+1,2k)=D(4h+1,2k)− round [D(4h,2k)+D(4h 2,2 k ) ]

ï£ 2 ï£ ̧ D 4h+3,2k)=<1>
e( D(4h+3,2k)−round<> [D(4h+2,2k)+D(4h 4,2 k ) ]

ï£ 2 ï£ ̧
ove h,k sono indici interi maggiori o uguali a zero, da sostituirsi ai relativi valori di profondità sulle colonne pari prima della collocazione sulle componenti V e U, rispettivamente. Per evitare di memorizzare valori frazionari dell’errore di predizione, nelle precedenti formule viene effettuato un arrotondamento del valore predetto (l’operatore round identifica l’operazione di arrotondamento a intero). Si osservi che nell’esempio si usa un semplice predittore costituito dalla media fra i due campioni di profondità sulla riga superiore e inferiore del pixel in oggetto.
L’errore di predizione Deà ̈ un valore con segno. Nella realizzazione pratica a tali valori viene preferibilmente sommato un offset di 128 così da poter essere rappresentati su valori a 8 bit senza segno, previa saturazione dei valori ottenuti nell’intervallo [0..255]. Vengono quindi rappresentati sulle componenti V ed U gli errori di predizione senza segno:
<~>
De(4h+1,2k)= D e(4h+1,2 k) 128
<~>
De(4h+3,2k)= D e(4h+3,2 k) 128
Per semplicità à ̈ stata omessa nelle formule suddette l’operazione di clipping o saturazione dei valori fuori dall’intervallo 0-255.
In fase di ricezione, prima dell’’interpolazione dei campioni mancanti (identificati con la lettera “X†nelle figure) ad esempio secondo la tecnica descritta sopra, si procederà alla ricostruzione dei valori di profondità predetti invertendo le formule precedenti:
<>D(4h+1,2k)=round<1>
[D(4h,2k)+D(4h 2,2k) ]<~>
2+D e(4h+1,2 k) − 128
ï£ ï£ ̧
<>D(4h+3,2k)=round<1>
[D(4h+2,2k)+D(4h 4,2k) ]
+D<~>
e(4h+3,2 k) − 128
ï£ 2 ï£ ̧
Per effetto degli errori di arrotondamento dell’errore di predizione si introduce un errore di ricostruzione con effetti trascurabili rispetto agli errori di quantizzazione che si ottengono con un codificatore standard.
La Figura 9 mostra un esempio di immagine composita ottenuta con il sistema appena descritto. Si può osservare il basso contenuto energetico delle componenti U e V raffigurate tramite immagini che, anche per via dell’approssimazione di stampa, sembrano uniformi. Il vantaggio della soluzione in esame infatti consiste nell’operare una riduzione dell’ampiezza media delle componenti di crominanza, rispecchiando maggiormente la distribuzione energetica del segnale YUV tradizionale, in cui la maggior parte del contenuto energetico à ̈ concentrato sulla componente Y rispetto alle componenti U e V. Si noti inoltre che le componenti U e V sono segnali “differenza†(per l’esattezza sono chiamati segnali differenza di colore) e quindi sono a valor medio nullo, per cui, in una rappresentazione ad otto bit, il valore 128 corrisponde allo zero, mentre i valori inferiori a 128 sono considerati negativi e quelli superiori a 128 positivi. Gli algoritmi di compressione MPEG si basano sulle suddette proprietà dei segnali U e V, per cui, se tali segnali non rappresentano delle differenze, come nella precedente realizzazione, gli algoritmi di compressione usati dall’MPEG possono risultare meno efficaci.
L’approccio appena descritto à ̈ stato esemplificato nel caso del formato Top and Bottom con l’uso di una procedura di interpolazione con due soli campioni, ma si può ovviamente estendere a tutte le soluzioni descritte fino a questo punto e utilizzando altri metodi di interpolazione.
Soluzione Top and Bottom 4:2:0 con somme e differenze medie.
Un’ulteriore variante che permette di ridurre il contributo energetico delle componenti U e V consiste nella sostituzione dei valori delle mappe di profondità con somme e differenze medie, che vengono rappresentati utilizzando rispettivamente le componenti di luminanza e di crominanza. I vantaggi di questa variante sono gli stessi di quelli della soluzione precedente, in quanto anche in questo caso vengono inseriti in U e V dei segnali che rappresentano delle differenze.
I campioni di ogni blocco 2x2 della mappa di profondità vengono trasformati in somme e differenze medie come indicato in Figura 10, e qui sotto riportato, dove a,b,c,d rappresentano i valori di profondità in un blocco 2x2 della mappa di profondità . I coefficienti w0,w1 sono valori medi e devono essere arrotondati all’intero più vicino (oppure troncati all’intero inferiore) per permetterne la successiva rappresentazione su campioni a 8 bit senza segno.
Lo stesso processo avviene per i coefficienti differenza w2, w3; inoltre, essendo quest’ultimi dotati di segno, i loro valori assoluti sono saturati a 128 in modo da poter rappresentare il loro valore su campioni a 8 bit sommando un offset pari a 128.
In Figura 10 viene inoltre indicato come ricostruire i campioni di profondità dalle somme e differenze medie, come qui sotto riportato.
A causa degli arrotondamenti adottati, la ricostruzione dei valori di profondità a,b,c,d sarà accurata a meno di un errore pari a /-1.
Per ottenere un’immagine a colori di dimensioni ridotte, ad esempio WxH/2 nel caso Top and Bottom, à ̈ necessario scartare un coefficiente ogni 4. I 3 coefficienti scelti possono quindi venire disposti sulle componenti Y,U,V secondo una delle tecniche descritte sopra.
Questo viene ottenuto mantenendo le due somme medie w0 e w1, che verranno inserite sulla componente Y e spostando su U,V o la differenza wd=w2 o la differenza wd=w3 a seconda di quale dei due valori w2 o w3 garantisce il minor errore di ricostruzione secondo le formule che seguono.
L’errore di ricostruzione introdotto dalla scelta di w2 o w3 può essere valutato nel modo seguente. Si calcolano rispettivamente l’errore medio e(wd = w2 ), ottenuto nel caso wd =w 2, e l’errore medio e(wd = w3 ), ottenuto nel caso wd =w 3; quindi si sceglie di trasmettere il coefficiente wd che minimizza l’errore come segue:
e(wd =w2)=|w1+w2−b|+ w1−w 2 − d
e(wd =w3)= w0+w3−a w0−w 3 − c
wd =w2 se e(wd =w2)<e(wd = w3 )

w 3 se altrimenti
Per ottenere un’immagine a colori di risoluzione WxH/2 si può seguire lo stesso algoritmo introdotto precedentemente.
Per ogni indice di riga j=0,2,4 … e ogni indice di colonna i=0,2,4, …
• Si calcolano i coefficienti w0,w1,w2,w3 del blocco 2x2 in posizione j,i della mappa di profondità • Si determina la migliore differenza media wd • Si assegnano le somme medie alla componente Y secondo le formule Y(j/2,i)=w0 e Y(j/2,i+1)=w1
• Se il resto della divisione fra l’indice j e 4
à ̈ pari a 0 si assegna la differenza media secondo la
formula U(j/2,i)=wd
• Altrimenti (se l’indice j non à ̈ multiplo di 4)
V(j/2,i)=wd
In Figura 11 viene riportato un esempio di immagine a
colori ottenuta con il sistema appena descritto in
configurazione Top and Bottom , ottenuta inserendo due
mappe di profondità con somme e differenze medie. Si
osservi come anche in questo caso le componenti di
crominanza raccolgano un contributo energetico limitato
per effetto della dinamica molto bassa associata al
valore wd.
In fase di ricostruzione la tecnica con somme e
differenze medie non necessita di un filtro interpolatore
3x3 in quanto à ̈ sufficiente applicare le formule inverse
che dai coefficienti w0,w1 e wd permettono di ricostruire
i valori iniziali a,b,c,d:
a≈w 0 wd
b≈w 1 wd
c≈w 0 − wd
d ≈w 1 − wd
L’errore di ricostruzione che si commette dipende dalla
scelta della differenza media wd e dall’errore di
rappresentazione su interi di tutti i coefficienti. Gli
esperimenti mostrano che tali errori sono trascurabili
su mappe di profondità di riferimento con rapporti
segnale rumore di picco superiori ai 50 dB.
Soluzione con trasformata a sottobande.
La precedente tecnica basata su medie e differenze dei
valori di profondità può essere generalizzata adottando un approccio a sottobande. Utilizzando una trasformazione di dominio, ad esempio di tipo DCT 2x2, ovvero trasformata di Walsh-Hadamard, oppure un solo livello di una qualsiasi trasformata Wavelet nota in letteratura, si divide l’immagine costituita dalla mappa di profondità DM1 (e DM2) in quattro sottobande con risoluzione dimezzata sia sulle righe sia sulle colonne, quindi con risoluzione W/2xH/2. Tali sottobande vengono generalmente indicate da sinistra a destra e dall’alto verso il basso come sottobande LL,LH,HL e HH. In figura 12 viene riportato un esempio di trasformata a sottobande ottenuta applicando la trasformata di Walsh-Hadamard separatamente alle righe e alle colonne di una mappa di profondità . Si può osservare che la trasformata concentra la maggior parte dell’energia del segnale video nella sottobanda LL (in alto a sinistra). Per immagini contenenti pochi dettagli, come nel caso delle mappe di profondità , la sottobanda HH raccoglie invece pochissima energia. Si osservi inoltre che i coefficienti delle sottobande HL,LH e HH sono dotati di segno ed occorre usare un offset di 128 per rappresentare il valore 0 come nel caso delle differenze medie descritte nella soluzione precedente. Volendo rappresentare i coefficienti della trasformata su campioni a 8 bit senza segno occorre inoltre effettuare opportuni arrotondamenti che possono variare a seconda del tipo di trasformata utilizzata.
Dovendo ridurre la risoluzione delle mappa di profondità in presenza di un dominio trasformato à ̈ possibile eliminare alcuni coefficienti: la scelta migliore à ̈ quella di eliminare l’intera banda HH di entrambe le mappe di profondità , introducendo una perdita di qualità bassa in fase di ricostruzione. La ricostruzione viene ovviamente ottenuta applicando la trasformata inversa, ove i coefficienti eliminati sono assunti come nulli.
Per costruire un’unica immagine YUV di risoluzione WxH a partire dalle sottobande LL’,LH’, e HL’ della mappa di profondità sinistra e dalle sottobande LL’’, LH’’ e HL’’ della mappa di profondità destra si segue lo schema mostrato in figura 13, in cui DM1’ e DM2’ indicano le trasformate di Hadamard delle due mappe di profondità DM1 e DM2. La figura mostra come disporre i coefficienti delle sottobande LL’, LH’ e LL’’, LH’’ sui quattro quadranti delle componente di luminanza Y. In particolare si à ̈ scelto di associare la metà alta della componente Y alle sottobande LL’ e LH’ della mappa di profondità sinistra e la metà bassa alle sottobande LL’’ e LH’’ della mappa di profondità destra. Per completare la costruzione dell’immagine YUV occorre sistemare i rimanenti W/2xH/2 coefficienti delle sottobande HL’ e HL’’ sulle componenti U e V, senza creare falsi bordi dovuti al disallineamento tra le tre componenti. La Figura 13 mostra come ottenere il risultato desiderato. La sottobanda HL’ della mappa di profondità sinistra viene suddivisa in 4 versioni sottocampionate di un fattore 2 in entrambe le direzioni come mostrato in figura 13; in pratica, i coefficienti di ogni blocco 2x2 vengono collocati su 4 immagini sottocampionate. Si ottengono così 4 immagini della sottobanda HL’ denominate HLa’,HLb’,HLc’e HLd’ con risoluzione W/4xH/4. Le prime due immagini ottenute vengono affiancate nella parte alta della componente U, occupando una zona pari a H/4xW/2 campioni. Le due rimanenti immagini della sottobanda HL’ vengono invece copiate (affiancate) nella parte alta della componente V. Si adotta infine la medesima procedura per la sottobanda HL’’ della mappa di profondità destra, ma le immagini W/4xH/4 ottenute verranno copiate nella metà bassa delle componenti U e V. Questo approccio permette di mantenere coerenza spaziale fra la componente Y e le componenti U,V a risoluzione dimezzata.
Un esempio dell’immagine a colori ottenuta usando la trasformata di Walsh-Hadamard à ̈ mostrato in figura 14. Anche in questo caso il contributo energetico associato alle componenti U e V à ̈ molto basso con conseguenti benefici dal punto di vista della compressibilità del segnale video.
Sintesi di due mappe di profondità in una catena di produzione televisiva (formato YUV 4:2:2).
Nella catena di produzione televisiva solitamente si usa il formato YUV 4:2:2. Rispetto al caso del formato 4:2:0, le soluzioni per l’impacchettamento di due mappe in una sola immagine a colori risulta più semplice, in quanto l’informazione di crominanza (U,V) à ̈ presente nel 50% dei pixel. Complessivamente, quindi, si hanno a disposizione 16 bit per pixel (otto per Y e otto per U, V) e quindi à ̈ possibile inserire le due mappe nell’immagine a colori senza alcuna perdita di informazione e quindi senza necessità di interpolare, in ricezione, i pixel mancanti.
Una prima soluzione può essere quella di trasmettere su Y una delle mappe e su U e V l’altra mappa. Questa soluzione però non à ̈ ottimale, in quanto gli algoritmi di compressione video solitamente si basano sull’assunto che la luminanza e la crominanza siano fra loro correlate, come avviene in una vera immagine a colori, mentre nella soluzione in esame Y appartiene ad una immagine e U,V ad una diversa immagine. Pertanto conviene anche nel caso 4:2:2 procedere a una ricollocazione dei campioni capace di garantire la costruzione di un’immagine con componenti Y,U,V correlate ricorrendo a meccanismi simili a quelli utilizzati per il caso YUV 4:2:0.
Soluzione side by side 4:2:2.
La creazione dell’immagine a colori può essere facilmente compresa esaminando la Figura 15. Nella prima riga di pixel, i pixel delle colonne dispari (1,3,5 …) della mappa di profondità originale vengono trasferiti su U e V dei pixel dell’immagine a colori sulle colonne pari, in modo in tutto simile a quanto mostrato nella figura 2a. Nella seconda riga di pixel, poiché, contrariamente al caso 4:2:0, i pixel delle colonne pari (0,2,4…) dell’immagine a colori sono dotati di crominanza, avviene esattamente la stessa cosa che nella prima riga, cioà ̈ i pixel delle colonne dispari della mappa di profondità originale vengono trasferiti su U e V dei pixel delle colonne pari dell’immagine a colori. Non esistono più, pertanto, pixel mancanti (quelli indicati con una crocetta nella figura 2a), da ricostruire in ricezione mediante interpolazione.
Stesso discorso vale per la modalità B. Anche in questo caso in tutte le righe (pari e dispari) avviene quanto mostrato nella figura 4 per la riga 0 di pixel, e quindi non esistono più pixel mancanti da ricostruire in ricezione mediante interpolazione.
Soluzione top and bottom 4:2:2.
A titolo di esempio, uno dei possibili modi per creare l’immagine a colori à ̈ mostrato in Figura 16. I pixel delle righe dispari, che vengono scartate, sono riallocati su U e V dei pixel delle righe pari, ad esempio nel modo indicato dalle freccette. La riallocazione può essere fatta anche in altri modi, sostanzialmente equivalenti, che qui non sono indicati per brevità .
Soluzioni side by side e top and bottom con riduzione delle componenti cromatiche, formato 4:2:2.
Le precedenti soluzioni permettono di rappresentare alcuni valori delle mappa di profondità come componenti di crominanza di un’immagine a colori garantendo una buona coerenza spaziale tra le componenti Y, U e V. Nel caso di una immagine comune (a veri colori) le componenti di crominanza sono caratterizzate da un basso contenuto energetico e quindi da una entropia bassa e possono essere agevolmente compresse usando le tecniche note. Al contrario, le componenti U,V delle precedenti soluzioni sono costituite da pixel con lo stesso contenuto energetico della luminanza. Per ovviare a questo inconveniente à ̈ possibile sostituire i valori di profondità da inserire sulle componenti di crominanza con valori differenza rispetto a un valore predetto (o interpolato) usando i valori di profondità rappresentati sulla componente Y; in altre parole sulle componenti di crominanza si può inserire un errore di predizione. Siccome le mappe di profondità sono poco dettagliate la predizione risulta efficace e l’errore di predizione presenta un contributo energetico molto limitato e quindi adatto a essere rappresentato come crominanza.
A titolo di esempio, nella Figura 17 le frecce doppie identificano due valori di profondità attraverso i quali à ̈ possibile interpolare i valori di profondità da collocare sulle componenti U e V per quanto riguarda la configurazione top and bottom di Fig. 16. Nella rappresentazione di figura 16 i campioni sulle righe dispari vengono interpolati a partire dai campioni collocati rispettivamente sulla riga superiore e inferiore. Tali valori sono disponibili anche in fase di ricezione dell’immagine a colori in quanto collocati sulla componente Y. A questo punto à ̈ possibile calcolare e inserire come valori delle componenti U,V (secondo la collocazione mostrata dalle frecce sottili in Figura 16) gli errori di predizione commessi dall’interpolatore. Tali valori verranno rappresentati con interi senza segno con le stesse tecniche descritte precedentemente. Gli errori di predizione trasportati dalle componenti U,V permetteranno infine di ricostruire i valori di profondità sulle righe dispari in fase di ricezione applicando la relativa correzione ai valori interpolati dalla componente Y.
Soluzione Top and Bottom con somme e differenze medie, formato 4:2:2.
Anche nel caso del 4:2:2, un’ulteriore variante che permette di ridurre il contributo energetico delle componenti U e V consiste nella sostituzione dei valori delle mappe di profondità con somme e differenze medie, che vengono rappresentate utilizzando rispettivamente le componenti di luminanza e di crominanza. I vantaggi di questa variante sono gli stessi di quelli della soluzione precedente, in quanto anche in questo caso vengono inseriti in U e V dei segnali che rappresentano delle differenze. I campioni di ogni blocco 2x2 della mappa di profondità vengono trasformati in somme e differenze medie come indicato in Figura 10, dove a,b,c,d rappresentano i valori di profondità in un blocco 2x2 della mappa di profondità .
La differenza rispetto al caso del 4:2:0 à ̈ rappresentata dal fatto che col 4:2:2 non à ̈ più necessario scartare un coefficiente ogni quattro, potendo inserire in U e V entrambi i coefficienti differenza. Si ottiene pertanto in ricezione la ricostruzione della mappa senza errori, a meno della perdita di precisione, pari a /-1 indotta dalla rappresentazione su interi senza segno di somme e differenze medie.
Soluzione con trasformata a sottobande, formato 4:2:2.
Applicando un solo livello di una qualsiasi trasformata a sottobande si divide l’immagine costituita dalla mappa di profondità in quattro sottobande con risoluzione dimezzata sia sulle righe sia sulle colonne, quindi con risoluzione W/2xH/2. Tali sottobande vengono generalmente indicate da destra a sinistra e dall’alto verso il basso come sottobande LL,LH,HL e HH. Utilizzando il formato YUV 4:2:2 à ̈ possibile rappresentare le trasformate di due mappe di profondità in una sola immagine a colori utilizzando la procedura illustrata in Figura 18, ove DM1’ e DM2’ indicano la trasformata a sottobande delle due mappe di profondità DM1 e DM2. A differenza della tecnica analoga proposta per il formato YUV 4:2:0 (vedi Figura 13) in questo caso à ̈ possibile collocare tutte e quattro le sottobande di DM1’ e DM2’. Nella soluzione proposta a titolo di esempio si forma un’immagine a colori di tipo top and bottom. Le componenti U,V sono costruite in modo da mantenere correlazione spaziale con le immagini corrispondenti di Y inserendo le sottobande LH e HH sottocampionate per colonne; in particolare le colonne pari vengono inserite sulla componente U, mentre le colonne dispari vengono inserite sulla componente V. Inserimento di una sola mappa.
Si noti che la presente invenzione può essere applicata anche al caso di presenza di una sola mappa di profondità . In questo caso le tecniche proposte permettono di costruire una immagine a colori, con una risoluzione dimezzata (per righe o per colonne) rispetto a quella della mappa di profondità originale.
Sistema completo di generazione e ricostruzione.
Le soluzioni proposte possono essere utilizzate per inviare a un sistema di visualizzazione una coppia di sequenze video stereoscopiche, unitamente alle rispettive mappe di profondità , permettendo la sintesi di qualsiasi punto di vista intermedio.
Nelle Figure 19a e 19b si mostra un esempio di sistema completo di generazione, ricostruzione e visualizzazione che fa uso del formato di frame packing noto come Tile Format, separando il lato generazione da quello di ricostruzione e visualizzazione.
In particolare nel sistema proposto due mappe di profondità a risoluzione WxH denominate in figura mappa di profondità sinistra DL (Depth Left) e destra DR (Depth Right) (ottenute eventualmente sottocampionando 4:1 due mappe di profondità delle due viste a dimensioni 2Wx2H) vengono fuse da un dispositivo detto “depth merger†in un'unica immagine YUV 4:2:0 a colori di risoluzione WxH adottando una delle tecniche proposte. Quindi il dispositivo Tile Format multiplexer costruisce il frame composito di tipo Tile Format a partire da due immagini stereoscopiche di risoluzione 2Wx2H e della rispettiva coppia di mappe di profondità di risoluzione WxH. La coppia di mappe di profondità occupa esattamente lo spazio libero lasciato dal formato di frame packing nell’angolo in basso a destra (vedi Figura 1). Si ottiene così un'unica immagine di risoluzione 3Wx3H in grado di trasportare tutte le componenti del segnale stereoscopico. Ponendo W=640 e H=360 si produce un’immagine Tile Format di risoluzione 1920x1080, compatibile con il formato video ad alta definizione noto come 1080p. Il segnale video costituito dalle immagini di tipo Tile Format diventa così compatibile con qualsiasi infrastruttura di codifica, trasmissione o trasporto di un segnale video 1920x1080.
Un codificatore (encoder) di tipo noto (per esempio MPEG4 o HEVC) può efficacemente comprimere il flusso video stereoscopico prodotto dal Tile Format multiplexer per essere trasmesso su un canale di comunicazione previi eventuali altri trattamenti (multiplazione con altri contenuti, modulazione, eccetera). In alternativa il flusso codificato può essere memorizzato da una unità di scrittura (Writing Unit) su un qualsiasi mezzo di archiviazione (memoria a semiconduttore volatile o non volatile, supporto opto-elettronico, eccetera) per una fruizione successiva.
A lato ricevitore (vedi Fig. 19b) il flusso video stereoscopico ricevuto dal canale di comunicazione o letto da un supporto di memorizzazione viene decodificato ed inviato al Tile Format Demultiplexer, il quale estrae la coppia di immagini stereoscopiche L ed R di risoluzione 2Wx2H e l’immagine a colori prodotta in fase di generazione dal Depth Merger. Un’ unità ripartitrice detta Depth Splitter estrae da detta immagine la coppia di mappe di profondità a colori di risoluzione WxH DL e DR, che possono essere espanse alla loro dimensione originale 2Wx2H da un semplice dispositivo di interpolazione di tipo noto detto Depth Upsampler. Un dispositivo di sintesi di vista (View Synthesizer) calcola le viste intermedie tra R ed L per la visualizzazione mediante un dispositivo di tipo auto stereoscopico.
Si noti che la descrizione degli apparati di generazione (1500) e ricostruzione (1550) di un flusso video stereoscopico ottenuto applicando l’invenzione sulle mappe di profondità à ̈ suscettibile di molte varianti. Pertanto à ̈ possibile per esempio che le funzioni del Depth Merger e del Tile Format multiplexer siano praticamente effettuate dallo stesso dispositivo fisico, mentre, dal lato della ricostruzione, la sintesi delle immagini stereoscopiche e la visualizzazione possono essere effettuate dallo stesso apparato o da due apparati distinti.
Operazioni di ricostruzione.
La ricostruzione delle mappe di profondità in accordo con l’invenzione prevede di effettuare operazioni inverse a quelle di generazione delle immagini a colori in accordo con le varianti sopra descritte.
In particolare, il metodo per la ricostruzione di almeno una mappa di profondità (DM1, DM2) a partire da una immagine a colori composta da una pluralità di componenti (Y, U, V), prevede di inserire nella mappa di profondità un primo insieme di pixel prelevati dalla componente di luminanza (Y), un secondo insieme di pixel prelevati da una delle componenti di crominanza (U) e un terzo insieme di pixel prelevati dall’altra componente di crominanza (V) di detta immagine a colori (Y, U, V).
Preferibilmente ricopiando il primo, secondo e terzo insieme di pixel si ottengono tutti i pixel di detta almeno una mappa di profondità ; oppure ricopiando il primo, secondo e terzo insieme di pixel si ottengono alcuni pixel della mappa di profondità , e i pixel mancanti vengono ottenuti mediante operazioni di interpolazione dei pixel ricopiati.
In possibili varianti il secondo e terzo insieme (U e V) contengono differenze rispetto a valori interpolati, per cui in ricostruzione bisogna prima calcolare i valori interpolati e poi applicare le correzioni ricavate da U e V.
In possibili varianti il metodo comprende il passo di sostituire i valori (w0, w1, wd) prelevati dal primo, secondo e terzo insieme di pixel dell’immagine a colori con loro somme e differenze che permettono di ricostruire i valori (a, b, c, d) da copiare in un blocco di pixel della mappa di profondità (DM1, DM2).
In ulteriori possibili varianti il metodo prevede di effettuare una trasformazione di dominio inversa rispetto a quella effettuata in fase di generazione per ottenere detta mappa di profondità (DM1,DM2), dopo aver ricopiato gli insiemi di pixel delle componenti (Y, U, V) dell’immagine a colori.
L’apparato per la ricostruzione di almeno una mappa di profondità (DM1, DM2) a partire da una immagine a colori composta dalle componenti Y, U, V, secondo l’invenzione, comprende mezzi di inserimento nella almeno una mappa di profondità o disparità di un primo insieme di pixel prelevati dalla componente di luminanza (Y), di un secondo insieme di pixel prelevati da una delle componenti di crominanza (U) e di un terzo insieme di pixel prelevati dall’altra componente di crominanza (V) di detta immagine a colori (Y, U, V).
Preferibilmente in detto apparato, il primo, secondo e terzo insieme di pixel ricoprono tutti i pixel della almeno una mappa di profondità o disparità .
Alternativamente il primo, secondo e terzo insieme di pixel ricoprono alcuni pixel della almeno una mappa di profondità o disparità , e nei pixel rimanenti vengono inseriti pixel ottenuti da operazioni di interpolazione dei pixel ricopiati.
L’apparato à ̈ in grado di ricostruire due mappe di profondità DM1, DM2 aventi le stesse dimensioni WxH e l’immagine a colori Y,U,V ha la componente di luminanza Y delle stesse dimensioni WxH delle due mappe di profondità o disparità DM1, DM2.
Preferibilmente l’apparato comprende mezzi per effettuare una somma o una differenza dei valori dei pixel selezionati da un gruppo di pixel rispetto a un valore di riferimento predetto o interpolato, quest’ultimo valore essendo ricavato da valori di pixel appartenenti al primo insieme, per ottenere i pixel del secondo e terzo insieme.
Preferibilmente l’apparato comprende mezzi di sostituzione dei valori w0, w1, wd prelevati dal primo, secondo e terzo insieme di pixel dell’immagine a colori con loro somme e differenze, in modo da ricostruire i valori a,b,c,d da copiare in un blocco di pixel della almeno una mappa di profondità DM1, DM2.
Preferibilmente l’apparato comprende mezzi per effettuare una trasformazione di dominio inversa rispetto a quella effettuata in fase di generazione per ottenere detta almeno una mappa di profondità DM1,DM2, dopo avere ricopiato gli insiemi di pixel di dette componenti Y, U, V dell’immagine a colori.
Nel caso di inserimento delle mappe di profondità in un frame composito tile-format, in tutte le varianti su descritte, si ottiene un formato universale per generare, trasportare e riprodurre contenuti 3D su tutti i tipi di display presenti e futuri.
In caso di dispositivo riproduttore 2D, il processore video del dispositivo scarta semplicemente le immagini R e le mappe di profondità DM1 e DM2 eventualmente presenti nei frame video decodificati e visualizza, previo scalamento, la sola sequenza delle immagini L su un associato dispositivo di visualizzazione.
La stessa cosa avviene nel caso di un dispositivo riproduttore 3D in cui à ̈ stata attivata dall’utente la modalità di visualizzazione 2D.
In caso di dispositivo riproduttore 3D in cui à ̈ attivata la modalità di visualizzazione 3D, vi sono due comportamenti diversi a seconda che il riproduttore offra o meno all’utente la possibilità di regolazione di profondità (in diminuzione) della scena. Nel secondo caso il processore video utilizza le due sequenze d’immagini L (Left) e R (Right) per generare l’effetto tridimensionale. Nel primo caso il processore video utilizza le mappe di profondità (una o due) presenti nei frame compositi associati a ogni coppia di immagini stereoscopiche R ed L, per generare viste intermedie fra L ed R, ottenendo così immagini tridimensionali aventi profondità variabile ed inferiore a quella ottenibile da L ed R.
L’ultimo caso di utilizzo à ̈ costituito dai riproduttori autostereoscopici che necessitano di un numero di viste molto elevato (alcune decine) per generare l’effetto di tridimensionalità per spettatori situati in punti diversi dello spazio antistante al display. In tal caso il processore video utilizza le mappe di profondità (una o due) presenti nei frame compositi, insieme alle immagini L ed R stesse, per sintetizzare una serie di altre immagini.
In conclusione, il processore video del dispositivo riproduttore può comprendente mezzi atti ad inviare al display due sequenze di immagini, di cui almeno una à ̈ costituita da immagini sintetizzate a partire da almeno una delle viste trasmesse e da almeno una mappa di profondità . In questo caso, preferibilmente, esso comprende inoltre mezzi atti a consentire allo spettatore di scegliere sequenze di immagini relative a punti di vista più o meno ravvicinati, in modo tale da variare la percezione di profondità .
Il processore video del dispositivo riproduttore può inoltre comprendere mezzi atti a generare ulteriori immagini corrispondenti ad ulteriori viste, per fare in modo che spettatori situati in punti diversi dello spazio possano visualizzare sequenze di immagini diverse tramite un associato display di tipo auto-stereoscopico.
Nessuno dei formati finora proposti consente tale flessibilità e ampiezza d’uso, mantenendo al contempo una ottima qualità di riproduzione in termini di bilanciamento della risoluzione orizzontale e verticale e di appropriata assegnazione della risoluzione alle immagini stereoscopiche e alle associate mappe di profondità .
Le operazioni di ricostruzione sopra descritte possono essere eseguite in parte nel dispositivo ricevitore ed in parte nel dispositivo di visualizzazione (riproduttore).La presente invenzione può essere vantaggiosamente realizzata tramite un programma per computer che comprende mezzi di codifica per la realizzazione di uno o più passi del metodo. Pertanto si intende che l’ambito di protezione si estende a detto programma per computer ed inoltre a mezzi leggibili da computer che comprendono un messaggio registrato, detti mezzi leggibili da computer comprendendo mezzi di codifica di programma per la realizzazione di uno o più passi del metodo, quando detto programma à ̈ eseguito su di un computer.
Sono possibili varianti realizzative all'esempio non limitativo descritto, senza per altro uscire dall’ambito di protezione della presente invenzione, comprendendo tutte le realizzazioni equivalenti per un tecnico del ramo.
La presente descrizione si à ̈ soffermata a forme di realizzazione dell’invenzione in cui il sistema di campionatura utilizzato per le immagini a colori à ̈ 4:2:0 o 4:2:2, che sono quelli più ampiamente diffusi nella pratica. Essa si può parimenti applicare a qualsiasi altro sistema di campionatura, quale per esempio 4:4:4, 4:1:1, 4:1:0, adottando ove necessario operazioni di sottocampionamento dell’immagine a livelli di grigio di partenza.
Gli elementi e le caratteristiche illustrate nelle diverse forme di realizzazione preferite possono essere combinati tra loro senza peraltro uscire dall’ambito di protezione della presente invenzione.
Dalla descrizione sopra riportata il tecnico del ramo à ̈ in grado di realizzare l’oggetto dell’invenzione senza introdurre ulteriori dettagli costruttivi.
Claims (22)
- RIVENDICAZIONI 1. Metodo per la generazione di un’immagine a colori composta da una pluralità di componenti (Y, U, V), a partire da almeno una mappa di profondità o disparità (DM1, DM2), in cui sono inseriti nella componente di luminanza (Y) di detta immagine a colori un primo insieme di pixel di detta almeno una mappa di profondità o disparità (DM1, DM2), e in cui sono inseriti nelle due componenti di crominanza (U, V) di detta immagine a colori un secondo e un terzo insieme di pixel di detta almeno una mappa di profondità o disparità (DM1, DM2).
- 2. Metodo come la rivendicazione 1, in cui la scelta delle posizioni in cui collocare i pixel di detti insiemi in dette componenti di luminanza (Y) e crominanza (U, V) Ã ̈ fatta in modo da garantire la correlazione spaziale tra la componente di luminanza (Y) e le componenti di crominanza (U, V) di detta immagine a colori.
- 3. Metodo come la rivendicazione 1 o 2, in cui l’unione di detti primo, secondo e terzo insieme comprende tutti i pixel di detta almeno una mappa di profondità o disparità (DM1, DM2).
- 4. Metodo come la rivendicazione 1 o 2, in cui detti primo, secondo e terzo insieme comprendono solo una parte di tutti i pixel di detta almeno una mappa di profondità o disparità (DM1, DM2)
- 5. Metodo come una qualsiasi delle rivendicazioni precedenti, in cui due mappe di profondità o disparità (DM1, DM2) di dimensioni WxH sono inserite in un’ immagine a colori delle stesse dimensioni, usando una tecnica side by side oppure top and bottom.
- 6. Metodo come una qualsiasi delle rivendicazioni precedenti, in cui i pixel di detti secondo e terzo insieme appartenenti a un gruppo di pixel vengono sostituiti con valori differenza rispetto ad un valore predetto o interpolato, quest’ultimo essendo ricavato da valori di pixel appartenenti a detto primo insieme.
- 7. Metodo come una qualsiasi delle rivendicazioni da 1 a 4, comprendente il passo di sostituire i pixel di detta almeno una mappa di profondità o disparità (DM1, DM2) appartenenti a un gruppo di pixel contigui (a,b,c,d) con loro somme e differenze (w0, w1, w2, w3), collocando le somme nella componente di luminanza (Y) e scegliendo una sola delle differenze (wd) da collocare alternativamente sulle componenti di crominanza (U, V).
- 8. Metodo come una qualsiasi delle rivendicazioni da 1 a 4, comprendente il passo di sostituire i pixel di detta almeno una mappa di profondità o disparità (DM1, DM2) appartenenti a un gruppo di pixel contigui (a,b,c,d) con loro somme e differenze (w0, w1, w2, w3), collocando le somme nella componente di luminanza (Y), la prima delle due differenze in una componente di crominanza (U) e la seconda nell’altra componente di crominanza (V).
- 9. Metodo come una qualsiasi delle rivendicazioni precedenti, comprendente il passo di sottoporre la detta almeno una mappa di profondità o disparità (DM1, DM2) a una trasformazione di dominio prima di inserire detti insiemi di pixel in dette componenti dell’immagine a colori (Y, U, V).
- 10. Metodo per generare un flusso video comprendente una sequenza di immagini a colori, ottenuta utilizzando un metodo secondo una delle rivendicazioni precedenti.
- 11. Metodo per generare un flusso video facente uso del formato di frame-packing tile-format, in cui nella parte di frame libera da pixel di immagini relative alle due viste stereoscopiche si inserisce un’immagine a colori come in una qualsiasi delle rivendicazioni da 1 a 9.
- 12. Apparato comprendente mezzi di elaborazione delle immagini atti a generare un flusso video comprendente una sequenza di immagini a colori, ottenuta utilizzando un metodo secondo una delle rivendicazioni precedenti.
- 13. Metodo per la ricostruzione di almeno una mappa di profondità o disparità (DM1, DM2) a partire da una immagine a colori composta da una pluralità di componenti (Y, U, V), in cui vengono inseriti in detta almeno una mappa di profondità o disparità un primo insieme di pixel prelevati dalla componente di luminanza (Y), un secondo insieme di pixel prelevati da una delle componenti di crominanza (U) e un terzo insieme di pixel prelevati dall’altra componente di crominanza (V) di detta immagine a colori (Y, U, V).
- 14. Metodo come nella rivendicazione 13, in cui ricopiando detti primo, secondo e terzo insieme di pixel si ottengono tutti i pixel di detta almeno una mappa di profondità o disparità .
- 15. Metodo come nella rivendicazione 13 o 14, in cui ricopiando detti primo, secondo e terzo insieme di pixel si ottengono alcuni pixel di detta almeno una mappa di profondità o disparità , e i pixel mancanti vengono ottenuti mediante operazioni di interpolazione dai pixel ricopiati.
- 16. Metodo come una qualsiasi delle rivendicazioni da 13 a 15, in cui ricopiando detti primo, secondo e terzo insieme di pixel si ottengono due mappe di profondità o disparità (DM1, DM2) aventi le stesse dimensioni (WxH) di detta immagine a colori (Y,U,V).
- 17. Metodo come una qualsiasi delle rivendicazioni da 13 a 16, in cui i pixel di detti secondo e terzo insieme vengono ricavati effettuando una somma o una differenza dei valori dei pixel selezionati da un gruppo di pixel rispetto a un valore di riferimento predetto o interpolato, detto valore di riferimento interpolato essendo ricavato da valori di pixel appartenenti a detto primo insieme.
- 18. Metodo come una qualsiasi delle rivendicazioni da 13 a 17, comprendente il passo di utilizzare i valori w0, w1, wd prelevati dal detto primo, secondo e terzo insieme di pixel dell’immagine a colori, al fine di ricostruire i valori (a,b,c,d) da copiare in almeno una mappa di profondità o disparità (DM1, DM2).
- 19. Metodo come una qualsiasi delle rivendicazioni da 13 a 17, comprendente il passo di utilizzare i valori w0, w1, w2, w3 prelevati dal detto primo, secondo e terzo insieme di pixel dell’immagine a colori, al fine di ricostruire i valori (a,b,c,d) da copiare in almeno una mappa di profondità o disparità (DM1, DM2).
- 20. Metodo come una qualsiasi delle rivendicazioni da 13 a 18, in cui dopo aver ricopiato detti insiemi di pixel di dette componenti (Y, U, V) dell’immagine a colori viene effettuata una trasformazione di dominio inversa rispetto a quella effettuata in fase di generazione per ottenere detta almeno una mappa di profondità (DM1,DM2).
- 21. Metodo per la ricostruzione di un flusso video facente uso del formato di frame-packing tileformat, comprendente passi per la ricostruzione di almeno una mappa di profondità o disparità (DM1, DM2), a partire da una immagine a colori presente nella parte di frame libera da pixel di immagini relative alle due viste stereoscopiche, secondo una qualsiasi delle rivendicazioni da 13 a 20.
- 22. Apparato per la ricostruzione di almeno una mappa di profondità o disparità (DM1, DM2) a partire da una immagine a colori composta dalle componenti Y, U, V, comprendente mezzi per la realizzazione del metodo secondo una qualsiasi delle rivendicazioni da 13 a 21.
Priority Applications (12)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT000503A ITTO20130503A1 (it) | 2013-06-18 | 2013-06-18 | Metodo e dispositivo per la generazione, memorizzazione, trasmissione, ricezione e riproduzione di mappe di profondita¿ sfruttando le componenti di colore di un¿immagine facente parte di un flusso video tridimensionale |
GB1409710.9A GB2517038B (en) | 2013-06-18 | 2014-06-02 | Method and device for generating, storing, transmitting, receiving and reproducing depth maps by using the color components of an image |
JP2014116669A JP6644979B2 (ja) | 2013-06-18 | 2014-06-05 | 3次元ビデオストリームに属する画像のカラーコンポーネントを用いることにより、深度マップを生成、格納、送信、受信および再生する方法およびデバイス |
FR1455374A FR3007234B1 (fr) | 2013-06-18 | 2014-06-13 | Procede et dispositif pour generer, stocker, transmettre, recevoir et reproduire des cartes de profondeur en utilisant des composants couleur d'une image appartenant a un flux video tridimensionnel |
US14/304,404 US10038890B2 (en) | 2013-06-18 | 2014-06-13 | Method and device for generating, storing, transmitting, receiving and reproducing depth maps by using the color components of an image belonging to a three-dimensional video stream |
KR1020140073525A KR20140147043A (ko) | 2013-06-18 | 2014-06-17 | 3차원 비디오 스트림에 속하는 이미지의 색 성분들을 이용한 깊이 맵들을 생성, 저장, 전송, 수신 및 재생하기 위한 방법 및 디바이스 |
TW103120907A TW201503663A (zh) | 2013-06-18 | 2014-06-17 | 利用屬於三維視訊串流之影像之色彩分量來產生、儲存、傳輸、接收及重製深度圖的方法及裝置 |
ES201430919A ES2550128B1 (es) | 2013-06-18 | 2014-06-17 | Procedimiento para generar una imagen de color compuesta por una pluralidad de componentes partiendo de por lo menos un mapa de profundidad o disparidad y aparato correspondiente |
DE102014211612.0A DE102014211612A1 (de) | 2013-06-18 | 2014-06-17 | Methode und Vorrichtung zur Erzeugung, Speicherung, Übertragung, zum Empfang und zur Wiedergabe von Tiefenkarten unter Nutzung der Farbkomponenten eines Bildes, das Teil eines dreidimensionalen Videostroms ist |
CN201410272949.7A CN104243966B (zh) | 2013-06-18 | 2014-06-18 | 用于生成、存储、传送、接收和再现深度图的方法和设备 |
FR1550556A FR3017021B1 (fr) | 2013-06-18 | 2015-01-23 | Procede et dispositif pour generer, stocker, transmettre, recevoir et reproduire des cartes de profondeur en utilisant des composants couleur d'une image appartenant a un flux video tridimensionnel |
HK15105168.8A HK1204737A1 (en) | 2013-06-18 | 2015-05-29 | Method and device for generating, storing, transmitting, receiving and reproducing depth maps |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT000503A ITTO20130503A1 (it) | 2013-06-18 | 2013-06-18 | Metodo e dispositivo per la generazione, memorizzazione, trasmissione, ricezione e riproduzione di mappe di profondita¿ sfruttando le componenti di colore di un¿immagine facente parte di un flusso video tridimensionale |
Publications (1)
Publication Number | Publication Date |
---|---|
ITTO20130503A1 true ITTO20130503A1 (it) | 2014-12-19 |
Family
ID=49035854
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
IT000503A ITTO20130503A1 (it) | 2013-06-18 | 2013-06-18 | Metodo e dispositivo per la generazione, memorizzazione, trasmissione, ricezione e riproduzione di mappe di profondita¿ sfruttando le componenti di colore di un¿immagine facente parte di un flusso video tridimensionale |
Country Status (11)
Country | Link |
---|---|
US (1) | US10038890B2 (it) |
JP (1) | JP6644979B2 (it) |
KR (1) | KR20140147043A (it) |
CN (1) | CN104243966B (it) |
DE (1) | DE102014211612A1 (it) |
ES (1) | ES2550128B1 (it) |
FR (2) | FR3007234B1 (it) |
GB (1) | GB2517038B (it) |
HK (1) | HK1204737A1 (it) |
IT (1) | ITTO20130503A1 (it) |
TW (1) | TW201503663A (it) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9253482B2 (en) * | 2011-11-08 | 2016-02-02 | Texas Insturments Incorporated | Method and apparatus for sample adaptive offset without sign coding |
TWI630815B (zh) * | 2012-06-14 | 2018-07-21 | 杜比實驗室特許公司 | 用於立體及自動立體顯示器之深度圖傳遞格式 |
US9355468B2 (en) * | 2013-09-27 | 2016-05-31 | Nvidia Corporation | System, method, and computer program product for joint color and depth encoding |
US9398312B2 (en) * | 2013-11-04 | 2016-07-19 | Samsung Display Co., Ltd. | Adaptive inter-channel transform for wavelet color image compression |
CN104851109B (zh) * | 2015-06-10 | 2018-08-17 | 宁波盈芯信息科技有限公司 | 一种从三维深度感知设备输出高灰阶深度图像的方法 |
AU2016292954A1 (en) * | 2015-07-15 | 2017-08-17 | Blinxel Pty Ltd | "system and method for image processing" |
CN105069751B (zh) * | 2015-07-17 | 2017-12-22 | 江西欧酷智能科技有限公司 | 一种深度图像缺失数据的插值方法 |
TWI673684B (zh) * | 2018-04-12 | 2019-10-01 | 國立成功大學 | 應用於彩色景深圖框包裝及解包裝之選擇景深值指定為rgb次像素與rgb次像素還原選擇景深值的方法及電路 |
CN113678450B (zh) * | 2019-03-12 | 2024-09-13 | 弗劳恩霍夫应用研究促进协会 | 用于图像和视频编码的选择性分量间变换(ict) |
CN110111254B (zh) * | 2019-04-24 | 2023-03-24 | 天津大学 | 一种基于多级递归引导和渐进监督的深度图超分辨率方法 |
US11202254B1 (en) * | 2020-07-31 | 2021-12-14 | At&T Intellectual Property I, L.P. | Methods, systems, and devices for simulating voice and data traffic in a mobile network |
CN114157850A (zh) * | 2021-11-26 | 2022-03-08 | 珠海视熙科技有限公司 | 一种数据传输方法、装置及计算机可读存储介质 |
EP4254959A1 (en) * | 2022-03-30 | 2023-10-04 | Holo-Light GmbH | Computer-implemented method for generating augmented image data, computer-implemented streaming method, image streaming system, and augmented image data stream |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004227231A (ja) * | 2003-01-22 | 2004-08-12 | Nippon Telegr & Teleph Corp <Ntt> | 画像データへの立体情報埋め込み方法、装置、プログラム、および記録媒体 |
EP1705929A1 (en) * | 2003-12-25 | 2006-09-27 | Brother Kogyo Kabushiki Kaisha | Image display device and signal processing device |
US20090015662A1 (en) * | 2007-07-13 | 2009-01-15 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding and decoding stereoscopic image format including both information of base view image and information of additional view image |
US20120008672A1 (en) * | 2010-07-07 | 2012-01-12 | Gaddy William L | System and method for transmission, processing, and rendering of stereoscopic and multi-view images |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4151149B2 (ja) * | 1999-03-12 | 2008-09-17 | 富士ゼロックス株式会社 | 画像形成装置 |
CN101610421B (zh) * | 2008-06-17 | 2011-12-21 | 华为终端有限公司 | 视频通讯方法、装置及系统 |
US8537200B2 (en) * | 2009-10-23 | 2013-09-17 | Qualcomm Incorporated | Depth map generation techniques for conversion of 2D video data to 3D video data |
JP5338630B2 (ja) * | 2009-11-18 | 2013-11-13 | セイコーエプソン株式会社 | 画像処理方法およびプログラム、画像処理装置 |
IT1397591B1 (it) | 2009-12-21 | 2013-01-16 | Sisvel Technology Srl | Metodo per la generazione, trasmissione e ricezione di immagini stereoscopiche e relativi dispositivi. |
WO2012070500A1 (ja) * | 2010-11-22 | 2012-05-31 | ソニー株式会社 | 符号化装置および符号化方法、並びに、復号装置および復号方法 |
KR101233398B1 (ko) * | 2010-12-10 | 2013-02-15 | 광주과학기술원 | 깊이 지도 생성 방법 및 장치 |
US8902982B2 (en) * | 2011-01-17 | 2014-12-02 | Samsung Electronics Co., Ltd. | Depth map coding and decoding apparatus and method |
JP2012186781A (ja) * | 2011-02-18 | 2012-09-27 | Sony Corp | 画像処理装置および画像処理方法 |
JP6094863B2 (ja) * | 2011-07-01 | 2017-03-15 | パナソニックIpマネジメント株式会社 | 画像処理装置、画像処理方法、プログラム、集積回路 |
EP2761534B1 (en) * | 2011-09-28 | 2020-11-18 | FotoNation Limited | Systems for encoding light field image files |
CN102438167B (zh) * | 2011-10-21 | 2014-03-12 | 宁波大学 | 一种基于深度图像绘制的立体视频编码方法 |
TWI630815B (zh) * | 2012-06-14 | 2018-07-21 | 杜比實驗室特許公司 | 用於立體及自動立體顯示器之深度圖傳遞格式 |
WO2014025294A1 (en) * | 2012-08-08 | 2014-02-13 | Telefonaktiebolaget L M Ericsson (Publ) | Processing of texture and depth images |
-
2013
- 2013-06-18 IT IT000503A patent/ITTO20130503A1/it unknown
-
2014
- 2014-06-02 GB GB1409710.9A patent/GB2517038B/en not_active Expired - Fee Related
- 2014-06-05 JP JP2014116669A patent/JP6644979B2/ja active Active
- 2014-06-13 US US14/304,404 patent/US10038890B2/en active Active
- 2014-06-13 FR FR1455374A patent/FR3007234B1/fr not_active Expired - Fee Related
- 2014-06-17 DE DE102014211612.0A patent/DE102014211612A1/de not_active Withdrawn
- 2014-06-17 KR KR1020140073525A patent/KR20140147043A/ko not_active Application Discontinuation
- 2014-06-17 ES ES201430919A patent/ES2550128B1/es not_active Expired - Fee Related
- 2014-06-17 TW TW103120907A patent/TW201503663A/zh unknown
- 2014-06-18 CN CN201410272949.7A patent/CN104243966B/zh not_active Expired - Fee Related
-
2015
- 2015-01-23 FR FR1550556A patent/FR3017021B1/fr not_active Expired - Fee Related
- 2015-05-29 HK HK15105168.8A patent/HK1204737A1/xx unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004227231A (ja) * | 2003-01-22 | 2004-08-12 | Nippon Telegr & Teleph Corp <Ntt> | 画像データへの立体情報埋め込み方法、装置、プログラム、および記録媒体 |
EP1705929A1 (en) * | 2003-12-25 | 2006-09-27 | Brother Kogyo Kabushiki Kaisha | Image display device and signal processing device |
US20090015662A1 (en) * | 2007-07-13 | 2009-01-15 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding and decoding stereoscopic image format including both information of base view image and information of additional view image |
US20120008672A1 (en) * | 2010-07-07 | 2012-01-12 | Gaddy William L | System and method for transmission, processing, and rendering of stereoscopic and multi-view images |
Also Published As
Publication number | Publication date |
---|---|
GB201409710D0 (en) | 2014-07-16 |
US10038890B2 (en) | 2018-07-31 |
ES2550128A2 (es) | 2015-11-04 |
JP2015005978A (ja) | 2015-01-08 |
US20140368610A1 (en) | 2014-12-18 |
DE102014211612A1 (de) | 2014-12-18 |
JP6644979B2 (ja) | 2020-02-12 |
FR3017021B1 (fr) | 2018-02-09 |
CN104243966B (zh) | 2019-10-18 |
HK1204737A1 (en) | 2015-11-27 |
CN104243966A (zh) | 2014-12-24 |
FR3017021A1 (fr) | 2015-07-31 |
ES2550128R1 (es) | 2015-11-27 |
FR3007234B1 (fr) | 2017-11-24 |
GB2517038B (en) | 2017-11-29 |
KR20140147043A (ko) | 2014-12-29 |
ES2550128B1 (es) | 2016-09-09 |
FR3007234A1 (fr) | 2014-12-19 |
TW201503663A (zh) | 2015-01-16 |
GB2517038A (en) | 2015-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ITTO20130503A1 (it) | Metodo e dispositivo per la generazione, memorizzazione, trasmissione, ricezione e riproduzione di mappe di profondita¿ sfruttando le componenti di colore di un¿immagine facente parte di un flusso video tridimensionale | |
US8780256B2 (en) | Stereoscopic image format with depth information | |
KR101354387B1 (ko) | 2d 비디오 데이터의 3d 비디오 데이터로의 컨버전을 위한 깊이 맵 생성 기술들 | |
KR101676059B1 (ko) | 비디오 코딩을 위한 프레임 패킹 | |
EP2163103B1 (en) | Method and system for encoding a 3d video signal, enclosed 3d video signal, method and system for decoder for a 3d video signal | |
EP2393301A1 (en) | Method and apparatus for generating header information of stereoscopic image | |
US20090015662A1 (en) | Method and apparatus for encoding and decoding stereoscopic image format including both information of base view image and information of additional view image | |
ITTO20100652A1 (it) | Metodo per combinare immagini riferentesi ad un contenuto tridimensionale | |
EP3092804A2 (en) | Methods for full parallax compressed light field 3d imaging systems | |
JP2010503310A (ja) | 符号化されたステレオスコピック映像データのファイルフォーマット | |
WO2011163603A1 (en) | Multi-resolution, multi-window disparity estimation in 3d video processing | |
KR102024982B1 (ko) | 톤 맵핑 및 상이한 컬러 전역을 이용하는 비디오 시퀀스의 확장 가능 코딩 | |
US20170310994A1 (en) | 3d video coding method and device | |
ITTO20091016A1 (it) | Metodo per la generazione, trasmissione e ricezione di immagini stereoscopiche e relativi dispositivi | |
KR20100068360A (ko) | 스테레오스코픽 영상 비트스트림 생성 방법 및 장치 | |
CN106105218B (zh) | 在3维视频编码中处理相机参数的方法 | |
ITTO20120413A1 (it) | Metodo per la generazione e ricostruzione di un flusso video tridimensionale, basato sull'utilizzo della mappa delle occlusioni, e corrispondente dispositivo di generazione e ricostruzione. | |
ITTO20121073A1 (it) | Apparato e metodo per la generazione e la ricostruzione di un flusso video | |
US9980013B2 (en) | Method and apparatus for transmitting and receiving broadcast signal for 3D broadcasting service | |
CH706886A2 (it) | Metodo per la generazione, trasmissione e ricezione di immagini stereoscopiche e relativi dispositivi. | |
KR100704938B1 (ko) | 스테레오스코픽 영상의 부호화/복호화 방법 및 장치 | |
WO2008023917A1 (en) | Method and apparatus for encoding/decoding stereoscopic images/videos | |
CN106068649A (zh) | 3d视频编码/解码方法和设备 | |
KR20080114450A (ko) | 블록 인터리브드 방식의 양안 영상 정보를 포함하는 양안식영상 비트스트림 생성 방법 및 장치 | |
KR20170115751A (ko) | 다시점 영상 다중화 장치 및 방법 |