ITTO20110124A1 - Metodo per la generazione, trasmissione e ricezione di immagini stereoscopiche e relativi dispositivi. - Google Patents

Metodo per la generazione, trasmissione e ricezione di immagini stereoscopiche e relativi dispositivi. Download PDF

Info

Publication number
ITTO20110124A1
ITTO20110124A1 IT000124A ITTO20110124A ITTO20110124A1 IT TO20110124 A1 ITTO20110124 A1 IT TO20110124A1 IT 000124 A IT000124 A IT 000124A IT TO20110124 A ITTO20110124 A IT TO20110124A IT TO20110124 A1 ITTO20110124 A1 IT TO20110124A1
Authority
IT
Italy
Prior art keywords
image
regions
pixels
composite image
derived
Prior art date
Application number
IT000124A
Other languages
English (en)
Inventor
Giovanni Ballocca
Amato Paolo D
Original Assignee
Sisvel Technology Srl
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to ITTO2011A000124A priority Critical patent/IT1404059B1/it
Application filed by Sisvel Technology Srl filed Critical Sisvel Technology Srl
Priority to CN201280008890.XA priority patent/CN103416068B/zh
Priority to PCT/IB2012/050634 priority patent/WO2012110935A1/en
Priority to JP2013553063A priority patent/JP6019520B2/ja
Priority to EP12712735.5A priority patent/EP2676448B1/en
Priority to ES12712735.5T priority patent/ES2690492T3/es
Priority to US13/984,983 priority patent/US9158961B2/en
Priority to KR1020137024351A priority patent/KR20140021563A/ko
Priority to BR112013020585A priority patent/BR112013020585A2/pt
Priority to TW101104782A priority patent/TWI540879B/zh
Publication of ITTO20110124A1 publication Critical patent/ITTO20110124A1/it
Application granted granted Critical
Publication of IT1404059B1 publication Critical patent/IT1404059B1/it

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/88Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving rearrangement of data among different coding units, e.g. shuffling, interleaving, scrambling or permutation of pixel data or permutation of transform coefficient data among different blocks

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

“METODO PER LA GENERAZIONE, TRASMISSIONE E RICEZIONE DI IMMAGINI STEREOSCOPICHE E RELATIVI DISPOSITIVIâ€
DESCRIZIONE
[CAMPO DELL’INVENZIONE]
La presente invenzione si riferisce al settore multimediale ed in particolare ad un metodo ed un relativo dispositivo per la generazione, trasmissione e ricezione di flussi video stereoscopici, ossia flussi video che, elaborati in modo opportuno in un dispositivo di visualizzazione, producono sequenze di immagini che vengono percepite come tridimensionali da un osservatore.
Più in particolare l’invenzione si riferisce a un metodo per la generazione di flussi video stereoscopici secondo il preambolo della rivendicazione 1.
[ARTE NOTA]
Come noto, la percezione della tridimensionalità può essere ottenuta riproducendo due immagini destinate rispettivamente all’occhio destro e all’occhio sinistro dell’osservatore.
Un flusso video stereoscopico trasporta quindi le informazioni di due sequenze di immagini corrispondenti alle prospettive destra e sinistra di un oggetto o una scena, nel seguito chiamate rispettivamente immagine destra e immagine sinistra.
Al fine di limitare la banda occupata da un flusso video stereoscopico, à ̈ noto multiplexare le immagini destra e sinistra all’interno di un’immagine composita che costituisce un fotogramma del flusso video stereoscopico.
Sono inoltre noti metodi di multiplexing che consistono nel dividere le immagini destra e sinistra in regioni più piccole che vengono poi inserite nell’immagine composita.
Ad esempio, la domanda di brevetto WO2008/153863 rende noto un metodo che prevede di effettuare uno scaling al 70% dell’immagine destra e sinistra; successivamente le immagini scalate vengono divise in blocchi di 8x8 pixel.
I blocchi di ciascuna delle immagini scalate possono essere compattati in un’area pari a circa metà dell’immagine composita.
Un altro metodo descritto nella domanda di brevetto WO2008/153863 prevede di applicare uno scaling diagonale ad ogni immagine destra e sinistra, cosicché l’immagine originale à ̈ deformata in un parallelogramma. Successivamente i due parallelogrammi vengono scomposti in regioni triangolari e si compone un’immagine composita rettangolare in cui vengono riorganizzate e disposte le regioni triangolari ottenute dalla scomposizione dei due parallelogrammi. Le regioni triangolari dell’immagine destra e di quella sinistra vengono organizzate in modo tale da essere separate da una diagonale dell’immagine composita.
Successivamente alla fase di multiplexing, il flusso video stereoscopico viene compresso secondo algoritmi di compressione ben noti al tecnico del settore, quali ad esempio quelli utilizzati negli standard MPEG-2 o H.264.
Tali algoritmi di compressione dividono l’immagine composita in blocchi di pixel di dimensioni predefinite, in seguito tali blocchi sono chiamati macroblocchi.
I macroblocchi subiscono una serie di elaborazioni volte a ridurre il bit rate del flusso video, quali, ad esempio, la trasformata coseno discreto (DCT, Discrete Cosine Transform) per sfruttare la correlazione spaziale, la codifica delle differenze fra quadri adiacenti e la compensazione del movimento per sfruttare la correlazione temporale, i codici a lunghezza variabile (VLC) per ridurre la ridondanza statistica, la quantizzazione dei coefficienti DCT per eliminare l’informazione meno rilevante.
Nel caso dello standard H.264 i blocchi sono quadrati e hanno dimensioni pari a 16 x 16 pixel; altri standard, invece, prevedono macroblocchi di differenti dimensioni, ad esempio di 8 x 8 pixel nel caso dello standard MPEG-2 e JPEG.
Diverse analisi sperimentali condotte dalla richiedente hanno dimostrato che gli algoritmi di compressione che sfruttano la scomposizione in macroblocchi, quando applicati a immagini composite generate con i metodi della domanda di brevetto WO2008/153863, possono produrre immagini compresse con artefatti visibili, in particolare nei punti in cui l’immagine composita presenta forti discontinuità.
Questo problema à ̈ ancora più sentito quando le regioni in cui sono scomposte le immagini destra e sinistra diventano sempre più piccole; tale condizione, infatti, comporta la generazione di rilevanti discontinuità lungo i bordi delle regioni.
Di conseguenza il metodo di multiplexing della domanda di brevetto WO2008/153863 può produrre evidenti artefatti di compressione.
[OBIETTIVI E SINTESI DELLA INVENZIONE]
Scopo della presente invenzione à ̈ quindi quello di presentare un metodo per la generazione di un flusso video stereoscopico che risolva alcuni dei problemi dell’arte nota.
In particolare, Ã ̈ scopo della presente invenzione quello di presentare un metodo per la generazione di un flusso video stereoscopico che sia particolarmente adatto ad una successiva compressione, ossia tale da dar luogo ad un ridotto numero di artefatti di compressione.
Inoltre, Ã ̈ scopo della presente invenzione quello di presentare un metodo per la generazione di un flusso video stereoscopico che non richieda ingenti risorse computazionali.
Questi ed altri scopi della presente invenzione sono raggiunti mediante un metodo ed un sistema per la generazione di un flusso video stereoscopico incorporanti le caratteristiche delle rivendicazioni allegate, le quali formano parte integrante della presente descrizione.
L’idea generale alla base della presente invenzione consiste in un metodo per generare un’immagine composita comprendente una coppia di immagini destra e sinistra di un flusso video stereoscopico.
Il metodo prevede di definire una griglia di macroblocchi dell’immagine composita, in cui ogni macroblocco della griglia comprende una pluralità di pixel adiacenti. Un’immagine della coppia di immagini destra e sinistra viene scomposta in una pluralità di regioni, chiamate regioni componenti, che comprendono una pluralità di pixel contigui. Queste regioni componenti sono quindi processate in modo tale da generare altre corrispondenti regioni, chiamate regioni derivate, che comprendono almeno tutti i pixel di una corrispondente regione componente e che sono scomponibili in un numero intero di macroblocchi. Successivamente, l’immagine non scomposta e le regioni derivate sono inserite nell’immagine composita in modo tale che tutti i loro bordi coincidano con bordi di macroblocchi della griglia precedentemente definita.
Il metodo genera un flusso video stereoscopico poco soggetto ad artefatti di compressione e necessita di un basso costo computazionale.
Secondo un aspetto dell’invenzione, le immagini destra e sinistra sono inserite nel fotogramma contenitore senza operazioni di scaling, ossia inserendo nel fotogramma contenitore tutti i pixel delle immagini destinate alla visualizzazione.
Vantaggiosamente una tra l’immagine destra e l’immagine sinistra viene scomposta nel numero minimo possibile di regioni tenuto conto dello spazio disponibile nell’immagine composita e dello spazio occupato dall’altra immagine lasciata inalterata.
Ciò permette di utilizzare risorse computazionali limitate con conseguente vantaggio in termini di costi dei dispositivi che implementano il metodo della presente invenzione.
Vantaggiosamente i macroblocchi hanno dimensioni pari a 16x16 pixel. Questa soluzione si adatta particolarmente all’utilizzo del principale algoritmo di compressione attualmente adottato per la TV ad Alta Definizione (standard H.264).
L’invenzione à ̈ altresì diretta ad un sistema che permette di implementare il suddetto metodo di generazione di un’immagine composita.
In particolare, secondo l’invenzione un tale sistema può comprendere:
un modulo di scomposizione per scomporre un’immagine di detta coppia di immagini destra e sinistra in una pluralità di regioni componenti comprendenti una pluralità di pixel contigui,
un modulo di elaborazione per processare dette regioni componenti in modo tale da generare corrispondenti regioni derivate,
un modulo di generazione dell’immagine composita, in cui detto modulo di generazione à ̈ atto a definire una griglia di macroblocchi dell’immagine composita, a disporre l’immagine non scomposta di detta coppia e detta pluralità di regioni derivate in un’immagine composita in modo tale che tutti i bordi dell’immagine non scomposta e delle regioni derivate coincidano con bordi di macroblocchi di detta griglia.
Secondo un ulteriore aspetto, l’invenzione à ̈ altresì diretta ad un metodo ed un sistema per ricostruire una coppia di immagini a partire da un’immagine composita (in particolare un’immagine composita generata secondo un metodo e/o mediante un sistema del tipo sopra descritto, basato sulla definizione di una griglia di macroblocchi.
In una forma di realizzazione, tale metodo per ricostruire una coppia di immagini prevede di generare una prima immagine della coppia copiando un unico gruppo di macroblocchi contigui dell’immagine composita. L’altra immagine viene invece generata secondo un processo in cui si estraggono una pluralità di regioni derivate dell’immagine composita, ciascuna regione di derivata avendo bordi corrispondenti a bordi di macroblocchi di detta griglia. Le regioni derivate vengono elaborate (copiate e/o trasformate, ad es. mediante rotazioni) in modo da generare corrispondenti regioni componenti, in cui tutti i pixel di una regione componente corrispondono a pixel di una regione derivata. L’immagine viene quindi generata unendo le regioni componenti.
Secondo un altro aspetto, l’invenzione à ̈ diretta ad un sistema per ricostruire una coppia di immagini destra e sinistra a partire da un’immagine composita che ha subito un processo di compressione e decompressione basato sulla definizione di una griglia di macroblocchi. Il sistema comprende:
un primo modulo di estrazione per generare una prima immagine di detta coppia di immagini destra e sinistra copiando un unico gruppo di pixel contigui da una regione di detta immagine composita;
un secondo modulo di estrazione atto ad estrarre una pluralità di regioni derivate dalla immagine composita decompressa, in cui ciascuna regione derivata ha bordi corrispondenti a bordi di macroblocchi della griglia e comprende una pluralità di pixel non compresi in detto unico gruppo di pixel;
un modulo di elaborazione operativamente connesso a detto modulo di estrazione per processare dette regioni derivate in modo da generare corrispondenti regioni componenti;
un secondo modulo di ricomposizione, operativamente connesso a detto modulo di elaborazione, atto ad unire dette regioni componenti per generare un’immagine di detta coppia di immagini destra e sinistra.
Altri scopi e vantaggi della presente invenzione saranno più chiari dalla descrizione dettagliata contenuta nel seguito.
[BREVE DESCRIZIONE DEI DISEGNI]
Alcuni esempi di realizzazione preferiti e vantaggiosi della presente invenzione vengono descritti a titolo esemplificativo e non limitativo, con riferimento alle figure allegate, in cui:
- La figura 1 mostra uno schema a blocchi di un sistema per generare un flusso video stereoscopico.
- La figura 2 mostra una prima tipologia di immagine composita.
- La figura 3 mostra una seconda tipologia di immagine composita.
- La figura 4 Ã ̈ un diagramma di flusso di un metodo eseguito dal dispositivo di figura 1.
- La figura 5 mostra una prima forma di scomposizione di un’immagine da inserire in un’immagine composita.
- La figura 6 mostra una prima fase di costruzione di un’immagine composita del tipo di figura 2 secondo una prima forma di realizzazione della presente invenzione.
- La figura 7 mostra l’immagine composita di figura 6 completa.
- La figura 8 mostra una seconda forma di scomposizione di un’immagine da inserire in un’immagine composita.
- La figura 9 mostra una prima fase di costruzione di un’immagine composita del tipo di figura 3 secondo una seconda forma di realizzazione della presente invenzione.
- La figura 10 mostra l’immagine composita di figura 9 completata.
- La figura 11 mostra una terza forma di scomposizione di un’immagine da inserire in un’immagine composita.
- La figura 12 mostra un’immagine composita nella quale sono inserite le regioni presenti nella figura 11.
- Le figure 13a, 13b e 13c mostrano un’ulteriore forma di realizzazione diversi elementi e passi per la generazione di un’immagine composita.
- Le figure 14a e 14b mostrano un’ulteriore forma di realizzazione di un’immagine composita.
- Le figure 15a e 15b mostrano un’ulteriore forma di realizzazione di un’immagine composita.
- La figura 16 mostra uno schema a blocchi di un ricevitore per ricevere un’immagine composita generata secondo il metodo della presente invenzione.
- La figura 17 à ̈ un diagramma di flusso di un metodo di ricostruzione delle immagini destra e sinistra multiplexate in un’immagine composita secondo il metodo del diagramma di figura 4.
Nelle figure che mostrano frame contenenti macroblocchi, per motivi di chiarezza e leggibilità, sono disegnati un numero di macroblocchi inferiore a quello effettivo.
Le figure sopracitate illustrano differenti aspetti e forme di realizzazione della presente invenzione; dove appropriato, strutture, componenti, materiali e/o elementi simili, sono indicati da uguali o simili riferimenti in differenti figure.
[DESCRIZIONE DETTAGLIATA DELL’INVENZIONE]
In figura 1 viene mostrato lo schema a blocchi di un sistema 1 per generare un flusso video stereoscopico compresso 107, comprendente un dispositivo impacchettatore 100 collegato ad un modulo di compressione 106. In una forma di realizzazione alternativa il modulo di compressione 106 ed il dispositivo impacchettatore 100 possono essere contenuti nello stesso apparato.
Il dispositivo impacchettatore 100 riceve in ingresso due sequenze d’immagini 102 e 103, ad esempio due flussi video, destinate rispettivamente all’occhio sinistro (L) ed all’occhio destro (R).
L’impacchettatore 100 permette di realizzare un metodo per generare un flusso video stereoscopico che comprende il multiplexing di due immagini delle due sequenze 102 e 103.
Al fine di eseguire il metodo di multiplexing delle immagini destra e sinistra, l’impacchettatore 100 comprende un modulo di scomposizione 104 per scomporre un’immagine ricevuta in ingresso (nell’esempio di figura 1 l’immagine destra, R) in una pluralità di sottoimmagini corrispondenti ognuna ad una regione dell’immagine ricevuta in ingresso. Nell’esempio di realizzazione di figura 1, l’immagine destra R viene scomposta in tre sottoimmagini (R1, R2, R3), ovvero nel numero minimo possibile di sottoimmagini rettangolari. Il modulo d’assemblaggio 105 riceve in ingresso l’immagine non scomposta e le sottoimmagini R1, R2 ed R3 generate in uscita dal modulo di scomposizione 104 ed eventualmente elaborate dal modulo 108, come verrà spiegato in seguito.
Il modulo d’assemblaggio 105 costruisce quindi un fotogramma contenitore inserendo l’immagine L e le sottoimmagini R1, R2 ed R3 ricevute in ingresso in un’unica immagine composita C che viene fornita in uscita dall’impacchettatore 100.
La sequenza di immagini composite C in uscita dall’impacchettatore 100 costituisce un flusso video stereoscopico non compresso 101.
Il modulo di compressione 106 riceve in ingresso il flusso video stereoscopico 101 e lo comprime. Il modulo di compressione 106 genera quindi un flusso video stereoscopico compresso 107 con un bit rate minore del flusso video stereoscopico non compresso 101.
Il modulo di compressione riceve in ingresso il flusso video 101 e lo elabora secondo algoritmi di compressione di per sé noti, quali ad esempio gli algoritmi di compressione previsti dagli standard MPEG (MPEG 2, MPEG 4 AVC ovvero H.264).
Gli algoritmi utilizzati dal modulo di compressione 106 agiscono scomponendo l’immagine da comprimere secondo una griglia regolare di macroblocchi, ossia di blocchi di pixel contigui di dimensioni predeterminate, ad es. 16x16 o 8x8. Successivamente, i singoli macroblocchi vengono processati secondo tecniche note, che qui non descriviamo.
La figura 2 mostra un primo esempio di immagine composita 200 del flusso video 101, in cui detta immagine composita ha dimensioni 1920 X 1088 pixel ed à ̈ pertanto scomponibile in un numero intero di macroblocchi quadrati di dimensioni 16 X 16 pixel. Nell’esempio di figura 2, ai soli fini di miglior chiarezza, sono stati raffigurati un numero di macroblocchi 201 molto inferiore a quello reale. Lo stesso à ̈ stato fatto per tutte le altre figure contenenti macroblocchi.
I macroblocchi 201 non si sovrappongono tra loro e ricoprono tutti i pixel dell’immagine composita 200, in modo da formare una griglia regolare.
Nel caso in cui l’immagine composita C ricevuta dal modulo di compressione 106 non ha le dimensioni adatte ad essere divisa in un numero intero di macroblocchi di uguali dimensioni, il modulo di compressione 106 aggiunge dei pixel all’immagine composita ricevuta al fine di poterla scomporre in un numero intero di macroblocchi tutti di uguali dimensioni. I pixel aggiunti possono avere valori arbitrari di crominanza e luminanza.
Ad esempio, la figura 3 mostra un’immagine composita 300 di dimensioni 1920 x 1080 pixel, cioà ̈ un fotogramma di un flusso video di tipo 1080p (formato progressivo 1920 x 1080 pixel), i cui macroblocchi dell’ultima fila hanno dimensione verticale dimezzata rispetto a tutti gli altri macroblocchi. Il modulo di compressione 106, una volta ricevuta l’immagine composita 300, rileva che essa non à ̈ completamente divisibile per un numero intero di macroblocchi non sovrapposti, in particolare lungo la dimensione verticale.
Di conseguenza il modulo di compressione 106 aggiunge otto righe (303) di 1920 pixel al di sotto del bordo inferiore dell’immagine composita 300, in modo da ottenere una nuova immagine composita 302, chiamata immagine composita modificata, di dimensione 1920 X 1088 pixel, che risulta correttamente divisibile in 8160 (ottomilacentosessanta) macroblocchi 301 di dimensioni 16 X 16. In un esempio pratico di realizzazione avviene che tutti i pixel delle otto righe 303 aggiunte hanno valori di crominanza e luminanza tali da essere percepiti come verdi. Infine, il modulo di compressione 106 applica gli algoritmi di compressione all’immagine composita modificata 302.
Operando nel modo sopradescritto si ottengono nell’ultima parte in basso dell’immagine 302 dei macroblocchi che presentano al loro interno una notevole discontinuità (la transizione fra le ultime otto righe dell’immagine originaria 300 e le otto righe aggiunte 303). Questo può dar luogo, nella successiva fase di compressione, ad artefatti che si manifestano nell’immagine composita decompressa nel ricevitore e quindi anche nelle immagini L ed R ricostruite nel ricevitore stesso (che chiameremo Lout ed Rout). Tali artefatti però risultano poco visibili se si presentano in corrispondenza dei bordi delle immagini Lout ed Rout, mentre se, a causa del processo di ricomposizione dell’immagine suddivisa in regioni R, gli artefatti capitano all’interno dell’immagine ricomposta Rout, essi possono risultare molto visibili.
Un esempio di un metodo di multiplexing eseguito dall’impacchettatore 100 viene ora descritto con riferimento alle figure 4 e 5.
Il metodo inizia al passo 400; successivamente (passo 401) viene definito il fotogramma contenitore C e la relativa griglia di macroblocchi.
In una forma di realizzazione, mostrata con riferimento all’esempio di figura 6, l’immagine sinistra L viene inserita nel fotogramma contenitore C posizionandola in alto a sinistra. Ciò à ̈ ottenuto copiando i 1280x720 pixel dell’immagine L in un’area C1 costituita dai primi 1280 pixel delle prime 720 righe del fotogramma contenitore C.
Nel prosieguo della presente descrizione, quando si fa riferimento all’inserimento di un’immagine all’interno di un fotogramma, o al trasferimento o copiatura di pixel da un fotogramma ad un altro, s’intende fare riferimento ad una procedura per cui si genera (con mezzi hardware e/o software) un nuovo fotogramma comprendente dei pixel uguali a quelli dell’immagine sorgente.
Ai fini della presente descrizione le tecniche (software e/o hardware) per riprodurre in un’immagine destinazione un’immagine sorgente (o un gruppo di pixel di un’immagine sorgente) sono ritenute irrilevanti e non vengono qui approfondite in quanto di per sé note ad un tecnico del settore.
L’altra immagine 501 tra le due in ingresso (destra o sinistra) viene scomposta (passo 402) in una pluralità di regioni, come mostrato in figura 5. Nell’esempio di figura 5 l’immagine scomposta 501 à ̈ un fotogramma R di un flusso video 720p, ossia formato progressivo con risoluzione 1280 x 720 pixel.
L’immagine 501 proviene dal flusso video 103 che trasporta le immagini destinate all’occhio destro e viene scomposta in tre regioni rettangolari R1’, R2’ ed R3’, in modo che ognuna di queste regioni contenga un multiplo intero di macroblocchi, ad esempio di dimensioni 16 X 16 pixel, non sovrapposti. Si indicano con R1’, R2’, R3’ e C’ rispettivamente le regioni R1, R2, R3 e il fotogramma C che si ottengono nella particolare forma di realizzazione che di seguito viene descritta.
La scomposizione dell’immagine 501 avviene dividendola prima in due porzioni di uguali dimensioni e successivamente dividendo una di queste due porzioni in altre due porzioni.
La regione R1’ ha dimensione 640x720 ed à ̈ ottenuta prendendo tutti i primi 640 pixel di ogni riga.
La regione R2’ ha dimensione 640x368 ed à ̈ ottenuta prendendo i pixel da 641 a 1280 delle prime 368 righe.
La regione R3’ ha dimensione 640x352 ed à ̈ ottenuta prendendo i rimanenti pixel dell’immagine R, ossia i pixel da 641 a 1280 delle ultime 352 righe.
L’operazione di scomposizione viene eseguita dal modulo 104, il quale genera in uscita le sottoimmagini R1’, R2’ ed R3’.
Successivamente, il modulo d’assemblaggio 105 costruisce l’immagine composita C comprendente le informazioni delle due immagini destra e sinistra ricevute in ingresso; nell’esempio qui di seguito descritto tale immagine composita C costituisce un fotogramma del flusso video stereoscopico in uscita, e pertanto viene detta fotogramma contenitore C’.
In questo esempio di realizzazione, il fotogramma contenitore C’ à ̈ del tipo descritto precedentemente con riferimento alla figura 2, cioà ̈ à ̈ una immagine 1920x1088 pixel completamente scomponibile mediante una griglia regolare in un numero intero di macroblocchi di dimensione 16 X 16.
Più in generale le regioni R1, R2 ed R3, chiamate regioni componenti, possono essere processate (passo 403) in modo da generare corrispondenti regioni derivate che comprendono almeno tutti i pixel della corrispondente regione componente. Questa operazione viene effettuata dal modulo 108 tratteggiato in figura 1. Nella forma di realizzazione descritta precedentemente con riferimento alle figure 5 e 7, il processamento delle regioni R1’, R2’ ed R3’ non avviene. Conseguentemente il passo 403 manca, in quanto le regioni componenti (R1, R2, R3) e quelle derivate (R1der, R2der, R3der) sono identiche. Inoltre in questa forma di realizzazione il modulo di elaborazione 108 di figura 1 svolge la semplice azione di trasferire al modulo di assemblaggio 105 le regioni componenti generate dal modulo di scomposizione 104.
Per non affollare troppo le figure e il testo nella trattazione degli esempi di realizzazione della presente invenzione, le regioni derivate, quando sono coincidenti con quelle componenti, vengono anche indicate semplicemente con Ri, Ri’, Ri’’, Ri’’’ ed Ri’’’’ invece che con Rider, Ri’der, Ri’’der, Ri’’’der ed Ri’’’’der, ove l’indice i può assumere valori compresi tra 1 e 4. Inoltre si utilizzerà un riferimento privo di apici (R1, R2, R3, R4, C) ogni qualvolta ci si riferisce a una generica regione componente e fotogramma o immagine composita, indipendentemente dalla particolare forma di realizzazione dell’invenzione.
In forme di realizzazione alternative, le operazioni che portano alla formazione di una o più regioni derivate possono essere rotazioni, inversioni, aggiunta di pixel, ecc., effettuate dal modulo di elaborazione 108 interposto tra il modulo di scomposizione 104 e il modulo di assemblaggio 105.
Tornando all’esempio di figura 7, l’assemblaggio del fotogramma contenitore avviene, innanzi tutto, inserendo senza alterazioni l’immagine sinistra non scomposta all’interno del fotogramma contenitore C’ (passo 404). In particolare, l’immagine sinistra L viene inserita nel fotogramma contenitore in modo tale che tutti i suoi bordi coincidano con i bordi dei macroblocchi del fotogramma contenitore C’.
La regione R1’ viene copiata negli ultimi 640 pixel delle prime 720 righe (area C2’), affiancata cioà ̈ all’immagine L precedentemente copiata.
Le regioni R2’ e R3’ vengono copiate al di sotto dell’area C1’, rispettivamente nelle aree C3’ e C4’ comprendenti rispettivamente i primi 640 pixel delle ultime 368 righe ed i successivi 640 pixel delle righe da 721 a 1072.
Si noti che, se le regioni R2’ e R3’ fossero di uguali dimensioni (cioà ̈ entrambe 640 x 360), l’ultima fila in basso di macroblocchi conterrebbe tutti macroblocchi con una discontinuità all’interno, in quanto essi sarebbero composti di otto righe appartenenti alle regioni R2’ e R3’ e, in basso, di otto righe aggiunte, contenenti tipicamente pixel tutti uguali. Dall’esame delle figure 5 e 7, si può evincere che una tale soluzione con regioni R2 ed R3 di uguali dimensioni farebbe si che i pixel suscettibili di artefatti si troverebbero non solo sul bordo inferiore destro di R (quelli di R3), ma anche al centro di R stesso (quelli appartenenti al bordo inferiore di R2’).
I fotogrammi contenitori C generati dall’impacchettatore vengono quindi passati al modulo compressore 106 che, passo 405, li comprime generando così un flusso video stereoscopico compresso 107. Il metodo quindi termina al passo 406 con la trasmissione o memorizzazione del flusso video stereoscopico compresso.
In alternativa a quanto mostrato in figura 5, le regioni R2’ ed R3’ possono essere copiate nel fotogramma contenitore C’ in aree disgiunte (ossia non sovrapposte e non confinanti) separate da un gruppo di pixel, senza per questo limitare l’efficacia della presente invenzione.
L’esempio di multiplexing precedentemente descritto non può essere utilizzato se i codificatori H.264 hanno all’ingresso un’interfaccia HD-SDI (High Definition - Serial Digital Interface), in grado di convogliare un flusso video con formato a 1080 righe e non a 1088 righe. Si descrivono pertanto altri possibili metodi di multiplexing, utilizzanti lo stesso concetto inventivo, che sono compatibili con tale interfaccia.
In una forma di realizzazione alternativa a quella di figura 5, l’immagine destra può essere scomposta in un numero di regioni rettangolari che non à ̈ quello minimo possibile. Una soluzione di questo tipo à ̈ riportata in figura 8, dove l’immagine 801 (proveniente dal flusso video 103) viene scomposta in quattro regioni rettangolari R1’’, R2’’, R3’’ e R4’’, in modo che ognuna di queste regioni contenga un numero intero di macroblocchi 16x16.
In una forma di realizzazione, la scomposizione dell’immagine 801 avviene dividendola in due porzioni di uguali dimensioni e successivamente dividendo nuovamente una di queste due porzioni in tre porzioni identiche.
La regione R1’’ ha dimensione 640x720 ed à ̈ ottenuta prendendo tutti i primi 640 pixel di ogni riga.
La regione R2’’ ha dimensione 640x240 ed à ̈ ottenuta prendendo i pixel da 641 a 1280 delle prime 240 righe.
La regione R3’’ ha dimensione 640x240 ed à ̈ ottenuta prendendo i pixel da 641 a 1280 delle righe da 241 a 480.
Infine, la regione R4’’ ha dimensione 640x240 ed à ̈ ottenuta prendendo i rimanenti pixel dell’immagine 801, ossia i pixel da 641 a 1280 delle righe da 481 a 720.
Nell’esempio descritto qui di seguito con riferimento alle figure 9 e 10, l’immagine 801 viene inserita in un fotogramma contenitore C’’ del tipo descritto precedentemente con riferimento all’immagine 300 di figura 3, cioà ̈ à ̈ un’immagine non completamente scomponibile in un numero intero di macroblocchi non sovrapposti di dimensione 16 X 16. In particolare il fotogramma contenitore C’’ ha dimensioni 1920x1080 pixel.
Così come per l’esempio di figura 4, il metodo di multiplexing prevede di definire una griglia di macroblocchi di dimensioni 16 x 16 in cui scomporre il fotogramma contenitore C’’ in fase di compressione.
La griglia viene definita partendo dal primo pixel in alto a sinistra. Ne consegue che il fotogramma contenitore C’’ contiene macroblocchi non interi in corrispondenza del bordo inferiore. Questo gruppo di macroblocchi ha, infatti, dimensione verticale dimezzata rispetto a quella dei restanti macroblocchi.
Nell’esempio di figura 9, l’immagine sinistra L viene inserita senza alterazioni nel fotogramma contenitore C’’ posizionandola in alto a sinistra, in modo tale che tutti i suoi bordi coincidano con i bordi dei macroblocchi del fotogramma contenitore C’’. Ciò à ̈ ottenuto copiando i 1280x720 pixel dell’immagine L in un’area C1’’ costituita dai primi 1280 pixel delle prime 720 righe del fotogramma contenitore C’’.
Successivamente, l’immagine 801 scomposta dal modulo 104 viene inserita nel fotogramma contenitore C’’. Ciò viene ottenuto dal modulo 105 copiando i pixel dell’immagine scomposta all’interno del fotogramma contenitore C’’ in aree non occupate dall’immagine L, ossia esterne all’area C1’’.
Le quattro sottoimmagini corrispondenti alle regioni R1’’, R2’’, R3’’ e R4’’ in cui à ̈ scomposta l’immagine destra 801 sono inserite nel fotogramma contenitore C’’ in maniera tale da non sovrapporsi e in modo che i loro bordi coincidano con i bordi dei macroblocchi del fotogramma contenitore C’’.
Anche in questo esempio, le regioni R1’’, R2’’, R3’’ e R4’’ vengono copiate in rispettive aree del fotogramma C’’ senza alcuna alterazione e le regioni copiate pertanto coincidono con le regioni componenti.
Un esempio del fotogramma contenitore C’’ in uscita dal modulo 105 à ̈ mostrato schematicamente in figura 10.
La regione R1’’ viene copiata negli ultimi 640 pixel delle prime 720 righe (area C2’’), affiancata cioà ̈ all’immagine L precedentemente copiata.
Le regioni R2’’, R3’’ vengono copiate al di sotto dell’area C1’’, rispettivamente nelle aree C3’’ e C4’’ comprendenti rispettivamente i primi 640 pixel delle righe da 721 a 960 ed i successivi 640 pixel delle righe da 721 a 960. La regione R4’’ à ̈ copiata nell’area C5’’ al di sotto dell’area C2’’, corrispondente agli ultimi 640 pixel delle righe da 721 a 960. Le ultime 120 righe sono quindi libere.
Così come indicato in figura 4, il fotogramma contenitore C’’ generato dall’impacchettatore 100 viene elaborato in un flusso video stereoscopico compresso tramite il modulo di compressione 106.
Prima dell’applicazione degli algoritmi di compressione, il modulo di compressione 106 aggiunge 8 righe di 1920 pixel in fondo al fotogramma contenitore C’’, ottenendo così un fotogramma contenitore modificato scomponibile in una griglia regolare di macroblocchi.
La scomposizione dell’immagine 801 in quattro regioni e la loro successiva disposizione all’interno del fotogramma C’’ fanno sì che l’ultima fila in basso di macroblocchi del fotogramma contenitore modificato non contenga informazione utile. Pertanto, la discontinuità potenzialmente generata dalle otto righe aggiunte dal modulo di compressione 106 non produce artefatti sull’immagine ricomposta.
In alternativa a quanto mostrato in figura 10, le regioni R2’’, R3’’ e R4’’ possono essere copiate nel fotogramma contenitore C’’ in aree disgiunte dalle regioni L e R1’’, ossia non sovrapposte e non confinanti con dette regioni.
In particolare, le regioni R2’’, R3’’ e R4’’ possono essere allineate e disgiunte sia dalle regioni L e R1’’ che dal bordo inferiore del fotogramma contenitore C’’. In alternativa, le regioni R2’’, R3’’ e R4’’ possono essere disposte in posizioni non allineate tra loro, bensì a diverse altezze.
Per quanto efficace e conveniente in alcune situazioni, il metodo di multiplexing precedentemente descritto presenta l’inconveniente di suddividere l’immagine R in quattro regioni rettangolari, e cioà ̈ una in più del numero minimo necessario, viste le dimensioni del fotogramma contenitore e delle immagini R ed L.
Un ulteriore esempio di realizzazione di un metodo di multiplexing secondo la presente invenzione viene ora descritto con riferimento alle figure 11 e 12.
Un’immagine 901 presa dalla sequenza 103 di un flusso video 720p viene scomposta in tre regioni rettangolari R1’’’, R2’’’, R3’’’. In particolare, la scomposizione dell’immagine 901 avviene dividendola in due porzioni di uguali dimensioni e successivamente dividendo nuovamente una di queste due porzioni in due porzioni identiche.
La regione R1’’’ ha dimensione 640x720 ed à ̈ ottenuta prendendo tutti i primi 640 pixel di ogni riga.
La regione R2’’’ ha dimensione 640x360 ed à ̈ ottenuta prendendo i pixel da 641 a 1280 delle prime 360 righe.
La regione R3’’’ ha dimensione 640x360 ed à ̈ ottenuta prendendo i pixel da 641 a 1280 delle righe da 361 a 720.
Come per gli esempi sopra descritti, l’operazione di scomposizione dell’immagine destra viene eseguita dal modulo 104 che, in questo caso di specie, fornisce in uscita tre sottoimmagini corrispondenti alle tre regioni R1’’’, R2’’’, R3’’’.
Successivamente viene costruita un’immagine composita C’’’, o fotogramma contenitore C’’’, comprendente le informazioni delle due immagini destra e sinistra ricevute in ingresso.
In questo esempio, il fotogramma contenitore C’’’ à ̈ un’immagine composita del tipo descritto precedentemente con riferimento all’immagine 300 di figura 3, in particolare di dimensioni 1920x1080 pixel.
L’immagine sinistra L viene inserita senza alterazioni nel fotogramma contenitore C’’’ posizionandola in alto a sinistra, come descritto con riferimento agli esempi di figura 7 e 10.
Successivamente, l’immagine 901 scomposta dal modulo 104 viene inserita nel fotogramma contenitore C’’’ nelle aree non occupate dall’immagine L.
Un esempio del fotogramma contenitore C’’’ in uscita dal modulo 105 à ̈ mostrato in figura 12.
La regione R1’’’ viene copiata negli ultimi 640 pixel delle prime 720 righe, affiancata cioà ̈ all’immagine L precedentemente copiata.
Le regioni R2’’’ e R3’’’ vengono copiate al di sotto dell’area occupata dal fotogramma sinistro L, in aree comprendenti rispettivamente i primi 640 pixel delle righe da 721 a 1080 ed i successivi 640 pixel delle righe da 721 a 1080.
Il fotogramma contenitore C’’’ viene quindi passato al modulo di compressione 106 che aggiunge otto righe 1200 di 1920 pixel in fondo al fotogramma contenitore stesso in modo da ottenere un fotogramma modificato 1201 di dimensioni 1920x1088 perfettamente divisibile in un numero intero di macroblocchi 16x16 non sovrapposti.
Al fine di evitare distorsioni in fase di decompressione, una regione cuscinetto Rc2 viene inserita al di sotto della regione R2’’’, ossia nei primi 640 pixel delle ultime otto righe (quelle aggiunte) del fotogramma modificato 1201.
In un particolare esempio di realizzazione riportato nelle figure 13a, 13b e 13c, la regione cuscinetto Rc2 à ̈ una copia delle prime otto righe della regione R3’’’. Tramite questa elaborazione effettuata dal modulo 108, la regione R2’’’ viene quindi trasformata una regione derivata R2’’’der di dimensioni 640x368 pixel. La regione R2’’’der comprende la regione R2’’’ e la regione cuscinetto Rc2 ed à ̈ tale da essere completamente divisibile per un numero intero di macroblocchi, inoltre essa viene posizionata con i bordi coincidenti con i bordi dei macroblocchi della griglia del fotogramma 1201.
Anche la regione R3’’’ à ̈ elaborata aggiungendovi una regione cuscinetto Rc3 di otto righe per ottenere una regione derivata R3’’’der divisibile per un numero intero di macroblocchi.
In una forma di realizzazione, la regione cuscinetto Rc3 ha valori arbitrari di pixel, ad esempio tutti corrispondenti allo stesso colore verde, poiché la discontinuità che viene così a generarsi produce artefatti da compressione che sono riportati al bordo dell’immagine destra ricostruita, quindi poco percepiti dall’utente.
Infine, il flusso video stereoscopico comprendente i fotogrammi contenitori modificati 1201 viene compresso tramite il modulo di compressione 106.
E’ chiaro che l’invenzione non à ̈ limitata agli esempi di realizzazione sopra descritti, la persona esperta del ramo può quindi apportare numerose varianti al metodo sopra descritto; ad esempio nelle figure 14a e 14b viene mostrata una diversa possibile regione cuscinetto Rc2.
Come nell’esempio di figg. 13a-13c, le regioni componenti sono quelle descritte con riferimento alla figura 11. Anche in questo caso, la regione derivata R2’’’der comprende la regione componente R2’’’ e la regione cuscinetto Rc2 in modo tale da avere dimensioni di 640x368 pixel. La regione cuscinetto Rc2 à ̈ aggiunta al bordo inferiore della regione R2’’’ e contiene pixel che corrispondono alle righe da 352 a 359 della regione R2’’’, disposte in ordine inverso, ossia la riga 359 corrisponde alla prima riga della regione cuscinetto Rc2, la riga 358 corrisponde alla seconda riga della regione cuscinetto Rc2 e così via.
Un altro modo di ottenere una regione derivata R2’’’der viene ora descritto con riferimento alle figure 15a e 15b. Anche in questo caso le regioni componenti sono quelle descritte in precedenza con riferimento alla figura 11. La regione R2’’’ viene dapprima invertita rispetto al suo bordo inferiore per ottenere una regione R2’’’inv, al cui bordo inferiore viene aggiunta una regione cuscinetto Rc2 di otto righe di 640 pixel. I valori dei pixel della regione cuscinetto Rc2 à ̈ arbitrario, ad esempio essi sono tutti corrispondenti allo stesso colore verde. In tale maniera si ottiene una regione R2’’’der di dimensioni 640x368 pixel che à ̈ inserita nei primi 640 pixel delle ultime 368 righe del fotogramma contenitore modificato 1201. La discontinuità presente negli ultimi macroblocchi in basso di R2’’’ produce artefatti di compressione che, a causa dell’inversione effettuata, compaiono sul bordo in alto a destra dell’immagine ricostruita R e quindi sono poco percepiti dall’osservatore.
In questo esempio di figura 15a-15b, l’elaborazione effettuata per ottenere dalla regione componente R2’’’ la regione derivata R2’’’der consiste non solo nell’aggiunta della regione cuscinetto, ma anche nella preliminare inversione sopra-sotto di R2’’’.
Riassumendo gli insegnamenti sopra esposti con riferimento al processamento delle immagini componenti, si può quindi dire che l’elaborazione per passare da una regione componente ad una regione derivata può consistere in rotazioni, inversioni sopra-sotto o destra-sinistra della regione componente e/o nell’aggiunta di una regione cuscinetto contenente pixel arbitrari oppure tratti da un’altra regione componente. Questa elaborazione à ̈ finalizzata a ridurre gli artefatti introdotti dal successivo processo di compressione oppure a spostarli ai bordi dell’immagine ricostruita Rout.
In un’ulteriore forma di realizzazione, lo spazio rimasto libero nell’immagine composita può essere utilizzato per inserire una qualsiasi forma di segnalazione necessaria alla ricostruzione delle immagini destra e sinistra a livello di demultiplexer, ad esempio relativa al modo con cui à ̈ stata formata l’immagine composita, oppure per inserire metadati di qualsiasi natura, come una mappa di profondità al fine di fornire al decoder istruzioni sul corretto posizionamento della grafica da esso decoder generata (ad es. sottotitoli).
In questa forma di realizzazione, una regione del fotogramma contenitore non occupata dalle immagini destra o sinistra o da loro parti viene destinata a ricevere la segnalazione. Nel caso di segnalazione di tipo binario, i pixel di questa regione di segnalazione vengono, ad esempio, colorati con due colori caratterizzati da valori molto distanti tra loro (ad esempio bianco e nero) in modo tale da realizzare un codice a barre di qualsiasi tipo, per esempio lineare o bidimensionale, che trasporta l’informazione relativa alla segnalazione.
Preferibilmente, la scomposizione dell’immagine da inserire nel fotogramma contenitore viene effettuata tenendo conto della necessità di scomporre l’immagine (ad esempio R nell’esempio sopra descritto) nel numero minimo di regioni rettangolari.
In figura 16 viene mostrato lo schema a blocchi di un ricevitore 1100 che decomprime un flusso video stereoscopico compresso e ricostruisce le due immagini destra Rout e sinistra Lout rendendole disponibili ad un dispositivo di visualizzazione (ad esempio un televisore, un monitor o un proiettore) che permette la fruizione di contenuti 3D. Il ricevitore 1100 può essere un set-top-box o un ricevitore integrato in un televisore.
Considerazioni analoghe a quelle che verranno ora qui fatte per il ricevitore 1100 si applicano ad un lettore (ad es. un lettore DVD) che legge un flusso video stereoscopico compresso e lo elabora al fine di estrarre le immagini destra e sinistra multiplexate nel fotogramma contenitore.
Tornando ora alla figura 16, il ricevitore riceve (via cavo o antenna) un flusso video stereoscopico compresso 1101, e lo decomprime mediante un modulo di decompressione 1102, ottenendo così un flusso video comprendente una sequenza di fotogrammi contenitore Cout corrispondenti ai fotogrammi C. Nel caso di canale ideale o in caso di lettura senza errori di fotogrammi contenitore da una memoria di massa o da un supporto di dati (Blu-ray, CD, DVD), a parte eventuali artefatti introdotti dalla compressione, i fotogrammi Cout corrispondono ai fotogrammi contenitore C che trasportano le informazioni relative alle due immagini destra e sinistra.
Questi fotogrammi Cout vengono forniti ad un modulo di ricostruzione 1103 che esegue un metodo di ricostruzione delle immagini qui di seguito descritto con riferimento alle figure 16 e 17.
Il modulo di ricostruzione 1103 comprende un modulo di estrazione 1106 per l’immagine scomposta, un modulo di elaborazione 1107, un modulo di ricomposizione 1108 ed un modulo di estrazione 1109 per l’immagine non scomposta.
Il processo di ricostruzione inizia al passo 1300 quando viene ricevuto il fotogramma contenitore Cout decompresso. In questo esempio il fotogramma contenitore à ̈ quello descritto in precedenza con riferimento alla figura 7.
Il modulo di estrazione 1109 estrae (passo 1301) l’immagine sinistra L copiando i primi 1280 x 720 pixel (area C1’)del fotogramma decompresso all’interno di un nuovo fotogramma di dimensioni inferiori rispetto al fotogramma contenitore, ad esempio un fotogramma di un flusso 720p. L’immagine sinistra L così ricostruita Lout viene fornita in uscita al ricevitore 1100 (passo 1302).
Successivamente, il modulo di estrazione 1106 effettua l’estrazione dell’immagine destra R presente all’interno del fotogramma contenitore Cout.
La fase di estrazione dell’immagine destra inizia estraendo (passo 1303) l’area C2’ presente nel fotogramma Cout (contenente R1’). In dettaglio, il modulo di estrazione 1106 estrae i pixel delle colonne da 1281 a 1920 e delle prime 720 righe del fotogramma contenitore e li trasferisce al modulo di ricomposizione 1108. Quest’ultimo inserisce i pixel estratti nei corrispondenti primi 640 X 720 pixel di un nuovo fotogramma che rappresenta l’immagine Rout ricostruita.
Successivamente si estrae l’area C3’ (passo 1304): dal fotogramma Cout decompresso si selezionano i pixel dell’area C3’ (corrispondenti alla regione sorgente R2’). In dettaglio, si prendono i pixel delle colonne da 1 a 640 e delle ultime 368 righe del fotogramma contenitore Cout e li si copia nelle colonne da 641 a 1280 delle prime 368 righe dell’immagine Rout.
Per quanto riguarda R3’ (passo 1305), si selezionano i pixel dell’area C4’. In dettaglio, si prendono i pixel delle colonne da 641 a 1280 delle ultime 352 righe del fotogramma contenitore Cout e li si copia nelle colonne da 641 a 1280 delle ultime 352 righe dell’immagine Rout.
A questo punto l’immagine destra Rout à ̈ stata completamente ricostruita e può essere fornita in uscita (passo 1307) dal modulo di ricomposizione 1108.
Il processo di ricostruzione delle immagini destra e sinistra presenti nel fotogramma contenitore Cout termina (passo 1308).
Tale processo viene ripetuto per ogni fotogramma del flusso video ricevuto dal ricevitore 1100, cosicché in uscita si hanno due flussi video 1104 e 1105 rispettivamente per le due immagini destra e sinistra.
In questo esempio di realizzazione le regioni R1, R2 ed R3 sono estratte dal fotogramma contenitore e inserite nel fotogramma Rout tramite semplici operazioni di copia di pixel.
Più in generale, le regioni estratte dal fotogramma contenitore sono le regioni derivate e quindi devono subire ulteriori elaborazioni tali da generare le corrispondenti regioni componenti, che sono successivamente inserite nel fotogramma Rout.
Queste elaborazioni sono evidentemente contrarie a quelle effettuate lato generazione per ricavare le regioni derivate a partire dalle regioni componenti e possono quindi includere rotazioni, inversioni ed eliminazione di alcuni pixel, come i pixel cuscinetto.
Le operazioni di elaborazione sono eseguite dal modulo di elaborazione 1107 che à ̈ interposto tra il modulo di estrazione 1106 ed il modulo di ricomposizione 1108.
Nell’esempio appena descritto con riferimento alle figure 7 e 16 le regioni estratte coincidono con le regioni componenti e quindi il modulo di elaborazione 1107 svolge la semplice azione di trasferire al modulo 1108 i pixel estratti dal modulo 1106. Lo schema a blocchi di fig. 17 si riferisce sempre a questo caso.
Qualora invece le regioni estratte ai passi 1302, 1303, 1304 fossero le regioni derivate non coincidenti con le regioni componenti, il passo 1306 comprenderebbe le operazioni necessarie per ricavare le regioni componenti dalle regioni derivate. Anche in questo caso, comunque, al passo 1307 verrebbe fornita in uscita l’immagine ricostruita Rout.
Il processo di ricostruzione delle immagini destra e sinistra sopra descritto parte dal presupposto che il demultiplexer 1100 conosca il modo in cui viene costruito il fotogramma contenitore C e possa procedere ad estrarre le immagini destra e sinistra.
Chiaramente ciò à ̈ possibile se il metodo di multiplexing à ̈ standardizzato.
Per tenere conto del fatto che il fotogramma contenitore può essere generato in uno qualsiasi dei metodi sopra descritti, o comunque secondo uno qualsiasi dei metodi che utilizzano l’idea di soluzione oggetto delle rivendicazioni allegate, il demultiplexer può utilizzare l’informazione di segnalazione presente in una regione predefinita dell’immagine composita (ad es. un codice a barre come sopra descritto) per comprendere come spacchettare il contenuto dell’immagine composita e ricostruire le immagini destra e sinistra.
Decodificata la segnalazione, il demultiplexer conosce la posizione dell’immagine lasciata inalterata (ad esempio l’immagine sinistra negli esempi sopra descritti), la posizione e l’eventuale trasformazione (rotazione, inversione o altro) delle regioni in cui à ̈ stata scomposta l’altra immagine (ad esempio l’immagine destra negli esempi sopra descritti).
Con queste informazioni, il demultiplexer può quindi estrarre l’immagine inalterata (ad es. quella sinistra) e ricostruire quella scomposta (ad es. l’immagine destra).
E’ evidente che le informazioni necessarie per l’estrazione dell’immagine inalterata e l’estrazione e ricostruzione di quella scomposta possono essere trasmesse anche sotto forma di metadati non contenuti nel fotogramma composito ma in altre parti del flusso video compresso. Esse possono anche essere automaticamente dedotte nel decoder una volta noto il formato di impacchettamento, per cui può essere sufficiente anche trasmettere solo un identificativo del formato di impacchettamento stesso.
Nonostante la presente invenzione si stata illustrata con riferimento ad alcuni esempi di realizzazione preferiti e vantaggiosi, à ̈ chiaro che essa non à ̈ limitata a tali esempi di realizzazione e molte varianti possono essere apportate dal tecnico del settore che volesse combinare in un’immagine composita due immagini relative a due diverse prospettive (destra e sinistra) di un oggetto o una scena.
Ad esempio i moduli elettronici che realizzano i dispositivi sopra descritti, in particolare il dispositivo 100 ed il ricevitore 1100, possono essere in vario modo scomposti e distribuiti; inoltre essi possono essere realizzati come moduli hardware o essere degli algoritmi software implementati da un processore, in particolare un processore video provvisto di opportune aree di memoria per la memorizzazione temporanea dei fotogrammi ricevuti in ingresso. Questi moduli possono quindi eseguire in parallelo o in serie una o più delle elaborazioni video previste dai metodi di multiplexing e demultiplexing delle immagini secondo la presente invenzione.
E’ poi chiaro che, nonostante gli esempi di realizzazione preferiti si riferiscano al multiplexing di due flussi video 720p in un flusso video 1080p, altri formati possono essere utilizzati.
Infine, à ̈ poi chiaro che l’invenzione si riferisce a qualsiasi metodo di demultiplexing che permetta di estrarre un’immagine destra ed un’immagine sinistra a partire da un’immagine composita invertendo uno dei processi di multiplexing sopra descritti e rientranti nell’ambito di protezione della presente invenzione.

Claims (27)

  1. RIVENDICAZIONI 1. Metodo per generare un’immagine composita di un flusso video stereoscopico comprendente una coppia di immagini destra (R) e sinistra (L) di una scena, dette immagini destra (R) e sinistra (L) essendo tali che, quando osservate rispettivamente da un occhio destro e da uno sinistro di uno spettatore, producano nello spettatore una percezione di tridimensionalità della scena, detto metodo comprendente i passi di: - generare un’immagine composita (C) comprendente tutti i pixel della coppia di immagini destra (R) e sinistra (L), il metodo essendo caratterizzato dal fatto di: - definire (401) una griglia di macroblocchi dell’immagine composita (C), ogni macroblocco di detta griglia comprendendo una pluralità di pixel adiacenti, - scomporre (402) un’immagine di detta coppia di immagini destra e sinistra in una pluralità di regioni componenti (Ri) comprendenti una pluralità di pixel contigui, - elaborare (403) dette regioni componenti (Ri) in modo tale da generare corrispondenti regioni derivate (Rider), dette regioni derivate (Rider) comprendendo almeno tutti i pixel di una corrispondente regione componente ed essendo tali che siano scomponibili in un numero intero di macroblocchi, - disporre (404) l’immagine non scomposta di detta coppia e detta pluralità di regioni derivate (Rider) in detta immagine composita (C) in modo tale che tutti i bordi dell’immagine non scomposta e delle regioni derivate coincidano con bordi di macroblocchi di detta griglia.
  2. 2. Metodo secondo la rivendicazione 1, in cui dette regioni componenti e detta immagine non scomposta sono scomponibili in un numero intero di macroblocchi di detta griglia.
  3. 3. Metodo secondo la rivendicazione 1 o 2, in cui almeno una di dette regioni derivate à ̈ identica ad una di dette regioni componenti.
  4. 4. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui almeno una di dette regioni derivate à ̈ ottenuta mediante rotazione e/o inversione di una corrispondente regione componente.
  5. 5. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui i bordi di almeno una delle regioni derivate che coincidono con bordi dell’immagine composita corrispondono a bordi dell’immagine scomposta.
  6. 6. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui almeno una regione derivata di detta pluralità di regioni derivate à ̈ ottenuta aggiungendo una pluralità di pixel ad una corrispondente regione componente, detta pluralità di pixel essendo una porzione di una diversa regione componente confinante con detta corrispondente regione componente.
  7. 7. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui si seleziona una porzione di una regione componente, si effettua un’inversione della porzione selezionata e si aggiunge la porzione invertita ad un bordo di detta regione componente.
  8. 8. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui si scompone detta immagine scomposta nel numero minimo di regioni rettangolari componenti tenuto conto dello spazio disponibile in detta immagine composita e dello spazio occupato da detta immagine non scomposta.
  9. 9. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui almeno una porzione dello spazio rimasto libero nell’immagine composita à ̈ utilizzato per inserire una segnalazione necessaria alla ricostruzione delle immagini destra e sinistra a livello di demultiplexer.
  10. 10. Metodo secondo una qualsiasi delle rivendicazioni precedenti, comprendente il passo (405) di comprimere detta immagine composita attraverso un processo di compressione che scompone detta immagine composita in macroblocchi come definiti in detta griglia di macroblocchi.
  11. 11. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui dette regioni derivate hanno forma rettangolare.
  12. 12. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui detti macroblocchi hanno forma quadrata, in particolare di dimensione 16x16 pixel.
  13. 13. Metodo per ricostruire una coppia di immagini (Lout, Rout) a partire da un’immagine composita (C) che ha subito un processo di compressione e decompressione basato sulla definizione di una griglia di macroblocchi, comprendente i passi di: - generare (1302) una prima immagine (Lout) di detta coppia di immagini copiando un unico gruppo di pixel contigui dell’immagine composita decompressa. - estrarre (1303, 1304, 1305) una pluralità di regioni derivate (Rider) di detta immagine composita decompressa, ciascuna regione derivata di detta pluralità di regioni derivate avente bordi corrispondenti a bordi di macroblocchi di detta griglia e comprendente una pluralità di pixel non compresi in detto unico gruppo di pixel; - elaborare (1306) detta pluralità di regioni derivate (Rider) in modo da generare corrispondenti regioni componenti (Ri), in cui tutti i pixel di una regione componente corrispondono a pixel di una regione derivata; - generare (1307) una seconda immagine (Rout) di detta coppia di immagini unendo dette regioni componenti.
  14. 14. Metodo secondo la rivendicazione 13, in cui almeno una di dette regioni componenti à ̈ ottenuta mediante rotazione e/o inversione di una corrispondente regione derivata.
  15. 15. Metodo secondo la rivendicazione 13 o 14, in cui detta seconda immagine à ̈ generata elaborando dette regioni derivate in modo tale che i bordi di almeno una delle regioni derivate che coincidono con bordi dell’immagine composita corrispondano a bordi di detta seconda immagine.
  16. 16. Metodo secondo una qualsiasi delle rivendicazioni da 13 a 15, in cui almeno una regione componente à ̈ ottenuta da una corrispondente regione derivata mediante eliminazione di una porzione adiacente al bordo di una corrispondente regione derivata.
  17. 17. Metodo secondo una qualsiasi delle rivendicazioni da 13 a 16, in cui dette regioni derivate e detto unico gruppo di pixel sono estratti sulla base di un’informazione posta in un’area di detta immagine composita decompressa.
  18. 18. Metodo secondo una qualsiasi delle rivendicazioni da 13 a 17, in cui detta immagine composita compressa à ̈ generata mediante compressione di un’immagine composita generata mediante un metodo secondo una qualsiasi delle rivendicazioni da 1 a 12.
  19. 19. Sistema (100) per generare un’immagine composita di un flusso video stereoscopico comprendente una coppia di immagini destra (R) e sinistra (L) di una scena, dette immagini destra (R) e sinistra (L) essendo tali che, quando osservate rispettivamente da un occhio destro e da uno sinistro di uno spettatore, producano nello spettatore una percezione di tridimensionalità della scena, detto sistema comprendente: - un modulo di scomposizione (104) per scomporre un’immagine di detta coppia di immagini destra e sinistra in una pluralità di regioni componenti (Ri) comprendenti una pluralità di pixel contigui; - un modulo di elaborazione (108) per processare dette regioni componenti in modo tale da generare una pluralità corrispondenti regioni derivate (Rider); - un modulo di generazione dell’immagine composita (105), in cui detto modulo di generazione à ̈ atto a definire una griglia di macroblocchi dell’immagine composita, a disporre l’immagine non scomposta di detta coppia e detta pluralità di regioni derivate in un’immagine composita in modo tale che tutti i bordi dell’immagine non scomposta e delle regioni derivate coincidano con bordi di macroblocchi di detta griglia.
  20. 20. Sistema (100) secondo la rivendicazione 19, comprendente un’unità di compressione operativamente connessa a detto modulo di generazione per comprimere (106) detta immagine composita (C).
  21. 21. Sistema (100) secondo la rivendicazione 19 o 20, comprendente mezzi atti ad implementare un metodo secondo una delle rivendicazioni da 1 a 12.
  22. 22. Sistema (1100) per ricostruire una coppia di immagini destra (Rout) e sinistra (Lout) a partire da un’immagine composita che ha subito un processo di compressione e decompressione basato sulla definizione di una griglia di macroblocchi, comprendente: - un primo modulo di estrazione (1109) per generare una prima immagine di detta coppia di immagini destra (Rout) e sinistra (Lout) copiando un unico gruppo di pixel contigui da una regione dell’immagine composita decompressa, - un secondo modulo di estrazione (1106) operativamente connesso all’uscita di detto modulo di decompressione (1102) ed atto ad estrarre (1303, 1304, 1305) una pluralità di regioni derivate (Rider) dell’immagine composita decompressa, ciascuna regione derivata di detta pluralità di regioni derivate avente bordi corrispondenti a bordi di macroblocchi di detta griglia e comprendente una pluralità di pixel contigui non compresi in detto unico gruppo di pixel; - un modulo di elaborazione (1107) operativamente connesso a detto secondo modulo di estrazione (1106) per processare dette regioni derivate in modo tale da generare corrispondenti regioni componenti (Ri) in cui tutti i pixel di una regione componente corrispondono a pixel di una regione derivata; - un modulo di ricomposizione (1108), operativamente connesso a detto modulo di elaborazione (1107), atto ad unire dette regioni componenti per ricomporre una seconda immagine di detta coppia di immagini destra (Rout) e sinistra (Lout).
  23. 23. Sistema (1100) secondo la rivendicazione 22, comprendente mezzi atti ad implementare un metodo secondo una qualsiasi delle rivendicazioni da 13 a 18.
  24. 24. Sistema (1100) secondo la rivendicazione 23, comprendente un modulo di decompressione (1102) per decomprimere un'immagine composita compressa e fornire detta immagine composita.
  25. 25. Set-top-box comprendente il sistema secondo la rivendicazione 22 o 23 o 24.
  26. 26. Televisore comprendente il sistema secondo la rivendicazione 22 o 23 o 24.
  27. 27. Flusso video stereoscopico (1101) caratterizzato dal fatto di comprendere almeno un’immagine composita (C) generata mediante il metodo secondo una qualsiasi delle rivendicazioni da 1 a 12.
ITTO2011A000124A 2011-02-14 2011-02-14 Metodo per la generazione, trasmissione e ricezione di immagini stereoscopiche e relativi dispositivi. IT1404059B1 (it)

Priority Applications (10)

Application Number Priority Date Filing Date Title
ITTO2011A000124A IT1404059B1 (it) 2011-02-14 2011-02-14 Metodo per la generazione, trasmissione e ricezione di immagini stereoscopiche e relativi dispositivi.
PCT/IB2012/050634 WO2012110935A1 (en) 2011-02-14 2012-02-13 Method for generating, transmitting and receiving stereoscopic images, and related devices
JP2013553063A JP6019520B2 (ja) 2011-02-14 2012-02-13 立体画像を生成、送信、および、受信するための方法、および関連するデバイス
EP12712735.5A EP2676448B1 (en) 2011-02-14 2012-02-13 Method for generating, transmitting and receiving stereoscopic images, and related devices
CN201280008890.XA CN103416068B (zh) 2011-02-14 2012-02-13 用于生成、发送和接收立体图像的方法和相关设备
ES12712735.5T ES2690492T3 (es) 2011-02-14 2012-02-13 Procedimiento para la generación, transmisión y recepción de imágenes estereoscópicas, y dispositivos relacionados
US13/984,983 US9158961B2 (en) 2011-02-14 2012-02-13 Method for generating, transmitting and receiving stereoscopic images, and related devices
KR1020137024351A KR20140021563A (ko) 2011-02-14 2012-02-13 입체 영상을 생성, 전송 및 수신하는 방법 및 장치
BR112013020585A BR112013020585A2 (pt) 2011-02-14 2012-02-13 método para gerar, transmitir e receber imagens estereoscópicas e respectivos dispositivos
TW101104782A TWI540879B (zh) 2011-02-14 2012-02-14 用於產生、傳輸及接收立體影像之方法及其相關裝置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ITTO2011A000124A IT1404059B1 (it) 2011-02-14 2011-02-14 Metodo per la generazione, trasmissione e ricezione di immagini stereoscopiche e relativi dispositivi.

Publications (2)

Publication Number Publication Date
ITTO20110124A1 true ITTO20110124A1 (it) 2012-08-15
IT1404059B1 IT1404059B1 (it) 2013-11-08

Family

ID=43976454

Family Applications (1)

Application Number Title Priority Date Filing Date
ITTO2011A000124A IT1404059B1 (it) 2011-02-14 2011-02-14 Metodo per la generazione, trasmissione e ricezione di immagini stereoscopiche e relativi dispositivi.

Country Status (10)

Country Link
US (1) US9158961B2 (it)
EP (1) EP2676448B1 (it)
JP (1) JP6019520B2 (it)
KR (1) KR20140021563A (it)
CN (1) CN103416068B (it)
BR (1) BR112013020585A2 (it)
ES (1) ES2690492T3 (it)
IT (1) IT1404059B1 (it)
TW (1) TWI540879B (it)
WO (1) WO2012110935A1 (it)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120263390A1 (en) * 2011-04-12 2012-10-18 Jorg-Ulrich Mohnen Decoding a quilted graphic 2d image representation into a digital asset
RU2012138174A (ru) * 2012-09-06 2014-03-27 Сисвел Текнолоджи С.Р.Л. Способ компоновки формата цифрового стереоскопического видеопотока 3dz tile format
TWI502545B (zh) * 2013-06-25 2015-10-01 儲存3d影像內容的方法
CN103595995B (zh) * 2013-11-13 2015-09-09 京东方科技集团股份有限公司 一种快门式三维图像显示的处理方法、装置及系统
GB201706857D0 (en) 2017-04-28 2017-06-14 Select Res Ltd Health risk prediction tools
US11074453B2 (en) * 2018-01-31 2021-07-27 Hewlett Packard Enterprise Development Lp Video active region batching
KR102151213B1 (ko) 2018-12-20 2020-09-02 김원규 교반용 날개 및 이를 포함하는 디스펜서

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050041736A1 (en) * 2003-05-07 2005-02-24 Bernie Butler-Smith Stereoscopic television signal processing method, transmission system and viewer enhancements
US20060015919A1 (en) * 2004-07-13 2006-01-19 Nokia Corporation System and method for transferring video information
US20070002372A1 (en) * 2005-06-29 2007-01-04 Sony Corporation Image processing apparatus, image processing method, image reproduction apparatus, image reproduction method, computer-readable recording medium, image processing program, image reproduction program and image sheet
US20080303895A1 (en) * 2007-06-07 2008-12-11 Real D Stereoplexing for video and film applications

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6188518B1 (en) * 1993-01-22 2001-02-13 Donald Lewis Maunsell Martin Method and apparatus for use in producing three-dimensional imagery
US7190518B1 (en) * 1996-01-22 2007-03-13 3Ality, Inc. Systems for and methods of three dimensional viewing
US6252707B1 (en) * 1996-01-22 2001-06-26 3Ality, Inc. Systems for three-dimensional viewing and projection
JP4560869B2 (ja) * 2000-02-07 2010-10-13 ソニー株式会社 メガネなし表示システムおよびバックライトシステム
KR100389249B1 (ko) * 2000-04-29 2003-06-25 한국과학기술연구원 다시점 영상 표시 시스템
JP4729812B2 (ja) * 2001-06-27 2011-07-20 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
WO2003092305A1 (en) * 2002-04-25 2003-11-06 Sharp Kabushiki Kaisha Image encodder, image decoder, record medium, and image recorder
JP2004207862A (ja) * 2002-12-24 2004-07-22 Nippon Telegr & Teleph Corp <Ntt> 映像符号化装置及び映像復号化装置及びその方法並びにそのプログラム
US6819489B2 (en) * 2003-02-25 2004-11-16 International Business Machines Corporation Method and system for displaying three-dimensional images
JP2011120233A (ja) * 2009-11-09 2011-06-16 Panasonic Corp 3d映像特殊効果装置、3d映像特殊効果方法、および、3d映像特殊効果プログラム
US9445072B2 (en) * 2009-11-11 2016-09-13 Disney Enterprises, Inc. Synthesizing views based on image domain warping
CN102156353B (zh) * 2010-10-15 2012-06-27 深圳超多维光电子有限公司 二维/三维可转换显示装置、显示方法、个人数字助理及电脑

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050041736A1 (en) * 2003-05-07 2005-02-24 Bernie Butler-Smith Stereoscopic television signal processing method, transmission system and viewer enhancements
US20060015919A1 (en) * 2004-07-13 2006-01-19 Nokia Corporation System and method for transferring video information
US20070002372A1 (en) * 2005-06-29 2007-01-04 Sony Corporation Image processing apparatus, image processing method, image reproduction apparatus, image reproduction method, computer-readable recording medium, image processing program, image reproduction program and image sheet
US20080303895A1 (en) * 2007-06-07 2008-12-11 Real D Stereoplexing for video and film applications

Also Published As

Publication number Publication date
KR20140021563A (ko) 2014-02-20
CN103416068A (zh) 2013-11-27
US9158961B2 (en) 2015-10-13
US20130315474A1 (en) 2013-11-28
JP2014511594A (ja) 2014-05-15
ES2690492T3 (es) 2018-11-21
EP2676448B1 (en) 2018-09-05
EP2676448A1 (en) 2013-12-25
TWI540879B (zh) 2016-07-01
IT1404059B1 (it) 2013-11-08
WO2012110935A1 (en) 2012-08-23
BR112013020585A2 (pt) 2017-02-21
CN103416068B (zh) 2016-08-10
JP6019520B2 (ja) 2016-11-02
TW201246911A (en) 2012-11-16

Similar Documents

Publication Publication Date Title
CN103493483B (zh) 译码多视图视频加深度内容
CN101218827B (zh) 对包括图像序列和标识的视频内容进行编码的方法和设备
ITTO20110124A1 (it) Metodo per la generazione, trasmissione e ricezione di immagini stereoscopiche e relativi dispositivi.
ITTO20100652A1 (it) Metodo per combinare immagini riferentesi ad un contenuto tridimensionale
US8300881B2 (en) Method and system for watermarking 3D content
US10038890B2 (en) Method and device for generating, storing, transmitting, receiving and reproducing depth maps by using the color components of an image belonging to a three-dimensional video stream
EP2393301A1 (en) Method and apparatus for generating header information of stereoscopic image
EP2579591A1 (en) Method of and device for encoding an HDR image, method of and device for reconstructing an HDR image and non-transitory storage medium
ITTO20091016A1 (it) Metodo per la generazione, trasmissione e ricezione di immagini stereoscopiche e relativi dispositivi
TWI539790B (zh) 用於產生及重建一視訊串流之裝置、方法與軟體產品
CA2760100A1 (en) Broadcast transmitter, broadcast receiver and 3d video data processing method thereof
CN102439980A (zh) 广播接收机及其3d字幕数据处理方法
ITTO20100549A1 (it) Metodo per la decodifica 2d-compatibile di flussi video stereoscopici
WO2009104850A1 (en) Method for encoding and decoding image, and apparatus for encoding and decoding image
ITTO20100282A1 (it) Metodo per la generazione e ricostruzione di un flusso video stereoscopico compatibile e relativi dispositivi di codifica e decodifica.
CN102271270A (zh) 一种双目立体视频拼接方法及拼接装置
WO2014025294A1 (en) Processing of texture and depth images
WO2012169204A1 (ja) 送信装置、受信装置、送信方法及び受信方法
CH706886A2 (it) Metodo per la generazione, trasmissione e ricezione di immagini stereoscopiche e relativi dispositivi.
Lee et al. A framework of 3D video coding using view synthesis prediction
ITTO20110439A1 (it) Method for generating, transmitting and receiving stereoscopic images, and related devices
US20140376644A1 (en) Frame packing method, apparatus and system using a new 3d coding &#34;frame compatible&#34; format
ITTO20100042A1 (it) Metodo per il trasporto di dati informativi e/o applicativi allâ¬&#34;interno di un flusso video digitale e relativi dispositivi per la generazione e la fruizione di tale flusso video
Assunção et al. 3D Media Representation and Coding
Pujara et al. Real-time stereo video decoding and rendering on multi-core architecture