ITTO20100652A1 - Metodo per combinare immagini riferentesi ad un contenuto tridimensionale - Google Patents

Metodo per combinare immagini riferentesi ad un contenuto tridimensionale Download PDF

Info

Publication number
ITTO20100652A1
ITTO20100652A1 IT000652A ITTO20100652A ITTO20100652A1 IT TO20100652 A1 ITTO20100652 A1 IT TO20100652A1 IT 000652 A IT000652 A IT 000652A IT TO20100652 A ITTO20100652 A IT TO20100652A IT TO20100652 A1 ITTO20100652 A1 IT TO20100652A1
Authority
IT
Italy
Prior art keywords
image
depth map
pixels
frame
dimensional content
Prior art date
Application number
IT000652A
Other languages
English (en)
Inventor
Giovanni Ballocca
Amato Paolo D
Dario Pennisi
Original Assignee
Sisvel Technology Srl
3Dswitch S R L
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to ITTO2010A000652A priority Critical patent/IT1401367B1/it
Application filed by Sisvel Technology Srl, 3Dswitch S R L filed Critical Sisvel Technology Srl
Priority to KR1020137005018A priority patent/KR101840308B1/ko
Priority to US13/812,065 priority patent/US9549163B2/en
Priority to ES11749928.5T priority patent/ES2564937T3/es
Priority to JP2013521277A priority patent/JP2013539256A/ja
Priority to EA201390178A priority patent/EA201390178A1/ru
Priority to CN201180041522.0A priority patent/CN103329543B/zh
Priority to TW100126868A priority patent/TW201223248A/zh
Priority to BR112013001910A priority patent/BR112013001910A2/pt
Priority to EP11749928.5A priority patent/EP2599319B1/en
Priority to HUE11749928A priority patent/HUE027682T2/en
Priority to PCT/IB2011/053361 priority patent/WO2012014171A1/en
Priority to PL11749928T priority patent/PL2599319T3/pl
Publication of ITTO20100652A1 publication Critical patent/ITTO20100652A1/it
Priority to ZA2013/00610A priority patent/ZA201300610B/en
Priority to US13/834,498 priority patent/US9571811B2/en
Application granted granted Critical
Publication of IT1401367B1 publication Critical patent/IT1401367B1/it

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Generation (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

“METODO PER COMBINARE IMMAGINI RIFERENTESI AD UN CONTENUTO TRIDIMENSIONALEâ€
DESCRIZIONE
- CAMPO TECNICO -La presente invenzione si riferisce a metodi e dispositivi per combinare, in un dispositivo di visualizzazione stereoscopica, immagini generate localmente in sovraimpressione ad un contenuto tridimensionale ricevuto dal dispositivo stesso.
- ARTE NOTA -E’ noto che gli apparati televisivi (televisori e decoder) possono generare localmente ed inserire immagini contenenti (testi e grafica) in sovraimpressione sulle immagini ricevute; in questo modo à ̈ possibile fornire all’utilizzatore informazioni utili di vario tipo mentre il video viene riprodotto sullo sfondo.
Queste immagini possono essere generate a partire da informazioni ricevute assieme al segnale video (ad es. Ã ̈ questo il caso dei sottotitoli e di alcune guide elettroniche dei programmi televisivi note come EPG) oppure possono fornire informazioni sulla configurazione e sulle regolazioni del decoder o del televisore (ad es. i menu oppure la barra che indica il valore del volume e di altri parametri).
Al giorno d’oggi il numero di contenuti 3D disponibili al pubblico à ̈ in grande crescita e la possibilità di fruire di questi contenuti non à ̈ più limitata ai cinema e gli utenti possono guardare video 3D anche a casa sul proprio televisore.
Anche per i flussi video 3D si pone quindi l’esigenza di sovraimporre immagini generate localmente sulle immagini televisive ricevute.
A differenza dei video 2D, nel caso di un video 3D la sovraimpressione di immagini à ̈ più complicata, dato che si deve tenere conto della differente disposizione in profondità degli oggetti presenti nelle singole immagini che compongono il flusso video.
La domanda di brevetto EP2157803A1 insegna a posizionare un testo in una posizione tale da risultare sempre davanti all’immagine televisiva. In particolare, se il contenuto 3D à ̈ trasmesso come un’immagine bidimensionale più una matrice di profondità, quest’ultima può essere utilizzata anche per definire la posizione del testo.
Questa soluzione presenta lo svantaggio di utilizzare una mappa di profondità che à ̈ di grandi dimensioni dato che serve a creare la coppia di immagini destra e sinistra (che combinate producono l’effetto 3D) a partire dall’immagine bidimensionale di base. Le dimensioni di questa mappa, oltre a richiedere un notevole sforzo computazionale nel momento in cui la si debba analizzare per definire la posizione del testo, comportano anche una grande occupazione di banda quando la mappa viene trasmessa ad un ricevitore.
- OBIETTIVI E BREVE DESCRIZIONE DELL’INVENZIONE -Scopo della presente invenzione à ̈ di presentare un metodo ed un relativo sistema per combinare immagini ad un contenuto tridimensionale trasportato da un flusso video stereoscopico, che permetta di superare gli inconvenienti dell’arte nota.
In particolare à ̈ scopo della presente invenzione quello di presentare un metodo per sovraimporre immagini ad un contenuto 3D che richieda un minor costo computazionale a livello di dispositivo di riproduzione del contenuto 3D.
E’ anche scopo della presente invenzione quello di presentare un metodo per trasmettere informazioni necessarie a sovraimporre immagini a quelle trasportate da un flusso video stereoscopico, che non richieda elevata occupazione di banda e che sia robusto alle operazioni di codifica e decodifica del flusso video stereoscopico.
Questi ed altri scopi della presente invenzione sono raggiunti mediante un metodo ed un sistema per sovraimporre immagini a quelle trasportate da un flusso video stereoscopico, incorporanti le caratteristiche delle rivendicazioni allegate, le quali formano parte integrante della presente descrizione.
L’idea generale alla base della presente invenzione à ̈ quella di visualizzare un elemento sovraimpresso ad un flusso stereoscopico utilizzando una mappa di profondità per la sovraimpressione, che à ̈ codificata in un’immagine contenuta in un fotogramma di un flusso stereoscopico. La mappa di profondità utilizzata nella presente invenzione non à ̈ finalizzata alla codifica del flusso video stereoscopico, ma ha il solo scopo di fornire informazioni utili al decoder o al televisore per sovraimporre all’immagine stereoscopica, in modo appropriato, immagini generate localmente. A questo scopo, la mappa di profondità ha una risoluzione minore e quindi un numero di pixel minore rispetto a quella della coppia stereoscopica in modo da contenere l’occupazione di banda. Ciò à ̈ possibile perché la mappa non à ̈ utilizzata per la generazione dell’immagine tridimensionale, ma solo per il corretto posizionamento delle sovraimpressioni.
In una forma di realizzazione preferita, il fotogramma trasporta un’immagine composita che comprende un’immagine destra, un’immagine sinistra e la mappa di profondità opportunamente multiplexate.
In una forma di realizzazione, le immagini destra e sinistra sono affiancate in un formato di tipo tradizionale, ad esempio un formato side-by-side, topbottom o checkerboard, mentre la mappa di profondità viene inserita in un’area libera del fotogramma composito e destinata a non essere visualizzata.
In una forma di realizzazione alternativa, il fotogramma composito prevede un’organizzazione delle immagini destra e sinistra di tipo innovativo. In questa forma di realizzazione il fotogramma comprende un numero di pixel superiore alla somma dei pixel del formato originale (ossia prima della codifica) delle due immagini destra e sinistra, che vengono così inserite senza decimazione.
In questa forma di realizzazione, i pixel della prima immagine (ad es. immagine sinistra) vengono inseriti all’interno dell’immagine composita senza alterazione, mentre la seconda immagine viene suddivisa in regioni i cui pixel vengono disposti in aree libere dell’immagine composita.
Questa soluzione offre il vantaggio che una delle due immagini viene lasciata inalterata, con conseguente miglioramento della qualità dell’immagine ricostruita.
Vantaggiosamente, poi, la seconda immagine viene scomposta nel numero minimo possibile di regioni, in modo tale da massimizzare la correlazione spaziale tra pixel e ridurre la generazione di artefatti in fase di compressione.
In una forma di realizzazione vantaggiosa, le regioni della seconda immagine vengono riportate all’interno dell’immagine composita utilizzando solamente delle operazioni di traslazione o rototraslazione, lasciando pertanto inalterato il rapporto tra risoluzione orizzontale e verticale.
In un’ulteriore forma di realizzazione, almeno una delle regioni in cui à ̈ scomposta la seconda immagine subisce un’inversione speculare, ossia viene ribaltata rispetto ad un asse (in particolare un lato) e viene disposta nell’immagine composita in modo tale che uno dei suoi lati confini con un lato dell’altra immagine che presenta sul lato di confine pixel identici o simili a causa della forte correlazione sussistente tra pixel omologhi delle due immagini destra e sinistra, ovvero di pixel delle due immagini posizionati nella stessa riga e colonna.
Questa soluzione offre il vantaggio di ridurre la generazione di artefatti nella zona di confine. In modo ulteriormente vantaggioso, le regioni in cui viene suddivisa la seconda immagine hanno forma rettangolare; rispetto a regioni di tipo triangolare, che vengono disposte con regioni di confine che attraversano l’immagine composita secondo direzioni diagonali, questa scelta permette la riduzione degli artefatti prodotti da una successiva compressione, particolarmente se si tratta di una compressione che agisce su blocchi quadrati di pixel (ad es. 16x16 nel caso dello standard H.264).
Secondo una forma di realizzazione particolarmente vantaggiosa, la formazione di artefatti viene ulteriormente ridotta, fino ad escluderla completamente, introducendo della ridondanza nell’immagine composita, ossia copiando più volte alcuni gruppi di pixel. In particolare, ciò viene ottenuto scomponendo l’immagine di base da inserire nell’immagine composita in regioni di dimensioni tali che il numero di pixel complessivo di queste regioni superi il numero di pixel dell’immagine da scomporre. In altre parole, l’immagine viene scomposta in regioni di cui almeno due comprendono una porzione di immagine in comune. La porzione d’immagine in comune à ̈ un’area di confine tra le regioni che sono adiacenti nell’immagine che viene scomposta. Questa porzione comune ha preferibilmente un’ampiezza che dipende dal tipo di compressione successivamente applicata all’immagine composita e permette di funzionare da area tampone che viene parzialmente o completamente rimossa in fase di ricomposizione dell’immagine scomposta. Poiché la compressione può introdurre degli artefatti nelle aree di confine delle suddette regioni, eliminando le aree tampone, o quantomeno la parte più esterna di queste, si eliminano gli artefatti e si riesce a ricostruire un’immagine fedele a quella originaria.
Ulteriori scopi e vantaggi della presente invenzione appariranno maggiormente chiari dalla descrizione che segue di alcuni esempi di realizzazione forniti a titolo esplicativo e non limitativo.
- BREVE DESCRIZIONE DELLE FIGURE -Tali esempi di realizzazione vengono descritti con riferimento ai disegni allegati, in cui:
La figura 1 mostra uno schema a blocchi di un dispositivo per multiplexare l’immagine destra e l’immagine sinistra in un’immagine composita;
La figura 2 Ã ̈ un diagramma di flusso di un metodo eseguito dal dispositivo di figura 1;
La figura 3 mostra una prima forma di scomposizione di un’immagine da inserire in un’immagine composita.
La figura 4 mostra una prima fase di costruzione di un’immagine composita secondo una forma di realizzazione della presente invenzione.
La figura 5 mostra l’immagine composita di figura 4 completa.
La figura 6 mostra una seconda forma di scomposizione di un’immagine da inserire in un’immagine composita.
La figura 7 mostra un’immagine composita in cui à ̈ inserita l’immagine di figura 6.
La figura 8 mostra una terza forma di scomposizione di un’immagine da inserire in un’immagine composita.
La figura 9 mostra un’immagine composita in cui à ̈ inserita l’immagine di figura 8.
La figura 10 mostra uno schema a blocchi di un ricevitore per ricevere un’immagine composita generata secondo il metodo della presente invenzione.
La figura 11 mostra alcune fasi di ricostruzione dell’immagine scomposta secondo il metodo di figura 8 ed inserita nell’immagine composita ricevuta dal ricevitore di figura 10.
La figura 12 à ̈ un diagramma di flusso di un metodo di ricostruzione delle immagini destra e sinistra multiplexate in un’immagine composita del tipo di figura 9.
La figura 13 mostra un’immagine composita secondo una quarta forma di realizzazione della presente invenzione. Le figure da 14a a 14f mostrano un’immagine destra ed una sinistra in diverse fasi di elaborazione per l’inserimento nell’immagine composita di figura 13.
Dove appropriato, strutture, componenti, materiali e/o elementi simili mostrati in figure differenti sono indicati da identificativi simili.
- DESCRIZIONE DETTAGLIATA DELL’INVENZIONE -In figura 1 viene mostrato lo schema a blocchi di un dispositivo 100 per generare un flusso video stereoscopico 101 con mappa di profondità per la sovraimpressione di immagini su di un contenuto video trasportato dal flusso video.
Ai fini della presente descrizione con contenuto tridimensionale (o 3D) s’intendono un’immagine o un video che vengono percepiti da chi li osserva come aventi una profondità variabile con elementi che possono sporgere rispetto al piano dello schermo sui cui detta immagine o video sono visualizzati o proiettati.
Con l’espressione “sovraimporre due immagini†s’intende ricomprendere qualsiasi forma di combinazione di due immagini, ad esempio in trasparenza, semitrasparenza o opacità completa.
La presente invenzione si applica egualmente su qualsiasi tipo di sovrimpressione, sia essa statica o dinamica, ovvero fissa o variabile nel tempo nelle proprie caratteristiche grafiche, e può essere a sua volta di tipo bi- o tridimensionale.
Con l’espressione profondità di un contenuto tridimensionale s’intende fare riferimento alla dimensione del contenuto tridimensionale lungo un asse ortogonale allo schermo su cui à ̈ visualizzato il contenuto 3D ed entrante nello schermo. Ai fini della presente descrizione, lo schermo corrisponde quindi ad un punto di profondità zero, mentre con il termine punto di “minima profondità†s’intende far riferimento al punto del contenuto 3D che l’utente percepisce come massimamente vicino a sé, ossia più esterno allo schermo. Conseguentemente, il punto di “massima profondità†risulta essere il punto che l’osservatore percepisce come massimamente interno allo schermo, ossia il più lontano da sé, addirittura oltre il piano dello schermo.
In figura 1, il dispositivo 100 riceve in ingresso due sequenze d’immagini 102 e 103, ad esempio due flussi video, destinate rispettivamente all’occhio sinistro (L) ed all’occhio destro (R), ed una sequenza di mappe di profondità 106. Ogni mappa di profondità della sequenza 106 à ̈ associata ad una coppia di immagini destra e sinistra appartenenti rispettivamente alle sequenze 102 e 103. In questa forma di realizzazione, la mappa di profondità viene generata mediante algoritmi di per sé noti che confrontano un’immagine destra ed un’immagine sinistra e restituiscono una matrice (la mappa di profondità appunto) di dimensioni pari ai pixel di una delle due immagini confrontate, ed i cui elementi hanno un valore proporzionale alla profondità di ogni singolo pixel visualizzato. Un’altra tecnica per generare la mappa di profondità si basa sulla misurazione della distanza degli oggetti presenti sulla scena dalla coppia di telecamere che effettuano la ripresa: questa distanza può essere agevolmente misurata mediante laser. In caso di flussi video artificiali generati con l’ausilio di calcolatori elettronici le telecamere sono virtuali in quanto costituiti da due punti di vista di una determinata scena creata artificialmente dal calcolatore. In un’altra forma di realizzazione, una mappa di profondità viene associata a più coppie di immagini destra e sinistra; in questo caso il valore di ogni elemento della mappa di profondità à ̈ scelto essere il valore di minima profondità del pixel nei differenti fotogrammi. Preferibilmente, in questa forma di realizzazione la mappa di profondità viene inserita una volta per ogni gruppo di frame cui à ̈ associata, così da ridurre il carico del dispositivo 100, il quale riceve in ingresso anche un’informazione che permette di associare una mappa di profondità a più coppie di immagini destra e sinistra.
In alternativa all’esempio di figura 1, le mappe di profondità della sequenza 106 possono essere generate internamente al dispositivo 100. In questo caso il dispositivo 100 comprende un modulo apposito che riceve in ingresso le immagini L ed R delle sequenze 102 e 103 e genera corrispondenti mappe di profondità.
Il dispositivo 100 permette di realizzare un metodo di multiplexing di due immagini delle due sequenze 102 e 103 e della mappa di profondità della sequenza 106.
Al fine di eseguire il metodo di multiplexing delle immagini destra e sinistra e della mappa di profondità, il dispositivo 100 comprende un modulo di scomposizione 104 per scomporre un’immagine ricevuta in ingresso (nell’esempio di figura 1 l’immagine destra) in una pluralità di sottoimmagini corrispondenti ognuna ad una regione dell’immagine ricevuta in ingresso, un modulo di sottocampionamento e filtraggio 107 per elaborare la mappa di profondità, ed un modulo di assemblaggio 105 in grado di inserire i pixel d’immagini ricevute in ingresso, compresa la mappa di profondità, in un’unica immagine composita che viene fornita in uscita. Nel caso non sia necessaria alcuna elaborazione della sequenza 106, il modulo 107 può essere omesso. Questo può accadere, ad es. nel caso in cui la mappa di profondità sia generata mediante laser ed abbia già in partenza una risoluzione ridotta rispetto a quella delle immagini L ed R.
Un esempio di un metodo di multiplexing eseguito dal dispositivo 100 viene ora descritto con riferimento alla figura 2.
Il metodo inizia al passo 200, successivamente (passo 201) una delle due immagini (destra o sinistra) in ingresso, viene scomposta in una pluralità di regioni come mostrato in figura 3. Nell’esempio di figura 3 l’immagine scomposta à ̈ un fotogramma R di un flusso video 720p, ossia formato progressivo con risoluzione 1280 x 720 pixel, 25/30 fps (fotogrammi per secondo).
Il fotogramma R di figura 3 proviene dal flusso video 103 che trasporta le immagini destinate all’occhio destro e viene scomposto in tre regioni R1, R2 ed R3.
La scomposizione dell’immagine R avviene dividendola in due porzioni di uguali dimensioni e successivamente dividendo una di queste due porzioni in due porzioni di uguali dimensioni.
La regione R1 ha dimensione 640x720 ed à ̈ ottenuta prendendo tutti i primi 640 pixel di ogni riga. La regione R2 ha dimensione 640x360 ed à ̈ ottenuta prendendo i pixel da 641 a 720 delle prime 360 righe. La regione R3 ha dimensione 640x360 ed à ̈ ottenuta prendendo i rimanenti pixel dell’immagine R, ossia i pixel da 641 a 720 delle ultime 360 righe.
Nell’esempio di figura 1 l’operazione di scomposizione dell’immagine R viene eseguita dal modulo 104, che riceve in ingresso un’immagine R (in questo caso il fotogramma R) e fornisce in uscita tre sottoimmagini (ossia tre gruppi di pixel) corrispondenti alle tre regioni R1, R2 ed R3.
Successivamente (passi 202, 203 e 205) viene costruita l’immagine composita C comprendente le informazioni delle due immagini destra e sinistra e della mappa di profondità ricevute in ingresso; nell’esempio qui di seguito descritto, tale immagine composita C costituisce un fotogramma del flusso video stereoscopico in uscita, e pertanto viene anche detta fotogramma contenitore.
Innanzi tutto (passo 202) l’immagine ricevuta in ingresso dal dispositivo 100 e non scomposta dal dispositivo 105 (nell’esempio di figura 1 l’immagine sinistra L) viene inserita senza alterazioni all’interno di un fotogramma contenitore di dimensioni tale da comprendere tutti i pixel delle due immagini ricevute in ingresso. Ad esempio, se le immagini ricevute in ingresso hanno dimensione 1280x720 pixel, allora un fotogramma contenitore adatto a contenerle entrambe à ̈ un fotogramma con 1920x1080 pixel, ad esempio un fotogramma di un flusso video di tipo 1080p (formato progressivo 1920 x 1080 pixel, 25/30 fotogrammi al secondo).
Nell’esempio di figura 4, l’immagine sinistra L viene inserita nel fotogramma contenitore C posizionandola in alto a sinistra. Ciò à ̈ ottenuto copiando i 1280x720 pixel dell’immagine L in un’area C1 costituita dai primi 1280 pixel delle prime 720 righe del fotogramma contenitore C. Nel prosieguo della presente descrizione, quando si fa riferimento all’inserimento di un’immagine all’interno di un fotogramma, o al trasferimento o copiatura di pixel da un fotogramma ad un altro, s’intende fare riferimento ad una procedura per cui si genera (con mezzi hardware e/o software) un nuovo fotogramma comprendente dei pixel uguali a quelli dell’immagine sorgente.
Ai fini della presente descrizione le tecniche (software e/o hardware) per riprodurre in un’immagine destinazione un’immagine sorgente (o un gruppo di pixel di un’immagine sorgente) sono ritenute irrilevanti e non vengono qui approfondite in quanto di per sé note ad un tecnico del settore.
Successivamente, passo 203, l’immagine scomposta al passo 201 dal modulo 104 viene inserita nel fotogramma contenitore. Ciò viene ottenuto dal modulo 105 copiando i pixel dell’immagine scomposta all’interno del fotogramma contenitore C nelle aree non occupate dall’immagine L, ossia esterne all’area C1.
Al fine di garantire la miglior compressione possibile e ridurre la generazione di artefatti in fase di decompressione del flusso video, i pixel delle sottoimmagini in uscita dal modulo 104 vengono copiati mantenendo le rispettive relazioni spaziali. In altre parole le regioni R1, R2 ed R3 vengono copiate in rispettive aree del fotogramma C senza alcuna deformazione, prevedendo esclusivamente operazioni di traslazione e/o rotazione.
Un esempio del fotogramma contenitore C in uscita dal modulo 105 Ã ̈ mostrato in figura 5.
La regione R1 viene copiata negli ultimi 640 pixel delle prime 720 righe (area C2), affiancata cioà ̈ all’immagine L precedentemente copiata.
Le regioni R2 ed R3 vengono copiate al di sotto dell’area C1, rispettivamente nelle aree C3 e C4 comprendenti rispettivamente i primi 640 pixel ed i successivi 640 pixel delle ultime 360 righe.
In alternativa a quanto mostrato in figura 5, le regioni R2 ed R3 possono essere copiate nel fotogramma contenitore C in aree disgiunte (ossia non sovrapposte e non confinanti) separate da un gruppo di pixel, in modo tale da ridurre le regioni di confine.
Le operazioni d’inserimento delle immagini L ed R nel fotogramma contenitore non comportano alcuna alterazione del bilanciamento tra risoluzione orizzontale e verticale. Nei pixel liberi del fotogramma C, cioà ̈ nell’area C5, à ̈ inserita, sotto forma d’immagine, la mappa di profondità (DM) relativa alla coppia stereoscopica L ed R (passo 205), sempre ad opera del modulo 105. Prima del passo 205, à ̈ possibile che la mappa di profondità DM venga sotto campionata, filtrata o ulteriormente elaborata dal modulo 107.
La mappa di profondità à ̈ preferibilmente codificata come un’immagine in scala di grigi, il cui contenuto informativo può quindi essere trasportato dal solo segnale di luminanza, le crominanze essendo nulle; ciò consente una compressione efficace del fotogramma contenitore C.
Come mostrato nell’esempio di figura 5, preferibilmente la mappa di profondità inserita nel fotogramma C à ̈ una mappa di profondità per la sovraimpressione di immagini, ed ha quindi una risoluzione minore rispetto a quella della coppia L ed R, poiché essa à ̈ utilizzata per posizionare le sovraimpressioni e non per generare il flusso video stereoscopico. La scelta della risoluzione della mappa di profondità à ̈ il risultato del compromesso tra bit rate necessario al trasferimento, che si desidera il più basso possibile, e la qualità dell’informazione necessaria a posizionare adeguatamente le sovraimpressioni.
In una forma di realizzazione preferita la mappa di profondità per la sovraimpressione DM ha una risoluzione pari a 640 x 360 pixel, corrispondente al sottocampionamento (o decimazione) 4 a 1 della mappa di profondità originale avente risoluzione pari a 1280 x 720 pixel, coincidente con quella delle immagini L ed R. Ad ogni pixel della mappa sotto campionata DM corrisponde una regione di 2 x 2 pixel della mappa originale. In particolare l’operazione di sottocampionamento 4 a 1 può essere effettuata selezionando una riga ogni due ed una colonna ogni due della mappa originale.
In un’altra forma di realizzazione, dopo la decimazione la mappa di profondità per la sovraimpressione DM subisce un’elaborazione che consiste nel dividerla in macroblocchi di 16 x 16 pixel ed assegnare ai pixel del medesimo macroblocco un unico valore di profondità. Preferibilmente questo valore à ̈ pari alla minima profondità all’interno del macroblocco, poiché à ̈ il valore più significativo ai fini del corretto posizionamento delle sovraimpressioni.
Alternativamente questo valore à ̈ pari al valor medio di profondità all’interno del macroblocco.
La scelta di utilizzare macroblocchi di dimensione 16 x 16 pixel à ̈ particolarmente vantaggiosa nel caso in cui lo standard di compressione sia H.264, poiché questi macroblocchi coincidono con quelli usati nello standard H.264. Infatti con questa soluzione, la compressione genera meno artefatti e necessita di un bit rate minore.
Anche la suddivisione in blocchi di dimensioni 8 x 8 oppure 4 x 4 può considerarsi vantaggiosa, in quanto, per le particolari caratteristiche dell’algoritmo di compressione H.264, si ottengono vantaggi nella compressione se all’interno di questi blocchi i pixel sono tutti uguali. Alternativamente, rinunciando alla suddivisione in blocchi o macroblocchi al cui interno i pixel sono tutti uguali, si può filtrare la mappa di profondità di dimensioni 640 x 360 con un filtro passa-basso bidimensionale. Anche in questo caso si ottengono vantaggi nella compressione, in quanto vengono eliminate o ridotte le frequenze spaziali più elevate.
Alternativamente la mappa di profondità può avere una risoluzione di 160 x 90 pixel, risultato di un sottocampionamento 64 a 1, in cui ogni pixel della mappa di profondità DM corrisponde ad una regione 8 x 8 della mappa originale.
In un’ulteriore forma di realizzazione, la mappa di profondità per la sovraimpressione DM inserita nel fotogramma contenitore C, può avere una risoluzione non uniforme, in particolare la metà o il terzo inferiore della mappa di profondità per la sovraimpressione ha risoluzione maggiore della parte superiore. Questa soluzione risulta particolarmente vantaggiosa per il posizionamento dei sottotitoli o di informazioni quali il volume dell’audio che vengono generalmente posti nella parte inferiore dell’immagine. Il ricevitore ha quindi a disposizione un’informazione più precisa sulla profondità dei pixel in una regione d’interesse, ad esempio il terzo inferiore dell’immagine 3D, e può così posizionare in modo corretto delle immagini (testo o grafica) in questa regione. Al limite, la mappa di profondità per la sovraimpressione può contenere solo informazioni sulla profondità di pixel (tutti o solo una parte) posti in una regione d’interesse, in particolare nella metà inferiore, o nel terzo inferiore del contenuto tridimensionale.
In un’ulteriore forma di realizzazione, una regione del fotogramma contenitore non occupata dalle immagini destra o sinistra, da loro parti o dalla mappa di profondità per la sovraimpressione, viene destinata a ricevere una segnalazione necessaria alla ricostruzione delle immagini destra e sinistra a livello di demultiplexer. Ad esempio, tale segnalazione può essere relativa al modo con cui à ̈ stata formata l’immagine composita. Preferibilmente la segnalazione può contenere informazioni utili al corretto utilizzo della mappa di profondità.
I pixel di questa regione di segnalazione vengono, ad esempio, colorati con due colori (ad esempio bianco e nero) in modo tale da realizzare un codice a barre di qualsiasi tipo, per esempio lineare o bidimensionale che trasporta l’informazione relativa alla segnalazione.
Completato il trasferimento delle due immagini e della mappa di profondità per la sovraimpressione ricevute in ingresso (ed eventualmente della segnalazione) nel fotogramma contenitore, il metodo realizzato dal dispositivo 100 termina ed il fotogramma contenitore può essere compresso e trasmesso su un canale di comunicazione e/o registrato su un opportuno supporto (ad es. CD, DVD, Blu-ray, memorie di massa, ecc…).
Dato che le operazioni di multiplexing sopra esposte non alterano le relazioni spaziali tra i pixel di una medesima regione o immagine, à ̈ possibile comprimere notevolmente il flusso video in uscita dal dispositivo 100 mantenendo alta la possibilità di ricostruire l’immagine in modo molto fedele rispetto a quella trasmessa senza creare artefatti significativi.
Prima di passare alla descrizione di ulteriori forme di realizzazione, si sottolinea che, nella forma di realizzazione preferita, la divisione del fotogramma R in tre regioni R1, R2 ed R3, corrisponde alla divisione del fotogramma nel numero minimo possibile di regioni tenuto conto dello spazio disponibile nell’immagine composita e dello spazio occupato dall’immagine sinistra inserita senza alterazioni nel fotogramma contenitore.
Tale numero minimo à ̈, in altre parole, il numero minimo di regioni necessario per occupare lo spazio lasciato libero dall’immagine sinistra nel fotogramma contenitore C.
In generale, quindi, in funzione del formato delle immagini sorgenti (immagini destra e sinistra) e dell’immagine composita (fotogramma contenitore C) di destinazione, s’individua il numero minimo di regioni in cui dividere l’immagine da scomporre.
Preferibilmente, la scomposizione dell’immagine da inserire nel fotogramma contenitore viene effettuata tenendo conto della necessità di scomporre l’immagine (ad esempio R nell’esempio sopra descritto) nel numero minimo di regioni rettangolari.
In un’ulteriore forma di realizzazione, l’immagine destra R viene scomposta come mostrato in figura 6.
La regione R1’ corrisponde alla regione R1 di figura 3 e comprende quindi i primi 640 pixel di tutte le 720 righe dell’immagine.
La regione R2’ comprende le 320 colonne di pixel adiacenti alla regione R1’, mentre la regione R3’ comprende le ultime 320 colonne di pixel.
In questo modo il fotogramma contenitore C può essere costruito come mostrato in figura 7, con le regioni R2’ ed R3’ ruotate di 90° per essere disposte nelle aree C3’ e C4’ al di sotto dell’immagine L e della regione R1’.
Le regioni R2’ ed R3’ così ruotate occupano 720 pixel di 320 righe, pertanto le aree C3’ e C4’ sono separate dalle aree C1 e C2 che contengono i pixel copiati dall’immagine L e dalla regione R1’.
Preferibilmente le aree C3’ e C4’ sono separate dalle altre aree C1 e C2 mediante almeno una riga di salvaguardia. In particolare risulta vantaggioso e preferito il copiare i pixel delle regioni R2’ ed R3’ nelle ultime righe del fotogramma contenitore C.
Essendo in questo caso il fotogramma contenitore composto da 1080 righe, nell’esempio di realizzazione di figura 7 le regioni ruotate R2’ e R3’ sono separate dall’immagine L e dalla regione R1’ soprastanti da una fascia di salvaguardia alta 40 pixel.
Nell’esempio di figura 7 le regioni R2’ ed R3’ sono tra loro separate, cosicché risultano contornate da pixel di un colore predefinito (ad esempio bianco o nero) non provenienti dalle immagini destra e sinistra. In questo modo si riducono le zone di confine tra regioni contenenti pixel provenienti dalle immagini destra e sinistra e si riducono gli artefatti dovuti alla compressione dell’immagine, massimizzando nel contempo il fattore di compressione.
In alternativa al posizionare R2’ ed R3’ nelle ultime righe del fotogramma contenitore C (come illustrato con riferimento alla figura 7), in una forma di realizzazione preferita R2’ ed R3’ vengono posizionate in modo tale da lasciare una fascia di salvaguardia alta 32 righe di pixel tra il bordo inferiore di L e quello superiore di R2’ ed R3’. In questo modo si ricava una seconda fascia di salvaguardia alta 8 righe di pixel tra il bordo inferiore di R2’ ed R3’ ed il bordo inferiore di C. Sfruttando ulteriormente la larghezza del fotogramma contenitore, à ̈ possibile posizionare R2’ ed R3’ in modo tale che esse risultano completamente contornate da pixel non provenienti né dall’immagine destra né dall’immagine sinistra.
Infine, nell’area C5’ nell’angolo in basso a destra del fotogramma C, à ̈ inserita la mappa di profondità per la sovraimpressione (DM’) con risoluzione pari a 160 x 90 pixel, ottenuta sottocampionando la mappa di profondità originale come descritto in precedenza. In generale la mappa di profondità per le sovraimpressioni può avere una qualsiasi risoluzione tale da essere contenuta in uno spazio libero del fotogramma C. Per sfruttare al meglio lo spazio libero, la mappa di profondità per le sovraimpressioni può subire un’operazione di rotazione e/o scomposizione prima di essere inserita nel fotogramma C. In un’ulteriore forma di realizzazione, qui descritta con riferimento alle figure 8 e 9, il modulo 104 estrae tre sottoimmagini R1†, R2†ed R3†la cui somma complessiva dei pixel à ̈ superiore a quella dell’immagine scomposta.
La regione R1†corrisponde alla regione R1’ di figura 6, mentre R2†ed R3†includono l’area delle regioni R2’ ed R3’ oltre un’area aggiuntiva (Ra2 e Ra3) che permette di minimizzare la creazione di artefatti in fase di compressione dell’immagine.
Il segmento R1†à ̈ quindi una regione di dimensione 640 x 720 pixel che occupa le prime colonne del fotogramma R da scomporre.
Il segmento R3†occupa le ultime colonne del fotogramma R da scomporre e confina con la regione centrale R2†. R3†comprende sul lato sinistro (quello di confine con R2†) una fascia tampone Ra3 contenente pixel in comune alla regione R2†. In altre parole, le ultime colonne di R2†e le prime di R3†(costituenti la fascia tampone Ra3) coincidono.
Preferibilmente la dimensione della fascia tampone Ra3 viene scelta in funzione del tipo di compressione che verrà successivamente applicato al fotogramma contenitore C ed in generale al flusso video che lo contiene. In particolare, tale fascia ha dimensione doppia rispetto all’unità elaborativa elementare utilizzata nel processo di compressione. Ad esempio, lo standard H.264 prevede la scomposizione dell’immagine in macroblocchi di 16x16 pixel, ognuno dei quali costituisce l’unità elaborativa elementare di questo standard. In questa ipotesi, la fascia Ra3 ha una larghezza di 32 pixel. Il segmento R3†ha quindi dimensione 352 (320+32)x720 pixel e comprende i pixel delle ultime 352 colonne dell’immagine R.
Il segmento R2†occupa invece la parte centrale dell’immagine R da scomporre ed include, sul lato di sinistra, una fascia tampone Ra2 di dimensioni uguali a quelle della fascia Ra3. Nell’esempio di compressione H.264 la fascia Ra2 à ̈ quindi larga 32 pixel e comprende pixel in comune con la regione R1†. Il segmento R2†ha quindi dimensione 352x720 e comprende i pixel delle colonne da 608 (640 di R1†-32) a 978 del fotogramma R.
Le tre sottoimmagini relative alle regioni R1†, R2†ed R3†in uscita dal modulo 104 (visibili in figura 8) vengono quindi inserite nel fotogramma contenitore C come mostrato in figura 9. Le regioni R2†ed R3†vengono ruotate di 90° ed i pixel copiati nelle ultime righe del fotogramma C (aree indicate dai riferimenti C3†e C4†) prevedendo un certo numero di pixel di salvaguardia che separano le aree C3†e C4†dalle aree C1 e C2 che comprendono i pixel delle immagini L ed R1†. Nel caso di figura 9 questa fascia di salvaguardia à ̈ larga 8 pixel.
Anche in questa forma di realizzazione, nell’area C5’ nell’angolo in basso a destra del fotogramma C, à ̈ inserita la mappa di profondità per la sovraimpressione (DM’).
Il fotogramma C così ottenuto viene successivamente compresso e trasmesso o salvato su un supporto (ad esempio un DVD). A questo fine vengono previsti mezzi di compressione atti a comprimere un’immagine o un segnale video e mezzi per registrare e/o trasmettere l’immagine o il segnale video così compresso.
In figura 10 viene mostrato lo schema a blocchi di un ricevitore 1100 che decomprime il fotogramma contenitore, eventualmente compresso, ricevuto o letto dal supporto e ricostruisce le due immagini destra e sinistra rendendole disponibili, unitamente alla relativa mappa di profondità per la sovraimpressione, ad un dispositivo di visualizzazione (ad esempio un televisore) che permette la fruizione di contenuti 3D con immagini sovrapposte ad un contenuto video. Il ricevitore 1100 può essere un set-topbox o un ricevitore integrato in un televisore. E’ da notare che, nel caso in cui il ricevitore 1100 sia un settop-box non integrato nel televisore, esso dovrà utilizzare al suo interno la mappa di profondità per posizionare correttamente la grafica generata da lui stesso (ad es. i sottotitoli, l’EPG ed i suoi menu). In aggiunta, il ricevitore 1100 dovrà inviare la mappa di profondità (ad es. tramite l’interfaccia HDMI) al televisore, in quanto il televisore ne ha bisogno per posizionare correttamente la grafica da lui generata (ad es. i suoi menu).
Considerazioni analoghe a quelle che vengono ora qui fatte per il ricevitore 1100 si applicano ad un lettore (ad es. un lettore DVD) che legge un fotogramma contenitore, eventualmente compresso, e lo elabora al fine di ottenere una coppia di fotogrammi corrispondenti alle immagini destra e sinistra inserite nel fotogramma contenitore, eventualmente compresso letto dal lettore.
Tornando ora alla figura 10, il ricevitore riceve (via cavo o antenna) un flusso video stereoscopico compresso 1101, e lo decomprime mediante un modulo di decompressione 1102, ottenendo così un flusso video comprendente una sequenza di fotogrammi C’ corrispondenti ai fotogrammi C. Nel caso di canale ideale o in caso di lettura di fotogrammi contenitori da una memoria di massa o da un supporto di dati (Blu-ray, CD, DVD), a parte eventuali artefatti introdotti dalla compressione, i fotogrammi C’ corrispondono ai fotogrammi contenitore C che trasportano le informazioni relative alle due immagini destra e sinistra ed alla mappa di profondità per la sovraimpressione.
Questi fotogrammi C’ vengono forniti ad un modulo di ricostruzione 1103 che esegue un metodo di ricostruzione delle immagini e di estrazione della mappa di profondità, qui di seguito descritto con riferimento alle figure 11 e 12.
Chiaramente se il flusso video non fosse compresso, il modulo di decompressione 1102 può essere omesso ed il segnale video essere fornito direttamente al modulo di ricostruzione 1103.
Il processo di ricostruzione inizia al passo 1300 quando viene ricevuto il fotogramma contenitore C’ decompresso. Il modulo di ricostruzione 1103 estrae (passo 1301) l’immagine sinistra L copiando i primi 720x 1080 pixel del fotogramma decompresso all’interno di un nuovo fotogramma di dimensioni inferiori rispetto al fotogramma contenitore, ad esempio un fotogramma di un flusso 720p. L’immagine L così ricostruita viene fornita in uscita al ricevitore 1100 (passo 1302).
Successivamente si passa all’estrazione dell’immagine destra R presente all’interno del fotogramma contenitore C’.
La fase di estrazione dell’immagine destra inizia copiando (passo 1303) una porzione dell’area R1†presente nel fotogramma C’. In dettaglio, si prendono i pixel delle prime 624(640-16) colonne di R1†e li si copia nelle corrispondenti prime 624 colonne del nuovo fotogramma che rappresenta l’immagine Rout ricostruita, come mostrato in figura 11. Con questa operazione, si vanno, di fatto, a rimuovere dalla fase di ricostruzione le 16 colonne di R1†più soggette alla creazione di artefatti, ad esempio per effetto della procedura di motion estimation prevista dallo standard di compressione H.264.
Successivamente si estrae una porzione centrale di R2†(passo 1304). Dal fotogramma C’ decompresso (che come abbiamo detto corrisponde al fotogramma C di figura 9) si selezionano i pixel dell’area C3†(corrispondenti alla regione sorgente R2†) e si esegue una rotazione di 90° inversa a quella effettuata nel multiplexer 100, che li riporta nella condizione di righe e colonne originaria, ossia quella di figura 8. A questo punto si eliminano le prime e le ultime sedici (16) colonne di R2†e si copiano le rimanenti 352-32=320 colonne di pixel nelle colonne libere adiacenti a quelle appena copiate da R1†.
Tagliando le 16 colonne più esterne della regione R2†si eliminano quelle colonne dove à ̈ maggiormente probabile la formazione di artefatti. La larghezza dell’area tagliata (in questo caso 16 colonne) dipende dal tipo di compressione utilizzata. Tale area à ̈ preferibilmente pari all’unità elementare di elaborazione utilizzata dal processo di compressione; nel caso qui descritto lo standard H.264 lavora su blocchi di dimensione 16x16 e quindi si tagliano 16 colonne.
Per quanto riguarda R3†(passo 1305), si estraggono dal fotogramma C’ i pixel della regione C4†e si riporta la sottoimmagine R3†nel formato righe colonne originario (vedi figura 8). Successivamente si eliminano le prime 16 colonne di pixel (corrispondenti a metà dell’area Ra3) e si copiano le rimanenti 352-16=336 colonne di pixel nelle ultime colonne libere a sinistra del fotogramma ricostruito. Come per R2†, anche per R3†l’ area tagliata à ̈ pari all’unità elementare di elaborazione utilizzata dal processo di compressione.
Chiaramente, sia per la regione R2†che per quella R3†l’operazione di rotazione può essere eseguita in modo virtuale, vale a dire che il medesimo risultato di estrazione dei pixel d’interesse può essere ottenuto riportando nel fotogramma ricostruito i pixel di una riga dell’area C3†(se R2†, C4†se R3†) all’interno di una colonna del nuovo fotogramma Rout, ad esclusione delle ultime 16 righe dell’area C3†(se R2†, C4†se R3†) che corrispondono alle sedici colonne da tagliare mostrate in figura 8.
A questo punto l’immagine destra Rout à ̈ stata completamente ricostruita e può essere fornita in uscita (passo 1306). Infine, il modulo di ricostruzione 1103 estrae (passo 1308) la mappa di profondità per la sovraimpressione DM’ copiando in un registro i valori di luminanza degli ultimi 160 x 90 pixel del fotogramma contenitore decompresso C’, corrispondente all’area C5’. Il contenuto di detto registro viene fornito in uscita al ricevitore 1100 (passo 1309) e verrà utilizzato per definire la posizione di immagini (testo o grafica) da combinare al contenuto tridimensionale trasportato dal flusso video stereoscopico, in particolare esso verrà utilizzato per combinare immagini da sovraimporre al contenuto tridimensionale.
In alternativa o in aggiunta al fornire in uscita il contenuto della mappa di profondità e le immagini L ed R estratte dai fotogrammi ricevuti in ingresso, il ricevitore 1100 comprende un generatore di caratteri e/o un generatore grafico e combina delle immagini alle immagini L ed R, ossia al contenuto tridimensionale. Le immagini da combinare vengono selezionate da un’area di memoria del ricevitore e possono essere memorizzate in fase di produzione del ricevitore (ad esempio la grafica di alcuni menù o dei numeri di canale) o essere estratte dal flusso video (ad esempio le informazioni sulla guida programmi ed i sottotitoli).
Queste immagini vengono combinate al contenuto tridimensionale in posizioni che dipendono dalle mappe di profondità per la sovraimpressione estratte dal flusso video. In particolare per ogni immagine stereoscopica (prodotta dalla coppia di immagini L ed R) l’immagine combinata viene posta nel punto di minima profondità dell’immagine stereoscopica.
A seguito della combinazione delle immagini con il contenuto 3D, in questa forma di realizzazione il ricevitore 1100 genera in uscita una coppia di immagini L* ed R* che, quando riprodotte, verranno percepite dall’utente come un contenuto tridimensionale corrispondente a quello originario (prodotto dalle immagini L ed R) cui sono sovrapposte delle immagini, per es. sottotitoli, menù, grafiche, ecc…
Il processo di ricostruzione delle immagini destra e sinistra e della mappa di profondità presenti nel fotogramma contenitore C’ termina (passo 1307). Tale processo viene ripetuto per ogni fotogramma del flusso video ricevuto dal ricevitore 1100, cosicché in uscita si hanno due flussi video 1104 e 1105 rispettivamente per le due immagini destra e sinistra, ed un segnale dati dedotto dalla mappa di profondità per la sovraimpressione.
Il processo di ricostruzione delle immagini destra e sinistra e della mappa di profondità per la sovraimpressione sopra descritto con riferimento alle figure 10, 11 e 12, parte dal presupposto che il demultiplexer 1100 conosca il modo in cui viene costruito il fotogramma contenitore C e possa procedere ad estrarre le immagini destra e sinistra e la mappa di profondità per la sovraimpressione.
Chiaramente ciò à ̈ possibile se il metodo di multiplexing à ̈ standardizzato.
Per tenere conto del fatto che il fotogramma contenitore può essere generato in uno qualsiasi dei metodi sopra descritti, o comunque secondo uno qualsiasi dei metodi che utilizzano l’idea di soluzione oggetto delle rivendicazioni allegate, il demultiplexer utilizza l’informazione di segnalazione presente in una regione predefinita dell’immagine composita (ad es. un codice a barre come sopra descritto) per comprendere come spacchettare il contenuto dell’immagine composita e ricostruire le immagini destra e sinistra e la mappa di profondità per la sovraimpressione.
Decodificata la segnalazione, il demultiplexer conosce la posizione dell’immagine lasciata inalterata (ad esempio l’immagine sinistra negli esempi sopra descritti), la posizione e l’eventuale trasformazione (rotazione, traslazione o altro) delle regioni in cui à ̈ stata scomposta l’altra immagine (ad esempio l’immagine destra negli esempi sopra descritti) e la posizione della mappa di profondità per la sovraimpressione.
Con queste informazioni, il demultiplexer può quindi estrarre l’immagine inalterata (ad es. quella sinistra) e la mappa di profondità e ricostruire l’immagine scomposta (ad es. l’immagine destra).
Nonostante la presente invenzione si stata illustrata con riferimento ad alcuni esempi di realizzazione preferiti e vantaggiosi, à ̈ chiaro che essa non à ̈ limitata a tali esempi di realizzazione e molte varianti possono essere apportate dal tecnico del settore che volesse combinare in un’immagine composita due immagini relative a due diverse prospettive (destra e sinistra) di un oggetto o una scena. Ad esempio i moduli elettronici che realizzano i dispositivi sopra descritti, in particolare il dispositivo 100 ed il ricevitore 1100, possono essere in vario modo scomposti e distribuiti; inoltre essi possono essere realizzati come moduli hardware o essere degli algoritmi software implementati da un processore, in particolare un processore video provvisto di opportune aree di memoria per la memorizzazione temporanea dei fotogrammi ricevuti in ingresso. Questi moduli possono quindi eseguire in parallelo o in serie una o più delle elaborazioni video previste dai metodi di multiplexing e demultiplexing delle immagini secondo la presente invenzione.
E’ poi chiaro che nonostante gli esempi di realizzazione preferiti si riferiscano al multiplexing di due flussi video 720p in un flusso video 1080p, à ̈ chiaro che altri formati possono essere utilizzati, quali per esempio due flussi video 640x480 in un flusso video 1280x720 oppure due flussi video 320x200 in un flusso video 640x480.
L’invenzione non à ̈ poi limitata al particolare modo di composizione dell’immagine composita, anche se differenti soluzioni di generazione dell’immagine composita possono presentare diversi vantaggi.
Ad esempio, le forme di realizzazione sopra descritte con riferimento alle figure da 1 a 12 presentano il vantaggio di prevedere solamente operazioni di traslazione o di rototraslazione e richiedono quindi una ridotta capacità computazionale.
Alternativamente à ̈ possibile prevedere, in aggiunta a queste operazioni di rotazione e/o traslazione, delle operazioni di inversione speculare delle immagini per ottenere un’immagine composita del tipo mostrato in figura 13.
Queste operazioni aggiuntive vengono eseguite per massimizzare i perimetri di confine tra regioni che contengono pixel omologhi, sfruttandone la forte correlazione sussistente per minimizzare gli artefatti introdotti dalla successiva compressione. Nell’esempio di figure 13 e 14, per chiarezza di esposizione si à ̈ supposto che le due immagini destra e sinistra siano identiche anche se in generale esse differiscono, sia pure leggermente.
In questa figura, l’immagine sinistra L (mostrata in figura 14a) viene posizionata in alto a destra del fotogramma contenitore C, così da occupare gli ultimi 1280 pixel delle prime 720 righe. Così come per gli esempi prima descritti, l’immagine L viene quindi copiata senza alterazioni nel fotogramma contenitore C.
L’immagine destra R viene invece scomposta secondo l’esempio di figura 3; in figura 14b viene mostrata l’immagine R scomposta nelle tre regioni R1, R2 ed R3.
Successivamente, alcune regioni (nell’esempio di figura 14 le regioni R1 ed R3) subiscono un’operazione di inversione speculare; l’inversione può essere fatta rispetto ad un asse verticale (ossia parallelo ad una colonna dell’immagine) o rispetto ad un asse orizzontale (ossia parallelo ad una riga dell’immagine).
In caso di inversione rispetto ad un asse verticale, i pixel della colonna N (con N intero compreso tra 1 e 1080, dove 1080 à ̈ il numero di colonne dell’immagine) vengono riportati nella colonna 1080+1-N.
In caso di inversione rispetto ad un asse orizzontale, i pixel della riga M (con M intero compreso tra 1 e 720, dove 720 à ̈ il numero di righe dell’immagine) vengono riportati nella riga 720+1-N.
Le figure 14c e 14d mostrano la regione R1 estratta dall’immagine R ed invertita (R1rot) rispetto ad un asse verticale ed in particolare rispetto ad un lato verticale. La regione invertita R1inv viene inserita nei primi 640 pixel delle prime 640 righe di pixel.
Come si può notare dall’esempio di figura 13, la rotazione fa si che una volta che R1inv viene inserita nel fotogramma contenitore C, i pixel di R1inv che confinano con L sono molto simili ai pixel di L che confinano con R1inv. La correlazione spaziale tra questi pixel ha il vantaggio di ridurre la formazione di artefatti.
Le figure 14e e 14f mostrano la regione R3 estratta dall’immagine R di figura 14b e successivamente invertita (R3inv) rispetto ad un asse orizzontale, in particolare rispetto ad un lato orizzontale.
La regione R3inv viene inserita negli ultimi 640 pixel delle ultime 360 righe. In questo modo si riduce la generazione di artefatti dato che i pixel delle regioni di confine tra R3inv ed L sono pixel ad elevata correlazione spaziale. I pixel di questa regione di confine riproducono, infatti, porzioni d’immagine simili o identiche.
Il fotogramma contenitore C viene poi completato inserendo la regione R2.
In questo esempio R2 non viene invertita e/o ruotata perché anche invertendo e/o ruotando R2 non vi à ̈ modo di far combaciare una regione di confine di R2 con una regione di confine composta di pixel omologhi di un’altra regione di R o di L.
Infine, à ̈ poi chiaro che l’invenzione si riferisce inoltre a qualsiasi metodo di demultiplexing che permetta di estrarre un’immagine destra ed un’immagine sinistra a partire da un’immagine composita invertendo uno dei processi di multiplexing sopra descritti e rientranti nell’ambito di protezione della presente invenzione.
L’invenzione si riferisce quindi ad un metodo per generare una coppia d’immagini a partire da un’immagine composita, comprendente i passi di:
- generare una prima (ad esempio l’immagine sinistra) di dette immagini destra e sinistra copiando un unico gruppo di pixel contigui da una regione di detta immagine composita,
- generare una seconda immagine (ad esempio l’immagine destra) copiando altri gruppi di pixel contigui da regioni diverse di detta immagine composita.
Secondo una forma di realizzazione, si estrae l’informazione per generare detta seconda immagine da un’area di detta immagine composita. Detta informazione à ̈ preferibilmente codificata secondo un codice a barre.
In una forma di realizzazione del metodo di generazione delle immagini destra e sinistra, la generazione dell’immagine che risulta scomposta all’interno dell’immagine composita, comprende almeno una fase di inversione speculare di gruppo di pixel di una di dette regioni diverse.
In una forma di realizzazione del metodo di generazione delle immagini destra e sinistra, la generazione dell’immagine che risulta scomposta all’interno dell’immagine composita, comprende almeno una fase di rimozione di pixel da una delle regioni dell’immagine composita che comprendono i pixel di questa immagine da ricostruire. In particolare, i pixel sono rimossi da un’area di confine di questa regione.
In una forma di realizzazione, l’immagine che à ̈ scomposta in regioni diverse dell’immagine composita viene ricostruita eseguendo solamente operazioni di traslazione e/o rotazione delle regioni di pixel che comprendono i pixel dell’immagine da decomporre.
Nonostante l’esempio di realizzazione sopra riportato si riferisca all’inserimento di una mappa di profondità per le sovraimpressioni all’interno di un fotogramma contenitore in cui una delle due immagini destra e sinistra à ̈ scomposta in più parti, à ̈ chiaro che l’invenzione prescinde dal modo in cui sono formattate le due immagini destra e sinistra nel fotogramma contenitore. Ad esempio le due immagini possono entrambe essere sotto campionate e disposte affiancate (formato side-by-side) o sovrapposte (formato top-bottom) per lasciare uno spazio libero nel fotogramma ove disporre la mappa di profondità per la sovraimpressione. Ancora, una tra l’immagine destra e sinistra potrebbe essere lasciata inalterata e l’altra essere sotto campionata per lasciare spazio alla mappa di profondità.
Infine, va osservato che gli esempi di realizzazione sopra decritti con riferimento alle figure fanno riferimento ad una mappa di profondità “intera†ossia calcolata decimando o filtrando una mappa di profondità del contenuto 3D, ma senza suddividerla in parti, come ad es. può avvenire per una delle due immagini L ed R. Ciò non à ̈ comunque limitativo della presente invenzione, e la mappa di profondità per la sovraimpressione, una volta generata (o ricevuta) può essere inserita nel fotogramma contenitore da un codificatore che la spezza in più parti che sono disposte in diverse regioni del fotogramma contenitore. Ad esempio, come noto, un codificatore H.264, per codificare un contenuto stereoscopico, deve inserire otto righe aggiuntive che saranno tagliate dal decodificatore; in una forma di realizzazione la mappa di profondità per la sovraimpressione può essere inserita in queste otto righe aggiuntive dividendola ad esempio in 240 blocchi di dimensione 8x8 che riassemblati appropriatamente formano una immagine di dimensioni proporzionali al contenuto stereoscopico trasportato. Un esempio di arrangiamento dei blocchi può essere la scansione per righe di una mappa di profondità decimata per 16 e quindi con una risoluzione di 120x72 nella quale strisce di 120x8 pixel vengono messe in fila per ottenere una immagine da 1080x8 pixel. In una altra forma la stessa mappa di profondità decimata può essere suddivisa in un numero maggiore di strisce di altezza 8 ma ad esempio usando un offset di 6 pixel anziché 8 in modo che il contenuto sia ridondante favorendo la protezione del contenuto al confine con la immagine principale. Ciò appare particolarmente vantaggioso quando il contenuto stereoscopico comprende una coppia di immagini destra e sinistra multiplexate in un formato top-bottom, side-by-side o checkerboard, con risoluzione tale da occupare tutti i pixel del fotogramma potenzialmente visualizzabili, ad esempio i pixel di un formato 1920x1080. Preferibilmente, nel caso in cui il fotogramma comprenda una coppia d’immagini decimate in modo asimmetrico (ad es. un formato side-by-side in cui si decimano maggiormente le colonne rispetto alle righe o un formato top-bottom in cui si decimano le righe e non le colonne), allora la mappa di profondità per la sovraimpressione viene ottenuta decimando una mappa di profondità con un rapporto di decimazione righe/colonne proporzionale a quello utilizzato per il campionamento delle immagini poste nel medesimo fotogramma. A titolo d’esempio, si supponga di utilizzare un formato side-by-side per multiplexare le immagini destra e sinistra nel fotogramma, il rapporto di decimazione righe/colonne à ̈ di 1 a 2 dato che si mantengono tutte le righe e si decimano per due le colonne. In questo caso, la mappa di profondità per le sovraimpressioni potrà essere ottenuta decimando una mappa di profondità con un rapporto di decimazione righe colonne 1 a 2.
E’ chiaro poi che per segnalare al ricevitore l’area occupata dalla mappa di profondità à ̈ possibile prevedere diversi metodi oltre a quelli sopra descritti di inserire tale segnalazione nell’immagine, à ̈ possibile inserire tale segnalazione all’interno di un pacchetto dati del segnale che trasporta il flusso video.
**********

Claims (16)

  1. RIVENDICAZIONI 1. Metodo per sovraimporre immagini ad un contenuto tridimensionale, in cui si riceve un flusso video comprendente detto contenuto tridimensionale ed una mappa di profondità per la sovraimpressione di immagini a detto contenuto tridimensionale, detta mappa di profondità per la sovraimpressione contenendo informazioni relative alla profondità di detto contenuto tridimensionale, si sovrappongono immagini a detto contenuto tridimensionale in una posizione che dipende da detta mappa di profondità per la sovraimpressione (DM), il metodo essendo caratterizzato dal fatto che detta mappa di profondità per la sovraimpressione (DM) à ̈ codificata in un’immagine contenuta in un fotogramma (C) di detto flusso video e dal fatto che detta mappa di profondità ha un numero di pixel inferiore ai pixel di un’immagine bidimensionale associata a detto contenuto tridimensionale.
  2. 2. Metodo secondo la rivendicazione 1, in cui detta mappa di profondità per la sovrapposizione contiene solo informazioni sulla profondità di pixel posti nella metà inferiore, e preferibilmente nel terzo inferiore, di detto contenuto tridimensionale.
  3. 3. Metodo secondo la rivendicazione 1 o 2, in cui la mappa di profondità per la sovraimpressione ha risoluzione non uniforme, in particolare la metà o il terzo inferiore di detta mappa di profondità ha risoluzione maggiore della parte superiore.
  4. 4. Metodo secondo la rivendicazione 1 o 2 o 3, in cui detta mappa di profondità per la sovraimpressione ha risoluzione inferiore ad un’immagine bidimensionale associata a detto contenuto tridimensionale.
  5. 5. Metodo secondo la rivendicazione 4, in cui detto contenuto tridimensionale à ̈ un’immagine costituita da una pluralità di pixel, ed in cui detta mappa di profondità à ̈ ottenuta sottocampionando una mappa di profondità i cui elementi corrispondono alla profondità dei pixel di detto contenuto tridimensionale.
  6. 6. Metodo secondo la rivendicazione 5, in cui dopo aver sottocampionato detta mappa di profondità si divide la mappa sotto campionata in blocchi e si associa ad ogni pixel del blocco uno stesso valore pari alla minima profondità dei pixel di detto blocco o al valor medio della profondità dei pixel del blocco.
  7. 7. Metodo secondo la rivendicazione 5, in cui, prima di sottocampionare detta mappa di profondità, si divide la mappa di profondità in blocchi e si associa ad ogni pixel del blocco uno stesso valore pari alla minima profondità dei pixel di detto blocco o al valor medio della profondità dei pixel del blocco.
  8. 8. Metodo secondo la rivendicazione 6 o 7, in cui detti blocchi hanno dimensione pari ad un multiplo di un blocco elementare di 2x2 pixel.
  9. 9. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui detta mappa di profondità per la sovraimpressione à ̈ inserita in una porzione di detto fotogramma destinata a non essere visualizzata.
  10. 10. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui detta mappa di profondità à ̈ scomposta in blocchi distribuiti in aree di detto fotogramma (C) non occupate da detto contenuto tridimensionale.
  11. 11. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui detto fotogramma comprende un’immagine destra, un’immagine sinistra e detta mappa di profondità, in cui detta mappa di profondità à ̈ scomposta in blocchi distribuiti in regioni del fotogramma (C) non occupate da detto contenuto tridimensionale, ed in cui detto fotogramma (C) à ̈ codificato secondo la codifica H.264.
  12. 12. Metodo secondo una qualsiasi delle rivendicazioni da 1 a 9, in cui detto contenuto tridimensionale comprende un’immagine bidimensionale ed informazioni che permettono di ricostruire l’altra immagine di una coppia stereoscopica, ed in cui detta mappa di profondità per la sovrimpressione à ̈ inserita in una porzione dell’immagine bidimensionale.
  13. 13. Metodo secondo una qualsiasi delle rivendicazioni da 1 a 12, in cui detto fotogramma comprende una segnalazione atta ad indicare al ricevitore la posizione di detta mappa di profondità per la sovraimpressione all’interno di detto fotogramma.
  14. 14. Metodo secondo una qualsiasi delle rivendicazioni da 1 a 13, in cui detto flusso video comprende una segnalazione atta ad indicare al ricevitore la posizione di detta mappa di profondità per la sovraimpressione all’interno di detto fotogramma, detta segnalazione essendo esterna a detto fotogramma.
  15. 15. Dispositivo per la riproduzione di contenuti tridimensionali, comprendente mezzi atti a ricevere un flusso video contenente un contenuto tridimensionale, mezzi atti a combinare un’immagine a detto contenuto tridimensionale, caratterizzato dal fatto che detti mezzi atti a combinare un’immagine a detto contenuto tridimensionale sono atti ad implementare un metodo secondo una qualsiasi delle rivendicazioni da 1 a 14.
  16. 16. Flusso video stereoscopico (1101) comprendente una pluralità di fotogrammi e caratterizzato dal fatto di comprendere almeno un contenuto tridimensionale ed almeno una mappa di profondità per la sovraimpressione codificata come immagine all’interno di un fotogramma di detta pluralità di fotogrammi, detta mappa di profondità per la sovraimpressione (DM) comprendendo un numero di pixel inferiore ai pixel di un’immagine bidimensionale associata a detto contenuto tridimensionale. ***********
ITTO2010A000652A 2010-07-28 2010-07-28 Metodo per combinare immagini riferentesi ad un contenuto tridimensionale. IT1401367B1 (it)

Priority Applications (15)

Application Number Priority Date Filing Date Title
ITTO2010A000652A IT1401367B1 (it) 2010-07-28 2010-07-28 Metodo per combinare immagini riferentesi ad un contenuto tridimensionale.
HUE11749928A HUE027682T2 (en) 2010-07-28 2011-07-28 Procedure for combining images of three-dimensional content
ES11749928.5T ES2564937T3 (es) 2010-07-28 2011-07-28 Método para combinar imágenes referentes a un contenido tridimensional
JP2013521277A JP2013539256A (ja) 2010-07-28 2011-07-28 3次元コンテンツに関する画像を合成する方法
EA201390178A EA201390178A1 (ru) 2010-07-28 2011-07-28 Способ для объединения изображений, связанных с трехмерным контентом
CN201180041522.0A CN103329543B (zh) 2010-07-28 2011-07-28 用于组合与三维内容有关的图像的方法
KR1020137005018A KR101840308B1 (ko) 2010-07-28 2011-07-28 3차원 콘텐츠에 관한 영상들을 조합하기 위한 방법
BR112013001910A BR112013001910A2 (pt) 2010-07-28 2011-07-28 método para a combinação de imagens referentes a um conteúdo tridimensional
EP11749928.5A EP2599319B1 (en) 2010-07-28 2011-07-28 Method for combining images relating to a three-dimensional content
US13/812,065 US9549163B2 (en) 2010-07-28 2011-07-28 Method for combining images relating to a three-dimensional content
PCT/IB2011/053361 WO2012014171A1 (en) 2010-07-28 2011-07-28 Method for combining images relating to a three-dimensional content
PL11749928T PL2599319T3 (pl) 2010-07-28 2011-07-28 Sposób łączenia obrazów dotyczących treści trójwymiarowej
TW100126868A TW201223248A (en) 2010-07-28 2011-07-28 Method for combining images relating to a three-dimensional content
ZA2013/00610A ZA201300610B (en) 2010-07-28 2013-01-23 Method for combining images ralating to a three-dimensional content
US13/834,498 US9571811B2 (en) 2010-07-28 2013-03-15 Method and device for multiplexing and demultiplexing composite images relating to a three-dimensional content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ITTO2010A000652A IT1401367B1 (it) 2010-07-28 2010-07-28 Metodo per combinare immagini riferentesi ad un contenuto tridimensionale.

Publications (2)

Publication Number Publication Date
ITTO20100652A1 true ITTO20100652A1 (it) 2012-01-29
IT1401367B1 IT1401367B1 (it) 2013-07-18

Family

ID=43589583

Family Applications (1)

Application Number Title Priority Date Filing Date
ITTO2010A000652A IT1401367B1 (it) 2010-07-28 2010-07-28 Metodo per combinare immagini riferentesi ad un contenuto tridimensionale.

Country Status (14)

Country Link
US (1) US9549163B2 (it)
EP (1) EP2599319B1 (it)
JP (1) JP2013539256A (it)
KR (1) KR101840308B1 (it)
CN (1) CN103329543B (it)
BR (1) BR112013001910A2 (it)
EA (1) EA201390178A1 (it)
ES (1) ES2564937T3 (it)
HU (1) HUE027682T2 (it)
IT (1) IT1401367B1 (it)
PL (1) PL2599319T3 (it)
TW (1) TW201223248A (it)
WO (1) WO2012014171A1 (it)
ZA (1) ZA201300610B (it)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI630815B (zh) * 2012-06-14 2018-07-21 杜比實驗室特許公司 用於立體及自動立體顯示器之深度圖傳遞格式
TWI508523B (zh) * 2012-06-28 2015-11-11 Chunghwa Picture Tubes Ltd 三維影像處理方法
WO2014007414A1 (en) * 2012-07-06 2014-01-09 Lg Electronics Inc. Terminal for increasing visual comfort sensation of 3d object and control method thereof
WO2014025294A1 (en) * 2012-08-08 2014-02-13 Telefonaktiebolaget L M Ericsson (Publ) Processing of texture and depth images
RU2012138174A (ru) * 2012-09-06 2014-03-27 Сисвел Текнолоджи С.Р.Л. Способ компоновки формата цифрового стереоскопического видеопотока 3dz tile format
TWI466062B (zh) 2012-10-04 2014-12-21 Ind Tech Res Inst 重建三維模型的方法與三維模型重建裝置
US20140300702A1 (en) * 2013-03-15 2014-10-09 Tagir Saydkhuzhin Systems and Methods for 3D Photorealistic Automated Modeling
TWI558166B (zh) * 2013-04-04 2016-11-11 杜比國際公司 用於多視點裸視立體顯示器的深度地圖遞送格式
TWI603290B (zh) * 2013-10-02 2017-10-21 國立成功大學 重調原始景深圖框的尺寸爲尺寸重調景深圖框的方法、裝置及系統
TWI503788B (zh) * 2013-10-02 2015-10-11 Jar Ferr Yang 還原尺寸重調景深圖框爲原始景深圖框的方法、裝置及系統
TWI602145B (zh) * 2013-10-02 2017-10-11 國立成功大學 包裝圖框之解包裝方法、裝置及系統
KR101679122B1 (ko) * 2013-10-02 2016-11-23 내셔날 쳉쿵 유니버시티 컬러 프레임과 오리지널 심도 프레임을 패키징 및 언패키징하는 방법, 장치 및 시스템
TWI512678B (zh) * 2013-10-02 2015-12-11 Univ Nat Cheng Kung 非暫態儲存媒體
TWI602144B (zh) * 2013-10-02 2017-10-11 國立成功大學 包裝彩色圖框及原始景深圖框之方法、裝置及系統
KR101652583B1 (ko) * 2013-10-02 2016-08-30 내셔날 쳉쿵 유니버시티 오리지널 심도 프레임을 리사이징 및 복원하는 방법, 장치 및 시스템
CN104567758B (zh) * 2013-10-29 2017-11-17 同方威视技术股份有限公司 立体成像系统及其方法
GB201407643D0 (en) * 2014-04-30 2014-06-11 Tomtom Global Content Bv Improved positioning relatie to a digital map for assisted and automated driving operations
JP6391423B2 (ja) 2014-10-24 2018-09-19 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、画像抽出装置、画像生成方法、および画像抽出方法
KR101626679B1 (ko) 2014-11-26 2016-06-01 강원대학교산학협력단 2d 영상으로부터 입체 영상을 생성하는 방법 및 이를 기록한 기록 매체
US10779005B2 (en) * 2015-07-15 2020-09-15 Blinxel Pty Ltd System and method for image processing
JP7066607B2 (ja) 2015-08-03 2022-05-13 トムトム グローバル コンテント ベスローテン フエンノートシャップ ローカライゼーション基準データを生成及び使用する方法及びシステム
US9894342B2 (en) * 2015-11-25 2018-02-13 Red Hat Israel, Ltd. Flicker-free remoting support for server-rendered stereoscopic imaging
US10212409B2 (en) * 2015-12-18 2019-02-19 Boe Technology Group Co., Ltd Method, apparatus, and non-transitory computer readable medium for generating depth maps
CN105898274B (zh) * 2016-04-13 2018-01-12 万云数码媒体有限公司 一种基于rgb压缩的2d加深度3d图像纵向存储方法
US10362241B2 (en) 2016-12-30 2019-07-23 Microsoft Technology Licensing, Llc Video stream delimiter for combined frame
TWI658429B (zh) * 2017-09-07 2019-05-01 宏碁股份有限公司 影像結合方法與影像結合系統
JP2019054417A (ja) * 2017-09-15 2019-04-04 ソニー株式会社 画像処理装置およびファイル生成装置
WO2020181125A1 (en) 2019-03-07 2020-09-10 Alibaba Group Holding Limited Method, apparatus, medium, and device for processing multi-angle free-perspective video data
CN111669564B (zh) * 2019-03-07 2022-07-26 阿里巴巴集团控股有限公司 图像重建方法、系统、设备及计算机可读存储介质
CN109842811B (zh) * 2019-04-03 2021-01-19 腾讯科技(深圳)有限公司 一种在视频中植入推送信息的方法、装置及电子设备
US20220277522A1 (en) * 2019-08-08 2022-09-01 Sony Group Corporation Surgical image display system, image processing device, and image processing method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1705929A1 (en) * 2003-12-25 2006-09-27 Brother Kogyo Kabushiki Kaisha Image display device and signal processing device
WO2008038205A2 (en) * 2006-09-28 2008-04-03 Koninklijke Philips Electronics N.V. 3 menu display
EP2157803A1 (en) * 2007-03-16 2010-02-24 Thomson Licensing System and method for combining text with three-dimensional content
US20100103168A1 (en) * 2008-06-24 2010-04-29 Samsung Electronics Co., Ltd Methods and apparatuses for processing and displaying image
WO2010064118A1 (en) * 2008-12-01 2010-06-10 Imax Corporation Methods and systems for presenting three-dimensional motion pictures with content adaptive information

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4467421A (en) 1979-10-18 1984-08-21 Storage Technology Corporation Virtual storage system and method
US4434437A (en) 1981-01-26 1984-02-28 Rca Corporation Generating angular coordinate of raster scan of polar-coordinate addressed memory
US5848198A (en) 1993-10-08 1998-12-08 Penn; Alan Irvin Method of and apparatus for analyzing images and deriving binary image representations
US5691768A (en) 1995-07-07 1997-11-25 Lucent Technologies, Inc. Multiple resolution, multi-stream video system using a single standard decoder
US5870097A (en) 1995-08-04 1999-02-09 Microsoft Corporation Method and system for improving shadowing in a graphics rendering system
AUPQ416699A0 (en) * 1999-11-19 1999-12-16 Dynamic Digital Depth Research Pty Ltd Depth map compression technique
US20030198290A1 (en) * 2002-04-19 2003-10-23 Dynamic Digital Depth Pty.Ltd. Image encoding system
AU2002952873A0 (en) * 2002-11-25 2002-12-12 Dynamic Digital Depth Research Pty Ltd Image encoding system
US20050041736A1 (en) 2003-05-07 2005-02-24 Bernie Butler-Smith Stereoscopic television signal processing method, transmission system and viewer enhancements
KR100528343B1 (ko) 2003-07-14 2005-11-15 삼성전자주식회사 3차원 객체의 영상 기반 표현 및 편집 방법 및 장치
US8384763B2 (en) * 2005-07-26 2013-02-26 Her Majesty the Queen in right of Canada as represented by the Minster of Industry, Through the Communications Research Centre Canada Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging
WO2009011492A1 (en) 2007-07-13 2009-01-22 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding stereoscopic image format including both information of base view image and information of additional view image
WO2009083863A1 (en) 2007-12-20 2009-07-09 Koninklijke Philips Electronics N.V. Playback and overlay of 3d graphics onto 3d video
BRPI0911016B1 (pt) * 2008-07-24 2021-01-05 Koninklijke Philips N.V. método de provisão de um sinal de imagem tridimensional, sistema de provisão de sinal de imagem tridimensional, sinal que contém uma imagem tridimensional, mídia de armazenamento, método de renderização de uma imagem tridimensional, sistema de renderização de imagem tridimensional para renderizar uma imagem tridimensional
EP2184713A1 (en) * 2008-11-04 2010-05-12 Koninklijke Philips Electronics N.V. Method and device for generating a depth map
EP2197217A1 (en) * 2008-12-15 2010-06-16 Koninklijke Philips Electronics N.V. Image based 3D video format
RU2011103188A (ru) 2008-12-26 2013-02-10 Панасоник Корпорэйшн Носитель записи, устройство воспроизведения и интегральная схема
CN102292996B (zh) 2009-01-20 2014-09-17 皇家飞利浦电子股份有限公司 3d图像数据的传输
US8269821B2 (en) * 2009-01-27 2012-09-18 EchoStar Technologies, L.L.C. Systems and methods for providing closed captioning in three-dimensional imagery
AU2010215135B2 (en) * 2009-02-17 2016-05-12 Koninklijke Philips Electronics N.V. Combining 3D image and graphical data
JP5351960B2 (ja) 2009-05-14 2013-11-27 パナソニック株式会社 ビデオデータの伝送方法
CN102804789B (zh) 2009-06-23 2015-04-29 Lg电子株式会社 接收系统和提供3d图像的方法
WO2010151555A1 (en) * 2009-06-24 2010-12-29 Dolby Laboratories Licensing Corporation Method for embedding subtitles and/or graphic overlays in a 3d or multi-view video data
US9648346B2 (en) * 2009-06-25 2017-05-09 Microsoft Technology Licensing, Llc Multi-view video compression and streaming based on viewpoints of remote viewer
JP5446913B2 (ja) 2009-06-29 2014-03-19 ソニー株式会社 立体画像データ送信装置および立体画像データ送信方法
JP5369952B2 (ja) * 2009-07-10 2013-12-18 ソニー株式会社 情報処理装置および情報処理方法
US20110032331A1 (en) 2009-08-07 2011-02-10 Xuemin Chen Method and system for 3d video format conversion
KR101621528B1 (ko) 2009-09-28 2016-05-17 삼성전자 주식회사 디스플레이장치 및 그 3d 영상신호 표시방법
JP5372687B2 (ja) * 2009-09-30 2013-12-18 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
KR101365329B1 (ko) * 2009-11-23 2014-03-14 제너럴 인스트루먼트 코포레이션 비디오 시퀀스로의 추가 채널로서의 깊이 코딩
US9014276B2 (en) 2009-12-04 2015-04-21 Broadcom Corporation Method and system for 3D video coding using SVC temporal and spatial scalabilities
US20110149032A1 (en) * 2009-12-17 2011-06-23 Silicon Image, Inc. Transmission and handling of three-dimensional video content
US10462414B2 (en) * 2009-12-31 2019-10-29 Cable Television Laboratories, Inc. Method and system for generation of captions over stereoscopic 3D images
WO2011091309A1 (en) * 2010-01-21 2011-07-28 General Instrument Corporation Stereoscopic video graphics overlay
US9398289B2 (en) * 2010-02-09 2016-07-19 Samsung Electronics Co., Ltd. Method and apparatus for converting an overlay area into a 3D image
US20110273437A1 (en) * 2010-05-04 2011-11-10 Dynamic Digital Depth Research Pty Ltd Data Dependent Method of Configuring Stereoscopic Rendering Parameters
US9143767B2 (en) * 2010-06-01 2015-09-22 Intel Corporation Method and apparatus for adaptive stable image timing in stereoscopic 3D systems
US8718356B2 (en) * 2010-08-23 2014-05-06 Texas Instruments Incorporated Method and apparatus for 2D to 3D conversion using scene classification and face detection
US9094660B2 (en) * 2010-11-11 2015-07-28 Georgia Tech Research Corporation Hierarchical hole-filling for depth-based view synthesis in FTV and 3D video

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1705929A1 (en) * 2003-12-25 2006-09-27 Brother Kogyo Kabushiki Kaisha Image display device and signal processing device
WO2008038205A2 (en) * 2006-09-28 2008-04-03 Koninklijke Philips Electronics N.V. 3 menu display
EP2157803A1 (en) * 2007-03-16 2010-02-24 Thomson Licensing System and method for combining text with three-dimensional content
US20100103168A1 (en) * 2008-06-24 2010-04-29 Samsung Electronics Co., Ltd Methods and apparatuses for processing and displaying image
WO2010064118A1 (en) * 2008-12-01 2010-06-10 Imax Corporation Methods and systems for presenting three-dimensional motion pictures with content adaptive information

Also Published As

Publication number Publication date
EP2599319A1 (en) 2013-06-05
KR20130052621A (ko) 2013-05-22
KR101840308B1 (ko) 2018-03-20
JP2013539256A (ja) 2013-10-17
EA201390178A1 (ru) 2013-07-30
US9549163B2 (en) 2017-01-17
WO2012014171A9 (en) 2012-05-24
IT1401367B1 (it) 2013-07-18
PL2599319T3 (pl) 2016-06-30
TW201223248A (en) 2012-06-01
CN103329543B (zh) 2016-06-29
WO2012014171A1 (en) 2012-02-02
BR112013001910A2 (pt) 2019-09-17
US20130135435A1 (en) 2013-05-30
CN103329543A (zh) 2013-09-25
ES2564937T3 (es) 2016-03-30
ZA201300610B (en) 2014-03-26
HUE027682T2 (en) 2016-11-28
EP2599319B1 (en) 2015-12-16

Similar Documents

Publication Publication Date Title
ITTO20100652A1 (it) Metodo per combinare immagini riferentesi ad un contenuto tridimensionale
JP6644979B2 (ja) 3次元ビデオストリームに属する画像のカラーコンポーネントを用いることにより、深度マップを生成、格納、送信、受信および再生する方法およびデバイス
ITTO20091016A1 (it) Metodo per la generazione, trasmissione e ricezione di immagini stereoscopiche e relativi dispositivi
CN103202021B (zh) 编码装置、解码装置、再现装置、编码方法及解码方法
JP6019520B2 (ja) 立体画像を生成、送信、および、受信するための方法、および関連するデバイス
TWI511525B (zh) 用於產生、傳送及接收立體影像之方法,以及其相關裝置
US9571811B2 (en) Method and device for multiplexing and demultiplexing composite images relating to a three-dimensional content
ITTO20110439A1 (it) Method for generating, transmitting and receiving stereoscopic images, and related devices