WO2008142235A1 - Procede de traitement d'image pour la synthese d'image autostereoscopique - Google Patents

Procede de traitement d'image pour la synthese d'image autostereoscopique Download PDF

Info

Publication number
WO2008142235A1
WO2008142235A1 PCT/FR2008/000421 FR2008000421W WO2008142235A1 WO 2008142235 A1 WO2008142235 A1 WO 2008142235A1 FR 2008000421 W FR2008000421 W FR 2008000421W WO 2008142235 A1 WO2008142235 A1 WO 2008142235A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
images
sub
source image
source
Prior art date
Application number
PCT/FR2008/000421
Other languages
English (en)
Inventor
Armand Azoulay
Flavien Maingreaud
Original Assignee
Artistic Images
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=38753544&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO2008142235(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Artistic Images filed Critical Artistic Images
Publication of WO2008142235A1 publication Critical patent/WO2008142235A1/fr

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects

Definitions

  • the present invention relates to autostereoscopic image synthesis. More specifically, the invention relates to an image processing method for autostereoscopic image synthesis.
  • An autostereoscopic image makes it possible, thanks to an appropriate autostereoscopic system, for a user to perceive a three-dimensional image called 3D without the latter having to use particular individual viewing means, for example polarizing or color-filtering glasses.
  • an autostereoscopic image is obtained by at least two different views scattered so as to allow three-dimensional perception.
  • An autostereoscopic system comprises a screen, preferably a matrix, autostereoscopic optical means, preferably a lenticular array, and means for implementing an interleaving step described below. Its principle is to diffuse images according to N different views in the space in which can move a observer. Thus, by creating an optical system to communicate to the two eyes of the observer a different information, it is possible, thanks to the indices of ocular disparity, to give him the illusion of seeing in 3D.
  • systems and media broadcasting and / or capturing a standard image or video information contain no information on how they must be rendered on an autostereoscopic screen.
  • the invention relates to an image processing method for autostereoscopic image synthesis.
  • the method is essentially characterized in that it comprises the steps of:
  • the source image is a unique two-dimensional image
  • the first sub-image corresponds to at least a portion of the source image
  • the second sub-image corresponds to at least a portion of the source image. spatially shifted by a number D of pixels.
  • the source image is a single stream of P unitary two-dimensional images comprising at least a first unitary source image and a second unitary source image temporally offset.
  • the first sub-image corresponds to at least a part of the first source image
  • the second sub-image corresponds to at least a part of the second source image.
  • the temporal coherence between two successive source images is converted into observable spatial coherence via the diffusion of the different views.
  • the method further comprises a scaling step, hereinafter referred to as a sizing step.
  • the sizing step makes it possible to size the source image so that the subimage has the dimensions required by the autostereoscopic system.
  • the sizing step is implemented a priori, that is to say before the selection of sub-images for the realization of the views.
  • the sizing step is implemented a posteriori, that is to say after the selection of sub-images, and makes it possible to compensate for the spatial shift due to the selection of sub-images.
  • the number D of offset pixels and / or the value of the time shift between the first source image and the second source image is dynamically adjustable.
  • the parameter D makes it possible to increase the intraocular disparity and to improve the comfort of observation, that is to say the perception of a feeling of relief.
  • the method further comprises an interleaving step.
  • the invention relates to a computer program, comprising program code instructions for executing the steps of the method according to the invention, when said program is executed on a computer.
  • the computer program according to the invention is stored in the form of an electronic chip.
  • the invention relates to an image processing device capable of implementing the method according to the invention, the device comprising a computer controlled by a computer program according to the invention, a set of at least one memory for recording source images and / or images intermediate, and / or sub-images, and a screen, preferably matrix, equipped with autostereoscopic means for the diffusion of the autostereoscopic image.
  • the source image is a video stream
  • the invention can be implemented advantageously regardless of the type of flow: progressive or interlaced. In a progressive flow, each image is displayed entirely at time T, whereas in an interlaced stream, at time T two frames of images temporally offset by one period are displayed.
  • Image (T) corresponds to the image displayed at time T, that is to say either the total image in the case of a progressive flux, or one of the two frames in the case an interlaced stream. Note that one can choose in this case: Image (T + 1) corresponding to the second frame of the image at time T, where Image (T + 1) corresponds to one of the frames of the image at time T + l.
  • the invention it is possible to exploit the media usually broadcast for 2D screens so as to display them on autostereoscopic screens and to exploit their content on the spatial information of the scene represented for autostereoscopic rendering.
  • the two-dimensional standard means can be used.
  • the invention can be implemented with both color and black-and-white source images.
  • the method according to the invention is compatible with all the pre-display processes that can be implemented for an autostereoscopic screen (for example of the distance management type).
  • the invention is easily implemented as a software implementation. It is therefore easy to integrate into an electronic device of the programmable graphics card type, and therefore usable in real time via a dedicated computer.
  • the implementation of the method on a dedicated system makes it possible to process the content of a computer video file, as well as a DVD (or other digital medium), a PAL video cassette (or other analog format), or a television signal.
  • the invention therefore allows image processing for the real-time synthesis of autostereoscopic images from standard 2D images.
  • FIG. 1A illustrates the schematic diagram of an autostereoscopic device
  • FIG. 1B illustrates the principle of the pixel shift between two sub-images
  • FIGS. 2A-2D illustrate the production of views as a function of the sub-images in different modes.
  • Figure 3 illustrates the block diagram of the method according to the invention.
  • FIG. 1A the schematic diagram of an autostereoscopic device is illustrated.
  • a source image is produced by means of shooting (real or virtual), for example cameras, cameras, etc.
  • the source image is then processed to be broadcast by an autostereoscopic ES screen.
  • An autostereoscopic screen is a matrix display screen, for example a television or an LCD or plasma type computer screen, provided with autostereoscopic means, for example a lenticular network.
  • Such autostereoscopic means are known to those skilled in the art, and reference is made, for example, to the aforementioned applications FR2876804 and FR2876805 for producing such screens.
  • An autostereoscopic screen broadcasts a plurality N of views.
  • Each view VUE1, VUE2, ... VUEN is the projection in a given direction of a given image (sub-image according to the invention).
  • the stereoscopic effect is realized when two consecutive views diffuse two different images, and the perception of relief is obtained if these images are coherent.
  • This step of coding the pixels is called the interleaving step, and depends on the type of screen (number of pixels and their distribution), and the type of autostereoscopic means (for example size and arrangement of the lenticular network).
  • a source image is provided.
  • the source image is a unique two-dimensional image. For example a photograph or a flow stopped on an image. A first variant is illustrated in FIG.
  • This source image is stored in the form of a source image (DVD or other), an intermediate image or a sub-image, as described later.
  • the source image IS is dimensioned so as to produce an intermediate image II of dimensions (Xii, Yii), possibly identical to the dimensions (Xis, Yis).
  • an intermediate image II of dimensions (Xii, Yii), possibly identical to the dimensions (Xis, Yis).
  • SI1, SI2 and SI3 comprising at least a part of the source image.
  • the M sub-images are all of the same dimensions (Xsi, Ysi), and the height of a subimage Ysi is equal to the height of the corresponding intermediate image Yii.
  • the dimensions (Xsi, Ysi) of the sub-images are chosen according to the type of screen and the autostereoscopic means.
  • An autostereoscopic image is produced by making N views, each view corresponding to the projection of a respective subimage in a given direction.
  • two consecutive sub-images are spatially offset by a number D of pixels relative to each other, and allow the realization of two adjacent views, such as a selection window of the intermediate image shifted by D. pixels at each sub-image (see Figure IB). At least one of the sub images SI can be recorded. The intermediate image II can be registered.
  • the number M of sub-images is preferably equal to the number N of views.
  • the sizing step is implemented a posteriori, that is to say after the selection of sub-images.
  • the source image and the intermediate image have the same dimensions.
  • the realization of sub-images is done by selecting a window of dimensions smaller than those of the source image, then by D pixel shift of this selection window.
  • Each image portion thus selected allows the realization of corresponding sub-images, said sub-images can then be resized to match the dimensions of the views.
  • FIG. 2A illustrates the use of a modulo function, implemented in particular when the number of N views of the autostereoscopic system is greater than the number M of sub-images.
  • three sub-images are produced, respectively SI (T 0), SI (TD) and SI (T 2D), with SI (T_D) shifted by D pixels with respect to SI (T_O), and SI (T_2D) shifted by D pixels with respect to SI (T_D).
  • the view VUE1 is produced by the diffusion of the subimage SI (T__0)
  • the view VUE2 is produced by the diffusion of the subimage SI (T_D)
  • the view VUE3 is produced by the diffusion of the subimage SI (T_2D).
  • the sequence thus defined is then reproduced so that the view VUE4 is produced by the re-diffusion of the subimage SI (T_O), and the view VUE5 is produced by the diffusion of the subimage SI (T_D).
  • VUE1-VUE2, VUE2-VUE3, VUE3-VUE4 or VUE4-VUE5 diffuse different sub-images, in this case offset by a certain number of pixels.
  • the number D of offset pixels between two consecutive sub-images is advantageously adjustable in dynamics.
  • the value of the parameter D is stored in a memory, and when the autostereoscopic system comprises a PC-type computer
  • this value is updated by left or right click (for example left to increase the value of D, and right to decrease it), or by turning the wheel when the mouse is equipped.
  • the shift of D pixels is horizontal. This offset is illustrated in FIGS. 1B and 2A, and makes it possible to increase the effect of disparity between the views.
  • Xvii the number of horizontal pixels
  • Yv ⁇ ie the number of vertical pixels that must have the image to display in a view for interlacing before displaying on an autostereoscopic screen.
  • each view is defined by:
  • View (Ni) SubImage (Scale (ImageMem (Tc (Ni)), Xvue +
  • View (Ni) SousImage (Scale (ImageMem (Tc (Ni)), Xvue +
  • This step makes it possible, for each view, to extract at least a portion of a scaled source image.
  • the source image is two-dimensional unit source image streams.
  • the video stream can be recorded (DVD or other) or not recorded (eg so-called "live” television).
  • T unitary source image
  • a video stream generally comprising a few hundreds or thousands of unitary source images.
  • At least part of the source image is stored, preferably fast memory.
  • the portion of the source image stored in memory may correspond to a particular area of a given image, for example a sub-image, or to a set of unitary images, i.e., a sequence of J images unitary sources.
  • the current image of a sequence is stored in a memory in a memory allowing at least the sequence of the last J source images of the video stream to be stored in a memory.
  • a FIFO system First In First Out
  • ImageMem (j) the value of the third unit source image saved in memory
  • ImageMem (k) is empty for k> l.
  • ImageMem (k) IS (k) for k ⁇ 3, and ImageMem (k) is empty for k> 2.
  • a look-up table of the different images stored in the memory is kept so that it is not necessary to move the totality of each unit source image in the memory space when a new image arrives. unitary source in the FIFO system.
  • Each stored image ImageMem (T) therefore produces at least one respective subimage SI (T) comprising at least part of the source image IS (T).
  • FIG. 2B This embodiment is illustrated in FIG. 2B in which the video stream comprises five source images IS1-IS5 respectively corresponding to five given instants T1-T5. Each source image is stored so that the sequence comprises five images. Each sub- image SI1-SI5 respectively comprises at least a part of each respective source image IS1-IS5.
  • each view VUE1-VUE5 broadcasts respectively a subimage SI1-SI5.
  • SI1-SI5 subimage SI1-SI5.
  • a modulo function can be used.
  • the VUE4 view diffuses the subimage SI (Tl) corresponding to the source image IS1 and the subimage SI (T2) corresponding to the source image IS2.
  • each subimage SI (T) can be produced by an intermediate image obtained by a step of resizing the corresponding source image.
  • two spatially consecutive views broadcast two temporally consecutive source images (modulo off).
  • the method according to the invention implements an offset of D pixels, so that two consecutive sub-images of each set of M sub-images are spatially shifted by a number D of pixels relative to each other.
  • FIGS. 2B, 2C and 2D The method described for a single unit source image (FIG. 1B) can be implemented for each unit source image of the stream, so the intermediate images are not shown in FIGS. 2B, 2C and 2D.
  • the method according to the invention implements a spatial shift of a number D of pixels.
  • Each source image IS n produces a set of several sub-images SI n respectively shifted two by two by a number D of pixels.
  • a source image IS1 at time T1 produces five sub-images:
  • a first subimage SI (Tl) comprising at least part of the source image IS1; a second subimage SI (T1_D) offset by D pixels relative to the first subimage SI (Tl),
  • T1_2D a third subimage SI
  • Tl D a fourth subimage SI
  • T1_3D offset by D pixels relative to the third subimage SI
  • each view corresponds to a respective subimage.
  • Each image is therefore assigned one of the sub-images by attaching itself to the fact that two spatially consecutive views preferably correspond to two temporally consecutive source images.
  • the view VUE1 broadcasts the subimage SI (Tl)
  • the view VUE2 broadcasts the subimage SI (T2_D)
  • the view VUE3 broadcasts the subimage SI (T3_2D)
  • the VUE4 view broadcasts the SI subimage (T4_3D)
  • the VUE5 view broadcasts the SI subimage (T5_4D).
  • only one of the sub-images of a series, for each series, is shifted by D pixels.
  • a first set of sub-images SI (Tl) corresponds to the time T1 of the source image IS1
  • a second set of sub-images SI (Tx) corresponds to the time Tx of the source image ISx with x different from 2.
  • the time offset between the first source image and the second source image is advantageously adjustable in dynamics.
  • the method according to the invention advantageously also comprises an interleaving step.
  • interleaving depends on the type of autostereoscopic screen. This step consists in defining the pixels of the matrix slab of the screen used for broadcasting views. Each pixel has three unit color cells (RGB for red green blue). Depending on the type of screen, the arrangement of the unit color cells is different. Interleaving consists in defining, from an intermediate image, according to their arrangement on the slab and the arrangement of the lenticular means, which unitary color cells are used to define each pixel of each view.
  • the interleaving step is conventionally implemented by an algorithm specific to the autostereoscopic screen.
  • the production of the sub-images used for their respective view and the interleaving step are implemented simultaneously.
  • Each of the sub-images used for the creation of views can be directly produced simultaneously at the interleaving step.
  • FIG. 1 The method according to the invention is illustrated schematically in FIG. 1
  • a source image corresponding to an image sequence comprising a plurality of source images Image (T) at time T is produced.
  • Nb im mem the number of source images stored in memory
  • J the desired number of source images of the sequence
  • the views are then interlaced and broadcast to the autostereoscopic screen.
  • the method according to the invention is implemented by a personal computer (PC) equipped with a graphics card to perform both the various steps of the method and the interlacing of the different views.
  • PC personal computer
  • N is such that N> 1.
  • the value of J is such that J> 1.
  • the value of D is such that D ⁇ O.
  • any inconsistency between different views may still allow a viewer an increased sensation of relief.
  • the lack of coherence of the indices of ocular disparity can force the brain of the observer to no longer take into account these indices, and to "transfer" the perception on other perception indices of the relief (perspective, texture gradient, relative size of the objects, etc ). In such a case, the perception of the relief of an observed scene can still be improved.

Abstract

L' invention concerne un procédé de traitement d'image pour la synthèse d'image autostéréoscopique. Selon l'invention, il comprend les étapes consistant à : fournir une image source bidimensionnelle; mettre en mémoire une partie au moins de l'image source; produire un ensemble de M sous-images comprenant au moins une première sous-image comprenant une partie au moins de l'image source mise en mémoire, et une deuxième sous-image, différente de la première sous-image, comprenant une partie au moins de l'image source mise en mémoire; et produire une image autostéréoscopique par la réalisation de N vues, chaque vue correspondant à la projection d'une sous-image respective dans une direction donnée.

Description

PROCEDE DE TRAITEMENT D'IMAGE POUR LA SYNTHESE D ' IMAGE AUTOSTEREOSCOPIQUE .
La présente invention concerne la synthèse d'image autostéréoscopique. Plus précisément, l' invention concerne un procédé de traitement d'image pour la synthèse d'image autostéréoscopique .
Une image autostéréoscopique permet, grâce à un système autostéréoscopique approprié, à un utilisateur de percevoir une image tridimensionnelle dite 3D sans que celui-ci doive utiliser des moyens de visualisation individuels particuliers, par exemple des lunettes à verres polarisants ou à filtres de couleur.
Comme décrit ultérieurement, une image autostéréoscopique est obtenue par au moins deux vues différentes diffusées de sorte à permettre une perception tridimensionnelle.
II est connu de l'homme du métier les documents de l'état de la technique antérieure FR2876804 et FR2876805 déposés par la demanderesse.
Un système autostéréoscopique comprend un écran, de préférence matriciel, des moyens optiques autostéréoscopiques, de préférence un réseau lenticulaire, et des moyens pour mettre en œuvre une étape d'entrelacement décrite plus loin. Son principe est de diffuser des images selon N vues différentes dans l'espace dans lequel peut se mouvoir un observateur. Ainsi, en créant un système optique permettant de communiquer aux deux yeux de l'observateur une information différente, il est possible, grâce aux indices de disparité oculaire, de lui donner l'illusion de voir en 3D.
Toutefois, les systèmes et médias diffusant et/ou capturant de manière standard une image ou information vidéo (caméra, flux vidéo numérique et analogique) , ne contiennent aucune information sur la manière dont elles doivent être restituées sur un écran autostéréoscopique.
Pour parvenir à cette fin, le contenu des images à afficher sur chacune des vues des écrans autostéréoscopiques est aujourd'hui diffusé selon deux' techniques particulières :
- soit par la diffusion sur chacune des vues d'une information issue de caméras dont les positions spatiales lors de l'acquisition de l'image source sont différentes, ce qui permet directement de communiquer le point de vue de la scène correspondant à l'emplacement de la caméra,
- soit en associant à chaque pixel d'une image source une certaine profondeur déterminée par une carte des profondeurs, et dont le niveau de luminance indique la profondeur à laquelle se trouve chaque portion d'image.
Ces différentes solutions demandent donc une capture de l'image source spéciale (prise de vue multi-caméras) , ou un traitement particulier image par image afin de retrouver la carte des profondeurs associée à chaque image (processus manuel d'estimation de la distance par rapport à l'organe de prise de vue, ou à partir d'algorithmes automatiques non-temps réel, ou organe externe de capture de la distance caméra- objet) .
Aussi, il est nécessaire de diffuser des médias spéciaux dans un format spécial différent d'un format standard (TV, DVD, etc.).
Selon un premier de ses objets, l'invention concerne un procédé de traitement d'image pour la synthèse d'image autostéréoscopique .
Selon l'invention, le , procédé est essentiellement caractérisé en ce qu'il comprend les étapes consistant à :
- fournir une image source bidimensionnelle,
- mettre en mémoire une partie au moins de l'image source, - produire un ensemble de M sous-images comprenant au moins une première sous-image comprenant une partie au moins de l'image source mise en mémoire, et une deuxième sous-image, différente de la première sous-image, comprenant une partie au moins de l'image source mise en mémoire, et
- produire une image autostéréoscopique par la réalisation de N vues, chaque vue correspondant à la projection d'une sous-image respective dans une direction donnée. Dans un mode de réalisation, l'image source est une image bidimensionnelle unique, la première sous- image correspond à une partie au moins de l'image source, et la deuxième sous-image correspond à une partie au moins de l'image source décalée spatialement d'un nombre D de pixels.
Dans un autre mode de réalisation, l'image source est un flux unique de P images bidimensionnelles unitaires comprenant au moins une première image source unitaire et une deuxième image source unitaire décalées temporellement . Selon l'invention, la première sous-image correspond à une partie au moins de la première image source, et la deuxième sous-image correspond à une partie au moins de la deuxième image source.
Grâce à l'invention, la cohérence temporelle entre deux images sources successives est convertie en cohérence spatiale observable via la diffusion des différentes vues.
Avantageusement, le procédé comprend en outre une étape de mise à l'échelle, ci-après appelée étape de dimensionnement .
L'étape de dimensionnement permet de dimensionner l'image source pour que la sous-image ait les dimensions requises par le système autostéréoscopique .
Dans un mode de réalisation, l'étape de dimensionnement est mise en œuvre a priori, c'est-à- dire avant la sélection des sous-images pour la réalisation des vues. Dans un autre mode de réalisation, l'étape de dimensionnement est mise en œuvre a posteriori, c'est- à-dire après la sélection de sous-images, et permet de compenser le décalage spatial du à la sélection de sous-images.
De préférence, le nombre D de pixels de décalage et/ou la valeur du décalage temporel entre la première image source et la deuxième image source est réglable en dynamique. Le paramètre D permet d'augmenter la disparité intra oculaire et d'améliorer le confort d'observation, c'est-à-dire la perception d'une sensation de relief.
Dans un mode de réalisation, le procédé comprend en outre une étape d'entrelacement.
Selon un autre de ses objets, l'invention concerne un programme d'ordinateur, comprenant des instructions de code de programme pour l'exécution des étapes du procédé selon l'invention, lorsque ledit programme est exécuté sur un ordinateur.
Avantageusement, le programme d'ordinateur selon l'invention est stocké sous forme de puce électronique. Selon un autre de ses objets, l'invention concerne un dispositif de traitement d'images susceptible de mettre en œuvre le procédé selon l'invention, le dispositif comprenant un ordinateur piloté par un programme d'ordinateur selon l'invention, un ensemble d'au moins une mémoire pour l'enregistrement des images sources et/ou des images intermédiaires, et/ou des sous-images, et un écran, de préférence matriciel, équipé de moyens autostéréoscopiques pour la diffusion de l'image autostéréoscopique . Lorsque l'image source est un flux vidéo, l'invention peut être mise en œuvre avantageusement quel que soit le type de flux : progressif ou entrelacé. Dans un flux progressif, chaque image est affichée entièrement au temps T, alors que dans un flux entrelacé, au temps T deux trames d'images décalées temporellement d'une période sont affichées.
Dans la présente description, Image (T) correspond à l'image affichée au temps T, c'est-à-dire soit l'image totale dans le cas d'un flux progressif, soit l'une des deux trames dans le cas d'un flux entrelacé. On note que l'on peut choisir dans ce cas : Image (T+l) correspondant à la seconde trame de l'image au temps T, ou Image (T+l) correspond à une des trames de l'image au temps T+l.
Grâce à l'invention, on peut exploiter les médias habituellement diffusés pour des écrans 2D de manière à les afficher sur des écrans autostéréoscopiques et à exploiter leur contenu sur l'information spatiale de la scène représentée pour un rendu autostéréoscopique.
Ainsi il n'y a pas besoin d'avoir des informations captées de manière spécifique pour rendre une séquence sur un écran autostéréoscopique, les moyens standards bidimensionnels peuvent être utilisés. De même, il est possible, grâce à l'invention, de réutiliser tous les médias 2D existants pour les diffuser sur des systèmes autostéréoscopiques .
L'invention peut être mise en œuvre aussi bien avec des images sources en couleurs qu' en noir et blanc.
Le procédé selon l'invention est compatible avec tous les traitements de pré-affichage qu' il est possible de mettre en œuvre pour un écran autostéréoscopique (par exemple de type gestion de la distance) .
L'invention est facilement mise en œuvre sous forme d' implémentation logicielle. Elle est donc facilement intégrable dans un dispositif électronique de type carte graphique programmable, et donc utilisable en temps réel via un ordinateur dédié.
La mise en œuvre du procédé sur un système dédié permet aussi bien de traiter le contenu d'un fichier vidéo informatique, que d'un DVD (ou autre support numérique), d'une cassette vidéo PAL (ou autre format analogique), ou d'un signal télévisuel.
Avantageusement, l'invention permet donc un traitement d'images pour la synthèse en temps réel d'images autostéréoscopiques à partir d'images 2D standard.
D'autres caractéristiques et avantages de la présente invention apparaîtront plus clairement à la lecture de la description suivante donnée à titre d'exemple illustratif et non limitatif et faite en référence aux figures annexées dans lesquelles : la figure IA illustre le schéma de principe d'un dispositif autostéréoscopique, la figure IB illustre le principe du décalage de pixels entre deux sous-images, - les figures 2A-2D illustrent la production de vues en fonction des sous-images dans différents modes de réalisation, et la figure 3 illustre le schéma de principe du procédé selon l'invention.
En référence à la figure IA, on illustre le schéma de principe d'un dispositif autostéréoscopique.
Une image source est produite par des moyens de prise de vue (réelle ou virtuelle) , par exemple caméras, appareils photos, etc.
L'image source est alors traitée pour être diffusée par un écran autostéréoscopique ES.
Un écran autostéréoscopique est un écran de visualisation matriciel, par exemple un téléviseur ou un écran d'ordinateur de type LCD ou plasma, muni de moyens autostéréoscopiques, par exemple un réseau lenticulaire .
De tels moyens autostéréoscopiques sont connus de l'homme du métier, et l'on renvoie par exemple aux demandes FR2876804 et FR2876805 susmentionnées pour la réalisation de tels écrans.
Un écran autostéréoscopique diffuse une pluralité N de vues.
Chaque vue VUEl, VUE2, ... VUEN est la projection dans une direction donnée d'une image (sous-image selon l'invention) donnée. L'effet stéréoscopique est réalisé lorsque deux vues consécutives diffusent deux images différentes, et la perception de relief est obtenue si ces images sont cohérentes.
Pour parvenir à cette fin, il est nécessaire de coder les sous-images, c'est-à-dire de déterminer un arrangement spécifique des pixels de la trame de l'écran matriciel. Cette étape de codage des pixels est appelée étape d'entrelacement, et dépend du type d'écran (nombre de pixels et leur répartition), et du type de moyens autostéréoscopiques (par exemple taille et disposition du réseau lenticulaire) .
De nouveau, on renvoie aux demandes FR2876804 et FR2876805 susmentionnées ou à la demande EP0791847 pour de plus amples détails sur l'entrelacement.
Selon l'invention, on fournit une image source.
Dans un mode de réalisation, l'image source est une image bidimensionnelle unique. Par exemple une photographie ou un flux arrêté sur une image. Une première variante est illustrée à la figure IB.
Une image source IS de dimensions (Xis, Yis) est fournie .
Cette image source est mise en mémoire, sous forme d'image source (DVD ou autre), d'image intermédiaire ou de sous-image, comme décrit ultérieurement .
De préférence, l'image source IS est dimensionnée de sorte à produire une image intermédiaire II de dimensions (Xii, Yii), éventuellement identiques aux dimensions (Xis, Yis) . A partir de l'image intermédiaire II, on produit un ensemble de M sous-images, en l'espèce SIl, SI2 et SI3 comprenant une partie au moins de l'image source.
De préférence, les M sous-images sont toutes de mêmes dimensions (Xsi, Ysi), et la hauteur d'une sous- image Ysi est égale à la hauteur de l'image intermédiaire correspondante Yii.
Dans certains cas, on peut prévoir encore de redimensionner les sous-images pour les adapter à leur vue respective, de dimensions (Xvue, Yvue) . Pour plus de simplicité de la présente description, on considère que Xvue=Xsi et Yvue=Ysi.
Les dimensions (Xsi, Ysi) des sous-images sont choisies en fonction du type d'écran et des moyens autostéréoscopiques .
Une image autostéréoscopique est produite par la réalisation de N vues, chaque vue correspondant à la projection d'une sous-image respective dans une direction donnée. De préférence, les dimensions de l'image intermédiaire II (Xii, Yii) sont telles que Yii=Ysi et Xii = Xsi + |n*D|, avec n entier naturel et D la valeur d'un décalage horizontal en nombre de pixels.
De préférence, deux sous-images consécutives sont décalées spatialement d'un nombre D de pixels l'une par rapport à l'autre, et permettent la réalisation de deux vues adjacentes, comme une fenêtre de sélection de l'image intermédiaire décalée de D pixels à chaque sous-image (voir figure IB) . L'une au moins des sous-images SI peut être enregistrée . L'image intermédiaire II peut être enregistrée.
Quel que soit le mode de réalisation, le nombre M de sous-images est de préférence égal au nombre N de vues .
Dans une deuxième variante, non illustrée, l'étape de dimensionnement est mise en œuvre a posteriori, c'est-à-dire après la sélection de sous- images . Dans cette variante, l'image source et l'image intermédiaire ont les mêmes dimensions. La réalisation de sous-images se fait par sélection d'une fenêtre de dimensions inférieures à celles de l'image source, puis par décalage de D pixels de cette fenêtre de sélection.
Chaque portion d'image ainsi sélectionnée permet la réalisation de sous-images correspondantes, lesdites sous-images pouvant alors être redimensionnées afin de correspondre aux dimensions des vues.
La figure 2A illustre l'utilisation d'une fonction modulo, mise en œuvre en particulier lorsque le nombre de vues N du système autostéréoscopique est supérieur au nombre M de sous-images.
La figure 2A reprend le cas illustré à la figure IB pour un système autostéréoscopique utilisant N vues, où en l'espèce M=3 et N=5.
On produit dans ce cas trois sous-images, respectivement SI(T 0), SI(T D) et SI(T 2D), avec SI (T_D) décalée de D pixels par rapport à SI(T_O), et SI(T_2D) décalée de D pixels par rapport à SI (T_D) .
La vue VUEl est produite par la diffusion de la sous-image SI (T__0) , la vue VUE2 est produite par la diffusion de la sous-image SI (T_D) , et la vue VUE3 est produite par la diffusion de la sous-image SI (T_2D) .
La séquence ainsi définie est alors reproduite de sorte que la vue VUE4 est produite par la diffusion à nouveau de la sous-image SI(T_O), et la vue VUE5 est produite par la diffusion de la sous-image SI (T_D) .
Dans les cas où M<N, on prévoit de diffuser sur les N-M vues restantes à nouveau une séquence de N-M sous-images.
Grâce à cette configuration, deux vues consécutives VUE1-VUE2, VUE2-VUE3, VUE3-VUE4 ou VUE4- VUE5 diffusent des sous-images différentes, en l'espèce décalée d'un certain nombre de pixels.
Quel que soit le mode de réalisation, le nombre D de pixels de décalage entre deux sous-images consécutives est avantageusement réglable en dynamique .
Par exemple, la valeur du paramètre D est enregistrée dans une mémoire, et lorsque le système autostéréoscopique comprend un ordinateur de type PC
(portable ou fixe) muni d'une souris, cette valeur est mise à jour par clic gauche ou droit (par exemple gauche pour augmenter la valeur de D, et droit pour diminuer celle-ci) , ou par rotation de la molette lorsque la souris en est équipée. De préférence, le décalage de D pixels est horizontal. Ce décalage est illustré sur les figures IB et 2A, et permet d'augmenter l'effet de disparité entre les vues.
Selon l'invention,
• on définit par :
Echelle (Image, DimX, DimYJ , la transformation mise en œuvre lors de l'étape de dimensionnement consistant à mettre une image source dite Image aux dimensions requises par le système autostéréoscopique en interpolant la valeur de chaque pixel de manière à ce que les dimensions de l'image résultante (image intermédiaire) soient Xii = DimX pixels en horizontal, et Yii = DimY pixels en vertical, par exemple en utilisant une fonction d'interpolation bilinéaire, mise en œuvre notamment dans certaines cartes graphiques.
• on définit par :
SousImage ("Image, DecalX, DecalY, DimX, DimY,), la transformation consistant à sélectionner une sous-image d'Image telle que : si
Sslmage = Souslmage (Image, DecalX, DecalY, DimX, DimYJ alors
Sslmage possède DimX pixels en horizontal et DimY pixels en vertical, et Sslmage (x, y) = Image (x+DecalX, y+DecalY) Ces étapes permettent la mise à l'échelle de chacune des images mémorisées dans une mémoire rapide.
• on définit par :
Xviie le nombre de pixels horizontaux, et Yvτie le nombre de pixels verticaux que doit posséder 1 ' image à afficher dans une vue pour l'entrelacement avant l'affichage sur un écran autostéréoscopique .
Alors, dans un mode de réalisation, au temps T, on définit chaque vue par :
Vue (Ni) =SousImage (Echelle (ImageMem (Tc (Ni) ) , Xvue+ |N*D| , YTOeJ , |Ni*D| ,0,Xvue, Yvτie) , si D>0, et
Vue (Ni) =SousImage (Echelle (ImageMem (Tc (Ni) ) ,Xvue+|N*D| , Yvue) , (Ni- (N-I) ) *D, 0,Xvπe, Yvue) si D<0, avec Ni le numéro de vue de 0 à N-I, N le nombre total de vues, et Tc une table de correspondance décrite ci-après.
Cette étape permet, pour chaque vue, d'extraire une portion au moins d'une image source mise à l'échelle.
Dans un autre mode de réalisation, l'image source est flux d'images sources unitaires bidimensionnelles . Le flux vidéo peut être enregistré (DVD ou autre) ou non enregistré (p. ex. télévision dite "en direct") .
En référence à la figure 2B, un flux vidéo comprend, pour un temps T donné, une image source unitaire IS(T), c'est-à-dire une première image source unitaire ISl à T=Tl, une deuxième image source unitaire IS2 à T=T2, une troisième image source unitaire IS3 à T=T3, ... une nième image source unitaire ISn à T=n, en l'espèce n=5. Cette valeur est purement illustrative, un flux vidéo comprenant généralement plutôt quelques centaines ou milliers d'images sources unitaires .
Selon l'invention, une partie au moins de l'image source est mise en mémoire, de préférence mémoire rapide.
La partie de l'image source mise en mémoire peut correspondre à une zone particulière d'une image donnée, par exemple une sous-image, ou à un ensemble d'images unitaires, c'est-à-dire une séquence de J images sources unitaires.
Ainsi, l'image courante d'une séquence est mise en mémoire rapide dans une mémoire permettant d'enregistrer dans une mémoire au moins la séquence des J dernières images sources du flux vidéo.
Dans un mode de réalisation, on utilise comme mémoire un système de type FIFO (First In First Out). Si on note ImageMem( j ) la valeur de la jlème image source unitaire sauvegardée en mémoire, on a pour un temps T donné : à T=I : ImageMem ( 1 ) = IS(I), et
ImageMem(k) est vide pour k>l.
à T=2 : ImageMem (k) = IS (k) pour k<3, et ImageMem (k) est vide pour k>2.
à T=J : ImageMem(h) = IS (h), et à T>J : ImageMem(h) = IS(T-J+h),
Dans un mode de réalisation, on garde une table de correspondance des différentes images stockées dans la mémoire de manière à ne pas être obligé de déplacer dans l'espace mémoire la totalité de chaque image source unitaire lors de l'arrivée d'une nouvelle image source unitaire dans le système FIFO.
On utilise donc une table de correspondance Tc permettant de savoir dans quel espace mémoire est contenu chaque image .
Ainsi à T>J : ImageMem (Tc (h) ) = IS (T-J+h) pour tout h
Chaque image mémorisée ImageMem (T) produit donc au moins une sous-image SI (T) respective comprenant une partie au moins de l'image source IS(T) .
Ce mode de réalisation est illustré à la figure 2B dans lequel le flux vidéo comprend cinq images source IS1-IS5 correspondant respectivement à cinq instants donnés T1-T5. Chaque image source est mise en mémoire de sorte que la séquence comprend cinq images. Chaque sous- image SI1-SI5 comprend respectivement au moins une partie de chaque image source respective IS1-IS5.
De même, chaque vue VUE1-VUE5 diffuse respectivement une sous-image SI1-SI5. Grâce à cette configuration, deux vues consécutives diffusent deux images différentes.
De même que décrit précédemment, si le nombre de vue N est supérieur au nombre J d'images sources comprises dans la séquence utilisée pour mettre en œuvre l'invention, on peut utiliser une fonction modulo .
On représente ce cas à titre purement illustratif quant aux valeurs de N et J à la figure 2C dans lequel on utilise le même système autostéréoscopique que celui de la figure 2A et comprenant cinq vues et une séquence de trois images sources .
Dans ce cas, la vue VUE4 diffuse la sous-image SI(Tl) correspondant à l'image source ISl et la sous- image SI(T2) correspondant à l'image source IS2.
De même que précédemment, chaque sous-image SI(T) peut être produite par une image intermédiaire obtenue par une étape de redimensionnement de l'image source correspondante. Grâce à cette configuration, deux vues consécutives spatialement diffusent deux images sources consécutives temporellement (hors fonction modulo) .
Toutefois, si deux images sources consécutives temporellement sont identiques, l'effet de relief recherché peut s'en trouver amoindri. Avantageusement, de même que pour une image source unitaire unique, le procédé selon l'invention met en œuvre un décalage de D pixels, de sorte que deux sous-images consécutives de chaque ensemble de M sous-images soient décalées spatialement d'un nombre D de pixels l'une par rapport à l'autre.
Le procédé décrit pour une image source unitaire unique (figure IB) peut être mis en œuvre pour chaque image source unitaire du flux, aussi les images intermédiaires ne sont pas représentées sur les figures 2B, 2C et 2D.
A cet effet, dans un mode de réalisation illustré à la figure 2D, et de manière similaire au cas décrit pour la figure IB, le procédé selon l'invention met en œuvre un décalage spatial d'un nombre D de pixels.
Chaque image source ISn produit un ensemble de plusieurs sous-images SIn respectives décalées deux à deux d'un nombre D de pixels.
Par exemple une image source ISl au temps Tl produit cinq sous-images :
- une première sous-image SI(Tl) comprenant une partie au moins de l'image source ISl, - une deuxième sous-image SI (T1_D) décalée de D pixels par rapport à la première sous-image SI(Tl) ,
- une troisième sous-image SI (T1_2D) , décalée de D pixels par rapport à la deuxième sous-image SI (Tl D) , - une quatrième sous-image SI (T1_3D) , décalée de D pixels par rapport à la troisième sous-image SI(T1_2D), et
- une cinquième sous-image SI (T1_4D) , décalée de D pixels par rapport à la quatrième sous-image
SI (T1_3D) .
Et de même pour chacune des images sources IS2 à IS5. Dans ce cas, la séquence comprend à titre purement illustratif un nombre J=5 d'images sources et un ensemble de M= 5 sous-images.
L'ensemble des sous-images peuvent être enregistrées dans une mémoire. Toutefois, il est possible de n'enregistrer que les sous-images utilisées pour les vues. Selon l'invention, chaque vue correspond à une sous-image respective. On attribue donc à chaque vue une des sous-images en s ' attachant au fait que deux vues consécutives spatialement correspondent de préférence à deux images sources consécutives temporellement .
A cet effet, dans un mode de réalisation représenté à la figure 2D, la vue VUEl diffuse la sous-image SI(Tl), la vue VUE2 diffuse la sous-image SI(T2_D), la vue VUE3 diffuse la sous-image SI (T3_2D) , la vue VUE4 diffuse la sous-image SI (T4_3D) , et la vue VUE5 diffuse la sous-image SI(T5_4D).
Dans d'autres modes de réalisation, la distribution des sous-images et des vues respectives est différente. C'est-à-dire, en lien avec la figure 2D, que d'autres combinaisons VUE / sous-image sont possibles. Ainsi si chaque image source ISi à un temps Ti produit un ensemble respectif (série) de sous-images SI(Ti_Dj), chaque vue VUEi diffuse l'une des sous- images de la série respective, avec Dj=j*D (D le nombre de pixels de décalage et j entier naturel) .
Dans cette optique, dans un mode de réalisation, il est suffisant que seule l'une des sous-images soit décalée de D pixels et serve de base pour une vue.
Dans un autre mode de réalisation, seule l'une des sous-images d'une série, pour chaque série, est décalée de D pixels.
Selon l'invention, il est préférable que deux images sources soient consécutives temporellement . Toutefois, dans d'autres modes de réalisation, on peut prévoir que deux images sources ne soient pas immédiatement consécutives. Dans cet exemple, en lien avec la figure 2D, un premier ensemble de sous-images SI(Tl) correspondrait au temps Tl de l'image source ISl, et un deuxième ensemble de sous-images SI(Tx) correspondrait au temps Tx de l'image source ISx avec x différent de 2.
Le décalage temporel entre la première image source et la deuxième image source est avantageusement réglable en dynamique.
Le procédé selon 1 ' invention comprend avantageusement en outre une étape d'entrelacement.
Comme décrit précédemment, l'entrelacement dépend du type d'écran autostéréoscopique . Cette étape consiste à définir les pixels de la dalle matricielle de l'écran utilisés pour la diffusion des vues. Chaque pixel comprend trois cellules couleur unitaires (RGB pour rouge vert bleu). Selon le type d'écran, la disposition des cellules couleur unitaires est différente. L'entrelacement consiste à définir, à partir d'une image intermédiaire, en fonction de leur disposition sur la dalle et de la disposition des moyens lenticulaires, quelles cellules couleur unitaires servent à définir chaque pixel de chaque vue .
L'étape d'entrelacement est classiquement mise en œuvre par un algorithme spécifique à l'écran autostéréoscopique .
Avantageusement, selon l'invention, la production des sous-images utilisées pour leur vue respective et l'étape d'entrelacement sont mises en œuvre de façon simultanée.
Les différentes images intermédiaires et sous- images n'ont pas besoin d'être créées réellement.
Chacune des sous-images utilisées pour la création de vues peut être produite directement de manière simultanée à l'étape d'entrelacement.
Le procédé selon l'invention est illustré de manière synoptique par la figure 3 :
On produit une image source correspondant à une séquence Image comprenant une pluralité d'images sources Image (T) au temps T. Tant que le nombre d'images sources mises en mémoire Nb im mem est inférieur à J le nombre souhaité d'images sources de la séquence, l'image au temps T est mise en mémoire.
Dès que le nombre d'images J requis est atteint, les vues sont fabriquées à partir des sous-images mises à l'échelle.
Les vues sont alors entrelacées et diffusées vers l'écran autostéréoscopique .
Dans un mode de réalisation, à titre illustratif, le procédé selon l'invention est mis en œuvre par un ordinateur individuel (PC) muni d'une carte graphique pour effectuer tant les différentes étapes du procédé que l'entrelacement des différentes vues . Pour un système autostéréoscopique où N=9 vues, et dont les pixels sont affichés sur une dalle 1920*1200 pixels (soit Xvue = 640 pixels et Yvue = 400 pixels) , on peut définir une mise en mémoire de J=2 images, et un décalage de D=12 pixels. On notera que :
Si J=I, on décale seulement le plan image dans l'espace de visualisation
Si J=I, et D = 0, on joue alors le film en pseudo-2D, c'est-à-dire que la même image est diffusée sur toutes les vues, ce qui permet d'afficher l'image sur un écran autostéréoscopique de manière stable, et que l'on ne voit alors plus les artefacts dus à l'échantillonnage de l'image par le système optique.
La valeur de N est telle que N>1. De préférence, la valeur de J est telle que J>1. De préférence, la valeur de D est telle que D≠O . De préférence, N>J. En effet, le fait de décaler temporellement N vues (si N<=J) peut poser un problème d'observation si l'observateur n'est pas placé au point de visualisation optimal. En effet, dans ce cas, chaque œil reçoit une image différente ainsi qu'une partie de « bruit » (information lumineuse issue d'une ou plusieurs autres vues adjacentes). Lors d'un changement de scène dans l'image source, un « volet » apparaît à l'écran.
La présente description ne se limite pas aux modes de réalisation précédemment décrits. Par exemple, on peut utiliser un écran à barrière de parallaxe . II est également à noter qu'une éventuelle incohérence entre différentes vues peut tout de même permettre à un spectateur une sensation augmentée du relief. En effet, le manque de cohérence des indices de disparité oculaire (empêchant de définir la position dans l'espace de l'image observée) peut obliger le cerveau de l'observateur à ne plus prendre en compte ces indices, et à "transférer" la perception sur d'autres indices de perception du relief (perspective, gradient de texture, taille relative des objets, etc ... ) . Dans un tel cas, la perception du relief d'une scène observée peut tout de même en être améliorée.

Claims

REVENDICATIONS
1. Procédé de traitement d'image pour la synthèse d'image autostéréoscopique, caractérisé en ce qu'il comprend les étapes consistant à : - fournir une image source bidimensionnelle,
- mettre en mémoire une partie au moins de l'image source,
- produire un ensemble de M sous-images comprenant au moins une première sous-image comprenant une partie au moins de l'image source mise en mémoire, et une deuxième sous-image, différente de la première sous-image, comprenant une partie au moins de l'image source mise en mémoire, et
- produire une image autostéréoscopique par la réalisation de N vues, chaque vue correspondant à la projection d'une sous-image respective dans une direction donnée,
- deux sous-images consécutives étant décalées spatialement d'un nombre D de pixels l'une par rapport à l'autre.
2. Procédé selon la revendication 1, dans lequel l'image source est une image unitaire bidimensionnelle unique, le procédé comprenant en outre les étapes consistant à :
- produire une image intermédiaire correspondant à un dimensionnement de l'image source, et
- sélectionner M sous-images de l'image intermédiaire pour réaliser les N vues.
3. Procédé selon la revendication 2, dans lequel les M sous-images sont toutes de mêmes dimensions, deux sous-images consécutives de l'ensemble des M sous-images permettant la réalisation de deux vues adjacentes.
4. Procédé selon la revendication 1, dans lequel 1 ' image source est un flux unique de P images bidimensionnelles unitaires comprenant au moins une première image source unitaire et une deuxième image source unitaire décalées temporellement, et dans lequel :
- la première sous-image correspond à une partie au moins de la première image source, et - la deuxième sous-image correspond à une partie au moins de la deuxième image source.
5. Procédé selon la revendication 4, comprenant en outre une étape consistant à : - produire un ensemble de J images intermédiaires correspondant chacune à un dimensionnement d'une image source unitaire respective,
- pour chaque image intermédiaire, sélectionner M parties de l'image intermédiaire pour produire M sous-images respectives, et
- réaliser N vues, chaque vue correspondant à la projection de l'une des sous-images d'une image intermédiaire donnée.
6. Procédé selon la revendication 5, dans lequel deux vues adjacentes correspondent à deux images intermédiaires consécutives temporellement .
7. Procédé selon la revendication 5 ou 6, dans lequel les M sous-images sont toutes de mêmes dimensions .
8. Procédé selon l'une quelconque des revendications 3 à 7, dans lequel le nombre D de pixels et/ou la valeur du décalage temporel entre la première image source et la deuxième image source est réglable en dynamique.
9. Procédé selon l'une quelconque des revendications précédentes, dans lequel le nombre M de sous-images est égal au nombre N de vues.
10. Procédé selon l'une quelconque des revendications précédentes, comprenant en outre une étape d'entrelacement, simultanée à l'une au moins des étapes de production des images intermédiaires et de sélection des sous-images.
11. Programme d'ordinateur, comprenant des instructions de code de programme pour l'exécution des étapes du procédé selon 1 ' une quelconque des revendications précédentes, lorsque ledit programme est exécuté sur un ordinateur.
12. Dispositif de traitement d'images susceptible de mettre en œuvre le procédé selon l'une quelconque des revendications 1 à 10, le dispositif comprenant un ordinateur piloté par un programme d'ordinateur selon la revendication 11, un ensemble d'au moins une mémoire pour l'enregistrement des images sources et/ou des images intermédiaires et/ou des sous-images, et un écran équipé de moyens autostéréoscopiques pour la diffusion de l'image autostéréoscopique .
PCT/FR2008/000421 2007-04-02 2008-03-27 Procede de traitement d'image pour la synthese d'image autostereoscopique WO2008142235A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0702411 2007-04-02
FR0702411A FR2914437A1 (fr) 2007-04-02 2007-04-02 Procede de traitement d'image pour la synthese d'image autostereoscopique

Publications (1)

Publication Number Publication Date
WO2008142235A1 true WO2008142235A1 (fr) 2008-11-27

Family

ID=38753544

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2008/000421 WO2008142235A1 (fr) 2007-04-02 2008-03-27 Procede de traitement d'image pour la synthese d'image autostereoscopique

Country Status (2)

Country Link
FR (1) FR2914437A1 (fr)
WO (1) WO2008142235A1 (fr)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0665697A2 (fr) * 1994-02-01 1995-08-02 SANYO ELECTRIC Co., Ltd. Procédé pour la conversion d'images bidimensionnelles dans des images tridimensionnelles
WO1997024000A1 (fr) * 1995-12-22 1997-07-03 Xenotech Research Pty. Ltd. Procedes de codage et de conversion d'images
WO2000030039A1 (fr) * 1998-11-19 2000-05-25 Push Entertainment Inc. Systeme et procede permettant de creer des modeles 3d a partir de donnees d"images sequentielles 2d
US20020191841A1 (en) * 1997-09-02 2002-12-19 Dynamic Digital Depth Research Pty Ltd Image processing method and apparatus
US20030128871A1 (en) * 2000-04-01 2003-07-10 Rolf-Dieter Naske Methods and systems for 2D/3D image conversion and optimization
US20050185048A1 (en) * 2004-02-20 2005-08-25 Samsung Electronics Co., Ltd. 3-D display system, apparatus, and method for reconstructing intermediate-view video

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0665697A2 (fr) * 1994-02-01 1995-08-02 SANYO ELECTRIC Co., Ltd. Procédé pour la conversion d'images bidimensionnelles dans des images tridimensionnelles
WO1997024000A1 (fr) * 1995-12-22 1997-07-03 Xenotech Research Pty. Ltd. Procedes de codage et de conversion d'images
US20020191841A1 (en) * 1997-09-02 2002-12-19 Dynamic Digital Depth Research Pty Ltd Image processing method and apparatus
WO2000030039A1 (fr) * 1998-11-19 2000-05-25 Push Entertainment Inc. Systeme et procede permettant de creer des modeles 3d a partir de donnees d"images sequentielles 2d
US20030128871A1 (en) * 2000-04-01 2003-07-10 Rolf-Dieter Naske Methods and systems for 2D/3D image conversion and optimization
US20050185048A1 (en) * 2004-02-20 2005-08-25 Samsung Electronics Co., Ltd. 3-D display system, apparatus, and method for reconstructing intermediate-view video

Also Published As

Publication number Publication date
FR2914437A1 (fr) 2008-10-03

Similar Documents

Publication Publication Date Title
EP3005296B1 (fr) Fusion de plusieurs flux vidéo
FR2782438A1 (fr) Procede d&#39;affichage autostereoscopique et image autostereoscopique
JP2004104330A (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP2007506172A (ja) 3次元画像ディスプレイの画面に3次元画像を描画するシステム及び方法
CA2806077A1 (fr) Methodes et appareils pour la production d&#39;images ameliorees
FR3017021A1 (fr) Procede et dispositif pour generer, stocker, transmettre, recevoir et reproduire des cartes de profondeur en utilisant des composants couleur d&#39;une image appartenant a un flux video tridimensionnel
CN102131099A (zh) 图像处理装置、图像处理方法和程序
JP5446949B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
US9197877B2 (en) Smart pseudoscopic-to-orthoscopic conversion (SPOC) protocol for three-dimensional (3D) display
US20100156897A1 (en) System and Method For Adaptive Scalable Dynamic Conversion, Quality and Processing Optimization, Enhancement, Correction, Mastering, And Other Advantageous Processing of Three Dimensional Media Content
WO2011099896A1 (fr) Procédé de représentation d&#39;une scène tridimensionnelle de base suite à la prise de vue d&#39;images dans une projection bidimensionnelle et variantes
FR3012000A1 (fr) Procede et dispositif de capture et de construction d&#39;un flux d&#39;images panoramiques ou stereoscopiques
Birklbauer et al. Light‐Field Retargeting
FR3002104A1 (fr) Procede pour generer, transmettre et recevoir des images stereoscopiques, et dispositifs connexes
KR101844843B1 (ko) 플로팅 홀로그램 영상처리장치 및 그 방법
KR101289283B1 (ko) 하이브리드 영상획득 장치 기반 홀로그래픽 영상 복원 방법
JP4129786B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
WO2008142235A1 (fr) Procede de traitement d&#39;image pour la synthese d&#39;image autostereoscopique
WO2014170482A1 (fr) Procede de generation d&#39;un flux video de sortie a partir d&#39;un flux video large champ
FR2968108A1 (fr) Procede de reduction de la taille d’une image stereoscopique
JP4165158B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
WO2013045853A1 (fr) Méthode et dispositif de filtrage d&#39;une carte de disparité
Navarro et al. Optical slicing of large scenes by synthetic aperture integral imaging
US20240155095A1 (en) Systems and methods for processing volumetric images
FR2962291A1 (fr) Procede de traitement d&#39;images 3d, et systeme correspondant

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08787862

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 08787862

Country of ref document: EP

Kind code of ref document: A1