EP2589025A2 - Procede d'estimation de diffusion de la lumiere - Google Patents

Procede d'estimation de diffusion de la lumiere

Info

Publication number
EP2589025A2
EP2589025A2 EP11729394.4A EP11729394A EP2589025A2 EP 2589025 A2 EP2589025 A2 EP 2589025A2 EP 11729394 A EP11729394 A EP 11729394A EP 2589025 A2 EP2589025 A2 EP 2589025A2
Authority
EP
European Patent Office
Prior art keywords
medium
light
heterogeneous
projection
coefficients
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP11729394.4A
Other languages
German (de)
English (en)
Inventor
Cyril Delalandre
Pascal Gautron
Jean-Eudes Marvie
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Priority to EP11729394.4A priority Critical patent/EP2589025A2/fr
Publication of EP2589025A2 publication Critical patent/EP2589025A2/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models

Definitions

  • the invention relates to the field of synthetic image composition and more particularly to the field of simulating the scattering of light in a heterogeneous participating medium.
  • the invention is also in the context of special effects for a composition in real time (of the English "live").
  • the participating media correspond to media composed of suspended particles that interact with the light to modify the path and the intensity in particular.
  • the participating media can be broken down into two parts, namely homogeneous media such as water and heterogeneous media, such as smoke or clouds.
  • homogeneous participating media it is possible to calculate in an analytical way the attenuation of the light emitted by a light source. Indeed, because of their homogeneous nature, these media have parameters such as the absorption coefficient of light or the scattering coefficient of light of constant value at any point in the medium.
  • the absorption and scattering properties of light vary from one point to another in a heterogeneous participating medium. The calculations necessary to simulate the scattering of light in such a heterogeneous medium are then very expensive and it is thus not possible to calculate analytically and in real time the amount of light scattered by a heterogeneous participating medium.
  • the quantity of light diffused by the medium also varies according to the direction of diffusion of the light. That is, the direction in which a person looks at this environment. Calculations estimating the amount of light scattered must then be repeated for each direction of observation of the medium by a person to obtain a realistic rendering of the medium.
  • some methods perform the pre-calculation of certain parameters representative of the heterogeneous participating medium. While these methods are ideally suited for use in a post-production studio, for example, and provide good quality rendering, these methods are not suitable in the context of interactive design and real-time rendering of a heterogeneous participating medium.
  • WO2009 / 003143 Such a method is for example described in the patent application WO2009 / 003143 filed by Microsoft Corporation and published on December 31, 2008.
  • the object of the invention WO2009 / 003143 object is a real-time software rendering a heterogeneous medium and describes a solution using radial basic functions.
  • this solution can not be considered as a real-time rendering solution since certain pre-treatments must be applied offline (from the "offline") to the participating medium in order to calculate projection coefficients representing the environment that will be used for real time calculations of image synthesis.
  • the invention aims to overcome at least one of these disadvantages of the prior art.
  • the invention particularly aims to optimize the computation time required to compose a realistic real-time rendering of the light scattering in a heterogeneous participating medium.
  • the invention relates to a method for estimating the amount of light diffused by a heterogeneous participating medium, the method comprising the steps of:
  • estimating projection coefficients in a function basis from representative density values for a set of elements of the heterogeneous participating medium located along at least one direction of light emission by a light source, and estimating the amount of light diffused by the heterogeneous participating medium, according to at least one direction of light scattering, from the estimated projection coefficients.
  • the elements of the heterogeneous participating medium are points or particles.
  • the estimation of the projection coefficients is independent of the wavelength of the light emitted by the light source.
  • the projection coefficients are estimated by taking into account a predetermined scale factor ⁇ .
  • the projection coefficients are estimated using a ray sampling method, the heterogeneous participating medium being composed of points.
  • the projection coefficients are estimated using a particle addition method, the heterogeneous participating medium being composed of particles.
  • the method comprises a step of estimating values representative of the reduction in luminous intensity from the estimated projection coefficients.
  • the estimation of the quantity of light diffused by said medium is carried out by discretizing the heterogeneous participating medium along the at least one diffusion direction.
  • the estimation of the amount of light diffused by the heterogeneous participating medium is carried out using a ray sampling method.
  • the estimation of the amount of light diffused by the heterogeneous participating medium is carried out using a particle addition method.
  • the projection coefficients are stored in a projection texture.
  • FIG. 1 schematically illustrates a heterogeneous, light-scattering participating medium, according to a particular embodiment of the invention
  • FIG. 2 schematically illustrates a method for estimating the attenuation of light in a medium of FIG. 1, according to a particular embodiment of the invention
  • FIG. 3 schematically illustrates a method for estimating the quantity of light diffused by a medium of FIG. 1, according to one particular embodiment of the invention
  • FIG. 4 illustrates a device implementing a method for estimating the quantity of scattered light, according to an example of a particular implementation of the invention
  • FIG. 5 illustrates a method for estimating the quantity of scattered light, according to one particular embodiment of the invention.
  • FIG. 1 illustrates a heterogeneous participating media (heterogeneous participant media), for example a cloud.
  • a participating medium is a medium, composed of a multitude of particles in suspension, which absorbs, emits and / or diffuses light.
  • a participating medium absorbs only light, for example light received from a light source 11 such as the sun for example. This means that light passing through the medium 10 is attenuated, the attenuation depending on the density of the medium.
  • the medium is heterogeneous, that is to say that the physical characteristics of the medium, such as the density of the particles composing, for example, vary from one point to another in the medium.
  • the participating medium is composed of small particles that interact with the light
  • the incident light that is to say received from the light source 1 1 in a direction ⁇ ⁇ 1 10 is not only absorbed but is also broadcast.
  • the light In an isotropic scattering participating medium, the light is diffused uniformly in all directions.
  • an anisotropic scattering participating medium such as the cloud 10 illustrated in FIG. 1, the scattering of the light depends on the angle between the direction of incidence ⁇ ⁇ 1 10 and the diffusion direction ⁇ 0 ⁇ * 120 of the light.
  • the amount of light diffused into an element (equated with a point or to a particle defined by a center and a radius of influence, a particle advantageously grouping together a set of points having the same properties M 13 of the medium 10 in the diffusion direction out 120 is calculated by the following equation:
  • the amount of light scattered by an element M 13 of the medium reaching the eye of a spectator 12 located at a point C of the space in the out direction 120, that is to say the amount of light scattered by the element M and attenuated by the medium 10 on the path MP, the point P being situated at the intersection of the middle 10 and the direction out in the direction of the spectator 12, is then:
  • D (M) or D (s) is the density of the medium in a given element, the density varying from one element to another since the medium is heterogeneous,
  • ⁇ ( ⁇ , ⁇ 0 ⁇ , ⁇ ) is the phase function describing how the light coming from the direction of incidence ⁇ , ⁇ is diffused in the direction of diffusion ⁇ 0 ⁇ * to the element M,
  • ⁇ L ri (M, cj0in) is the light intensity reduced to the element M coming from the direction of incidence ⁇ , ⁇ 1 and represents the amount of incident light arriving at the element M after attenuation due to the path of the light in the medium 10 on the segment KM, K being the point of intersection between the medium 10 and the radius of incidence ⁇ , ⁇ 1 10, and is:
  • Equation 2 makes it possible to calculate the amount of light diffused by an element M and reaching the eye of a spectator 12 located on the direction ⁇ 0 ⁇ .
  • To calculate the quantity of light received by a spectator looking in the direction ⁇ 0 ⁇ it is then necessary to sum all the contributions of all the middle elements located on the axis or t, that is to say say the elements situated on the segment PM max , P and M max being the two points of intersection between the medium 10 and the direction or t 120.
  • This total scattered luminance arriving at P 15 from the direction or t 120 due to the diffusion simple is then:
  • This total scattered luminance is obtained by integrating the contributions of all the elements located between P and M max on a radius having added as direction.
  • Such an integral equation can not be solved analytically in the general case and even less so for real-time estimation of the amount of scattered light.
  • the integral is evaluated numerically using the so-called ray sampling or ray-marching method. In this method, the integration domain is discretized into a multitude of 5M size intervals and we obtain the following equation:
  • the heterogeneous participating medium 10 is a three-dimensional element, shown in two dimensions in FIG. 1 for the sake of clarity.
  • the heterogeneous participating medium 10 is formed of a multitude of points, a density value being associated with each point.
  • the density values are advantageously stored in a texture called density texture.
  • the heterogeneous participating medium 10 is formed
  • FIG. 2 illustrates a method for estimating the attenuation of light from a light source 1 1 in the heterogeneous participating medium 10, and more particularly the application of the method of ray sampling to estimate the attenuation of light in the medium 10, according to a particular embodiment of the invention.
  • the light diffused at a point M 13 by the medium 10 is a composition of the light attenuation received by the medium 10 of a light source 11 and the diffusion of this light.
  • the term of the equation 1 representative of the attenuation of the light received from the light source 11 in the medium 10 is estimated .
  • the representative term of the attenuation of the simple diffusion at a point M of the medium 10 is represented by the following equation, equivalent to the equation 3: where Atti_ (M) is the attenuation of the luminous intensity at the point M 13 and represents the amount of incident light arriving at the point M after attenuation,
  • is the extinction coefficient of the medium, corresponding to the sum of the medium diffusion coefficient a s and the absorption coefficient of the medium
  • t (s) o t . D (s), which is to say that it is the density which varies from one point to another of the middle O.
  • the density is constant from one point to another and this is the coefficient extinction that varies from one point to another or from one particle to another.
  • each function f (x) (for example the function representative of the density) of a functional space can be represented as a linear combination of basic functions: where ⁇ is the j 'th coefficient of the basis function B j defined by:
  • the integration domain situated on the direction of incidence 1 10 considered between the entry point K 14 of the light ray 1 10 in the medium 10 and a considered point of the medium 10 is discretized in a series of intervals 201, 202, 20i, 20i + 1, 20n of size S 5.
  • the density also varies from one point to another, the density being equal to D in K and D, as a function of the position of the point M, on the radius of incidence ⁇ ⁇ 1 10.
  • To calculate the j 'th coefficient ⁇ at the point M for example from the equation 14, it calculates the sum of the contributions of points K, M and M2 which are associated density values D; D 2 , DM.
  • the variable xi of equation 14 corresponds to the distance between K 14 and the point considered along the radius of incidence considered (for example M 2 or M when calculating q at point M).
  • the set of projection coefficients of the basic functions thus calculated is stored in a projection texture (of the English "projective texture map” or “projective texturing"), such a projection texture can be compared to a map of shadow (of the English "shadow map”).
  • the calculated coefficients are representative of the density (or density variation) along the emission direction associated with each element (so-called texel) of the projection texture.
  • a graphical representation of the density variation in a given direction 1 10 is made possible by using these basic function coefficients, as shown in FIG. 2.
  • Att L (M) The estimate of Att L (M) is fast because the projection coefficients cj have been previously estimated (and advantageously stored in a projection texture). It is then easy to find Lri (M) since L r i (M) is equal to the product of Att L (M) by the quantity of light emitted by the light source 11 along the direction of emission of the light. light. Lri (M) is thus equivalent to Att L (M) by a factor.
  • the extinction coefficient of the medium t is dependent on the wavelength of the light emitted by the light source, it is necessary to calculate a set of basis function coefficients for each elementary component of the light, example the components R, G and B (of the English “Red, Green, Blue” or in French “Red, green, blue”), each component R, G and B having a particular wavelength or the components R, G, B and Y (from "Red, Green, Blue, Yellow” or "Red, Green, Blue, Yellow”).
  • the estimation of the basic function coefficients is performed independently of the wavelength of the light emitted by the light source according to an advantageous variant of the invention. To do this, the term has been removed from equation 7 which becomes:
  • the coefficient t is out of the equation 18 is taken into account when estimating the amount of light emitted by the point M as will be explained in reference to FIG 3.
  • a scaling factor ⁇ is introduced into equation 15 or into equation 18.
  • This scaling factor ⁇ allows advantageously to reduce the influence of the density in the equations 15 or 18 and in particular makes it possible to reduce, or even eliminate, the ringing artifacts, or Gibbs effects, due to the transformation of the reduced intensity of light in the functional space, for example in the Fourier space. Equations 15 and 18 then become according to this variant:
  • the scale factor ⁇ is advantageously parameterizable and determined by the user and is for example equal to twice the maximum density of the medium, or more than twice the maximum density, for example three or four times the maximum of density.
  • the operations described above are repeated for each illumination direction (or direction of incidence or light ray) starting from the light source 1 1 and passing through the medium 10.
  • the coefficients of Basic function representative of the density as the crossing of the medium is stored in the projection texture.
  • the projection texture then comprises all the projection coefficients representative of the density in the medium.
  • FIG. 3 illustrates a method for estimating the simple scattering of light in the heterogeneous participating medium 10, more particularly the application of the radius sampling method for estimating this simple diffusion in the medium 10, and more generally a method estimation of light scattering by the medium 10 using the basic function coefficients calculated above, according to a particular embodiment of the invention.
  • the ray sampling method is implemented according to a non-limiting embodiment of the invention.
  • the attenuation factor of the light of a point M 13 of the medium 10 corresponding to the attenuation of the light on the path going from M 13 to P 15, is estimated by the following equation: the density D (s) of an element s (that is to say, the point M, considered, the position of the point M, ranging from P to M) of the line segment [PM] varying since the medium 10 is heterogeneous.
  • equation 10 is very expensive in computing power and can not be calculated analytically. To overcome this problem, a sampling of the radius PM in the direction cjo out is carried out and after discretization of the segment PM is obtained in a multitude of elements 5 S :
  • Equation 12 represents the amount of light emitted by a point M and received by a spectator. The term is calculated using the equation To obtain the total quantity of light received by a spectator situated at a point C looking in the direction ⁇ 0 ⁇ * 120, it suffices to sum the elementary light quantities emitted by the set of points M, ranging from P to M max . We obtain for this:
  • the estimates described above are repeated for all directions starting from the user and passing through the medium 10.
  • the sum of the amounts of light received by the viewer in each observation direction provides the amount of light received from the medium 10 by the viewer 12.
  • equation 12 According to the variant in which the coefficients Cj are calculated independently of the extinction coefficient a t , equation 12 becomes:
  • equation 12 According to the variant according to which a scale factor is introduced into the calculation of the attenuation of the light in M, equation 12 becomes:
  • FIG. 4 schematically illustrates an example of a hardware embodiment of a device 4 adapted to the estimation of the quantity of light diffused by a heterogeneous participating medium 10.
  • the device 4 corresponding, for example, to a personal computer PC, to a laptop ( from the English "laptop") or a game console.
  • the device 4 comprises the following elements, interconnected by an address and data bus 45 which also carries a clock signal:
  • microprocessor 41 or CPU
  • a graphics card 42 comprising:
  • Random access memory type GRAM Graphical Random Access Memory
  • I / O devices 44 such as for example a keyboard, a mouse, a webcam; and
  • the device 4 also comprises a display screen type display device 43 connected directly to the graphics card 42 to display in particular the rendering of computed and compounded synthesis images in the graphics card, for example in real time.
  • the use of a dedicated bus for connecting the display device 43 to the graphics card 42 has the advantage of having much higher data transmission rates and thus of reducing the latency for the display of data. 'images composed by the graphics card.
  • the display device is external to the device 4.
  • the device 4, for example the graphics card comprises a connector adapted to transmit a display signal to an external display means such as for example an LCD screen or plasma, a video projector.
  • the word "register" used in the description of the memories 42, 46 and 47 designates in each of the memories mentioned, as well a memory area of low capacity (a few binary data) that a memory area of large capacity (allowing storing an entire program or all or part of the representative data data calculated or display).
  • the microprocessor 41 loads and executes the instructions of the program contained in the RAM 47.
  • the random access memory 47 comprises in particular:
  • parameters 471 representative of the heterogeneous participating medium 10 for example density parameters, light absorption coefficients, light scattering coefficients, scale factor ⁇ ).
  • the algorithms implementing the steps of the method specific to the invention and described hereinafter are stored in the GRAM memory 47 of the graphics card 42 associated with the device 4 implementing these steps.
  • the graphics processors 420 of the graphics card 42 loads these parameters into GRAM 421 and executes the instructions of these algorithms in the form of firmware of the "shader" type using the High Level Shader Language (HLSL), the GLSL (OpenGL Shading language), or the English language. OpenGL shaders ”) for example.
  • HLSL High Level Shader Language
  • GLSL OpenGL Shading language
  • English language OpenGL shaders
  • the memory GRAM 421 comprises in particular:
  • projection coefficients 421 1 representative of the density at each point of the medium 10 or associated with each particle of the medium 10;
  • values 4213 representative of the quantity of light diffused by the medium 10 along one or more observation directions.
  • part of the RAM 47 is allocated by the
  • the power supply 48 is external to the device
  • FIG. 5 illustrates a method of estimating the scattering of light in a heterogeneous participating medium implemented in a device 4, according to a first example of non-limiting implementation that is particularly advantageous for the invention.
  • the various parameters of the device 4 are updated.
  • the representative parameters of the heterogeneous participating medium are initialized in some way.
  • projection coefficients of a basic function are estimated, these projection coefficients being representative of the density whose values vary in the heterogeneous participating medium 10.
  • the function has t (s) representative of the density variations in the medium 10 is projected and shown in a functional space of basic functions, for example using a Fourier transform or a discrete cosine transform. From the density values associated with the elements (ie at the points or particles) of the medium 10, a set of projection coefficients is calculated for a direction of emission of the light 1 10, or more precisely for the line segment corresponding to the intersection of a light beam 1 10, coming from a light source 1 1, with the medium 10.
  • the line segment is advantageously divided spatially into a multitude of elementary pieces of the same length or of different lengths and the projection coefficients representative of the density are calculated for a point of each elementary piece of the segment.
  • the method used to discretize the line segment and to estimate the projection coefficients is the so-called ray-marching algorithm method.
  • the associated projection coefficients are obtained by summing density-dependent values associated with each point situated between the intersection point K 14 of the medium 10 and the radius of incidence 1 10 and the point M considered and the distance between the intersection point K 14 and the point corresponding to the discretization of this piece of segment. Then a value representative of the reduction of the luminous intensity at point M 13 is calculated from the estimated projection coefficients. Similarly, a value representative of the reduction in light intensity is calculated for each discretized point of the medium 10 along the radius 1 10 from the associated projection coefficients.
  • projection coefficients are estimated for a given particle of the segment [KL] using a method called particle addition (particle blending).
  • particle addition particle blending
  • density-dependent values associated with particles located between the intersection point K and the particle of interest and dependent on the distance between the particles situated between K and the particle in question are added to each other.
  • the projection coefficients representative of the density are estimated for any point of the medium 10 or for any particle of the medium 10.
  • the estimated projection coefficients are recorded and stored in a projection texture 30.
  • a storage space of the projection texture is allocated for storing the estimated projection coefficients for each incident light beam from the light source 1 1.
  • the projection texture advantageously comprises all the projection coefficients of the medium 10, that is to say a set of projection coefficients for each point or each particle of the medium 10.
  • Such a storage of the projection coefficients offers the advantage of accelerating the estimation calculations of the quantity of light diffused by the medium 10 and perceived by a viewer, the projection coefficients representative of the density being available at any time and immediately for use in the equations for estimating the light intensity reduction values.
  • the amount of light scattered by the medium 10 in a transmission direction 120 is estimated using the projection coefficients estimated previously.
  • the line segment corresponding to the intersection of the transmission direction 120 with the medium 120 that is to say the segment [PM max ] is discretized spatially in a multitude of points or elementary pieces representative of this segment.
  • equation 24 is applied using the projection coefficients previously estimated.
  • the ray sampling method is implemented to estimate the reduction in light intensity between a point of the segment considered and the point P located at the periphery of the medium 10 in the emission direction 120.
  • the estimation of the quantity of light diffused by said medium is carried out using a particle addition method.
  • the total quantity of light received by a spectator located at a point C looking in the direction ⁇ 0 ⁇ * 120 is equal to the sum of the elementary light quantities emitted by all the particles located on the path ⁇ 0 ⁇ * between P to M max .
  • This variant has the advantage of being able to sum the quantities of light emitted by the particles in any order and not necessarily progressing from P to M max by summing the values of quantities of lights emitted in this order.
  • the order of taking into account the amount of light emitted by each particle is arbitrary and is advantageously taken care of directly by the rendering pipeline of the graphics card.
  • the quantity of light diffused by the medium 10 is estimated for several directions of emission. By summing these quantities of lights estimated for a plurality of transmission directions, the total amount of light diffused by the medium 10 and perceived by a spectator observing the medium 10 is obtained.
  • the steps 51 and 52 are advantageously reiterated as a spectator 12 moves around the medium 10, the image forming the rendering of the medium 10 being recomposed for each elementary movement of the spectator 12 around the medium 10.
  • the invention is not limited to the embodiments described above.
  • the invention is not limited to a method for estimating the amount of light diffused by a heterogeneous participating medium but also extends to any device implementing this method and in particular all the devices comprising at least one GPU.
  • the implementation of the equations described with reference to FIGS. 1 to 3 for the estimation of the projection coefficients, the reduction of luminous intensity in the directions of incidence and emission, of the quantity of light diffused is not no longer limited to an implementation in firmware type shader but also extends to an implementation in any type of program, for example programs executable by a CPU type microprocessor.
  • the basic functions used for estimating the projection coefficients are discrete cosine transform functions.
  • the basic functions used are conventional Fourier functions or the Legendre polynomials or the Chebyshev polynomials.
  • the broadcasting method implemented in a device comprising a 3.6GHz Xeon® microprocessor and a nVidia geforce GTX280 graphics card makes it possible to compose the 20 frames per second rendering in real time for a heterogeneous participating medium.
  • cloud type consisting of 4096 spheres.
  • the use of the invention is however not limited to real-time use but also extends to any other use, for example for so-called postproduction processing in the recording studio for the rendering of computer-generated images. example.
  • the implementation of the invention in postproduction offers the advantage of providing an excellent visual rendering in terms of realism in particular while reducing the calculation time required.
  • the invention also relates to a method for composing a two-dimensional or three-dimensional video image in which the amount of light scattered by a heterogeneous participating medium is calculated and the information representative of the luminance that results therefrom is used.
  • for displaying the pixels of the image each pixel corresponding to an observation direction according to an observation direction ⁇ 0 ⁇ .
  • the luminance value calculated for display by each of the pixels of the image is recalculated to suit the viewer's different points of view.
  • the present invention can be used in video game applications for example, whether by programs executable in a PC or portable computer or in specialized gaming consoles producing and displaying images in real time.
  • the device 5 described with reference to FIG. 5 is advantageously provided with interaction means such as keyboard and / or joystick, other modes of introduction of commands such as, for example, voice recognition being also possible.

Abstract

L'invention concerne un procédé d'estimation de la quantité de lumière diffusée par un milieu participant hétérogène (10). Afin d'améliorer le rendu tout en minimisant les temps de calculs nécessaires, le procédé comprend les étapes de : - estimation de coefficients de projection dans une base de fonction à partir de valeurs représentative de densité pour un ensemble de points (13) dudit milieu situés le long d'au moins une direction d'émission (110) de lumière par une source lumineuse (11), et - estimation de la quantité de lumière diffusée par ledit milieu (10), selon au moins une direction de diffusion (120) de la lumière, à partir desdits coefficients de projection estimés.

Description

PROCEDE D'ESTIMATION DE DIFFUSION DE LA LUMIERE
1. Domaine de l'invention.
L'invention se rapporte au domaine de la composition d'images de synthèse et plus particulièrement au domaine de la simulation de la diffusion de la lumière dans un milieu participant hétérogène. L'invention s'inscrit également dans le contexte des effets spéciaux pour une composition en temps réel (de l'anglais « live »).
2. Etat de l'art.
Selon l'état de la technique, différentes méthodes existent pour simuler la diffusion de la lumière dans des milieux participants tels que par exemple le brouillard, la fumée, la poussière ou les nuages. Les milieux participants correspondent à des milieux composés de particules en suspension qui interagissent avec la lumière pour en modifier le trajet et l'intensité notamment.
Les milieux participants peuvent être décomposés en deux parties, à savoir les milieux homogènes tels que l'eau et les milieux hétérogènes, tels que la fumée ou les nuages. Dans le cas des milieux participants homogènes, il est possible de calculer de manière analytique l'atténuation de la lumière émise par une source de lumière. En effet, de part leur nature homogène, ces milieux présentent des paramètres tels que le coefficient d'absorption de la lumière ou le coefficient de diffusion de la lumière de valeur constante en tout point du milieu. A contrario, les propriétés d'absorption et de diffusion de la lumière varient d'un point à un autre dans un milieu participant hétérogène. Les calculs nécessaires pour simuler la diffusion de la lumière dans un tel milieu hétérogène sont alors très coûteux et il n'est ainsi pas possible de calculer de manière analytique et en temps réel la quantité de lumière diffusée par un milieu participant hétérogène. De plus, le milieu n'étant pas diffus (c'est-à-dire, la diffusion du milieu étant anisotrope), la quantité de lumière diffusée par le milieu varie également en fonction de la direction de diffusion de la lumière, c'est-à-dire de la direction dans laquelle une personne regarde ce milieu. Les calculs estimant la quantité de lumière diffusée doivent alors être réitérés pour chaque direction d'observation du milieu par une personne pour obtenir un rendu réaliste du milieu. Pour effectuer le rendu en temps réel de milieux participant hétérogène, certaines méthodes effectuent le pré-calcul de certains paramètres représentatifs du milieu participant hétérogène. Si ces méthodes sont parfaitement adaptés pour une utilisation en studio de postproduction par exemple et fournissent un rendu de bonne qualité, ces méthodes ne sont pas adaptés dans le contexte de conception interactive et de composition de rendu en temps réel d'un milieu participant hétérogène. Une telle méthode est par exemple décrite dans la demande de brevet WO2009/003143 déposée par Microsoft Corporation et publiée le 31 décembre 2008. L'invention objet de la demande WO2009/003143 a pour objet un logiciel temps réel de rendu d'un milieu hétérogène et décrit une solution utilisant des fonctions de base radiales. Cette solution ne peut cependant pas être considérée comme une solution de rendu temps réel puisque certains prétraitements doivent être appliqués hors ligne (de l'anglais « offline ») au milieu participant pour pouvoir calculer des coefficients de projection représentant le milieu qui seront utilisés pour des calculs temps réels de synthèse d'image.
Avec l'émergence de jeux et d'applications de simulation interactifs, notamment en trois dimensions (3D), le besoin se fait sentir pour des méthodes de simulations temps réel offrant un rendu de milieux participants hétérogènes réaliste.
3. Résumé de l'invention.
L'invention a pour but de pallier au moins un de ces inconvénients de l'art antérieur.
Plus particulièrement, l'invention a notamment pour objectif d'optimiser les temps de calcul nécessaire pour composer un rendu réaliste en temps réel de la diffusion de la lumière dans un milieu participant hétérogène.
L'invention concerne un procédé d'estimation de la quantité de lumière diffusée par un milieu participant hétérogène, le procédé comprenant les étapes de :
- estimation de coefficients de projection dans une base de fonction à partir de valeurs représentatives de densité pour un ensemble d'éléments du milieu participant hétérogène situés le long d'au moins une direction d'émission de lumière par une source lumineuse, et - estimation de la quantité de lumière diffusée par le milieu participant hétérogène, selon au moins une direction de diffusion de la lumière, à partir des coefficients de projection estimés.
De manière avantageuse, les éléments du milieu participant hétérogène sont des points ou des particules.
Selon une caractéristique spécifique, l'estimation des coefficients de projection est indépendante de la longueur d'onde de la lumière émise par la source lumineuse.
Selon une caractéristique particulière, les coefficients de projection sont estimés en prenant en compte un facteur d'échelle Δ prédéterminé.
Avantageusement, les coefficients de projection sont estimés en utilisant une méthode d'échantillonnage de rayon, le milieu participant hétérogène étant composé de points.
Selon une caractéristique spécifique, les coefficients de projection sont estimés en utilisant une méthode d'addition de particules, le milieu participant hétérogène étant composé de particules.
De manière avantageuse, le procédé comprend une étape d'estimation de valeurs représentatives de la réduction d'intensité lumineuse à partir des coefficients de projection estimés.
Selon une caractéristique particulière, l'estimation de la quantité de lumière diffusée par ledit milieu est réalisée par discrétisation du milieu participant hétérogène le long de la au moins une direction de diffusion.
Selon une autre caractéristique, l'estimation de la quantité de lumière diffusée par le milieu participant hétérogène est réalisée en utilisant une méthode d'échantillonnage de rayon.
Avantageusement, l'estimation de la quantité de lumière diffusée par le milieu participant hétérogène est réalisée en utilisant une méthode d'addition de particules.
Selon une autre caractéristique, les coefficients de projection sont stockés dans une texture de projection.
4. Liste des figures.
L'invention sera mieux comprise, et d'autres particularités et avantages apparaîtront à la lecture de la description qui va suivre, la description faisant référence aux dessins annexés parmi lesquels : - la figure 1 illustre schématiquement un milieu participant hétérogène diffusant de la lumière, selon un mode de réalisation particulier de l'invention ;
- la figure 2 illustre schématiquement une méthode d'estimation de l'atténuation de la lumière dans un milieu de la figure 1 , selon un mode de réalisation particulier de l'invention ;
- la figure 3 illustre schématiquement une méthode d'estimation de la quantité de lumière diffusée par un milieu de la figure 1 , selon un mode de réalisation particulier de l'invention ;
- la figure 4 illustre un dispositif mettant en œuvre une méthode d'estimation de la quantité de lumière diffusée, selon un exemple de mise en œuvre particulier de l'invention ;
- la figure 5 illustre un procédé d'estimation de la quantité de lumière diffusée, selon un mode de réalisation particulier de l'invention.
5. Description détaillée de modes de réalisation de l'invention.
La figure 1 illustre un milieu participant hétérogène 10 (de l'anglais « heterogeneous participating média »), par exemple un nuage. Un milieu participant est un milieu, composé d'une multitude de particules en suspension, qui absorbe, émet et/ou diffuse de la lumière. Dans sa forme la plus simple, un milieu participant absorbe seulement de la lumière, par exemple de la lumière reçue d'une source de lumière 1 1 telle que le soleil par exemple. Cela signifie que de la lumière passant au travers du milieu 10 est atténuée, l'atténuation dépendant de la densité du milieu. Le milieu étant hétérogène, c'est-à-dire que les caractéristiques physiques du milieu, telle que la densité des particules le composant par exemple, varient d'un point à un autre dans le milieu. Comme le milieu participant est composée de petites particules qui interagissent avec la lumière, la lumière incidente, c'est-à-dire reçue de la source de lumière 1 1 selon une direction ωίη 1 10 n'est pas seulement absorbée mais elle est également diffusée. Dans un milieu participant à diffusion isotrope, la lumière est diffusée uniformément dans toutes les directions. Dans un milieu participant à diffusion anisotrope, tel que le nuage 10 illustré en figure 1 , la diffusion de la lumière dépend de l'angle entre la direction d'incidence ωίη 1 10 et la direction de diffusion ω0ι* 120 de la lumière. La quantité de lumière diffusée en un élément (assimilé à un point ou à une particule définie par un centre et un rayon d'influence, une particule regroupant avantageusement un ensemble de points ayant les mêmes propriétés) M 13 du milieu 10 dans la direction de diffusion out 120 est calculée par l'équation suivante :
La quantité de lumière diffusée par un élément M 13 du milieu atteignant l'œil d'un spectateur 12 situé en un point C de l'espace dans la direction out 120, c'est-à-dire la quantité de lumière diffusée par l'élément M et atténuée par le milieu 10 sur le trajet M-P, le point P étant situé à l'intersection du milieu 10 et de la direction out dans la direction du spectateur 12, est alors :
pour laquelle :
• os est le coefficient de diffusion du milieu,
• σ3 est le coefficient d'absorption du milieu,
• Ox=os+oa est le coefficient d'extinction du milieu,
• D(M) ou D(s) est la densité du milieu en un élément donné, la densité variant d'un élément à un autre puisque le milieu 10 est hétérogène,
• ρ(Μ,ω0υί,ωίη) est la fonction de phase décrivant comment la lumière provenant de la direction d'incidence ω,η est diffusée dans la direction de diffusion ω0ι* à l'élément M,
· Lri(M,cj0in) est l'intensité lumineuse réduite à l'élément M provenant de la direction d'incidence ω,η 1 10 et représente la quantité de lumière incidente arrivant à l'élément M après atténuation due au trajet de la lumière dans le milieu 10 sur le segment K-M, K étant le point d'intersection entre le milieu 10 et le rayon d'incidence ω,η 1 10, et vaut :
avec at(s) = ot . D(s)
représente l'atténuation de luminance diffusée due à
l'absorption et à la diffusion le long du chemin allant de P 15 à M 13.
L'équation 2 permet de calculer la quantité de lumière diffusée par un élément M et atteignant l'œil d'un spectateur 12 situé sur la direction ω0 Λ. Pour calculer la quantité de lumière reçue par un spectateur regardant dans la direction ω0 Λ, il faut alors effectuer la somme de toutes les contributions de l'ensemble des éléments du milieu situés sur l'axe out, c'est-à-dire les éléments situés sur le segment P-Mmax, P et Mmax étant les deux points d'intersection entre le milieu 10 et la direction out 120. Cette luminance diffusée totale arrivant en P 15 depuis la direction out 120 due à la diffusion simple est alors :
Dans ce cas de figure, on suppose que la lumière parcourant le trajet C-P n'est pas atténuée.
Cette luminance diffusée totale est obtenue par intégration des contributions de tous les éléments situés entre P et Mmax sur un rayon ayant ajout comme direction. Une telle équation intégrale ne peut pas être résolue de manière analytique dans le cas général et encore moins pour une estimation en temps réel de la quantité de lumière diffusée. L'intégrale est évaluée numériquement en utilisant la méthode dite d'échantillonnage de rayon ou de suivi de rayon (de l'anglais « ray-marching »). Dans cette méthode, le domaine d'intégration est discrétisé en une multitude d'intervalles de taille 5M et on obtient l'équation suivante :
De manière avantageuse, le milieu participant hétérogène 10 est un élément à trois dimensions, représenté en deux dimensions sur la figure 1 pour des raisons de clarté.
De manière avantageuse, le milieu participant hétérogène 10 est formé d'une multitude de points, une valeur de densité étant associé à chaque point. Les valeurs de densité sont avantageusement stockées dans une texture dite texture de densité.
Selon une variante, le milieu participant hétérogène 10 est formé
(et représenté par) d'une pluralité de particules, une particule étant assimilée à une sphère caractérisé par son centre et un rayon d'influence. Une particule regroupe plusieurs points ayant des propriétés identiques (par exemple la densité). Selon cette variante, une valeur de densité est associée à chaque particule. La figure 2 illustre une méthode d'estimation de l'atténuation de la lumière issue d'une source de lumière 1 1 dans le milieu participant hétérogène 10, et plus particulièrement l'application de la méthode d'échantillonnage de rayon pour estimer l'atténuation de la lumière dans le milieu 10, selon un mode de réalisation particulier de l'invention. Comme cela a été décrit en regard de la figure 1 , la lumière diffusée en un point M 13 par le milieu 10 est une composition de l'atténuation lumière reçue par le milieu 10 d'une source lumineuse 1 1 et de la diffusion de cette quantité de lumière atténuée reçue par le milieu 10. Dans un premier temps, en regard de la figure 2, le terme de l'équation 1 représentatif de l'atténuation de la lumière reçue de la source lumineuse 1 1 dans le milieu 10 est estimé. Le terme représentatif de l'atténuation de la diffusion simple en un point M du milieu 10 est représenté par l'équation suivante, équivalente à l'équation 3 : où Atti_(M) est l'atténuation de l'intensité lumineuse au point M 13 et représente la quantité de lumière incidente arrivant au point M après atténuation,
D(s) est la densité du milieu,
θχ est le coefficient d'extinction du milieu, correspondant à la somme du coefficient de diffusion du milieu as et du coefficient d'absorption du milieu
Oa (Ot = Os + Oa).
De manière avantageuse, at(s) = ot . D(s), ce qui revient à dire que c'est la densité qui varie d'un point à un autre du milieul O. Selon une variante, la densité est constante d'un point à un autre et c'est le coefficient d'extinction qui varie d'un point à un autre ou d'une particule à une autre.
Pour simplifier et accélérer les calculs nécessaires à l'estimation de l'atténuation de l'intensité lumineuse au point M 13, les valeurs représentatives de la densité D(s) sont projetées le long du rayon d'incidence correspondant à l'intersection entre la direction d'incidence ω,η 1 10 et le milieu 10, par exemple en utilisant la fonction DCT inverse (de l'anglais « Discrète Cosine Transform » ou en français « Transformée en cosinus discret »). Pour rappel, chaque fonction f(x) (par exemple la fonction représentative de la densité) d'un espace fonctionnel peut être représentée comme une combinaison linéaire de fonctions de base : où η est le j'eme coefficient de la fonction de base Bj défini par :
En prenant comme exemple la base de fonction DCT (de l'anglais « Discrète Cosine Transform » ou en français « Transformée en cosinus discret »), on a la formule suivante pour estimer le jeme coefficient de projection Cj :
avec : II est ensuite possible de reconstruire la fonction f(x) en utilisant la fonction de DCT inverse, à savoir : En partant de l'équation 6 et en projetant les valeurs représentatives de la fonction at(s) (ce qui revient à projeter les valeurs de densité D(s)) le long du rayon d'incidence correspondant à l'intersection entre la direction d'incidence ωιη 1 10 et le milieu 10 en utilisant la fonction DCT inverse, on obtient :
Cette équation 1 1 pouvant être réécrite de la manière suivante :
Un avantage offert par cette équation 12 est qu'elle peut être résolue simplement de la manière suivante :
Et le terme q est obtenu par en transformant la fonction atD(x) en DCT en utilisant une méthode de type ray-marching par exemple :
En effet, pour estimer le j'eme coefficient de projection η au point M, le domaine d'intégration situé sur la direction d'incidence 1 10 considérée entre le point d'entrée K 14 du rayon lumineux 1 10 dans le milieu 10 et un point considéré du milieu 10 est discrétisé en une série d'intervalles 201 , 202, 20i, 20i+1 , 20n de taille 5S. Par ailleurs, la densité varie également d'un point à un autre, la densité étant égale à D en K et à D, en fonction de la position du point M, sur le rayon d'incidence ωίη 1 10. Pour calculer le j'eme coefficient η au point M par exemple à partir de l'équation 14, on effectue la somme des contributions des points K, M2 et M auxquels sont associées les valeurs de densité D ; D2, DM . La variable xi de l'équation 14 correspond à la distance entre K 14 et le point considéré le long du rayon d'incidence considéré (par exemple M2 ou M lors du calcul de q au point M).
L'ensemble de coefficients de projection des fonctions de base ainsi calculés est stocké dans une texture de projection (de l'anglais « projective texture map » ou « projective texturing »), une telle texture de projection pouvant être comparée à une carte d'ombre (de l'anglais « shadow map »). Les coefficients calculés sont représentatifs de la densité (ou de la variation de densité) le long de la direction d'émission associée à chaque élément (dit texel) de la texture de projection. Une représentation graphique de la variation de la densité selon une direction donnée 1 10 est rendue possible en utilisant ces coefficients de fonction de base, telle que représentée en 20 sur la figure 2.
L'utilisation des coefficients de projection représentatifs de la densité permet de calculer rapidement l'atténuation de la lumière au point M 13 le long de la direction d'incidence 1 10, l'atténuation de la lumière étant calculée à l'aide de l'équation 6 : En appliquant la méthode de ray-marching pour l'estimation de cette atténuation de la lumière au point M, on obtient l'équation suivante :
On obtient alors à partir des équations 1 1 et 16 l'équation suivante :
L'estimation de AttL(M) est rapide du fait que les coefficients de projection cj ont été estimés précédemment (et avantageusement stockés dans une texture de projection). Il est alors simple de retrouve Lri(M) puisque Lri(M) est égale au produit de AttL(M) par la quantité de lumière émise par la source de lumière 1 1 le long de la direction d'émission de la lumière. Lri(M) est ainsi équivalent à AttL(M) à un facteur près.
Le coefficient d'extinction du milieu at étant dépendant de la longueur d'onde de la lumière émise par la source lumineuse, il s'avère nécessaire de calculer un ensemble de coefficients de fonction de base pour chaque composante élémentaire de la lumière, par exemple les composantes R, G et B (de l'anglais « Red, Green, Blue » ou en français « Rouge, vert, bleu »), chaque composante R, G et B ayant une longueur d'onde particulière ou encore les composantes R, G, B et Y (de l'anglais « Red, Green, Blue, Yellow » ou en français « Rouge, vert, bleu, jaune »). Pour éviter ces nombreux calculs et ainsi accélérer les traitements nécessaires à l'estimation de ces coefficients et aussi pour minimiser l'espace mémoire nécessaire au stockage de ces coefficients de fonction de base, l'estimation des coefficients de fonction de base est réalisée indépendamment de la longueur d'onde de la lumière émise par la source lumineuse selon une variante avantageuse de l'invention. Pour ce faire, le terme at est sorti de l'équation 7 qui devient :
Le coefficient at sorti de l'équation 18 est pris en compte lors de l'estimation de la quantité de lumière émise par le point M comme cela sera expliqué en regard de la figure 3.
Selon une autre variante, un facteur d'échelle Δ est introduit dans l'équation 15 ou dans l'équation 18. Ce facteur d'échelle Δ permet avantageusement de diminuer l'influence de la densité dans les équations 15 ou 18 et permet notamment de réduire, voire supprimer, les artéfacts d'oscillation (de l'anglais « ringing artifact »), ou effets de Gibbs, dus à la transformation de l'intensité réduite de la lumière dans l'espace fonctionnel, par exemple dans l'espace de Fourier. Les équations 15 et 18 deviennent alors selon cette variante :
Le facteur d'échelle Δ est avantageusement paramétrable et déterminé par l'utilisateur et est par exemple égal à deux fois le maximum de densité du milieu, ou à plus de deux fois le maximum de densité, par exemple trois ou quatre fois le maximum de densité.
De manière avantageuse, les opérations décrites ci-dessus sont réitérées pour chaque direction d'éclairage (ou direction d'incidence ou rayon lumineux) partant de la source de lumière 1 1 et traversant le milieu 10. Pour chaque rayon lumineux, les coefficients de fonction de base représentatifs de la densité au fur et à mesure de la traversée du milieu sont stockés dans la texture de projection. La texture de projection comprend alors tous les coefficients de projections représentatifs de la densité dans le milieu.
La figure 3 illustre une méthode d'estimation de diffusion simple de la lumière dans le milieu participant hétérogène 10, plus particulièrement l'application de la méthode d'échantillonnage de rayon pour estimer cette diffusion simple dans le milieu 10, et plus généralement une méthode d'estimation de diffusion de la lumière par le milieu 10 en utilisant les coefficients de fonction de base calculés précédemment, selon un mode de réalisation particulier de l'invention. Pour calculer la diffusion simple de la lumière dans le milieu 10, la méthode d'échantillonnage de rayon est mise en œuvre selon un mode de réalisation non limitatif de l'invention. Dans un premier temps, le facteur d'atténuation de la lumière d'un point M 13 du milieu 10 correspondant à l'atténuation de la lumière sur le trajet allant de M 13 à P 15, est estimé par l'équation suivante : la densité D(s) d'un élément s (c'est-à-dire du point M, considéré, la position du point M, allant de P à M) du segment de droite [PM] variant puisque le milieu 10 est hétérogène.
Le milieu étant hétérogène, l'équation 10 est très coûteuse en puissance de calcul et ne peut donc pas être calculée de manière analytique. Pour pallier ce problème, un échantillonnage du rayon P-M suivant la direction cjoout est réalisé et on obtient après discrétisation du segment P-M en une multitude d'éléments 5S :
A partir des coefficients de projection représentatifs de la densité sur le trajet incident de la lumière issue d'une source lumineuse 1 1 (estimés via l'équation 14 décrite en regard de la figure 2) et stockés dans une texture de projection 30 et à partir de l'équation 17, il est possible d'estimer l'atténuation globale de la lumière en un point M telle qu'elle est reçue par un spectateur 12 (c'est-à-dire composition de l'atténuation lumineuse dans le milieu 10 selon ωίη 1 10 et selon ω0ι* 120) de manière analytique, les ressources en terme de puissance de calcul nécessaire étant très largement inférieures par rapport à celles nécessaires pour une résolution analytique des équations de forme intégrale. Il est alors possible d'estimer la quantité de lumière émise par un point M 13 du milieu et reçue par un spectateur 12 regardant dans la direction ω0 Λ- On obtient ainsi :
soit
soit dans laquelle x représente la position du point M considéré sur le segment [KL] ou de manière équivalente la distance de K à M le long de la direction ω,η 1 10 et Nc représente le nombre de coefficients de projection. L'équation 12 représente la quantité de lumière émise par un point M et reçue par un spectateur. Le terme est calculée en utilisant l'équation Pour obtenir la quantité totale de lumière reçue par un spectateur situé en un point C regardant dans la direction ω0ι* 120, il suffit de faire la somme des quantités de lumière élémentaires émises par l'ensemble des points M, allant de P à Mmax. On obtient pour cela :
Pour obtenir la quantité de lumière totale diffusée par le milieu 10 et reçue par le spectateur 12, les estimations décrites ci-dessus sont réitérées pour toutes les directions partant de l'utilisateur et traversant le milieu 10. La somme des quantités de lumière reçues par le spectateur selon chaque direction d'observation fournit la quantité de lumière reçue du milieu 10 par le spectateur 12.
Selon la variante selon laquelle les coefficients Cj sont calculés indépendamment du coefficient d'extinction at, l'équation 12 devient :
Selon la variante selon laquelle un facteur d'échelle est introduit dans le calcul de l'atténuation de la lumière en M, l'équation 12 devient :
La figure 4 illustre schématiquement un exemple de réalisation matérielle d'un dispositif 4 adapté à l'estimation de la quantité de lumière diffusée par un milieu participant hétérogène 10. Le dispositif 4 correspondant par exemple à un ordinateur personnel PC, à un ordinateur portable (de l'anglais « laptop ») ou à une console de jeux.
Le dispositif 4 comprend les éléments suivants, reliés entre eux par un bus 45 d'adresses et de données qui transporte également un signal d'horloge :
- un microprocesseur 41 (ou CPU) ;
- une carte graphique 42 comprenant :
• plusieurs processeurs de traitement graphique 420 (ou GPUs) ;
• une mémoire vive de type GRAM (de l'anglais « Graphical Random Access Memory ») 421 ;
- une mémoire non volatile de type ROM (de l'anglais « Read
Only Memory ») 46 ; - une mémoire vive ou RAM (de l'anglais « Random Access Memory ») 47 ;
- un ou plusieurs dispositifs I/O (de l'anglais « Input/Output » ou en français « Entrée/Sortie ») 44, tels que par exemple un clavier, une souris, une webcam ; et
- une alimentation 48.
Le dispositif 4 comprend également un dispositif d'affichage 43 de type écran d'affichage relié directement à la carte graphique 42 pour afficher notamment le rendu d'images de synthèse calculées et composées dans la carte graphique, par exemple en temps réel. L'utilisation d'un bus dédié pour relier le dispositif d'affichage 43 à la carte graphique 42 offre l'avantage d'avoir des débits de transmission de données beaucoup plus important et ainsi de diminuer le temps de latence pour l'affichage d'images composées par la carte graphique. Selon une variante, le dispositif d'affichage est externe au dispositif 4. Le dispositif 4, par exemple la carte graphique, comprend un connecteur adapté à transmettre un signal d'affichage à un moyen d'affichage externe tel que par exemple un écran LCD ou plasma, un vidéoprojecteur.
On observe que le mot « registre » utilisé dans la description des mémoires 42, 46 et 47 désigne dans chacune des mémoires mentionnées, aussi bien une zone de mémoire de faible capacité (quelques données binaires) qu'une zone mémoire de grande capacité (permettant de stocker un programme entier ou tout ou partie des données représentatives de données calculées ou à afficher).
A la mise sous tension, le microprocesseur 41 charge et exécute les instructions du programme contenu dans la RAM 47.
La mémoire vive 47 comprend notamment :
- dans un registre 430, le programme de fonctionnement du microprocesseur 41 chargé à la mise sous tension du dispositif 4 ;
- des paramètres 471 représentatifs du milieu participant hétérogène 10 (par exemple paramètres de densité, de coefficients d'absorption de la lumière, de coefficients de diffusion de la lumière, le facteur d'échelle Δ).
Les algorithmes mettant en œuvre les étapes du procédé propres à l'invention et décrits ci-après sont stockés dans la mémoire GRAM 47 de la carte graphique 42 associée au dispositif 4 mettant en œuvre ces étapes. A la mise sous tension et une fois les paramètres 470 représentatifs du milieu chargés en RAM 47, les processeurs graphiques 420 de la carte graphique 42 charge ces paramètres en GRAM 421 et exécute les instructions de ces algorithmes sous la forme de microprogrammes du type « shader » utilisant le langage HLSL (de l'anglais « High Level Shader Language » ou en français « Langage de programmation « shader » de haut niveau »), le langage GLSL (de l'anglais « OpenGL Shading language » ou en français « Langage de shaders OpenGL ») par exemple.
La mémoire vive GRAM 421 comprend notamment :
- dans un registre 4210, les paramètres représentatifs du milieu
10 ;
- des coefficients de projection 421 1 représentatifs de la densité en chaque point du milieu 10 ou associée à chaque particule du milieu 10 ;
- des valeurs de réduction d'intensité lumineuse 421 2 pour tout ou partie des points du milieu 10 ;
- des valeurs 4213 représentatives de la quantité de lumière diffusée par le milieu 10 selon une ou plusieurs directions d'observation.
Selon une variante, une partie de la RAM 47 est allouée par le
CPU 41 pour stocker les coefficients 421 1 et valeurs 4212 et 4213 si l'espace mémoire disponible en GRAM 421 est insuffisant. Cette variante entraîne cependant des temps de latence plus important dans la composition d'une image comprenant une représentation du milieu 10 composée à partir des microprogrammes contenus dans les GPUs puisque les données doivent être transmises de la carte graphique à la mémoire vive 47 en passant par le bus 45 dont les capacités de transmission sont généralement inférieures à celles disponibles dans la carte graphique pour faire passer les données des GPUs à la GRAM et vice-versa.
Selon une autre variante, l'alimentation 48 est externe au dispositif
4.
La figure 5 illustre un procédé d'estimation de diffusion de la lumière dans un milieu participant hétérogène mis en œuvre dans un dispositif 4, selon un premier exemple de mise en œuvre non limitatif particulièrement avantageux de l'invention. Au cours d'une étape d'initialisation 50, les différents paramètres du dispositif 4 sont mis à jour. En particulier, les paramètres représentatifs du milieu participant hétérogène 10 sont initialisés d'une manière quelconque.
Ensuite, au cours d'une étape 51 , des coefficients de projection d'une fonction de base sont estimés, ces coefficients de projection étant représentatifs de la densité dont les valeurs varient dans le milieu participant hétérogène 10. Pour ce faire, la fonction at(s) représentative des variations de densité dans le milieu 10 est projetée et représentée dans un espace fonctionnel de fonctions de base, par exemple en utilisant une transformée de Fourier ou une transformée en cosinus discret. A partir des valeurs de densité associées aux éléments (c'est-à-dire aux points ou aux particules) du milieu 10, un ensemble de coefficients de projection est calculé pour une direction d'émission de la lumière 1 10, ou plus précisément pour le segment de droite correspondant à l'intersection d'un rayon lumineux 1 10, issu d'une source lumineuse 1 1 , avec le milieu 10. Le segment de droite est avantageusement divisé spatialement en une multitude de morceaux élémentaires de même longueur ou de longueurs différentes et les coefficients de projection représentatifs de la densité sont calculés pour un point de chaque morceau élémentaire du segment. De manière avantageuse, la méthode utilisée pour discrétiser le segment de droite et pour estimer les coefficients de projection est la méthode dite d'échantillonnage de rayon (de l'anglais « ray-marching algorithm »). Pour un point M 13 du segment de droite, les coefficients de projection associés sont obtenus en sommant des valeurs dépendant de la densité associée à chaque point situé entre le point d'intersection K 14 du milieu 10 et du rayon d'incidence 1 10 et le point M considéré ainsi que de la distance entre le point d'intersection K 14 et le point correspondant à la discrétisation de ce morceau de segment. Puis une valeur représentative de la réduction de l'intensité lumineuse au point M 13 est calculée à partir des coefficients de projection estimés. De la même manière, une valeur représentative de la réduction de l'intensité lumineuse est calculée pour chaque point discrétisé du milieu 10 le long du rayon 1 10 à partir des coefficients de projection associés.
Selon une variante correspondant au cas où le milieu 10 est représenté par une pluralité de particules, chaque particule étant caractérisée par un centre et un rayon d'influence, une valeur de densité étant associée à chaque particule, des coefficients de projection sont estimés pour une particule donnée du segment [KL] en utilisant une méthode dite d'addition de particules (de l'anglais « particle blending »). Selon cette méthode, des valeurs dépendant de la densité associée aux particules se trouvant entre le point d'intersection K et la particule considérée et dépendant de la distance entre les particules situées entre K et la particule considérée sont ajoutées les unes aux autres. Un avantage offert par cette méthode est que l'ordre dans lequel sont prises les valeurs dépendant de la densité n'a pas d'impact sur le résultat de l'estimation des coefficients de projection, cette estimation pouvant être par ailleurs effectuée directement par la carte graphique. Une valeur représentative de la réduction de l'intensité lumineuse est alors avantageusement calculée à partir des coefficients de projection estimés et ce avantageusement pour chaque particule du segment du rayon d'incidence 1 10 inclus dans le milieu 10.
Selon une autre variante particulièrement avantageuse, les coefficients de projections représentatifs de la densité sont estimés pour tout point du milieu 10 ou pour toute particule du milieu 10. Les coefficients de projection estimés sont enregistrés et stockés dans une texture de projection 30. Ainsi, un espace de stockage de la texture de projection est alloué pour le stockage des coefficients de projection estimés pour chaque rayon lumineux incident issu de la source lumineuse 1 1 . Il ya autant d'espaces de stockages dans la texture de projection 30 qu'il y a de rayons lumineux issus de la source 1 1 et traversant le milieu 10. La texture de projection comprend de manière avantageuse l'ensemble des coefficients de projection du milieu 10, c'est-à-dire un ensemble de coefficients de projection pour chaque point ou chaque particule du milieu 10. Une tel stockage des coefficients de projection offre l'avantage d'accélérer les calculs d'estimation de la quantité de lumière diffusée par le milieu 10 et perçue par un spectateur, les coefficients de projection représentatifs de la densité étant disponible à tout moment et de manière immédiate pour une utilisation dans les équations permettant d'estimer les valeurs de réduction d'intensité lumineuse.
Puis, au cours d'une étape 52, la quantité de lumière diffusée par le milieu 10 selon une direction d'émission 120 est estimée en utilisant les coefficients de projection estimés précédemment. Pour ce faire, le segment de droite correspondant à l'intersection de la direction d'émission 120 avec le milieu 120, c'est-à-dire le segment [PMmax] est discrétisé spatialement en une multitude de points ou de morceaux élémentaires représentatifs de ce segment. Pour chaque point de ce segment (respectivement chaque morceau élémentaire), on applique l'équation 24 en utilisant les coefficients de projection estimés précédemment. Selon une variante, la méthode d'échantillonnage de rayon est mise en œuvre pour estimer la réduction de l'intensité lumineuse entre un point du segment considéré et le point P 15 situé à la périphérie du milieu 10 dans la direction d'émission 120. L'utilisation de coefficients de projection représentatifs de la densité selon un rayon lumineux incident permet de simplifier les calculs à mettre en œuvre tout en fournissant une estimation réaliste de la réduction de l'intensité lumineuse dans un milieu hétérogène. Aucun pré-calcul n'est alors nécessaire pour effectuer le rendu de la diffusion de la lumière dans un milieu participant hétérogène, autorisant le rendu temps réel de tels milieux dans des applications interactives de type jeu vidéo par exemple dans lequel l'utilisateur est amené à se déplacer virtuellement dans un espace comprenant un ou plusieurs milieux participants hétérogènes.
Selon une variante correspondant au cas où le milieu 10 est représenté par une pluralité de particules, l'estimation de la quantité de lumière diffusée par ledit milieu est réalisée en utilisant une méthode d'addition de particules. Selon cette variante, la quantité totale de lumière reçue par un spectateur situé en un point C regardant dans la direction ω0ι* 120 est égale à la somme des quantités de lumière élémentaires émises par l'ensemble des particules situées sur le trajet ω0ι* entre P à Mmax. Cette variante présente l'avantage de pouvoir sommer les quantités de lumières émises par les particules dans n'importe quel ordre et pas forcément en progressant de P vers Mmax en sommant les valeurs de quantités de lumières émises dans cet ordre. L'ordre de prise en compte des quantités de lumière émises par chaque particule est quelconque et est avantageusement pris en charge directement par le pipeline de rendu de la carte graphique.
De manière avantageuse, la quantité de lumière diffusée par le milieu 10 est estimée pour plusieurs directions d'émission. En faisant la somme de ces quantités de lumières estimées pour une pluralité de direction d'émission, on obtient la quantité de lumière totale diffusée par le milieu 10 et perçue par un spectateur observant le milieu 10.
Les étapes 51 et 52 sont avantageusement réitérées au fur et à mesure qu'un spectateur 12 se déplace autour du milieu 10, l'image formant le rendu du milieu 10 étant recomposée pour chaque déplacement élémentaire du spectateur 12 autour du milieu 10. Bien entendu, l'invention ne se limite pas aux modes de réalisation décrits précédemment.
En particulier, l'invention n'est pas limitée à un procédé d'estimation de la quantité de lumière diffusée par un milieu participant hétérogène mais s'étend également à tout dispositif mettant en œuvre ce procédé et notamment tous les dispositifs comprenant au moins un GPU. La mise en œuvre des équations décrites en regards des figures 1 à 3 pour l'estimation des coefficients de projection, des réduction d'intensité lumineuse dans les directions d'incidence et d'émission, de la quantité de lumière diffusée n'est pas non plus limitée à une mise en œuvre dans des microprogrammes de type shader mais s'étend également à une mise en œuvre dans tout type de programme, par exemple des programmes exécutables par un microprocesseur de type CPU.
De manière avantageuse, les fonctions de base utilisées pour l'estimation des coefficients de projections sont des fonctions de Transformée en cosinus discret. Selon une variante, les fonctions de base utilisées sont des fonctions de Fourier classique ou les polynômes de Legendre ou encore les polynômes de Tchebychev.
A titre d'exemple, le procédé de diffusion mis en œuvre dans un dispositif comprenant un microprocesseur Xeon® cadencé à 3.6GHz et une carte graphique nVidia geforce GTX280 permet de composer le rendu de 20 images par seconde en temps réel pour un milieu participant hétérogène de type nuage composé de 4096 sphères. L'utilisation de l'invention n'est cependant pas limitée à une utilisation temps réel mais s'étend également à toute autre utilisation, par exemple pour les traitements dits de postproduction en studio d'enregistrement pour le rendu d'images de synthèse par exemple. La mise en œuvre de l'invention en postproduction offre l'avantage de fournir un excellent rendu visuel en termes de réalisme notamment tout en diminuant les temps de calcul nécessaires.
L'invention concerne également un procédé de composition d'une image vidéo, en deux dimensions ou en trois dimensions, pour lequel la quantité de lumière diffusée par un milieu participant hétérogène est calculée et l'information représentative de la luminance qui en découle est utilisée pour l'affichage des pixels de l'image, chaque pixel correspondant à une direction d'observation selon une direction d'observation ω0 Λ. La valeur de luminance calculée pour affichage par chacun des pixels de l'image est recalculée pour s'adapter aux différents points de vue du spectateur. La présente invention peut être utilisée dans des applications de jeux vidéo par exemple, que ce soit par des programmes exécutables dans un ordinateur de type PC ou portable ou dans des consoles de jeux spécialisées produisant et affichant des images en temps réel. Le dispositif 5 décrit en regard de la figure 5 est avantageusement doté de moyens d'interactions tels que clavier et/ou manette de jeux, d'autres modes d'introduction de commandes telle que par exemple la reconnaissance vocale étant également possibles.

Claims

REVENDICATIONS
1 . Procédé d'estimation de la quantité de lumière diffusée par un milieu participant hétérogène (10), caractérisé en ce que le procédé comprend les étapes de :
- estimation (51 ) de coefficients de projection (421 1 ) dans une base de fonction à partir de valeurs représentatives de densité pour un ensemble d'éléments dudit milieu situés le long d'au moins une direction d'émission (1 10) de lumière par une source lumineuse (1 1 ), et
- estimation (52) de la quantité de lumière diffusée par ledit milieu (10), selon au moins une direction de diffusion (120) de la lumière, à partir desdits coefficients de projection estimés.
2. Procédé selon la revendication 1 , caractérisé en ce que les éléments du milieu participant hétérogène (10) sont des points ou des particules.
3. Procédé selon l'une des revendications 1 à 2, caractérisé en ce que l'estimation desdits coefficients de projection est indépendante de la longueur d'onde de la lumière émise par la source lumineuse (1 1 ).
4. Procédé selon l'une des revendications 1 à 3, caractérisé en ce que les coefficients de projection (421 1 ) sont estimés en prenant en compte un facteur d'échelle Δ prédéterminé.
5. Procédé selon l'une des revendications 1 à 4, caractérisé en ce que les coefficients de projection (421 1 ) sont estimés en utilisant une méthode d'échantillonnage de rayon, le milieu participant hétérogène (10) étant composé de points.
6. Procédé selon l'une des revendications 1 à 4, caractérisé en ce que les coefficients de projection (421 1 ) sont estimés en utilisant une méthode d'addition de particules, le milieu participant hétérogène (10) étant composé de particules.
7. Procédé selon l'une des revendications 1 à 6, caractérisé en ce qu'il comprend une étape d'estimation de valeurs représentatives de la réduction d'intensité lumineuse à partir des coefficients de projection (421 1 ) estimés.
8. Procédé selon l'une des revendications 1 à 4, caractérisé en ce que ladite estimation (52) de la quantité de lumière diffusée par ledit milieu participant hétérogène (10) est réalisée par discrétisation dudit milieu le long de la au moins une direction de diffusion (120).
9. Procédé selon l'une des revendications 1 à 4, caractérisé en ce que ladite estimation (52) de la quantité de lumière diffusée par ledit milieu participant hétérogène (10) est réalisée en utilisant une méthode d'échantillonnage de rayon.
10. Procédé selon l'une des revendications 1 à 4, caractérisé en ce que ladite estimation (52) de la quantité de lumière diffusée par ledit milieu participant hétérogène (10) est réalisée en utilisant une méthode d'addition de particules.
1 1 . Procédé selon l'une des revendications 1 à 9, caractérisé en ce que lesdits coefficients de projection (421 1 ) sont stockés dans une texture de projection (30).
EP11729394.4A 2010-07-01 2011-06-21 Procede d'estimation de diffusion de la lumiere Withdrawn EP2589025A2 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP11729394.4A EP2589025A2 (fr) 2010-07-01 2011-06-21 Procede d'estimation de diffusion de la lumiere

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP10305720 2010-07-01
PCT/EP2011/060373 WO2012000847A2 (fr) 2010-07-01 2011-06-21 Procede d'estimation de diffusion de la lumiere
EP11729394.4A EP2589025A2 (fr) 2010-07-01 2011-06-21 Procede d'estimation de diffusion de la lumiere

Publications (1)

Publication Number Publication Date
EP2589025A2 true EP2589025A2 (fr) 2013-05-08

Family

ID=44627915

Family Applications (1)

Application Number Title Priority Date Filing Date
EP11729394.4A Withdrawn EP2589025A2 (fr) 2010-07-01 2011-06-21 Procede d'estimation de diffusion de la lumiere

Country Status (3)

Country Link
US (1) US20130100135A1 (fr)
EP (1) EP2589025A2 (fr)
WO (1) WO2012000847A2 (fr)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2948800A1 (fr) * 2009-11-16 2011-02-04 Thomson Licensing Procede d'estimation de diffusion de la lumiere
WO2013104493A1 (fr) 2012-01-10 2013-07-18 Thomson Licensing Procédé et dispositif permettant d'estimer la dispersion de la lumière
BE1021805B1 (nl) 2013-11-05 2016-01-19 Creachem Bvba Methode voor het isoleren van koolhydraat alkylcarbamaten

Family Cites Families (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3519354A (en) * 1965-06-17 1970-07-07 Sperry Rand Corp System for measuring extinction coefficients in the atmosphere utilizing backscattered signals
US4128335A (en) * 1977-02-25 1978-12-05 General Electric Company Condensation nuclei counter with automatic ranging
US4475816A (en) * 1980-02-15 1984-10-09 The United States Of America As Represented By The Secretary Of The Navy Method for determining in situ the absorption coefficient of particulate media using pulsed laser technique
US4362387A (en) * 1980-08-22 1982-12-07 Rockwell International Corporation Method and apparatus for measuring visibility from the polarization properties of the daylight sky
FR2504278B1 (fr) * 1981-04-15 1985-11-08 Commissariat Energie Atomique Detecteur de rayons x
EP0167272B1 (fr) * 1984-06-30 1991-01-16 Kabushiki Kaisha Toshiba Appareil pour mesurer la taille de particules
CA2071539C (fr) * 1990-05-12 2001-07-17 Graham John Olive Generateur d'images
JPH0757117A (ja) * 1993-07-09 1995-03-03 Silicon Graphics Inc テクスチャマップへの索引を生成する方法及びコンピュータ制御表示システム
JPH0778267A (ja) * 1993-07-09 1995-03-20 Silicon Graphics Inc 陰影を表示する方法及びコンピュータ制御表示システム
KR100402169B1 (ko) * 1995-04-27 2004-03-10 닛폰콜롬비아 가부시키가이샤 다층구조광정보매체
JP2956653B2 (ja) * 1996-12-16 1999-10-04 日本電気株式会社 パーティクルモニター装置
JPH1123458A (ja) * 1997-05-08 1999-01-29 Nittan Co Ltd 煙感知器および監視制御システム
US9007393B2 (en) * 1997-07-02 2015-04-14 Mental Images Gmbh Accurate transparency and local volume rendering
US6500008B1 (en) * 1999-03-15 2002-12-31 Information Decision Technologies, Llc Augmented reality-based firefighter training system and method
AU2001239926A1 (en) * 2000-02-25 2001-09-03 The Research Foundation Of State University Of New York Apparatus and method for volume processing and rendering
US6593923B1 (en) * 2000-05-31 2003-07-15 Nvidia Corporation System, method and article of manufacture for shadow mapping
US6690372B2 (en) * 2000-05-31 2004-02-10 Nvidia Corporation System, method and article of manufacture for shadow mapping
US7348977B2 (en) * 2000-07-19 2008-03-25 Pixar Subsurface scattering approximation methods and apparatus
US6738659B2 (en) * 2000-08-31 2004-05-18 Hsu Pei-Feng Optical imaging using the temporal direct reflective signal from a minimized pulse width laser
US7046243B1 (en) * 2000-11-21 2006-05-16 Microsoft Corporation Rendering volumetric fog and other gaseous phenomena
FR2820965B1 (fr) * 2001-02-16 2003-04-04 Commissariat Energie Atomique Procede d'estimation d'un rayonnement diffuse, notamment afin de corriger des mesures en radiographie
US6930777B1 (en) * 2001-04-03 2005-08-16 The Texas A&M University System Method for characterizing particles in suspension from frequency domain photon migration measurements
KR100612827B1 (ko) * 2001-04-19 2006-08-14 삼성전자주식회사 비 침습적인 헤모글로빈 농도와 산소 포화도 모니터링방법 및 장치
US7045169B2 (en) * 2001-09-04 2006-05-16 J.M. Huber Corporation Method of predicting optical properties and physical characteristics to formulate optimum coating system
US20030049866A1 (en) * 2001-09-05 2003-03-13 Genicon Sciences Corporation Sample device preservation
US6841778B1 (en) * 2001-11-09 2005-01-11 Environmental Systems Products Holdings Inc. Method and apparatus for measuring particulates in vehicle emissions
JP3962588B2 (ja) * 2002-01-07 2007-08-22 キヤノン株式会社 三次元画像処理方法、三次元画像処理装置、三次元画像処理システムおよび三次元画像処理プログラム
AU2003220677A1 (en) * 2002-04-06 2003-10-27 Randall L Barbour Modification of the normalized difference method for real-time optical tomography
JP2003317315A (ja) * 2002-04-19 2003-11-07 Tdk Corp 光記録媒体
EP2410315B1 (fr) * 2002-06-04 2020-04-01 Visen Medical, Inc. Volumes d'imagerie avec des géométries arbitraires en tomographie à contact et non contact
AU2003297596A1 (en) * 2002-11-26 2004-06-18 The Trustees Of Columbia University In The City Of New York Systems and methods for modeling the impact of a medium on the appearances of encompassed light sources
US20060173355A1 (en) * 2003-04-17 2006-08-03 Alfano Robert R Detecting human cancer through spectral optical imaging using key water absorption wavelengths
US7184043B2 (en) * 2003-04-30 2007-02-27 Pixar Color compensated translucent object rendering methods and apparatus
US7443394B2 (en) * 2003-04-30 2008-10-28 Pixar Method and apparatus for rendering of complex translucent objects using multiple volumetric grids
US7859530B2 (en) * 2003-04-30 2010-12-28 Pixar Subsurface rendering methods and apparatus
US7019744B2 (en) * 2003-04-30 2006-03-28 Pixar Method and apparatus for rendering of translucent objects using volumetric grids
AU2003902319A0 (en) * 2003-05-14 2003-05-29 Garrett Thermal Systems Limited Laser video detector
US7091973B1 (en) * 2003-06-20 2006-08-15 Jonathan Michael Cohen Apparatus and method for estimating reflected radiance under complex distant illumination
JP2005044744A (ja) * 2003-07-25 2005-02-17 Clariant Internatl Ltd 面光源装置
JP4303138B2 (ja) * 2004-01-28 2009-07-29 富士フイルム株式会社 シート状導光体を用いた通信システム
US7696995B2 (en) * 2004-05-07 2010-04-13 Valve Corporation System and method for displaying the effects of light illumination on a surface
US7218324B2 (en) * 2004-06-18 2007-05-15 Mitsubishi Electric Research Laboratories, Inc. Scene reflectance functions under natural illumination
CA2883638C (fr) * 2004-11-12 2017-06-20 Xtralis Technologies Ltd Detecteur de particules, systeme et procede
US7710418B2 (en) * 2005-02-04 2010-05-04 Linden Acquisition Corporation Systems and methods for the real-time and realistic simulation of natural atmospheric lighting phenomenon
US8472020B2 (en) * 2005-02-15 2013-06-25 Cinram Group, Inc. Process for enhancing dye polymer recording yields by pre-scanning coated substrate for defects
WO2006138513A1 (fr) * 2005-06-16 2006-12-28 Nomos Corporation Systeme de simulation de reduction d'ecart, produit programme et procedes associes
US7312797B2 (en) * 2005-06-24 2007-12-25 Microsoft Corporation Representing quasi-homogenous materials
WO2007052614A1 (fr) * 2005-10-31 2007-05-10 Matsushita Electric Industrial Co., Ltd. Support d’enregistrement optique d’informations et son procede de fabrication
JP4201207B2 (ja) * 2005-11-21 2008-12-24 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及び画像生成システム
US20070285422A1 (en) * 2006-01-18 2007-12-13 Nayar Shree K Method for Separating Direct and Global Illumination in a Scene
US7633062B2 (en) * 2006-10-27 2009-12-15 Los Alamos National Security, Llc Radiation portal monitor system and method
JP4241834B2 (ja) * 2007-01-11 2009-03-18 株式会社デンソー 車載霧判定装置
US7838108B2 (en) * 2007-01-17 2010-11-23 Sabic Innovative Plastics Ip B.V. Nano-cellular polymer foam and methods for making them
US8267927B2 (en) * 2007-01-24 2012-09-18 Koninklijke Philips Electronics N.V. Advanced ablation planning
US8212262B2 (en) * 2007-02-09 2012-07-03 Cree, Inc. Transparent LED chip
US8274654B2 (en) * 2007-06-13 2012-09-25 Shimadzu Corporation Apparatus for measuring nanoparticles
WO2008155854A1 (fr) * 2007-06-21 2008-12-24 Shimadzu Corporation Procédé d'analyse par mesure optique
US7990377B2 (en) * 2007-06-26 2011-08-02 Microsoft Corporation Real-time rendering of light-scattering media
US8190403B2 (en) * 2007-06-26 2012-05-29 Microsoft Corporation Real-time rendering of light-scattering media
US8009168B2 (en) 2007-06-26 2011-08-30 Microsoft Corporation Real-time rendering of light-scattering media
US7940269B2 (en) * 2007-06-29 2011-05-10 Microsoft Corporation Real-time rendering of light-scattering media
US7940268B2 (en) * 2007-06-29 2011-05-10 Microsoft Corporation Real-time rendering of light-scattering media
US20090026924A1 (en) * 2007-07-23 2009-01-29 Leung Roger Y Methods of making low-refractive index and/or low-k organosilicate coatings
US8674986B2 (en) * 2007-07-25 2014-03-18 Digital Domain Products, Inc. Method and system for scattered spherical harmonic approximation
JP4888673B2 (ja) * 2007-08-08 2012-02-29 株式会社島津製作所 光学的測定装置およびその電極対
JP5219440B2 (ja) * 2007-09-12 2013-06-26 キヤノン株式会社 測定装置
EP3367358A3 (fr) * 2007-11-15 2018-12-19 Garrett Thermal Systems Limited Détection de particules
DE502008003347D1 (de) * 2008-02-19 2011-06-09 Siemens Ag Rauchdetektion mittels zweier spektral unterschiedlicher Streulichtmessungen
US8243071B2 (en) * 2008-02-29 2012-08-14 Microsoft Corporation Modeling and rendering of heterogeneous translucent materials using the diffusion equation
AU2009257179B2 (en) * 2008-06-10 2014-12-11 Garrett Thermal Systems Limited Particle detection
US8181511B2 (en) * 2008-07-18 2012-05-22 Meier Robert R Method and system of imaging electrons in the near earth space environment
US20100033482A1 (en) * 2008-08-11 2010-02-11 Interactive Relighting of Dynamic Refractive Objects Interactive Relighting of Dynamic Refractive Objects
US20100085360A1 (en) * 2008-10-04 2010-04-08 Microsoft Corporation Rendering in scattering media
GB2465792A (en) * 2008-11-28 2010-06-02 Sony Corp Illumination Direction Estimation using Reference Object
TWI503530B (zh) * 2009-05-01 2015-10-11 Xtralis Technologies Ltd 微粒偵測技術
US20120232830A1 (en) * 2009-11-16 2012-09-13 Cyril Delalandre Method for estimating light scattering
FR2948800A1 (fr) * 2009-11-16 2011-02-04 Thomson Licensing Procede d'estimation de diffusion de la lumiere
FR2948801A1 (fr) * 2009-11-24 2011-02-04 Thomson Licensing Procede d'estimation de diffusion de la lumiere
JP2011214942A (ja) * 2010-03-31 2011-10-27 Fujifilm Corp 光断層計測装置
FR2966623A1 (fr) * 2010-10-21 2012-04-27 Thomson Licensing Procede d’estimation de l’occultation dans un environnement virtuel
WO2012086658A1 (fr) * 2010-12-24 2012-06-28 日本電気株式会社 Procédé, système et programme de traitement d'image
US8872826B2 (en) * 2011-02-17 2014-10-28 Sony Corporation System and method for decoupled ray marching for production ray tracking in inhomogeneous participating media
US9262860B2 (en) * 2011-02-17 2016-02-16 Sony Corporation System and method for importance sampling of area lights in participating media
US8922556B2 (en) * 2011-04-18 2014-12-30 Microsoft Corporation Line space gathering for single scattering in large scenes
US8338785B2 (en) * 2011-04-29 2012-12-25 Rosemount Aerospace Inc. Apparatus and method for detecting aircraft icing conditions
US8638331B1 (en) * 2011-09-16 2014-01-28 Disney Enterprises, Inc. Image processing using iterative generation of intermediate images using photon beams of varying parameters
WO2013104493A1 (fr) * 2012-01-10 2013-07-18 Thomson Licensing Procédé et dispositif permettant d'estimer la dispersion de la lumière
FR2988502A1 (fr) * 2012-03-26 2013-09-27 Thomson Licensing Procede pour representer un milieu participant dans une scene et dispositif correspondant
TW201401225A (zh) * 2012-06-22 2014-01-01 Thomson Licensing 異質參與媒體之一點所接收光量之估計方法及所構成裝置
US9401043B2 (en) * 2013-01-18 2016-07-26 Pixar Photon beam diffusion

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2012000847A2 *

Also Published As

Publication number Publication date
US20130100135A1 (en) 2013-04-25
WO2012000847A3 (fr) 2012-03-22
WO2012000847A2 (fr) 2012-01-05

Similar Documents

Publication Publication Date Title
Meng et al. Kernel foveated rendering
US9953457B2 (en) System, method, and computer program product for performing path space filtering
Yu et al. Real‐time depth of field rendering via dynamic light field generation and filtering
FR2988891A1 (fr) Procede d'estimation de niveau d'opacite dans une scene et dispositif correspondant
FR2965652A1 (fr) Procede d’estimation de la quantite de lumiere recue en un point d’un environnement virtuel
EP1292921A1 (fr) Raffinement d'un maillage triangulaire en trois dimensions
EP1527599A2 (fr) Procede et systeme permettant a un utilisateur de melanger en temps reel des images de synthese avec des images video
Vaidyanathan et al. Layered light field reconstruction for defocus blur
Delalandre et al. Transmittance function mapping
EP2504816B1 (fr) Procede d'estimation de diffusion de la lumiere
Simon et al. Rich‐VPLs for improving the versatility of many‐light methods
Leimkühler et al. Laplacian kernel splatting for efficient depth-of-field and motion blur synthesis or reconstruction
FR2966623A1 (fr) Procede d’estimation de l’occultation dans un environnement virtuel
WO2011057997A2 (fr) Procede d'estimation de diffusion de la lumiere
WO2012000847A2 (fr) Procede d'estimation de diffusion de la lumiere
FR2964775A1 (fr) Procede d'estimation de l'occultation dans un environnement virtuel
Elek et al. Spectral ray differentials
EP2502207A2 (fr) Procede d'estimation de diffusion de la lumiere
FR2988502A1 (fr) Procede pour representer un milieu participant dans une scene et dispositif correspondant
Lei et al. Approximate depth of field effects using few samples per pixel
FR2974217A1 (fr) Procede d’estimation d’une information representative d’une hauteur
Habel et al. Physically based real-time translucency for leaves
FR2964776A1 (fr) Procede d’estimation de diffusion de la lumiere dans un milieu homogene
Elek et al. Real-time screen-space scattering in homogeneous environments
FR2948799A1 (fr) Procede d'estimation de diffusion de la lumiere

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20121219

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN WITHDRAWN

18W Application withdrawn

Effective date: 20160712