WO2011058007A2 - Procede d'estimation de diffusion de la lumiere - Google Patents

Procede d'estimation de diffusion de la lumiere Download PDF

Info

Publication number
WO2011058007A2
WO2011058007A2 PCT/EP2010/067108 EP2010067108W WO2011058007A2 WO 2011058007 A2 WO2011058007 A2 WO 2011058007A2 EP 2010067108 W EP2010067108 W EP 2010067108W WO 2011058007 A2 WO2011058007 A2 WO 2011058007A2
Authority
WO
WIPO (PCT)
Prior art keywords
light
medium
projection coefficients
point
representative
Prior art date
Application number
PCT/EP2010/067108
Other languages
English (en)
Other versions
WO2011058007A3 (fr
Inventor
Pascal Gautron
Jean-Eudes Marvie
Cyril Delalandre
Original Assignee
Thomson Licensing
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing filed Critical Thomson Licensing
Priority to US13/508,361 priority Critical patent/US8842275B2/en
Priority to EP10775825A priority patent/EP2502207A2/fr
Publication of WO2011058007A2 publication Critical patent/WO2011058007A2/fr
Publication of WO2011058007A3 publication Critical patent/WO2011058007A3/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/02Investigating particle size or size distribution
    • G01N15/0205Investigating particle size or size distribution by optical means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/1456Optical investigation techniques, e.g. flow cytometry without spatial resolution of the texture or inner structure of the particle, e.g. processing of pulse signals
    • G01N15/1459Optical investigation techniques, e.g. flow cytometry without spatial resolution of the texture or inner structure of the particle, e.g. processing of pulse signals the analysis being performed on a sample stream

Definitions

  • the invention relates to the field of synthetic image composition and more particularly to the field of simulating the scattering of light in a heterogeneous participating medium.
  • the invention is also in the context of special effects for a composition in real time (of the English "live").
  • the participating media correspond to media composed of suspended particles that interact with the light to modify the path and the intensity in particular.
  • the participating media can be broken down into two parts, namely homogeneous media such as water and heterogeneous media, such as smoke or clouds.
  • homogeneous participating media it is possible to calculate in an analytical way the attenuation of the light emitted by a light source. Indeed, by their homogeneous nature, these media have parameters such as the absorption coefficient of light or the scattering coefficient of light of constant value at any point in the medium.
  • the absorption and scattering properties of light vary from one point to another in a heterogeneous participating medium. The calculations necessary to simulate the scattering of light in such a heterogeneous medium are then very expensive and it is thus not possible to calculate analytically and in real time the amount of light scattered by a heterogeneous participating medium.
  • the quantity of light diffused by the medium also varies as a function of the direction of diffusion of the light. That is, the direction in which a person looks at this environment. Calculations estimating the amount of light scattered must then be repeated for each direction of observation of the medium by a person to obtain a realistic rendering of the medium.
  • some methods pre-calculate certain parameters representative of the heterogeneous participating medium. While these methods are ideally suited for use in a post-production studio, for example, and provide good quality rendering, these methods are not suitable in the context of interactive design and real-time rendering of a participating environment. heterogeneous.
  • WO2009 / 003143 Such a method is for example described in the patent application WO2009 / 003143 filed by Microsoft Corporation and published on December 31, 2008.
  • the object of the invention WO2009 / 003143 object is a real-time software rendering a heterogeneous medium and describes a solution using radial basic functions.
  • this solution can not be considered as a real-time rendering solution since certain pre-treatments must be applied offline (from the "offline") to the participating medium in order to calculate projection coefficients representing the environment that will be used for real time calculations of image synthesis.
  • the invention aims to overcome at least one of these disadvantages of the prior art.
  • the object of the invention is notably to optimize the calculation times and / or the computation power necessary to compose a realistic real-time rendering of the light scattering in a heterogeneous participating medium.
  • the invention relates to a method for estimating the amount of light diffused by a heterogeneous participating medium, the method comprising the steps of:
  • first projection coefficients in an orthonormal basis of spherical functions, the first projection coefficients being representative of the reduction in luminous intensity at a point in the middle, the estimation of the first projection coefficients being performed for each point of a first set of points in the middle, and
  • each of the first projection coefficients is estimated from estimated light intensity reduction values along a plurality of particular light emission directions.
  • the estimation of the light intensity reduction values is performed by sampling said particular light emission directions.
  • the method comprises a step of estimating second projection coefficients in the orthonormal basis of spherical functions, the second projection coefficients being representative of the incident luminance for a set of points of said light environment.
  • the method comprises a step of estimating third projection coefficients in the orthonormal basis of spherical functions, the third projection coefficients being representative of the phase function for a second set of points of said medium.
  • the estimation of the quantity of light diffused by the medium is carried out by discretizing the medium along the at least one diffusion direction.
  • the estimation of the quantity of light diffused by the medium is carried out by using the method of ray sampling.
  • the first projection coefficients are stored in a table of a memory associated with at least one graphics processor.
  • FIG. 1 schematically illustrates a heterogeneous, light-scattering participating medium, according to a particular embodiment of the invention
  • FIGS. 2A and 2B illustrate a light environment comprising several light sources, according to a particular embodiment of the invention
  • FIG. 3 schematically illustrates a method for estimating the quantity of light diffused by a medium of FIG. 1 illuminated by a light environment of FIGS. 2A and 2B, according to a particular embodiment of the invention
  • FIG. 4 schematically illustrates a method for estimating projection coefficients at each point of a set of points in the middle of FIG. 1, according to one particular embodiment of the invention
  • FIG. 5 illustrates a device implementing a method for estimating the quantity of scattered light, according to an example of a particular implementation of the invention
  • FIGS. 6 and 7 illustrate a method for estimating the quantity of scattered light, according to two particular embodiments of the invention.
  • FIG. 1 illustrates a heterogeneous participating media (heterogeneous participant media), for example a cloud.
  • a participating medium is a medium, composed of a multitude of particles in suspension, which absorbs, emits and / or diffuses light.
  • a participating medium absorbs only light, for example light received from a light source 11 such as the sun for example. This means that light passing through the medium 10 is attenuated, the attenuation depending on the density of the medium.
  • the medium is heterogeneous, that is to say that the physical characteristics of the medium, such as the density of the particles composing, for example, vary from one point to another in the medium.
  • the participating medium is composed of small particles that interact with the light
  • the incident light that is to say received from the light source 1 1 in a direction ⁇ ⁇ 1 10 is not only absorbed but it is also diffused.
  • the light In an isotropic scattering participating medium, the light is diffused uniformly in all directions.
  • an anisotropic scattering participating medium such as the cloud 10 illustrated in FIG. 1, the scattering of the light depends on the angle between the direction of incidence ⁇ , ⁇ 1 10 and the diffusion direction ⁇ ⁇ 120 of the light. .
  • the amount of light scattered at a point M 13 of the medium 10 in the diffusion direction ⁇ 0 ⁇ 120 is calculated by the following equation:
  • the amount of light scattered by a point M 13 of the medium reaching the eye of a spectator 12 situated at a point C of the space in the direction u) out 120 is then:
  • D (M) is the density of the medium at a given point, the density varying from one point to another since the medium is heterogeneous
  • is the reduced light intensity at the point M from the direction of incidence ⁇ ⁇ 1 and represents the amount of incident light arriving at the point M after attenuation due to the path of the light in the medium 10 on the segment KM, K being the point of intersection between the medium 10 and the radius of incidence ⁇ , ⁇ 1 10, and is:
  • Equation 2 calculates the amount of light scattered by a point M and reaching the eye of a viewer 12 located on the direction ⁇ ⁇ .
  • Equation 2 calculates the amount of light scattered by a point M and reaching the eye of a viewer 12 located on the direction ⁇ ⁇ .
  • To calculate the quantity of light received by a spectator looking in the direction io or t it is then necessary to make the sum of all the contributions of all the points of the middle located on the axis ⁇ ⁇ ", that is to say say the points situated on the segment PM max , P and M max being the two points of intersection between the middle 10 and the direction oj out 120.
  • This total scattered luminance arriving at P 15 from the direction oo or t 120 due to the simple diffusion is then:
  • This total scattered luminance is obtained by integrating the contributions of all the points situated between P and max on a radius having u> or t as direction.
  • Such an integral equation can not be solved analytically in the general case and even less so for real-time estimation of the amount of scattered light.
  • the integral is evaluated numerically using the so-called ray sampling or ray-marching method. In this method, the integration domain is discretized into a multitude of size intervals ⁇ M and we obtain the following equation:
  • the heterogeneous participating medium 10 is a three-dimensional element, shown in two dimensions in FIG. 1 for the sake of clarity.
  • the medium 10 is illuminated by a plurality of light sources, for example 1,000, 100,000 or 1,000 light sources.
  • FIGS. 2A and 2B illustrate a luminous environment 2 comprising several light sources 23, 24 and 25. Identical reference signs are used for identical elements in FIGS. 2A and 2B.
  • Figure 2A illustrates more particularly two points A 21 and B 22 illuminated by three light sources 23, 24 and 25.
  • the point A 21 is illuminated by the first light source 23 in a direction U ) IA 21 1, by the second light source 24 in a direction U> 2A 212 and by the third light source 25 in a direction U) 3A 213.
  • the point B 22 is illuminated by the first light source 23 in a direction U> IB 221, by the second light source 24 in a direction U) 2B 222 and by the third light source 25 along a direction C ⁇ SB 223.
  • the problem posed by such a complex light environment, because having several light sources, is that it is very expensive in terms of calculation for an estimate of the incident light in a medium since the direction of the light between a source and a point in the middle is different for each point in the middle. Indeed, the direction taken by the light emitted by the first source 23 is different for A and B, the direction taken by the light emitted by the second source 24 is different for A and B and the direction taken by the light emitted by the third source 25 is different for A and B.
  • the estimation of the light coming from several distant light sources is carried out by using the environment mapping method. ) according to a particular embodiment of the invention, as illustrated in FIG. 2B.
  • the method called environment Rather than considering an exact direction of light between points A and B on the one hand and light sources 23, 24, 25 on the other hand (as illustrated in FIG. 2A), the method called environment considers that all light sources 23, 24 and 25 of the environment 2 are located at optical infinity with respect to points A and B. It is thus possible to consider that the directions taken by the light emitted by a source 23, 24 or 25 are identical regardless of the points A and B of the medium in question. The parallax effect due to the distance separating points A and B is thus neglected.
  • the direction UJ-IA 211 connecting the point A to the first light source 23 is considered to be identical to the direction ⁇ -is 221 connecting the point B to the first light source 23.
  • the direction U) 2A 212 connecting the point A to the second light source 24 is considered to be identical to the direction ⁇ 2 ⁇ 222 connecting the point B to the second light source 24 and the direction UJSA 213 connecting the point A to the third light source 25 is considered as being identical to the direction (3B 223 connecting the point B to the third light source 23.
  • the light environment comprises two or more light sources, for example 1000, 100000 or 1,000 light sources.
  • FIG. 3 illustrates a method of estimating the quantity of light diffused by a medium 10, the light coming from a light environment 3 comprising several light sources 31, 32 and 33, according to a particular embodiment of the invention . As has been described with reference to FIG.
  • the light diffused at a point M 13 by the medium 10 is a composition of the light attenuation received by the medium 10 of a light source 11 (or an environment 3) and the diffusion of this amount of attenuated light received by the medium 10.
  • the term of the equation 1 representative of the attenuation of the light received from the bright environment 3 in the middle 10 is estimated.
  • a sphere ⁇ surrounding the point M 34 is sampled.
  • the attenuation of light along a path between M and the outside of the medium is estimated using the following equation, equivalent to equation 3:
  • R (M, co) is the attenuation of the luminous intensity at the point M 13 in a direction ⁇ and represents the amount of incident light arriving at the point M after attenuation
  • o t is the extinction coefficient of the medium, corresponding to the sum of the diffusion coefficient of the medium o s and the absorption coefficient of the medium
  • K 35 is the point of intersection between the middle 10 and the outside of the medium 10 in a direction starting from the point M.
  • Equation 6 provides the luminous attenuation at a point for a given direction ⁇ .
  • the integration domain located on the direction of incidence ⁇ is discretized into a series of intervals of size S , the density varying from one interval to another since medium 10 is heterogeneous.
  • Applying the radius sampling method we obtain a value of the attenuation luminous at the point M in the direction ⁇ . This value is stored in a table of a memory associated with a graphics processor GPU (Graphical Processing Unit).
  • GPU Graphic Processing Unit
  • This operation for estimating the light attenuation at the point M 34 is repeated for each direction ⁇ of the sphere ⁇ of center M sampled in a set comprising N directions ⁇ starting from the point M, N being any positive natural integer.
  • N being any positive natural integer.
  • Each function of the functional space can be written as a linear combination of basic functions, a basic function being an element of a basis for a functional space.
  • R (M) is the luminous attenuation function at the point M
  • Crj (M) is the j th projection coefficient (out of a total of Ne coefficients) of the base function B j (M)
  • Cr j (M) is defined by the integral on the sphere ⁇
  • the set Ne of basic function projection coefficients thus calculated is stored in a table of a memory of the GPU.
  • the operations described above are repeated for a set of points M of the middle 10. For each point of the set of points, projection coefficients representative of the light attenuation in all directions are thus calculated and recorded in tables called attenuation recordings.
  • phase function of medium 10 can be represented using an orthonormal basis of spherical functions.
  • phase function of the medium 10 is the same in every point of the medium 10.
  • This projection is carried out for a set N of directions ⁇ starting from the point M on the sphere ⁇ .
  • the projection coefficients representative of the phase function of the medium are stored in a table of the memory associated with a GPU. According to one variant, the phase function varies from one point M to another and the calculated projection coefficients are calculated for a set of points representative of the medium 10.
  • the function describing the environmental map 3 representative of the light incident in the medium 10 is represented using the orthonormal basis of spherical functions.
  • ⁇ _ ⁇ ( ⁇ ⁇ ) is the luminance function incident in a direction of incidence ⁇ , ⁇ .
  • the light attenuation function, the phase function and the incident luminance function are represented in one and the same orthonormal basis of spherical functions.
  • equation 1 describes the quantity of light scattered at a point M 13 of the medium 10 in the diffusion direction ⁇ 120 for a light environment comprising a single light source. 1 1.
  • the functions R, L, and p have been projected in a set of spherical basic function projection coefficients, respectively in a set of first coefficients, in a set of second coefficients and in a set of third coefficients.
  • the projection coefficients are respectively noted
  • the projection coefficients describing the light attenuation function have been estimated for a set of points of the medium 10 and not for all the points of the medium M, the projection coefficients of R for the points for which they have not been estimated by the equation 8 are calculated by interpolation as described in Figure 4.
  • first projection coefficients representative of the attenuation of light in the medium the light coming from the light environment (estimated via equation 8 described with reference to FIG. 2 and by interpolation as described below of FIG. 4), second projection coefficients representing the incident luminance and the third projection coefficients representative of the phase function of the medium 10, it is possible to estimate the global attenuation of the light at a point M such that it is received by a viewer 36 analytically, the resources in terms of computing power needed being much lower than those needed for an analytical resolution of the integral form equations.
  • Equation 12 represents the amount of light emitted by a point
  • FIG. 5 schematically illustrates an example of a hardware embodiment of a device 5 adapted to the estimation of the quantity of light diffused by a heterogeneous participant medium 10 and the creation of display signals of one or more images.
  • the device 5 corresponding for example to a personal computer PC, a laptop (from the English "laptop") or a game console.
  • the device 5 comprises the following elements, interconnected by an address and data bus 45 which also carries a clock signal:
  • microprocessor 51 or CPU
  • a graphics card 52 comprising:
  • I / O devices English “Input / Output" 54, such as for example a keyboard, a mouse, a webcam; and
  • the device 5 also comprises a display screen type display device 53 connected directly to the graphics card 52 to display in particular the rendering of computed and compounded synthesis images in the graphics card, for example in real time.
  • a dedicated bus for connecting the display device 53 to the graphics card 52 offers the advantage of having much higher data transmission rates and thus reducing the latency for the display of data. 'images composed by the graphics card.
  • an apparatus for displaying is external to the device 5 and is connected to the device 5 by a cable transmitting the display signals.
  • the device 5, for example the graphics card 52 comprises a transmission means or connector (not shown in FIG. 5) adapted to transmit a display signal to an external display means such as, for example, an LCD or plasma screen. , a video projector.
  • register used in the description of the memories 52, 56 and 57 designates in each of the memories mentioned, as well a memory zone of low capacity (some binary data) that a memory zone of large capacity (allowing storing an entire program or all or part of the representative data data calculated or display).
  • the microprocessor 51 loads and executes the instructions of the program contained in the RAM 57.
  • RAM 57 comprises in particular:
  • parameters representative of the heterogeneous participating medium for example density parameters, light absorption coefficients, light scattering coefficients.
  • the algorithms implementing the steps of the method of the invention and described below are stored in the memory G RAM 57 of the graphics card 52 associated with the device 5 implementing these steps.
  • the graphics processors 520 of the graphics card 52 load these parameters into G RAM 521 and execute the instructions of these algorithms in the form of microprograms of the type " shader "using High Level Shader Language (HLSL) or” HighGL Shading Language “or” OpenGL Shading language “ OpenGL shader language ”) for example.
  • HLSL High Level Shader Language
  • OpenGL shading language OpenGL shader language
  • RAM RAM 521 comprises in particular:
  • first projection coefficients 521 1 representative of the reduced luminous intensity at each point of the medium 10; luminous intensity reduction values 5212 for each point of the medium 10;
  • - 5215 values representative of the amount of light scattered by the medium 10 in one or more directions of observation.
  • part of the RAM 57 is allocated by the CPU 51 to store the coefficients 521 1, 5213 and 5214 and the values 5212 and 5215 if the available memory space in RAM 521 G is insufficient.
  • This variant results in longer latency times in the composition of an image comprising a representation of the medium 10 composed from the microprograms contained in the GPUs since the data must be transmitted from the graphics card to the random access memory 57 via the bus 55 whose transmission capacity is generally lower than those available in the graphics card for passing the data from GPUs to G RAM and vice versa.
  • FIG. 6 illustrates a method of estimating the quantity of light diffused by a heterogeneous participating medium implemented in a device 5, according to a first example of non-limiting implementation that is particularly advantageous of the invention.
  • the various parameters of the device 5 are updated.
  • the representative parameters of the heterogeneous participant medium are initiated in some way.
  • first projection coefficients of a basic function in an orthonormal basis of spherical functions are estimated, these first projection coefficients being representative of the reduction of the luminous intensity at a given point of the heterogeneous participant medium 10.
  • a plurality of values representative of the reduction of the light intensity are calculated for the given point M 34 of the medium 10 for a plurality of given incidence directions.
  • Each value representative of the reduction in luminous intensity corresponds to a given direction of incidence among the plurality of incidence directions.
  • the value representative of the reduction of the luminous intensity at the point M 34 is calculated using any method of sampling known to those skilled in the art, advantageously using the so-called ray-marching algorithm method.
  • the plurality of incidence directions ⁇ (or ⁇ , ⁇ ) for which are calculated the values representative of the reduction in luminous intensity at the point M form a sphere ⁇ having as center M.
  • the number of directions ⁇ for which are calculated the values representative of the reduction in luminous intensity at the point M is chosen so as to find the best compromise between the computing power necessary to calculate these values and the accuracy of the estimation of the reduction in luminous intensity at the desired point M by a user of the device 5. To choose a number of directions ⁇ is to sample the sphere ⁇ having for center M.
  • step 61 is repeated for each point of a first set of points (for example 50, 100 or 1000 points) representative of the medium 10.
  • First projection coefficients representative of the reduction of the luminous intensity in each of the points of the first set of points.
  • a set of first projection coefficients corresponds to a middle point and there is as many sets of first projection coefficients calculated as there are points in the first set of points representative of the medium 10.
  • an interpolation of the first calculated projection coefficients is used.
  • the amount of light scattered by the medium 10 in a transmission direction 120 is estimated by using the first projection coefficients estimated previously.
  • the line segment corresponding to the intersection of the transmission direction 120 with the medium 120 that is to say the segment [PM max ] is discretized spatially in a multitude of points or elementary pieces representative of this segment.
  • equation 12 is applied using the first projection coefficients estimated previously.
  • the ray sampling method is implemented to estimate the reduction of the luminous intensity between a point of the segment considered and the point P located at the periphery of the medium 10 in the emission direction 120.
  • first projection coefficients representative of the reduction of the luminous intensity at points of the medium makes it possible to simplify the calculations to be implemented while providing a realistic estimate of the reduction of the luminous intensity in a heterogeneous medium. No pre-calculation is needed to render the scattering of light in a heterogeneous participating medium, allowing the rendering of time! such media in interactive applications of the video game type for example in which the user is caused to move virtually in a space comprising one or more heterogeneous participating media.
  • the quantity of light diffused by the medium 10 is estimated for several directions of emission. By summing these quantities of light estimated for a plurality of transmission directions, the total amount of light diffused by the medium 10 and perceived by a spectator observing the medium 10 is obtained.
  • Steps 61 and 62 are advantageously reiterated as a spectator 12 moves around the medium 10, the image forming the rendering of the medium 10 being recomposed for each elementary movement of the viewer 12 around the medium 10.
  • FIG. 7 illustrates a method of estimating the amount of light diffused by a heterogeneous participating medium implemented in a device 5 according to a second particularly advantageous nonlimiting implementation example of the invention.
  • the various parameters of the device 5 are updated.
  • the representative parameters of the heterogeneous participating medium are initialized in some way.
  • steps 71 and 72 light intensity reduction values are estimated at a plurality of points of the medium 10 and then first projection coefficients are estimated in the same manner as that described with respect to step 61 of Figure 6. Steps 71 and 72 are therefore not detailed again here.
  • second projection coefficients representative of the incident luminance are estimated for a set of points of the light environment 3, the points of the assembly being representative of the light environment.
  • the function describing the environment card 3 (called incident luminance function) representative of the light incident in the medium 10 is represented by using the orthonormal base of spherical functions used to represent the light attenuation function.
  • the representative function of the environment card 3 is thus projected into a set of second projection coefficients of a base of spherical functions.
  • these second coefficients are stored in a table of a memory associated with one or more GPUs of the graphics card of the device 5.
  • the second projection coefficients are advantageously identical at any point in the light environment. According to one variant, the second projection coefficients vary from one point to another or from one set of points to another belonging to the luminous environment.
  • third projection coefficients representative of the phase function of the medium 10 are estimated for a second set of points of the medium 10, the points of the set being representative of the light environment.
  • the function describing the phase function of the medium 10 is represented by using the orthonormal basis of spherical functions used to represent the light attenuation function and the incident luminance function.
  • the phase function is thus projected into a set of thirds projection coefficients of a base of spherical functions.
  • these third coefficients are stored in a tabie of a memory associated with one or more GPUs of the graphic card of the device 5.
  • the third projection coefficients are advantageously identical at every point in the medium. According to one variant, the third projection coefficients vary from one point to another or from one set of points to another belonging to the medium 10.
  • the steps 73 and 74 are executed before the steps 71 and 72. According to another variant, the steps 72, 73 and 74 are executed simultaneously, for example in parallel on dedicated GPUs.
  • the first previously estimated projection coefficients are recorded and stored in a data structure composed of tables stored in a memory associated with the GPUs. These records are called attenuation records.
  • the attenuation recording tables advantageously comprise all the first projection coefficients of the points of the medium 10, whether these first coefficients have been calculated from equation 8 or by interpolation from the first coefficients calculated via Equation 8. There exists a set of first projection coefficients per point of the middle 10 or alternatively for a set of points representative of the medium 10. Such a storage of the first projection coefficients offers the advantage of accelerating the calculations.
  • the first projection coefficients representative of the reduction of the incident light intensity being available at any time and immediately for use in the equations 12 and 13.
  • the recording of the second projection coefficients and the third Projection coefficients in dedicated tables accelerate the computations, especially when the second and third coefficients vary from one point to another (respectively of the luminous environment 3 and the medium 10).
  • step 76 the quantity of scattered light is estimated in the same manner as that described with regard to step 62 of FIG.
  • the invention is not limited to the embodiments described above.
  • the invention is not limited to a method for estimating the amount of light diffused by a heterogeneous participating medium but also extends to any device implementing this method and in particular all the devices comprising at least one GPU.
  • the implementation of the equations described with reference to FIGS. 1 to 4 for the estimation of the first, second and third projection coefficients, the reduction in luminous intensity, and the quantity of light scattered is also not limited to implemented in firmware shader type but also extends to an implementation in any type of program, for example programs executable by a CPU type microprocessor.
  • the basic functions used for estimating the projection coefficients are spherical harmonic type functions or spherical wavelet type functions.
  • the use of the invention is not limited to a real-time use but also extends to any other use, for example for so-called postproduction processing in the recording studio for the rendering of synthetic images, for example .
  • the implementation of the invention in postproduction offers the advantage of providing an excellent visual rendering in terms of realism in particular while reducing the calculation time required.
  • the invention also relates to a method for composing a two-dimensional or three-dimensional video image in which the amount of light scattered by a heterogeneous participating medium is calculated and the information representative of the luminance that results therefrom is used.
  • a method for composing a two-dimensional or three-dimensional video image in which the amount of light scattered by a heterogeneous participating medium is calculated and the information representative of the luminance that results therefrom is used.
  • for displaying the pixels of the image each pixel corresponding to an observation direction according to an observation direction or t-
  • the luminance value calculated for display by each pixel of the image is recalculated to fit to the different points of view of the viewer.
  • the present invention can be used in video game applications for example, whether by programs executable in a PC or portable computer or in specialized gaming consoles producing and displaying images in real time.
  • the device 5 described with reference to FIG. 5 is advantageously provided with interaction means such as keyboard and / or joystick, other modes of introduction of commands such as, for example, voice recognition being also possible.

Landscapes

  • Chemical & Material Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Dispersion Chemistry (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)

Abstract

L'invention concerne un procédé de la quantité de lumière diffusée par un milieu participant hétérogène (10), la lumière étant émise par un environnement lumineux comprenant une pluralité de sources lumineuses. Afin d'améliorer le rendu tout en minimisant les temps de calculs nécessaires, Ie procédé comprend les étapes de : estimation de premiers coefficients de projection dans une base orthonormée de fonctions sphériques, lesdits premiers coefficients de projection étant représentatifs de la réduction d'intensité lumineuse en un point (34) dudit milieu, ladite estimation des premiers coefficients de projection étant réalisée pour chaque point d'un premier ensemble de points dudit milieu, et estimation de la quantité de lumière diffusée par ledit milieu, selon au moins une direction de diffusion de la lumière (120), à partir desdits premiers coefficients de projection estimés,

Description

PROCEDE D'ESTIMATION DE DIFFUSION DE LA LUMIERE
1. Domaine de l'invention.
L'invention se rapporte au domaine de la composition d'images de synthèse et plus particulièrement au domaine de la simulation de la diffusion de la lumière dans un milieu participant hétérogène. L'invention s'inscrit également dans le contexte des effets spéciaux pour une composition en temps réel (de l'anglais « live »).
2. Etat de l'art.
Selon l'état de la technique, différentes méthodes existent pour simuler la diffusion de la lumière dans des milieux participants tels que par exemple le brouillard, la fumée, la poussière ou les nuages. Les milieux participants correspondent à des milieux composés de particules en suspension qui interagissent avec la lumière pour en modifier le trajet et l'intensité notamment.
Les milieux participants peuvent être décomposés en deux parties, à savoir les milieux homogènes tels que l'eau et les milieux hétérogènes, tels que la fumée ou les nuages. Dans le cas des milieux participants homogènes, il est possible de calculer de manière analytique l'atténuation de la lumière émise par une source de lumière. En effet, de par leur nature homogène, ces milieux présentent des paramètres tels que le coefficient d'absorption de la lumière ou le coefficient de diffusion de la lumière de valeur constante en tout point du milieu. A contrario, les propriétés d'absorption et de diffusion de la lumière varient d'un point à un autre dans un milieu participant hétérogène. Les calculs nécessaires pour simuler la diffusion de la lumière dans un tel milieu hétérogène sont alors très coûteux et il n'est ainsi pas possible de calculer de manière analytique et en temps réel la quantité de lumière diffusée par un milieu participant hétérogène. De plus, le milieu n'étant pas diffus (c'est-à-dire la diffusion du milieu étant an isotrope), la quantité de lumière diffusée par le milieu varie également en fonction de la direction de diffusion de la lumière, c'est-à-dire de la direction dans laquelle une personne regarde ce milieu. Les calculs estimant la quantité de lumière diffusée doivent alors être réitérés pour chaque direction d'observation du milieu par une personne pour obtenir un rendu réaliste du milieu. Pour effectuer le rendu en temps réel de milieux participants hétérogènes, certaines méthodes effectuent le pré-calcul de certains paramètres représentatifs du milieu participant hétérogène. Si ces méthodes sont parfaitement adaptés pour une utilisation en studio de post-production par exemple et fournissent un rendu de bonne qualité, ces méthodes ne sont pas adaptés dans le contexte de conception interactive et de composition de rendu en temps réel d'un milieu participant hétérogène. Une telle méthode est par exemple décrite dans la demande de brevet WO2009/003143 déposée par Microsoft Corporation et publiée le 31 décembre 2008. L'invention objet de la demande WO2009/003143 a pour objet un logiciel temps réel de rendu d'un milieu hétérogène et décrit une solution utilisant des fonctions de base radiales. Cette solution ne peut cependant pas être considérée comme une solution de rendu temps réel puisque certains prétraitements doivent être appliqués hors ligne (de l'anglais « offline ») au milieu participant pour pouvoir calculer des coefficients de projection représentant le milieu qui seront utilisés pour des calculs temps réels de synthèse d'image.
Avec l'émergence de jeux et d'applications de simulation interactifs, notamment en trois dimensions (3D), le besoin se fait sentir pour des méthodes de simulations temps réel offrant un rendu de milieux participants hétérogènes réaliste.
3. Résumé de l'invention.
L'invention a pour but de pallier au moins un de ces inconvénients de l'art antérieur.
Plus particulièrement, l'invention a notamment pour objectif d'optimiser les temps de calcul et/ou la puissance de calcul nécessaire pour composer un rendu réaliste en temps réel de la diffusion de la lumière dans un milieu participant hétérogène.
L'invention concerne un procédé d'estimation de la quantité de lumière diffusée par un milieu participant hétérogène, le procédé comprenant les étapes de :
- estimation de premiers coefficients de projection dans une base orthonormée de fonctions sphériques, les premiers coefficients de projection étant représentatifs de la réduction d'intensité lumineuse en un point du milieu, l'estimation des premiers coefficients de projection étant réalisée pour chaque point d'un premier ensemble de points du milieu, et
- estimation de la quantité de lumière diffusée par le milieu, selon au moins une direction de diffusion de la lumière, à partir des premiers coefficients de projection estimés.
Selon une caractéristique particulière, chacun des premiers coefficients de projection est estimé à partir de valeurs de réduction d'intensité lumineuse estimées le long d'une pluralité de directions particulières d'émission de lumière.
Avantageusement, l'estimation des valeurs de réduction d'intensité lumineuse est réalisée par échantillonnage desdites directions particulières d'émission de lumière.
Selon une caractéristique spécifique, le procédé comprend une étape d'estimation de deuxièmes coefficients de projection dans la base orthonormée de fonctions sphériques, les deuxièmes coefficients de projection étant représentatifs de la luminance incidente pour un ensemble de points dudit environnement lumineux.
De manière avantageuse, le procédé comprend une étape d'estimation de troisièmes coefficients de projection dans la base orthonormée de fonctions sphériques, les troisièmes coefficients de projection étant représentatifs de la fonction de phase pour un deuxième ensemble de points dudit milieu.
Selon une caractéristique particulière, l'estimation de la quantité de lumière diffusée par le milieu est réalisée par discrétisation du milieu le long de la au moins une direction de diffusion.
Selon une autre caractéristique, l'estimation de la quantité de lumière diffusée par le milieu est réalisée en utilisant la méthode d'échantillonnage de rayon.
Avantageusement, les premiers coefficients de projection sont stockés dans une table d'une mémoire associée à au moins un processeur graphique.
4. Liste des figures.
L'invention sera mieux comprise, et d'autres particularités et avantages apparaîtront à la lecture de la description qui va suivre, la description faisant référence aux dessins annexés parmi lesquels : - la figure 1 illustre schématiquement un milieu participant hétérogène diffusant de la lumière, selon un mode de réalisation particulier de l'invention ;
- les figures 2A et 2B illustrent un environnement lumineux comprenant plusieurs sources de lumière, selon un mode de réalisation particulier de l'invention ;
~ la figure 3 illustre schématiquement une méthode d'estimation de la quantité de lumière diffusée par un milieu de la figure 1 éclairé par un environnement lumineux des figures 2A et 2B, selon un mode de réalisation particulier de l'invention ;
- la figure 4 illustre schématiquement une méthode d'estimation de coefficients de projection en chaque point d'un ensemble de points du milieu de la figure 1 , selon un mode de réalisation particulier de l'invention ;
- la figure 5 illustre un dispositif mettant en œuvre une méthode d'estimation de la quantité de lumière diffusée, selon un exemple de mise en œuvre particulier de l'invention ;
- les figures 6 et 7 illustrent un procédé d'estimation de la quantité de lumière diffusée, selon deux modes de réalisation particuliers de l'invention.
5. Description détaillée de modes de réalisation de l'invention. La figure 1 illustre un milieu participant hétérogène 10 (de l'anglais « heterogeneous participating média »), par exemple un nuage. Un milieu participant est un milieu, composé d'une multitude de particules en suspension, qui absorbe, émet et/ou diffuse de la lumière. Dans sa forme la plus simple, un milieu participant absorbe seulement de la lumière, par exemple de la lumière reçue d'une source de lumière 11 telle que le soleil par exemple. Cela signifie que de la lumière passant au travers du milieu 10 est atténuée, l'atténuation dépendant de la densité du milieu. Le milieu étant hétérogène, c'est-à-dire que les caractéristiques physiques du milieu, telle que la densité des particules le composant par exemple, varient d'un point à un autre dans le milieu. Comme le milieu participant est composée de petites particules qui interagissent avec la lumière, la lumière incidente, c'est-à-dire reçue de la source de lumière 1 1 selon une direction ωίη 1 10 n'est pas seulement absorbée mais elle est également diffusée. Dans un milieu participant à diffusion isotrope, la lumière est diffusée uniformément dans toutes les directions. Dans un milieu participant à diffusion anisotrope, tel que le nuage 10 illustré en figure 1 , la diffusion de la lumière dépend de l'angle entre la direction d'incidence ω,η 1 10 et la direction de diffusion ωουί 120 de la lumière. La quantité de lumière diffusée en un point M 13 du milieu 10 dans la direction de diffusion ω0{Λ 120 est calculée par l'équation suivante :
Figure imgf000007_0002
La quantité de lumière diffusée par un point M 13 du milieu atteignant l'œil d'un spectateur 12 situé en un point C de l'espace dans la direction u)out 120, c'est-à-dire la quantité de lumière diffusée par le point M et atténuée par le milieu 10 sur le trajet M-P, le point P étant situé à l'intersection du milieu 10 et de la direction ojout dans la direction du spectateur 12, est alors :
Figure imgf000007_0003
pour laquelle :
• os est le coefficient de diffusion du milieu,
• oa est le coefficient d'absorption du milieu,
• ot=as+aa est le coefficient d'extinction du milieu,
• D(M) est la densité du milieu en un point donné, la densité variant d'un point à un autre puisque le milieu 10 est hétérogène,
• est la fonction de phase décrivant comment la lumière
Figure imgf000007_0005
provenant de la direction d'incidence ω,η est diffusée dans la direction de diffusion ω0ίΛ au point M,
Figure imgf000007_0006
est l'intensité lumineuse réduite au point M provenant de la direction d'incidence ω η 1 10 et représente la quantité de lumière incidente arrivant au point M après atténuation due au trajet de la lumière dans le milieu 10 sur le segment K-M, K étant le point d'intersection entre le milieu 10 et le rayon d'incidence ω,η 1 10, et vaut :
Figure imgf000007_0001
• représente l'atténuation de luminance diffusée due à
Figure imgf000007_0004
l'absorption et à la diffusion le long du chemin allant de P 15 à M
13. L'équation 2 permet de calculer ia quantité de lumière diffusée par un point M et atteignant l'œil d'un spectateur 12 situé sur la direction ωοιΛ. Pour calculer la quantité de lumière reçue par un spectateur regardant dans la direction ioout, il faut alors effectuer la somme de toutes les contributions de l'ensemble des points du milieu situés sur l'axe ωοι«, c'est-à-dire les points situés sur le segment P-Mmax, P et Mmax étant les deux points d'intersection entre le milieu 10 et la direction ojout 120. Cette luminance diffusée totale arrivant en P 15 depuis la direction ooout 120 due à la diffusion simple est alors :
Figure imgf000008_0001
On suppose ici que la lumière parcourant le trajet C-P n'est pas atténuée, la lumière n'étant pas atténuée à l'extérieur du milieu 10.
Cette luminance diffusée totale est obtenue par intégration des contributions de tous les points situés entre P et max sur un rayon ayant u>out comme direction. Une telle équation intégrale ne peut pas être résolue de manière analytique dans le cas général et encore moins pour une estimation en temps réel de la quantité de lumière diffusée. L'intégrale est évaluée numériquement en utilisant la méthode dite d'échantillonnage de rayon ou de suivi de rayon (de l'anglais « ray-marching »). Dans cette méthode, le domaine d'intégration est discrétisé en une multitude d'intervalles de taille ÔM et on obtient l'équation suivante :
Figure imgf000008_0002
De manière avantageuse, le milieu participant hétérogène 10 est un élément à trois dimensions, représenté en deux dimensions sur la figure 1 pour des raisons de clarté.
Selon une variante, le milieu 10 est éclairé par une pluralité de sources lumineuses, par exemple 1000, 100000 ou 1000000 sources lumineuses.
Les figures 2A et 2B illustrent un environnement lumineux 2 comprenant plusieurs sources de lumière 23, 24 et 25. Des signes de références identiques sont utilisés pour des éléments identiques sur les figures 2A et 2B. La figure 2A illustre plus particulièrement deux points A 21 et B 22 éclairés par trois sources lumineuses 23, 24 et 25. Le point A 21 est éclairé par la première source lumineuse 23 selon une direction U)IA 21 1 , par la deuxième source lumineuse 24 selon une direction U>2A 212 et par la troisième source lumineuse 25 selon une direction U)3A 213. Le point B 22 est éclairé par la première source lumineuse 23 selon une direction U>I B 221 , par la deuxième source lumineuse 24 selon une direction U)2B 222 et par la troisième source lumineuse 25 selon une direction CÙSB 223. Le problème posé par un tel environnement lumineux complexe, car possédant plusieurs sources lumineuses, est qu'il est très coûteux en terme de calcul pour une estimation de la lumière incidente dans un milieu puisque la direction de la lumière entre une source et un point du milieu est différente pour chaque point du milieu. En effet, la direction prise par la lumière émise par la première source 23 est différente pour A et pour B, la direction prise par la lumière émise par la deuxième source 24 est différente pour A et pour B et la direction prise par la lumière émise par la troisième source 25 est différente pour A et pour B. Pour résoudre ce problème, l'estimation de la lumière provenant de plusieurs sources lumineuses distantes est réalisée en utilisant la méthode de carte d'environnement (de l'anglais « environment mapping ») selon un mode de réalisation particulier de l'invention, telle qu'illustrée en figure 2B. Plutôt que de considérer une direction exacte de la lumière entre les points A et B d'une part et les sources lumineuses 23, 24, 25 d'autre part (tel qu'illustré sur la figure 2A), la méthode dite de carte d'environnement considère que toutes les sources lumineuses 23, 24 et 25 de l'environnement 2 sont situées à l'infini optique par rapport aux points A et B. Il est ainsi possible de considérer que les directions prises par la lumière émise par une source lumineuse 23, 24 ou 25 sont identiques quels que soient les points A et B du milieu considéré. L'effet de parallaxe dû à la distance séparant les points A et B est ainsi négligé. La direction UJ-IA 211 reliant le point A à la première source lumineuse 23 est considérée comme étant identique à la direction ω-is 221 reliant le point B à la première source lumineuse 23. De la même manière, la direction U)2A 212 reliant le point A à la deuxième source lumineuse 24 est considérée comme étant identique à la direction ω2Β 222 reliant le point B à la deuxième source lumineuse 24 et la direction UJSA 213 reliant le point A à la troisième source lumineuse 25 est considérée comme étant identique à la direction ( 3B 223 reliant le point B à la troisième source lumineuse 23. Selon une variante, l'environnement lumineux comprend deux ou plus de trois sources lumineuses, par exemple 1000, 100000 ou 1000000 sources lumineuses. La figure 3 illustre une méthode d'estimation de la quantité de lumière diffusée par un milieu 10, la lumière étant issue d'un environnement lumineux 3 comprenant plusieurs sources lumineuses 31 , 32 et 33, selon un mode de réalisation particulier de l'invention. Comme cela a été décrit en regard de la figure 1 , la lumière diffusée en un point M 13 par le milieu 10 est une composition de l'atténuation lumière reçue par le milieu 10 d'une source lumineuse 1 1 (ou d'un environnement lumineux 3) et de la diffusion de cette quantité de lumière atténuée reçue par le milieu 10. Dans un premier temps, en regard de la figure 3, le terme de l'équation 1 représentatif de l'atténuation de la lumière reçue de l'environnement lumineux 3 dans le milieu 10 est estimé. Pour ce faire, une sphère Ω entourant le point M 34 est échantillonnée. Pour chaque direction ω de fa sphère Ω de centre M, l'atténuation de la lumière le long d'un chemin compris entre M et l'extérieur du milieu est estimée en utilisant l'équation suivante, équivalente à l'équation 3 :
Figure imgf000010_0001
où R(M,co) est l'atténuation de l'intensité lumineuse au point M 13 suivant une direction ω et représente la quantité de lumière incidente arrivant au point M après atténuation,
D(s) est la densité du milieu,
ot est le coefficient d'extinction du milieu, correspondant à la somme du coefficient de diffusion du milieu os et du coefficient d'absorption du milieu
Figure imgf000010_0002
K 35 est le point d'intersection entre le milieu 10 et l'extérieur du milieu 10 en suivant une direction ω partant du point M.
L'équation 6 fournit l'atténuation lumineuse en un point pour une direction ω donnée. Pour estimer l'atténuation de la lumière au point M selon une direction ω, le domaine d'intégration situé sur la direction d'incidence ω est discrétisé en une série d'intervalles de taille 5S, la densité variant d'un intervalle à un autre puisque le milieu 10 est hétérogène. En appliquant la méthode d'échantillonnage de rayon, on obtient une valeur de l'atténuation lumineuse au point M selon la direction ω. Cette valeur est enregistrée dans une table d'une mémoire associée à un processeur graphique GPU (de l'anglais « Graphical Processing Unit »). Cette opération d'estimation de l'atténuation lumineuse au point M 34 est réitérée pour chaque direction ω de la sphère Ω de centre M échantillonnée en un ensemble comprenant N directions ω partant du point M, N étant un entier naturel positif quelconque. Ces valeurs représentatives de l'atténuation lumineuse au point M selon une direction ω particulière sont stockées dans la table de mémoire associée au GPU.
Chaque fonction de l'espace fonctionnel peut être écrite comme une combinaison linéaire de fonctions de base, une fonction de base étant un élément d'une base pour un espace fonctionnel. En utilisant une base orthonormée de fonctions sphériques, il est possible de représenter la fonction d'atténuation lumineuse au point M par :
Figure imgf000011_0001
où R(M) est la fonction d'atténuation lumineuse au point M, Crj(M) est le j'eme coefficient de projection (sur un total de Ne coefficients) de la fonction de base Bj(M) et où Crj(M) est défini par l'intégrale sur la sphère Ω, c'est à dire : L'ensemble Ne de coefficients de projection de fonction de base ainsi calculés est stocké dans une table d'une mémoire du GPU. Ces coefficients sont représentatifs de l'atténuation de la lumière, émise par un environnement lumineux comprenant plusieurs sources de lumière, due à la diffusion simple de la lumière depuis toute direction pour un point M particulier donné du milieu 10.
De manière avantageuse, les opérations décrites ci-dessus sont réitérées pour un ensemble de points M du milieu 10. Pour chaque point de l'ensemble de points, des coefficients de projection représentatifs de l'atténuation lumineuse selon toutes les directions sont ainsi calculés et enregistrés dans des tables appelées enregistrements d'atténuation (de l'anglais « atténuation record »). Plus le nombre de points M pour lequel les coefficients de projection sont calculés est grand, plus la représentation de l'atténuation lumineuse due à la diffusion simple de la lumière dans le milieu 10 est fine.
De la même manière, la fonction de phase du milieu 10 peut être représentée en utilisant une base orthonormée de fonctions sphériques. Nous supposerons que la fonction de phase du milieu 10 est la même en tout point du milieu 10. En projetant la fonction de phase ρ(ωουί.ωιη) dans un ensemble Ne de coefficients de projection Cpj (dits troisièmes coefficients de projection) d'une base de fonctions sphériques B, on obtient :
Figure imgf000012_0001
Cette projection est réalisée pour un ensemble N de directions ω partant du point M sur la sphère Ω. Les coefficients de projection représentatifs de la fonction de phase du milieu sont stockés dans une table de la mémoire associée à un GPU. Selon une variante, la fonction de phase varie d'un point M à un autre et les coefficients de projection calculés le sont pour un ensemble de points représentatifs du milieu 10.
De manière analogue, la fonction décrivant la carte d'environnement 3 représentative de la lumière incidente dans le milieu 10 est représentée en utilisant la base orthonormée de fonctions sphériques. En projetant la fonction représentative de la carte d'environnement 3 dans un ensemble Ne de coefficients de projection Clj (dits deuxièmes coefficients de projection) d'une base de fonctions sphériques B, on obtient :
Figure imgf000012_0002
où Ι_ί(ωιη) est la fonction de luminance incidente selon une direction d'incidence ω,η.
De manière avantageuse, la fonction d'atténuation lumineuse, la fonction de phase et la fonction de luminance incidente sont représentées dans une seule et même base orthonormée de fonctions sphériques.
Tel que cela a été décrit en regard de la figure 1 , l'équation 1 décrit la quantité de lumière diffusée en un point M 13 du milieu 10 dans la direction de diffusion ωουι 120 pour un environnement lumineux comprenant une seule source de lumière 1 1. En partant de cette équation et en l'adaptant à un environnement lumineux 3 comprenant une pluralité de sources lumineuses et décrit par une fonction de luminance incidente, on obtient l'équation de diffusion simple suivante décrivant la lumière transmise par le milieu 10 en un point M selon la direction ωουΐ :
Figure imgf000013_0002
Les fonctions R, L, et p ont été projetées dans un jeu de coefficients de projections de fonctions de base sphériques, respectivement dans un jeu de premiers coefficients, dans un jeu de deuxièmes coefficients et dans un jeu de troisièmes coefficients. Les coefficients de projections sont respectivement notés
Figure imgf000013_0001
Les coefficients de projection décrivant la fonction d'atténuation lumineuse ayant été estimés pour un ensemble de points du milieu 10 et pas pour la totalité des points du milieu M, les coefficients de projections de R pour les points pour lesquels ils n'ont pas été estimés via l'équation 8 sont calculés par interpolation tel que décrit sur la figure 4. Pour obtenir les premiers coefficients de projection de la fonction d'atténuation au point M 44 située sur la direction d'observation 46 d'un spectateur 45, une interpolation des premiers coefficients de projection de la fonction R estimés pour les quatre points situés dans le voisinage de M 44, à savoir les points 441 , 442, 443 et 444, est réalisée.
A partir des premiers coefficients de projection représentatifs de l'atténuation de la lumière dans le milieu, la lumière étant issue de l'environnement lumineux (estimés via l'équation 8 décrite en regard de la figure 2 et par interpolation tel que décrit en regard de la figure 4), des deuxièmes coefficients de projection représentatifs de la luminance incidente et des troisièmes coefficients de projection représentatifs de la fonction de phase du milieu 10, il est possible d'estimer l'atténuation globale de la lumière en un point M telle qu'elle est reçue par un spectateur 36 de manière analytique, les ressources en terme de puissance de calcul nécessaire étant très largement inférieures par rapport à celles nécessaires pour une résolution analytique des équations de forme intégrale. Pour calculer le triple produit des fonctions projetées, le produit tenseur bien connu de l'homme du métier est utilisé et on obtient à partir de l'équation 11 :A partir des équations 2, 8 et 1 1 , il est alors possible d'estimer la quantité de lumière émise par un point M 13 du milieu et reçue par un spectateur 12 regardant dans la direction ωουί. On obtient ainsi :
Figure imgf000013_0003
où représente le produit tenseur, qui est calculée selon ;
Figure imgf000014_0002
Figure imgf000014_0001
L'équation 12 représente la quantité de lumière émise par un point
M et reçue par un spectateur. Pour obtenir la quantité totale de lumière reçue par un spectateur situé en un point C regardant dans la direction ωουί 120, il suffit de faire la somme des quantités de lumière élémentaires émises par l'ensemble des points M, allant de P à Mmax. On obtient pour cela :
Figure imgf000014_0003
Pour obtenir la quantité de lumière totale diffusée par le milieu 10 et reçue par le spectateur 12, les estimations décrites ci-dessus sont réitérées pour toutes les directions partant de l'utilisateur et traversant le milieu 10. La somme des quantités de lumière reçues par le spectateur selon chaque direction d'observation fournit la quantité de lumière reçue du milieu 10 par le spectateur 12. La figure 5 illustre schématiquement un exemple de réalisation matérielle d'un dispositif 5 adapté à l'estimation de la quantité de lumière diffusée par un milieu participant hétérogène 10 et à la création de signaux d'affichage d'une ou plusieurs images. Le dispositif 5 correspondant par exemple à un ordinateur personnel PC, à un ordinateur portable (de l'anglais « laptop ») ou à une console de jeux.
Le dispositif 5 comprend les éléments suivants, reliés entre eux par un bus 45 d'adresses et de données qui transporte également un signal d'horloge :
- un microprocesseur 51 (ou CPU) ;
- une carte graphique 52 comprenant :
• plusieurs processeurs de traitement graphique 520 (ou GPUs) ;
• une mémoire vive de type G RAM (de l'anglais « Graphical Random Access Memory ») 521 ;
- une mémoire non volatile de type ROM (de l'anglais « Read
Only Memory ») 56 ; - une mémoire vive ou RAM (de l'anglais « Random Access Memory ») 57 ;
- un ou plusieurs dispositifs I/O (de l'anglais « Input/Output » ou en français « Entrée/Sortie ») 54, tels que par exemple un clavier, une souris, une webcam ; et
- une alimentation 58.
Le dispositif 5 comprend également un dispositif d'affichage 53 de type écran d'affichage relié directement à la carte graphique 52 pour afficher notamment le rendu d'images de synthèse calculées et composées dans la carte graphique, par exemple en temps réel. L'utilisation d'un bus dédié pour relier le dispositif d'affichage 53 à la carte graphique 52 offre l'avantage d'avoir des débits de transmission de données beaucoup plus important et ainsi de diminuer le temps de latence pour l'affichage d'images composées par la carte graphique. Selon une variante, un appareil pour afficher est externe au dispositif 5 et est relié au dispositif 5 par un câble transmettant les signaux d'affichage. Le dispositif 5, par exemple la carte graphique 52, comprend un moyen de transmission ou connecteur (non représenté sur la figure 5) adapté à transmettre un signal d'affichage à un moyen d'affichage externe tel que par exemple un écran LCD ou plasma, un vidéoprojecteur.
On observe que le mot « registre » utilisé dans la description des mémoires 52, 56 et 57 désigne dans chacune des mémoires mentionnées, aussi bien une zone de mémoire de faible capacité (quelques données binaires) qu'une zone mémoire de grande capacité (permettant de stocker un programme entier ou tout ou partie des données représentatives de données calculées ou à afficher).
A la mise sous tension, le microprocesseur 51 charge et exécute les instructions du programme contenu dans la RAM 57.
La mémoire vive 57 comprend notamment :
- dans un registre 530, le programme de fonctionnement du microprocesseur 51 chargé à la mise sous tension du dispositif
5 ;
- des paramètres 571 représentatifs du milieu participant hétérogène 10 (par exemple paramètres de densité, de coefficients d'absorption de la lumière, de coefficients de diffusion de la lumière).
Les algorithmes mettant en œuvre les étapes du procédé propres à l'invention et décrits ci-après sont stockés dans la mémoire G RAM 57 de la carte graphique 52 associée au dispositif 5 mettant en œuvre ces étapes. A la mise sous tension et une fois les paramètres 570 représentatifs du milieu chargés en RAM 47, les processeurs graphiques 520 de la carte graphique 52 charge ces paramètres en G RAM 521 et exécute les instructions de ces algorithmes sous la forme de microprogrammes du type « shader » utilisant le langage HLSL (de l'anglais « High Level Shader Language » ou en français « Langage de programmation « shader » de haut niveau »), le langage GLSL (de l'anglais « OpenGL Shading language » ou en français « Langage de shaders OpenGL ») par exemple.
La mémoire vive G RAM 521 comprend notamment :
- dans un registre 5210, les paramètres représentatifs du milieu 10 ;
- des premiers coefficients de projection 521 1 représentatifs de l'intensité lumineuse réduite en chaque point du milieu 10 ; - des valeurs de réduction d'intensité lumineuse 5212 pour chaque point du milieu 10 ;
- des deuxièmes coefficients de projection 5213 représentatifs de la luminance incidente en chaque point du milieu 10 ;
- des troisièmes coefficients de projection 5214 représentatifs de la fonction de phase en chaque point du milieu 10 ; et
- des valeurs 5215 représentatives de la quantité de lumière diffusée par le milieu 10 selon une ou plusieurs directions d'observation.
Selon une variante, une partie de la RAM 57 est allouée par le CPU 51 pour stocker les coefficients 521 1 , 5213 et 5214 et les valeurs 5212 et 5215 si l'espace mémoire disponible en G RAM 521 est insuffisant. Cette variante entraîne cependant des temps de latence plus important dans la composition d'une image comprenant une représentation du milieu 10 composée à partir des microprogrammes contenus dans les GPUs puisque les données doivent être transmises de la carte graphique à la mémoire vive 57 en passant par le bus 55 dont les capacités de transmission sont généralement inférieures à celles disponibles dans la carte graphique pour faire passer les données des GPUs à la G RAM et vice-versa.
Selon une autre variante, l'alimentation 58 est externe au dispositif 5. La figure 6 illustre un procédé d'estimation de la quantité de lumière diffusée par un milieu participant hétérogène mis en œuvre dans un dispositif 5, selon un premier exemple de mise en œuvre non limitatif particulièrement avantageux de l'invention.
Au cours d'une étape d'initialisation 60, les différents paramètres du dispositif 5 sont mis à jour. En particulier, les paramètres représentatifs du milieu participant hétérogène 10 sont initiaiisés d'une manière quelconque.
Ensuite, au cours d'une étape 61 , des premiers coefficients de projection d'une fonction de base dans une base orthonormée de fonctions sphériques sont estimés, ces premiers coefficients de projection étant représentatifs de la réduction de l'intensité lumineuse en un point donné du milieu participant hétérogène 10. Pour ce faire, une pluralité de valeurs représentatives de la réduction de l'intensité lumineuse sont calculées pour le point donné M 34 du milieu 10 pour une pluralité de directions d'incidence données. Chaque valeur représentative de la réduction d'intensité lumineuse correspond à une direction d'incidence donnée parmi la pluralité de directions d'incidence. Pour chaque direction d'incidence de la pluralité de directions d'incidence partant de l'environnement lumineux pour rejoindre le point M 34, la valeur représentative de la réduction de l'intensité lumineuse au point M 34 est calculée en utilisant toute méthode d'échantillonnage connue de l'homme du métier, avantageusement en utilisant la méthode dite d'échantillonnage de rayon (de l'anglais « ray-marching algorithm »). La pluralité de directions d'incidence ω (ou ω,η) pour lesquelles sont calculées les valeurs représentatives de la réduction d'intensité lumineuse au point M forment une sphère Ω ayant pour centre M. Le nombre de directions ω pour lesquelles sont calculées les valeurs représentatives de la réduction d'intensité lumineuse au point M est choisi de manière à trouver le meilleur compromis entre la puissance de calcul nécessaire au calcul de ces valeurs et la précision de l'estimation de la réduction d'intensité lumineuse au point M souhaité par un utilisateur du dispositif 5. Choisir un nombre de directions ω revient à échantillonner la sphère Ω ayant pour centre M.
De manière avantageuse, l'étape 61 est réitérée pour chaque point d'un premier ensemble de points (par exemple 50, 100 ou 1000 points) représentatif du milieu 10. On obtient alors des premiers coefficients de projection représentatifs de la réduction de l'intensité lumineuse en chacun des points du premier ensemble de points. Autrement dit, un ensemble de premiers coefficients de projection correspond à un point du milieu et il y a autant d'ensembles de premiers coefficients de projection calculés qu'il y a de points dans le premier ensemble de points représentatifs du milieu 10. Pour obtenir les premiers coefficients de projections pour les points du milieu pour lesquels ces premiers coefficients n'ont pas été calculés, une interpolation des premiers coefficients de projection calculés est utilisée.
Puis, au cours d'une étape 62, la quantité de lumière diffusée par le milieu 10 selon une direction d'émission 120 est estimée en utilisant les premiers coefficients de projection estimés précédemment. Pour ce faire, le segment de droite correspondant à l'intersection de la direction d'émission 120 avec le milieu 120, c'est-à-dire le segment [PMmax] est discrétisé spatialement en une multitude de points ou de morceaux élémentaires représentatifs de ce segment. Pour chaque point de ce segment (respectivement chaque morceau élémentaire), on applique l'équation 12 en utilisant les premiers coefficients de projection estimés précédemment. Selon une variante, la méthode d'échantillonnage de rayon est mise en œuvre pour estimer la réduction de l'intensité lumineuse entre un point du segment considéré et le point P 15 situé à la périphérie du milieu 10 dans la direction d'émission 120. L'utilisation de premiers coefficients de projection représentatifs de la réduction de l'intensité lumineuse en des points du milieu permet de simplifier les calculs à mettre en œuvre tout en fournissant une estimation réaliste de la réduction de l'intensité lumineuse dans un milieu hétérogène. Aucun pré-calcul n'est alors nécessaire pour effectuer le rendu de la diffusion de la lumière dans un milieu participant hétérogène, autorisant le rendu temps rée! de tels milieux dans des applications interactives de type jeu vidéo par exemple dans lequel l'utilisateur est amené à se déplacer virtuellement dans un espace comprenant un ou plusieurs milieux participants hétérogènes.
De manière avantageuse, la quantité de lumière diffusée par le milieu 10 est estimée pour plusieurs directions d'émission. En faisant la somme de ces quantités de lumière estimées pour une pluralité de direction d'émission, on obtient la quantité de lumière totale diffusée par le milieu 10 et perçue par un spectateur observant le milieu 10.
Les étapes 61 et 62 sont avantageusement réitérées au fur et à mesure qu'un spectateur 12 se déplace autour du milieu 10, l'image formant le rendu du milieu 10 étant recomposée pour chaque déplacement élémentaire du spectateur 12 autour du milieu 10. La figure 7 illustre un procédé d'estimation de la quantité de lumière diffusée par un milieu participant hétérogène mis en œuvre dans un dispositif 5. selon un deuxième exemple de mise en œuvre non limitatif particulièrement avantageux de l'invention.
Au cours d'une étape d'initialisation 70, les différents paramètres du dispositif 5 sont mis à jour. En particulier, les paramètres représentatifs du milieu participant hétérogène 10 sont initialisés d'une manière quelconque.
Ensuite, au cours des étapes 71 et 72, des valeurs de réduction de l'intensité lumineuse sont estimées en une pluralité de points du milieu 10 puis des premiers coefficients de projection sont estimés de la même manière que celle décrite en regard de l'étape 61 de la figure 6. Les étapes 71 et 72 ne sont donc pas détaillées à nouveau ici.
Puis au cours d'une étape 73, des deuxièmes coefficients de projection représentatifs de la luminance incidente sont estimés pour un ensemble de points de l'environnement lumineux 3, les points de l'ensemble étant représentatifs de l'environnement lumineux. Pour ce faire, la fonction décrivant la carte d'environnement 3 (dite fonction de luminance incidente) représentative de la lumière incidente dans le milieu 10 est représentée en utilisant la base orthonormée de fonctions sphériques ayant servi à représenter la fonction d'atténuation lumineuse. La fonction représentative de la carte d'environnement 3 est ainsi projetée dans un ensemble de deuxièmes coefficients de projection d'une base de fonctions sphériques. De manière avantageuse, ces deuxièmes coefficients sont stockés dans une table d'une mémoire associée à un ou plusieurs GPUs de la carte graphique du dispositif 5. Les deuxièmes coefficients de projection sont avantageusement identiques en tout point de l'environnement lumineux. Selon une variante, les deuxièmes coefficients de projection varient d'un point à un autre ou d'un ensemble de points à un autre appartenant à l'environnement lumineux.
Puis au cours d'une étape 74, des troisièmes coefficients de projection représentatifs de la fonction de phase du milieu 10 sont estimés pour un deuxième ensemble de points du milieu 10, les points de l'ensemble étant représentatifs de l'environnement lumineux. Pour ce faire, la fonction décrivant la fonction de phase du milieu 10 est représentée en utilisant la base orthonormée de fonctions sphériques ayant servi à représenter la fonction d'atténuation lumineuse et la fonction de luminance incidente. La fonction de phase est ainsi projetée dans un ensemble de troisièmes coefficients de projection d'une base de fonctions sphériques. De manière avantageuse, ces troisièmes coefficients sont stockés dans une tabie d'une mémoire associée à un ou plusieurs GPUs de fa carte graphique du dispositif 5. Les troisièmes coefficients de projection sont avantageusement identiques en tout point du milieu. Selon une variante, les troisièmes coefficients de projection varient d'un point à un autre ou d'un ensemble de points à un autre appartenant au milieu 10.
Selon une variante, les étapes 73 et 74 sont exécutées avant les étapes 71 et 72. Selon une autre variante, les étapes 72, 73 et 74 sont exécutées simultanément, par exemple en parallèle sur des GPUs dédiés.
Puis au cours d'une étape 75, les premiers coefficients de projection précédemment estimés sont enregistrés et stockés dans une structure de données composé de tables enregistrées dans une mémoire associée aux GPUs. Ces enregistrements sont appelés enregistrements d'atténuation. Les tables d'enregistrement d'atténuation comprennent de manière avantageuse l'ensemble des premiers coefficients de projection des points du milieu 10, que ces premiers coefficients aient été calculés à partir de l'équation 8 ou par interpolation à partir des premiers coefficients calculés via l'équation 8. Il existe un ensemble de premiers coefficients de projection par point du milieu 10 ou selon une variante pour un ensemble de points représentatifs du milieu 10. Un tel stockage des premiers coefficients de projection offre l'avantage d'accélérer les calculs d'estimation de la quantité de lumière diffusée par le milieu 10 et perçue par un spectateur, les premiers coefficients de projection représentatifs de la réduction de l'intensité lumineuse incidente étant disponible à tout moment et de manière immédiate pour une utilisation dans les équations 12 et 13. De la même manière, l'enregistrement des deuxièmes coefficients de projection et des troisièmes coefficients de projections dans des tables dédiées accélèrent les calculs, notamment lorsque les deuxièmes et troisièmes coefficients varient d'un point à un autre (respectivement de l'environnement lumineux 3 et du milieu 10).
Enfin, au cours d'une étape 76, la quantité de lumière diffusée est estimée de la même manière que celle décrite en regard de l'étape 62 de la figure 5.
Bien entendu, l'invention ne se limite pas aux modes de réalisation décrits précédemment. En particulier, l'invention n'est pas limitée à un procédé d'estimation de la quantité de lumière diffusée par un milieu participant hétérogène mais s'étend également à tout dispositif mettant en œuvre ce procédé et notamment tous les dispositifs comprenant au moins un GPU. La mise en œuvre des équations décrites en regards des figures 1 à 4 pour l'estimation des premiers, deuxièmes et troisièmes coefficients de projection, des réduction d'intensité lumineuse, de la quantité de lumière diffusée n'est pas non plus limitée à une mise en œuvre dans des microprogrammes de type shader mais s'étend également à une mise en œuvre dans tout type de programme, par exemple des programmes exécutables par un microprocesseur de type CPU.
De manière avantageuse, les fonctions de base utilisées pour l'estimation des coefficients de projections sont des fonctions de type harmoniques sphériques ou de type ondelettes sphériques.
L'utilisation de l'invention n'est pas limitée à une utilisation temps réel mais s'étend également à toute autre utilisation, par exemple pour les traitements dits de postproduction en studio d'enregistrement pour le rendu d'images de synthèse par exemple. La mise en œuvre de l'invention en postproduction offre l'avantage de fournir un excellent rendu visuel en termes de réalisme notamment tout en diminuant les temps de calcul nécessaires.
L'invention concerne également un procédé de composition d'une image vidéo, en deux dimensions ou en trois dimensions, pour lequel la quantité de lumière diffusée par un milieu participant hétérogène est calculée et l'information représentative de la luminance qui en découle est utilisée pour l'affichage des pixels de l'image, chaque pixel correspondant à une direction d'observation selon une direction d'observation out- La valeur de luminance calculée pour affichage par chacun des pixels de l'image est recalculée pour s'adapter aux différents points de vue du spectateur.
La présente invention peut être utilisée dans des applications de jeux vidéo par exemple, que ce soit par des programmes exécutables dans un ordinateur de type PC ou portable ou dans des consoles de jeux spécialisées produisant et affichant des images en temps réel. Le dispositif 5 décrit en regard de la figure 5 est avantageusement doté de moyens d'interactions tels que clavier et/ou manette de jeux, d'autres modes d'introduction de commandes telle que par exemple la reconnaissance vocale étant également possibles.

Claims

REVENDICATIONS
1 . Procédé d'estimation de la quantité de lumière diffusée par un milieu participant hétérogène (10), la lumière étant émise par un environnement lumineux comprenant une pluralité de sources lumineuses, caractérisé en ce que le procédé comprend les étapes de :
- estimation de premiers coefficients de projection dans une base orthonormée de fonctions sphériques, lesdits premiers coefficients de projection étant représentatifs de la réduction d'intensité lumineuse en un point (34) dudit milieu, ladite estimation des premiers coefficients de projection étant réalisée pour chaque point d'un premier ensemble de points dudit milieu, et
- estimation de la quantité de lumière diffusée par ledit milieu, selon au moins une direction de diffusion de la lumière (120), à partir desdits premiers coefficients de projection estimés.
2. Procédé selon la revendication 1 , caractérisé en ce chacun desdits premiers coefficients de projection est estimé à partir de valeurs de réduction d'intensité lumineuse estimées le long d'une pluralité de directions particulières d'émission de lumière.
3. Procédé selon la revendication 2, caractérisé en ce que l'estimation desdites valeurs de réduction d'intensité lumineuse est réalisée par échantillonnage desdites directions particulières d'émission de lumière.
4. Procédé selon l'une des revendications 1 à 3, caractérisé en ce qu'il comprend une étape d'estimation de deuxièmes coefficients de projection dans ladite base orthonormée de fonctions sphériques, lesdits deuxièmes coefficients de projection étant représentatifs de la luminance incidente pour un ensemble de points dudit environnement lumineux.
5. Procédé selon l'une des revendications 1 à 4, caractérisé en ce qu'il comprend une étape d'estimation de troisièmes coefficients de projection dans ladite base orthonormée de fonctions sphériques, lesdits troisièmes coefficients de projection étant représentatifs de la fonction de phase pour un deuxième ensemble de points dudit milieu.
6. Procédé selon l'une des revendications 1 à 5, caractérisé en ce que ladite estimation de la quantité de lumière diffusée par ledit milieu est réalisée par discrétisation dudit milieu le long de la au moins une direction de diffusion.
7. Procédé selon l'une des revendications 1 à 6, caractérisé en ce que ladite estimation de la quantité de lumière diffusée par ledit milieu est réalisée en utilisant la méthode d'échantillonnage de rayon.
8. Procédé selon l'une des revendications 1 à 7, caractérisé en ce que lesdits premiers coefficients de projection sont stockés dans une table d'une mémoire associée à au moins un processeur graphique.
PCT/EP2010/067108 2009-11-16 2010-11-09 Procede d'estimation de diffusion de la lumiere WO2011058007A2 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/508,361 US8842275B2 (en) 2009-11-16 2010-11-09 Method for estimating light scattering
EP10775825A EP2502207A2 (fr) 2009-11-16 2010-11-09 Procede d'estimation de diffusion de la lumiere

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0958071A FR2948800A1 (fr) 2009-11-16 2009-11-16 Procede d'estimation de diffusion de la lumiere
FR0958071 2009-11-16

Publications (2)

Publication Number Publication Date
WO2011058007A2 true WO2011058007A2 (fr) 2011-05-19
WO2011058007A3 WO2011058007A3 (fr) 2013-04-18

Family

ID=42562454

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2010/067108 WO2011058007A2 (fr) 2009-11-16 2010-11-09 Procede d'estimation de diffusion de la lumiere

Country Status (4)

Country Link
US (1) US8842275B2 (fr)
EP (1) EP2502207A2 (fr)
FR (1) FR2948800A1 (fr)
WO (1) WO2011058007A2 (fr)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130100135A1 (en) * 2010-07-01 2013-04-25 Thomson Licensing Method of estimating diffusion of light
TW201401225A (zh) 2012-06-22 2014-01-01 Thomson Licensing 異質參與媒體之一點所接收光量之估計方法及所構成裝置
US10395422B2 (en) * 2017-10-13 2019-08-27 Activision Publishing, Inc. Participating media baking

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009003143A2 (fr) 2007-06-26 2008-12-31 Microsoft Corporation Rendu en temps reel de milieu de diffusion de lumiere

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7940268B2 (en) * 2007-06-29 2011-05-10 Microsoft Corporation Real-time rendering of light-scattering media
US7940269B2 (en) * 2007-06-29 2011-05-10 Microsoft Corporation Real-time rendering of light-scattering media
US20130100135A1 (en) * 2010-07-01 2013-04-25 Thomson Licensing Method of estimating diffusion of light
TW201401225A (zh) * 2012-06-22 2014-01-01 Thomson Licensing 異質參與媒體之一點所接收光量之估計方法及所構成裝置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009003143A2 (fr) 2007-06-26 2008-12-31 Microsoft Corporation Rendu en temps reel de milieu de diffusion de lumiere

Also Published As

Publication number Publication date
US20120218549A1 (en) 2012-08-30
WO2011058007A3 (fr) 2013-04-18
US8842275B2 (en) 2014-09-23
FR2948800A1 (fr) 2011-02-04
EP2502207A2 (fr) 2012-09-26

Similar Documents

Publication Publication Date Title
EP1982310B1 (fr) Procede de synthese d'une image virtuelle par lancer de faisceaux
FR2965652A1 (fr) Procede d’estimation de la quantite de lumiere recue en un point d’un environnement virtuel
FR2988891A1 (fr) Procede d'estimation de niveau d'opacite dans une scene et dispositif correspondant
EP1527599A2 (fr) Procede et systeme permettant a un utilisateur de melanger en temps reel des images de synthese avec des images video
EP3646121A1 (fr) Procede de generation numerique d'un hologramme, dispositif, equipement terminal, systeme et programme d'ordinateur associes
FR2966623A1 (fr) Procede d’estimation de l’occultation dans un environnement virtuel
EP2504816B1 (fr) Procede d'estimation de diffusion de la lumiere
WO2020070458A1 (fr) Procédé pour générer une liaison (binding) entre une bibliothèque c/c++ et un langage interprété, et mise en oeuvre de ce procédé pour la transformation d'un modèle tridimensionnel (3d)
Delalandre et al. Transmittance function mapping
KR20140000170A (ko) 관여 매질에 의해 수광된 광의 양을 추정하기 위한 방법 및 대응하는 장치
FR2964775A1 (fr) Procede d'estimation de l'occultation dans un environnement virtuel
WO2011057997A2 (fr) Procede d'estimation de diffusion de la lumiere
WO2011058007A2 (fr) Procede d'estimation de diffusion de la lumiere
EP2589025A2 (fr) Procede d'estimation de diffusion de la lumiere
FR2974217A1 (fr) Procede d’estimation d’une information representative d’une hauteur
FR2988502A1 (fr) Procede pour representer un milieu participant dans une scene et dispositif correspondant
Elek et al. Spectral ray differentials
FR2964776A1 (fr) Procede d’estimation de diffusion de la lumiere dans un milieu homogene
EP2987319A1 (fr) Procede de generation d'un flux video de sortie a partir d'un flux video large champ
WO2010094619A1 (fr) Procede d'estimation de diffusion de la lumiere
FR2948799A1 (fr) Procede d'estimation de diffusion de la lumiere
FR2960677A1 (fr) Procede d’estimation de la quantite de lumiere recue en un point d’un environnement virtuel
Shihan et al. Adaptive volumetric light and atmospheric scattering
Liu et al. A Simulation System for Scene Synthesis in Virtual Reality
Chariot Quelques applications de la programmation des processeurs graphiques à la simulation neuronale et à la vision par ordinateur

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10775825

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13508361

Country of ref document: US

NENP Non-entry into the national phase in:

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2010775825

Country of ref document: EP