EP3022717A1 - System and method for generating procedural textures with the aid of particles - Google Patents

System and method for generating procedural textures with the aid of particles

Info

Publication number
EP3022717A1
EP3022717A1 EP14767078.0A EP14767078A EP3022717A1 EP 3022717 A1 EP3022717 A1 EP 3022717A1 EP 14767078 A EP14767078 A EP 14767078A EP 3022717 A1 EP3022717 A1 EP 3022717A1
Authority
EP
European Patent Office
Prior art keywords
data
module
particle
textures
particles
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP14767078.0A
Other languages
German (de)
French (fr)
Inventor
Sébastien DEGUY
Christophe Soum
Cyrille Damez
Eric Batut
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Adobe Inc
Original Assignee
Allegorithmic SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Allegorithmic SAS filed Critical Allegorithmic SAS
Publication of EP3022717A1 publication Critical patent/EP3022717A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/49Analysis of texture based on structural texture description, e.g. using primitives or placement rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/21Collision detection, intersection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Definitions

  • the present invention relates to a system and a method for generating textures on an object from particles projected onto an object.
  • a color is applied in the form of a layer, in the manner of a layer of paint applied to a real physical medium.
  • the process of creating or changing the colors of objects therefore does not take into account the parameters or characteristics of the objects on which the color is applied, or the environment in which the objects are staged. Thus, to create realistic effects, a user must proceed manually to determine the point (s) or target areas, the parameters to be modified, and the level of modification of the selected parameters. If one or more objects of one or more scenes are to be processed, the required operations may involve a considerable amount of time to implement.
  • a user To color an area of a wood material to give it a realistic woody appearance, a user must make parametric adjustments in a careful and accurate manner. Since coloring tools do not take into account the properties of materials, or the interactions between objects and the environment, a user who wishes to create a visual effect based on a reaction or behavior of a material must first design or imagine the desired effect in a realistic way, then make the color changes according to the color parameters present. Thus, if a color is applied to an object, its coloring impact will be identical on all areas of this object.
  • the object has a metal portion, another wood portion and a plastic zone
  • the applied color has the same effect on all these areas, whereas on a real object, the effects produced on each of the materials would be nuanced, even very different depending on the case.
  • FR2681967 discloses a method for modifying the colors of an image displayed on a display device based on the determination of colorimetric values.
  • the method includes selecting at least one color representative of at least one pixel of the image consisting of a plurality of pixels, determining the color values of the at least one color, selecting a second color, and determining the colorimetric values of the second color, and changing the colorimetric values of a plurality of pixels of the image so that for any given pixel of that plurality having colorimetric values which correspond to the colorimetric values of said at least one color, the color values of the given pixel are modified to match the color values of the second color.
  • the applied color is identical whatever the nature of the object (plastic, wood, etc.) and does not take into account textures, but only color variations of a zone selected by the user.
  • EP0884694 discloses a method for adjusting colors in digital images, including the correction of "red eyes" in the photos.
  • the color data of the pixels are adjusted by identifying the pixels of a digital image having original color data corresponding to the predetermined color.
  • the applied color is automatic based solely on colorimetric data, in particular the colors of the iris.
  • WO2008066880 discloses a method for obtaining an original set of two or more original colors associated with a work. To do this, an input set of one or more colors chosen by the user is received. For each original color, a mapping from the original color to the derived colors is performed. The plurality of derived colors is obtained on the basis of one or more colors chosen by the user. [0011] WO2012154258 discloses a colorimetric coloring tool in 3 dimensions. Each pixel of the image comprises a set of pixel values in a three-dimensional color space. Even if it allows to use a varied color palette, the applied color does not vary according to the material on which it is applied.
  • US7557807 discloses a computer implemented method comprising generating an object with certain characteristics and the emission of a particle. The path of the particle is checked to determine if the particle interacts with the object. In the event of a collision between the particle and the object, the characteristics of the object are modified, in particular to simulate the aging and erosion behaviors of the object.
  • the described method involves the implementation of a mapping of the object by points. A ⁇ -tone map is then applied to each of the points.
  • An object of the invention is to provide a system and method for improving the efficiency and productivity of the authoring tools. Another object is to provide a system and a graphic process for increasing the flexibility and the graphical possibilities when creating colors or renderings.
  • Another object of the invention is to provide a system and a graphic process for increasing the realism of the elements shown.
  • an animation simulation module designed to perform an emission and displacement simulation for each of the particles provided using the particle emitter data and the emitted particle data
  • a tracer module designed to generate a parameterized trace producing one or more physical and / or chemical modifications of at least the surface of this object, so that at least one of its parameters, in particular a visible characteristic, is modified;
  • a system can take into account a parametric architecture to determine the influence of particles projected on objects.
  • Parametric architecture takes into account the physical and / or chemical elements inherent in the constituents and properties of particles and objects. Thanks to the fact that parametric objects and their textures can be modified according to traces parameterized according to physical and / or chemical phenomena, a scene can be set up and evolve taking into account many more parameters than the only parameters. colorimetric classically taken into account, thus contributing to considerably increase the realism of the visual effects produced.
  • the tracer module comprises a rule selection module and an implementation module for applying the rule to generate the resulting trace data.
  • the tracer module comprises a trace mixer submodule for modifying a trace on which a new active particle interacts.
  • the system further comprises a temporal backup module provided for retaining the data for generating again a set of textures of an object for which one or more parameters are modified or to obtain a set again. previously generated textures.
  • system further comprises a user data input module capable of impacting the data from the simulation module.
  • system also includes access to global parameter data that can act on a plurality of emitted particles and / or on at least one object present in the zone of influence of the global parameters.
  • the invention also provides a method for generating procedural textures on an object from particles emitted by a particle emitter, comprising the steps in which:
  • an animation simulation module receives data from at least one particle emitter, particle data for transmission by the transmitter, data from at least one target object, defined by architectural parameters and procedural textures , capable of receiving impacts of said emitted particles and determines a trajectory for each of the particles to be emitted as a function of the transmitter data and the particle data;
  • a tracer module For each particle colliding with a target object, a tracer module generates data for at least one trace on the surface of said object based on the data of the object and the data of the particle;
  • an integrating module of physical parameters executes the graphic effects according to the data of the object and the data of the traces;
  • the physical parameter integrating module For each object having undergone at least one impact of a particle, the physical parameter integrating module generates a new set of textures taking into account the data of the object, and the graphic effects previously obtained.
  • the integrating module generates the textures of the new set by executing the graphic effects according to the data of the object and the data of the traces.
  • a rule selection module performs a rule selection to be applied, a rule implementation module performs an evaluation of said rule according to the parameters of the rule. target object to generate the resulting trace data.
  • a particle selection module performs a selection of particles affected by the rule to be applied, a rule implementation module performs an evaluation of said rule. depending on the particle parameters and the target object to generate the resulting trace data.
  • FIG. 1 schematically represents an example of a texture generation system according to the invention
  • Fig. 2 is a functional flowchart showing the main steps of the texture generation method according to the invention.
  • Fig. 3 is a functional flow chart showing in detail step 150 of Fig. 2;
  • Fig. 4 is a functional flow chart showing in detail a first trace generation mode
  • FIG. 5 is a functional flow chart showing in detail a second mode of generating a trace.
  • physical parameter is meant any element, property or physical and / or chemical characteristic that can be measured or detected or observed or quantified, characterizing an object, a particle, an environment, an emitter, etc.
  • parameter architecture is meant the set of parameters making it possible to define the physical, chemical (constituents, properties, visual appearance of an object, texture, etc.) and behavioral characteristics of an element (particle, texture, object, etc.).
  • particle or parametric particle
  • physical unit or elementary chemical in its state during the projection (in the solid state, liquid, gaseous or a mixture of these phases), which, when projected on an object, generates a parameterized trace producing one or more physical and / or chemical modifications of at least the surface of that object, in particular textures of this object, so that at least one of its parameters
  • particle emitter means an element, in particular a virtual element visible or not on a stage, for projecting one or more particles parameterized physically on an object also physically parameterized, such as a gun, spray gun, jet, jet, emitter, spotlight (for photons, or luminous or heating particles, etc.) etc.
  • a scene may include one or more transmitters.
  • the parameters of an emitter preferably include its position in the scene, the orientation and the angle of emission or projection of the particles.
  • trace or parameterized trace
  • graphics effect is meant a description of the physical and / or chemical process that determines how one or more traces generated on a target object affect the texture of that object. As an illustration, here are some examples of graphic effects:
  • a trace of liquid on bare wood is absorbed by the wood. Alternatively, it has the effect of darkening the color of the wood;
  • the heat applied to a painted material causes the paint to peel and then burn, depending on the temperature set by the user, and possibly to calcine the material on which the paint is applied if it is combustible ;
  • procedural texture is meant a texture defined using algorithms and / or mathematically and displayed by means of a rendering engine making it possible to transform the mathematical data into a conventional image format such as, for example, a bitmap. .
  • FIG. 1 illustrates an example of a system for generating procedural textures according to the invention. It comprises at least one microprocessor 2 adapted for the implementation of instructions contained in an instruction memory 3. A plurality of modules are advantageously provided by the implementation of the instructions by the microprocessor.
  • An animation simulation module 4 makes it possible to establish the data related to the movements of the various elements of the scene. This animation data further includes the spatial coordinates as a function of time, events such as collisions, extinctions, etc., for each of the elements.
  • a tracer module 5 makes it possible to determine the displacement data of the particles on a target object after a collision of the particle against the object.
  • An integrator 6 of physical parameters makes it possible, from the physical parameters concerned, to generate a new set of textures for the object subjected to the various elements and parameters.
  • An optional mixer module 7 makes it possible to take into account the data of several superimposed traces, when several traces have common points or path areas. The mixer thus makes it possible to define, as a function of the influence of each trace, a portion of mixed or global trace. The latter will be used by the integrator in the area concerned.
  • To illustrate the function of the trace mixer here are some non-limiting examples:
  • a user input 8 can receive data from an external source, including a user who would interact on the physical phenomena in progress or future.
  • An optional temporal backup module 9 makes it possible to keep data related to a time scale. This module allows for example to run an animation simulation again after changing one or more parameters, performing only the operations required by the modified data. It is thus possible to realize simply and quickly several successive simulations based on a previous simulation, or to find a simulation previously carried out.
  • a bus 10 allows data transfers between the various modules and the memory elements described below.
  • a transmitter memory element 1 1 comprises data of at least one emitter or particle engine. These data include, for example, the spatial coordinates and the orientation of the transmitter as a function of time, the particle emission cone, the transmission rate, the speed and / or emission force, etc.
  • the data of emitted particles are contained in a particle memory element 12. These data include for example the physical characteristics of the particles such as shapes, dimensions, weight, adhesion, elasticity, etc.
  • a target object data element 13 stores the data of the target objects that can be impacted during an animation simulation. These data include, for example, the physical characteristics of the target objects such as shapes, dimensions, weights, and various features related to the surface and textures of the objects.
  • a trace data element 14 stores the data of the traces generated by the particles on a given target object. These data may include a plurality of parameters such as width, depth and profile as a function of the position along the trace, roughness, porosity, etc. In general, any parameter that may influence the texture characteristics of the object concerned may be taken into account. Indices can be assigned to each of the parameters in order to weight their relative importance levels.
  • a graphic effect data element 15 stores the data of the graphic effects implemented during simulation of animations. These graphic effects may include color, intensity, gloss, grain size, etc. parameters.
  • An optional global parameter element 16 comprises the parameters that may affect several elements of the scene, such as for example data of temperature, pressure, humidity, physical force (magnetic, gravitational or other), and so on.
  • a target object texture data element 17 stores the data of the new textures of the target objects that can be impacted during an animation simulation. Any initial textural data may also be contained in this memory element 17.
  • FIG. 2 shows a functional flowchart of the main steps of the texture generation method according to the invention. In step 110, the system and the payload are initialized. Step 120, optional, can receive any user data to adjust or correct data or parameters to be processed by the animation simulation module 4 according to a particular wish or user need.
  • Step 130 at the level of the animation simulation module 4, provides for the reception of the data in relation to the particles, the transmitter or emitters, the object or objects, as well as any environmental data.
  • the animation simulation module 4 thus receives all the parameters enabling it to perform an animation of the scene.
  • This animation simulation includes a phase of calculating the trajectories of the elements likely to move in the scene, such as the particles and possibly the objects and / or the emitters. Steps 141 to 148 show in more detail the different steps of this trajectory calculation phase.
  • phase 150 provides the integration of the physical parameters and the generation and / or adaptation of a new set of textures for the object or objects affected by the events occurring in the scene. This phase is presented in more detail in Figure 3.
  • step 141 The calculation of the trajectories advantageously starts with a test, performed in step 141, of checking whether the particle concerned is active or extinguished. If it is off, step 145 applies to update the relevant particle data.
  • the data relating to the particle comprises a parameter related to the extinction of said particle.
  • step 142 a second test, in step 142, makes it possible to check whether the particle collides with an object. If the test gives a negative result, step 145 applies in order to update the relevant particle data.
  • a trace generation phase 143 is performed.
  • a possible trace modification phase 144 is then performed in the case where one or more traces are affected by a new collision or trace.
  • the next step, 145 makes it possible to ensure that the data affected by the preceding steps or phases are updated. It is in particular the data of particles and / or traces.
  • the calculation phase ends in step 146.
  • step 141 the test of step 141 is followed by a test 147 making it possible to check whether the particle being processed generates or not a possible new particle or a new emitter. If this test is positive, step 148 then makes it possible to update the emitter data according to this generation of particles. Otherwise, step 145 applies, in order to update the data of particles concerned.
  • the test 147 is also carried out in the case where the collision test with an object of the step 142 gives a positive result.
  • FIG. 3 shows in more detail the subsidiary steps of the phase 150 of integration of the physical parameters and generation and / or adaptation of textures resulting from the events taking place in the scene.
  • the physical parameter integrator 6 receives the trace data, the object data, and the applicable graphic effect data.
  • the integrator executes, in step 152, the graphical effects corresponding to the received data, according to the data of the object and the relevant trace data, for example, paint peeling, corrosion (if metallic). , burning, burning, trace stop for a porous material, nonabsorbent flow.
  • Step 153 makes it possible to check whether one or more other traces are to be taken into account. If this is the case, the trace mixer module 7 performs the sharing of the trace parameters for the areas common to several traces.
  • step 155 Any user data are taken into account in step 155.
  • the physical parameters are integrated by the integrator 6 to generate and / or modify the textures of the object.
  • phase 143 is detailed in Figures 4 and 5, in steps 200 to 250 for the case of Figure 4, and in steps 300 to 350 for the case of Figure 5.
  • the tracer module 5 makes a selection of rules to be applied depending on the type of particle. The rules make it possible to determine the type of influence or physical effect that the particle concerned will have on the generated trace, and finally on the textures obtained for the object interacting with this particle.
  • the rule is evaluated according to the parameters of the object.
  • a trace is generated or modified according to the adapted rule.
  • a test in step 220 makes it possible to check whether another rule applies or not.
  • the tracer module 5 performs a selection of particles affected by the rule.
  • the rule is evaluated based on the particle parameters and the object.
  • a trace is generated or modified according to the adapted rule.
  • a test in step 320 makes it possible to check whether another particle applies or not.
  • system and method according to the invention is presented in a working environment adapted for an editing tool for a user to create or modify the rendering of one or more objects.
  • the system and the method according to the invention are used in autonomous mode, for the generation of object renderings from pre-established physical parameters or that can be calculated by the system itself, for example according to intermediate results.
  • Such exemplary embodiments are advantageously used for video games or films, in particular games or films in which the renderings or textures are generated by a procedural texture generation engine.
  • WO2012014057 incorporated by reference herein, describes an example of such a system and rendering method.
  • the system and method according to the invention make it possible to generate and / or modify renderings of objects by taking into account the technical factors (physical, chemical, thermodynamic, etc.) inherent to the objects themselves as well as to the environment of the scene.
  • a transmitter can project parametric particles with parameters in relation to corrosion.
  • these physical parameters other than the color data
  • the behaviors of the objects in relation to the projected particles make it possible, for example, to define that materials such as plastic do not react to corrosion effects, steel develops corroded areas, copper oxidizes, etc.
  • certain parameters may be assigned to either the parameterized particles, objects, the environment, or the graphic effects.
  • the distribution or parametric architecture can also vary to produce comparable renderings.
  • the particles projected against the objects comprise only non-colorimetric parameters, such as, for example, thermal energy or heat data, pressure data, etc.
  • the target object comprising several different materials may have different reaction modes depending on the materials on which the traces evolve.
  • the traces can be different, the graphic effects can also be different, so that the final textures take into account the parameters of the different materials of the target.
  • hot particles are emitted on a multi-material body.
  • the traces make it possible to create a kind of "mapping" of temperature on the surface of the object. This "mapping", to which one applies the graphic effects, makes it possible to produce the final textures taking into account the different materials.
  • the temporal backup advantageously allows to go back on a process to find one of the multiple previous states. It can also make it possible to redo a process by modifying only one or a few parameters, while benefiting from other unmodified parameters, thus avoiding having to re-parameterize all the data. This makes it possible, for example, to easily and quickly compare the results that can be obtained by modifying only certain parameters.
  • a particle characteristic for example color, size, hardness, temperature, etc.
  • a particle characteristic for example color, size, hardness, temperature, etc.
  • the figures and their descriptions made above illustrate the invention rather than limiting it.
  • the reference signs in the claims are not limiting in nature.
  • the verbs "understand” and “include” do not exclude the presence of elements other than those listed in the claims.
  • the word “a” preceding an element does not exclude the presence of a plurality of such elements.
  • the system and method previously described advantageously operate in multi-channel, that is to say by treating several textures (diffuse, normal, etc.) at each step.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Organic Low-Molecular-Weight Compounds And Preparation Thereof (AREA)
  • Pharmaceuticals Containing Other Organic And Inorganic Compounds (AREA)

Abstract

System for generating textures on an object on the basis of the particles emitted by a particles engine, comprising: - an access to data (11) of a particles emitter, of particles (12) emitted, of target object (13), of traces (14), and of graphical effects (15); - an animation simulation module (4) provided so as to perform a simulation of emission and of displacement for each of the particles provided; - a tracer module (5) provided for generating a trace on the surface of a target object corresponding to the displacement of a particle along said surface after an impact of the particle against the target object with the aid of the traces data and of the target object data; - a physical parameters integrator module (6) provided for generating a new set of textures for said object taking into account the data of the object, the data of each new or modified trace, and the data of the corresponding graphical effects. Corresponding method for generating textures.

Description

SYSTEME ET PROCEDE DE GENERATION DE TEXTURES PROCEDURALES  SYSTEM AND METHOD FOR GENERATING PROCEDURAL TEXTURES
A L'AIDE DE PARTICULES  WITH PARTICLES
DOMAINE TECHNIQUE DE L'INVENTION TECHNICAL FIELD OF THE INVENTION
[0001] La présente invention concerne un système et un procédé de génération de textures sur un objet à partir de particules projetées sur un objet. The present invention relates to a system and a method for generating textures on an object from particles projected onto an object.
ETAT DE LA TECHNIQUE ANTERIEURE STATE OF THE PRIOR ART
[0002] Dans le domaine du graphisme assisté par ordinateur, on utilise depuis de nombreuses années une pléiade d'outils permettant d'appliquer des couleurs sur des objets. De façon classique, une couleur est appliquée sous la forme d'une couche, à la façon d'une couche de peinture appliquée sur un support physique réel. In the field of computer graphics, we have used for many years a plethora of tools to apply colors on objects. Conventionally, a color is applied in the form of a layer, in the manner of a layer of paint applied to a real physical medium.
[0003] L'application d'une couche de couleur produit classiquement un résultat uniforme. Pour effectuer des variations de couleurs, d'intensité ou d'opacité, un utilisateur doit procéder manuellement afin de régler les paramètres de couleur à chaque point, créant ainsi une cartographie colorimétrique précise et détaillée. Différents outils graphiques tels que des pinceaux ou applicateurs virtuels sont proposés à l'utilisateur qui effectue un tel « mapping ». [0004] Pour modifier un « mapping » préalablement établi, l'utilisateur utilise les mêmes types d'outils pour appliquer point par point les paramètres modifiés, et ainsi produire un résultat colorimétrique modifié. Même si l'utilisateur peut utiliser un cadre pour sélectionner plusieurs points à modifier de façon similaire, le processus doit être effectué de façon manuelle, pour chaque image, et requiert donc un temps considérable. [0005] On connaît également différents filtres qui peuvent être appliqués sur une ou plusieurs couleurs d'une image. Classiquement, de tels filtres agissent de façon à modifier les couleurs en fonction de paramètres intrinsèques aux couleurs elles-mêmes. Ces filtres permettent donc de créer des effets soit à partir de choix d'ambiance ou de style imposés par un utilisateur, soit en fonction des paramètres initiaux des couleurs à traiter. [0003] The application of a color layer conventionally produces a uniform result. To perform color, intensity, or opacity variations, a user must manually adjust the color settings at each point, creating accurate and detailed color mapping. Various graphic tools such as brushes or virtual applicators are proposed to the user who performs such a "mapping". [0004] To modify a previously established "mapping", the user uses the same types of tools to apply the modified parameters point by point, and thus produce a modified colorimetric result. Although the user can use a frame to select several points to be modified in a similar way, the process must be done manually for each image, and therefore requires a considerable amount of time. Various filters are also known that can be applied to one or more colors of an image. Conventionally, such filters act to modify the colors according to parameters intrinsic to the colors themselves. These filters thus make it possible to create effects either from the choice of atmosphere or style imposed by a user, or according to the initial parameters of the colors to be treated.
[0006] Le processus de création ou modification de couleurs d'objets ne permet donc pas de prendre en compte les paramètres ou caractéristiques des objets sur lesquels la couleur est appliquée, ni de l'environnement dans lequel les objets sont mis en en scène. Ainsi, pour créer des effets réalistes, un utilisateur doit procéder manuellement pour déterminer la ou les points ou zones cibles, les paramètres à modifier, et le niveau de modification des paramètres choisis. Si un ou plusieurs objets d'une ou plusieurs scènes doivent être traités, les opérations requises peuvent impliquer un temps de mise en uvre considérable. The process of creating or changing the colors of objects therefore does not take into account the parameters or characteristics of the objects on which the color is applied, or the environment in which the objects are staged. Thus, to create realistic effects, a user must proceed manually to determine the point (s) or target areas, the parameters to be modified, and the level of modification of the selected parameters. If one or more objects of one or more scenes are to be processed, the required operations may involve a considerable amount of time to implement.
[0007] Par exemple, pour colorer une zone d'un matériau en bois afin de lui conférer un aspect boisé réaliste, un utilisateur doit effectuer les ajustements paramétriques de façon minutieuse et précise. Les outils de coloration ne prenant pas en compte les propriétés des matériaux, ou les interactions entre les objets et l'environnement, un utilisateur qui souhaite créer un effet visuel basé sur une réaction ou comportement d'un matériau doit tout d'abord concevoir ou imaginer l'effet souhaité de façon réaliste, puis effectuer les modifications colorimétriques en fonction des paramètres des couleurs présentes. Ainsi, si une couleur est appliquée sur un objet, son impact de coloration sera identique sur toutes les zones de cet objet. Par exemple, si l'objet comporte une portion métallique, une autre portion en bois et une zone en plastique, la couleur appliquée produit le même effet sur toutes ces zones, alors que sur un objet réel, les effets produits sur chacun des matériaux seraient nuancés, voire très différents selon les cas. For example, to color an area of a wood material to give it a realistic woody appearance, a user must make parametric adjustments in a careful and accurate manner. Since coloring tools do not take into account the properties of materials, or the interactions between objects and the environment, a user who wishes to create a visual effect based on a reaction or behavior of a material must first design or imagine the desired effect in a realistic way, then make the color changes according to the color parameters present. Thus, if a color is applied to an object, its coloring impact will be identical on all areas of this object. For example, if the object has a metal portion, another wood portion and a plastic zone, the applied color has the same effect on all these areas, whereas on a real object, the effects produced on each of the materials would be nuanced, even very different depending on the case.
[0008] Le document FR2681967 divulgue un procédé pour modifier les couleurs d'une image affichée sur un dispositif d'affichage basé sur la détermination de valeurs colorimétriques. Le procédé comporte la sélection d'au moins une couleur représentative d'au moins un pixel de l'image constituée d'une pluralité de pixels, la détermination des valeurs colorimétriques de ladite au moins une couleur, la sélection d'une seconde couleur et la détermination des valeurs colorimétriques de la seconde couleur, et la modification des valeurs colorimétriques d'une pluralité de pixels de l'image de sorte que pour tout pixel donné de cette pluralité ayant des valeurs colorimétriques qui correspondent aux valeurs colorimétriques de ladite au moins une couleur, les valeurs colorimétriques du pixel donné sont modifiées pour correspondre aux valeurs colorimétriques de la seconde couleur. La couleur appliquée est identique quelque que soit la nature de l'objet (plastique, bois, etc.) et ne tient pas compte des textures, mais uniquement des variations de couleur d'une zone sélectionnée par l'utilisateur. FR2681967 discloses a method for modifying the colors of an image displayed on a display device based on the determination of colorimetric values. The method includes selecting at least one color representative of at least one pixel of the image consisting of a plurality of pixels, determining the color values of the at least one color, selecting a second color, and determining the colorimetric values of the second color, and changing the colorimetric values of a plurality of pixels of the image so that for any given pixel of that plurality having colorimetric values which correspond to the colorimetric values of said at least one color, the color values of the given pixel are modified to match the color values of the second color. The applied color is identical whatever the nature of the object (plastic, wood, etc.) and does not take into account textures, but only color variations of a zone selected by the user.
[0009] Le document EP0884694 divulgue un procédé permettant l'ajustement de couleurs dans des images numériques, notamment la correction des « yeux rouges » sur les photos. Les données de couleurs des pixels sont ajustées en identifiant les pixels d'une image numérique comportant des données de couleur d'origine correspondant à la couleur prédéterminée. Or la couleur appliquée est automatique se base uniquement sur des données colorimétriques, en particulier les couleurs de l'iris. EP0884694 discloses a method for adjusting colors in digital images, including the correction of "red eyes" in the photos. The color data of the pixels are adjusted by identifying the pixels of a digital image having original color data corresponding to the predetermined color. However, the applied color is automatic based solely on colorimetric data, in particular the colors of the iris.
[0010] Le document WO2008066880 divulgue un procédé permettant l'obtention d'un ensemble original de deux ou plusieurs couleurs originales associées à une œuvre. Pour ce faire, un ensemble d'entrée d'une ou plusieurs couleurs choisies par l'utilisateur est reçue. Pour chaque couleur d'origine, une cartographie de la couleur d'origine vers les couleurs dérivées est effectuée. La pluralité de couleurs dérivées est obtenue sur la base d'une ou plusieurs couleurs choisies par l'utilisateur. [0011]Le document WO2012154258 divulgue un outil de coloration colorimétrique en 3 dimensions. Chaque pixel de l'image comprend un ensemble de valeurs de pixels dans un espace de couleurs tridimensionnel. Même si elle permet d'utiliser une palette de couleurs variée, la couleur appliquée ne varie pas en fonction du matériau sur lequel elle est appliquée. WO2008066880 discloses a method for obtaining an original set of two or more original colors associated with a work. To do this, an input set of one or more colors chosen by the user is received. For each original color, a mapping from the original color to the derived colors is performed. The plurality of derived colors is obtained on the basis of one or more colors chosen by the user. [0011] WO2012154258 discloses a colorimetric coloring tool in 3 dimensions. Each pixel of the image comprises a set of pixel values in a three-dimensional color space. Even if it allows to use a varied color palette, the applied color does not vary according to the material on which it is applied.
[0012] Le document US7557807 décrit un procédé mis en œuvre par ordinateur comprenant la génération d'un objet avec certaines caractéristiques et l'émission d'une particule. On procède à la vérification du parcours de la particule pour déterminer si cette dernière interagit avec l'objet. En cas de collision entre la particule et l'objet, les caractéristiques de l'objet sont modifiées, en particulier pour simuler les comportements de vieillissement et d'érosion de l'objet. Le procédé décrit implique la mise en œuvre d'une cartographie de l'objet par points. Une cartographie des γ-ton est ensuite appliquée sur chacun des points. US7557807 discloses a computer implemented method comprising generating an object with certain characteristics and the emission of a particle. The path of the particle is checked to determine if the particle interacts with the object. In the event of a collision between the particle and the object, the characteristics of the object are modified, in particular to simulate the aging and erosion behaviors of the object. The described method involves the implementation of a mapping of the object by points. A γ-tone map is then applied to each of the points.
[0013] Il existe donc un besoin pour pallier ces différents inconvénients. EXPOSE DE L'INVENTION There is therefore a need to overcome these disadvantages. SUMMARY OF THE INVENTION
[0014] Un objet de l'invention consiste à prévoir un système et procédé permettant d'améliorer l'efficacité et la productivité des outils de création. [0015] Un autre objet consiste à prévoir un système et un procédé graphique permettant d'accroître la souplesse et les possibilités graphiques lors de création de couleurs ou rendus. An object of the invention is to provide a system and method for improving the efficiency and productivity of the authoring tools. Another object is to provide a system and a graphic process for increasing the flexibility and the graphical possibilities when creating colors or renderings.
[0016] Un autre objet de l'invention consiste à prévoir un système et un procédé graphique permettant d'accroître le réalisme des éléments représentés. Another object of the invention is to provide a system and a graphic process for increasing the realism of the elements shown.
[0017] Encore un autre objet de l'invention consiste à prévoir un système et un procédé permettant d'améliorer l'interactivité entre le rendu d'un objet représenté et son environnement. [0018] Encore un autre objet de l'invention consiste à prévoir un système et un procédé permettant de créer un mode d'édition contextuelle prenant en compte les paramètres environnementaux. [0019] Pour ce faire, l'invention prévoit différents moyens techniques. Par exemple, l'invention prévoit tout d'abord un système de génération de textures procédurales sur un objet à partir des particules émises par un moteur de particules, comprenant: Yet another object of the invention is to provide a system and a method for improving the interactivity between the rendering of a represented object and its environment. Still another object of the invention is to provide a system and a method for creating a contextual editing mode taking into account the environmental parameters. To do this, the invention provides different technical means. For example, the invention firstly provides a system for generating procedural textures on an object from particles emitted by a particle engine, comprising:
- un accès à des données d'émetteur de particules;  - access to particle emitter data;
- un accès à des données de particules émises; - access to data of emitted particles;
- un accès à des données d'objets cibles définis par des paramètres architecturaux et des textures procédurales ;  - access to target object data defined by architectural parameters and procedural textures;
- un accès à des données de traces;  - access to trace data;
- un accès à des données d'effets graphiques;  - access to graphic effects data;
- un microprocesseur et des instructions de commande; a microprocessor and control instructions;
- un module de simulation d'animation, prévu pour effectuer une simulation d'émission et de déplacement pour chacune des particules prévues à l'aide des données d'émetteur de particules et des données de particules émises;  an animation simulation module, designed to perform an emission and displacement simulation for each of the particles provided using the particle emitter data and the emitted particle data;
- un module traceur, prévu pour engendrer une trace paramétrée produisant une ou plusieurs modifications physiques et/ou chimiques au moins de la surface de cet objet, de sorte qu'au moins un de ses paramètres, en particulier une caractéristique visible, soit modifié;  a tracer module, designed to generate a parameterized trace producing one or more physical and / or chemical modifications of at least the surface of this object, so that at least one of its parameters, in particular a visible characteristic, is modified;
- un module intégrateur de paramètres physiques, prévu pour :  an integrating module of physical parameters, intended for:
i) exécuter les effets graphiques en fonction des données de l'objet et des données de traces obtenues ; i) execute the graphic effects according to the object data and the obtained trace data;
ii) générer un nouvel ensemble de textures pour ledit objet prenant en compte les données de l'objet et les effets graphiques préalablement obtenus. [0020] Grâce à un tel arrangement, un système peut prendre en compte une architecture paramétrique afin de déterminer l'influence de particules projetées sur des objets. L'architecture paramétrique prend en compte les éléments physiques et/ou chimiques inhérents aux constituants et propriétés des particules et des objets. Notamment grâce au fait que des objets paramétrés et leurs textures peuvent être modifiées en fonction de traces paramétrées en fonction de phénomènes physiques et/ou chimiques, une scène peut être mise en place et évoluer en prenant en compte beaucoup plus de paramètres que les seuls paramètres colorimétriques classiquement pris en compte, contribuant ainsi à augmenter considérablement le réalisme des effets visuels produits. ii) generating a new set of textures for said object taking into account the object data and the previously obtained graphic effects. With such an arrangement, a system can take into account a parametric architecture to determine the influence of particles projected on objects. Parametric architecture takes into account the physical and / or chemical elements inherent in the constituents and properties of particles and objects. Thanks to the fact that parametric objects and their textures can be modified according to traces parameterized according to physical and / or chemical phenomena, a scene can be set up and evolve taking into account many more parameters than the only parameters. colorimetric classically taken into account, thus contributing to considerably increase the realism of the visual effects produced.
[0021]Selon un mode de réalisation avantageux, le module traceur comporte un module de sélection de règles et un module de mise en oeuvre permettant d'appliquer la règle afin de générer les données de trace résultantes. According to an advantageous embodiment, the tracer module comprises a rule selection module and an implementation module for applying the rule to generate the resulting trace data.
[0022] Selon un autre mode de réalisation avantageux, le module traceur comporte un sous-module mélangeur de traces pour modifier une trace sur laquelle une nouvelle particule active entre en interaction. [0023] De manière avantageuse, le système comporte par ailleurs un module de sauvegarde temporelle prévu pour conserver les données permettant de générer à nouveau un ensemble de textures d'un objet pour lequel un ou plusieurs paramètres sont modifiés ou pour obtenir à nouveau un ensemble de textures préalablement généré. According to another advantageous embodiment, the tracer module comprises a trace mixer submodule for modifying a trace on which a new active particle interacts. Advantageously, the system further comprises a temporal backup module provided for retaining the data for generating again a set of textures of an object for which one or more parameters are modified or to obtain a set again. previously generated textures.
[0024] Egalement de manière avantageuse, le système comporte par ailleurs un module d'entrée de données utilisateur susceptibles d'impacter les données issues du module de simulation. [0025] Selon encore un autre mode de réalisation, le système comporte par ailleurs un accès à des données de paramètres globaux susceptibles d'agir sur une pluralité de particules émises et/ou sur au moins un objet présent dans la zone d'influence des paramètres globaux. Also advantageously, the system further comprises a user data input module capable of impacting the data from the simulation module. According to yet another embodiment, the system also includes access to global parameter data that can act on a plurality of emitted particles and / or on at least one object present in the zone of influence of the global parameters.
[0026] L'invention prévoit également un procédé de génération de textures procédurales sur un objet à partir de particules émises par un émetteur de particules, comprenant les étapes dans lesquelles: The invention also provides a method for generating procedural textures on an object from particles emitted by a particle emitter, comprising the steps in which:
-un module de simulation d'animation reçoit des données d'au moins un émetteur de particules, des données de particules pour émission par l'émetteur, des données d'au moins un objet cible, défini par des paramètres architecturaux et des textures procédurales, susceptible de recevoir des impacts desdites particules émises et détermine une trajectoire pour chacune des particules à émettre en fonction des données de l'émetteur et des données de particules;  an animation simulation module receives data from at least one particle emitter, particle data for transmission by the transmitter, data from at least one target object, defined by architectural parameters and procedural textures , capable of receiving impacts of said emitted particles and determines a trajectory for each of the particles to be emitted as a function of the transmitter data and the particle data;
- pour chaque particule entrant en collision avec un objet cible, un module traceur génère des données pour au moins une trace sur la surface dudit objet en fonction des données de l'objet et des données de la particule;  for each particle colliding with a target object, a tracer module generates data for at least one trace on the surface of said object based on the data of the object and the data of the particle;
-un module intégrateur de paramètres physiques exécute les effets graphiques en fonction des données de l'objet et des données des traces ;  an integrating module of physical parameters executes the graphic effects according to the data of the object and the data of the traces;
- pour chaque objet ayant subit au moins un impact d'une particule, le module intégrateur de paramètres physiques génère un nouvel ensemble de textures prenant en compte les données de l'objet, et les effets graphiques préalablement obtenus.  for each object having undergone at least one impact of a particle, the physical parameter integrating module generates a new set of textures taking into account the data of the object, and the graphic effects previously obtained.
[0027] Selon une variante de réalisation, le module intégrateur génère les textures du nouvel ensemble en exécutant les effets graphiques en fonction des données de l'objet et des données des traces. According to an alternative embodiment, the integrating module generates the textures of the new set by executing the graphic effects according to the data of the object and the data of the traces.
[0028] Selon une autre variante de réalisation, pour chaque particule active, un module de sélection de règle effectue une sélection de règle à appliquer, un module de mise en oeuvre de règle effectue une évaluation de ladite règle en fonction des paramètres de l'objet cible afin de générer les données de trace résultantes. [0029]Selon encore une variante de réalisation, pour chaque règle de modification de trace, un module de sélection de particules effectue une sélection de particules affectées par la règle à appliquer, un module de mise en oeuvre de règle effectue une évaluation de ladite règle en fonction des paramètres de particules et de l'objet cible afin de générer les données de trace résultantes. According to another embodiment, for each active particle, a rule selection module performs a rule selection to be applied, a rule implementation module performs an evaluation of said rule according to the parameters of the rule. target object to generate the resulting trace data. According to yet another embodiment, for each trace modification rule, a particle selection module performs a selection of particles affected by the rule to be applied, a rule implementation module performs an evaluation of said rule. depending on the particle parameters and the target object to generate the resulting trace data.
DESCRIPTION DES FIGURES DESCRIPTION OF THE FIGURES
[0030]Tous les détails de réalisation sont donnés dans la description qui suit, complétée par les figures 1 à 5, présentées uniquement à des fins d'exemples non limitatifs, et dans lesquelles: All the details of embodiment are given in the description which follows, supplemented by FIGS. 1 to 5, presented solely for purposes of non-limiting examples, and in which:
la figure 1 représente schématiquement un exemple de système de génération de textures conforme à l'invention ;  FIG. 1 schematically represents an example of a texture generation system according to the invention;
la figure 2 est un organigramme fonctionnel présentant les principales étapes du procédé de génération de texture selon l'invention ;  Fig. 2 is a functional flowchart showing the main steps of the texture generation method according to the invention;
la figure 3 est un organigramme fonctionnel présentant de façon détaillée l'étape 150 du la figure 2 ;  Fig. 3 is a functional flow chart showing in detail step 150 of Fig. 2;
la figure 4 est un organigramme fonctionnel présentant de façon détaillée un premier mode de génération de trace;  Fig. 4 is a functional flow chart showing in detail a first trace generation mode;
- la figure 5 est un organigramme fonctionnel présentant de façon détaillée un second mode de génération de trace. FIG. 5 is a functional flow chart showing in detail a second mode of generating a trace.
[0031] Dans la description qui va suivre, des éléments sensiblement identiques ou similaires seront désignés par des références identiques. In the description which follows, substantially identical or similar elements will be designated by identical references.
DESCRIPTION DETAILLEE DE L'INVENTION DETAILED DESCRIPTION OF THE INVENTION
DEFINITIONS DEFINITIONS
[0032] Par « paramètre physique », on entend tout élément, propriété ou caractéristique physique et/ou chimique, susceptible d'être mesuré ou détecté ou observé ou quantifié, caractérisant un objet, une particule, un environnement, un émetteur, etc. By "physical parameter" is meant any element, property or physical and / or chemical characteristic that can be measured or detected or observed or quantified, characterizing an object, a particle, an environment, an emitter, etc.
[0033] Par « architecture paramétrique », on entend l'ensemble de paramètres permettant de définir les caractéristiques physiques, chimiques (constituants, propriétés, aspect visuel d'un objet, texture, etc.) et comportementales d'un élément (particule, texture, objet, etc.). By "parametric architecture" is meant the set of parameters making it possible to define the physical, chemical (constituents, properties, visual appearance of an object, texture, etc.) and behavioral characteristics of an element (particle, texture, object, etc.).
[0034] Par « particule » physique (ou particule paramétrée), on entend l'unité physique et/ou chimique élémentaire dans son état lors de la projection (à l'état solide, liquide, gazeux ou un mélange de ces phases), qui, lorsqu'elle est projetée sur un objet, engendre une trace paramétrée produisant une ou plusieurs modifications physiques et/ou chimiques au moins de la surface de cet objet, en particulier des textures de cet objet, de sorte qu'au moins un de ses paramètres By physical "particle" (or parametric particle) is meant the physical unit and / or elementary chemical in its state during the projection (in the solid state, liquid, gaseous or a mixture of these phases), which, when projected on an object, generates a parameterized trace producing one or more physical and / or chemical modifications of at least the surface of that object, in particular textures of this object, so that at least one of its parameters
il  he
ou caractéristiques physiques, en particulier une caractéristique visible, soit modifié. or physical characteristics, in particular a visible characteristic, be modified.
[0035] Par « émetteur de particules », on entend un élément, en particulier un élément virtuel visible ou non sur une scène, permettant de projeter une ou plusieurs particules paramétrées physiquement sur un objet lui aussi paramétré physiquement, tel qu'un canon, pistolet, jet, gicleur, émetteur, projecteur (pour des photons, ou des particules lumineuses ou chauffantes, etc.) etc. Une scène peut prévoir un ou plusieurs émetteurs. Les paramètres d'un émetteur comprennent de préférence sa position dans la scène, l'orientation et l'angle d'émission ou projection des particules. By "particle emitter" means an element, in particular a virtual element visible or not on a stage, for projecting one or more particles parameterized physically on an object also physically parameterized, such as a gun, spray gun, jet, jet, emitter, spotlight (for photons, or luminous or heating particles, etc.) etc. A scene may include one or more transmitters. The parameters of an emitter preferably include its position in the scene, the orientation and the angle of emission or projection of the particles.
[0036] Par « trace » (ou trace paramétrée), on entend un point ou parcours (ensemble de points) sur la surface d'un objet cible généré par le déplacement d'une ou plusieurs particules paramétrées sur l'objet suite à un impact ou collision avec ce dernier. [0037] Par « effet graphique », on entend une description du processus physique et/ou chimique qui détermine comment une ou plusieurs traces générées sur un objet cible affectent la texture de cette objet. A titre illustratif, voici quelques exemples d'effets graphiques : By "trace" (or parameterized trace), we mean a point or course (set of points) on the surface of a target object generated by the displacement of one or more particles parameterized on the object following a impact or collision with the latter. By "graphic effect" is meant a description of the physical and / or chemical process that determines how one or more traces generated on a target object affect the texture of that object. As an illustration, here are some examples of graphic effects:
- Une trace de liquide sur du bois nu est absorbée par le bois. En variante, elle a pour effet d'assombrir la teinte du bois ; - A trace of liquid on bare wood is absorbed by the wood. Alternatively, it has the effect of darkening the color of the wood;
un liquide appliqué sur un vernis ou un plastique n'est pas absorbé du tout et confère un effet de « goutte » sur la surface du matériau ;  a liquid applied to a varnish or a plastic is not absorbed at all and gives a "drop" effect on the surface of the material;
de la chaleur appliquée sur un matériau peint a pour effet de faire écailler la peinture puis de la brûler, en fonction de la température réglée par l'utilisateur, et éventuellement de calciner le matériau sur lequel la peinture est appliquée si celui- ci est combustible ;  the heat applied to a painted material causes the paint to peel and then burn, depending on the temperature set by the user, and possibly to calcine the material on which the paint is applied if it is combustible ;
l'application d'un acide ou d'un jet de sable sur un plastique brillant va progressivement le dépolir, le rendre moins brillant et de plus en plus rugueux.  the application of an acid or a jet of sand on a glossy plastic will gradually depolish it, make it less shiny and more and more rough.
[0038]Par « texture procédurale », on entend une texture définie à l'aide d'algorithmes et/ou mathématiquement et affichée au moyen d'un moteur de rendu permettant de transformer les données mathématiques en format image classique tel que bitmap par exemple. By "procedural texture" is meant a texture defined using algorithms and / or mathematically and displayed by means of a rendering engine making it possible to transform the mathematical data into a conventional image format such as, for example, a bitmap. .
[0039]Grâce au procédé et au système décrit dans ce qui suit, les différentes étapes d'un processus évolutif peuvent être déterminées et présentées. With the method and system described in the following, the various stages of an evolutionary process can be determined and presented.
[0040] La figure 1 illustre un exemple de système de génération de textures procédurales selon l'invention. Il comporte au moins un microprocesseur 2 adapté pour la mise en œuvre d'instructions contenues dans une mémoire d'instructions 3. Une pluralité de modules sont avantageusement fournis par la mise en oeuvre des instructions par le microprocesseur. Un module de simulation d'animation 4 permet d'établir les données liées aux déplacements des différents éléments de la scène. Ces données d'animation comprennent en outre les coordonnées spatiales en fonction du temps, les événements tels que les collisions, les extinctions, etc, pour chacun des éléments. FIG. 1 illustrates an example of a system for generating procedural textures according to the invention. It comprises at least one microprocessor 2 adapted for the implementation of instructions contained in an instruction memory 3. A plurality of modules are advantageously provided by the implementation of the instructions by the microprocessor. An animation simulation module 4 makes it possible to establish the data related to the movements of the various elements of the scene. This animation data further includes the spatial coordinates as a function of time, events such as collisions, extinctions, etc., for each of the elements.
[0041] Un module traceur 5 permet de déterminer les données de déplacement des particules sur un objet cible après une collision de la particule contre l'objet. Un intégrateur 6 de paramètres physiques permet, à partir des paramètres physiques concernés, de générer un nouvel ensemble de textures pour l'objet soumis aux divers éléments et paramètres. [0042] Un module mélangeur 7, optionnel, permet de prendre en compte les données de plusieurs traces superposées, lorsque plusieurs traces ont des points ou zones de parcours communs. Le mélangeur permet ainsi de définir, en fonction de l'influence de chaque trace, une portion de trace mélangée ou globale. Cette dernière sera utilisée par l'intégrateur dans la zone concernée. Pour illustrer la fonction du mélangeur de traces, voici quelques exemples non limitatifs : A tracer module 5 makes it possible to determine the displacement data of the particles on a target object after a collision of the particle against the object. An integrator 6 of physical parameters makes it possible, from the physical parameters concerned, to generate a new set of textures for the object subjected to the various elements and parameters. An optional mixer module 7 makes it possible to take into account the data of several superimposed traces, when several traces have common points or path areas. The mixer thus makes it possible to define, as a function of the influence of each trace, a portion of mixed or global trace. The latter will be used by the integrator in the area concerned. To illustrate the function of the trace mixer, here are some non-limiting examples:
- des traces de liquide qui coulent « vers le bas » et qui se confondent quand elles se rapprochent trop ;  - traces of liquid that flow "downwards" and merge when they come too close;
- des traces de « fissures » qui s'interrompent pour ne laisser continuer que la plus large lorsqu'elles se rencontrent (en général, des fissures ne se « croisent » pas) ; - des traces d'impact qui sont complètement indépendantes les unes des autres et ne se « mélangent » pas.  - traces of "cracks" that stop to let only the widest when they meet (in general, cracks do not "cross"); - traces of impact that are completely independent of each other and do not "mix".
[0043] Une entrée utilisateur 8 permet de recevoir des données en provenance d'une source externe, et notamment d'un utilisateur qui souhaiterait interagir sur les phénomènes physiques en cours de progression ou à venir. A user input 8 can receive data from an external source, including a user who would interact on the physical phenomena in progress or future.
[0044] Un module facultatif de sauvegarde temporelle 9 permet de conserver des données reliées à une échelle temporelle. Ce module permet par exemple d'exécuter à nouveau une simulation d'animation après changement de un ou plusieurs paramètres, en effectuant uniquement les opérations requises par les données modifiées. Il est ainsi possible de réaliser simplement et rapidement plusieurs simulations successives basées sur une simulation précédente, ou de retrouver une simulation préalablement effectuée. An optional temporal backup module 9 makes it possible to keep data related to a time scale. This module allows for example to run an animation simulation again after changing one or more parameters, performing only the operations required by the modified data. It is thus possible to realize simply and quickly several successive simulations based on a previous simulation, or to find a simulation previously carried out.
[0045] Un bus 10 permet les transferts de données entres les divers modules et les éléments mémoires décrits ci-après. A bus 10 allows data transfers between the various modules and the memory elements described below.
[0046] Un élément mémoire émetteur 1 1 comprend des données d'un moins un émetteur ou moteur de particules. Ces données comprennent par exemple les coordonnées spatiales et l'orientation de l'émetteur en fonction du temps, le cône d'émission de particules, la cadence d'émission, la vitesse et/ou force d'émission, etc. A transmitter memory element 1 1 comprises data of at least one emitter or particle engine. These data include, for example, the spatial coordinates and the orientation of the transmitter as a function of time, the particle emission cone, the transmission rate, the speed and / or emission force, etc.
[0047] Les données de particules émises sont contenues dans un élément mémoire de particules 12. Ces données comprennent par exemple les caractéristiques physiques des particules telles que les formes, dimensions, poids, adhérence, élasticité, etc. The data of emitted particles are contained in a particle memory element 12. These data include for example the physical characteristics of the particles such as shapes, dimensions, weight, adhesion, elasticity, etc.
[0048] Un élément de données d'objets cibles 13 stocke les données des objets cibles susceptibles d'être impactées au cours d'une simulation d'animation. Ces données comprennent par exemple les caractéristiques physiques des objets cibles telles que les formes, dimensions, poids, et les diverses caractéristiques en relation avec la surface et les textures des objets. A target object data element 13 stores the data of the target objects that can be impacted during an animation simulation. These data include, for example, the physical characteristics of the target objects such as shapes, dimensions, weights, and various features related to the surface and textures of the objects.
[0049] Un élément de données de traces 14 stocke les données des traces générées par les particules sur un objet cible donné. Ces données peuvent comprendre une pluralité de paramètres tels que la largeur, profondeur et profil en fonction de la position le long de la trace, la rugosité, la porosité, etc. De manière générale, tout paramètre susceptible d'influencer les caractéristiques de textures de l'objet concerné peut être pris en compte. Des indices peuvent être affectés à chacun des paramètres afin de pondérer leurs niveaux d'importance relative. [0050] Un élément de données d'effets graphiques 15 stocke les données des effets graphiques mis en œuvre lors de simulations d'animations. Ces effets graphiques peuvent comporter des paramètres de coloration, d'intensité, de brillance, de granulométrie, etc. [0049] A trace data element 14 stores the data of the traces generated by the particles on a given target object. These data may include a plurality of parameters such as width, depth and profile as a function of the position along the trace, roughness, porosity, etc. In general, any parameter that may influence the texture characteristics of the object concerned may be taken into account. Indices can be assigned to each of the parameters in order to weight their relative importance levels. A graphic effect data element 15 stores the data of the graphic effects implemented during simulation of animations. These graphic effects may include color, intensity, gloss, grain size, etc. parameters.
[0051] Les éléments mémoires précédemment décrits et/ou les différents modules peuvent être regroupés en un ou plusieurs éléments et un ou plusieurs modules sans affecter les fonctionnement du système de façon significative. [0052]Un élément optionnel de paramètres globaux 16 comprend les paramètres susceptibles d'affecter plusieurs éléments de la scène, comme par exemple des données de température, de pression, humidité, force physique (magnétique, gravitationnelle ou autre), etc. [0053] Un élément de données de textures d'objets cibles 17 stocke les données des nouvelles textures des objets cibles susceptibles d'être impactées au cours d'une simulation d'animation. Les éventuelles données de textures initiales peuvent aussi être contenues dans cet élément mémoire 17. [0054] La figure 2 montre un organigramme fonctionnel des principales étapes du procédé de génération de textures selon l'invention. A l'étape 110, le système et les données utiles sont initialisées. L'étape 120, optionnelle, permet de recevoir d'éventuelles données utilisateur permettant de régler ou corriger des données ou paramètres à traiter par le module de simulation d'animation 4 en fonction d'un souhait ou besoin utilisateur particulier. The previously described memory elements and / or the different modules can be grouped into one or more elements and one or more modules without affecting the operation of the system significantly. An optional global parameter element 16 comprises the parameters that may affect several elements of the scene, such as for example data of temperature, pressure, humidity, physical force (magnetic, gravitational or other), and so on. A target object texture data element 17 stores the data of the new textures of the target objects that can be impacted during an animation simulation. Any initial textural data may also be contained in this memory element 17. FIG. 2 shows a functional flowchart of the main steps of the texture generation method according to the invention. In step 110, the system and the payload are initialized. Step 120, optional, can receive any user data to adjust or correct data or parameters to be processed by the animation simulation module 4 according to a particular wish or user need.
[0055]L'étape 130, au niveau du module de simulation d'animation 4, prévoit la réception des données en relation avec les particules, le ou les émetteurs, le ou les objets, ainsi que les éventuelles données d'environnement. Le module de simulation d'animation 4 reçoit donc tous les paramètres lui permettant d'effectuer une animation de la scène. Cette simulation d'animation comprend une phase de calcul des trajectoires des éléments susceptibles de se déplacer dans la scène, tels que les particules et éventuellement les objets et/ou les émetteurs. Les étapes 141 à 148 montrent plus en détails les différentes étapes de cette phase de calcul des trajectoires. Après la phase 140, la phase 150 prévoit l'intégration des paramètres physiques et la génération et/ou adaptation d'un nouvel ensemble de textures pour le ou les objets affectés par les événements se produisant dans la scène. Cette phase est présentée plus en détails à la figure 3. Step 130, at the level of the animation simulation module 4, provides for the reception of the data in relation to the particles, the transmitter or emitters, the object or objects, as well as any environmental data. The animation simulation module 4 thus receives all the parameters enabling it to perform an animation of the scene. This animation simulation includes a phase of calculating the trajectories of the elements likely to move in the scene, such as the particles and possibly the objects and / or the emitters. Steps 141 to 148 show in more detail the different steps of this trajectory calculation phase. After phase 140, phase 150 provides the integration of the physical parameters and the generation and / or adaptation of a new set of textures for the object or objects affected by the events occurring in the scene. This phase is presented in more detail in Figure 3.
[0056] Le calcul des trajectoires démarre avantageusement par un test, effectué à l'étape 141 , consistant à vérifier si la particule concernée est active ou éteinte. Si elle est éteinte, l'étape 145 s'applique afin de mettre à jour les données de particules concernées. Dans ce type de cas, les données en relation avec la particule comporte un paramètre lié à l'extinction de ladite particule. Si la particule est active, un second test, à l'étape 142, permet de vérifier si la particule entre en collision avec un objet. Si le test donne un résultat négatif, l'étape 145 s'applique afin de mettre à jour les données de particules concernées. En cas de collision, une phase de génération 143 de trace est effectuée. Une éventuelle phase de modification de trace 144 est ensuite effectuée dans le cas où une ou plusieurs traces sont affectées par une nouvelle collision ou trace. Ces phases sont détaillées aux figures 4 et 5. The calculation of the trajectories advantageously starts with a test, performed in step 141, of checking whether the particle concerned is active or extinguished. If it is off, step 145 applies to update the relevant particle data. In this type of case, the data relating to the particle comprises a parameter related to the extinction of said particle. If the particle is active, a second test, in step 142, makes it possible to check whether the particle collides with an object. If the test gives a negative result, step 145 applies in order to update the relevant particle data. In the event of a collision, a trace generation phase 143 is performed. A possible trace modification phase 144 is then performed in the case where one or more traces are affected by a new collision or trace. These phases are detailed in Figures 4 and 5.
L'étape suivante, 145, permet de s'assurer que les données affectées par les étapes ou phases précédentes sont bien mises à jour. Il s'agit en particulier des données de particules et/ou de traces. La phase de calculs se termine à l'étape 146.  The next step, 145, makes it possible to ensure that the data affected by the preceding steps or phases are updated. It is in particular the data of particles and / or traces. The calculation phase ends in step 146.
[0057] En variante, le test de l'étape 141 est suivi par un test 147 permettant de vérifier si la particule en cours de traitement génère ou non une éventuelle nouvelle particule ou un nouvel émetteur. Si ce test est positif, l'étape 148 permet alors de mettre à jour les données émetteurs en fonction de cette génération de particule. Sinon, l'étape 145 s'applique, afin de mettre à jour les données de particules concernées. Le test 147 est aussi effectué dans le cas où le test de collision avec un objet de l'étape 142 donne un résultat positif. In a variant, the test of step 141 is followed by a test 147 making it possible to check whether the particle being processed generates or not a possible new particle or a new emitter. If this test is positive, step 148 then makes it possible to update the emitter data according to this generation of particles. Otherwise, step 145 applies, in order to update the data of particles concerned. The test 147 is also carried out in the case where the collision test with an object of the step 142 gives a positive result.
[0058] La figure 3 montre de façon plus détaillée les étapes phares de la phase 150 d'intégration des paramètres physiques et de génération et/ou adaptation des textures résultants des événements se déroulant dans la scène. A l'étape 151 , l'intégrateur de paramètres physiques 6 réceptionne les données de traces, les données d'objet et les données d'effets graphiques applicables. [0059] L'intégrateur exécute, à l'étape 152, les effets graphiques correspondants aux données reçues, en fonction des données de l'objet et des données de traces pertinentes, comme par exemple, écaillement de peinture, corrosion (si métallique), brûlure, combustion, arrêt de trace pour un matériaux poreux, coulure non absorbante. L'étape 153 permet de vérifier si une ou plusieurs autres traces sont à prendre en compte. Si tel est le cas, le module mélangeur de traces 7 effectue la mise en commun des paramètres de traces pour les zones communes à plusieurs traces. Figure 3 shows in more detail the flagship steps of the phase 150 of integration of the physical parameters and generation and / or adaptation of textures resulting from the events taking place in the scene. In step 151, the physical parameter integrator 6 receives the trace data, the object data, and the applicable graphic effect data. The integrator executes, in step 152, the graphical effects corresponding to the received data, according to the data of the object and the relevant trace data, for example, paint peeling, corrosion (if metallic). , burning, burning, trace stop for a porous material, nonabsorbent flow. Step 153 makes it possible to check whether one or more other traces are to be taken into account. If this is the case, the trace mixer module 7 performs the sharing of the trace parameters for the areas common to several traces.
[0060]Les éventuelles données utilisateur sont prises en compte à l'étape 155. Enfin, une fois toutes les itérations effectuées, les paramètres physiques sont intégrés par l'intégrateur 6 pour générer et/ou modifier les textures de l'objet. Any user data are taken into account in step 155. Finally, once all the iterations are done, the physical parameters are integrated by the integrator 6 to generate and / or modify the textures of the object.
[0061 ]Tel que préalablement évoqué, la phase 143 est détaillée aux figures 4 et 5, aux étapes 200 à 250 pour le cas de la figure 4, et aux étapes 300 à 350 pour le cas de la figure 5. As previously mentioned, the phase 143 is detailed in Figures 4 and 5, in steps 200 to 250 for the case of Figure 4, and in steps 300 to 350 for the case of Figure 5.
[0062] A la figure 4, pour chaque particule active (étape 200), le module traceur 5 effectue une sélection de règle à appliquer en fonction du type de particule. Les règles permettent de déterminer le type d'influence ou d'effet physique que la particule concernée aura sur la trace générée, et finalement sur les textures obtenues pour l'objet en interaction avec cette particule. A l'étape 230, la règle est évaluée en fonction des paramètres de l'objet. En 240, une trace est générée ou modifiée en fonction de la règle adaptée. Un test à l'étape 220 permet de vérifier si une autre règle s'applique ou non. [0063]A la figure 5, pour chaque règle de modification de trace, (étape 300), le module traceur 5 effectue une sélection de particules affectées par la règle. A l'étape 330, la règle est évaluée en fonction des paramètres de particule et de l'objet. En 340, une trace est générée ou modifiée en fonction de la règle adaptée. Un test à l'étape 320 permet de vérifier si une autre particule s'applique ou non. In FIG. 4, for each active particle (step 200), the tracer module 5 makes a selection of rules to be applied depending on the type of particle. The rules make it possible to determine the type of influence or physical effect that the particle concerned will have on the generated trace, and finally on the textures obtained for the object interacting with this particle. At step 230, the rule is evaluated according to the parameters of the object. In 240, a trace is generated or modified according to the adapted rule. A test in step 220 makes it possible to check whether another rule applies or not. In FIG. 5, for each trace modification rule, (step 300), the tracer module 5 performs a selection of particles affected by the rule. In step 330, the rule is evaluated based on the particle parameters and the object. In 340, a trace is generated or modified according to the adapted rule. A test in step 320 makes it possible to check whether another particle applies or not.
VARIANTES ET AUTRES MODES DE REALISATION VARIANTS AND OTHER EMBODIMENTS
[0064]Dans ce qui précède, le système et procédé selon l'invention est présenté dans un environnement de travail adapté pour un outil d'édition destiné à un utilisateur appelé à créer ou modifier le rendu d'un ou plusieurs objets. In the foregoing, the system and method according to the invention is presented in a working environment adapted for an editing tool for a user to create or modify the rendering of one or more objects.
[0065] En variante, le système et le procédé selon l'invention sont utilisés en mode autonome, pour la génération de rendus d'objets à partir de paramètres physiques préétablis ou pouvant être calculés par le système lui-même, par exemple en fonction de résultats intermédiaires. De tels exemples de réalisation sont avantageusement utilisés pour des jeux vidéo ou films, en particulier des jeux ou films dans lesquels les rendus ou textures sont générés par un moteur de génération de textures procédurales. Le document WO2012014057, incorporé par référence dans le présent document, décrit un exemple d'un tel système et procédé de rendu. In a variant, the system and the method according to the invention are used in autonomous mode, for the generation of object renderings from pre-established physical parameters or that can be calculated by the system itself, for example according to intermediate results. Such exemplary embodiments are advantageously used for video games or films, in particular games or films in which the renderings or textures are generated by a procedural texture generation engine. WO2012014057, incorporated by reference herein, describes an example of such a system and rendering method.
[0066] Le système et procédé selon l'invention permettent de générer et/ou modifier des rendus d'objets en prenant en compte les facteurs techniques (physiques, chimiques, thermodynamiques, etc.) inhérents aux objets eux-mêmes ainsi qu'à l'environnement de la scène. [0067] Par exemple, pour créer un effet de corrosion sur un objet, un émetteur peut projeter des particules paramétrées avec des paramètres en relations avec la corrosion. Parmi ces paramètres physiques (autres que les données de couleur) les comportements des objets en relation avec les particules projetées, c'est-à- dire les interactions entre les différents éléments physiques, permettent par exemple définir que des matériaux tels que le plastique ne réagissent pas à des effets de corrosion, l'acier développe des zones corrodées, le cuivre s'oxyde, etc. [0068]Selon les modes de réalisations, certains paramètres peuvent être affectés soit aux particules paramétrées, soit aux objets, soit à l'environnement, ou encore aux effets graphiques. La répartition ou l'architecture paramétrique peut aussi varier pour produire des rendus comparables. [0069] Dans un autre exemple d'utilisation du procédé et du système selon l'invention, les particules projetées contre les objets comportent uniquement des paramètres non colorimétriques, comme par exemple des données d'énergie thermique ou chaleur, des données de pression, etc. [0070] Dans un exemple où un émetteur projette de l'eau, l'objet cible comportant plusieurs matériaux différents peut présenter des modes de réaction différents selon les matériaux sur lesquels les traces évoluent. Les traces peuvent être différentes, les effets graphiques peuvent aussi être différents, de sorte que les textures finales prennent en compte les paramètres des différents matériaux de la cible. The system and method according to the invention make it possible to generate and / or modify renderings of objects by taking into account the technical factors (physical, chemical, thermodynamic, etc.) inherent to the objects themselves as well as to the environment of the scene. For example, to create a corrosion effect on an object, a transmitter can project parametric particles with parameters in relation to corrosion. Among these physical parameters (other than the color data) the behaviors of the objects in relation to the projected particles, that is to say the interactions between the different physical elements, make it possible, for example, to define that materials such as plastic do not react to corrosion effects, steel develops corroded areas, copper oxidizes, etc. Depending on the embodiments, certain parameters may be assigned to either the parameterized particles, objects, the environment, or the graphic effects. The distribution or parametric architecture can also vary to produce comparable renderings. In another example of use of the method and of the system according to the invention, the particles projected against the objects comprise only non-colorimetric parameters, such as, for example, thermal energy or heat data, pressure data, etc. In an example where an emitter projects water, the target object comprising several different materials may have different reaction modes depending on the materials on which the traces evolve. The traces can be different, the graphic effects can also be different, so that the final textures take into account the parameters of the different materials of the target.
[0071] Dans un autre exemple, des particules chaudes sont émises sur un corps multi-matériaux. Les traces permettent de créer une sorte de « mapping » de température sur la surface de l'objet. Ce « mapping », auquel on applique les effets graphiques, permet de produire les textures finales prenant en compte les différents matériaux. [0072]Le tableau 1 , ci-après, illustre des exemples de paramètres permettant de mettre en œuvre les exemples évoqués. TABLEAU 1 : exemple de paramètres physiques In another example, hot particles are emitted on a multi-material body. The traces make it possible to create a kind of "mapping" of temperature on the surface of the object. This "mapping", to which one applies the graphic effects, makes it possible to produce the final textures taking into account the different materials. Table 1, below, illustrates examples of parameters used to implement the examples mentioned. TABLE 1: Example of Physical Parameters
[0073] La sauvegarde temporelle permet avantageusement de revenir en arrière sur un processus afin de retrouver un des multiples états précédents. Elle peut également permettre de refaire un processus en modifiant seulement un ou quelques paramètres, tout en bénéficiant des autres paramètres non modifiés, évitant ainsi de devoir paramétrer à nouveau toutes les données. Ceci permet par exemple de comparer facilement et rapidement les résultats que l'on peut obtenir en modifiant uniquement certains paramètres. The temporal backup advantageously allows to go back on a process to find one of the multiple previous states. It can also make it possible to redo a process by modifying only one or a few parameters, while benefiting from other unmodified parameters, thus avoiding having to re-parameterize all the data. This makes it possible, for example, to easily and quickly compare the results that can be obtained by modifying only certain parameters.
[0074] Par exemple, il est possible de changer une caractéristique de particule (par exemple la couleur, la dimension, la dureté, la température, etc.) pour une ou plusieurs des particules préalablement projetées en cours de processus. [0075] Les Figures et leurs descriptions faites ci-dessus illustrent l'invention plutôt qu'elles ne la limitent. [0076] Les signes de références dans les revendications n'ont aucun caractère limitatif. Les verbes « comprendre » et « comporter » n'excluent pas la présence d'autres éléments que ceux listés dans les revendications. Le mot « un » précédant un élément n'exclut pas la présence d'une pluralité de tels éléments. En outre, le système et procédé préalablement décrits fonctionnent avantageusement en multi-canal, c'est-à-dire en traitant plusieurs textures (diffuse, normale, etc.) à chaque étape. For example, it is possible to change a particle characteristic (for example color, size, hardness, temperature, etc.) for one or more particles previously projected during the process. The figures and their descriptions made above illustrate the invention rather than limiting it. The reference signs in the claims are not limiting in nature. The verbs "understand" and "include" do not exclude the presence of elements other than those listed in the claims. The word "a" preceding an element does not exclude the presence of a plurality of such elements. In addition, the system and method previously described advantageously operate in multi-channel, that is to say by treating several textures (diffuse, normal, etc.) at each step.

Claims

REVENDICATIONS
1. Système de génération de textures procédurales sur un objet à partir des particules émises par un moteur de particules, comprenant: A system for generating procedural textures on an object from particles emitted by a particle engine, comprising:
- un accès à des données (1 1 ) d'émetteur de particules;  - access to data (1 1) of particle emitter;
- un accès à des données (12) de particules émises;  - access to data (12) of emitted particles;
- un accès à des données (13) d'objets cibles définis par des paramètres architecturaux et des textures procédurales ;  - access to data (13) of target objects defined by architectural parameters and procedural textures;
- un accès à des données (14) de traces;  - access to data (14) of traces;
- un accès à des données (15) d'effets graphiques;  - access to data (15) of graphic effects;
- un microprocesseur (2) et des instructions (3) de commande;  a microprocessor (2) and control instructions (3);
- un module (4) de simulation d'animation, prévu pour effectuer une simulation d'émission et de déplacement pour chacune des particules prévues à l'aide des données d'émetteur de particules et des données de particules émises;  an animation simulation module (4), designed to perform an emission and displacement simulation for each of the particles provided using the particle emitter data and the emitted particle data;
- un module (5) traceur, prévu pour générer une trace paramétrée produisant une ou plusieurs modifications physiques et/ou chimiques de la surface de cet objet, de sorte qu'au moins un de ses paramètres, en particulier une caractéristique visible, soit modifié;  a tracer module (5), intended to generate a parameterized trace producing one or more physical and / or chemical modifications of the surface of this object, so that at least one of its parameters, in particular a visible characteristic, is modified ;
- un module (6) intégrateur de paramètres physiques, prévu pour :  a module (6) integrating physical parameters, provided for:
i) exécuter les effets graphiques en fonction des données de l'objet et des données de traces obtenues ; i) execute the graphic effects according to the object data and the obtained trace data;
ii) générer un nouvel ensemble de textures pour ledit objet prenant en compte les données de l'objet et les effets graphiques préalablement obtenus. ii) generating a new set of textures for said object taking into account the object data and the previously obtained graphic effects.
2. Système de génération de textures selon la revendication 1 , dans lequel le module traceur (5) comporte un module (51 ) de sélection de règles et un module de mise en œuvre permettant d'appliquer la règle afin de générer les données de trace résultantes. The texture generation system according to claim 1, wherein the tracer module (5) comprises a rule selection module (51) and an implementation module for applying the rule to generate the trace data. resulting.
3. Système de génération de textures selon l'une des revendications 1 ou 2, dans lequel le module traceur (5) comporte un sous-module mélangeur (7) de traces prévu pour modifier une trace sur laquelle une nouvelle particule active entre en interaction. 3. texture generation system according to one of claims 1 or 2, wherein the tracer module (5) comprises a mixer sub-module (7) of traces provided for modifying a trace on which a new active particle interacts .
4. Système de génération de textures selon l'une des revendications précédentes, comportant par ailleurs un module de sauvegarde temporelle (9) prévu pour conserver les données permettant de générer à nouveau un ensemble de textures d'un objet pour lequel un ou plusieurs paramètres sont modifiés ou pour obtenir à nouveau un ensemble de textures préalablement généré. 4. texture generation system according to one of the preceding claims, further comprising a temporal backup module (9) provided for retaining the data for generating again a set of textures of an object for which one or more parameters are modified or to obtain again a set of previously generated textures.
5. Système de génération de textures selon l'une des revendications précédentes, dans lequel le système comporte par ailleurs un module d'entrée de données utilisateur (8) susceptibles d'impacter les données issues du module de simulation. 5. texture generation system according to one of the preceding claims, wherein the system further comprises a user data input module (8) capable of impacting the data from the simulation module.
6. Système de génération de textures selon l'une des revendications précédentes, dans lequel le système comporte par ailleurs un accès à des données (16) de paramètres globaux susceptibles d'agir sur une pluralité de particules émises et/ou sur au moins un objet présent dans la zone d'influence des paramètres globaux. Texture generation system according to one of the preceding claims, in which the system also comprises access to data (16) of global parameters that can act on a plurality of emitted particles and / or on at least one object present in the influence zone of the global parameters.
7. Procédé de génération de textures procédurales sur un objet à partir de particules émises par un émetteur de particules, comprenant les étapes dans lesquelles: A method of generating procedural textures on an object from particles emitted by a particle emitter, comprising the steps of:
-un module (4) de simulation d'animation reçoit des données d'au moins un émetteur de particules, des données de particules pour émission par l'émetteur, des données d'au moins un objet cible, défini par des paramètres architecturaux et des textures procédurales, susceptible de recevoir des impacts desdites particules émises et détermine une trajectoire pour chacune des particules à émettre en fonction des données de l'émetteur et des données de particules; - pour chaque particule entrant en collision avec un objet cible, un module (5) traceur génère des données pour au moins une trace sur la surface dudit objet en fonction des données de l'objet et des données de la particule; an animation simulation module (4) receives data from at least one particle emitter, particle data for transmission by the transmitter, data from at least one target object, defined by architectural parameters and procedural textures capable of receiving impacts from said emitted particles and determining a trajectory for each of the particles to be emitted as a function of the transmitter data and the particle data; for each particle colliding with a target object, a tracer module (5) generates data for at least one trace on the surface of said object according to the data of the object and the data of the particle;
-un module intégrateur (6) de paramètres physiques exécute les effets graphiques en fonction des données de l'objet et des données des traces ;  an integrating module (6) for physical parameters executes the graphic effects according to the data of the object and the data of the traces;
- pour chaque objet ayant subit au moins un impact d'une particule, le module intégrateur (6) de paramètres physiques génère un nouvel ensemble de textures prenant en compte les données de l'objet, et les effets graphiques préalablement obtenus.  for each object having undergone at least one impact of a particle, the integrating module (6) of physical parameters generates a new set of textures taking into account the data of the object, and the graphic effects previously obtained.
8. Procédé de génération de textures selon la revendication 7, dans lequel le module intégrateur (6) génère les textures du nouvel ensemble en exécutant les effets graphiques en fonction des données de l'objet et des données des traces. The method of generating textures according to claim 7, wherein the integrating module (6) generates the textures of the new set by executing the graphic effects according to the data of the object and the data of the traces.
9. Procédé de génération de textures selon l'une des revendication 7 ou 8, dans lequel, pour chaque particule active, un module de sélection (51 ) de règle effectue une sélection de règle à appliquer, un module de mise en œuvre de règle (52) effectue une évaluation de ladite règle en fonction des paramètres de l'objet cible afin de générer les données de trace résultantes. A method for generating textures according to claim 7 or 8, wherein for each active particle a rule selection module (51) performs a rule selection to be applied, a rule implementation module. (52) performs an evaluation of said rule based on the parameters of the target object to generate the resulting trace data.
10. Procédé de génération de textures selon l'une des revendication 7 ou 8, dans lequel, pour chaque règle de modification de trace, un module de sélection de particules effectue une sélection de particules affectées par la règle à appliquer, un module de mise en œuvre de règle (52) effectue une évaluation de ladite règle en fonction des paramètres de particules et de l'objet cible afin de générer les données de trace résultantes. The method of generating textures according to one of claims 7 or 8, wherein, for each trace modification rule, a particle selection module performs a selection of particles affected by the rule to be applied, a setting module. Rule implementation (52) performs an evaluation of said rule based on the particle parameters and the target object to generate the resulting trace data.
EP14767078.0A 2013-07-18 2014-07-15 System and method for generating procedural textures with the aid of particles Pending EP3022717A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1301709A FR3008814B1 (en) 2013-07-18 2013-07-18 SYSTEM AND METHOD FOR GENERATING PROCEDURAL TEXTURES USING PARTICLES
PCT/IB2014/001327 WO2015008135A1 (en) 2013-07-18 2014-07-15 System and method for generating procedural textures with the aid of particles

Publications (1)

Publication Number Publication Date
EP3022717A1 true EP3022717A1 (en) 2016-05-25

Family

ID=49753223

Family Applications (1)

Application Number Title Priority Date Filing Date
EP14767078.0A Pending EP3022717A1 (en) 2013-07-18 2014-07-15 System and method for generating procedural textures with the aid of particles

Country Status (6)

Country Link
US (2) US11176714B2 (en)
EP (1) EP3022717A1 (en)
JP (1) JP6486348B2 (en)
CA (2) CA2917383C (en)
FR (1) FR3008814B1 (en)
WO (1) WO2015008135A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3008814B1 (en) 2013-07-18 2016-12-23 Allegorithmic SYSTEM AND METHOD FOR GENERATING PROCEDURAL TEXTURES USING PARTICLES
US20210287451A1 (en) * 2016-07-18 2021-09-16 Patrick M Baudisch System and method for handling assets for fabrication
CN114693847A (en) * 2020-12-25 2022-07-01 北京字跳网络技术有限公司 Dynamic fluid display method, device, electronic equipment and readable medium

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2681967B1 (en) 1991-10-01 1994-11-25 Electronics For Imaging Inc METHOD AND APPARATUS FOR CHANGING THE COLORS OF AN IMAGE USING A COMPUTER.
US6204858B1 (en) 1997-05-30 2001-03-20 Adobe Systems Incorporated System and method for adjusting color data of pixels in a digital image
US6996509B2 (en) * 1998-10-19 2006-02-07 Ford Global Technologies, Llc Paint spray particle trajectory analysis method and system
JP4408681B2 (en) * 2003-10-22 2010-02-03 株式会社バンダイナムコゲームス Program, information storage medium, and image generation system
US7557807B2 (en) * 2005-07-01 2009-07-07 Microsoft Corporation Visual simulation of weathering by y-ton tracing
US8085276B2 (en) 2006-11-30 2011-12-27 Adobe Systems Incorporated Combined color harmony generation and artwork recoloring mechanism
US8099265B2 (en) * 2007-12-31 2012-01-17 Exocortex Technologies, Inc. Fast characterization of fluid dynamics
JP5145510B2 (en) * 2008-06-05 2013-02-20 株式会社大都技研 Amusement stand
US8915740B2 (en) * 2008-08-21 2014-12-23 Lincoln Global, Inc. Virtual reality pipe welding simulator
US8657605B2 (en) * 2009-07-10 2014-02-25 Lincoln Global, Inc. Virtual testing and inspection of a virtual weldment
US8319771B2 (en) * 2008-09-30 2012-11-27 Disney Enterprises, Inc. Computer modelled environment
DE102009018165A1 (en) * 2009-04-18 2010-10-21 Schreiber & Friends Method for displaying an animated object
EP2599057B1 (en) 2010-07-30 2017-05-31 Allegorithmic System and method for editing, optimising, and rendering procedural textures
US8854370B2 (en) 2011-02-16 2014-10-07 Apple Inc. Color waveform
EP3951748B1 (en) * 2011-04-07 2023-10-25 Lincoln Global, Inc. Virtual testing and inspection of a virtual weldment
US20140083049A1 (en) * 2012-09-21 2014-03-27 Masonite Corporation Surface texture for molded articles
US9192874B2 (en) * 2013-03-15 2015-11-24 Crayola, Llc Digital coloring tools kit with dynamic digital paint palette
FR3008814B1 (en) 2013-07-18 2016-12-23 Allegorithmic SYSTEM AND METHOD FOR GENERATING PROCEDURAL TEXTURES USING PARTICLES

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
None *
See also references of WO2015008135A1 *

Also Published As

Publication number Publication date
US11176714B2 (en) 2021-11-16
WO2015008135A1 (en) 2015-01-22
FR3008814B1 (en) 2016-12-23
CA3200133A1 (en) 2015-01-22
CA2917383A1 (en) 2015-01-22
US20160247297A1 (en) 2016-08-25
CA3200133C (en) 2024-02-27
JP6486348B2 (en) 2019-03-20
JP2016528615A (en) 2016-09-15
CA2917383C (en) 2023-08-01
US11688108B2 (en) 2023-06-27
FR3008814A1 (en) 2015-01-23
US20220108498A1 (en) 2022-04-07

Similar Documents

Publication Publication Date Title
Logothetis et al. Px-net: Simple and efficient pixel-wise training of photometric stereo networks
CN110599574B (en) Game scene rendering method and device and electronic equipment
US20180314204A1 (en) Recording holographic data on reflective surfaces
US20170186221A1 (en) Multiple light source simulation in computer graphics
US11688108B2 (en) Generating procedural textures with the aid of particles
Dammertz et al. Progressive point‐light‐based global illumination
EP3180772B1 (en) System and method for colorimetrically and geometrically parametrizing procedural textures on an object
WO2015052514A2 (en) Rendering composites/layers for video animations
CA2917381C (en) System and method for generating procedural textures on an object
US20180321639A1 (en) Applying holographic effects to prints
Gigilashvili et al. Appearance manipulation in spatial augmented reality using image differences
Olajos Real-time rendering of volumetric clouds
EP3274772A1 (en) Applying holographic effects to prints
CN104574493A (en) Smooth distant view fade-out method and device
Peddie et al. Work flow and material standards
Litster Blender 2.5 materials and textures cookbook
Kalampokis et al. A Generic Physically-based Approach to the Opening Design Problem.
Young-Sik et al. Application and Light Analysis for Photo-Realistic Output
Bell Using Precisionism Within American Modern Art as Stylistic Inspiration for 3D Digital Works
Hnat et al. Real-time wetting of porous media
De Zwart Studio-Quality Rendering
Saito et al. Development of Real-Time Simulation Tool for Styling Appearance Evaluation
Paquette et al. Shaders and Texturing
Saam Creative relighting in compositing based on z depth
Jin A study on environment color simulation of surroundings of CG characters in live-action scene

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20160218

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20190619

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: ADOBE INC.

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230525