EP3022717A1 - Système et procédé de génération de textures procédurales à l'aide de particules - Google Patents

Système et procédé de génération de textures procédurales à l'aide de particules

Info

Publication number
EP3022717A1
EP3022717A1 EP14767078.0A EP14767078A EP3022717A1 EP 3022717 A1 EP3022717 A1 EP 3022717A1 EP 14767078 A EP14767078 A EP 14767078A EP 3022717 A1 EP3022717 A1 EP 3022717A1
Authority
EP
European Patent Office
Prior art keywords
data
module
particle
textures
particles
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP14767078.0A
Other languages
German (de)
English (en)
Inventor
Sébastien DEGUY
Christophe Soum
Cyrille Damez
Eric Batut
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Adobe Inc
Original Assignee
Allegorithmic SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Allegorithmic SAS filed Critical Allegorithmic SAS
Publication of EP3022717A1 publication Critical patent/EP3022717A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/49Analysis of texture based on structural texture description, e.g. using primitives or placement rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/21Collision detection, intersection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Definitions

  • the present invention relates to a system and a method for generating textures on an object from particles projected onto an object.
  • a color is applied in the form of a layer, in the manner of a layer of paint applied to a real physical medium.
  • the process of creating or changing the colors of objects therefore does not take into account the parameters or characteristics of the objects on which the color is applied, or the environment in which the objects are staged. Thus, to create realistic effects, a user must proceed manually to determine the point (s) or target areas, the parameters to be modified, and the level of modification of the selected parameters. If one or more objects of one or more scenes are to be processed, the required operations may involve a considerable amount of time to implement.
  • a user To color an area of a wood material to give it a realistic woody appearance, a user must make parametric adjustments in a careful and accurate manner. Since coloring tools do not take into account the properties of materials, or the interactions between objects and the environment, a user who wishes to create a visual effect based on a reaction or behavior of a material must first design or imagine the desired effect in a realistic way, then make the color changes according to the color parameters present. Thus, if a color is applied to an object, its coloring impact will be identical on all areas of this object.
  • the object has a metal portion, another wood portion and a plastic zone
  • the applied color has the same effect on all these areas, whereas on a real object, the effects produced on each of the materials would be nuanced, even very different depending on the case.
  • FR2681967 discloses a method for modifying the colors of an image displayed on a display device based on the determination of colorimetric values.
  • the method includes selecting at least one color representative of at least one pixel of the image consisting of a plurality of pixels, determining the color values of the at least one color, selecting a second color, and determining the colorimetric values of the second color, and changing the colorimetric values of a plurality of pixels of the image so that for any given pixel of that plurality having colorimetric values which correspond to the colorimetric values of said at least one color, the color values of the given pixel are modified to match the color values of the second color.
  • the applied color is identical whatever the nature of the object (plastic, wood, etc.) and does not take into account textures, but only color variations of a zone selected by the user.
  • EP0884694 discloses a method for adjusting colors in digital images, including the correction of "red eyes" in the photos.
  • the color data of the pixels are adjusted by identifying the pixels of a digital image having original color data corresponding to the predetermined color.
  • the applied color is automatic based solely on colorimetric data, in particular the colors of the iris.
  • WO2008066880 discloses a method for obtaining an original set of two or more original colors associated with a work. To do this, an input set of one or more colors chosen by the user is received. For each original color, a mapping from the original color to the derived colors is performed. The plurality of derived colors is obtained on the basis of one or more colors chosen by the user. [0011] WO2012154258 discloses a colorimetric coloring tool in 3 dimensions. Each pixel of the image comprises a set of pixel values in a three-dimensional color space. Even if it allows to use a varied color palette, the applied color does not vary according to the material on which it is applied.
  • US7557807 discloses a computer implemented method comprising generating an object with certain characteristics and the emission of a particle. The path of the particle is checked to determine if the particle interacts with the object. In the event of a collision between the particle and the object, the characteristics of the object are modified, in particular to simulate the aging and erosion behaviors of the object.
  • the described method involves the implementation of a mapping of the object by points. A ⁇ -tone map is then applied to each of the points.
  • An object of the invention is to provide a system and method for improving the efficiency and productivity of the authoring tools. Another object is to provide a system and a graphic process for increasing the flexibility and the graphical possibilities when creating colors or renderings.
  • Another object of the invention is to provide a system and a graphic process for increasing the realism of the elements shown.
  • an animation simulation module designed to perform an emission and displacement simulation for each of the particles provided using the particle emitter data and the emitted particle data
  • a tracer module designed to generate a parameterized trace producing one or more physical and / or chemical modifications of at least the surface of this object, so that at least one of its parameters, in particular a visible characteristic, is modified;
  • a system can take into account a parametric architecture to determine the influence of particles projected on objects.
  • Parametric architecture takes into account the physical and / or chemical elements inherent in the constituents and properties of particles and objects. Thanks to the fact that parametric objects and their textures can be modified according to traces parameterized according to physical and / or chemical phenomena, a scene can be set up and evolve taking into account many more parameters than the only parameters. colorimetric classically taken into account, thus contributing to considerably increase the realism of the visual effects produced.
  • the tracer module comprises a rule selection module and an implementation module for applying the rule to generate the resulting trace data.
  • the tracer module comprises a trace mixer submodule for modifying a trace on which a new active particle interacts.
  • the system further comprises a temporal backup module provided for retaining the data for generating again a set of textures of an object for which one or more parameters are modified or to obtain a set again. previously generated textures.
  • system further comprises a user data input module capable of impacting the data from the simulation module.
  • system also includes access to global parameter data that can act on a plurality of emitted particles and / or on at least one object present in the zone of influence of the global parameters.
  • the invention also provides a method for generating procedural textures on an object from particles emitted by a particle emitter, comprising the steps in which:
  • an animation simulation module receives data from at least one particle emitter, particle data for transmission by the transmitter, data from at least one target object, defined by architectural parameters and procedural textures , capable of receiving impacts of said emitted particles and determines a trajectory for each of the particles to be emitted as a function of the transmitter data and the particle data;
  • a tracer module For each particle colliding with a target object, a tracer module generates data for at least one trace on the surface of said object based on the data of the object and the data of the particle;
  • an integrating module of physical parameters executes the graphic effects according to the data of the object and the data of the traces;
  • the physical parameter integrating module For each object having undergone at least one impact of a particle, the physical parameter integrating module generates a new set of textures taking into account the data of the object, and the graphic effects previously obtained.
  • the integrating module generates the textures of the new set by executing the graphic effects according to the data of the object and the data of the traces.
  • a rule selection module performs a rule selection to be applied, a rule implementation module performs an evaluation of said rule according to the parameters of the rule. target object to generate the resulting trace data.
  • a particle selection module performs a selection of particles affected by the rule to be applied, a rule implementation module performs an evaluation of said rule. depending on the particle parameters and the target object to generate the resulting trace data.
  • FIG. 1 schematically represents an example of a texture generation system according to the invention
  • Fig. 2 is a functional flowchart showing the main steps of the texture generation method according to the invention.
  • Fig. 3 is a functional flow chart showing in detail step 150 of Fig. 2;
  • Fig. 4 is a functional flow chart showing in detail a first trace generation mode
  • FIG. 5 is a functional flow chart showing in detail a second mode of generating a trace.
  • physical parameter is meant any element, property or physical and / or chemical characteristic that can be measured or detected or observed or quantified, characterizing an object, a particle, an environment, an emitter, etc.
  • parameter architecture is meant the set of parameters making it possible to define the physical, chemical (constituents, properties, visual appearance of an object, texture, etc.) and behavioral characteristics of an element (particle, texture, object, etc.).
  • particle or parametric particle
  • physical unit or elementary chemical in its state during the projection (in the solid state, liquid, gaseous or a mixture of these phases), which, when projected on an object, generates a parameterized trace producing one or more physical and / or chemical modifications of at least the surface of that object, in particular textures of this object, so that at least one of its parameters
  • particle emitter means an element, in particular a virtual element visible or not on a stage, for projecting one or more particles parameterized physically on an object also physically parameterized, such as a gun, spray gun, jet, jet, emitter, spotlight (for photons, or luminous or heating particles, etc.) etc.
  • a scene may include one or more transmitters.
  • the parameters of an emitter preferably include its position in the scene, the orientation and the angle of emission or projection of the particles.
  • trace or parameterized trace
  • graphics effect is meant a description of the physical and / or chemical process that determines how one or more traces generated on a target object affect the texture of that object. As an illustration, here are some examples of graphic effects:
  • a trace of liquid on bare wood is absorbed by the wood. Alternatively, it has the effect of darkening the color of the wood;
  • the heat applied to a painted material causes the paint to peel and then burn, depending on the temperature set by the user, and possibly to calcine the material on which the paint is applied if it is combustible ;
  • procedural texture is meant a texture defined using algorithms and / or mathematically and displayed by means of a rendering engine making it possible to transform the mathematical data into a conventional image format such as, for example, a bitmap. .
  • FIG. 1 illustrates an example of a system for generating procedural textures according to the invention. It comprises at least one microprocessor 2 adapted for the implementation of instructions contained in an instruction memory 3. A plurality of modules are advantageously provided by the implementation of the instructions by the microprocessor.
  • An animation simulation module 4 makes it possible to establish the data related to the movements of the various elements of the scene. This animation data further includes the spatial coordinates as a function of time, events such as collisions, extinctions, etc., for each of the elements.
  • a tracer module 5 makes it possible to determine the displacement data of the particles on a target object after a collision of the particle against the object.
  • An integrator 6 of physical parameters makes it possible, from the physical parameters concerned, to generate a new set of textures for the object subjected to the various elements and parameters.
  • An optional mixer module 7 makes it possible to take into account the data of several superimposed traces, when several traces have common points or path areas. The mixer thus makes it possible to define, as a function of the influence of each trace, a portion of mixed or global trace. The latter will be used by the integrator in the area concerned.
  • To illustrate the function of the trace mixer here are some non-limiting examples:
  • a user input 8 can receive data from an external source, including a user who would interact on the physical phenomena in progress or future.
  • An optional temporal backup module 9 makes it possible to keep data related to a time scale. This module allows for example to run an animation simulation again after changing one or more parameters, performing only the operations required by the modified data. It is thus possible to realize simply and quickly several successive simulations based on a previous simulation, or to find a simulation previously carried out.
  • a bus 10 allows data transfers between the various modules and the memory elements described below.
  • a transmitter memory element 1 1 comprises data of at least one emitter or particle engine. These data include, for example, the spatial coordinates and the orientation of the transmitter as a function of time, the particle emission cone, the transmission rate, the speed and / or emission force, etc.
  • the data of emitted particles are contained in a particle memory element 12. These data include for example the physical characteristics of the particles such as shapes, dimensions, weight, adhesion, elasticity, etc.
  • a target object data element 13 stores the data of the target objects that can be impacted during an animation simulation. These data include, for example, the physical characteristics of the target objects such as shapes, dimensions, weights, and various features related to the surface and textures of the objects.
  • a trace data element 14 stores the data of the traces generated by the particles on a given target object. These data may include a plurality of parameters such as width, depth and profile as a function of the position along the trace, roughness, porosity, etc. In general, any parameter that may influence the texture characteristics of the object concerned may be taken into account. Indices can be assigned to each of the parameters in order to weight their relative importance levels.
  • a graphic effect data element 15 stores the data of the graphic effects implemented during simulation of animations. These graphic effects may include color, intensity, gloss, grain size, etc. parameters.
  • An optional global parameter element 16 comprises the parameters that may affect several elements of the scene, such as for example data of temperature, pressure, humidity, physical force (magnetic, gravitational or other), and so on.
  • a target object texture data element 17 stores the data of the new textures of the target objects that can be impacted during an animation simulation. Any initial textural data may also be contained in this memory element 17.
  • FIG. 2 shows a functional flowchart of the main steps of the texture generation method according to the invention. In step 110, the system and the payload are initialized. Step 120, optional, can receive any user data to adjust or correct data or parameters to be processed by the animation simulation module 4 according to a particular wish or user need.
  • Step 130 at the level of the animation simulation module 4, provides for the reception of the data in relation to the particles, the transmitter or emitters, the object or objects, as well as any environmental data.
  • the animation simulation module 4 thus receives all the parameters enabling it to perform an animation of the scene.
  • This animation simulation includes a phase of calculating the trajectories of the elements likely to move in the scene, such as the particles and possibly the objects and / or the emitters. Steps 141 to 148 show in more detail the different steps of this trajectory calculation phase.
  • phase 150 provides the integration of the physical parameters and the generation and / or adaptation of a new set of textures for the object or objects affected by the events occurring in the scene. This phase is presented in more detail in Figure 3.
  • step 141 The calculation of the trajectories advantageously starts with a test, performed in step 141, of checking whether the particle concerned is active or extinguished. If it is off, step 145 applies to update the relevant particle data.
  • the data relating to the particle comprises a parameter related to the extinction of said particle.
  • step 142 a second test, in step 142, makes it possible to check whether the particle collides with an object. If the test gives a negative result, step 145 applies in order to update the relevant particle data.
  • a trace generation phase 143 is performed.
  • a possible trace modification phase 144 is then performed in the case where one or more traces are affected by a new collision or trace.
  • the next step, 145 makes it possible to ensure that the data affected by the preceding steps or phases are updated. It is in particular the data of particles and / or traces.
  • the calculation phase ends in step 146.
  • step 141 the test of step 141 is followed by a test 147 making it possible to check whether the particle being processed generates or not a possible new particle or a new emitter. If this test is positive, step 148 then makes it possible to update the emitter data according to this generation of particles. Otherwise, step 145 applies, in order to update the data of particles concerned.
  • the test 147 is also carried out in the case where the collision test with an object of the step 142 gives a positive result.
  • FIG. 3 shows in more detail the subsidiary steps of the phase 150 of integration of the physical parameters and generation and / or adaptation of textures resulting from the events taking place in the scene.
  • the physical parameter integrator 6 receives the trace data, the object data, and the applicable graphic effect data.
  • the integrator executes, in step 152, the graphical effects corresponding to the received data, according to the data of the object and the relevant trace data, for example, paint peeling, corrosion (if metallic). , burning, burning, trace stop for a porous material, nonabsorbent flow.
  • Step 153 makes it possible to check whether one or more other traces are to be taken into account. If this is the case, the trace mixer module 7 performs the sharing of the trace parameters for the areas common to several traces.
  • step 155 Any user data are taken into account in step 155.
  • the physical parameters are integrated by the integrator 6 to generate and / or modify the textures of the object.
  • phase 143 is detailed in Figures 4 and 5, in steps 200 to 250 for the case of Figure 4, and in steps 300 to 350 for the case of Figure 5.
  • the tracer module 5 makes a selection of rules to be applied depending on the type of particle. The rules make it possible to determine the type of influence or physical effect that the particle concerned will have on the generated trace, and finally on the textures obtained for the object interacting with this particle.
  • the rule is evaluated according to the parameters of the object.
  • a trace is generated or modified according to the adapted rule.
  • a test in step 220 makes it possible to check whether another rule applies or not.
  • the tracer module 5 performs a selection of particles affected by the rule.
  • the rule is evaluated based on the particle parameters and the object.
  • a trace is generated or modified according to the adapted rule.
  • a test in step 320 makes it possible to check whether another particle applies or not.
  • system and method according to the invention is presented in a working environment adapted for an editing tool for a user to create or modify the rendering of one or more objects.
  • the system and the method according to the invention are used in autonomous mode, for the generation of object renderings from pre-established physical parameters or that can be calculated by the system itself, for example according to intermediate results.
  • Such exemplary embodiments are advantageously used for video games or films, in particular games or films in which the renderings or textures are generated by a procedural texture generation engine.
  • WO2012014057 incorporated by reference herein, describes an example of such a system and rendering method.
  • the system and method according to the invention make it possible to generate and / or modify renderings of objects by taking into account the technical factors (physical, chemical, thermodynamic, etc.) inherent to the objects themselves as well as to the environment of the scene.
  • a transmitter can project parametric particles with parameters in relation to corrosion.
  • these physical parameters other than the color data
  • the behaviors of the objects in relation to the projected particles make it possible, for example, to define that materials such as plastic do not react to corrosion effects, steel develops corroded areas, copper oxidizes, etc.
  • certain parameters may be assigned to either the parameterized particles, objects, the environment, or the graphic effects.
  • the distribution or parametric architecture can also vary to produce comparable renderings.
  • the particles projected against the objects comprise only non-colorimetric parameters, such as, for example, thermal energy or heat data, pressure data, etc.
  • the target object comprising several different materials may have different reaction modes depending on the materials on which the traces evolve.
  • the traces can be different, the graphic effects can also be different, so that the final textures take into account the parameters of the different materials of the target.
  • hot particles are emitted on a multi-material body.
  • the traces make it possible to create a kind of "mapping" of temperature on the surface of the object. This "mapping", to which one applies the graphic effects, makes it possible to produce the final textures taking into account the different materials.
  • the temporal backup advantageously allows to go back on a process to find one of the multiple previous states. It can also make it possible to redo a process by modifying only one or a few parameters, while benefiting from other unmodified parameters, thus avoiding having to re-parameterize all the data. This makes it possible, for example, to easily and quickly compare the results that can be obtained by modifying only certain parameters.
  • a particle characteristic for example color, size, hardness, temperature, etc.
  • a particle characteristic for example color, size, hardness, temperature, etc.
  • the figures and their descriptions made above illustrate the invention rather than limiting it.
  • the reference signs in the claims are not limiting in nature.
  • the verbs "understand” and “include” do not exclude the presence of elements other than those listed in the claims.
  • the word “a” preceding an element does not exclude the presence of a plurality of such elements.
  • the system and method previously described advantageously operate in multi-channel, that is to say by treating several textures (diffuse, normal, etc.) at each step.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Pharmaceuticals Containing Other Organic And Inorganic Compounds (AREA)
  • Organic Low-Molecular-Weight Compounds And Preparation Thereof (AREA)
  • Image Generation (AREA)

Abstract

Système de génération de textures sur un objet à partir des particules émises par un moteur de particules, comprenant: - un accès à des données (11 ) d'émetteur de particules, de particules (12) émises, d'objet cible (13), de traces (14), et d'effets graphiques (15); - un module (4) de simulation d'animation, prévu pour effectuer une simulation d'émission et de déplacement pour chacune des particules prévues; - un module (5) traceur, prévu pour générer une trace sur la surface d'un objet cible correspondant au déplacement d'une particule de long de ladite surface après un impact de la particule contre l'objet cible à l'aide des données de traces et des données d'objet cible; - un module (6) intégrateur de paramètres physiques, prévu pour générer un nouvel ensemble de textures pour ledit objet prenant en compte les données de l'objet, les données de chaque trace nouvelle ou modifiée, et les données des effets graphiques correspondants. Procédé de génération de textures correspondant.

Description

SYSTEME ET PROCEDE DE GENERATION DE TEXTURES PROCEDURALES
A L'AIDE DE PARTICULES
DOMAINE TECHNIQUE DE L'INVENTION
[0001] La présente invention concerne un système et un procédé de génération de textures sur un objet à partir de particules projetées sur un objet.
ETAT DE LA TECHNIQUE ANTERIEURE
[0002] Dans le domaine du graphisme assisté par ordinateur, on utilise depuis de nombreuses années une pléiade d'outils permettant d'appliquer des couleurs sur des objets. De façon classique, une couleur est appliquée sous la forme d'une couche, à la façon d'une couche de peinture appliquée sur un support physique réel.
[0003] L'application d'une couche de couleur produit classiquement un résultat uniforme. Pour effectuer des variations de couleurs, d'intensité ou d'opacité, un utilisateur doit procéder manuellement afin de régler les paramètres de couleur à chaque point, créant ainsi une cartographie colorimétrique précise et détaillée. Différents outils graphiques tels que des pinceaux ou applicateurs virtuels sont proposés à l'utilisateur qui effectue un tel « mapping ». [0004] Pour modifier un « mapping » préalablement établi, l'utilisateur utilise les mêmes types d'outils pour appliquer point par point les paramètres modifiés, et ainsi produire un résultat colorimétrique modifié. Même si l'utilisateur peut utiliser un cadre pour sélectionner plusieurs points à modifier de façon similaire, le processus doit être effectué de façon manuelle, pour chaque image, et requiert donc un temps considérable. [0005] On connaît également différents filtres qui peuvent être appliqués sur une ou plusieurs couleurs d'une image. Classiquement, de tels filtres agissent de façon à modifier les couleurs en fonction de paramètres intrinsèques aux couleurs elles-mêmes. Ces filtres permettent donc de créer des effets soit à partir de choix d'ambiance ou de style imposés par un utilisateur, soit en fonction des paramètres initiaux des couleurs à traiter.
[0006] Le processus de création ou modification de couleurs d'objets ne permet donc pas de prendre en compte les paramètres ou caractéristiques des objets sur lesquels la couleur est appliquée, ni de l'environnement dans lequel les objets sont mis en en scène. Ainsi, pour créer des effets réalistes, un utilisateur doit procéder manuellement pour déterminer la ou les points ou zones cibles, les paramètres à modifier, et le niveau de modification des paramètres choisis. Si un ou plusieurs objets d'une ou plusieurs scènes doivent être traités, les opérations requises peuvent impliquer un temps de mise en uvre considérable.
[0007] Par exemple, pour colorer une zone d'un matériau en bois afin de lui conférer un aspect boisé réaliste, un utilisateur doit effectuer les ajustements paramétriques de façon minutieuse et précise. Les outils de coloration ne prenant pas en compte les propriétés des matériaux, ou les interactions entre les objets et l'environnement, un utilisateur qui souhaite créer un effet visuel basé sur une réaction ou comportement d'un matériau doit tout d'abord concevoir ou imaginer l'effet souhaité de façon réaliste, puis effectuer les modifications colorimétriques en fonction des paramètres des couleurs présentes. Ainsi, si une couleur est appliquée sur un objet, son impact de coloration sera identique sur toutes les zones de cet objet. Par exemple, si l'objet comporte une portion métallique, une autre portion en bois et une zone en plastique, la couleur appliquée produit le même effet sur toutes ces zones, alors que sur un objet réel, les effets produits sur chacun des matériaux seraient nuancés, voire très différents selon les cas.
[0008] Le document FR2681967 divulgue un procédé pour modifier les couleurs d'une image affichée sur un dispositif d'affichage basé sur la détermination de valeurs colorimétriques. Le procédé comporte la sélection d'au moins une couleur représentative d'au moins un pixel de l'image constituée d'une pluralité de pixels, la détermination des valeurs colorimétriques de ladite au moins une couleur, la sélection d'une seconde couleur et la détermination des valeurs colorimétriques de la seconde couleur, et la modification des valeurs colorimétriques d'une pluralité de pixels de l'image de sorte que pour tout pixel donné de cette pluralité ayant des valeurs colorimétriques qui correspondent aux valeurs colorimétriques de ladite au moins une couleur, les valeurs colorimétriques du pixel donné sont modifiées pour correspondre aux valeurs colorimétriques de la seconde couleur. La couleur appliquée est identique quelque que soit la nature de l'objet (plastique, bois, etc.) et ne tient pas compte des textures, mais uniquement des variations de couleur d'une zone sélectionnée par l'utilisateur.
[0009] Le document EP0884694 divulgue un procédé permettant l'ajustement de couleurs dans des images numériques, notamment la correction des « yeux rouges » sur les photos. Les données de couleurs des pixels sont ajustées en identifiant les pixels d'une image numérique comportant des données de couleur d'origine correspondant à la couleur prédéterminée. Or la couleur appliquée est automatique se base uniquement sur des données colorimétriques, en particulier les couleurs de l'iris.
[0010] Le document WO2008066880 divulgue un procédé permettant l'obtention d'un ensemble original de deux ou plusieurs couleurs originales associées à une œuvre. Pour ce faire, un ensemble d'entrée d'une ou plusieurs couleurs choisies par l'utilisateur est reçue. Pour chaque couleur d'origine, une cartographie de la couleur d'origine vers les couleurs dérivées est effectuée. La pluralité de couleurs dérivées est obtenue sur la base d'une ou plusieurs couleurs choisies par l'utilisateur. [0011]Le document WO2012154258 divulgue un outil de coloration colorimétrique en 3 dimensions. Chaque pixel de l'image comprend un ensemble de valeurs de pixels dans un espace de couleurs tridimensionnel. Même si elle permet d'utiliser une palette de couleurs variée, la couleur appliquée ne varie pas en fonction du matériau sur lequel elle est appliquée.
[0012] Le document US7557807 décrit un procédé mis en œuvre par ordinateur comprenant la génération d'un objet avec certaines caractéristiques et l'émission d'une particule. On procède à la vérification du parcours de la particule pour déterminer si cette dernière interagit avec l'objet. En cas de collision entre la particule et l'objet, les caractéristiques de l'objet sont modifiées, en particulier pour simuler les comportements de vieillissement et d'érosion de l'objet. Le procédé décrit implique la mise en œuvre d'une cartographie de l'objet par points. Une cartographie des γ-ton est ensuite appliquée sur chacun des points.
[0013] Il existe donc un besoin pour pallier ces différents inconvénients. EXPOSE DE L'INVENTION
[0014] Un objet de l'invention consiste à prévoir un système et procédé permettant d'améliorer l'efficacité et la productivité des outils de création. [0015] Un autre objet consiste à prévoir un système et un procédé graphique permettant d'accroître la souplesse et les possibilités graphiques lors de création de couleurs ou rendus.
[0016] Un autre objet de l'invention consiste à prévoir un système et un procédé graphique permettant d'accroître le réalisme des éléments représentés.
[0017] Encore un autre objet de l'invention consiste à prévoir un système et un procédé permettant d'améliorer l'interactivité entre le rendu d'un objet représenté et son environnement. [0018] Encore un autre objet de l'invention consiste à prévoir un système et un procédé permettant de créer un mode d'édition contextuelle prenant en compte les paramètres environnementaux. [0019] Pour ce faire, l'invention prévoit différents moyens techniques. Par exemple, l'invention prévoit tout d'abord un système de génération de textures procédurales sur un objet à partir des particules émises par un moteur de particules, comprenant:
- un accès à des données d'émetteur de particules;
- un accès à des données de particules émises;
- un accès à des données d'objets cibles définis par des paramètres architecturaux et des textures procédurales ;
- un accès à des données de traces;
- un accès à des données d'effets graphiques;
- un microprocesseur et des instructions de commande;
- un module de simulation d'animation, prévu pour effectuer une simulation d'émission et de déplacement pour chacune des particules prévues à l'aide des données d'émetteur de particules et des données de particules émises;
- un module traceur, prévu pour engendrer une trace paramétrée produisant une ou plusieurs modifications physiques et/ou chimiques au moins de la surface de cet objet, de sorte qu'au moins un de ses paramètres, en particulier une caractéristique visible, soit modifié;
- un module intégrateur de paramètres physiques, prévu pour :
i) exécuter les effets graphiques en fonction des données de l'objet et des données de traces obtenues ;
ii) générer un nouvel ensemble de textures pour ledit objet prenant en compte les données de l'objet et les effets graphiques préalablement obtenus. [0020] Grâce à un tel arrangement, un système peut prendre en compte une architecture paramétrique afin de déterminer l'influence de particules projetées sur des objets. L'architecture paramétrique prend en compte les éléments physiques et/ou chimiques inhérents aux constituants et propriétés des particules et des objets. Notamment grâce au fait que des objets paramétrés et leurs textures peuvent être modifiées en fonction de traces paramétrées en fonction de phénomènes physiques et/ou chimiques, une scène peut être mise en place et évoluer en prenant en compte beaucoup plus de paramètres que les seuls paramètres colorimétriques classiquement pris en compte, contribuant ainsi à augmenter considérablement le réalisme des effets visuels produits.
[0021]Selon un mode de réalisation avantageux, le module traceur comporte un module de sélection de règles et un module de mise en oeuvre permettant d'appliquer la règle afin de générer les données de trace résultantes.
[0022] Selon un autre mode de réalisation avantageux, le module traceur comporte un sous-module mélangeur de traces pour modifier une trace sur laquelle une nouvelle particule active entre en interaction. [0023] De manière avantageuse, le système comporte par ailleurs un module de sauvegarde temporelle prévu pour conserver les données permettant de générer à nouveau un ensemble de textures d'un objet pour lequel un ou plusieurs paramètres sont modifiés ou pour obtenir à nouveau un ensemble de textures préalablement généré.
[0024] Egalement de manière avantageuse, le système comporte par ailleurs un module d'entrée de données utilisateur susceptibles d'impacter les données issues du module de simulation. [0025] Selon encore un autre mode de réalisation, le système comporte par ailleurs un accès à des données de paramètres globaux susceptibles d'agir sur une pluralité de particules émises et/ou sur au moins un objet présent dans la zone d'influence des paramètres globaux.
[0026] L'invention prévoit également un procédé de génération de textures procédurales sur un objet à partir de particules émises par un émetteur de particules, comprenant les étapes dans lesquelles:
-un module de simulation d'animation reçoit des données d'au moins un émetteur de particules, des données de particules pour émission par l'émetteur, des données d'au moins un objet cible, défini par des paramètres architecturaux et des textures procédurales, susceptible de recevoir des impacts desdites particules émises et détermine une trajectoire pour chacune des particules à émettre en fonction des données de l'émetteur et des données de particules;
- pour chaque particule entrant en collision avec un objet cible, un module traceur génère des données pour au moins une trace sur la surface dudit objet en fonction des données de l'objet et des données de la particule;
-un module intégrateur de paramètres physiques exécute les effets graphiques en fonction des données de l'objet et des données des traces ;
- pour chaque objet ayant subit au moins un impact d'une particule, le module intégrateur de paramètres physiques génère un nouvel ensemble de textures prenant en compte les données de l'objet, et les effets graphiques préalablement obtenus.
[0027] Selon une variante de réalisation, le module intégrateur génère les textures du nouvel ensemble en exécutant les effets graphiques en fonction des données de l'objet et des données des traces.
[0028] Selon une autre variante de réalisation, pour chaque particule active, un module de sélection de règle effectue une sélection de règle à appliquer, un module de mise en oeuvre de règle effectue une évaluation de ladite règle en fonction des paramètres de l'objet cible afin de générer les données de trace résultantes. [0029]Selon encore une variante de réalisation, pour chaque règle de modification de trace, un module de sélection de particules effectue une sélection de particules affectées par la règle à appliquer, un module de mise en oeuvre de règle effectue une évaluation de ladite règle en fonction des paramètres de particules et de l'objet cible afin de générer les données de trace résultantes.
DESCRIPTION DES FIGURES
[0030]Tous les détails de réalisation sont donnés dans la description qui suit, complétée par les figures 1 à 5, présentées uniquement à des fins d'exemples non limitatifs, et dans lesquelles:
la figure 1 représente schématiquement un exemple de système de génération de textures conforme à l'invention ;
la figure 2 est un organigramme fonctionnel présentant les principales étapes du procédé de génération de texture selon l'invention ;
la figure 3 est un organigramme fonctionnel présentant de façon détaillée l'étape 150 du la figure 2 ;
la figure 4 est un organigramme fonctionnel présentant de façon détaillée un premier mode de génération de trace;
- la figure 5 est un organigramme fonctionnel présentant de façon détaillée un second mode de génération de trace.
[0031] Dans la description qui va suivre, des éléments sensiblement identiques ou similaires seront désignés par des références identiques.
DESCRIPTION DETAILLEE DE L'INVENTION
DEFINITIONS
[0032] Par « paramètre physique », on entend tout élément, propriété ou caractéristique physique et/ou chimique, susceptible d'être mesuré ou détecté ou observé ou quantifié, caractérisant un objet, une particule, un environnement, un émetteur, etc.
[0033] Par « architecture paramétrique », on entend l'ensemble de paramètres permettant de définir les caractéristiques physiques, chimiques (constituants, propriétés, aspect visuel d'un objet, texture, etc.) et comportementales d'un élément (particule, texture, objet, etc.).
[0034] Par « particule » physique (ou particule paramétrée), on entend l'unité physique et/ou chimique élémentaire dans son état lors de la projection (à l'état solide, liquide, gazeux ou un mélange de ces phases), qui, lorsqu'elle est projetée sur un objet, engendre une trace paramétrée produisant une ou plusieurs modifications physiques et/ou chimiques au moins de la surface de cet objet, en particulier des textures de cet objet, de sorte qu'au moins un de ses paramètres
il
ou caractéristiques physiques, en particulier une caractéristique visible, soit modifié.
[0035] Par « émetteur de particules », on entend un élément, en particulier un élément virtuel visible ou non sur une scène, permettant de projeter une ou plusieurs particules paramétrées physiquement sur un objet lui aussi paramétré physiquement, tel qu'un canon, pistolet, jet, gicleur, émetteur, projecteur (pour des photons, ou des particules lumineuses ou chauffantes, etc.) etc. Une scène peut prévoir un ou plusieurs émetteurs. Les paramètres d'un émetteur comprennent de préférence sa position dans la scène, l'orientation et l'angle d'émission ou projection des particules.
[0036] Par « trace » (ou trace paramétrée), on entend un point ou parcours (ensemble de points) sur la surface d'un objet cible généré par le déplacement d'une ou plusieurs particules paramétrées sur l'objet suite à un impact ou collision avec ce dernier. [0037] Par « effet graphique », on entend une description du processus physique et/ou chimique qui détermine comment une ou plusieurs traces générées sur un objet cible affectent la texture de cette objet. A titre illustratif, voici quelques exemples d'effets graphiques :
- Une trace de liquide sur du bois nu est absorbée par le bois. En variante, elle a pour effet d'assombrir la teinte du bois ;
un liquide appliqué sur un vernis ou un plastique n'est pas absorbé du tout et confère un effet de « goutte » sur la surface du matériau ;
de la chaleur appliquée sur un matériau peint a pour effet de faire écailler la peinture puis de la brûler, en fonction de la température réglée par l'utilisateur, et éventuellement de calciner le matériau sur lequel la peinture est appliquée si celui- ci est combustible ;
l'application d'un acide ou d'un jet de sable sur un plastique brillant va progressivement le dépolir, le rendre moins brillant et de plus en plus rugueux.
[0038]Par « texture procédurale », on entend une texture définie à l'aide d'algorithmes et/ou mathématiquement et affichée au moyen d'un moteur de rendu permettant de transformer les données mathématiques en format image classique tel que bitmap par exemple.
[0039]Grâce au procédé et au système décrit dans ce qui suit, les différentes étapes d'un processus évolutif peuvent être déterminées et présentées.
[0040] La figure 1 illustre un exemple de système de génération de textures procédurales selon l'invention. Il comporte au moins un microprocesseur 2 adapté pour la mise en œuvre d'instructions contenues dans une mémoire d'instructions 3. Une pluralité de modules sont avantageusement fournis par la mise en oeuvre des instructions par le microprocesseur. Un module de simulation d'animation 4 permet d'établir les données liées aux déplacements des différents éléments de la scène. Ces données d'animation comprennent en outre les coordonnées spatiales en fonction du temps, les événements tels que les collisions, les extinctions, etc, pour chacun des éléments.
[0041] Un module traceur 5 permet de déterminer les données de déplacement des particules sur un objet cible après une collision de la particule contre l'objet. Un intégrateur 6 de paramètres physiques permet, à partir des paramètres physiques concernés, de générer un nouvel ensemble de textures pour l'objet soumis aux divers éléments et paramètres. [0042] Un module mélangeur 7, optionnel, permet de prendre en compte les données de plusieurs traces superposées, lorsque plusieurs traces ont des points ou zones de parcours communs. Le mélangeur permet ainsi de définir, en fonction de l'influence de chaque trace, une portion de trace mélangée ou globale. Cette dernière sera utilisée par l'intégrateur dans la zone concernée. Pour illustrer la fonction du mélangeur de traces, voici quelques exemples non limitatifs :
- des traces de liquide qui coulent « vers le bas » et qui se confondent quand elles se rapprochent trop ;
- des traces de « fissures » qui s'interrompent pour ne laisser continuer que la plus large lorsqu'elles se rencontrent (en général, des fissures ne se « croisent » pas) ; - des traces d'impact qui sont complètement indépendantes les unes des autres et ne se « mélangent » pas.
[0043] Une entrée utilisateur 8 permet de recevoir des données en provenance d'une source externe, et notamment d'un utilisateur qui souhaiterait interagir sur les phénomènes physiques en cours de progression ou à venir.
[0044] Un module facultatif de sauvegarde temporelle 9 permet de conserver des données reliées à une échelle temporelle. Ce module permet par exemple d'exécuter à nouveau une simulation d'animation après changement de un ou plusieurs paramètres, en effectuant uniquement les opérations requises par les données modifiées. Il est ainsi possible de réaliser simplement et rapidement plusieurs simulations successives basées sur une simulation précédente, ou de retrouver une simulation préalablement effectuée.
[0045] Un bus 10 permet les transferts de données entres les divers modules et les éléments mémoires décrits ci-après.
[0046] Un élément mémoire émetteur 1 1 comprend des données d'un moins un émetteur ou moteur de particules. Ces données comprennent par exemple les coordonnées spatiales et l'orientation de l'émetteur en fonction du temps, le cône d'émission de particules, la cadence d'émission, la vitesse et/ou force d'émission, etc.
[0047] Les données de particules émises sont contenues dans un élément mémoire de particules 12. Ces données comprennent par exemple les caractéristiques physiques des particules telles que les formes, dimensions, poids, adhérence, élasticité, etc.
[0048] Un élément de données d'objets cibles 13 stocke les données des objets cibles susceptibles d'être impactées au cours d'une simulation d'animation. Ces données comprennent par exemple les caractéristiques physiques des objets cibles telles que les formes, dimensions, poids, et les diverses caractéristiques en relation avec la surface et les textures des objets.
[0049] Un élément de données de traces 14 stocke les données des traces générées par les particules sur un objet cible donné. Ces données peuvent comprendre une pluralité de paramètres tels que la largeur, profondeur et profil en fonction de la position le long de la trace, la rugosité, la porosité, etc. De manière générale, tout paramètre susceptible d'influencer les caractéristiques de textures de l'objet concerné peut être pris en compte. Des indices peuvent être affectés à chacun des paramètres afin de pondérer leurs niveaux d'importance relative. [0050] Un élément de données d'effets graphiques 15 stocke les données des effets graphiques mis en œuvre lors de simulations d'animations. Ces effets graphiques peuvent comporter des paramètres de coloration, d'intensité, de brillance, de granulométrie, etc.
[0051] Les éléments mémoires précédemment décrits et/ou les différents modules peuvent être regroupés en un ou plusieurs éléments et un ou plusieurs modules sans affecter les fonctionnement du système de façon significative. [0052]Un élément optionnel de paramètres globaux 16 comprend les paramètres susceptibles d'affecter plusieurs éléments de la scène, comme par exemple des données de température, de pression, humidité, force physique (magnétique, gravitationnelle ou autre), etc. [0053] Un élément de données de textures d'objets cibles 17 stocke les données des nouvelles textures des objets cibles susceptibles d'être impactées au cours d'une simulation d'animation. Les éventuelles données de textures initiales peuvent aussi être contenues dans cet élément mémoire 17. [0054] La figure 2 montre un organigramme fonctionnel des principales étapes du procédé de génération de textures selon l'invention. A l'étape 110, le système et les données utiles sont initialisées. L'étape 120, optionnelle, permet de recevoir d'éventuelles données utilisateur permettant de régler ou corriger des données ou paramètres à traiter par le module de simulation d'animation 4 en fonction d'un souhait ou besoin utilisateur particulier.
[0055]L'étape 130, au niveau du module de simulation d'animation 4, prévoit la réception des données en relation avec les particules, le ou les émetteurs, le ou les objets, ainsi que les éventuelles données d'environnement. Le module de simulation d'animation 4 reçoit donc tous les paramètres lui permettant d'effectuer une animation de la scène. Cette simulation d'animation comprend une phase de calcul des trajectoires des éléments susceptibles de se déplacer dans la scène, tels que les particules et éventuellement les objets et/ou les émetteurs. Les étapes 141 à 148 montrent plus en détails les différentes étapes de cette phase de calcul des trajectoires. Après la phase 140, la phase 150 prévoit l'intégration des paramètres physiques et la génération et/ou adaptation d'un nouvel ensemble de textures pour le ou les objets affectés par les événements se produisant dans la scène. Cette phase est présentée plus en détails à la figure 3.
[0056] Le calcul des trajectoires démarre avantageusement par un test, effectué à l'étape 141 , consistant à vérifier si la particule concernée est active ou éteinte. Si elle est éteinte, l'étape 145 s'applique afin de mettre à jour les données de particules concernées. Dans ce type de cas, les données en relation avec la particule comporte un paramètre lié à l'extinction de ladite particule. Si la particule est active, un second test, à l'étape 142, permet de vérifier si la particule entre en collision avec un objet. Si le test donne un résultat négatif, l'étape 145 s'applique afin de mettre à jour les données de particules concernées. En cas de collision, une phase de génération 143 de trace est effectuée. Une éventuelle phase de modification de trace 144 est ensuite effectuée dans le cas où une ou plusieurs traces sont affectées par une nouvelle collision ou trace. Ces phases sont détaillées aux figures 4 et 5.
L'étape suivante, 145, permet de s'assurer que les données affectées par les étapes ou phases précédentes sont bien mises à jour. Il s'agit en particulier des données de particules et/ou de traces. La phase de calculs se termine à l'étape 146.
[0057] En variante, le test de l'étape 141 est suivi par un test 147 permettant de vérifier si la particule en cours de traitement génère ou non une éventuelle nouvelle particule ou un nouvel émetteur. Si ce test est positif, l'étape 148 permet alors de mettre à jour les données émetteurs en fonction de cette génération de particule. Sinon, l'étape 145 s'applique, afin de mettre à jour les données de particules concernées. Le test 147 est aussi effectué dans le cas où le test de collision avec un objet de l'étape 142 donne un résultat positif.
[0058] La figure 3 montre de façon plus détaillée les étapes phares de la phase 150 d'intégration des paramètres physiques et de génération et/ou adaptation des textures résultants des événements se déroulant dans la scène. A l'étape 151 , l'intégrateur de paramètres physiques 6 réceptionne les données de traces, les données d'objet et les données d'effets graphiques applicables. [0059] L'intégrateur exécute, à l'étape 152, les effets graphiques correspondants aux données reçues, en fonction des données de l'objet et des données de traces pertinentes, comme par exemple, écaillement de peinture, corrosion (si métallique), brûlure, combustion, arrêt de trace pour un matériaux poreux, coulure non absorbante. L'étape 153 permet de vérifier si une ou plusieurs autres traces sont à prendre en compte. Si tel est le cas, le module mélangeur de traces 7 effectue la mise en commun des paramètres de traces pour les zones communes à plusieurs traces.
[0060]Les éventuelles données utilisateur sont prises en compte à l'étape 155. Enfin, une fois toutes les itérations effectuées, les paramètres physiques sont intégrés par l'intégrateur 6 pour générer et/ou modifier les textures de l'objet.
[0061 ]Tel que préalablement évoqué, la phase 143 est détaillée aux figures 4 et 5, aux étapes 200 à 250 pour le cas de la figure 4, et aux étapes 300 à 350 pour le cas de la figure 5.
[0062] A la figure 4, pour chaque particule active (étape 200), le module traceur 5 effectue une sélection de règle à appliquer en fonction du type de particule. Les règles permettent de déterminer le type d'influence ou d'effet physique que la particule concernée aura sur la trace générée, et finalement sur les textures obtenues pour l'objet en interaction avec cette particule. A l'étape 230, la règle est évaluée en fonction des paramètres de l'objet. En 240, une trace est générée ou modifiée en fonction de la règle adaptée. Un test à l'étape 220 permet de vérifier si une autre règle s'applique ou non. [0063]A la figure 5, pour chaque règle de modification de trace, (étape 300), le module traceur 5 effectue une sélection de particules affectées par la règle. A l'étape 330, la règle est évaluée en fonction des paramètres de particule et de l'objet. En 340, une trace est générée ou modifiée en fonction de la règle adaptée. Un test à l'étape 320 permet de vérifier si une autre particule s'applique ou non.
VARIANTES ET AUTRES MODES DE REALISATION
[0064]Dans ce qui précède, le système et procédé selon l'invention est présenté dans un environnement de travail adapté pour un outil d'édition destiné à un utilisateur appelé à créer ou modifier le rendu d'un ou plusieurs objets.
[0065] En variante, le système et le procédé selon l'invention sont utilisés en mode autonome, pour la génération de rendus d'objets à partir de paramètres physiques préétablis ou pouvant être calculés par le système lui-même, par exemple en fonction de résultats intermédiaires. De tels exemples de réalisation sont avantageusement utilisés pour des jeux vidéo ou films, en particulier des jeux ou films dans lesquels les rendus ou textures sont générés par un moteur de génération de textures procédurales. Le document WO2012014057, incorporé par référence dans le présent document, décrit un exemple d'un tel système et procédé de rendu.
[0066] Le système et procédé selon l'invention permettent de générer et/ou modifier des rendus d'objets en prenant en compte les facteurs techniques (physiques, chimiques, thermodynamiques, etc.) inhérents aux objets eux-mêmes ainsi qu'à l'environnement de la scène. [0067] Par exemple, pour créer un effet de corrosion sur un objet, un émetteur peut projeter des particules paramétrées avec des paramètres en relations avec la corrosion. Parmi ces paramètres physiques (autres que les données de couleur) les comportements des objets en relation avec les particules projetées, c'est-à- dire les interactions entre les différents éléments physiques, permettent par exemple définir que des matériaux tels que le plastique ne réagissent pas à des effets de corrosion, l'acier développe des zones corrodées, le cuivre s'oxyde, etc. [0068]Selon les modes de réalisations, certains paramètres peuvent être affectés soit aux particules paramétrées, soit aux objets, soit à l'environnement, ou encore aux effets graphiques. La répartition ou l'architecture paramétrique peut aussi varier pour produire des rendus comparables. [0069] Dans un autre exemple d'utilisation du procédé et du système selon l'invention, les particules projetées contre les objets comportent uniquement des paramètres non colorimétriques, comme par exemple des données d'énergie thermique ou chaleur, des données de pression, etc. [0070] Dans un exemple où un émetteur projette de l'eau, l'objet cible comportant plusieurs matériaux différents peut présenter des modes de réaction différents selon les matériaux sur lesquels les traces évoluent. Les traces peuvent être différentes, les effets graphiques peuvent aussi être différents, de sorte que les textures finales prennent en compte les paramètres des différents matériaux de la cible.
[0071] Dans un autre exemple, des particules chaudes sont émises sur un corps multi-matériaux. Les traces permettent de créer une sorte de « mapping » de température sur la surface de l'objet. Ce « mapping », auquel on applique les effets graphiques, permet de produire les textures finales prenant en compte les différents matériaux. [0072]Le tableau 1 , ci-après, illustre des exemples de paramètres permettant de mettre en œuvre les exemples évoqués. TABLEAU 1 : exemple de paramètres physiques
[0073] La sauvegarde temporelle permet avantageusement de revenir en arrière sur un processus afin de retrouver un des multiples états précédents. Elle peut également permettre de refaire un processus en modifiant seulement un ou quelques paramètres, tout en bénéficiant des autres paramètres non modifiés, évitant ainsi de devoir paramétrer à nouveau toutes les données. Ceci permet par exemple de comparer facilement et rapidement les résultats que l'on peut obtenir en modifiant uniquement certains paramètres.
[0074] Par exemple, il est possible de changer une caractéristique de particule (par exemple la couleur, la dimension, la dureté, la température, etc.) pour une ou plusieurs des particules préalablement projetées en cours de processus. [0075] Les Figures et leurs descriptions faites ci-dessus illustrent l'invention plutôt qu'elles ne la limitent. [0076] Les signes de références dans les revendications n'ont aucun caractère limitatif. Les verbes « comprendre » et « comporter » n'excluent pas la présence d'autres éléments que ceux listés dans les revendications. Le mot « un » précédant un élément n'exclut pas la présence d'une pluralité de tels éléments. En outre, le système et procédé préalablement décrits fonctionnent avantageusement en multi-canal, c'est-à-dire en traitant plusieurs textures (diffuse, normale, etc.) à chaque étape.

Claims

REVENDICATIONS
1. Système de génération de textures procédurales sur un objet à partir des particules émises par un moteur de particules, comprenant:
- un accès à des données (1 1 ) d'émetteur de particules;
- un accès à des données (12) de particules émises;
- un accès à des données (13) d'objets cibles définis par des paramètres architecturaux et des textures procédurales ;
- un accès à des données (14) de traces;
- un accès à des données (15) d'effets graphiques;
- un microprocesseur (2) et des instructions (3) de commande;
- un module (4) de simulation d'animation, prévu pour effectuer une simulation d'émission et de déplacement pour chacune des particules prévues à l'aide des données d'émetteur de particules et des données de particules émises;
- un module (5) traceur, prévu pour générer une trace paramétrée produisant une ou plusieurs modifications physiques et/ou chimiques de la surface de cet objet, de sorte qu'au moins un de ses paramètres, en particulier une caractéristique visible, soit modifié;
- un module (6) intégrateur de paramètres physiques, prévu pour :
i) exécuter les effets graphiques en fonction des données de l'objet et des données de traces obtenues ;
ii) générer un nouvel ensemble de textures pour ledit objet prenant en compte les données de l'objet et les effets graphiques préalablement obtenus.
2. Système de génération de textures selon la revendication 1 , dans lequel le module traceur (5) comporte un module (51 ) de sélection de règles et un module de mise en œuvre permettant d'appliquer la règle afin de générer les données de trace résultantes.
3. Système de génération de textures selon l'une des revendications 1 ou 2, dans lequel le module traceur (5) comporte un sous-module mélangeur (7) de traces prévu pour modifier une trace sur laquelle une nouvelle particule active entre en interaction.
4. Système de génération de textures selon l'une des revendications précédentes, comportant par ailleurs un module de sauvegarde temporelle (9) prévu pour conserver les données permettant de générer à nouveau un ensemble de textures d'un objet pour lequel un ou plusieurs paramètres sont modifiés ou pour obtenir à nouveau un ensemble de textures préalablement généré.
5. Système de génération de textures selon l'une des revendications précédentes, dans lequel le système comporte par ailleurs un module d'entrée de données utilisateur (8) susceptibles d'impacter les données issues du module de simulation.
6. Système de génération de textures selon l'une des revendications précédentes, dans lequel le système comporte par ailleurs un accès à des données (16) de paramètres globaux susceptibles d'agir sur une pluralité de particules émises et/ou sur au moins un objet présent dans la zone d'influence des paramètres globaux.
7. Procédé de génération de textures procédurales sur un objet à partir de particules émises par un émetteur de particules, comprenant les étapes dans lesquelles:
-un module (4) de simulation d'animation reçoit des données d'au moins un émetteur de particules, des données de particules pour émission par l'émetteur, des données d'au moins un objet cible, défini par des paramètres architecturaux et des textures procédurales, susceptible de recevoir des impacts desdites particules émises et détermine une trajectoire pour chacune des particules à émettre en fonction des données de l'émetteur et des données de particules; - pour chaque particule entrant en collision avec un objet cible, un module (5) traceur génère des données pour au moins une trace sur la surface dudit objet en fonction des données de l'objet et des données de la particule;
-un module intégrateur (6) de paramètres physiques exécute les effets graphiques en fonction des données de l'objet et des données des traces ;
- pour chaque objet ayant subit au moins un impact d'une particule, le module intégrateur (6) de paramètres physiques génère un nouvel ensemble de textures prenant en compte les données de l'objet, et les effets graphiques préalablement obtenus.
8. Procédé de génération de textures selon la revendication 7, dans lequel le module intégrateur (6) génère les textures du nouvel ensemble en exécutant les effets graphiques en fonction des données de l'objet et des données des traces.
9. Procédé de génération de textures selon l'une des revendication 7 ou 8, dans lequel, pour chaque particule active, un module de sélection (51 ) de règle effectue une sélection de règle à appliquer, un module de mise en œuvre de règle (52) effectue une évaluation de ladite règle en fonction des paramètres de l'objet cible afin de générer les données de trace résultantes.
10. Procédé de génération de textures selon l'une des revendication 7 ou 8, dans lequel, pour chaque règle de modification de trace, un module de sélection de particules effectue une sélection de particules affectées par la règle à appliquer, un module de mise en œuvre de règle (52) effectue une évaluation de ladite règle en fonction des paramètres de particules et de l'objet cible afin de générer les données de trace résultantes.
EP14767078.0A 2013-07-18 2014-07-15 Système et procédé de génération de textures procédurales à l'aide de particules Pending EP3022717A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1301709A FR3008814B1 (fr) 2013-07-18 2013-07-18 Systeme et procede de generation de textures procedurales a l'aide de particules
PCT/IB2014/001327 WO2015008135A1 (fr) 2013-07-18 2014-07-15 Système et procédé de génération de textures procédurales à l'aide de particules

Publications (1)

Publication Number Publication Date
EP3022717A1 true EP3022717A1 (fr) 2016-05-25

Family

ID=49753223

Family Applications (1)

Application Number Title Priority Date Filing Date
EP14767078.0A Pending EP3022717A1 (fr) 2013-07-18 2014-07-15 Système et procédé de génération de textures procédurales à l'aide de particules

Country Status (6)

Country Link
US (2) US11176714B2 (fr)
EP (1) EP3022717A1 (fr)
JP (1) JP6486348B2 (fr)
CA (2) CA3200133C (fr)
FR (1) FR3008814B1 (fr)
WO (1) WO2015008135A1 (fr)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3008814B1 (fr) 2013-07-18 2016-12-23 Allegorithmic Systeme et procede de generation de textures procedurales a l'aide de particules
WO2018017626A2 (fr) * 2016-07-18 2018-01-25 Patrick Baudisch Système et procédé d'édition de modèles 3d
CN114693847A (zh) * 2020-12-25 2022-07-01 北京字跳网络技术有限公司 动态流体显示方法、装置、电子设备和可读介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2681967B1 (fr) 1991-10-01 1994-11-25 Electronics For Imaging Inc Procede et appareil pour modifier les couleurs d'une image a l'aide d'un ordinateur.
US6204858B1 (en) 1997-05-30 2001-03-20 Adobe Systems Incorporated System and method for adjusting color data of pixels in a digital image
US6996509B2 (en) * 1998-10-19 2006-02-07 Ford Global Technologies, Llc Paint spray particle trajectory analysis method and system
JP4408681B2 (ja) 2003-10-22 2010-02-03 株式会社バンダイナムコゲームス プログラム、情報記憶媒体、及び画像生成システム
US7557807B2 (en) * 2005-07-01 2009-07-07 Microsoft Corporation Visual simulation of weathering by y-ton tracing
US8085276B2 (en) 2006-11-30 2011-12-27 Adobe Systems Incorporated Combined color harmony generation and artwork recoloring mechanism
CA2648441A1 (fr) * 2007-12-31 2009-06-30 Exocortex Technologies, Inc. Caracterisation rapide de dynamique des fluides
JP5145510B2 (ja) 2008-06-05 2013-02-20 株式会社大都技研 遊技台
US8657605B2 (en) * 2009-07-10 2014-02-25 Lincoln Global, Inc. Virtual testing and inspection of a virtual weldment
US8915740B2 (en) * 2008-08-21 2014-12-23 Lincoln Global, Inc. Virtual reality pipe welding simulator
US8319771B2 (en) * 2008-09-30 2012-11-27 Disney Enterprises, Inc. Computer modelled environment
DE102009018165A1 (de) * 2009-04-18 2010-10-21 Schreiber & Friends Verfahren zur Darstellung eines animierten Objekts
EP2599057B1 (fr) 2010-07-30 2017-05-31 Allegorithmic Systeme et procede d'edition, d'optimisation et de rendu de textures procedurales
US8854370B2 (en) 2011-02-16 2014-10-07 Apple Inc. Color waveform
EP3951748B1 (fr) 2011-04-07 2023-10-25 Lincoln Global, Inc. Contrôle et inspection virtuels d'un ensemble soudé virtuel
GB2520658A (en) * 2012-09-21 2015-05-27 Masonite Corp Surface texture for molded articles
US9192874B2 (en) * 2013-03-15 2015-11-24 Crayola, Llc Digital coloring tools kit with dynamic digital paint palette
FR3008814B1 (fr) * 2013-07-18 2016-12-23 Allegorithmic Systeme et procede de generation de textures procedurales a l'aide de particules

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
None *
See also references of WO2015008135A1 *

Also Published As

Publication number Publication date
JP6486348B2 (ja) 2019-03-20
CA2917383C (fr) 2023-08-01
FR3008814B1 (fr) 2016-12-23
US20220108498A1 (en) 2022-04-07
US11688108B2 (en) 2023-06-27
CA3200133C (fr) 2024-02-27
CA3200133A1 (fr) 2015-01-22
US20160247297A1 (en) 2016-08-25
JP2016528615A (ja) 2016-09-15
FR3008814A1 (fr) 2015-01-23
CA2917383A1 (fr) 2015-01-22
WO2015008135A1 (fr) 2015-01-22
US11176714B2 (en) 2021-11-16

Similar Documents

Publication Publication Date Title
Logothetis et al. Px-net: Simple and efficient pixel-wise training of photometric stereo networks
CN110599574B (zh) 游戏场景的渲染方法、装置及电子设备
US9754406B2 (en) Multiple light source simulation in computer graphics
US20180314204A1 (en) Recording holographic data on reflective surfaces
US11688108B2 (en) Generating procedural textures with the aid of particles
EP3180772B1 (fr) Système et procédé de paramétrage colorimétrique et geométrique de textures procédurales sur un objet
Dammertz et al. Progressive point‐light‐based global illumination
CA2917381C (fr) Systeme et procede de generation de textures procedurales sur un objet
US20160282811A1 (en) Relightable holograms
US20180321639A1 (en) Applying holographic effects to prints
CN106780702B (zh) 一种基于物理着色的方法及系统
Gigilashvili et al. Appearance manipulation in spatial augmented reality using image differences
CN104574493A (zh) 一种远景平滑淡出的方法及装置
Peddie et al. Work flow and material standards
Litster Blender 2.5 materials and textures cookbook
Rudolfova et al. High fidelity rendering of the interior of an egyptian temple
Young-Sik et al. Application and Light Analysis for Photo-Realistic Output
Bell Using Precisionism Within American Modern Art as Stylistic Inspiration for 3D Digital Works
Hnat et al. Real-time wetting of porous media
De Zwart Studio-Quality Rendering
Paquette et al. Shaders and Texturing
Saam Creative relighting in compositing based on z depth
Jin A study on environment color simulation of surroundings of CG characters in live-action scene

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20160218

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20190619

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: ADOBE INC.

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230525