FR2987155A1 - METHOD FOR DISPLAYING AT LEAST ONE MOVING ELEMENT IN A SCENE AS WELL AS A PORTABLE DEVICE OF INCREASED REALITY USING SAID METHOD - Google Patents

METHOD FOR DISPLAYING AT LEAST ONE MOVING ELEMENT IN A SCENE AS WELL AS A PORTABLE DEVICE OF INCREASED REALITY USING SAID METHOD Download PDF

Info

Publication number
FR2987155A1
FR2987155A1 FR1251453A FR1251453A FR2987155A1 FR 2987155 A1 FR2987155 A1 FR 2987155A1 FR 1251453 A FR1251453 A FR 1251453A FR 1251453 A FR1251453 A FR 1251453A FR 2987155 A1 FR2987155 A1 FR 2987155A1
Authority
FR
France
Prior art keywords
images
scene
camera
moving element
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1251453A
Other languages
French (fr)
Inventor
Nizar Ouarti
Avinoam Safran
Brun Johan Le
Samuel Pineau
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Centre National de la Recherche Scientifique CNRS
Universite Pierre et Marie Curie Paris 6
Original Assignee
Centre National de la Recherche Scientifique CNRS
Universite Pierre et Marie Curie Paris 6
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Centre National de la Recherche Scientifique CNRS, Universite Pierre et Marie Curie Paris 6 filed Critical Centre National de la Recherche Scientifique CNRS
Priority to FR1251453A priority Critical patent/FR2987155A1/en
Priority to PCT/EP2013/053216 priority patent/WO2013121052A1/en
Publication of FR2987155A1 publication Critical patent/FR2987155A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

L' invention concerne un procédé de mise en évidence d'au moins un élément en mouvement dans une scène, le procédé comportant les étapes de : - observer (1) la scène à l'aide d'au moins un capteur ; - analyser (2) des informations générées par le capteur pour repérer l'élément en mouvement dans la scène ; - générer (3) en temps réel des images travaillées de la scène comprenant une figuration de l'élément en mouvement tel que repéré, dans lesquelles au moins une caractéristique visuelle d'au moins la figuration de l'élément en mouvement est déterminée en fonction des informations analysées pour mettre en évidence ledit élément par rapport à d'autres éléments immobiles de la scène ; - projeter (4) les images ainsi générées sur un organe de visualisation.The invention relates to a method for detecting at least one moving element in a scene, the method comprising the steps of: - observing (1) the scene using at least one sensor; analyzing (2) information generated by the sensor to locate the moving element in the scene; generating (3) real-time processed images of the scene comprising a figuration of the moving element as identified, in which at least one visual characteristic of at least the figuration of the moving element is determined according to analyzed information to highlight said element relative to other immobile elements of the scene; projecting (4) the images thus generated on a display member.

Description

L'invention concerne un procédé de mise en évidence d'au moins un élément en mouvement dans une scène. L'invention concerne également un dispositif portatif de réalité augmentée mettant en oeuvre ledit procédé. The invention relates to a method for highlighting at least one moving element in a scene. The invention also relates to a portable augmented reality device implementing said method.

ARRIERE PLAN TECHNOLOGIQUE DE L'INVENTION Les lunettes de vue s'avèrent de peu d'utilité pour les personnes atteintes de malvoyance due à une pathologie rare comme une rétinopathie pigmentaire ou bien une rétinoschisis juvénile mais également à une pathologie plus 10 courante comme une Dégénérescence Maculaire Liée à l'Age ou DMLA. La macula est la partie centrale de la rétine dont le rôle principal est de transmettre au cerveau des informations sur les contours et les couleurs des 15 différents éléments contenus dans une scène. Or, avec l'âge, la macula a tendance à se détériorer. Les patients atteints de DMLA sont ainsi victimes d'une dégradation progressive de leur vue avec par exemple une diminution de la sensibilité aux contrastes, une tendance à la 20 déformation des lignes droites et parfois l'apparition d'une tâche sombre centrale encore appelée scotome. A ce jour, il n'existe aucun traitement thérapeutique connu permettant de guérir totalement un patient atteint de DMLA. Afin d'aider un patient atteint d'une pathologie de la 25 rétine, il a alors été proposé un procédé comportant les étapes de : - observer une scène se déroulant devant le patient à l'aide d'une caméra ; - générer des images travaillées de la scène à 30 partir des informations générées par la caméra de sorte que tous les contours de toutes les figurations des éléments de la scène soient rehaussés dans les images travaillées ; - projeter les images ainsi générées sur un 35 organe de visualisation. BACKGROUND OF THE INVENTION Eyeglasses are of little use for people with low vision due to a rare condition such as retinopathy pigmentosa or juvenile retinoschisis but also to a more common pathology such as degeneration. Macular Age-related or AMD. The macula is the central part of the retina whose main role is to transmit to the brain information on the contours and colors of the different elements contained in a scene. But with age, the macula tends to deteriorate. Patients with AMD are thus victims of a progressive deterioration of their vision with, for example, a decrease in contrast sensitivity, a tendency to deformation of the straight lines and sometimes the appearance of a dark central task, also called scotoma. . To date, there is no known therapeutic treatment to completely cure a patient with AMD. In order to assist a patient with retinal pathology, a method comprising the steps of: - observing a scene in front of the patient using a camera; to generate processed images of the scene from the information generated by the camera so that all outlines of all the figurations of the elements of the scene are enhanced in the images processed; project the images thus generated onto a display unit.

Les contours des figurations des éléments ressortent ainsi dans les images travaillées ce qui permet d'aider le patient à mieux percevoir et mieux comprendre la scène qui se déroule devant lui lorsqu'il regarde la scène à travers l'organe de visualisation. En outre, si le patient est atteint d'un scotome, sa vision périphérique est ainsi améliorée ce qui compense sensiblement son absence centrale de vision. Cependant, il s'avère que le patient se fatigue très 10 rapidement à visualiser son environnement à partir de telles images travaillées. OBJET DE L'INVENTION Un but de l'invention est de proposer un procédé pour générer des images travaillées d'une scène se déroulant 15 devant une personne qui obvie aux inconvénients précités. Un but de l'invention est également de proposer un dispositif portatif de réalité augmentée mettant en oeuvre un tel procédé. BREVE DESCRIPTION DE L'INVENTION 20 En vue de la réalisation de ce but, on propose un procédé de mise en évidence d'au moins un élément en mouvement dans une scène, le procédé comportant les étapes de : - observer la scène à l'aide d'au moins un capteur ; 25 - analyser des informations générées par le capteur pour repérer l'élément en mouvement dans la scène ; - générer en temps réel des images travaillées de la scène comprenant une figuration de l'élément en mouvement tel que repéré, dans lesquelles au moins une 30 caractéristique visuelle d'au moins la figuration de l'élément en mouvement est déterminée en fonction des informations analysées pour mettre en évidence ledit élément par rapport à d'autres éléments immobiles de la scène ; - projeter les images ainsi générées sur un organe de visualisation. Ainsi, seuls les éléments en mouvement sont mis en évidence de sorte que le nombre d'informations supplémentaires reçues par le cerveau, lorsqu'une personne utilise l'organe de visualisation, n'est pas excessif. L'attention de la personne est donc principalement tournée vers les figurations des éléments en mouvement. Le nombre d'élément mis en évidence est réduit vis-à-vis d'images travaillées qui sont générées par un procédé de l'art antérieur. La personne peut donc visualiser la scène par l'organe de visualisation sans autant se fatiguer que si elle visualisait ladite scène par l'intermédiaire d'images travaillées générées par un procédé de l'art antérieur. Par ailleurs, il est primordial de mettre les éléments en mouvement en évidence afin qu'une personne puisse se déplacer vis-à-vis de ces éléments par exemple pour éviter ou attraper l'un des éléments. Dans un cadre médical, une personne atteinte d'une pathologie de la rétine peut ainsi plus facilement interagir avec son environnement. De par la parallaxe, les éléments les plus proches de la personne sont bien plus visibles. En outre, la personne appréhende en priorité les éléments en mouvement qui sont généralement les éléments 25 importants de la scène. Avec le procédé de l'art antérieur, les inventeurs se sont aperçus qu'une personne éprouvait des difficultés à appréhender les éléments importants de la scène car trop de contours ou pas assez de contours étaient rehaussés. Lorsque trop de contours étaient rehaussés, les 30 images s'avéraient difficilement intelligibles pour la personne qui les regardait._Lorsque peu de contours étaient rehaussés, des éléments importants de la scène pouvaient échapper à l'attention de la personne. De façon avantageuse, en mettant en évidence 35 uniquement les éléments en mouvement et non tous les éléments de la scène, il est possible de réaliser les différentes étapes du procédé en temps réel. Par temps réel, on entend ici que les images travaillées sont projetées le plus rapidement possible vis-à-vis du moment 5 où des informations ont été générées par le capteur afin qu'une personne puisse interagir avec son environnement tout aussi naturellement que si elle visualisait directement son environnement. Les inventeurs ont ainsi pu réaliser des prototypes mettant en oeuvre le procédé de 10 l'invention dans lesquels entre quinze et vingt images travaillées sont projetées par seconde. L'invention concerne également un dispositif portatif de réalité augmentée mettant en oeuvre le procédé selon l'invention. 15 BREVE DESCRIPTION DES DESSINS L'invention sera mieux comprise à la lumière de la description qui suit d'une mise en oeuvre particulière non limitative de l'invention en référence aux figures ci-jointes parmi lesquelles : 20 - la figure 1 est un schéma représentant les différentes étapes du procédé de l'invention ; - la figure 2 est une vue en perspective d'un dispositif portatif de réalité augmentée mettant en oeuvre le procédé de l'invention illustré à la figure 1. 25 DESCRIPTION DETAILLEE DE L'INVENTION En référence à la figure 1, le procédé de l'invention est destiné à mettre en évidence au moins un élément en mouvement dans une scène. Le procédé comporte à cet effet une première étape 1 30 au cours de laquelle on observe la scène à l'aide d'au moins un capteur. Ici, le capteur comporte au moins une caméra prenant des images de la scène. Dans une deuxième étape 2, on analyse les images prises par la caméra pour repérer l'élément en mouvement 35 dans la scène. The outlines of the figurations of the elements thus stand out in the images worked which makes it possible to help the patient to better perceive and to better understand the scene which unfolds before him when he looks at the scene through the organ of visualization. In addition, if the patient has a scotoma, his peripheral vision is improved thereby substantially offsetting his central absence of vision. However, it turns out that the patient gets tired very quickly to visualize his environment from such images worked. OBJECT OF THE INVENTION An object of the invention is to provide a method for generating processed images of a scene taking place in front of a person who obviates the aforementioned drawbacks. An object of the invention is also to provide a portable augmented reality device implementing such a method. BRIEF DESCRIPTION OF THE INVENTION In view of accomplishing this object, a method of highlighting at least one moving element in a scene is proposed, the method comprising the steps of: - observing the scene at the using at least one sensor; Analyzing information generated by the sensor to locate the moving element in the scene; generating in real time worked images of the scene comprising a figuration of the moving element as identified, in which at least one visual characteristic of at least the figuration of the moving element is determined according to the information analyzed to highlight said element in relation to other immobile elements of the scene; project the images thus generated onto a display unit. Thus, only the moving elements are highlighted so that the number of additional information received by the brain, when a person uses the viewing member, is not excessive. The attention of the person is therefore mainly turned to the figurations of the moving elements. The number of highlighted items is reduced with respect to processed images that are generated by a method of the prior art. The person can thus visualize the scene by the display member without being as tired as if it viewed said scene through processed images generated by a method of the prior art. In addition, it is important to put the moving elements in evidence so that a person can move towards these elements for example to avoid or catch one of the elements. In a medical setting, a person with a pathology of the retina can thus more easily interact with his environment. By parallax, the elements closest to the person are much more visible. In addition, the person apprehends in priority the moving elements which are generally the important elements of the scene. With the method of the prior art, the inventors have found that a person has difficulty in understanding the important elements of the scene because too much contours or not enough contours were enhanced. When too many contours were enhanced, the 30 images were difficult to understand for the person watching them._When little contours were enhanced, important elements of the scene could escape the attention of the person. Advantageously, by highlighting only the moving elements and not all the elements of the scene, it is possible to perform the various steps of the process in real time. In real time, it is meant here that the images processed are projected as quickly as possible with respect to the moment when information has been generated by the sensor so that a person can interact with his environment just as naturally as if visualized his environment directly. The inventors have thus been able to produce prototypes implementing the method of the invention in which between fifteen and twenty images worked are projected per second. The invention also relates to a portable augmented reality device implementing the method according to the invention. BRIEF DESCRIPTION OF THE DRAWINGS The invention will be better understood in the light of the following description of a particular nonlimiting implementation of the invention with reference to the attached figures, in which: FIG. 1 is a diagram representing the different steps of the process of the invention; FIG. 2 is a perspective view of a portable augmented reality device embodying the method of the invention illustrated in FIG. 1. DETAILED DESCRIPTION OF THE INVENTION Referring to FIG. invention is intended to highlight at least one moving element in a scene. The method comprises for this purpose a first step 1 in which the scene is observed using at least one sensor. Here, the sensor comprises at least one camera taking pictures of the scene. In a second step 2, the images taken by the camera are analyzed to identify the moving element in the scene.

Dans une troisième étape 3, on génère en temps réel des images travaillées de la scène comprenant une figuration de l'élément en mouvement tel que repéré, dans lesquelles au moins une caractéristique visuelle d'au moins la figuration de l'élément en mouvement est déterminée en fonction des images analysées pour mettre en évidence ledit élément par rapport à d'autres éléments immobiles de la scène. Dans une quatrième étape 4, on projette sur un organe 10 de visualisation les images travaillées générées à la troisième étape 3. Selon un mode de réalisation privilégié, la caractéristique visuelle de la figuration de l'élément en mouvement est déterminée en fonction d'au moins une 15 caractéristique inertielle liée au mouvement de l'élément dans la scène. La caractéristique visuelle est par exemple une vitesse de déplacement de l'élément, une direction de déplacement de l'élément, une accélération de déplacement de l'élément... 20 De préférence, la caractéristique inertielle comprend alors des vecteurs vitesses qui sont chacun associés à l'un des pixels des images prises par la caméra. De façon connue en soi, les vecteurs vitesses sont déterminés par analyse des flux optiques associés auxdits pixels. Les différents 25 flux optiques caractérisent un mouvement relatif entre les éléments en mouvement dans la scène et la caméra. De façon privilégiée, les images travaillées sont générées selon un modèle Teinte Saturation Luminance (TSL) ou HSL en anglais. On rappelle que la teinte est la forme 30 pure d'une couleur c'est-à-dire sans adjonction de blanc, de noir ou de gris, la saturation quantifie la quantité de gris présent dans une couleur et la luminance quantifie la quantité de blanc ou de noir dans une couleur. La caractéristique visuelle déterminée en fonction d'au moins 35 une caractéristique inertielle est alors l'un des trois paramètres du modèle TSL soit la teinte, la saturation ou la luminance. Selon une première mise en oeuvre du procédé de l'invention, lors de la troisième étape 3, on génère les images travaillées à partir d'une représentation des vecteurs vitesses associés respectivement aux pixels des images prises par la caméra. Dans un premier exemple, on détermine la teinte de la figuration de l'élément en mouvement en fonction d'une 10 direction de déplacement de l'élément dans la scène. De préférence, on définit alors un code couleur, une couleur étant associée à une direction de déplacement dans les images relativement à une position de la caméra dans les images. Puis, on génère des images travaillées en 15 attribuant à chaque pixel de l'image travaillée une couleur qui est fonction, selon le code couleur, de la direction du vecteur vitesse associé au pixel correspondant de l'image prise par la caméra. Les pixels représentant une partie inerte de la scène 20 étant tous d'une même couleur et les pixels représentant une partie de l'élément en mouvement étant tous d'une couleur différente de la couleur des pixels représentant une partie inerte de la scène, l'élément en mouvement est bien mis en évidence. De façon avantageuse, un utilisateur 25 peut aisément repérer les directions de déplacement des éléments de la scène. Dans un deuxième exemple, on détermine la luminance de la figuration de l'élément en mouvement en fonction d'une vitesse de déplacement de l'élément dans la scène. 30 De préférence, on génère alors les images travaillées en attribuant à chaque pixel de l'image travaillée : - une première luminance si le vecteur vitesse associé au pixel correspondant de l'image prise par la caméra a une norme supérieure à un seuil donné ; - une deuxième luminance, inférieure à la première, si le vecteur vitesse associé au pixel correspondant de l'image prise par la caméra a une norme inférieure au seuil donné. In a third step 3, real-time images of the scene comprising a figuration of the moving element as identified, in which at least one visual characteristic of at least the figuration of the moving element, are generated in real time. determined according to the analyzed images to highlight said element with respect to other immobile elements of the scene. In a fourth step 4, the processed images generated in the third step 3 are projected onto a display member 10. According to a preferred embodiment, the visual characteristic of the figuration of the moving element is determined according to minus an inertial feature related to the motion of the element in the scene. The visual characteristic is for example a speed of displacement of the element, a direction of displacement of the element, an acceleration of displacement of the element. Preferably, the inertial characteristic then comprises velocity vectors which are each associated with one of the pixels of the images taken by the camera. In a manner known per se, the velocity vectors are determined by analyzing the optical fluxes associated with said pixels. The different optical flows characterize a relative movement between the moving elements in the scene and the camera. In a privileged way, the worked images are generated according to a model Hue Saturation Luminance (TSL) or HSL in English. It is recalled that the hue is the pure form of a color that is to say without adding white, black or gray, the saturation quantifies the amount of gray present in a color and the luminance quantifies the amount of color. white or black in a color. The visual characteristic determined according to at least one inertial characteristic is then one of the three parameters of the HSL model, namely hue, saturation or luminance. According to a first implementation of the method of the invention, during the third step 3, the images processed are generated from a representation of the velocity vectors respectively associated with the pixels of the images taken by the camera. In a first example, the hue of the figuration of the moving element is determined according to a direction of movement of the element in the scene. Preferably, a color code is defined, a color being associated with a direction of movement in the images relative to a position of the camera in the images. Then, processed images are generated by assigning to each pixel of the processed image a color which is function, according to the color code, of the direction of the velocity vector associated with the corresponding pixel of the image taken by the camera. The pixels representing an inert part of the scene 20 being all of the same color and the pixels representing part of the moving element being all of a color different from the color of the pixels representing an inert part of the scene, the moving element is well highlighted. Advantageously, a user can easily identify the directions of movement of the elements of the scene. In a second example, the luminance of the figuration of the moving element is determined as a function of a speed of movement of the element in the scene. Preferably, the images processed are then generated by assigning to each pixel of the processed image: a first luminance if the velocity vector associated with the corresponding pixel of the image taken by the camera has a norm greater than a given threshold; a second luminance, less than the first, if the velocity vector associated with the corresponding pixel of the image taken by the camera has a standard lower than the given threshold.

Un pixel représentant une partie inerte de la scène ayant une luminance inférieure à celle d'un pixel représentant une partie d'un élément en mouvement, l'élément en mouvement est bien mis en évidence sur les images travaillées. Since a pixel representing an inert part of the scene has a luminance lower than that of a pixel representing a part of a moving element, the moving element is well highlighted on the images worked.

En variante, on génère des images travaillées en attribuant aux différents pixels de l'image travaillée une luminance proportionnelle à la norme du vecteur vitesse associé au pixel correspondant de l'image prise par la caméra. In a variant, generated images are generated by attributing to the different pixels of the processed image a luminance proportional to the norm of the velocity vector associated with the corresponding pixel of the image taken by the camera.

De façon avantageuse, les pixels représentant une partie d'un élément en mouvement paraissant bien plus lumineux que les pixels représentant une partie inerte de la scène, l'élément en mouvement est bien mis en évidence. En outre, plus un élément en mouvement a une vitesse élevée, plus la figuration dudit élément se démarque des figurations des autres éléments et l'utilisateur peut aisément appréhender un tel élément en mouvement. Dans un troisième exemple, on détermine la luminance de la figuration de l'élément en mouvement en fonction 25 d'une direction de déplacement de l'élément dans la scène. De préférence, on génère des images travaillées en attribuant aux différents pixels de l'image travaillée une luminance qui est fonction de la direction de déplacement du vecteur vitesse associé au pixel correspondant de 30 l'image prise par la caméra de sorte que plus la direction d'un vecteur vitesse est orientée vers un centre de l'image prise par la caméra, plus la luminance du pixel correspondant sur l'image travaillée sera importante. Les pixels représentant une partie inerte de la scène 35 étant tous d'une même luminance et les pixels représentant une partie d'un élément en mouvement étant tous d'une luminance différente de celle des pixels représentant une partie inerte de la scène, l'élément en mouvement est bien mis en évidence sur les images travaillées. De façon avantageuse, plus un élément en mouvement se rapproche de l'utilisateur, plus la figuration dudit élément se démarque des figurations des autres éléments et l'utilisateur peut aisément appréhender un tel élément en mouvement. Dans un quatrième exemple, on détermine la saturation 10 de la figuration de l'élément en mouvement en fonction d'une vitesse de déplacement de l'élément dans la scène. De préférence, on génère des images travaillées en attribuant aux différents pixels de l'image travaillée une saturation proportionnelle à la norme du vecteur vitesse 15 associé au pixel correspondant de l'image prise par la caméra. Dans un cinquième exemple, on détermine la saturation de la figuration de l'élément en mouvement en fonction d'une direction de déplacement de l'élément dans la scène. 20 De préférence, on génère des images travaillées en attribuant aux différents pixels de l'image travaillée une saturation qui est fonction de la direction de déplacement du vecteur vitesse associé au pixel correspondant de l'image prise par la caméra de sorte que plus la direction 25 d'un vecteur vitesse est orientée vers un centre de l'image prise par la caméra, plus la saturation du pixel correspondant sur l'image travaillée sera importante. Selon une deuxième mise en oeuvre du procédé de l'invention, lors de la troisième étape 3, on génère les 30 images travaillées par modification des images prises par la caméra. Par rapport aux images travaillées générées par la première mise en oeuvre du procédé de l'invention, les images travaillées générées par la deuxième mise en oeuvre contiennent un plus grand nombre d'informations sur la scène observée notamment au niveau des textures et des couleurs des éléments de la scène. Dans un sixième exemple, on détermine la luminance de la figuration de l'élément en mouvement en fonction d'une 5 vitesse de déplacement de l'élément dans la scène. De préférence, on génère les images travaillées en modifiant la luminance des pixels des images prises par la caméra proportionnellement à la norme du vecteur vitesse de chacun desdits pixels. On utilise ici la formule 10 suivante pour chaque pixel d'une image prise par le capteur: L'= L*(( n dyn)) )) n . 2 L' -=.-- mod(r ,dyn) 15 avec - L' la luminance du pixel de l'image travaillée ; - L la luminance du pixel de l'image prise par la caméra ; - n la norme du vecteur vitesse du pixel de l'image 20 prise par la caméra ; - nmax la norme maximale parmi l'ensemble des normes des vecteurs vitesses de l'image prise par la caméra ; - dyn la dynamique en luminance de l'image prise par la caméra (usuellement 255). 25 De façon avantageuse, les pixels représentant une partie d'un élément en mouvement paraissant bien plus lumineux que les pixels représentant une partie inerte de la scène, l'élément en mouvement est bien mis en évidence. En outre, plus un élément en mouvement a une vitesse 30 élevée, plus la figuration dudit élément se démarque des figurations des autres éléments et l'utilisateur peut aisément appréhender un tel élément en mouvement. En variante, on génère les images travaillées en conservant la luminance des pixels des images prises par la 35 caméra qui ont une norme de vecteur vitesse supérieure à un seuil prédéterminé et en abaissant la luminance des pixels des images prises par la caméra qui ont une norme de vecteur vitesse inférieure audit seuil. De façon avantageuse, les pixels représentant une 5 partie d'un élément en mouvement paraissant bien plus lumineux que les pixels représentant une partie inerte de la scène, l'élément en mouvement est bien mis en évidence. Selon une autre variante, on génère les images travaillées en augmentant la luminance des pixels des 10 images prises par la caméra qui ont une norme de vecteur vitesse supérieure à un seuil prédéterminé et en conservant la luminance des pixels des images prises par la caméra qui ont une norme de vecteur vitesse inférieure audit seuil. On utilise ici la formule suivante pour chaque pixel 15 d'une image prise par le capteur: Si n > X , E=L+g*n si L' 0 alors L"= 0 20 avec si L' ._. dyn alors L"= dyn si 0 L' dyn alors L" = L' Si n < X L"= L avec 25 - L" la luminance du pixel de l'image travaillée ; - L la luminance du pixel de l'image prise par la caméra ; - n la norme du vecteur vitesse du pixel de l'image prise par la caméra ; 30 - X le seuil prédéterminé ; - g le gain prédéterminé pour augmenter la luminance des pixels ; - dyn la dynamique en luminance de l'image prise par la caméra (usuellement 255). Advantageously, the pixels representing part of a moving element appear much brighter than the pixels representing an inert part of the scene, the moving element is well highlighted. In addition, the higher a moving element has a high speed, the more the representation of said element differs from the figurations of other elements and the user can easily apprehend such a moving element. In a third example, the luminance of the figuration of the moving element is determined according to a direction of movement of the element in the scene. Preferably, processed images are generated by assigning to the different pixels of the processed image a luminance which is a function of the direction of movement of the velocity vector associated with the corresponding pixel of the image taken by the camera so that the more the direction a velocity vector is oriented towards a center of the image taken by the camera, plus the luminance of the corresponding pixel on the image worked will be important. The pixels representing an inert part of the scene 35 being all of the same luminance and the pixels representing a part of a moving element being all of a luminance different from that of the pixels representing an inert part of the scene, the Moving element is well highlighted on the images worked. Advantageously, the closer a moving element is to the user, the more the representation of said element differs from the figurations of the other elements and the user can easily apprehend such a moving element. In a fourth example, the saturation of the figuration of the moving element is determined as a function of a speed of movement of the element in the scene. Preferably, processed images are generated by allocating to the different pixels of the processed image a saturation proportional to the norm of the velocity vector associated with the corresponding pixel of the image taken by the camera. In a fifth example, the saturation of the figuration of the moving element is determined according to a direction of movement of the element in the scene. Preferably, processed images are generated by assigning to the various pixels of the processed image a saturation which is a function of the direction of movement of the velocity vector associated with the corresponding pixel of the image taken by the camera so that the more the direction When a velocity vector is oriented towards a center of the image taken by the camera, the saturation of the corresponding pixel on the processed image will be important. According to a second implementation of the method of the invention, during the third step 3, the images processed are generated by modifying the images taken by the camera. Compared to the processed images generated by the first implementation of the method of the invention, the processed images generated by the second implementation contain a greater number of information on the scene observed in particular in terms of textures and colors of the elements of the scene. In a sixth example, the luminance of the figuration of the moving element is determined according to a speed of movement of the element in the scene. Preferably, the images processed are generated by modifying the luminance of the pixels of the images taken by the camera in proportion to the norm of the velocity vector of each of said pixels. The following formula is used here for each pixel of an image taken by the sensor: L '= L * ((n dyn)))) n. 2 = - = mod (r, dyn) with - the luminance of the pixel of the processed image; The luminance of the pixel of the image taken by the camera; the norm of the speed vector of the pixel of the image taken by the camera; - nmax the maximum standard among all the standards of the speed vectors of the image taken by the camera; - dyn the luminance dynamics of the image taken by the camera (usually 255). Advantageously, since the pixels representing part of a moving element appear much brighter than the pixels representing an inert part of the scene, the moving element is well highlighted. In addition, the higher the speed of a moving element, the more the figure of said element differs from the figurations of the other elements and the user can easily apprehend such a moving element. Alternatively, the processed images are generated by keeping the luminance of the pixels of the images taken by the camera that have a velocity vector standard higher than a predetermined threshold and by lowering the luminance of the pixels of the camera-taken images that have a standard. velocity vector below said threshold. Advantageously, since the pixels representing part of a moving element appear much brighter than the pixels representing an inert part of the scene, the moving element is well highlighted. According to another variant, the processed images are generated by increasing the luminance of the pixels of the images taken by the camera which have a speed vector standard higher than a predetermined threshold and by maintaining the luminance of the pixels of the images taken by the camera which have a velocity vector standard below said threshold. The following formula is used here for each pixel of an image taken by the sensor: If n> X, E = L + g * n if L '0 then L "= 0 with L'. L "= dyn if 0 The dyn then L" = L 'If n <XL "= L with 25 - L" the luminance of the pixel of the processed image - L the luminance of the pixel of the image taken by the camera; n the standard of the speed vector of the pixel of the image taken by the camera; 30 - X the predetermined threshold; g the predetermined gain to increase the luminance of the pixels; dyn the luminance dynamics of the image taken. by the camera (usually 255).

De façon avantageuse, les pixels représentant une partie d'un élément en mouvement paraissant bien plus lumineux que les pixels représentant une partie inerte de la scène, l'élément en mouvement est bien mis en évidence. Advantageously, the pixels representing part of a moving element appear much brighter than the pixels representing an inert part of the scene, the moving element is well highlighted.

Dans un septième exemple, on détermine la luminance de la figuration de l'élément en mouvement en fonction d'une direction de déplacement de l'élément dans la scène. De préférence, on génère les images travaillées en modifiant la luminance des pixels des images prises par la caméra en fonction de la direction du vecteur vitesse de chacun desdits pixels de sorte que plus la direction du vecteur vitesse d'un pixel est orientée vers un centre des images prises par la caméra plus la luminance dudit pixel dans les images travaillées est importante. In a seventh example, the luminance of the figuration of the moving element is determined according to a direction of movement of the element in the scene. Preferably, the images processed are generated by modifying the luminance of the pixels of the images taken by the camera as a function of the direction of the velocity vector of each of said pixels so that the direction of the velocity vector of a pixel is oriented toward a center images taken by the camera plus the luminance of said pixel in the processed images is important.

Les pixels représentant une partie inerte de la scène gardant leur luminance et les pixels représentant une partie d'un élément en mouvement étant tous d'une luminance différente de celle des pixels représentant une partie inerte de la scène, l'élément en mouvement est bien mis en évidence. De façon avantageuse, plus un élément en mouvement va dans la direction de l'utilisateur, plus la figuration dudit élément se démarque des figurations des autres éléments et l'utilisateur peut aisément appréhender un tel élément en mouvement. The pixels representing an inert part of the scene keeping their luminance and the pixels representing part of a moving element being all of a luminance different from that of the pixels representing an inert part of the scene, the moving element is well. highlighted. Advantageously, the more a moving element goes in the direction of the user, the more the representation of said element differs from the figurations of the other elements and the user can easily apprehend such a moving element.

Dans un huitième exemple, on détermine la saturation de la figuration de l'élément en mouvement en fonction d'une vitesse de déplacement de l'élément dans la scène. De préférence, on génère les images travaillées en modifiant la saturation des pixels des images prises par la 30 caméra proportionnellement à la norme du vecteur vitesse de chacun desdits pixels. On utilise ici la formule suivante pour chaque pixel d'une image prise par le capteur: 35 n dyn2 S'= S*(( )* )) . n S'a mod(S', dyn) avec - S' la saturation du pixel de l'image travaillée ; - S la saturation du pixel de l'image prise par la caméra ; - n la norme du vecteur vitesse du pixel de l'image prise par la caméra ; - nmax la norme maximale parmi l'ensemble des normes 10 des vecteurs vitesses de l'image prise par la caméra ; - dyn la dynamique en saturation de l'image prise par la caméra (usuellement 255). Selon une variante, on génère les images travaillées en augmentant la saturation des pixels des images prises 15 par la caméra qui ont une norme de vecteur vitesse supérieure à un seuil prédéterminé et en conservant la saturation des pixels des images prises par la caméra qui ont une norme de vecteur vitesse inférieure audit seuil. On utilise ici la formule suivante pour chaque pixel 20 d'une image prise par le capteur: Si n > X , SI--=S+g*n si S' ._. 0 alors S"- 0 25 avec si S' dyn alors S"- dyn si 0 S' __. dyn alors S"- S' Si n < X S"= S avec 30 - S" la saturation du pixel de l'image travaillée ; - S la saturation du pixel de l'image prise par la caméra ; - n la norme du vecteur vitesse du pixel de l'image prise par la caméra ; 35 - X le seuil prédéterminé ; - g le gain prédéterminé pour augmenter la saturation des pixels ; - dyn la dynamique en luminance de l'image prise par la caméra (usuellement 255). In an eighth example, the saturation of the figuration of the moving element is determined according to a speed of movement of the element in the scene. Preferably, the processed images are generated by changing the saturation of the pixels of the images taken by the camera in proportion to the velocity vector standard of each of said pixels. The following formula is used for each pixel of an image taken by the sensor: ## EQU1 ## n Has mod (S ', dyn) with - S' the saturation of the pixel of the processed image; - saturation of the pixel of the image taken by the camera; the norm of the pixel velocity vector of the image taken by the camera; - nmax the maximum standard among the set of norms 10 speed vectors of the image taken by the camera; - dyn the dynamic saturation of the image taken by the camera (usually 255). According to one variant, the images processed are generated by increasing the saturation of the pixels of the images taken by the camera which have a velocity vector standard higher than a predetermined threshold and while maintaining the saturation of the pixels of the images taken by the camera which have velocity vector standard below said threshold. The following formula is used here for each pixel of an image taken by the sensor: If n> X, SI - = S + g * n if S '. 0 then S "- 0 25 with if S 'dyn then S" - dyn if 0 S' __. dyn then S "- S 'If n <XS" = S with 30 - S "the saturation of the pixel of the processed image - S the saturation of the pixel of the image taken by the camera - n the norm of the vector the pixel speed of the image taken by the camera; 35 - X the predetermined threshold; g the predetermined gain to increase the saturation of the pixels; dyn the luminance dynamics of the image taken by the camera (usually 255).

Dans un neuvième exemple, on détermine la saturation de la figuration de l'élément en mouvement en fonction d'une direction de déplacement de l'élément dans la scène. De préférence, on génère les images travaillées en modifiant la saturation des pixels des images prises par la 10 caméra en fonction de la direction du vecteur vitesse de chacun desdits pixels de sorte que plus la direction du vecteur vitesse d'un pixel est orientée vers un centre des images prises par la caméra plus la saturation dudit pixel dans les images travaillées est importante.In a ninth example, the saturation of the figuration of the moving element is determined according to a direction of movement of the element in the scene. Preferably, the processed images are generated by changing the saturation of the pixels of the images taken by the camera as a function of the direction of the velocity vector of each of said pixels so that the direction of the velocity vector of one pixel is oriented towards a pixel. center of the images taken by the camera plus the saturation of said pixel in the images worked is important.

15 En référence à la figure 2, le procédé de réalisation est ici mis en oeuvre à l'aide d'un dispositif portatif 10 de réalité augmentée qui est par exemple porté par un utilisateur atteint d'une pathologie de la rétine. Le dispositif portatif 10 de réalité augmentée 20 comporte un organe de visualisation. De préférence, l'organe de visualisation comporte une paire de lunettes 11 comprenant sur un premier verre un premier afficheur 15 et sur un deuxième verre un deuxième afficheur 16. Le dispositif portatif 10 de réalité augmentée 25 comporte en outre au moins un capteur pour observer la scène. Selon un mode de réalisation privilégié, le dispositif portatif 10 de réalité augmentée comporte ainsi des moyens de prise d'images stéréoscopiques qui comprennent une première caméra 12 associée à l'oeil droit 30 de l'utilisateur et au premier verre et une deuxième caméra 13 associée à l'oeil gauche de l'utilisateur et au deuxième verre. Le dispositif portatif 10 de réalité augmentée comporte en outre un organe de calcul 14 qui est relié, ici 35 da façon filaire aux moyens de prise d'images stéréoscopiques ainsi qu'au premier afficheur 15 et au deuxième afficheur 16. Selon l'invention, l'organe de calcul 14 comporte des moyens d'analyse des images prises par les caméras 12, 13 5 pour repérer au moins un élément en mouvement dans la scène. L'organe de calcul 14 comporte en outre des moyens de génération en temps réel d'images travaillées de la scène comprenant une figuration de l'élément en mouvement tel que repéré dans lesquelles au moins une caractéristique 10 visuelle d'au moins la figuration de l'élément en mouvement est déterminée en fonction des informations analysées pour mettre en évidence ledit élément par rapport à d'autres éléments immobiles de la scène. Pour travailler en temps réel, l'organe de calcul 14 15 doit délivrer une puissance de calcul importante en un temps très réduit. De préférence, l'organe de calcul 14 comprend un module de calcul en parallèle notamment pour générer en temps réel les images travaillées. Le module de calcul en parallèle est par exemple un processeur graphique 20 (GPU ou Graphical Processing Unit en anglais) ou encore un circuit logique programmable (SPGA ou System-Programmable Gate Array). De façon avantageuse, en parallélisant les calculs, il est possible de les accélérer. Le dispositif portatif 10 de réalité augmentée 25 comporte ici une batterie 17 pour alimenter ledit dispositif portatif 10 de réalité augmentée. L'organe de calcul 14 met par exemple en oeuvre l'algorithme suivant. Dans une première étape, l'organe de calcul 14 estime 30 le flux optique des pixels des images prises par chaque caméra de sorte à déterminer des vecteurs vitesses qui sont associés respectivement à chacun desdits pixels. Dans la suite, on note : (x,y) les coordonnées d'un pixel i d'une image prise 35 par l'un des capteurs; (ui, vi) les coordonnées d' un vecteur vitesse d' un pixel i d' une image prise par l' un des capteurs; Ii l' intensité lumineuse d' un pixel i d' une image prise par l' un des capteurs; fn (Xr y, t) et fn+i (x, y, t+dt) deux images successives prises par l' un des capteurs. Pour chaque pixel de la deuxième image fn+1 (x, y, t+dt) , l' organe de calcul 14 estime : - It qui résulte de la différence entre In et In+1 ; - Ix qui résulte de la convolution par un filtre ondelette ayant un seul moment nul de la dérivée de la moyenne de In et In+i par rapport à xn ; - Iy qui résulte de la convolution par un filtre ondelette ayant un seul moment nul de la dérivée de la moyenne de In et In+1 par rapport à yn. Puis, pour chaque pixel de la deuxième image fn+1(Xr y, t+dt) , l' organe de calcul 14 estime successivement : - Ung qui résulte de la convolution de un par une gaussienne et vng qui résulte de la convolution de vn par une gaussienne ; - k qui est défini par k = ((Ix* ung)+ (Iy* vng))1(a2 + lx' + Iy2) avec a qui est un coefficient de régularisation de l' image ; - un+i par la formule u', =ung-Ix*k et vn+i par la formule = vng - Iy* k Ainsi, l' organe de calcul 14 estime le vecteur vitesse de chaque pixel de l' image fn+i (x, y, t+dt) ce qui permet de repérer un ou des éléments en mouvement dans la scène. Dans une deuxième étape, l' organe de calcul 14 génère une image fn+i' (X, y, t+dt) en modifiant l'image fni-1 (Xr y,t+dt). A cet effet, pour chaque pixel de l'image fn+1(x, y, t+dt) , l' organe de calcul 14 estime par exemple la norme du vecteur (un+i ; vn+1) - L' image fn_Fi' (x, y, t+dt) est alors créée par exemple en modifiant la luminance des 35 pixels des images prises par la caméra proportionnellement à la norme du vecteur vitesse ainsi calculé de chacun desdits pixels, comme décrit précédemment. Les images travaillées de chaque caméra sont ici traitées par l'organe de calcul 14 afin de générer des 5 images stéréoscopiques travaillées de la scène qui sont projetées sur lesdits afficheurs des lunettes 11. L'utilisateur bénéficie ainsi d'une meilleure vision grâce à l'observation de son environnement à travers les lunettes 11. En outre, le dispositif portatif 10 de réalité 10 augmentée est d'un faible encombrement de sorte que l'utilisateur puisse le porter sur lui au quotidien. De plus, le dispositif portatif 10 de réalité augmentée permet la projection des images travaillées en temps réel de sorte que l'utilisateur puisse interagir de façon naturelle avec 15 son environnement. Bien entendu l'invention n'est pas limitée au mode de réalisation décrit et on peut y apporter des variantes de réalisation sans sortir du cadre de l'invention tel que défini par les revendications.With reference to FIG. 2, the production method is here implemented using a portable augmented reality device 10 which is for example worn by a user suffering from a pathology of the retina. The augmented reality portable device 20 comprises a display member. Preferably, the display member comprises a pair of spectacles 11 comprising on a first lens a first display 15 and on a second lens a second display 16. The augmented reality portable device 25 further comprises at least one sensor for observing the scene. According to a preferred embodiment, the augmented reality portable device 10 thus comprises means for taking stereoscopic images which comprise a first camera 12 associated with the right eye 30 of the user and the first lens and a second camera 13 associated with the left eye of the user and the second glass. The augmented reality portable device 10 further comprises a computing element 14 which is wired here to the stereoscopic image taking means as well as to the first display 15 and the second display 16. According to the invention, the computing unit 14 comprises means for analyzing the images taken by the cameras 12, 13 5 to locate at least one moving element in the scene. The computing device 14 further comprises means for generating in real time processed images of the scene comprising a figuration of the moving element as identified in which at least one visual characteristic of at least the representation of the moving element is determined based on the analyzed information to highlight said element relative to other immobile elements of the scene. In order to work in real time, computing unit 14 must deliver a large computing power in a very short time. Preferably, the computing unit 14 comprises a parallel calculation module in particular for generating the processed images in real time. The parallel computing module is for example a graphics processor 20 (GPU or Graphical Processing Unit in English) or a programmable logic circuit (SPGA or System-Programmable Gate Array). Advantageously, by parallelizing the calculations, it is possible to accelerate them. The augmented reality portable device 25 here includes a battery 17 for powering said portable augmented reality device 10. The computing device 14 implements, for example, the following algorithm. In a first step, the computation member 14 estimates the optical flux of the pixels of the images taken by each camera so as to determine velocity vectors which are respectively associated with each of said pixels. In the following, we write: (x, y) the coordinates of a pixel i of an image taken by one of the sensors; (ui, vi) the coordinates of a velocity vector of a pixel i of an image taken by one of the sensors; The luminous intensity of a pixel i of an image taken by one of the sensors; fn (Xr y, t) and fn + i (x, y, t + dt) two successive images taken by one of the sensors. For each pixel of the second image fn + 1 (x, y, t + dt), the computation member 14 estimates: It results from the difference between In and In + 1; - Ix resulting from the convolution by a wavelet filter having a single zero moment of the derivative of the mean of In and In + i with respect to xn; - Iy resulting from the convolution by a wavelet filter having a single zero moment of the derivative of the mean of In and In + 1 with respect to yn. Then, for each pixel of the second image fn + 1 (Xr y, t + dt), the computing unit 14 successively estimates: - Ung resulting from the convolution of one by a Gaussian and vng which results from the convolution of by a Gaussian; - k which is defined by k = ((Ix * ung) + (Iy * vng)) 1 (a2 + lx '+ Iy2) with a which is a coefficient of regularization of the image; - a + i by the formula u ', = ung - Ix * k and vn + i by the formula = vng - Iy * k Thus, the computation unit 14 estimates the velocity vector of each pixel of the image fn + i (x, y, t + dt) which makes it possible to locate one or more moving elements in the scene. In a second step, the computing device 14 generates an image fn + i '(X, y, t + dt) by modifying the fni-1 image (Xr y, t + dt). For this purpose, for each pixel of the image fn + 1 (x, y, t + dt), the computation unit 14 estimates for example the norm of the vector (a + i; vn + 1) - the image fn_Fi '(x, y, t + dt) is then created for example by modifying the luminance of the pixels of the images taken by the camera in proportion to the norm of the thus calculated velocity vector of each of said pixels, as previously described. The processed images of each camera are here processed by the computing device 14 in order to generate stereoscopic images of the scene that are projected on said displays of the glasses 11. The user thus benefits from a better vision thanks to the observation of its environment through the glasses 11. In addition, the augmented reality 10 portable device 10 is of a small footprint so that the user can wear it on him everyday. In addition, the augmented reality portable device 10 allows the projection of the processed images in real time so that the user can interact naturally with his environment. Naturally, the invention is not limited to the embodiment described and alternative embodiments can be made without departing from the scope of the invention as defined by the claims.

20 En particulier, le procédé de l'invention pourra être mis en oeuvre pour d'autres applications que l'aide médicale aux personnes atteintes d'une pathologie de la rétine et/ou pourra être mis en oeuvre par d'autres dispositifs que celui décrit. Par exemple, le procédé selon l'invention pourra 25 être mis en oeuvre afin d'aider un conducteur de véhicule à mieux appréhender son environnement en mettant en évidence des éléments en mouvement à l'arrière du véhicule comme un autre véhicule. Selon un mode réalisation particulier, l'organe de visualisation sera agencé au dessus de l'un des 30 rétroviseurs comme le rétroviseur gauche. Ainsi, le conducteur pourra à la fois regarder le rétroviseur et l'organe de visualisation pour appréhender ce qui se déroule à l'arrière de son véhicule. L'étape de génération en temps réel des images 35 travaillée pourra être différente de celles décrites. Par exemple, si la détermination de la caractéristique visuelle de la figuration de l'élément en mouvement est effectuée en fonction d'au moins une caractéristique inertielle liée au mouvement de l'élément, la caractéristique inertielle pourra également être liée à l'accélération de l'élément, à une distance de l'élément par rapport au centre des images prises par la caméra ... La caractéristique inertielle pourra ainsi comprendre, au lieu de vecteurs vitesses, des vecteurs accélérations. La caractéristique visuelle déterminée pourra être autre que l'un des trois paramètres teinte, saturation, luminance comme par exemple un contraste des contours de l'élément. On pourra déterminer plusieurs caractéristiques visuelles d'au moins la figuration en mouvement tel que 15 repéré. On pourra également déterminer la ou les caractéristiques visuelles en fonction de plusieurs de plusieurs caractéristiques inertielles liées au mouvement de l'élément dans la scène. Par exemple, on pourra générer des images travaillées de la scène en déterminant une 20 première caractéristique visuelle de la figuration de l'élément en mouvement en fonction de la vitesse de déplacement de l'élément et en déterminant une deuxième caractéristique visuelle de la figuration de l'élément en mouvement en fonction d'une direction de déplacement de 25 l'élément relativement au capteur et/ou à l'utilisateur. En variante, on pourra générer des images travaillées de la scène en déterminant une unique caractéristique visuelle de la figuration de l'élément en mouvement en fonction de différentes caractéristiques inertielles.In particular, the method of the invention may be implemented for applications other than medical aid to persons suffering from a pathology of the retina and / or may be implemented by other devices than the described. For example, the method according to the invention can be implemented to help a vehicle driver to better understand his environment by highlighting moving elements at the rear of the vehicle as another vehicle. According to a particular embodiment, the display member will be arranged above one of the rear view mirrors as the left mirror. Thus, the driver can both look at the rearview mirror and the display member to apprehend what is happening at the rear of his vehicle. The step of generating real-time images 35 worked may be different from those described. For example, if the determination of the visual characteristic of the figuration of the moving element is performed as a function of at least one inertial characteristic related to the movement of the element, the inertial characteristic may also be related to the acceleration of the element, at a distance from the element with respect to the center of the images taken by the camera ... The inertial characteristic may thus comprise, instead of velocity vectors, vectors accelerations. The determined visual characteristic may be other than one of the three parameters hue, saturation, luminance as for example a contrast of the contours of the element. Several visual characteristics of at least moving figuration as identified may be determined. The visual characteristic (s) can also be determined as a function of several of several inertial characteristics related to the movement of the element in the scene. For example, it will be possible to generate processed images of the scene by determining a first visual characteristic of the figuration of the moving element as a function of the speed of movement of the element and determining a second visual characteristic of the figuration of the element. the moving element according to a direction of movement of the element relative to the sensor and / or the user. As a variant, it will be possible to generate processed images of the scene by determining a unique visual characteristic of the figuration of the moving element according to different inertial characteristics.

30 Selon un mode de réalisation privilégié, on génère les images travaillées en modifiant la luminance des pixels des images prises par la caméra en fonction de la norme et de la direction du vecteur vitesse de chacun desdits pixels de sorte que plus la direction du vecteur vitesse d'un pixel 35 est orientée vers un centre des images prises par la caméra et plus la norme du vecteur vitesse dudit pixel est élevée, plus la luminance dudit pixel dans les images travaillées est importante. En variante, on génère les images travaillées en 5 modifiant la saturation des pixels des images prises par la caméra en fonction de la norme et de la direction du vecteur vitesse de chacun desdits pixels de sorte que plus la direction du vecteur vitesse d'un pixel est orientée vers un centre des images prises par la caméra et 10 plus la norme du vecteur vitesse dudit pixel est élevée, plus la saturation dudit pixel dans les images travaillées est importante. Il sera possible de mettre en oeuvre le procédé de l'invention par l'intermédiaire d'images prises par la 15 caméra en niveau de gris ou par l'intermédiaire d'images prises par la caméra en couleur. De préférence, on aura recours à des images prises en couleurs. En effet, si la figuration d'une ombre est mobile d'une image à l'autre, elle constitue en elle-même la figuration d'un élément en 20 mouvement. Pour des images en noir et blanc, la figuration de l'ombre est mise en évidence sur les images travaillées ce qui ne présente que peu d'intérêt pour l'utilisateur. En revanche, avec des images en couleurs, il est plus simple de détecter la figuration d'un ombre de sorte que l'on 25 puisse alors supprimer au moins en partie ladite ombre. De préférence, on supprimera au moins en partie une ombre de l'utilisateur si celle-ci est présente sur les images. Le capteur, l'organe de visualisation et de façon générale le dispositif portatif de réalité augmentée décrit 30 peut être différent de celui décrit. Le procédé pourra être mis en oeuvre par un nombre différent de capteurs que celui indiqué et par d'autres capteurs que ceux décrits comme un laser, une caméra infrarouge ... According to a preferred embodiment, the images processed are generated by modifying the luminance of the pixels of the images taken by the camera according to the norm and the direction of the velocity vector of each of said pixels so that the direction of the velocity vector a pixel 35 is oriented towards a center of the images taken by the camera and the higher the standard of the velocity vector of said pixel, the higher the luminance of said pixel in the processed images is important. Alternatively, the processed images are generated by changing the pixel saturation of the images taken by the camera according to the norm and the direction of the velocity vector of each of said pixels so that the more the direction of the velocity vector of a pixel is oriented towards a center of the images taken by the camera and the higher the velocity vector standard of said pixel, the greater the saturation of said pixel in the processed images. It will be possible to implement the method of the invention through images taken by the camera in gray level or through images taken by the color camera. Preferably, we will use images taken in color. Indeed, if the representation of a shadow is mobile from one image to another, it is in itself the representation of a moving element. For black-and-white images, the shadow figuration is highlighted on the images worked, which is of little interest to the user. On the other hand, with color images, it is simpler to detect the representation of a shadow so that at least some of the shadow can be removed. Preferably, at least part of the shadow of the user will be removed if it is present on the images. The sensor, the display member and generally the augmented reality portable device described may be different from that described. The method can be implemented by a different number of sensors than indicated and by other sensors than those described as a laser, an infrared camera ...

Claims (10)

REVENDICATIONS1. Procédé de mise en évidence d'au moins un élément en mouvement dans une scène, le procédé comportant les étapes de : - observer (1) la scène à l'aide d'au moins un capteur ; - analyser (2) des informations générées par le capteur pour repérer l'élément en mouvement dans la scène ; - générer (3) en temps réel des images travaillées de la scène comprenant une figuration de l'élément en mouvement tel que repéré, dans lesquelles au moins une caractéristique visuelle d'au moins la figuration de l'élément en mouvement est déterminée en fonction des informations analysées pour mettre en évidence ledit élément par rapport à d'autres éléments immobiles de la scène ; - projeter (4) les images ainsi générées sur un organe de visualisation. REVENDICATIONS1. A method of highlighting at least one moving element in a scene, the method comprising the steps of: - observing (1) the scene using at least one sensor; analyzing (2) information generated by the sensor to locate the moving element in the scene; generating (3) real-time processed images of the scene comprising a figuration of the moving element as identified, in which at least one visual characteristic of at least the figuration of the moving element is determined according to analyzed information to highlight said element relative to other immobile elements of the scene; projecting (4) the images thus generated on a display member. 2. Procédé selon la revendication 1, dans lequel la caractéristique visuelle est déterminée en fonction d'au 20 moins une caractéristique inertielle liée au mouvement de l'élément dans la scène. The method of claim 1, wherein the visual characteristic is determined based on at least one inertial characteristic related to the motion of the element in the scene. 3. Procédé selon la revendication 2, dans lequel le capteur comporte au moins une caméra prenant des images de la scène, la caractéristique inertielle comprenant des 25 vecteurs vitesses qui sont associés respectivement à chacun des pixels des images prises par la caméra et qui sont déterminés par analyse des flux optiques associés auxdits pixels. 3. The method according to claim 2, wherein the sensor comprises at least one camera taking images of the scene, the inertial characteristic comprising velocity vectors which are respectively associated with each of the pixels of the images taken by the camera and which are determined. by analyzing the optical fluxes associated with said pixels. 4. Procédé selon la revendication 3, dans lequel les 30 images travaillées sont générées selon un modèle Teinte Saturation Luminance, la caractéristique visuelle déterminée en fonction d'au moins une caractéristique inertielle étant l'un des trois paramètres dudit modèle. 4. The method according to claim 3, wherein the images worked are generated according to a Luminance Saturation Hue template, the visual characteristic determined as a function of at least one inertial characteristic being one of the three parameters of said model. 5. Procédé selon la revendication 4, dans lequel les images travaillées sont générées en attribuant à chaque pixel de l'image travaillée : - une première luminance si le vecteur vitesse associé au pixel correspondant de l'image prise par la caméra a une norme supérieure à un seuil donné ; - une deuxième luminance, inférieure à la première, si le vecteur vitesse associé au pixel correspondant de l'image prise par la caméra a une norme inférieure au seuil donné. The method according to claim 4, wherein the processed images are generated by assigning to each pixel of the processed image: a first luminance if the velocity vector associated with the corresponding pixel of the image taken by the camera has a higher standard at a given threshold; a second luminance, less than the first, if the velocity vector associated with the corresponding pixel of the image taken by the camera has a standard lower than the given threshold. 6. Procédé selon la revendication 4, dans lequel on génère les images travaillées par modification des images prises par la caméra. 6. The method of claim 4, wherein the images processed are generated by modifying the images taken by the camera. 7. Procédé selon la revendication 6, dans lequel on 15 génère les images travaillées en modifiant la luminance des pixels des images prises par la caméra proportionnellement à la norme du vecteur vitesse de chacun desdits pixels. The method of claim 6, wherein the processed images are generated by changing the luminance of the pixels of the images taken by the camera in proportion to the speed vector standard of each of said pixels. 8. Procédé selon la revendication 6, dans lequel on génère les images travaillées en modifiant la luminance des 20 pixels des images prises par la caméra en fonction de la norme et de la direction du vecteur vitesse de chacun desdits pixels de sorte que plus la direction du vecteur vitesse d'un pixel est orientée vers un centre des images prises par la caméra et plus la norme du vecteur vitesse 25 dudit pixel est élevée, plus la luminance dudit pixel dans les images travaillées est importante. The method according to claim 6, wherein the processed images are generated by changing the luminance of the pixels of the images taken by the camera according to the norm and the direction of the velocity vector of each of said pixels so that the direction the velocity vector of a pixel is oriented towards a center of the images taken by the camera and the higher the velocity vector standard of said pixel, the higher the luminance of said pixel in the processed images is important. 9. Dispositif portatif (10) de réalité augmentée pour mettre en oeuvre le procédé selon l'une des revendications précédentes, comportant au moins un capteur 30 (12, 13) pour observer la scène, un organe de calcul (14) pour analyser les informations générées par le capteur, pour générer en temps réel des images travaillées de la scène et projeter les images travaillées et un organe de visualisation, dans lequel l'organe de calcul comporte un 35 module de calcul en parallèle. 9. Augmented reality portable device (10) for carrying out the method according to one of the preceding claims, comprising at least one sensor (12, 13) for observing the scene, a computing device (14) for analyzing the information generated by the sensor, for generating real-time processed images of the scene and projecting the processed images and a display member, wherein the computing member comprises a parallel calculation module. 10. Dispositif portatif (10) de réalité augmentée selon la revendication 9, dans lequel l'organe de visualisation comporte une paire de lunettes (11) comprenant sur un premier verre un premier afficheur (15) et sur un deuxième verre un deuxième afficheur (16). 10. augmented reality portable device (10) according to claim 9, wherein the display member comprises a pair of glasses (11) comprising on a first glass a first display (15) and on a second glass a second display ( 16).
FR1251453A 2012-02-16 2012-02-16 METHOD FOR DISPLAYING AT LEAST ONE MOVING ELEMENT IN A SCENE AS WELL AS A PORTABLE DEVICE OF INCREASED REALITY USING SAID METHOD Withdrawn FR2987155A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1251453A FR2987155A1 (en) 2012-02-16 2012-02-16 METHOD FOR DISPLAYING AT LEAST ONE MOVING ELEMENT IN A SCENE AS WELL AS A PORTABLE DEVICE OF INCREASED REALITY USING SAID METHOD
PCT/EP2013/053216 WO2013121052A1 (en) 2012-02-16 2013-02-18 Method for highlighting at least one moving element in a scene, and portable augmented reality device implementing said method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1251453A FR2987155A1 (en) 2012-02-16 2012-02-16 METHOD FOR DISPLAYING AT LEAST ONE MOVING ELEMENT IN A SCENE AS WELL AS A PORTABLE DEVICE OF INCREASED REALITY USING SAID METHOD

Publications (1)

Publication Number Publication Date
FR2987155A1 true FR2987155A1 (en) 2013-08-23

Family

ID=47722292

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1251453A Withdrawn FR2987155A1 (en) 2012-02-16 2012-02-16 METHOD FOR DISPLAYING AT LEAST ONE MOVING ELEMENT IN A SCENE AS WELL AS A PORTABLE DEVICE OF INCREASED REALITY USING SAID METHOD

Country Status (2)

Country Link
FR (1) FR2987155A1 (en)
WO (1) WO2013121052A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009036782A1 (en) * 2007-09-18 2009-03-26 Vrmedia S.R.L. Information processing apparatus and method for remote technical assistance
US20100240988A1 (en) * 2009-03-19 2010-09-23 Kenneth Varga Computer-aided system for 360 degree heads up display of safety/mission critical data
US20100238161A1 (en) * 2009-03-19 2010-09-23 Kenneth Varga Computer-aided system for 360º heads up display of safety/mission critical data
US8203605B1 (en) * 2011-05-11 2012-06-19 Google Inc. Point-of-view object selection
US20120154557A1 (en) * 2010-12-16 2012-06-21 Katie Stone Perez Comprehension and intent-based content for augmented reality displays

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001213254A (en) * 2000-01-31 2001-08-07 Yazaki Corp Side monitoring device for vehicle
US7130745B2 (en) * 2005-02-10 2006-10-31 Toyota Technical Center Usa, Inc. Vehicle collision warning system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009036782A1 (en) * 2007-09-18 2009-03-26 Vrmedia S.R.L. Information processing apparatus and method for remote technical assistance
US20100240988A1 (en) * 2009-03-19 2010-09-23 Kenneth Varga Computer-aided system for 360 degree heads up display of safety/mission critical data
US20100238161A1 (en) * 2009-03-19 2010-09-23 Kenneth Varga Computer-aided system for 360º heads up display of safety/mission critical data
US20120154557A1 (en) * 2010-12-16 2012-06-21 Katie Stone Perez Comprehension and intent-based content for augmented reality displays
US8203605B1 (en) * 2011-05-11 2012-06-19 Google Inc. Point-of-view object selection

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
ALIAGA D G: "VIRTUAL OBJECTS IN THE REAL WORLD", COMMUNICATIONS OF THE ASSOCIATION FOR COMPUTING MACHINERY, ACM, NEW YORK, NY, US, vol. 40, no. 3, 1 March 1997 (1997-03-01), pages 49 - 54, XP000689868, ISSN: 0001-0782, DOI: 10.1145/245108.245120 *
ERIC ROSE, DAVID BREEN, KLAUS H. AHLERS, CHRIS CAMPTON, MIHRAN TUCERYAN, ROSS WHITAKER AND DOUGLAS GREEN: "Annotating Real-World Objects Using Augmented Reality", 1995, pages I - 17, XP002685271, Retrieved from the Internet <URL:http://cs.iupui.edu/~tuceryan/AR/ECRC-94-41.pdf> [retrieved on 20121016] *
MARIO CHIESA AND ANTONIO SOLINAS: "AutoNUI dilemma: to drive or not to drive", AUTOMOTIVE UI'11, 29 November 2011 (2011-11-29) - 2 December 2011 (2011-12-02), Salzburg, Austria, XP002685269 *
SCHMALSTIEG D: "Augmented Reality Techniques in Games", MIXED AND AUGMENTED REALITY, 2005. PROCEEDINGS. FOURTH IEEE AND ACM IN TERNATIONAL SYMPOSIUM ON VIENNA, AUSTRIA 05-08 OCT. 2005, PISCATAWAY, NJ, USA,IEEE, 5 October 2005 (2005-10-05), pages 176 - 177, XP010856777, ISBN: 978-0-7695-2459-7 *
SIMON JULIER ET AL: "BARS: Battlefield Augmented Reality System", 11 October 2000 (2000-10-11), pages 1 - 7, XP007918387, Retrieved from the Internet <URL:http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.1.5064&rep=rep1&type=pdf> *
STEVEN FEINER, BLAIR MACINTYRE, MARCUS HAUPT AND ELIOT SOLOMON: "Windows on the World: 2D Windows for 3D Augmented Reality", UIST'93 USER INTERFACE SOFTWARE AND TECHNOLOGY (ACM SYMP), 3 November 1993 (1993-11-03) - 5 November 1993 (1993-11-05), Atlanta, GA, pages 145 - 155, XP002685270 *
YUAN TIAN, TAO GUAN AND CHENG WANG: "Real-Time Occlusion Handling in Augmented Reality Based on Object Tracking Approach", 29 March 2010 (2010-03-29), pages 2885 - 2900, XP002685272, ISSN: 1424-8220, Retrieved from the Internet <URL:www.mdpi.com/journal/sensors> DOI: 10.3390/s100402885 *

Also Published As

Publication number Publication date
WO2013121052A1 (en) 2013-08-22

Similar Documents

Publication Publication Date Title
KR102416282B1 (en) Method and device for eye tracking using event camera data
EP2498671B1 (en) Method and device for automatically measuring at least one refractive characteristic of both eyes of person
US10438410B2 (en) Text enhancements for head-mounted displays
EP2678735B1 (en) Method for determining at least one geometric/physiognomic parameter associated with the mounting of an ophthalmic lens in a spectacle frame worn by a user
CA2320815A1 (en) Method and device for detecting drowsiness and preventing a driver of a motor vehicle from falling asleep
FR3046681B1 (en) METHOD AND DEVICE FOR MANAGING A FIELD OF VISION DISPLAY APPARATUS
US11500459B2 (en) Data processing apparatus and method
CN107664572B (en) Method for virtually testing at least one lens having a predetermined optical characteristic and related apparatus
WO2020102110A8 (en) Event-based ir camera
FR2961608A1 (en) METHOD FOR ESTIMATING A REFERENCE POSTURE
US20210382316A1 (en) Gaze tracking apparatus and systems
EP1937133A2 (en) Vision correction aid system
FR2947165A1 (en) CHARACTERIZATION OF A PERCEPTION OF FLOU
EP2469868B1 (en) Method for correcting hyperstereoscopy and related helmet display system
Vaziri et al. Egocentric distance judgments in full-cue video-see-through vr conditions are no better than distance judgments to targets in a void
US11507184B2 (en) Gaze tracking apparatus and systems
FR2938660A1 (en) CONTROL METHOD AND APPARATUS FOR DETERMINING THE PHOTOMETRIC PARAMETERS OF THE PROJECTION OF A SIGN
CN109299645A (en) Method, apparatus, system and storage medium for sight protectio prompt
FR2987155A1 (en) METHOD FOR DISPLAYING AT LEAST ONE MOVING ELEMENT IN A SCENE AS WELL AS A PORTABLE DEVICE OF INCREASED REALITY USING SAID METHOD
FR2997618A1 (en) DEVICE AND METHOD FOR DETECTING AND MEASURING ASYMETRY RIGHT EYE-LEFT EYE BETWEEN ZONES WITHOUT BLUE CONES OF FOVEA OF EACH RETINAL IN HUMAN
CN107111366B (en) Method for adapting the sensory output mode of a sensory output device to a user
EP3072110B1 (en) Method for estimating the movement of an object
WO2018083099A1 (en) Method for displaying a mixed reality image
US20240007607A1 (en) Techniques for viewing 3d photos and 3d videos
FR3104444A1 (en) System and method for providing visual assistance to an individual suffering from motion sickness

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20151030