FR3025389A1 - INTELLIGENT AND INDEPENDENT INFRARED CAMERA - Google Patents

INTELLIGENT AND INDEPENDENT INFRARED CAMERA Download PDF

Info

Publication number
FR3025389A1
FR3025389A1 FR1401930A FR1401930A FR3025389A1 FR 3025389 A1 FR3025389 A1 FR 3025389A1 FR 1401930 A FR1401930 A FR 1401930A FR 1401930 A FR1401930 A FR 1401930A FR 3025389 A1 FR3025389 A1 FR 3025389A1
Authority
FR
France
Prior art keywords
information
camera
analysis
images
external
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR1401930A
Other languages
French (fr)
Inventor
Claude Leonetti
Thierry Maffren
Luc Danjon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TPSH
Original Assignee
TPSH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TPSH filed Critical TPSH
Priority to FR1401930A priority Critical patent/FR3025389A1/en
Publication of FR3025389A1 publication Critical patent/FR3025389A1/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control

Abstract

La caméra infrarouge intelligente et autonome est un dispositif s'intégrant dans le domaine des capteurs infrarouges embarqués. Cette présente invention décrit un type de caméra dédié à des applications nécessitant des capteurs autonomes pour contrôler ou automatiser des procédés industriels complexes ou rapides. Ce dispositif est doté d'une unité interne de calcul capable de réaliser en temps réel des opérations d'acquisition, d'analyse et de stockage des images infrarouges. Cette capacité de calculs embarqués permet également d'utiliser les résultats de l'analyse d'image pour le pilotage de processus en boucle fermé, automatiser des déclenchements d'alerte ou fusionner des données provenant de divers capteurs.The intelligent and autonomous infrared camera is a device integrating in the field of embedded infrared sensors. This invention describes a type of camera dedicated to applications requiring autonomous sensors to control or automate complex or fast industrial processes. This device is equipped with an internal computing unit capable of realizing acquisition, analysis and storage of infrared images in real time. This on-board computation capability also allows the use of image analysis results for closed-loop process control, automate alert triggers, or merge data from various sensors.

Description

1 Domaine La présente invention porte sur une méthode d'imagerie dans le domaine des capteurs infrarouges embarqués qui consiste à détecter, automatiquement, en temps réel et par traitement d'images, au moins un paramètre prédéfini dans au moins une image, et à renvoyer ce ou ces paramètres à un dispositif d'affichage ou à une machine asservie ou supervisée, seuls ou associés à l'image dont ils ont été extraient. Description générale / résumé Les caméras infrarouges utilisées pour l'observation et la surveillance en environnement marin, aérien ou industriel sont généralement équipées de manière à transférer les images acquises vers un ordinateur, via une connexion de type Ethernet, CameraLink, USB ou autre. Une unité de traitement, d'analyse d'image et de stockage physiquement indépendante de la caméra est absolument nécessaire pour analyser les images acquises au moyen d'un logiciel de traitement d'images et gérer leurs stockages. Dans le cas d'une application sans fil, comme par exemple l'observation depuis une plateforme aéroportée de type drone, la nécessité de rapatrier l'ensemble des images vers une station sol requière une bande passante élevée et empêche de réaliser des observations de phénomènes rapides à hautes fréquences (passage d'un objet rapide dans le champ d'observation, défilement rapide à faible altitude...). La présente invention permet de s'affranchir de ces limites en proposant une caméra infrarouge dite intelligente et nommée dispositif dans le présent brevet. Cette caméra dispose d'au moins un capteur infrarouge matriciel ou linéaire, et d'au moins une unité de calcul embarquée. La fonction de cette unité est d'analyser les images acquises et d'extraire en temps réel, c'est-à-dire entre deux acquisitions et avant stockage définitif, les paramètres intéressants pour l'opérateur ou pour l'asservissement d'un processus. Ces paramètres, d'origine physique, géométrique ou issus d'une fusion d'informations géométriques et physiques, peuvent ensuite être visualisés en temps réel ou différé, directement sur un terminal d'affichage connecté ou intégré à la caméra, et stockés de manière sélective en interne, c'est-à-dire dans la caméra, ou en externe par au moins une unité de stockage. Dans le cadre d'une application industrielle, l'invention permet de simplifier de manière significative l'intégration du moyen de contrôle de procédé dans une machine en éliminant le recours à une unité de calcul dédiée à la réception et à l'analyse des images acquises. Cette méthode d'exploitation en temps réel des informations issues de l'analyse d'image, nommé procédé, permet également de réduire de manière significative le volume de données stockées. L'utilisation d'une méthode dit de stockage sélectif consistant à archiver seulement les informations exploitables ou les informations pertinentes pour l'opérateur ou le processus, permet en effet de limiter la quantité 3025389 2 d'information stockée qui peut être très limitant dans le cas d'un dispositif fonctionnant plusieurs jours ou plusieurs semaines sans interruption et à haute fréquence (plusieurs milliers d'images par seconde).FIELD The present invention relates to an imaging method in the field of embedded infrared sensors which consists of detecting, automatically, in real time and by image processing, at least one predefined parameter in at least one image, and to send back this or these parameters to a display device or to a machine controlled or supervised, alone or associated with the image from which they were extracted. General description / summary Infrared cameras used for observation and surveillance in marine, air or industrial environments are generally equipped to transfer acquired images to a computer via an Ethernet, CameraLink, USB or other type of connection. A processing unit, image analysis and storage physically independent of the camera is absolutely necessary to analyze the images acquired by means of an image processing software and manage their storage. In the case of a wireless application, such as observation from a drone-type airborne platform, the need to repatriate all the images to a ground station requires a high bandwidth and prevents observations of phenomena. fast at high frequencies (passage of a fast object in the field of observation, rapid scrolling at low altitude ...). The present invention makes it possible to overcome these limitations by proposing a so-called intelligent infrared camera and named device in the present patent. This camera has at least one matrix or linear infrared sensor, and at least one embedded computing unit. The function of this unit is to analyze the acquired images and to extract in real time, that is to say between two acquisitions and before final storage, the parameters of interest for the operator or for the servocontrol of a process. These parameters, of physical origin, geometrical or resulting from a fusion of geometrical and physical information, can then be visualized in real time or deferred, directly on a display terminal connected or integrated to the camera, and stored in a manner selective internally, that is to say in the camera, or externally by at least one storage unit. In the context of an industrial application, the invention makes it possible to significantly simplify the integration of the process control means into a machine by eliminating the need for a calculation unit dedicated to receiving and analyzing the images. acquired. This method of real-time exploitation of the information resulting from the image analysis, called a method, also makes it possible to significantly reduce the volume of data stored. The use of a so-called selective storage method consisting in archiving only exploitable information or information relevant to the operator or the process makes it possible to limit the amount of stored information which can be very limiting in case of a device operating several days or weeks without interruption and high frequency (several thousand images per second).

5 Etat de l'art Plusieurs brevets décrivent des dispositifs intégrant des caméras intelligentes avec des unités d'analyse et de stockage des images déportées et souvent indépendantes des dites caméras. Ces unités d'analyse peuvent avoir pour fonction de prédire des trajectoires d'objets, de piloter un dispositif parallèle à la caméra ou de modifier des 10 paramètres d'environnement. Un autre brevet décrit une caméra intégrant une unité d'analyse d'image intégrée mais son utilisation se restreint à la détection d'objets sans boucle de rétroaction vers un processus. Le brevet EP 2 328 131 A2 intitulé « Intelligent camera selection and object tracking », porte sur une méthode de prévision de trajectoire ou de position d'objets 15 dans le champ d'une ou plusieurs caméras à partir des informations recueillies avec une première caméra. L'architecture proposée dans ce brevet consiste en un réseau de noeuds « capteurs », intermédiaires et central, auxquels sont attribuées des fonctions comme la détection, le stockage, l'analyse et l'affichage des résultats obtenus avec les capteurs. Selon une des architectures présentées dans le brevet, les caméras intègrent 20 une double fonction afin de réduire le nombre de noeuds intermédiaires, avec d'une part la détection et d'autre part un traitement d'image qui consiste à encoder les vidéos selon des formats standards. Le traitement, l'analyse, le stockage, la gestion des entrées, et l'interface homme-machine restent attribués à d'autres noeuds du dispositif externes à la caméra (disque dur de stockage, ordinateur...).State of the Art Several patents describe devices integrating smart cameras with units for analyzing and storing remote images and often independent of said cameras. These analysis units may have the function of predicting object trajectories, driving a device parallel to the camera or modifying environment parameters. Another patent describes a camera incorporating an integrated image analysis unit but its use is restricted to the detection of objects without a feedback loop to a process. The patent EP 2 328 131 A2 entitled "Intelligent camera selection and object tracking", relates to a method for predicting the trajectory or position of objects in the field of one or more cameras from information collected with a first camera. . The architecture proposed in this patent consists of a network of "sensor" nodes, intermediate and central, which are assigned functions such as detection, storage, analysis and display of the results obtained with the sensors. According to one of the architectures presented in the patent, the cameras integrate a dual function in order to reduce the number of intermediate nodes, on the one hand the detection and on the other hand an image processing which consists in encoding the videos according to standard formats. The processing, the analysis, the storage, the management of the inputs, and the human-machine interface remain attributed to other nodes of the device external to the camera (hard disk of storage, computer ...).

25 Le brevet WO 2013/052383 Al intitulé « Smart surveillance camera systems and methods » décrit un système de surveillance multicapteurs intégrant une caméra sensible aux infrarouges, des sources de lumière dans l'infrarouge et le visible, une caméra sensible dans le domaine du visible et un processeur permettant l'analyse des images infrarouges. Le résultat de l'analyse des images infrarouges est utilisé pour 30 piloter les sources de lumière et la caméra sensible dans le domaine du visible. En plus des dispositifs d'observation et d'éclairage, le système présenté dans le brevet comprend également un dispositif de stockage et de communication vers un terminal utilisateur, ainsi qu'un dispositif mécanique de pointage. Comme pour le brevet précédent, l'ensemble des dispositifs d'analyse, de communication et de stockage sont 35 externes à la caméra infrarouge qui est un élément distinct du système de surveillance intelligent. Le brevet WO 2010/121354 Al intitulé « object tracking system » détaille un système, une méthode et l'algorithme permettant de surveiller le déplacement de 3025389 3 plusieurs cibles en même temps, et de modifier des paramètres d'environnement en fonction des informations relatives au déplacement des cibles. Le dispositif peut comprendre plusieurs caméras, reliées à un module d'analyse déporté et commun qui peut être une unité de calcul ou autre. La fonction de ce module est d'analyser le flux 5 d'images arrivant des caméras et de calculer ou définir des modifications à apporter au système en fonction des paramètres de mouvement issus de l'analyse d'image. Cette invention se concentre donc sur la définition de paramètres de mouvement uniquement, à partir d'informations de positionnement traitées par une unité de calcul ou autre physiquement indépendant des caméras.Patent WO 2013/052383 A1 entitled "Smart surveillance camera systems and methods" describes a multisensor surveillance system integrating an infrared-sensitive camera, infrared and visible light sources, a sensitive camera in the visible range. and a processor for analyzing infrared images. The result of the infrared image analysis is used to drive the light sources and the sensitive camera in the visible range. In addition to viewing and lighting devices, the system disclosed in the patent also includes a storage and communication device to a user terminal, as well as a mechanical pointing device. As with the previous patent, all the analysis, communication and storage devices are external to the infrared camera which is a separate element of the intelligent surveillance system. The patent WO 2010/121354 A1 entitled "object tracking system" details a system, a method and the algorithm making it possible to monitor the displacement of several targets at the same time, and to modify environment parameters according to the relative information. moving targets. The device may comprise several cameras, connected to a remote and common analysis module which may be a computing unit or the like. The function of this module is to analyze the stream of images arriving from the cameras and to calculate or define modifications to be made to the system as a function of the motion parameters resulting from the image analysis. This invention thus focuses on the definition of motion parameters only, from positioning information processed by a computing unit or other physically independent of the cameras.

10 Le brevet WO 2005/038699 Al intitulé « Method and image processing device for analyzing an object contour image, method and image processing device for detecting an object, industrial vision apparatus, smart camera, image display, security system, and computer program product » décrit une méthode d'analyse des contours dans une image permettant des comparer des objets afin de les détecter à haute 15 vitesse. Ce brevet propose d'utiliser une caméra intelligente intégrant un dispositif de traitement, en limitant ce traitement à l'analyse de contour dans une image et à la détection d'objet par comparaison de forme. Ce brevet ne décrit pas un dispositif intégrant des traitements d'images dans le but de modifier le paramétrage d'une machine ou réduire la quantité d'information transmises vers le terminal de 20 visualisation. Brève description des dessins Les dessins annexés illustrent un exemple de réalisation de la présente invention dépourvu de tout caractère limitatif.WO 2005/038699 A1 entitled "Method and image processing device for analyzing an object image, method and image processing device for detecting an object, industrial vision apparatus, smart camera, image display, security system, and computer program product" discloses a method of contour analysis in an image for comparing objects to detect them at high speed. This patent proposes to use an intelligent camera incorporating a processing device, limiting this processing to contour analysis in an image and object detection by shape comparison. This patent does not disclose a device incorporating image processing for the purpose of modifying the setting of a machine or reducing the amount of information transmitted to the display terminal. Brief Description of the Drawings The accompanying drawings illustrate an exemplary embodiment of the present invention devoid of any limiting character.

25 La figure 1 représente une vue isométrique d'un exemple de réalisation du dispositif décrit dans la présente invention. La figure 2 représente une version de la face arrière du dispositif équipé de plusieurs types de connecteurs. La figure 3 décrit schématiquement et de manière non limitative le procédé 30 d'exploitation du dispositif décrit dans la présente invention. Description détaillée des dessins La figure 1 montre une vue isométrique du dispositif. La caméra est équipée d'une face avant (1) supportant un raccord fileté interchangeable (2) permettant de 35 s'adapter aux différents standards de montures optiques, comme la monture C. La 3025389 4 caméra est équipée d'un radiateur (3) permettant d'évacuer la chaleur du module de stabilisation en température ou de refroidissement du capteur, et d'un corps central (4) qui contient l'ensemble des composants électroniques nécessaires au pilotage et à l'acquisition du signal vidéo, ainsi qu'au traitement, à l'analyse et au transfert ou au 5 stockage interne des images ou des paramètres issus du traitement d'images. Le corps central contient également les composants électroniques nécessaires au pilotage ou à l'acquisition de signaux provenant de dispositifs externes comme des dispositifs d'acquisition d'information, des machines de fabrication ou d'usinage, des robots, des sources lumineuses, ou des capteurs divers. La face arrière (5) fait l'interface entre les 10 différentes unités électroniques de la caméra et les dispositifs externe. La figure 2 représente la face arrière de la caméra (5). Cette face arrière supporte l'ensemble des connecteurs permettant de transférer des images ou échanger des informations. Dans une version de la caméra, correspondant à la figure 2, les images sont transférées au travers d'un port Ethernet ou Gigabit Ethernet (6) et les 15 informations nécessaires à l'acquisition de données ou à l'envoi de commandes vers un dispositif externe transitent au travers de connecteurs multi-broches (7), de connecteurs coaxiaux (8) ou autres. La figure 3 décrit le processus d'initialisation du dispositif, d'acquisition et de traitement des informations, ainsi que d'exploitation des résultats issus de l'analyse de 20 l'image ou des images acquises par le dispositif. La séquence d'utilisation commence par le choix du ou des paramètres pertinents à contrôler (11) pour assurer la surveillance d'un processus de fabrication, d'un processus d'usinage ou tout autres processus industriels manuels ou automatiques. Le choix du ou des paramètres pertinents peut s'appuyer sur l'analyse préalable d'une ou plusieurs images de 25 référence avec plusieurs jeux de paramètres (9), ou sur une connaissance préalable du processus ou de l'évènement permettant de définir ces paramètres et/ou les réglages donnant les meilleurs résultats sans image de référence ou de test (10). Ce ou ces paramètres peuvent également servir à surveiller une zone avec le dispositif depuis une position fixe ou un véhicule terrestre, aérien ou marin piloté ou non. Le ou les 30 paramètres sont définis et initialisés par l'opérateur via une interface homme-machine depuis un terminal de pilotage qui peut être un ordinateur embarqué ou non dans la machine ou le véhicule, une tablette tactile, ou tout autre support permettant de se connecter au dispositif et de modifier son état ou ses fonctions. Après cette étape d'initialisation des paramètres, l'analyse d'images (12) est automatiquement 35 programmée et chargée dans la caméra. Le dispositif peut ensuite acquérir des images automatiquement (13) et les analyser en temps réel (14) afin d'extraire de ces images des informations sur le ou les paramètres définis (15). L'exploitation des résultats issus de l'analyse d'image peut se faire de deux manières : les résultats peuvent d'une part être intégrés à l'image ou aux images transmises à un opérateur (16), et d'autre part ils peuvent être utilisés pour contrôler un ou plusieurs dispositifs externes sans 3025389 5 transmission ni stockage des images acquises (19). La première méthode, essentiellement destinée aux applications de sécurité et de surveillance avec décision humaine, depuis des postes fixes ou des véhicules, consiste à incruster l'information obtenue par l'analyse des images acquises par le dispositif (17). Trois modes peuvent 5 être utilisés : soit les informations sont intégrées dans les images qui ont permis de les obtenir (fréquence d'affichage égale à la fréquence d'acquisition), soit elles sont regroupées sur un échantillon d'images extrait de l'acquisition (fréquence d'affichage inférieure à la fréquence d'acquisition), soit les informations sont issues d'une série d'images acquises avec des temps d'exposition différents et intégrées dans une image 10 unique (images « longue pose » intercalées dans une série d'images « pose courte »). Une fois l'image enrichie, elle est transmises vers un terminal d'affichage (18) pour être visualisée par un opérateur qui prendra les décisions sur les actions à effectuer. La seconde méthode d'exploitation des résultats issus de l'analyse d'image consiste à piloter automatiquement un dispositif externe à la caméra sans transfert ni stockage 15 des images acquises par le dispositif (19). Cette méthode consiste à définir des actions à appliquer au dispositif externe en fonction des valeurs ou plus généralement des informations associées aux paramètres surveillés. Ces actions sont déclenchées ou accomplies par des consignes de pilotage envoyées au dispositif externe parallèlement à l'envoi des valeurs ou des informations des paramètres suivis (20). Le dispositif 20 externe peut être un moyen de visualisation (21) comme un écran, une machine ou un robot (22) effectuant par exemple des opérations d'usinage ou de fabrication, ou une source lumineuse (23) qui peut être par exemple un laser ou un voyant d'alarme, ou des dispositifs de sécurité comme par exemple un arrosage automatique. Description détaillée d'un mode d'utilisation du dispositif 25 Cette description du dispositif et de son procédé d'utilisation n'est pas limitative est présente un exemple applicatif du moyen. Cet exemple décrit l'utilisation du dispositif pour le contrôle en boucle fermée d'une machine de fabrication additive dont le principe de fonctionnement repose sur la fusion sélective d'une poudre métallique au moyen d'un laser. Cette méthode de 30 fabrication par couche est longue est peut durer entre quelques heures et quelques semaines en fonction des dimensions des pièces à produire, malgré des vitesses de déplacement du faisceau laser sur le lit de poudre qui peuvent atteindre 1 à 6m/s. Le contrôle du procédé nécessite donc une fréquence d'acquisition élevée pour réduire autant que possible les zones non observées. Pour des durées d'observation 35 importantes, la quantité d'information est trop grande pour pouvoir être stockée et analysée correctement. La solution tout intégré du dispositif et le procédé d'utilisation associé apporte une solution à cet exemple d'application. Le dispositif est placé dans la machine et raccordé au boitier contenant le système optique permettant notamment de déplacer le faisceau laser sur le lit de 3025389 6 poudre. Ce système optique est conçu de manière à permettre au laser d'être dirigé vers le lit de poudre, tout en permettant de collecter le rayonnement dans des gammes de longueurs d'onde différentes de celle du laser. Ce rayonnement collecté est ensuite envoyé vers le dispositif équipé d'un capteur sensible sur cette gamme de 5 longueur d'onde. Le dispositif étant équipé d'interface d'entrée, il peut être synchronisé avec les tirs du laser pour réduire la durée d'utilisation du capteur aux seules phases de lasage et permettre un stockage sélectif des données. Avant le lancement du processus de fabrication, l'opérateur peut sélectionner des caractéristiques du bain de fusion à suivre tout au long de la construction de la pièce.Figure 1 shows an isometric view of an exemplary embodiment of the device described in the present invention. FIG. 2 represents a version of the rear face of the device equipped with several types of connectors. FIG. 3 schematically and in a nonlimiting manner describes the method of operating the device described in the present invention. Detailed description of the drawings Figure 1 shows an isometric view of the device. The camera is equipped with a front face (1) supporting an interchangeable threaded connection (2) to adapt to the different standards of optical frames, such as the C mount. The 3025389 4 camera is equipped with a radiator (3). ) for discharging the heat of the temperature stabilization module or cooling the sensor, and a central body (4) which contains all the electronic components necessary for driving and acquiring the video signal, and the processing, analysis and transfer or internal storage of images or parameters from image processing. The central body also contains the electronic components necessary for controlling or acquiring signals from external devices such as information acquisition devices, manufacturing or machining machines, robots, light sources, or various sensors. The rear face (5) interfaces between the various electronic units of the camera and the external devices. Figure 2 shows the rear face of the camera (5). This rear face supports all connectors for transferring images or exchanging information. In a version of the camera, corresponding to FIG. 2, the images are transferred through an Ethernet or Gigabit Ethernet port (6) and the information necessary for acquiring data or sending commands to a computer. external device pass through multi-pin connectors (7), coaxial connectors (8) or other. Figure 3 describes the process of device initialization, acquisition and processing of information, as well as exploitation of results from image analysis or images acquired by the device. The sequence of use begins with the selection of the relevant parameter (s) to be monitored (11) for monitoring a manufacturing process, a machining process or any other manual or automatic industrial processes. The choice of the relevant parameter or parameters may be based on the prior analysis of one or more reference images with several sets of parameters (9), or on a prior knowledge of the process or the event making it possible to define these parameters. parameters and / or settings giving the best results without a reference or test image (10). This or these parameters can also be used to monitor an area with the device from a fixed position or a land vehicle, air or marine piloted or not. The one or more parameters are defined and initialized by the operator via a man-machine interface from a control terminal which may be a computer on board or not in the machine or the vehicle, a touch pad, or any other support allowing connect to the device and change its state or functions. After this parameter initialization step, the image analysis (12) is automatically programmed and loaded into the camera. The device can then acquire images automatically (13) and analyze them in real time (14) in order to extract from these images information on the defined parameter (s) (15). The exploitation of the results resulting from the image analysis can be done in two ways: the results can on the one hand be integrated into the image or the images transmitted to an operator (16), and on the other hand they can be used to control one or more external devices without the transmission or storage of the acquired images (19). The first method, essentially intended for security applications and monitoring with human decision, from fixed positions or vehicles, consists in embedding the information obtained by analyzing the images acquired by the device (17). Three modes can be used: either the information is integrated in the images that made it possible to obtain them (display frequency equal to the acquisition frequency), or they are grouped on a sample of images extracted from the acquisition. (Display frequency lower than the acquisition frequency), or the information comes from a series of images acquired with different exposure times and integrated into a single image ("long exposure" images inserted in a single image). series of images "short pose"). Once the image is enriched, it is transmitted to a display terminal (18) to be viewed by an operator who will make decisions on the actions to be performed. The second method of exploiting the results resulting from the image analysis consists in automatically controlling a device external to the camera without transferring or storing the images acquired by the device (19). This method consists in defining actions to be applied to the external device according to the values or more generally the information associated with the monitored parameters. These actions are triggered or accomplished by control commands sent to the external device in parallel with the sending of the values or information of the monitored parameters (20). The external device 20 may be a display means (21) such as a screen, a machine or a robot (22) performing, for example, machining or manufacturing operations, or a light source (23) which may be for example a laser or an alarm light, or safety devices such as automatic watering. DETAILED DESCRIPTION OF A METHOD OF USING THE DEVICE This description of the device and its method of use is not limiting and is an application example of the means. This example describes the use of the device for the closed-loop control of an additive manufacturing machine whose operating principle is based on the selective melting of a metal powder by means of a laser. This method of manufacturing a layer is long and can last between a few hours and a few weeks depending on the dimensions of the parts to be produced, despite speeds of displacement of the laser beam on the powder bed which can reach 1 to 6m / s. Control of the process therefore requires a high acquisition frequency to reduce as much as possible the unobserved areas. For large observation times, the amount of information is too large to be stored and analyzed properly. The fully integrated solution of the device and the associated method of use provides a solution to this application example. The device is placed in the machine and connected to the housing containing the optical system allowing in particular to move the laser beam on the powder bed. This optical system is designed to allow the laser to be directed to the powder bed, while allowing radiation to be collected in different wavelength ranges from that of the laser. This collected radiation is then sent to the device equipped with a sensitive sensor over this wavelength range. Since the device is equipped with an input interface, it can be synchronized with the shots of the laser to reduce the duration of use of the sensor to the lasing phases only and to allow a selective storage of the data. Before the start of the manufacturing process, the operator can select melt characteristics to be followed throughout the construction of the part.

10 Ces caractéristiques peuvent être diverses en fonction du type de matériau utilisé, de la forme de la pièce ou de l'expérience du fabricant. Une fois l'initialisation effectuée, le système de contrôle de procédé est fonctionnel et la fabrication de la pièce peut démarrer. Au cours de la fabrication, les images acquises sont analysées en temps réel pour déterminer si le processus se déroule normalement 15 (pas d'éjection de matière, pas de modification de la forme du bain de fusion...) et si les paramètres de la machine restent constants (pas d'anomalie sur le système optique, pas d'anomalie sur le dispositif de mise en couche...). Les résultats de l'analyse des images permettent de définir ou de calculer des corrections à appliquer en temps réel aux différents organes de la machine pour retrouver des conditions de 20 fabrications optimales via les interfaces de sortie dont le dispositif est équipé, ou pour signaler la présence d'un défaut dans la pièce une fois finie. Afin de réduire la quantité d'information à traiter et à stocker, les images ne sont pas transmises par le dispositif mais analysées en temps réel après acquisition par l'unité de traitement d'image embarquée. Seuls les paramètres et les informations issues de 25 l'analyse d'image, comme par exemple la forme du bain ou les gradients thermiques, sont effectivement envoyés aux dispositifs internes à la caméra ou externes pour les stocker de manière sélective et/ou appliquer des actions correctives. Ce procédé permet également d'améliorer très avantageusement le temps de réponse du système de contrôle de la machine en boucle fermée, en réduisant significativement les durées 30 de transfert d'informations entre les différents organes du dispositif décrit dans ce brevet. Une fois la fabrication de la pièce achevée, le fichier de données associé au contrôle de procédé reste exploitable malgré la quantité d'informations stockée, afin de permettre à l'opérateur de vérifier a posteriori la qualité des pièces produite et d'améliorer leurs 35 traçabilités. La génération de ce fichier de résultats exploitable par l'opérateur serait impossible avec un système classique de transmission, de stockage et d'analyse l'ensemble des images par des unités indépendantes de la caméra. A titre d'exemple, le stockage sélectif de paramètres issus de l'analyse d'image génère des fichiers de l'ordre du Go pour 24h d'observation et de quelques dizaines de Go en une semaine 3025389 7 de sept jours. Dans le cas d'un stockage systématique des images acquises par la caméra, le fichier produit est de l'ordre que quelques To en 24h et de l'ordre de quelques dizaines de To en une semaine. Le dispositif présenté dans ce brevet permet donc d'améliorer significativement le contrôle de procédé dans les machines de 5 fabrication additive ainsi que le stockage grâce à son architecture et au procédé de traitement de l'information proposé.These characteristics can be varied depending on the type of material used, the shape of the part or the experience of the manufacturer. Once initialization is complete, the process control system is functional and part fabrication can start. During manufacture, the acquired images are analyzed in real time to determine if the process is proceeding normally (no material ejection, no change in the shape of the melt ...) and if the parameters of the machine remain constant (no anomaly on the optical system, no anomaly on the layering device ...). The results of the image analysis make it possible to define or calculate corrections to be applied in real time to the various members of the machine in order to find optimal manufacturing conditions via the output interfaces of which the device is equipped, or to signal the presence of a defect in the part once finished. In order to reduce the amount of information to be processed and stored, the images are not transmitted by the device but analyzed in real time after acquisition by the on-board image processing unit. Only the parameters and information from the image analysis, such as bath shape or thermal gradients, are actually sent to the camera-internal or external devices for selective storage and / or application. corrective actions. This method also makes it possible to very advantageously improve the response time of the closed-loop machine control system, significantly reducing the information transfer times between the various members of the device described in this patent. Once the production of the part has been completed, the data file associated with the process control remains exploitable despite the quantity of information stored, in order to allow the operator to check the quality of the parts produced subsequently and to improve their quality. Traceability. The generation of this results file exploitable by the operator would be impossible with a conventional system of transmission, storage and analysis all images by units independent of the camera. For example, the selective storage of parameters from the image analysis generates files of the order of GB for 24 hours of observation and a few dozen GB in a week 3025389 7 of seven days. In the case of systematic storage of the images acquired by the camera, the file produced is of the order of a few TB in 24 hours and of the order of a few tens of TB in one week. The device disclosed in this patent therefore makes it possible to significantly improve process control in additive manufacturing machines as well as storage thanks to its architecture and to the proposed information processing method.

Claims (14)

REVENDICATIONS1. Dispositif de caméra intelligente temps réel contenant un capteur sensible dans une des gammes de l'infrarouge, une électronique de pilotage du capteur et une électronique d'acquisition d'images caractérisé en ce que l'électronique de traitement et d'analyse d'images et une l'électronique d'interface avec des dispositifs externes sont contenues dans le dispositif afin de réaliser les opérations d'acquisition, d'analyse et de stockage d'images et de pilotage en temps réel et in-situ.REVENDICATIONS1. Real-time intelligent camera device containing a sensitive sensor in one of the infrared ranges, a sensor control electronics and an image acquisition electronics, characterized in that the image processing and analysis electronics and an interface electronics with external devices are contained in the device to perform the operations of acquisition, analysis and storage of images and control in real time and in-situ. 2. Dispositif selon la revendication 1, caractérisé en ce qu'il comporte des interfaces de sortie permettant de transmettre des informations vers un dispositif externe.2. Device according to claim 1, characterized in that it comprises output interfaces for transmitting information to an external device. 3. Dispositif selon la revendication 2, caractérisé en ce que les informations transmises sont des signaux analogiques.3. Device according to claim 2, characterized in that the transmitted information is analog signals. 4. Dispositif selon la revendication 2, caractérisé en ce que les informations transmises sont des signaux numériques.4. Device according to claim 2, characterized in that the transmitted information is digital signals. 5. Dispositif selon les revendications 2 à 4, caractérisé en ce que les informations transmises vers le dispositif externe est une commande de pilotage.5. Device according to claims 2 to 4, characterized in that the information transmitted to the external device is a control command. 6. Dispositif selon la revendication 2 à 4, caractérisé en ce que les informations issues de l'analyse d'images peuvent être envoyées à plusieurs dispositifs externes.6. Device according to claim 2 to 4, characterized in that the information from the image analysis can be sent to several external devices. 7. Dispositif selon la revendication 1, caractérisé en ce qu'il comporte des interfaces d'entrée permettant de collecter des informations provenant d'un dispositif externe.7. Device according to claim 1, characterized in that it comprises input interfaces for collecting information from an external device. 8. Dispositif selon la revendication 7, caractérisé en ce que les informations reçues sont des signaux analogiques.8. Device according to claim 7, characterized in that the received information is analog signals. 9. Dispositif selon la revendication 7, caractérisé en ce que les informations reçues sont des signaux numériques.9. Device according to claim 7, characterized in that the received information is digital signals. 10. Dispositif selon les revendications 7 à 9, caractérisé en ce que les informations peuvent être reçues depuis plusieurs dispositifs. 3025389 910. Device according to claims 7 to 9, characterized in that the information can be received from several devices. 3025389 9 11. Dispositif selon les revendications 7 à 9, caractérisé en ce que les informations reçues sont des consignes de pilotage du dispositif décrit dans le présent brevet. 511. Device according to claims 7 to 9, characterized in that the information received are control instructions of the device described in this patent. 5 12. Dispositif selon les revendications 7, caractérisé en ce que les informations issues de l'analyse des images acquises avec le capteur contenu dans le dispositif sont fusionnées avec les informations provenant du dispositif externe. 1012. Device according to claims 7, characterized in that the information from the analysis of images acquired with the sensor contained in the device are merged with the information from the external device. 10 13. Dispositif selon la revendication 12, caractérisé en ce que la fusion de données embarquée peut utiliser des informations provenant des différents dispositifs externes connectés à la caméra.13. Device according to claim 12, characterized in that the on-board data fusion can use information from the different external devices connected to the camera. 14. Dispositif selon les revendications 2 à 10, caractérisé en ce qu'il asservi un 15 processus de fabrication industriel en boucle fermée.14. Device according to claims 2 to 10, characterized in that it enslaved an industrial manufacturing process closed loop.
FR1401930A 2014-08-29 2014-08-29 INTELLIGENT AND INDEPENDENT INFRARED CAMERA Pending FR3025389A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1401930A FR3025389A1 (en) 2014-08-29 2014-08-29 INTELLIGENT AND INDEPENDENT INFRARED CAMERA

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1401930A FR3025389A1 (en) 2014-08-29 2014-08-29 INTELLIGENT AND INDEPENDENT INFRARED CAMERA

Publications (1)

Publication Number Publication Date
FR3025389A1 true FR3025389A1 (en) 2016-03-04

Family

ID=53008543

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1401930A Pending FR3025389A1 (en) 2014-08-29 2014-08-29 INTELLIGENT AND INDEPENDENT INFRARED CAMERA

Country Status (1)

Country Link
FR (1) FR3025389A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080084473A1 (en) * 2006-10-06 2008-04-10 John Frederick Romanowich Methods and apparatus related to improved surveillance using a smart camera
US7767963B1 (en) * 2006-12-08 2010-08-03 Draeger Safety, Inc. Thermal imaging camera internal damping system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080084473A1 (en) * 2006-10-06 2008-04-10 John Frederick Romanowich Methods and apparatus related to improved surveillance using a smart camera
US7767963B1 (en) * 2006-12-08 2010-08-03 Draeger Safety, Inc. Thermal imaging camera internal damping system

Similar Documents

Publication Publication Date Title
EP2196967B1 (en) Methods and apparatus for adaptively streaming video data based on a triggering event
US20200116583A1 (en) Gas quantification systems and methods
CA2891149A1 (en) Method for projecting virtual data and device allowing this projection
KR102248161B1 (en) Methods for analyzing thermal image data using a plurality of virtual devices and methods for correlating depth values to image pixels
US20080314878A1 (en) Apparatus and method for controlling a machining system
FR2934911A1 (en) AUTOMATED GUIDANCE AND RECOGNITION SYSTEM AND METHOD FOR SAID SYSTEM
EP3008677A1 (en) Method and system for identifying damage caused to a vehicle
WO2018071557A1 (en) Media creation based on sensor-driven events
EP3234802B1 (en) Method for transmitting data from a sensor
FR3026540A1 (en) SYSTEM AND METHOD FOR MASKING DYNAMIC IMAGE
US20210398267A1 (en) Centralized analytics of multiple visual inspection appliances
US20210112188A1 (en) Exposure Change Control In Low Light Environments
EP2238579A1 (en) Surveillance system comprising a large number of cameras
EP2757530A1 (en) Method and device for detecting a fall by image analysis
FR3036473A1 (en) METHOD FOR MEASURING THE POSITION OF A MOBILE STRUCTURE
FR3025389A1 (en) INTELLIGENT AND INDEPENDENT INFRARED CAMERA
FR2871273A1 (en) DEVICE AND METHOD FOR ESTABLISHING AN IMAGE SURVEILLANCE AREA
FR3080677A1 (en) TOPOGRAPHIC MEASURING DEVICE
FR3009615A1 (en) METHOD AND SYSTEM FOR CAPTURING, DISCRIMINATING AND CHARACTERIZING LOW SIGNALS USING THEIR RESPECTIVE SIGNATURES
EP3123149B1 (en) Method for controlling a plurality of functional modules including a multi-wavelength imaging device, and corresponding control system
FR3063409A1 (en) METHOD FOR CONTROLLING A PTZ CAMERA, COMPUTER PROGRAM PRODUCT, AND DRIVER DEVICE THEREFOR
EP3487160B1 (en) Image noise reduction based on a modulation transfer function of a camera dome
EP3121663A1 (en) Method for checking the tightness of a timepiece
KR20160025069A (en) Image acquisition apparatus and method for power line monitoring device
JP2012107943A (en) Target identification device and target identification method

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20160304

RN Application for restoration

Effective date: 20180530

IC Decision of the director general to declare irreceivable or to reject an appeal

Effective date: 20181005