FR3033419A3 - Systeme de surveillance - Google Patents

Systeme de surveillance Download PDF

Info

Publication number
FR3033419A3
FR3033419A3 FR1651857A FR1651857A FR3033419A3 FR 3033419 A3 FR3033419 A3 FR 3033419A3 FR 1651857 A FR1651857 A FR 1651857A FR 1651857 A FR1651857 A FR 1651857A FR 3033419 A3 FR3033419 A3 FR 3033419A3
Authority
FR
France
Prior art keywords
head
area
images
cameras
vision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1651857A
Other languages
English (en)
Other versions
FR3033419B3 (fr
Inventor
Claudio Terenzi
Agostino Bontempi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WIDE AUTOMATION Srl
Original Assignee
WIDE AUTOMATION Srl
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by WIDE AUTOMATION Srl filed Critical WIDE AUTOMATION Srl
Publication of FR3033419A3 publication Critical patent/FR3033419A3/fr
Application granted granted Critical
Publication of FR3033419B3 publication Critical patent/FR3033419B3/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • B23Q17/2433Detection of presence or absence
    • B23Q17/2438Detection of presence or absence of an operator or a part thereof
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • F16P3/142Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using image capturing devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • G05B19/4061Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B9/00Safety arrangements
    • G05B9/02Safety arrangements electric
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37572Camera, tv, vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/49Nc machine tool, till multiple
    • G05B2219/49141Detect near collision and slow, stop, inhibit movement tool

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Manufacturing & Machinery (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Iron Core Of Rotating Electric Machines (AREA)

Abstract

Système de surveillance d'une zone (A) proche d'une machine (M) d'usinage, ladite machine (M) ayant au moins une tête opérationnelle mobile (2) dans ladite zone (A) ou à proximité de celle-ci, comprenant, en combinaison : une première tête (TV1) de vision, dotée d'une première caméra (T1), d'une deuxième caméra (T2), et d'une troisième caméra (T3), disposées entre elles à une distance prédéfinie pour acquérir des images de ladite zone (A) et une unité (3) de traitement, reliée auxdites caméras (T1, T2, T3) pour recevoir lesdites images.

Description

1 SYSTÈME DE SURVEILLANCE La présente invention concerne un système de surveillance, notamment de zones situées à proximité d'une machine-outil. Dans le secteur des machines-outils, on connaît différents systèmes qui 5 permettent la surveillance, ou le contrôle, d'une zone adjacente à une machine-outil (pouvant être occupée par un opérateur). Ces systèmes de surveillance servent à contrôler une zone opérationnelle prédéfinie, à proximité de la machine-outil, pour identifier la présence d'une personne dans cette zone opérationnelle et éventuellement arrêter, 10 en conséquence, la machine-outil. Les systèmes de surveillance susmentionnés permettent donc d'accroître la sécurité pour les opérateurs, dans la mesure où la machine est arrêtée si un opérateur s'approche de cette même machine dans des conditions de danger potentiel. 15 Depuis longtemps, cependant, le besoin se fait sentir de disposer d'un système de surveillance qui soit particulièrement fiable, c'est-à-dire dans lequel la génération de fausses alarmes soit réduite et dans lequel, d'autre part, le risque de non-identification d'un opérateur à l'intérieur de la zone surveillée soit réduit. 20 Le but de la présente innovation est donc d'obvier à ces inconvénients à travers la réalisation d'un système de surveillance et d'un procédé de surveillance qui soient efficaces et fiables. Conformément à l'innovation, ce but est atteint par un système de surveillance comprenant les caractéristiques techniques exposées dans 25 une ou plusieurs des revendications jointes. Les caractéristiques techniques de l'invention, selon les buts susmentionnés, sont clairement exposées dans le contenu des revendications ci-après, et les avantages de l'invention seront rendus plus saillants dans la description détaillée qui suit, faite en se référant aux 30 dessins joints, qui en représentent une forme de réalisation uniquement à 3033419 2 titre d'exemple non-limitatif, et dans lesquels : - la figure 1 montre une vue schématique d'une application du système de surveillance faisant l'objet de la présente innovation ; - la figure 2 montre un détail du système de surveillance faisant l'objet 5 de la présente innovation. Conformément aux dessins joints, le numéro 1 indique un système de surveillance d'une zone A située à proximité d'une machine M d'usinage. Le terme « machine M d'usinage » indique n'importe quelle machine conçue pour exécuter des usinages ou des traitements sur des objets ou 10 des produits comme, à titre d'exemple, une machine-outil. À noter que ces machines ont généralement au moins un élément mobile 2, qui porte habituellement l'outil d'usinage. Cet élément 2 mobile comprend une tête opérationnelle 2 (ces deux termes seront utilisés indifféremment dans la suite du texte). 15 Dans l'exemple illustré dans la figure 1, la lettre P indique une pièce en cours d'usinage et le numéro 2 un élément mobile faisant partie de la machine M proprement dite. À noter que cet élément 2 est mobile le long d'une direction X. Le système 1 comprend une première tête TV1 de vision, dotée d'une 20 première caméra T1, d'une deuxième caméra T2, et d'une troisième caméra T3, disposées entre elles à une distance prédéfinie pour acquérir des images de ladite zone A. De préférence, les caméras (T1, T2, T3) de ladite première tête TV1 de vision ont un axe optique parallèle. 25 À noter que ces caméras (T1, T2, T3) sont disposées de manière à permettre, par paires, l'acquisition d'images tridimensionnelles de la zone A. De préférence, comme le montre la figure 1, le système comprend aussi une deuxième tête TV2 de vision disposée, en utilisation, dans une 30 position réciproque prédéfinie par rapport à la première tête TV1 de vision pour acquérir des images de ladite zone A à partir d'une prise de vue 3033419 3 angulaire différente. La deuxième tête TV2 de vision a les mêmes caractéristiques techniques et fonctionnelles que la première tête TV1 de vision, à laquelle on fera donc référence dans la suite du texte.
Les caméras (T4, T5, T6) de cette deuxième tête TV2 de vision sont disposées angulairement par rapport aux caméras (T1, T2, T3) de la première tête TV1 de vision : autrement dit, les caméras des deux têtes (TV1, TV2) de vision prennent des images de ladite zone A à travers différents parcours optiques. lo De préférence, les caméras (T4, T5, T6) de la deuxième tête TV2 de vision sont disposées en vis-à-vis (face à) par rapport aux caméras (T1, T2, T3) de la première tête TV1 de vision, comme le montre la figure 1. À noter que la présence de cette deuxième tête de vision TV2 est optionnelle ; les avantages offerts par l'utilisation de ladite deuxième tête 15 de vision TV2 seront mieux décrits plus avant dans le texte. À noter que les caméras (T1, T2, T3) de la première tête TV1 de vision sont disposées à l'intérieur d'un contenant en caisson 5. De préférence, le contenant en caisson 5 comprend un support 6 configuré pour l'appui au sol ou pour la fixation à un ou plusieurs éléments 20 de la machine M. Selon l'innovation, le système 1 comprend une unité 3 de traitement, reliée auxdites caméras (T1, T2, T3) pour recevoir lesdites images et configurée pour : - a) analyser, par paires, les images desdites caméras (T1, T2, T3) de la 25 première tête TV1 de vision pour identifier la présence d'un objet dans ladite zone A; - b) acquérir une position de ladite tête opérationnelle 2 dans ladite zone A, - c) rendre disponible un signal SA d'arrêt de ladite machine M en fonction 30 de la position relative de ladite tête opérationnelle 2 par rapport audit objet détecté dans ladite zone A. 3033419 4 De préférence, l'unité 3 de traitement est intégrée dans la première tête TV1 de vision. À noter que l'opération b) d'acquisition de la position dudit élément mobile 2 dans ladite zone A peut prévoir une lecture de cette position directement 5 par la machine M ou peut prévoir une analyse des images acquises par les caméras pour dériver la position de l'élément mobile 2 dans la zone A. Par conséquent, la première tête TV1 de vision peut prévoir une interface reliée à l'unité de contrôle de la machine, pour acquérir la position de l'élément mobile 2 dans la zone A ou, alternativement, peut prévoir un 10 module (matériel ou logiciel) de traitement d'image configuré pour dériver la position de l'élément mobile 2 dans la zone A, à travers l'analyse d'une ou de plusieurs paires de caméras (T1, T2, T3) de la première tête TV1 de vision. Selon un autre aspect, le système 1 comprend une centrale d'interfaçage 15 avec la machine M reliée à l'unité 3 de traitement et à la machine M, pour recevoir ladite signalisation d'arrêt provenant de l'unité 3 de traitement et envoyer un signal de commande à l'unité de contrôle (par exemple à l'API) de la machine M. Alternativement, l'unité 3 de traitement peut intégrer directement en elle-20 même un module de communication configuré pour s'interfacer avec la machine M, pour envoyer un signal de commande à l'unité de contrôle (par exemple à l'API) de la machine M. Autrement dit, l'unité 3 de traitement est dotée d'une interface de communication (module de communication) avec ladite machine M. 25 De préférence, l'interface de communication est du type bidirectionnel (pour permettre l'envoi de commandes à la machine M et la réception d'informations en provenance de la machine M, inhérentes ou non auxdites commandes). Selon un autre aspect, la première tête TV1 de vision comprend au moins 30 un capteur U1 à ultrasons (qui intègre un émetteur et un récepteur d'ultrasons). 3033419 5 Ce capteur U1 à ultrasons est associé (fixé) à ladite tête TV1 de vision. À noter aussi que le capteur U1 à ultrasons est relié à ladite unité 3 de traitement. L'unité 3 de traitement est configurée pour traiter le signal du capteur U1 à 5 ultrasons, pour identifier la présence d'un objet dans ladite zone A et pour comparer le résultat du traitement du signal dudit capteur U1 à ultrasons avec le résultat de l'analyse, par paires, des images des caméras (T1, T2, T3). Avantageusement, ce capteur à ultrasons permet donc d'augmenter la 10 fiabilité du système dans la détection d'objets à l'intérieur de la zone surveillée : les fausses alarmes et les cas d'intrusions non détectées dans la zone surveillée sont en effet réduits. À noter que, selon une première forme de réalisation, l'unité 3 de contrôle est configurée pour identifier la présence d'un objet dans ladite zone A au 15 moyen de l'analyse des images de toutes les paires de caméras (T1, T2, T3) de la première tête de vision selon une logique de traitement de type OU. Autrement dit, il suffit que la présence d'un objet soit détectée par une seule paire de caméras pour que l'unité de traitement dérive une condition 20 de présence d'un objet dans la zone A surveillée. À noter que, selon une deuxième forme de réalisation alternative, l'unité 3 de contrôle est configurée pour identifier la présence d'un objet dans ladite zone A au moyen de l'analyse des images de toutes les paires de caméras (T1, T2, T3) de la première tête de vision selon une logique de 25 traitement de type ET. Autrement dit, il faut que la présence d'un objet soit détectée par toutes les paires de caméras pour que l'unité de traitement dérive une condition de présence d'un objet dans la zone A surveillée. À noter que, indépendamment de la logique de traitement adoptée 30 (OU/ET) pour l'analyse du signal des paires de caméras (T1, T2, T3), il est possible d'analyser le signal du capteur U1 à ultrasons en combinaison 3033419 6 avec le résultat de l'analyse des images selon différentes logiques, comme cela sera mieux expliqué plus avant dans le texte. Selon une première forme de réalisation, l'unité 3 de traitement est configurée pour identifier la présence d'un objet dans ladite zone A en 5 combinant, selon une logique de traitement du type ET, le résultat du traitement des paires de caméras (T1, T2, T3) avec celui du capteur à ultrasons. Autrement dit, pour que la présence d'un objet soit déterminée dans la zone A soumise à surveillance, il faut que la présence d'un objet soit lo identifiée aussi bien par les caméras que par le capteur U1 à ultrasons. Selon une deuxième forme de réalisation (indépendamment de la logique de traitement adoptée OU ou ET pour l'analyse du signal des paires de caméras T1, T2, T3), l'unité 3 de traitement est configurée pour identifier la présence d'un objet dans ladite zone A en combinant, selon une logique 15 de traitement du type OU, le résultat du traitement des paires de caméras (T1, T2, T3) avec celui du capteur à ultrasons. Autrement dit, pour que la présence d'un objet soit déterminée dans la zone A soumise à surveillance, il suffit que la présence d'un objet soit identifiée par les caméras (T1, T2, T3) ou par le capteur U1 à ultrasons. 20 À noter donc, avantageusement, que la présence des capteurs à ultrasons augmente ultérieurement la fiabilité du système, étant donné que la condition de présence d'un objet est basée sur un traitement de deux types différents de capteurs (optiques / à ultrasons). Selon un autre aspect, le système 1 comprend également au moins une 25 source d'éclairage, associée (fixée) à ladite première tête TV1 de vision et configurée pour éclairer ladite zone surveillée. De préférence, ladite au moins une source d'éclairage comprend au moins une DEL (L1, L2, L3, L4). De façon encore plus préférée, la première tête TV1 comprend une 30 pluralité de DEL (L1, L2, L3, L4). De cette façon, avantageusement, la zone A soumise à surveillance est 3033419 7 éclairée (selon un schéma de lumière prédéfini). De préférence, ladite DEL (L1, L2, L3, L4) est du type à infrarouges. En outre, selon un autre aspect, ladite DEL (L1, L2, L3, L4) est à haute puissance lumineuse. 5 Selon cet aspect, le système 1 comprend une unité de pilotage de la DEL (L1, L2, L3, L4), configurée pour alimenter à impulsions ladite DEL (L1, L2, L3, L4). De préférence, l'unité de pilotage est intégrée dans la tête TV1 de vision ; de façon encore plus préférée, l'unité de pilotage est intégrée dans l'unité lo 3 de traitement. Selon un autre aspect, ladite unité de pilotage est configurée pour activer ladite DEL (L1, L2, L3, L4) de façon synchrone à l'acquisition d'images d'une paire de caméras (T1, T2, T3). De cette façon, avantageusement, une très forte quantité de lumière est 15 émise pendant de brefs instants, de sorte que l'éclairage ne crée aucune gêne et que la classe de la DEL rentre donc parmi les dispositifs non dangereux pour la vue. À noter, donc, que cet aspect permet d'augmenter la fiabilité d'ensemble de la détection. 20 De préférence, si le système est équipé de deux têtes de mesure, une première et une deuxième, l'unité de contrôle de chaque tête de mesure est configurée pour détecter le rayonnement lumineux émis par les DEL de l'autre tête de vision. À noter que, avantageusement, l'unité de contrôle de chaque tête de 25 mesure est configurée pour détecter et contrôler la position des DEL de l'autre tête de vision (par analyse de l'image) : ceci permet au système de contrôler en permanence que la position réciproque des têtes est correcte, c'est-à-dire celle pour laquelle l'étalonnage a été effectué. En effet, si une des deux têtes de mesure était accidentellement déplacée 30 (choc, altération, etc.), le système détecterait tout de suite un changement de position des points d'éclairage des DEL de l'autre tête de vision. 3033419 8 Ci-après, la description détaillée d'une forme de réalisation préférée du système 1 et des opérations de surveillance qu'il met en oeuvre. À noter que la description qui suit du système 1 et des opérations qu'il met en oeuvre ne doit pas être entendue comme limitative mais doit être 5 considérée à titre d'exemple uniquement. On décrira ci-après les phases de surveillance mises en oeuvre par une paire de caméras (T1, T2 ; T2, T3 ; T1, T3) de la première tête TV1 de vision : les mêmes observations valent également pour n'importe quelle autre paire de caméras.
La surveillance prévoit d'acquérir une paire d'images de ladite zone A au moyen de deux caméras de la première tête TV1 de vision. Ces deux images sont, de préférence, synchronisées entre elles, c'est-à-dire acquises dans le même instant temporel. Après quoi, une analyse est effectuée sur lesdites deux images pour 15 identifier la présence d'un objet dans ladite zone A. Cette analyse prévoit la génération d'une mappe des distances. La phase de génération d'une mappe des distances comprend une phase consistant à générer une mappe, c'est-à-dire une matrice, sur la base d'une comparaison entre les deux images acquises. 20 Cette mappe, ou matrice, comprend la position (dans le monde) de chaque pixel (ou, plus généralement, d'une portion de l'image) par rapport à un système de référence commun aux caméras (T1, T2, T3). La génération de cette mappe se fait sur la base d'une analyse de disparité. 25 De préférence, on prévoit la génération d'une mappe contenant les coordonnées, dans le monde (c'est-à-dire par rapport à un système de référence commun aux deux caméras), de chaque pixel. De préférence, la mappe contient les coordonnées de chaque pixel dans trois directions orthogonales : 30 - une direction X essentiellement parallèle à l'axe optique des caméras ; 3033419 9 - une direction Z essentiellement orthogonale au sol de ladite zone ; - une direction Y orthogonale aux directions précédentes. Une extraction et classification des obstacles est ensuite prévue. Par conséquent, l'unité 3 de contrôle est configurée pour effectuer une 5 extraction et classification des obstacles. Plus précisément, l'unité 3 de contrôle est configurée pour analyser la mappe des distances afin d'identifier un objet dans la zone A soumise à surveillance. Cette analyse de la mappe des distances comprend une phase de 10 recherche, dans ladite mappe des distances, de portions contiguës ayant essentiellement la même valeur de distance le long de la direction X d'éloignement des caméras, c'est-à-dire le long de la direction qui est essentiellement parallèle à l'axe optique desdites caméras (T1, T2 ; T2, T3 ; T1, T3).
Ultérieurement, la surveillance prévoit que soit effectuée une analyse de plusieurs images, acquises respectivement par différentes paires de caméras de la première tête de vision. Plus précisément, la tête de vision étant composée de trois caméras (T1, T2, T3), il est possible d'effectuer l'analyse sur trois paires différentes (T1, 20 T2 ; T2, T3 ; T1, T3) de caméras. Selon cet aspect, une phase de comparaison est prévue pour comparer les résultats des analyses effectuées sur chaque paire de caméras afin de vérifier la présence d'un objet dans ladite zone A dans des paires de caméras différentes. 25 Selon une forme de mise en oeuvre du système 1, il est prévu de subdiviser ladite zone A en une pluralité de régions (A1, A2, A3). Chaque région (A1, A2, A3) correspond à une portion de la zone A soumise à surveillance : dans l'exemple illustré dans la figure 1, trois régions différentes (A1, A2, A3) sont représentées. 30 Selon cette forme de mise en oeuvre, l'unité 3 de traitement est configurée pour analyser les images desdites caméras (T1, T2) afin d'identifier dans 3033419 10 quelle région (A1, A2, A3) se trouve l'objet identifié (cet objet est identifié au moyen des critères précédemment décrits). De plus, dans cette phase d'analyse, l'unité 3 de traitement est configurée pour associer ledit objet détecté à ladite région (A1, A2, A3) identifiée. 5 À noter que, selon cette forme de mise en oeuvre, le signal de commande SA (arrêt) de la machine M est rendu disponible par l'unité 3 de traitement en fonction de la position relative dudit élément mobile 2 par rapport à la région (A1, A2, A3) identifiée. Autrement dit, selon cet exemple d'application, chaque région peut être : 10 - « habilitée » si une personne et la tête opérationnelle peuvent être présentes en même temps dans cette région sans que la signalisation d'arrêt soit émise ; - « interdite » si une personne et la tête opérationnelle ne peuvent pas être présentes en même temps dans cette région (ce qui 15 correspond à une situation de danger potentiel), et la présence simultanée de la tête et d'une personne dans la région détermine l'émission de la signalisation d'alarme. À noter que le système 1, en particulier l'unité 3 de traitement, peut être configuré pour que certaines régions soient en permanence interdites ou habilitées, ou pour que chaque région puisse être habilitée ou interdite en fonction de la position de la tête opérationnelle : selon cette dernière possibilité, la présence de la tête opérationnelle dans une région détermine l'interdiction de cette même région, tandis que son absence détermine l'habilitation de cette même région.
L'exemple qui suit, relatif à la figure 1, illustrera ce qui a été dit précédemment. La figure 1 montre l'élément mobile 2 positionné dans la région A1. L'entrée d'une personne dans cette région, où se trouve l'élément mobile 2 ou tête opérationnelle, détermine l'activation de l'arrêt de la machine.
Cette région Al est en effet interdite, étant donné que la tête opérationnelle 2 y est présente.
3033419 11 En revanche, l'entrée d'une personne dans la région A3 ne détermine pas l'arrêt de la machine, étant donné que cette condition n'est pas source de dangers potentiels, la personne se trouvant dans la région A3 étant plutôt loin de l'élément mobile 2.
5 À noter que la région A3, dans l'exemple spécifique, est habilitée, étant donné que la tête opérationnelle 2 n'y est pas présente. De cette façon, le système 1 active une signalisation d'arrêt de la machine en fonction de la position relative de l'élément mobile 2 et de l'objet (personne) détecté.
10 À noter qu'en général l'unité 3 de traitement est configurée pour émettre la signalisation d'arrêt si, sur la base de l'analyse des images, une condition de proximité de l'élément mobile 2 et de la personne (objet) détectée par l'analyse des images des caméras, qui correspond à une situation de danger potentiel, a été identifiée.
15 Cette condition de proximité, dans le cas spécifique, correspond à la présence de l'élément mobile 2 et de la personne (objet) détectée dans la même région (A1, A2, A3), ou dans la région immédiatement adjacente (A1, A2, A3). Avantageusement, la présence de deux, ou plus, têtes de vision permet 20 au système d'être particulièrement exempt de fausses alarmes et, donc, d'être plus fiable. Ces têtes (TV1, TV2) de vision sont, de préférence, disposées l'une par rapport à l'autre de façon à ce que les caméras respectives prennent des images à partir de prises de vue angulaires différentes.
25 À noter, comme le montre la figure 1, que les deux têtes (TV1, TV2) de vision sont de préférence disposées l'une en face de l'autre. Avantageusement, l'utilisation d'une deuxième tête TV2 de vision permet d'éviter des zones d'ombre potentielles dans la zone située juste devant les caméras de la première tête TV1 de vision.
30 L'invention ainsi conçue est susceptible d'application industrielle évidente ; elle peut aussi faire l'objet de nombreuses modifications et variantes, 3033419 12 rentrant toutes dans le domaine du concept inventif ; en outre, toutes les pièces peuvent être remplacées par des éléments techniquement équivalents.

Claims (18)

  1. REVENDICATIONS1. Système de surveillance d'une zone (A) proche d'une machine (M) d'usinage, ladite machine (M) ayant au moins une tête opérationnelle (2) 5 dans ladite zone (A) ou à proximité de celle-ci, caractérisé en ce qu'il comprend, en combinaison : - une première tête (TV1) de vision, dotée d'une première caméra (T1), d'une deuxième caméra (T2), et d'une troisième caméra (T3), disposées entre elles à une distance prédéfinie pour acquérir des images de ladite 10 zone (A) ; - une unité (3) de traitement, reliée auxdites caméras (T1, T2, T3) pour recevoir lesdites images et configurée pour : - a) analyser, par paires, les images desdites caméras (T1, T2, T3) pour détecter la présence d'un objet dans ladite zone (A) ; 15 - b) acquérir une position de ladite tête opérationnelle (2) dans ladite zone (A) ; - c) rendre disponible un signal (SA) d'arrêt de ladite machine (M) en fonction de la position relative de ladite tête opérationnelle (2) par rapport audit objet détecté dans ladite zone (A). 20
  2. 2. Système selon la revendication 1, dans lequel les caméras (T1, T2, T3) de ladite première tête (TV1) de vision ont un axe optique parallèle.
  3. 3. Système selon l'une quelconque des revendications précédentes, dans lequel l'unité (3) de contrôle est configurée pour détecter une condition de présence d'un objet dans ladite zone (A) si la présence d'un 25 objet est identifiée sur les images de toutes les combinaisons de paires (T1, T2 ; T2, T3 ; T1, T3) de caméras (T1, T2, T3).
  4. 4. Système selon l'une quelconque des revendications 1 à 2, dans lequel l'unité (3) de contrôle est configurée pour détecter une condition de présence d'un objet dans ladite zone (A) si la présence d'un objet est 30 identifiée sur les images d'au moins une paire des combinaisons de paires de caméras (T1, T2, T3). 3033419 14
  5. 5. Système selon l'une quelconque des revendications précédentes, comprenant au moins un capteur (U1) à ultrasons, associé à ladite tête (TV1) de vision, et relié à ladite unité (3) de traitement, ladite unité (3) de traitement étant configurée pour traiter le signal dudit au moins un capteur (U1) à ultrasons, pour détecter la présence d'un objet dans ladite zone (A) sur la base dudit signal et pour comparer le résultat du traitement du signal dudit capteur (U1) à ultrasons avec le résultat de l'analyse, par paires, des images des caméras (T1, T2, T3) afin de dériver une condition de présence d'un objet dans ladite zone (A). lo
  6. 6. Système selon la revendication 5, dans lequel l'unité (3) de contrôle est configurée pour dériver une condition de présence d'un objet dans ladite zone (A) si la présence d'un objet est détectée au moyen de l'analyse des images des paires de caméras (T1, T2, T3) ou au moyen de l'analyse du signal du capteur (U1) à ultrasons. 15
  7. 7. Système selon la revendication 5, dans lequel l'unité (3) de contrôle est configurée pour dériver une condition de présence d'un objet dans ladite zone (A) si la présence d'un objet est détectée tant au moyen de l'analyse des images des paires de caméras (T1, T2, T3) qu'au moyen de l'analyse du signal du capteur (U1) à ultrasons. 20
  8. 8. Système selon l'une quelconque des revendications précédentes, comprenant au moins une source d'éclairage, associée à ladite première tête (TV1) de vision et configurée pour éclairer ladite zone surveillée.
  9. 9. Système selon la revendication 8, dans lequel ladite au moins une source d'éclairage comprend une DEL (L1 ; L2 ; L3 ; L4). 25
  10. 10. Système selon la revendication 8, dans lequel ladite DEL (L1 ; L2 ; L3 ; L4) est du type à infrarouges.
  11. 11. Système selon l'une quelconque des revendications 9 ou 10, dans lequel ladite DEL (L1 ; L2 ; L3 ; L4) est à haute puissance lumineuse.
  12. 12. Système selon la revendication 11, comprenant une unité de pilotage 30 de la DEL (L1 ; L2 ; L3 ; L4), configurée pour alimenter à impulsions ladite DEL (L1 ; L2 ; L3 ; L4). 3033419 15
  13. 13. Système selon la revendication 12, dans lequel ladite unité de pilotage de la DEL (L1 ; L2 ; L3 ; L4) est intégrée dans la première tête (TV1) de vision.
  14. 14. Système selon la revendication 12, dans lequel ladite unité de pilotage 5 de la DEL (L1 ; L2 ; L3 ; L4) est intégrée dans l'unité (3) de traitement.
  15. 15. Système selon l'une quelconque des revendications 9 à 14, dans lequel ladite unité de pilotage est configurée pour activer ladite DEL (L1 ; L2 ; L3 ; L4) de façon synchrone à l'acquisition d'images d'une paire de caméras (T1, T2, T3). lo
  16. 16. Système selon l'une quelconque des revendications précédentes, dans lequel l'unité (3) de traitement est intégrée dans la première tête (TV1) de vision.
  17. 17. Système selon l'une quelconque des revendications précédentes, dans lequel l'unité (3) de traitement est dotée d'une interface de 15 communication avec ladite machine (M).
  18. 18. Système selon la revendication 17, dans lequel l'interface de communication avec ladite machine (M) est du type bidirectionnel.
FR1651857A 2015-03-05 2016-03-04 Systeme de surveillance Active FR3033419B3 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ITBO2015U000018U ITBO20150018U1 (it) 2015-03-05 2015-03-05 Sistema di monitoraggio.

Publications (2)

Publication Number Publication Date
FR3033419A3 true FR3033419A3 (fr) 2016-09-09
FR3033419B3 FR3033419B3 (fr) 2017-06-09

Family

ID=55968046

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1651857A Active FR3033419B3 (fr) 2015-03-05 2016-03-04 Systeme de surveillance

Country Status (6)

Country Link
AT (1) AT15136U1 (fr)
DE (1) DE202016101172U1 (fr)
ES (1) ES1163783Y (fr)
FR (1) FR3033419B3 (fr)
IE (1) IES86722B2 (fr)
IT (1) ITBO20150018U1 (fr)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107263196B (zh) * 2017-07-13 2020-03-24 台山市仁丰五金电器有限公司 新型数控机床防护装置及应用该装置的数控机床

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005028490C5 (de) * 2005-06-20 2016-07-14 Sick Ag Kamerasystem
DE102007014612A1 (de) * 2007-03-23 2008-09-25 TRüTZSCHLER GMBH & CO. KG Vorrichtung zur Überwachung und Sicherung von Gefahrenbereichen an kraftgetriebenen Textilmaschinen, insbesondere Spinnereivorbereitungsmaschinen
KR101307698B1 (ko) * 2010-09-22 2013-09-11 신닛테츠스미킨 카부시키카이샤 출입 제한 영역 침입자 검출 시스템, 침입자 검출 장치, 출입 제한 영역 침입자 검출 방법 및 그 프로그램을 기록한 컴퓨터 판독 가능 기록 매체
US20120081537A1 (en) * 2010-10-04 2012-04-05 General Electric Company Camera protective system and method
ITRN20120036A1 (it) * 2012-07-09 2014-01-10 Wide Automation S R L Sistema e procedimento di supervisione
DE102013104265A1 (de) * 2013-04-26 2014-10-30 Pilz Gmbh & Co. Kg Vorrichtung und Verfahren zum Absichern einer automatisiert arbeitenden Maschine
WO2014182887A1 (fr) * 2013-05-08 2014-11-13 International Electronic Machines Corporation Surveillance d'opérations dans un secteur

Also Published As

Publication number Publication date
ES1163783Y (es) 2016-11-21
FR3033419B3 (fr) 2017-06-09
IES20160070A2 (en) 2016-09-07
IES86722B2 (en) 2016-11-02
AT15136U1 (de) 2017-01-15
DE202016101172U1 (de) 2016-04-26
ITBO20150018U1 (it) 2016-09-05
ES1163783U (es) 2016-08-30

Similar Documents

Publication Publication Date Title
US10564284B2 (en) Systems and methods for machine perception
EP1825298B1 (fr) Dispositif d'imagerie gamma ameliore
EP2288939B1 (fr) Dispositif d'imagerie gamma ameliore permettant la localisation precise de sources irradiantes dans l'espace
WO2020162994A3 (fr) Procédés et systèmes de détection d'occlusions de capteur
US11859964B2 (en) Reflection refuting laser scanner
KR20160107800A (ko) 촬영 장치 및 촬영 방법
BE1025335B1 (fr) Capteur pour commander une porte automatique
EP2946228B1 (fr) Procede et systeme pour fournir a un dispositif mobile des informations sur sa position par rapport a une cible, robot integrant un tel systeme et tablette
US8547531B2 (en) Imaging device
FR3036473A1 (fr) Procede de mesure de la position d'une structure mobile
FR3033419A3 (fr) Systeme de surveillance
FR3010515A1 (fr) Equipement de vehicule automobile integrant un dispositif de mesure de distances d'objet
EP2611169A1 (fr) Dispositif d'acquisition d'images stereoscopiques
FR2721126A1 (fr) Dispositif de détection de présence et de sens de passage de mobiles et de personnes en vue du comptage.
FR3007170A1 (fr) Dispositif de decision prevu pour decider si un visage est vrai ou faux
EP3036687B1 (fr) Dispositif de decision prevu pour decider si un oeil est vrai ou faux
FR3030974A1 (fr) Systeme pour la prise de vue en trois dimensions au cours d'un deplacement
EP2954837B1 (fr) Dispositif d'acquisition optique pour systèmes biométriques
US7858920B2 (en) Method and device for detecting an object that can retroreflect light
US11567202B2 (en) SPAD-based LIDAR system
FR3093215A1 (fr) Procédé et dispositif de surveillance de l’environnement d’un robot
FR2915001A1 (fr) Procede et dispositif a deux lasers pour la detection de systemes optiques grossissants.
FR3076934A3 (fr) Système de sécurité
EP3757943B1 (fr) Procédé et dispositif de télémétrie passive par traitement d'image et utilisation de modeles en trois dimensions
FR3060182A1 (fr) Procede et dispositif de detection d’une intrusion dans l’environnement d’un robot

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9