ITBO20150018U1 - Sistema di monitoraggio. - Google Patents
Sistema di monitoraggio.Info
- Publication number
- ITBO20150018U1 ITBO20150018U1 ITBO2015U000018U ITBO20150018U ITBO20150018U1 IT BO20150018 U1 ITBO20150018 U1 IT BO20150018U1 IT BO2015U000018 U ITBO2015U000018 U IT BO2015U000018U IT BO20150018 U ITBO20150018 U IT BO20150018U IT BO20150018 U1 ITBO20150018 U1 IT BO20150018U1
- Authority
- IT
- Italy
- Prior art keywords
- area
- cameras
- images
- led
- head
- Prior art date
Links
- 238000012544 monitoring process Methods 0.000 title description 4
- 238000012545 processing Methods 0.000 claims description 39
- 238000004458 analytical method Methods 0.000 claims description 16
- 238000002604 ultrasonography Methods 0.000 claims description 10
- 238000004891 communication Methods 0.000 claims description 6
- 230000003287 optical effect Effects 0.000 claims description 6
- 238000000034 method Methods 0.000 claims description 3
- 230000002457 bidirectional effect Effects 0.000 claims description 2
- 238000010191 image analysis Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 claims description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003754 machining Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B23—MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
- B23Q—DETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
- B23Q17/00—Arrangements for observing, indicating or measuring on machine tools
- B23Q17/24—Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
- B23Q17/2433—Detection of presence or absence
- B23Q17/2438—Detection of presence or absence of an operator or a part thereof
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F16—ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
- F16P—SAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
- F16P3/00—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
- F16P3/12—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
- F16P3/14—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
- F16P3/142—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using image capturing devices
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/406—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
- G05B19/4061—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B9/00—Safety arrangements
- G05B9/02—Safety arrangements electric
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37572—Camera, tv, vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/49—Nc machine tool, till multiple
- G05B2219/49141—Detect near collision and slow, stop, inhibit movement tool
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Manufacturing & Machinery (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Iron Core Of Rotating Electric Machines (AREA)
- Studio Devices (AREA)
Description
DESCRIZIONE
“SISTEMA DI MONITORAGGIO”
Il presente trovato concerne un sistema di supervisione, in particolare di aree prossimali ad una macchina utensile.
Nel campo delle macchine utensili sono noti diversi sistemi per consentire il monitoraggio, ovvero la supervisione, di una area adiacente ad una macchina utensile (impegnabile da un operatore).
Tali sistemi di supervisione hanno la finalità di monitorare una prestabilita area operativa, in prossimità della macchina utensile, per individuare la presenza di una persona entro l’area operativa ed eventualmente arrestare, di conseguenza, la macchina utensile.
I suddetti sistemi di supervisione consentono, pertanto, di incrementare la sicurezza per gli operatori in quanto la macchina viene arrestata se un operatore si avvicina alla macchina stessa in condizioni di potenziale pericolo.
E’ tuttavia da lungo tempo sentita l’esigenza di disporre di un sistema di supervisione che sia particolarmente affidabile, vale a dire in cui sia ridotta la generazione di allarmi indesiderati ed in cui, d’altro canto, sia ridotto il rischio di mancata individuazione di un operatore all’interno dell’area sorvegliata.
Scopo della presente innovazione è pertanto quello di ovviare a questi inconvenienti attraverso la realizzazione di un sistema di supervisione e di un metodo di supervisione efficienti ed affidabili.
In accordo con l’innovazione, tale scopo viene raggiunto da un sistema di supervisione comprendente le caratteristiche tecniche esposte in una o più delle rivendicazioni annesse.
Le caratteristiche tecniche del trovato, secondo i suddetti scopi, sono chiaramente riscontrabili dal contenuto delle rivendicazioni sotto riportate, ed i vantaggi dello stesso risulteranno maggiormente evidenti nella descrizione dettagliata che segue, fatta con riferimento ai disegni allegati, che ne rappresentano una forma di realizzazione puramente esemplificativa e non limitativa, in cui:
- la figura 1 illustra una vista schematica di una applicazione del sistema di supervisione oggetto della presente innovazione;
- la figura 2 illustra un particolare del sistema di supervisione oggetto della presente innovazione.
Conformemente ai disegni allegati, è stato indicato con 1 un sistema di supervisione di un’area A prossima ad una macchina M di lavorazione. Con il termine macchina M di lavorazione si intende una qualsiasi macchina per eseguire lavorazioni o trattamenti su oggetti o prodotti, quali a titolo esemplificativo una macchina utensile.
Si osservi che tali macchine hanno generalmente almeno un elemento mobile 2, che solitamente porta l’utensile di lavorazione.
Tale elemento 2 mobile comprende una testa operativa 2 (nel prosieguo questi due termini verranno utilizzati indifferentemente).
Nell’esempio illustrato nella figura 1 è stato indicato con P un pezzo in lavorazione e con 2 un elemento mobile facente parte della macchina M stessa.
Si osservi che tale elemento 2 è mobile lungo una direzione X.
Il sistema 1 comprende una prima testa TV1 di visione, provvista di una prima telecamera T1, una seconda telecamera T2, ed una terza telecamera T3, fra loro disposte ad una prestabilita distanza così da acquisire immagini di detta area A.
Preferibilmente, le telecamere (T1,T2,T3) di detta prima testa TV1 di visione hanno un asse ottico parallelo.
Si osservi che tali telecamere (T1,T2,T3) sono disposte in modo che, a coppie, consentano l’acquisizione di immagini tridimensionali dell’area A. Preferibilmente, come illustrato nella figura 1, il sistema comprende anche una seconda testa TV2 di visione disposta, nell’uso, in una prestabilita posizione reciproca rispetto alla prima testa TV1 di visione per acquisire immagini di detta area A da una differente angolazione.
La seconda testa TV2 di visione ha le medesime caratteristiche tecnico funzionali della prima testa TV1 di visione, alla quale verrà quindi fatto riferimento nel seguito.
Le telecamere (T4,T5, T6) di tale seconda testa TV2 di visione sono angolarmente disposte rispetto alle telecamere (T1,T2,T3) della prima testa TV1 di visione: in altre parole tali telecamere delle due teste (TV1,TV2) di visione riprendono immagini di detta area A attraverso differenti percorsi ottici.
Preferibilmente, le telecamere (T4,T5, T6) della seconda testa TV2 di visione sono disposte di fronte (contraffacciate) alle telecamere (T1,T2) della prima testa TV1 di visione, come illustrato in figura 1.
Si osservi che la presenza di tale seconda testa di visione TV2 è opzionale ed i vantaggi di utilizzare detta seconda testa di visione TV2 verranno meglio descritti nel prosieguo.
Si osservi che tali telecamere (T1,T2,T3) della prima testa TV1 di visione sono disposte all’interno di un contenitore scatolare 5.
Preferibilmente il contenitore scatolare 5 comprende un supporto 6 configurato per l’appoggio a terra o per il collegamento ad uno o più degli elementi della macchina M.
Secondo l’innovazione, il sistema 1 comprende una unità 3 di elaborazione, collegata a dette telecamere (T1,T2,T3) per ricevere dette immagini e configurata per:
- a) analizzare, a coppie, le immagini di dette telecamere (T1,T2,T3) della prima testa TV1 di visione per individuare la presenza di un oggetto in detta area (A);
- b) acquisire una posizione di detta testa operativa 2 in detta area A;
- c) rendere disponibile un segnale SA di arresto di detta macchina M in funzione della posizione relativa di detta testa operativa 2 rispetto a detto oggetto rilevato in detta area A.
Preferibilmente, l’unità 3 di elaborazione è integrata nella prima testa TV1 di visione.
Si osservi che l’operazione b) di acquisizione della posizione di detto elemento mobile 2 in detta area A può prevedere una lettura di tale posizione direttamente dalla macchina M oppure può prevedere una analisi delle immagini acquisite dalle telecamere per derivare la posizione dell’elemento mobile 2 nell’area A.
Pertanto, la prima testa TV1 di visione può prevedere una interfaccia collegata all’unità di controllo della macchina, per acquisire la posizione dell’elemento mobile 2 nell’area A o, alternativamente, può prevedere un modulo (hardware o software) di elaborazione immagine configurato per derivare la posizione dell’elemento mobile 2 nell’area A, attraverso l’analisi di una o più coppie delle telecamere (T1,T2,T3) della prima testa TV1 di visione.
Secondo un altro aspetto, il sistema 1 comprende una centralina di interfacciamento con la macchina M connessa all’unità 3 di elaborazione ed alla macchina M, per ricevere detta segnalazione di arresto dall’unità 3 di elaborazione ed inviare un segnale di comando all’unità di controllo (ad esempio al PLC) della macchina M.
Alternativamente, l’unità 3 di elaborazione può integrare direttamente al proprio interno un modulo di comunicazione configurato per interfacciarsi con la macchina M, per inviare un segnale di comando all’unità di controllo (ad esempio al PLC) della macchina M.
In altre parole, l’unità 3 di elaborazione è dotata di una interfaccia di comunicazione (modulo di comunicazione) con detta macchina M.
Preferibilmente l’interfaccia di comunicazione è del tipo bidirezionale (per consentire l’invio di comandi alla macchina M e la ricezione di informazioni dalla macchina M, inerenti o meno detti comandi).
Secondo un altro aspetto, la prima testa TV1 di visione comprende almeno un sensore U1 ad ultrasuoni (che integra un emettitore ed un ricevitore di ultrasuoni).
Tale sensore U1 ad ultrasuoni è associato (fissato a) detta testa TV1 di visione.
Si osservi altresì che il sensore U1 ad ultrasuoni è collegato a detta unità 3 di elaborazione.
L’unità 3 di elaborazione è configurata per elaborare il segnale del sensore U1 ad ultrasuoni, per individuare la presenza di un oggetto in detta area A e per confrontare l’esito dell’elaborazione del segnale di detto sensore U1 ad ultrasuoni con l’esito dell’analisi, a coppie, delle immagini delle telecamere (T1,T2,T3).
Vantaggiosamente, tale sensore ad ultrasuoni consente quindi di incrementare l’affidabilità del sistema nel rilevamento di oggetti all’interno dell’area sorvegliata: vengono infatti a ridursi i falsi allarmi, così come i casi di intrusioni nell’area sorvegliata non rilevate.
Si osservi che, secondo una prima forma realizzativa, l’unità 3 di controllo è configurata per individuare la presenza di un oggetto in detta area A mediante l’analisi delle immagini di tutte le coppie di telecamere (T1,T2,T3) della prima testa di visione secondo una logica di elaborazione di tipo OR.
In altre parole, è sufficiente che sia rilevata la presenza di oggetto con una sola coppia di telecamere, affinché l’unità di elaborazione derivi una condizione di presenza di un oggetto nell’area A sorvegliata.
Si osservi che, secondo una seconda e differente forma realizzativa alternativa, l’unità 3 di controllo è configurata per individuare la presenza di un oggetto in detta area A mediante l’analisi delle immagini di tutte le coppie di telecamere (T1,T2,T3) della prima testa di visione secondo una logica di elaborazione del tipo AND.
In altre parole, è necessario che sia rilevata la presenza di oggetto con tutte le coppie di telecamere, affinché l’unità di elaborazione derivi una condizione di presenza di un oggetto nell’area A sorvegliata.
Si osservi che, indipendentemente dalla logica di elaborazione adottata (OR/AND) per l’analisi del segnale delle coppie di telecamere (T1,T2,T3), è possibile analizzare il segnale del sensore U1 ad ultrasuoni in combinazione con l’esito dell’analisi delle immagini secondo differenti logiche, come verrà meglio chiarito nel seguito.
In accordo con una prima forma realizzativa l’unità 3 di elaborazione è configurata per individuare la presenza di un oggetto in detta area A combinando, secondo una logica di elaborazione del tipo AND, l’esito dell’elaborazione delle coppie di telecamere (T1,T2,T3) con quello del sensore ad ultrasuoni.
In altre parole, affinché venga determinata la presenza di un oggetto nell’area A soggetta a sorveglianza, è necessario che sia individuata la presenza di un oggetto sia mediante le telecamere che mediante il sensore U1 ad ultrasuoni.
In accordo con una seconda forma realizzativa (indipendentemente dalla logica di elaborazione adottata OR o AND per l’analisi del segnale delle coppie di telecamere T1,T2,T3) l’unità 3 di elaborazione è configurata per individuare la presenza di un oggetto in detta area A combinando, secondo una logica di elaborazione del tipo OR, l’esito dell’elaborazione delle coppie di telecamere (T1,T2,T3) con quello del sensore ad ultrasuoni.
In altre parole, affinché venga determinata la presenza di un oggetto nell’area A soggetta a sorveglianza, è sufficiente che sia individuata la presenza di un oggetto mediante le telecamere (T1,T2,T3) oppure mediante il sensore U1 ad ultrasuoni.
Si osservi quindi che, vantaggiosamente, attraverso la presenza dei sensori ad ultrasuoni viene ulteriormente incrementata l’affidabilità del sistema, in quanto la condizione di presenza oggetto è basata su una elaborazione di due differenti tipologie di sensori (ottici / ultrasuoni).
Secondo un altro aspetto, il sistema 1 comprende ulteriormente almeno una sorgente di illuminazione, associata a (fissata a) detta prima testa TV1 di visione e configurata per illuminare detta area sorvegliata.
Preferibilmente detta almeno una sorgente di illuminazione comprende almeno un led (L1,L2,L3,L4).
Ancora più preferibilmente, la prima testa TV1 comprende una pluralità di led (L1,L2,L3,L4).
In questo modo, vantaggiosamente, viene illuminata (con un prestabilito pattern di luce) l’area A soggetta a sorveglianza.
Preferibilmente, detto led (L1,L2,L3,L4) è del tipo ad infrarossi.
Ancora, secondo un altro aspetto, detto led (L1,L2,L3,L4) è ad alta potenza luminosa.
Secondo questo aspetto, il sistema 1 comprende una unità di pilotaggio del led (L1,L2,L3,L4), configurata per alimentare ad impulsi detto led (L1,L2,L3,L4).
Preferibilmente, l’unità di pilotaggio è integrata nella testa TV1 di visione; ancora più preferibilmente l’unità di pilotaggio è integrata nella unità 3 di elaborazione.
Secondo un altro aspetto, detta unità di pilotaggio è configurata per attivare detto led (L1,L2,L3,L4) in modo sincrono all’acquisizione di immagini di una coppia di telecamere (T1,T2,T3).
In questo modo, vantaggiosamente, viene emessa una altissima quantità di luce per brevi istanti, cosicché l’illuminazione non crei disturbo e la classe del led possa rientrare quindi fra i dispositivi non pericolosi per la vista.
Si osservi quindi che tale aspetto consente di incrementare l’affidabilità complessiva del rilevamento.
Preferibilmente, nel caso in cui il sistema sia equipaggiato con due teste di misura, una prima ed una seconda, l’unità di controllo di ciascuna testa di misura è configurata per rilevare la radiazione luminosa emessa dai led dell’altra testa di visione.
Si osservi che, vantaggiosamente, l’unità di controllo di ciascuna testa di misura è configurata per rilevare e monitorare la posizione dei led dell’altra testa di visione (tramite l’analisi dell’immagine): ciò consente al sistema di controllare costantemente che la posizione reciproca delle teste sia corretta ovvero sia quella per cui è stata eseguita la calibrazione.
Infatti, se una delle due teste di misura fosse spostata accidentalmente (urto, manomissione ecc.), il sistema rileverebbe subito un cambio di posizione dei punti di illuminazione dei led dell’altra testa di visione.
Verrà descritta nel seguito in dettaglio una preferita forma di realizzazione del sistema 1 e delle operazioni di supervisione da esso attuato.
Si osservi che tale descrizione del sistema 1 e delle operazioni da esso attuato non è da intendersi come limitativa ma è da intendersi come puramente esemplificativa.
Verranno descritte nel seguito le fasi di supervisione attuate da una coppia di telecamere (T1,T2; T2,T3; T1,T3) della prima testa TV1 di visione: per quanto concerne un’altra qualsiasi coppia di telecamere valgono le medesime osservazioni.
La supervisione prevede di acquisire una coppia di immagini di detta area A mediante due telecamere della prima testa TV1 di visione.
Tali due immagini sono, preferibilmente, fra loro sincronizzate ovvero acquisite nel medesimo istante temporale.
Successivamente, su dette due immagini acquisite, viene eseguita una analisi per individuare la presenza di un oggetto in detta area A.
Tale analisi prevede la generazione di una mappa delle distanze.
La fase di generazione di una mappa delle distanze comprende una fase di generare una mappa ovvero matrice sulla base di un confronto fra le due immagini acquisite.
Tale mappa ovvero matrice comprende la posizione (nel mondo) di ciascun pixel (o più in generale porzione dell’immagine) rispetto ad un sistema di riferimento comune alle telecamere (T1,T2,T3).
La generazione di tale mappa avviene sulla base di una analisi di disparità.
Preferibilmente, è prevista la generazione di una mappa contenente le coordinate, nel mondo (ovvero rispetto ad un sistema di riferimento comune alle due telecamere), di ciascun pixel.
Preferibilmente la mappa contiene le coordinate di ciascun pixel in tre direzioni ortogonali:
- una direzione X sostanzialmente parallela all’asse ottico delle telecamere;
- una direzione Z sostanzialmente ortogonale al pavimento di detta area;
- una direzione Y ortogonale alle precedenti.
Successivamente è prevista una estrazione e classificazione degli ostacoli.
Pertanto, l’unità 3 di controllo è configurata per eseguire una estrazione e classificazione degli ostacoli.
Più precisamente, l’unità 3 di controllo è configurata per analizzare la mappa delle distanze per individuare un oggetto nell’area A sottoposta a supervisione.
Tale analisi della mappa delle distanze comprende una fase di ricerca, nella mappa delle distanze, di porzioni contigue aventi sostanzialmente il medesimo valore di distanza lungo la direzione X di allontanamento dalle telecamere, ovvero lungo la direzione che è sostanzialmente parallela all’asse ottico di dette telecamere (T1,T2; T2,T3; T1,T3).
Ulteriormente, la supervisione prevede che venga eseguita una analisi di più immagini, acquisite rispettivamente con differenti coppie di telecamere della prima testa di visione.
Più precisamente, essendo la testa di visione composta da tre telecamere (T1,T2,T3), è possibile eseguire l’analisi su tre differenti coppie (T1,T2; T2,T3; T1,T3) di telecamere.
Secondo questo aspetto, è prevista una fase di confronto dei risultati delle analisi eseguite su ciascuna coppia di telecamere per verificare la presenza di un oggetto in detta area A in coppie di telecamere differenti. Secondo una forma di attuazione del sistema 1, è previsto di suddividere detta area A in una pluralità di regioni (A1,A2,A3).
Ciascuna regione (A1,A2,A3) corrisponde ad una porzione dell’area A sottoposta a supervisione: nell’esempio illustrato in figura 1 sono illustrate ben tre differenti regioni (A1,A2,A3).
Secondo questa forma di attuazione, l’unità 3 di elaborazione è configurata per analizzare le immagini di dette telecamere (T1,T2) per individuare in quale regione (A1,A2,A3) risulta disposto l’oggetto individuato (tale oggetto è individuato mediante i criteri descritti in precedenza).
Inoltre, in tale fase di analisi, l’unità 3 di elaborazione è configurata per associare detto oggetto rilevato a detta regione (A1,A2,A3) individuata. Si osservi che, secondo questa forma di attuazione, il segnale di comando SA (arresto) della macchina M è reso disponibile dall’unità 3 di elaborazione in funzione della posizione relativa di detto elemento mobile 2 rispetto alla regione (A1,A2,A3) individuata.
In altre parole, secondo tale esempio applicativo, ciascuna regione può essere:
- “abilitata” se una persona e la testa operativa possono essere presenti contemporaneamente in tale regione senza che venga rilasciata la segnalazione di arreso;
- “interdetta” se una persona e la testa operativa non possono essere presenti contemporaneamente in tale regione (ciò corrisponde ad una situazione di potenziale pericolo) e la presenza contemporanea della testa e di una persona nella regione determina il rilascio della segnalazione di allarme.
Si osservi che il sistema 1, in particolare l’unità 3 di elaborazione, può essere configurato in modo che alcune regioni possano risultare permanentemente interdette o abilitate oppure ciascuna regione può essere abilitata o interdetta in funzione della posizione della testa operativa: secondo questa ultima possibilità la presenza della testa operativa in una regione determina l’interdizione della stessa mentre la sua assenza determina l’abilitazione della stessa.
L’esempio che segue, relativo alla figura 1, chiarirà quanto espresso in precedenza.
La figura 1 illustra l’elemento mobile 2 posizionato nella regione A1.
L’ingresso di una persona in tale regione, in cui è disposto l’elemento mobile 2 ovvero testa operativa, determina l’attivazione dell’arresto della macchina.
Tale regione A1 è infatti interdetta, in quanto la testa operativa 2 è ivi presente.
Invece, l’ingresso di una persona nella regione A3, non determina l’arresto della macchina in quanto tale condizione non è fonte di potenziali pericoli, essendo la persona nella regione A3 piuttosto distante dall’elemento mobile 2.
Si osservi che la regione A3, nell’esempio specifico, è abilitata in quanto la testa operativa 2 non è ivi presente.
In questo modo il sistema 1 rende attiva una segnalazione di arresto della macchina in funzione della posizione relativa dell’elemento mobile 2 e dell’oggetto (ovvero persona) rilevata.
Si osservi che, generalmente, l’unità 3 di elaborazione è configurata per emettere la segnalazione di arresto se, sulla base dell’analisi delle immagini, viene riscontrata una condizione di vicinanza dell’ elemento mobile 2 e della persona (oggetto) rilevata mediante l’analisi delle immagini delle telecamere, che corrisponde ad una situazione di potenziale pericolo.
Tale condizione di vicinanza, nel caso specifico, corrisponde alla presenza dell’elemento mobile 2 e della persona (oggetto) rilevata nella medesima regione (A1,A2,A3), o nella regione immediatamente adiacente (A1,A2,A3).
Vantaggiosamente, la presenza di due o più teste di visione rende il sistema particolarmente immune ai falsi allarmi ovvero più affidabile.
Tali teste (TV1,TV2) di visione sono, preferibilmente, disposte l’una rispetto all’altra in modo che le rispettive telecamere riprendano immagini da differenti angolazioni.
Si osservi che, come illustrato in figura 1, preferibilmente le due teste (TV1,TV2) di visione sono disposte fra loro affacciate.
Vantaggiosamente, l’utilizzo di una seconda testa TV2 di visione consente di evitare potenziali zone d’ombra nella zona immediatamente davanti alle telecamere della prima testa TV1 di visione.
Il trovato così concepito è suscettibile di evidente applicazione industriale; può essere altresì oggetto di numerose modifiche e varianti tutte rientranti nell'ambito del concetto inventivo; tutti i dettagli possono essere sostituiti, inoltre, da elementi tecnicamente equivalenti.
Claims (18)
- RIVENDICAZIONI 1. Sistema di supervisione di un’area (A) prossima ad una macchina (M) di lavorazione, con detta macchina (M) avente almeno una testa operativa mobile (2) in detta area (A) o in prossimità della stessa, caratterizzato dal fatto di comprendere, in combinazione: - una prima testa (TV1) di visione, provvista di una prima telecamera (T1), una seconda telecamera (T2), ed una terza telecamera (T3), fra loro disposte ad una prestabilita distanza così da acquisire immagini di detta area (A); - una unità (3) di elaborazione, collegata a dette telecamere (T1,T2,T3) per ricevere dette immagini e configurata per: - a) analizzare, a coppie, le immagini di dette telecamere (T1,T2,T3) per rilevare la presenza di un oggetto in detta area (A); - b) acquisire una posizione di detta testa operativa (2) in detta area (A); - c) rendere disponibile un segnale (SA) di arresto di detta macchina (M) in funzione della posizione relativa di detta testa operativa (2) rispetto a detto oggetto rilevato in detta area (A).
- 2. Sistema secondo la rivendicazione 1, in cui le telecamere (T1,T2,T3) di detta prima testa (TV1) di visione hanno un asse ottico parallelo.
- 3. Sistema secondo una qualsiasi delle precedenti rivendicazioni, in cui l’unità (3) di controllo è configurata per rilevare una condizione di presenza di un oggetto in detta area (A) se è individuata la presenza di oggetto sulle immagini di tutte le combinazioni di coppie (T1,T2; T2,T3; T1,T3) di telecamere (T1,T2,T3).
- 4. Sistema secondo una qualsiasi delle precedenti rivendicazioni da 1 a 2, in cui l’unità (3) di controllo è configurata per rilevare una condizione di presenza di un oggetto in detta area (A) se è individuata la presenza di un oggetto sulle immagini di almeno una coppia delle combinazioni di coppie di telecamere (T1,T2,T3).
- 5. Sistema secondo una qualsiasi delle precedenti rivendicazioni, comprendente almeno un sensore (U1) ad ultrasuoni, associato a detta testa (TV1) di visione, e collegato a detta unità (3) di elaborazione, detta unità (3) di elaborazione essendo configurata per elaborare il segnale di detto almeno un sensore (U1) ad ultrasuoni, per rilevare una presenza di un oggetto in detta area (A) sulla base di detto segnale e per confrontare l’esito dell’elaborazione del segnale di detto sensore (U1) ad ultrasuoni con l’esito dell’analisi, a coppie, delle immagini delle telecamere (T1,T2,T3) per derivare una condizione di presenza di un oggetto in detta area (A).
- 6. Sistema secondo la rivendicazione precedente, in cui l’unità (3) di controllo è configurata per derivare una condizione di presenza di un oggetto in detta area (A) se è rilevata una presenza di un oggetto mediante l’analisi delle immagini delle coppie di telecamere (T1,T2,T3) o mediante l’analisi del segnale del sensore (U1) ad ultrasuoni.
- 7. Sistema secondo la rivendicazione 5, in cui l’unità (3) di controllo è configurata per derivare una condizione di presenza di un oggetto in detta area (A) se è rilevata una presenza di un oggetto sia mediante l’analisi delle immagini delle coppie di telecamere (T1,T2,T3) che mediante l’analisi del segnale del sensore (U1) ad ultrasuoni.
- 8. Sistema secondo una qualsiasi delle precedenti rivendicazioni, comprendente ulteriormente almeno una sorgente di illuminazione, associata a detta prima testa (TV1) di visione e configurata per illuminare detta area sorvegliata.
- 9. Sistema secondo la precedente rivendicazione, in cui detta almeno una sorgente di illuminazione comprende un led (L1; L2; L3; L4).
- 10. Sistema secondo la precedente rivendicazione, in cui detto led (L1; L2; L3; L4) è del tipo ad infrarossi.
- 11. Sistema secondo una qualsiasi delle rivendicazioni 9 o 10, in cui detto led (L1; L2; L3; L4) è ad alta potenza luminosa.
- 12. Sistema secondo la rivendicazione 11, comprendente una unità di pilotaggio del led (L1; L2; L3; L4), configurata per alimentare ad impulsi detto led (L1; L2; L3; L4).
- 13. Sistema secondo la rivendicazione 12, in cui detta unità di pilotaggio del led (L1; L2; L3; L4) è integrata nella prima testa (TV1) di visione.
- 14. Sistema secondo la rivendicazione 12, in cui detta unità di pilotaggio del led (L1; L2; L3; L4) è integrata nella unità (3) di elaborazione.
- 15. Sistema secondo una qualsiasi delle rivendicazioni da 9 a 14, in cui detta unità di pilotaggio è configurata per attivare detto led (L1; L2; L3; L4) in modo sincrono all’acquisizione di immagini di una coppia di telecamere (T1,T2,T3).
- 16. Sistema secondo una qualsiasi delle precedenti rivendicazioni, in cui l’unità (3) di elaborazione è integrata nella prima testa (TV1) di visione.
- 17. Sistema secondo una qualsiasi delle precedenti rivendicazioni, in cui l’unità (3) di elaborazione è dotata di una interfaccia di comunicazione con detta macchina (M).
- 18. Sistema secondo la rivendicazione precedente, in cui l’interfaccia di comunicazione con detta macchina (M) è del tipo bidirezionale.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ITBO2015U000018U ITBO20150018U1 (it) | 2015-03-05 | 2015-03-05 | Sistema di monitoraggio. |
IES20160070A IES86722B2 (en) | 2015-03-05 | 2016-03-04 | Monitoring system |
ES201630283U ES1163783Y (es) | 2015-03-05 | 2016-03-04 | Sistema de supervision de un area |
FR1651857A FR3033419B3 (fr) | 2015-03-05 | 2016-03-04 | Systeme de surveillance |
DE202016101172.8U DE202016101172U1 (de) | 2015-03-05 | 2016-03-04 | Überwachungssystem |
ATGM50037/2016U AT15136U1 (de) | 2015-03-05 | 2016-03-04 | Monitoring System |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ITBO2015U000018U ITBO20150018U1 (it) | 2015-03-05 | 2015-03-05 | Sistema di monitoraggio. |
Publications (1)
Publication Number | Publication Date |
---|---|
ITBO20150018U1 true ITBO20150018U1 (it) | 2016-09-05 |
Family
ID=55968046
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ITBO2015U000018U ITBO20150018U1 (it) | 2015-03-05 | 2015-03-05 | Sistema di monitoraggio. |
Country Status (6)
Country | Link |
---|---|
AT (1) | AT15136U1 (it) |
DE (1) | DE202016101172U1 (it) |
ES (1) | ES1163783Y (it) |
FR (1) | FR3033419B3 (it) |
IE (1) | IES86722B2 (it) |
IT (1) | ITBO20150018U1 (it) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107263196B (zh) * | 2017-07-13 | 2020-03-24 | 台山市仁丰五金电器有限公司 | 新型数控机床防护装置及应用该装置的数控机床 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005028490C5 (de) * | 2005-06-20 | 2016-07-14 | Sick Ag | Kamerasystem |
DE102007014612A1 (de) * | 2007-03-23 | 2008-09-25 | TRüTZSCHLER GMBH & CO. KG | Vorrichtung zur Überwachung und Sicherung von Gefahrenbereichen an kraftgetriebenen Textilmaschinen, insbesondere Spinnereivorbereitungsmaschinen |
BR112013002921A2 (pt) * | 2010-09-22 | 2016-05-31 | Nippon Steel & Sumitomo Metal Corp | sistema de detecção de invasor em área de acesso restrito, dispositivo de detecção de invasor, método de detecção de invasor em área de acesso restrito e programa para o mesmo |
US20120081537A1 (en) * | 2010-10-04 | 2012-04-05 | General Electric Company | Camera protective system and method |
ITRN20120036A1 (it) * | 2012-07-09 | 2014-01-10 | Wide Automation S R L | Sistema e procedimento di supervisione |
DE102013104265A1 (de) * | 2013-04-26 | 2014-10-30 | Pilz Gmbh & Co. Kg | Vorrichtung und Verfahren zum Absichern einer automatisiert arbeitenden Maschine |
US10597053B2 (en) * | 2013-05-08 | 2020-03-24 | International Electronic Machines Corp. | Operations monitoring in an area |
-
2015
- 2015-03-05 IT ITBO2015U000018U patent/ITBO20150018U1/it unknown
-
2016
- 2016-03-04 DE DE202016101172.8U patent/DE202016101172U1/de active Active
- 2016-03-04 ES ES201630283U patent/ES1163783Y/es active Active
- 2016-03-04 IE IES20160070A patent/IES86722B2/en unknown
- 2016-03-04 AT ATGM50037/2016U patent/AT15136U1/de unknown
- 2016-03-04 FR FR1651857A patent/FR3033419B3/fr active Active
Also Published As
Publication number | Publication date |
---|---|
FR3033419B3 (fr) | 2017-06-09 |
ES1163783U (es) | 2016-08-30 |
IES20160070A2 (en) | 2016-09-07 |
DE202016101172U1 (de) | 2016-04-26 |
AT15136U1 (de) | 2017-01-15 |
FR3033419A3 (fr) | 2016-09-09 |
ES1163783Y (es) | 2016-11-21 |
IES86722B2 (en) | 2016-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9503184B2 (en) | Method for aligning a sensor device | |
US6737970B2 (en) | Opto-electronic apparatus for monitoring and detection of intrusion of an object | |
CN106054276B (zh) | 监视保护区域的飞行时间安全光电屏障和方法 | |
CN103257032B (zh) | 用于测试传感器阵列中的像素性能的系统 | |
CN105473927B (zh) | 用于保障自动化工作的机器的设备和方法 | |
US8107058B2 (en) | Sensor device and system having a conveyor and a sensor device | |
US9782897B2 (en) | Robot system using a vision sensor | |
US9372278B2 (en) | Light-based position control of a manual picking process | |
US9292924B2 (en) | Method and device for monitoring a spatial region | |
WO2008091528A2 (en) | Motion sensor with led alignment aid | |
US20170113813A1 (en) | Indicating device for indicating an activation status of an escape slide in an aircraft | |
JP2008096414A (ja) | 移動目標の高速結像検査設備及び方法 | |
US10442519B2 (en) | Indication device as well as door arrangement and aircraft with such an indication device | |
KR20170097139A (ko) | 차량 운행 고장 검출 시스템 및 방법 | |
CN106501811A (zh) | 一种集卡防吊起的装置 | |
CN107662871A (zh) | 用于乘客运输装置的移动扶手监测系统、乘客运输装置及其监测方法 | |
ES2678844T3 (es) | Dispositivo de protección optoelectrónico | |
WO2020086698A1 (en) | Methods and systems used to measure tire treads | |
ES2547691T5 (es) | Sistema y procedimiento de monitorización | |
WO2019167012A1 (en) | System for measuring gap and flush | |
ITBO20150018U1 (it) | Sistema di monitoraggio. | |
US11496215B2 (en) | VLC in factories | |
US9083946B2 (en) | System to detect failed pixels in a sensor array | |
KR100756008B1 (ko) | 컨테이너 번호 인식시스템 및 그 방법 | |
ITMO20010093A1 (it) | Metodo per distinguere dal rumore ambientale il segnale luminoso utilizzato in un sensore ottico lineare di un goniometro |