IT201800009636A1 - Apparato di monitoraggio di operazioni di assemblaggio e programmazione. - Google Patents

Apparato di monitoraggio di operazioni di assemblaggio e programmazione. Download PDF

Info

Publication number
IT201800009636A1
IT201800009636A1 IT102018000009636A IT201800009636A IT201800009636A1 IT 201800009636 A1 IT201800009636 A1 IT 201800009636A1 IT 102018000009636 A IT102018000009636 A IT 102018000009636A IT 201800009636 A IT201800009636 A IT 201800009636A IT 201800009636 A1 IT201800009636 A1 IT 201800009636A1
Authority
IT
Italy
Prior art keywords
block
execution
control unit
programming
user
Prior art date
Application number
IT102018000009636A
Other languages
English (en)
Inventor
David Scaradozzi
Claudia Diamantini
Laura Screpanti
Lorenzo Cesaretti
Elisa Mazzieri
Silvia Zingaretti
Daniele Costa
Original Assignee
Universita' Politecnica Delle Marche
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universita' Politecnica Delle Marche filed Critical Universita' Politecnica Delle Marche
Priority to IT102018000009636A priority Critical patent/IT201800009636A1/it
Priority to EP19801103.3A priority patent/EP3867897A1/en
Priority to PCT/IB2019/058872 priority patent/WO2020079644A1/en
Publication of IT201800009636A1 publication Critical patent/IT201800009636A1/it

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/0053Computers, e.g. programming
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/0405Programme-control specially adapted for machine tool control and not otherwise provided for

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Automation & Control Theory (AREA)
  • Computer Hardware Design (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Programmable Controllers (AREA)

Description

DESCRIZIONE
Annessa a domanda di brevetto per INVENZIONE INDUSTRIALE avente per titolo
“APPARATO DI MONITORAGGIO DI OPERAZIONI DI
ASSEMBLAGGIO E PROGRAMMAZIONE”
La presente invenzione ha per oggetto un apparato ed un metodo di monitoraggio delle operazioni di assemblaggio e programmazione di un sistema robotizzato, che consente di rendere nota l’efficacia del processo educativo finalizzato alle suddette operazioni di assemblaggio e programmazione del sistema robotizzato.
Ad oggi, nell’ambito della robotica educativa, è difficile valutare il processo di apprendimento degli studenti per quanto riguarda le operazioni di assemblaggio e programmazione di robot.
In una lezione tradizionale di robotica educativa, lo studente è chiamato a compiere delle attività che prevedono connessioni hardware e programmazione software.
La modalità di esecuzione prevede in prima istanza la spiegazione da parte dell’insegnante dei blocchi classici di programmazione (per esempio iterazione, ciclo, condizionale, inizio, fine, sequenziale).
L’insegnante consegna i piani costruttivi allo studente che assembla il robot sfruttando le conoscenze apprese.
Lo studente sviluppa quindi gli algoritmi per animare il robot.
Infine, l’insegnante verifica, insieme allo studente, il funzionamento del robot ipotizzando errori logici e costruttivi.
Il risultato ottenuto è poi utilizzato dall’insegnante per la valutazione dell’abilità di problem solving e delle conoscenze dello studente.
L’insegnante infatti può valutare l’apprendimento dello studente mediante sezioni di colloquio orale dedicate per ogni singola esercitazione di programmazione, ipotizzando errori logici e costruttivi, e/o mediante le risposte date dallo studente a questionari relativi al corso didattico, solitamente un questionario di inizio corso ed un questionario di fine corso. In questo contesto, non solo l’attività di valutazione dell’apprendimento dello studente richiede per l’insegnante un notevole impegno in termini di tempo, ma può risultare carente di dati significativi per la valutazione stessa, come le informazioni relative ai tentativi di assemblaggio e programmazione del sistema robotizzato attuati dello studente durante l’esercitazione.
In sintesi, nella modalità tradizionale di valutazione dell’apprendimento, tale valutazione richiede un elevato impegno, soprattutto in termini di tempo, da parte degli insegnanti e/o del personale specializzato. Molte delle risorse sono impiegate per elaborare manualmente i dati raccolti durante le lezioni. In letteratura, e nei casi commerciali, la valutazione è fatta in diversi modi attraverso dei questionari che si adattano alle risposte date dallo studente, ed il giudizio finale è dato dalla combinazione degli errori effettuati durante l’attività di assemblaggio e programmazione e dal peso di ogni errore, simulando determinati criteri.
Un metodo in accordo alla presente descrizione e/o in accordo ad una qualsiasi delle rivendicazioni di metodo allegate, consente di memorizzare automaticamente informazioni relative all’assemblaggio e alla programmazione del sistema robotizzato attuati da uno studente durante una esercitazione di robotica educativa.
Un apparato in accordo alla presente descrizione e/o in accordo ad una qualsiasi delle rivendicazioni di apparato allegate, consente di memorizzare automaticamente informazioni relative all’assemblaggio e alla programmazione del sistema robotizzato attuati da uno studente durante una esercitazione di robotica educativa.
Un apparato in accordo alla presente descrizione è configurato per permettere di effettuare un metodo in accordo alla presente descrizione. Le caratteristiche di un apparato e di un metodo in accordo alla presente descrizione saranno chiarite dalla descrizione dettagliata seguente relativa ad alcune realizzazioni esemplificative di tali apparato e metodo.
La descrizione dettagliata seguente si riferisce alle tavole di disegno allegate, in cui:
- la figura 1 è una vista schematica a blocchi e funzionale di una possibile realizzazione esemplificativa di un apparato in accordo alla presente descrizione;
- la figura 2 è una vista schematica di alcuni possibili blocchi di programmazione selezionabili da un utente mediante l’apparato di figura 1; - la figura 3 è un diagramma di flusso rappresentativo della esecuzione di un possibile programma software esemplificativo che può essere creato da un utente mediante l’apparato di figura 1;
- la figura 4 è una vista schematica illustrativa della struttura algoritmica di un qualsiasi blocco di figura 2, in relazione alla comunicazione fra il blocco ed una memoria dell’apparato.
Nella figura 1, con 1 è indicata una possibile realizzazione di un apparato in accordo alla presente descrizione. Nel seguito, con apparato si intende tale possibile realizzazione dell’apparato.
L’apparato 1 è configurato per effettuare una possibile realizzazione di un metodo in accordo alla presente descrizione. Nel seguito, con metodo si intende tale possibile realizzazione del metodo.
Tale metodo può essere effettuato e/o avvenire mediante tale apparato. L’apparato è configurato per il monitoraggio di attività di assemblaggio e programmazione di un sistema robotizzato. L’apparato è configurato per effettuare tale monitoraggio in particolare ai fini della valutazione dell’apprendimento nell’ambito della robotica educativa. Anche il metodo è un metodo di monitoraggio di tali attività di assemblaggio e programmazione di tale sistema robotizzato, in particolare ai fini della valutazione dell’apprendimento nell’ambito della robotica educativa.
Il sistema robotizzato è indicato con RS in figura 1.
Per le successive spiegazioni, è utile qui considerare un possibile primo utente dell’apparato 1 ed un possibile secondo utente dell’apparato 1. Tale primo utente è uno studente o discente. Tale secondo utente è un insegnante, che effettua una lezione di robotica educativa e che desidera effettuare la valutazione dell’apprendimento del primo utente durante tale lezione. L’apparato e/o il metodo sono intesi a fare in modo che tale valutazione sia più semplice e comoda per l’insegnante.
Il sistema robotizzato RS comprende una unità di controllo CU. Il sistema robotizzato comprende uno o più componenti strutturali C1, C2 e C3. Il numero di tali componenti strutturali, più in generale, può comunque essere un qualunque numero. Con componente strutturale si intende un qualunque elemento tangibile che può essere soggetto ad un movimento rispetto ad un qualunque altro elemento tangibile del sistema robotizzato. Con elemento tangibile può essere inteso un elemento concreto che può avere un qualunque scopo, per esempio quello di produrre un moto di un altro elemento tangibile del sistema robotizzato RS e/o di esercitare una qualunque forza su un altro elemento tangibile del sistema robotizzato RS o verso un elemento o ambiente esterno rispetto al sistema robotizzato RS.
A titolo esemplificativo, con elemento tangibile si può intendere un elemento di presa, una mano meccanica, un piede meccanico, un braccio meccanico, uno spintore, un elemento di attuazione, ecc.…
Il sistema robotizzato RS comprende uno o più elementi di controllo S1, A2, S2, A3, S3. Tali elementi di controllo sono configurati per essere utilizzati nell’ambito del sistema robotizzato RS per il controllo del sistema robotizzato e pertanto per il controllo di uno o più dei suddetti componenti strutturali.
Il numero di tali elementi di controllo, più in generale, può essere un numero qualunque.
Ciascuno degli elementi di controllo può essere, per esempio, un sensore o un attuatore. Ciascuno degli elementi di controllo è associato ad un rispettivo componente strutturale. L’elemento di controllo S1 è un sensore associato al primo componente C1. L’elemento di controllo S2 è un sensore associato al secondo componente C2. L’elemento di controllo A2 è un attuatore associato al secondo componente C2. L’elemento di controllo S3 è un sensore associato al terzo componente C3. L’elemento di controllo A3 è un attuatore associato al terzo componente C3.
Con attuatore associato ad un componente si intende un qualsiasi attuatore operativo sul componente per causare un movimento correlato all’attuatore. Con movimento correlato all’attuatore si intende un movimento del componente a cui l’attuatore è associato rispetto ad almeno un altro componente del sistema robotizzato RS. Con sensore associato ad un componente si intende un qualsiasi sensore posizionato rispetto al componente in modo da poter rilevare il valore di una determinata grandezza fisica del sensore. Con grandezza fisica del sensore si intende una grandezza fisica che il sensore operativamente rileva. Tale grandezza del sensore potrebbe essere correlata e/o essere funzione di un movimento del componente a cui il sensore è associato rispetto ad almeno un altro componente del sistema robotizzato RS, oppure un altro tipo di grandezza fisica.
Un sensore potrebbe essere associato ad un componente in modo che la grandezza fisica del sensore, come definita sopra, sia variabile in funzione del movimento correlato ad un attuatore a sua volta associato al medesimo componente. In tal caso, il sensore potrebbe essere un sensore di spostamento rotatorio o di spostamento traslatorio, e l’attuatore associato al medesimo componente potrebbe essere atto a causare tale spostamento rotatorio o traslatorio. Con sensore associato ad un componente si può comunque intendere anche semplicemente un sensore posizionato sul componente. In tal caso, tale sensore potrebbe essere, per esempio, un sensore di temperatura o luce. In quest’ultimo caso, il sensore si può considerare associato al componente in quanto rileva la temperatura o la luce in un ambiente prossimo al componente. Per esempio, il sensore associato S1 associato al primo componente C1 potrebbe essere un sensore di luce posizionato sul primo componente C1. Per esempio, l’attuatore A2 associato al secondo componente C2 potrebbe essere un motore che operativamente causa un movimento del secondo componente C2 rispetto al primo componente C1. Per esempio, il sensore S2 associato al secondo componente C2 potrebbe essere un sensore che operativamente rileva il valore di una grandezza fisica la cui variazione è funzione di tale movimento del secondo componente C2. Per esempio, l’attuatore A3 associato al terzo componente C3 potrebbe essere un motore che operativamente causa un movimento del terzo componente C3 rispetto al secondo componente C2. Per esempio, il sensore S3 associato al terzo componente C3 potrebbe essere un sensore che operativamente rileva il valore di una grandezza fisica la cui variazione è funzione di tale movimento del terzo componente C3.
L’apparato 1 comprende una prima interfaccia utente I1. La prima interfaccia I1 è configurata per permettere al primo utente di creare un programma software P mediante almeno una selezione di blocchi di programmazione.
Tale prima interfaccia I1 può comprendere, per esempio, uno schermo. La prima interfaccia I1 potrebbe essere configurata per esempio per permettere tale selezione mediante almeno visualizzazione su tale schermo di elementi visivi o elementi di immagine. Ciascuno di tali elementi visivi corrisponde ad un rispettivo blocco di programmazione selezionabile dal primo utente. In tal caso i blocchi compaiono sullo schermo come “blocchi visuali”.
L’apparato potrebbe, per esempio, comprendere un dispositivo elettronico di ingresso ID. Tale dispositivo elettronico di ingresso ID comprende detta prima interfaccia I1 ed una unità di programmazione PU. Detta unità di programmazione UP è configurata per creare detto programma sulla base almeno di detta selezione effettuata dal primo utente, e/o di altre scelte di programmazione effettuate dal primo utente mediante la prima interfaccia I1.
Tale dispositivo di ingresso ID potrebbe essere, per esempio, un dispositivo mobile o, per esempio, un PC o, per esempio, un tablet.
L’apparato potrebbe comprendere, per esempio, una connessione di ingresso IC. Tale connessione di ingresso IC è operativamente interposta fra detto dispositivo di ingresso ID e detta unità di controllo CU. Tale connessione di ingresso IC permette a tale primo utente di caricare in detta unità di controllo CU il programma creato, in modo che detto programma creato possa essere eseguito o fatto girare in detta unità di controllo CU.
Tale connessione di ingresso IC potrebbe essere, per esempio, con fili o senza fili.
Il secondo utente, durante la lezione, impartisce al primo utente insegnamenti e/o spiegazioni che ineriscono almeno a come programmare l’unità di controllo CU mediante l’interfaccia I1, e/o a come assemblare o montare i componenti strutturali nel sistema robotizzato RS, e/o a come assemblare o montare gli elementi di controllo nel sistema robotizzato RS, per ottenere una prestabilita procedura di funzionamento del sistema robotizzato RS. Con prestabilita procedura di funzionamento si intende una procedura comprendente una serie di eventi che coinvolgono il sistema robotizzato RS e/o i componenti strutturali del sistema robotizzato RS. Tale prestabilita procedura di funzionamento può in generale variare a seconda per esempio della volontà del secondo utente.
Durante una esercitazione che avviene successivamente alla lezione, il primo utente opera con l’obiettivo di fare in modo che si verifichi automaticamente tale prestabilita procedura di funzionamento. Pertanto, a tal fine il primo utente deve cercare di creare un programma che, quando eseguito nella unità di controllo CU, causi il verificarsi della prestabilita procedura di funzionamento. Inoltre, anche l’assemblaggio e /o montaggio dei componenti strutturali e/o degli elementi di controllo deve essere corretto affinché si verifichi la prestabilita procedura di funzionamento. Ciascuno dei summenzionati blocchi di programmazione, mediante i quali il primo utente può creare il programma mediante la prima interfaccia I1, è associato ad una rispettiva funzione e ad un rispettivo di tali elementi di controllo. Tale rispettiva funzione può essere una qualunque fra un rispettivo gruppo di funzioni.
Nella figura 2 sono mostrati come esempio i blocchi di programmazione B1, B2, B3, B4, B5, B6, B7, B8, B9, B10, B11, B12, e B13. La figura 2 mira ad evidenziare l’associazione di ciascun blocco con la rispettiva funzione e il rispettivo elemento di controllo.
Ciascun blocco di programmazione comprende un rispettivo algoritmo principale ed un rispettivo algoritmo di tracciamento, in modo che l’esecuzione del blocco di programmazione corrisponda all’esecuzione di entrambi tali rispettivo algoritmo principale e rispettivo algoritmo di tracciamento.
Per ciascun blocco di programmazione B, come detto sopra, la prima interfaccia I1 potrebbe essere configurata per permettere al primo utente di selezionare il blocco di programmazione B mediante la visualizzazione di un rispettivo blocco visuale che rappresenta sullo schermo il blocco di programmazione B. In tal caso, ciascun rispettivo blocco visuale visualizzato sullo schermo è pertanto associato ai rispettivi algoritmo principale e algoritmo di tracciamento del rispettivo blocco di programmazione B rappresentato. Ciascuno dei blocchi visuali potrebbe essere denominato anche come “blocco visuale di programmazione”, potendo essere inteso con quest’ultima espressione sia l’elemento di visivo sia l’effettivo blocco di programmazione rappresentato mediante l’elemento visivo.
Nella figura 4 è rappresentato un blocco di programmazione B, che può essere uno qualsiasi dei blocchi di figura 2. La figura 4 mira a mettere in evidenza che il blocco B comprende il rispettivo algoritmo principale, indicato con MA, e il rispettivo algoritmo di tracciamento, indicato con TA. Per ciascun blocco di programmazione B, l’esecuzione del rispettivo algoritmo principale MA nella unità di controllo CU fa in modo che la unità di controllo CU effettui la funzione associata al blocco B rispetto all’elemento di controllo associato al blocco B. Ciò significa che la funzione viene effettuata sull’elemento di controllo associato al blocco e/o mediante interazione con tale elemento di controllo.
Tornando alla figura 2, il blocco B1 è associato al sensore S1 e alla funzione ON. Ciò significa che l’esecuzione dell’algoritmo principale del blocco B1, nella unità di controllo CU, fa in modo che la unità di controllo CU accenda e/o attivi il sensore S1.
Il blocco B2 è associato al sensore S1 e alla funzione “LETTURA”. Ciò significa che l’esecuzione dell’algoritmo principale del blocco B2, nella unità di controllo CU, fa in modo che la unità di controllo CU effettui la lettura del sensore S1.
Con lettura di un sensore si intende l’ottenimento del valore attuale della grandezza fisica del sensore.
Il blocco B3 è associato al sensore S1 e alla funzione “LETTURAS1≤W?”. Ciò significa che l’esecuzione dell’algoritmo principale del blocco B3, nella unità di controllo CU, fa in modo che la unità di controllo CU determini e/o verifichi se il valore attuale della grandezza fisica del sensore S1 è minore o uguale rispetto ad un valore predefinito W.
Con valore predefinito si intende un valore prestabilito al momento dell’esecuzione del programma. Pertanto, un valore predefinito potrebbe essere, per esempio, un valore impostato da un qualsiasi utente.
Il blocco B4 è associato all’attuatore A2 e alla funzione “ON”. Ciò significa che l’esecuzione dell’algoritmo principale del blocco B4, nella unità di controllo CU, fa in modo che la unità di controllo CU accenda e/o attivi e/o azioni l’attuatore A2.
Il blocco B5 è associato all’attuatore A2 e alla funzione “OFF”. Ciò significa che l’esecuzione dell’algoritmo principale del blocco B5, nella unità di controllo CU, fa in modo che la unità di controllo CU spenga e/o disattivi l’attuatore A2.
Il blocco B6 è associato al sensore S2 e alla funzione ON. Ciò significa che l’esecuzione dell’algoritmo principale del blocco B6, nella unità di controllo CU, fa in modo che la unità di controllo CU accenda e/o attivi il sensore S2.
Il blocco B7 è associato al sensore S2 e alla funzione “LETTURA”. Ciò significa che l’esecuzione dell’algoritmo principale del blocco B7, nella unità di controllo CU, fa in modo che la unità di controllo CU effettui la lettura del sensore S2.
Il blocco B8 è associato al sensore S2 e alla funzione “LETTURAS2≤Z?”. Ciò significa che l’esecuzione dell’algoritmo principale del blocco B8, nella unità di controllo CU, fa in modo che la unità di controllo CU determini e/o verifichi se il valore attuale della grandezza fisica del sensore S2 è minore o uguale rispetto ad un valore predefinito Z.
Il blocco B9 è associato all’attuatore A3 e alla funzione “ON”. Ciò significa che l’esecuzione dell’algoritmo principale del blocco B9, nella unità di controllo CU, fa in modo che la unità di controllo CU accenda e/o attivi e/o azioni l’attuatore A3.
Il blocco B10 è associato all’attuatore A3 e alla funzione “OFF”. Ciò significa che l’esecuzione dell’algoritmo principale del blocco B10, nella unità di controllo CU, fa in modo che la unità di controllo CU spenga e/o disattivi l’attuatore A3.
Il blocco B11 è associato al sensore S3 e alla funzione ON. Ciò significa che l’esecuzione dell’algoritmo principale del blocco B11, nella unità di controllo CU, fa in modo che la unità di controllo CU accenda e/o attivi il sensore S3.
Il blocco B12 è associato al sensore S3 e alla funzione “LETTURA”. Ciò significa che l’esecuzione dell’algoritmo principale del blocco B12, nella unità di controllo CU, fa in modo che la unità di controllo CU effettui la lettura del sensore S3.
Il blocco B13 è associato al sensore S3 e alla funzione “LETTURAS3≤Q?”. Ciò significa che l’esecuzione dell’algoritmo principale del blocco B13, nella unità di controllo CU, fa in modo che la unità di controllo CU determini e/o verifichi se il valore attuale della grandezza fisica associata al sensore S3 è minore o uguale rispetto ad un valore predefinito Q.
In Figura 3 è mostrato un diagramma di flusso relativo all’esecuzione di un programma software esemplificativo che potrebbe essere creato mediante i blocchi di Figura 2.
Si fa presente che, in figura 3, con “Y” si intende “si “ e con “N” si intende no.
Pertanto, il programma P fa in modo che si accenda il sensore S1 (B1), e che sia effettuata la lettura del sensore S1 (B2). Se dalla lettura del sensore S1 risulta che il valore attuale della grandezza fisica del sensore S1 è maggiore rispetto al valore W (N), il programma P fa in modo che venga azionato l’attuatore A3 (B9). Altrimenti (Y), il programma fa in modo che sia azionato l’attuatore A2 (B4), sia acceso il sensore S2 (B6), sia letto il sensore S2 (B7), e sia verificato se il valore attuale della grandezza fisica del sensore S2 è minore o uguale rispetto al valore Z (B8). Se il valore attuale della grandezza fisica del sensore S2 è minore o uguale rispetto al valore Z (Y), il programma ritorna alla lettura del sensore S2 (B7). Altrimenti (N), il programma P fa in modo che sia disattivato l’attuatore A2 (B5) e sia azionato l’attuatore A3 (B9).
L’azionamento dell’attuatore A3 (B9) comporta che sia acceso il sensore S3 (B11), che sia letto il sensore S3 (B12), e che sia verificato se il valore attuale della grandezza fisica del sensore S3 è minore o uguale rispetto al valore Q (B13). Se il valore attuale della grandezza fisica del sensore S3 è minore o uguale rispetto al valore Q (Y), il programma P ritorna alla lettura del sensore S3 (B12), altrimenti (N), fa in modo che sia disattivato l’attuatore A3.
Si fa presente che il programma P è esemplificativo, così come tutte le caratteristiche della presente descrizione, nessuna delle quali è atta a limitare l’ambito di protezione della presente domanda di brevetto, che è definito dalle rivendicazioni allegate.
Per ciascun blocco di programmazione B, l’esecuzione del rispettivo algoritmo di tracciamento TA nella unità di controllo CU fa in modo che detta memoria M memorizzi automaticamente almeno un dato indicativo dell’esecuzione stessa del rispettivo algoritmo principale MA e/o indicativo dell’istante temporale di tale esecuzione del rispettivo algoritmo principale MA.
Per ciascun blocco di programmazione B, l’esecuzione del rispettivo algoritmo di tracciamento TA nella unità di controllo CU fa in modo che detta memoria M memorizzi automaticamente almeno un dato indicativo della correttezza o non correttezza dell’esecuzione del rispettivo algoritmo principale MA.
Il termine “indicativo” potrebbe essere inteso come “rappresentativo”. L’apparato 1 comprende una memoria M.
L’apparato 1 comprende una connessione di tracciamento TC. La connessione di tracciamento TC è operativamente interposta fra detta unità di controllo CU e detta memoria M. Tale connessione di tracciamento TC è configurata per trasferire dati e/o segnali dalla unità di controllo CU alla memoria M.
Tale connessione di tracciamento TC può essere , per esempio, con fili o senza fili.
Nella figura 4 la connessione di tracciamento TC è interposta fra il sotto blocco relativo all’algoritmo di tracciamento TA e il blocco relativo alla memoria M, in quanto è attraverso tale connessione di tracciamento TC che avviene il trasferimento alla memoria M dell’almeno un dato indicativo dell’esecuzione dell’algoritmo principale MA, e/o della correttezza (o non correttezza) e/o dell’istante temporale di tale esecuzione dell’algoritmo principale MA.
L’apparato 1 comprende una seconda interfaccia utente I2. La seconda interfaccia I2 è configurata per fornire in uscita al secondo utente informazioni rappresentative dei dati memorizzati in detta memoria M. Tale seconda interfaccia I2 potrebbe comprendere , per esempio, uno schermo. L’apparato comprende un dispositivo elettronico di uscita OD. Il dispositivo elettronico di uscita OD comprende a sua volta detta seconda interfaccia I2.
Tale dispositivo di uscita OD potrebbe essere , per esempio, un dispositivo mobile o , per esempio, un PC o, per esempio, un tablet.
L’apparato 1 comprende una connessione di uscita OC. La connessione di uscita OC è operativamente interposta fra detta memoria M e detto dispositivo di uscita OD. La connessione di uscita OC è configurata per trasferire detti dati da detta memoria M a detto dispositivo di uscita OD, in modo che detta seconda interfaccia I2 possa fornire dette informazioni al secondo utente.
Tale connessione di uscita OC può essere, per esempio, con fili o senza fili.
Mediante la seconda interfaccia I2, il secondo utente può verificare e/o controllare come ha operato il primo utente nella programmazione della unità di controllo, e/o nel montaggio o assemblaggio dei componenti strutturali del sistema robotizzato e/o nel montaggio o assemblaggio degli elementi di controllo, al fine di effettuare un processo di valutazione dell’apprendimento del primo utente durante la lezione.
L’apparato 1 potrebbe comprendere un sistema di programmazione PS che comprende a sua volta detti dispositivo elettronico di ingresso ID e dispositivo elettronico di uscita OD.
Tale sistema di programmazione PS potrebbe essere, per esempio, un unico PC o Tablet o dispositivo mobile, che comprende entrambi tali dispositivo di ingresso ID e dispositivo di uscita OD.
Tali prima interfaccia I1 e seconda interfaccia I2 potrebbero coincidere. Lo schermo di tale prima interfaccia I1 potrebbe coincidere con lo schermo di tale seconda interfaccia I2.
Tale dispositivo di ingresso ID e dispositivo di uscita OD potrebbero coincidere.
Tale connessione di ingresso IC e tale connessione di uscita OC potrebbero coincidere. Tale connessione di ingresso IC e tale connessione di tracciamento TC potrebbero coincidere. Tale connessione di uscita OC e tale connessione di tracciamento TC potrebbero coincidere.
La memoria M potrebbe , per esempio, essere su un cloud. Tale memoria M potrebbe in alternativa appartenere al sistema robotizzato RS. Tale memoria M potrebbe in alternativa appartenere al dispositivo elettronico di uscita OD. Tale memoria M potrebbe in alternativa appartenere al dispositivo elettronico di ingresso ID. Tale memoria potrebbe essere parte di un sistema Internet of Things. Tale memoria M potrebbe essere su un server locale o remoto.
L’apparato 1 potrebbe comprendere, per almeno uno di tali elementi di controllo, un sensore ausiliario associato a tale elemento di controllo. L’apparato potrebbe essere configurato affinché tale sensore ausiliario rilevi l’azionamento e/o l’attivazione dell’elemento di controllo al quale è associato. L’apparato potrebbe essere configurato affinché il sensore ausiliario faccia in modo che la memoria M memorizzi almeno un dato indicativo di tale azionamento e/o di tale attivazione.
Anche la memorizzazione degli azionamenti e/o attivazioni degli uno o più elementi di controllo contribuisce a migliorare il processo di valutazione che il secondo utente desidera effettuare.
Il metodo comprende una fase di montaggio o assemblaggio. Durante tale fase di montaggio o assemblaggio, il primo utente monta e/o assembla il sistema robotizzato RS. Pertanto, durante tale fase di montaggio o assemblaggio il primo utente monta e/o assembla nel sistema robotizzato gli uno o più componenti strutturali e/o gli uno o più elementi di controllo.
Il metodo comprende una fase di programmazione. Durante la fase di programmazione, il primo utente crea il programma P.
Il metodo comprende una fase di esecuzione. Durante la fase di esecuzione, il programma creato P viene eseguito in detta unità di controllo CU.
Il metodo comprende una fase di fornitura. Durante tale fase di fornitura, le summenzionate informazioni vengono fornire al secondo utente.
Il metodo può essere effettuato mediante l’apparato 1.
Per ciascun blocco di programmazione B, l’esecuzione del blocco B corrisponde all’esecuzione di entrambi il rispettivo algoritmo principale MA e il rispettivo algoritmo di tracciamento TA.
Per ciascun blocco B del programma P eseguito, l’esecuzione del rispettivo algoritmo di tracciamento TA nella unità di controllo CU causa la memorizzazione automatica di almeno un dato indicativo dell’esecuzione del rispettivo algoritmo principale MA. Per ciascun blocco B del programma P eseguito, l’esecuzione del rispettivo algoritmo di tracciamento TA nella unità di controllo CU causa la memorizzazione automatica di almeno un dato indicativo dell’istante temporale dell’esecuzione del rispettivo algoritmo principale MA.
Per ciascun blocco B del programma P eseguito, l’esecuzione del rispettivo algoritmo di tracciamento TA nella unità di controllo CU causa la memorizzazione automatica di almeno un dato indicativo della correttezza o non correttezza dell’esecuzione del rispettivo algoritmo principale MA. Grazie alla memorizzazione automatica, per esempio nella memoria M, dei dati indicativi delle esecuzioni e/o degli istanti di esecuzione dei blocchi di programmazione e/o della loro correttezza di esecuzione, il secondo utente può, mediante la seconda interfaccia I2, controllare il processo di apprendimento del primo utente nell’ottenimento della summenzionata procedura di funzionamento.
Infatti, il secondo utente può controllare in che istante di tempo un qualsiasi blocco di programmazione è stato eseguito e/o la sua corretta esecuzione.
Il secondo utente può pertanto verificare come il primo utente ha proceduto nella creazione del programma. Per esempio, il secondo utente può verificare se il primo utente, nella creazione di tale programma, ha proceduto più o meno per tentativi.
Per esempio, il secondo utente può anche verificare se, in un certo istante, è stato eseguito un blocco di programmazione associato ad un elemento di controllo che non era, al momento dell’esecuzione, montato correttamente nel sistema robotizzato RS. In tal caso, infatti, si avrebbe una scorretta esecuzione del blocco, e la memoria memorizzerebbe un dato indicativo della scorretta esecuzione.
Vantaggiosamente, per ciascun blocco di programmazione, l’algoritmo di tracciamento lascia traccia, nella memoria M, della scelta logica e implementativa che lo studente (primo utente) ha attuato durante l’esercitazione.
Tale tracciabilità presenta un alto valore aggiunto per l’insegnante (secondo utente) che viene informato dei tentativi di assemblaggio e di programmazione dello studente durante l’esercitazione.
Inoltre, potrebbe essere che la seconda interfaccia I2 sia configurata per fornire le summenzionate informazioni in tempo reale.
La possibilità di ricevere un feedback immediato della corretta esecuzione dell’assemblaggio e/o della programmazione fa sì che gli studenti siano subito al corrente della corretta esecuzione dell’esercitazione riguardante l’assemblaggio e la programmazione, e che gli insegnanti siano immediatamente a conoscenza, anche durante l’esercitazione stessa, della buona riuscita da parte dello studente.
La tracciabilità dell’assemblaggio e/o della programmazione permette di monitorare e correggere anche l’insegnamento da parte degli insegnanti, qualora le informazioni derivanti dall’assemblaggio e dalla programmazione di più studenti denotino una mancanza di comprensione dell’esercitazione.
La possibilità di accedere in remoto alla memoria di raccolta dati consente agli insegnanti di verificare l’apprendimento della classe, anche a distanza temporale dalla fine dell’esercitazione, e, eventualmente, implementare accorgimenti mirati alla correzione dell’esercitazione.
La memoria M potrebbe essere parte di un sistema esperto capace di raccogliere dati in tempo reale sulle sequenze di esecuzione condotte dallo studente, che permetta di monitorare il suo apprendimento e, di conseguenza, dare suggerimenti di modifica in tempo reale al processo di insegnamento.
L’apparato 1 potrebbe comprendere un sistema esperto di rendicontazione, con maggiore dettaglio, di tutto il processo dell’apprendimento ai fini analitici o di valutazione.
Una procedura di valutazione dell’apprendimento di uno studente durante una lezione di robotica educativa può comprendere ripetere per almeno due volte una sequenza operativa.
Tale sequenza operativa comprende tale lezione, durante la quale detto secondo utente impartisce al primo utente insegnamenti su come effettuare detta fase di montaggio e detta fase di programmazione.
Tale sequenza operativa comprende effettuare tale metodo.
Tale sequenza operativa comprende una fase di valutazione, durante la quale il secondo utente valuta e/o controlla dette informazioni fornite, eventualmente confrontandole con quelle fornite durante sequenze operative effettuate in precedenza.
In tal modo l’apparato, che può essere usato per effettuare il metodo, viene usato per monitorare l’evoluzione dell’apprendimento, mediante confronto dei dati raccolti nel ripetersi dell’esercitazione.
Il metodo e l’apparato possono essere usati anche per diagnosticare deficit cognitivi o malattie in relazione a deficit cognitivi: l’apparato può essere , per esempio, utilizzato nel chiedere , per esempio, ad un paziente, che sarebbe in tal caso il primo utente, di costruire il sistema robotizzato, e nel visualizzare i dati memorizzati in relazione ad un riferimento standard.
Il metodo e l’apparato possono essere usati anche in situazioni di riabilitazione motoria o cognitiva: l’apparato può essere , per esempio, utilizzato nel chiedere al paziente in riabilitazione di costruire il sistema robotizzato e nel visualizzare i dati memorizzati in relazione ad un riferimento standard o ad una situazione precedente.

Claims (14)

  1. RIVENDICAZIONI 1. Apparato di monitoraggio (1) delle attività di assemblaggio e programmazione di un sistema robotizzato (RS), comprendente: - un sistema robotizzato (RS) che comprende una unità di controllo (CU), uno o più componenti strutturali (C1, C2, C3), ed uno o più elementi di controllo (S1, S2, A2, S2, A3, S3) dei componenti strutturali, ciascuno di detti elementi di controllo potendo essere un sensore o un attuatore associato ad un rispettivo componente strutturale; - una prima interfaccia utente (I1) configurata per permettere ad un primo utente creare un programma software (P) mediante almeno una selezione di blocchi visuali di programmazione (B1, B2, B3, B4, B5, B6, B7, B8, B9, B10, B11, B12, B13), ciascuno di tali blocchi visuali di programmazione essendo associato ad una rispettiva funzione e ad un rispettivo di tali elementi di controllo, detta rispettiva funzione potendo essere una fra un rispettivo gruppo di funzioni; - una memoria (M); - una seconda interfaccia utente (I2) configurata per fornire in uscita ad un secondo utente informazioni rappresentative di detti dati memorizzati in detta memoria (M); - una connessione di tracciamento (TC), operativamente interposta fra detta unità di controllo (CU) e detta memoria (M) per trasferire detti dati da detta unità di controllo (CU) a detta memoria (M); - in cui, per ciascun blocco di programmazione (B), il blocco (B) comprende un rispettivo algoritmo principale (MA) ed un rispettivo algoritmo di tracciamento (TA), in modo che l’esecuzione del blocco (B) corrisponda all’esecuzione di entrambi tali algoritmo principale (MA) e algoritmo di tracciamento (TA); - in cui l’apparato è configurato affinché, per ciascun blocco di programmazione (B), l’esecuzione del rispettivo algoritmo principale (MA) nella unità di controllo (CU) faccia in modo che la unità di controllo (CU) effettui la funzione associata al blocco (B) rispetto all’elemento di controllo associato al blocco (B); - in cui l’apparato è configurato affinché, per ciascun blocco (B), l’esecuzione del rispettivo algoritmo di tracciamento (TA) nella unità di controllo (CU) fa in modo che detta memoria (M) memorizzi automaticamente almeno un dato indicativo dell’esecuzione del rispettivo algoritmo principale (MA).
  2. 2. Apparato di monitoraggio (1) in accordo alla rivendicazione 1, in cui l’apparato è configurato affinché, per ciascun blocco (B), l’esecuzione del rispettivo algoritmo di tracciamento (TA) nella unità di controllo (CU) faccia in modo che detta memoria (M) memorizzi automaticamente almeno un dato indicativo dell’istante temporale dell’esecuzione del rispettivo algoritmo principale (MA).
  3. 3. Apparato di monitoraggio (1) in accordo alla rivendicazione 1 o 2, in cui l’apparato (1) è configurato affinché, per ciascun blocco (B), l’esecuzione del rispettivo algoritmo di tracciamento (TA) nella unità di controllo (CU) faccia in modo che detta memoria (M) memorizzi automaticamente almeno un dato indicativo della correttezza o non correttezza dell’esecuzione del rispettivo algoritmo principale (MA).
  4. 4. Apparato di monitoraggio (1) in accordo alla rivendicazione 3, in cui, per ciascun blocco (B), il rispettivo gruppo di funzioni comprende una funzione di azionamento (ON) del rispettivo elemento di controllo, in modo che, per ciascun blocco, l’esecuzione del rispettivo algoritmo di tracciamento (TA) faccia in modo che tale memoria (M) memorizzi l’azionamento o il mancato azionamento dell’elemento di controllo associato al blocco (B).
  5. 5. Apparato di monitoraggio (1) in accordo ad una o più delle rivendicazioni precedenti, comprendente, per almeno uno di tali elementi di controllo, un sensore ausiliario associato a tale elemento di controllo, l’apparato essendo configurato affinché tale sensore ausiliario rilevi l’azionamento di tale elemento di controllo.
  6. 6. Apparato di monitoraggio (1) in accordo ad una o più delle rivendicazioni precedenti, in cui detta memoria (M) appartiene a detto sistema robotizzato (RS).
  7. 7. Apparato di monitoraggio (1) in accordo ad una o più delle rivendicazioni precedenti, comprendente: - un dispositivo elettronico di ingresso (ID) che comprende detta prima interfaccia (I1) ed una unità di programmazione (PU), detta unità di programmazione essendo configurata per creare detto programma (P) sulla base almeno di detta selezione; - una connessione di ingresso (IC) operativamente interposta fra detto dispositivo di ingresso (ID), per permettere a detto utente di caricare detto programma in detta unità di controllo (CU), in modo che detto programma possa essere eseguito in detta unità di controllo (CU).
  8. 8. Apparato di monitoraggio (1) in accordo ad una o più delle rivendicazioni precedenti, comprendente: - un dispositivo elettronico di uscita (OD) che comprende a sua volta detta seconda interfaccia (I2); - una connessione di uscita (OC) operativamente interposta fra detta memoria e detto dispositivo di uscita (OD), per trasferire detti dati da detta memoria (M) a detto dispositivo di uscita (OD), in modo che detta seconda interfaccia (I2) possa fornire dette informazioni.
  9. 9. Apparato di monitoraggio (1) in accordo alle rivendicazioni 7 e 8, comprendente un sistema di programmazione (PS) che comprende a sua volta detti dispositivo elettronico di ingresso (ID) e dispositivo elettronico di uscita (OD).
  10. 10. Metodo di monitoraggio (1) delle attività di assemblaggio e programmazione di un sistema robotizzato (RS), comprendente: - una fase di montaggio, durante la quale un primo utente monta un sistema robotizzato (RS) che comprende una unità di controllo (CU), uno o più componenti strutturali (C1, C2, C3), ed uno o più elementi di controllo (S1, S2, A2, S2, A3, S3) dei componenti strutturali, ciascuno di detti elementi di controllo potendo essere un sensore o un attuatore associato ad un rispettivo componente strutturale; - una fase di programmazione durante la quale detto primo utente crea un programma (P) mediante almeno una selezione di blocchi visuali di programmazione (B1, B2, B3, B4, B5, B6, B7, B8, B9, B10, B11, B12, B13), ciascuno di tali blocchi visuali di programmazione essendo associato ad una rispettiva funzione e ad un rispettivo di tali elementi di controllo, detta rispettiva funzione potendo essere una fra un rispettivo gruppo di funzioni; - una fase di esecuzione durante la quale il programma creato (P) viene eseguito in una unità di controllo (CU); - in cui, per ciascun blocco (B), il blocco (B) comprende un rispettivo algoritmo principale (MA) ed un rispettivo algoritmo di tracciamento (TA), in modo che l’esecuzione del blocco (B) corrisponda all’esecuzione di entrambi tali algoritmo principale (MA) e algoritmo di tracciamento (TA);- in cui, per ciascun blocco (B) del programma (P) eseguito, l’esecuzione del rispettivo algoritmo principale (MA) nella unità di controllo (CU) fa in modo che la unità di controllo (CU) effettui la funzione associata al blocco (B) rispetto all’elemento di controllo associato al blocco (B); - in cui, per ciascun blocco (B) del programma (P) eseguito, l’esecuzione del rispettivo algoritmo di tracciamento (TA) nella unità di controllo (CU) causa la memorizzazione automatica di almeno un dato indicativo dell’esecuzione del rispettivo algoritmo principale (MA); - in cui il metodo comprende una fase di fornitura ad un secondo utente di informazioni correlate ai dati memorizzati.
  11. 11. Metodo in accordo alla rivendicazione 10, in cui, per ciascun blocco (B) del programma (P) eseguito, l’esecuzione del rispettivo algoritmo di tracciamento (TA) nella unità di controllo (CU) causa la memorizzazione automatica di almeno un dato indicativo dell’istante temporale dell’esecuzione del rispettivo algoritmo principale (MA).
  12. 12. Metodo in accordo alla rivendicazione 10 o 11, in cui per ciascun blocco (B) del programma (P) eseguito, l’esecuzione del rispettivo algoritmo di tracciamento (TA) nella unità di controllo (CU) causa la memorizzazione automatica di almeno un dato indicativo della correttezza o non correttezza dell’ esecuzione del rispettivo algoritmo principale (MA).
  13. 13. Metodo di monitoraggio in accordo ad una o più delle rivendicazioni dalla 10 alla 12, in cui il metodo è effettuato mediante un apparato in accordo ad una o più delle rivendicazioni dalla 1 alla 9.
  14. 14. Procedura di valutazione dell’apprendimento di uno studente durante una lezione di robotica educativa mediante un metodo in accordo ad una o più delle rivendicazioni dalla 10 alla 13, comprendente ripetere per almeno due volte una sequenza operativa che comprende: - effettuare tale lezione, durante la quale detto secondo utente impartisce a detto primo utente insegnamenti su come effettuare detta fase di montaggio e detta fase di programmazione; - effettuare un metodo in accordo ad una o più delle rivendicazioni dalla 10 alla 13; - una fase di valutazione, durante la quale detto secondo utente valuta e/o controlla dette informazioni fornite, eventualmente confrontandole con quelle fornite durante sequenze operative effettuate in precedenza.
IT102018000009636A 2018-10-19 2018-10-19 Apparato di monitoraggio di operazioni di assemblaggio e programmazione. IT201800009636A1 (it)

Priority Applications (3)

Application Number Priority Date Filing Date Title
IT102018000009636A IT201800009636A1 (it) 2018-10-19 2018-10-19 Apparato di monitoraggio di operazioni di assemblaggio e programmazione.
EP19801103.3A EP3867897A1 (en) 2018-10-19 2019-10-17 An apparatus for monitoring the assembly and programming activities of a robotized system
PCT/IB2019/058872 WO2020079644A1 (en) 2018-10-19 2019-10-17 An apparatus for monitoring the assembly and programming activities of a robotized system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT102018000009636A IT201800009636A1 (it) 2018-10-19 2018-10-19 Apparato di monitoraggio di operazioni di assemblaggio e programmazione.

Publications (1)

Publication Number Publication Date
IT201800009636A1 true IT201800009636A1 (it) 2020-04-19

Family

ID=67875793

Family Applications (1)

Application Number Title Priority Date Filing Date
IT102018000009636A IT201800009636A1 (it) 2018-10-19 2018-10-19 Apparato di monitoraggio di operazioni di assemblaggio e programmazione.

Country Status (3)

Country Link
EP (1) EP3867897A1 (it)
IT (1) IT201800009636A1 (it)
WO (1) WO2020079644A1 (it)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140170633A1 (en) * 2012-12-14 2014-06-19 Kelvin Voon-Kit Chong Programming learning center
US20160379519A1 (en) * 2014-06-12 2016-12-29 Play-i, Inc. System and method for toy visual programming
US20170053550A1 (en) * 2015-08-20 2017-02-23 Smart Kiddo Education Limited Education System using Connected Toys

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140170633A1 (en) * 2012-12-14 2014-06-19 Kelvin Voon-Kit Chong Programming learning center
US20160379519A1 (en) * 2014-06-12 2016-12-29 Play-i, Inc. System and method for toy visual programming
US20170053550A1 (en) * 2015-08-20 2017-02-23 Smart Kiddo Education Limited Education System using Connected Toys

Also Published As

Publication number Publication date
WO2020079644A1 (en) 2020-04-23
EP3867897A1 (en) 2021-08-25

Similar Documents

Publication Publication Date Title
Popli et al. Cost and effort estimation in agile software development
Jonassen et al. Learning to troubleshoot: A new theory-based design architecture
Boring et al. Digital full-scope simulation of a conventional nuclear power plant control room, phase 2: installation of a reconfigurable simulator to support nuclear plant sustainability
Rombach et al. Teaching disciplined software development
Fossland et al. Modeling As-is, Ought-to-be and To-be-Experiences from a Case study in the Health Sector.
Rong et al. Scrum-psp: Embracing process agility and discipline
Schreckenghost et al. Human performance with procedure automation to manage spacecraft systems
IT201800009636A1 (it) Apparato di monitoraggio di operazioni di assemblaggio e programmazione.
Villagomez et al. Laboratory of intelligent operational decisions: A proposal for learning digital and smart manufacturing concepts
Auricht et al. How to consider emotional reactions of the driver within the development of Advanced Driver Assistance Systems (ADAS)?
Mueller et al. An economical approach to usability testing
Klein et al. Agile engineering in mechatronic education: Interdisciplinary development of a mechatronic system using Scrum
Kleebaum et al. Teaching rationale management in agile project courses
Yee et al. Prospective validation of virtual design and construction methods
JP2023012591A (ja) 作業者評価支援システム及び作業者評価支援方法
Mendoza et al. Project based learning experiences for embedded systems design
Kind et al. Application of industrial methods in engineering education
JP2005339030A (ja) 保全作業能力向上支援システム
Burgos et al. Training proposal based on MeiA to face automation challenges
JP2017523045A (ja) 手溶接作業を監視し、特徴付けるための方法及びシステム
Lande et al. Introducing a" Ways of Thinking" framework for student engineers learning to do design
Ho et al. Prospective validation of virtual design and construction methods: framework, application, and implementation guidelines
Davey Prioritizing Human-Centered Design: Integrating Ergonomics and Medical Device Development for Optimal User Experience
Ping et al. Integrating CDIO skills and technical knowledge from different modules in a project
Borisov et al. User interface design for test and diagnosis software in automotive production environments