ITTO20110530A1 - Sistema di interfaccia per interazione uomo-macchina - Google Patents

Sistema di interfaccia per interazione uomo-macchina Download PDF

Info

Publication number
ITTO20110530A1
ITTO20110530A1 IT000530A ITTO20110530A ITTO20110530A1 IT TO20110530 A1 ITTO20110530 A1 IT TO20110530A1 IT 000530 A IT000530 A IT 000530A IT TO20110530 A ITTO20110530 A IT TO20110530A IT TO20110530 A1 ITTO20110530 A1 IT TO20110530A1
Authority
IT
Italy
Prior art keywords
user
sensors
actuators
management unit
arrangement
Prior art date
Application number
IT000530A
Other languages
English (en)
Inventor
Andrea Brogni
Darwin G Caldwell
Stefano Cordasco
Marco Gaudina
Alessio Margan
Gianluca Pane
Original Assignee
Fond Istituto Italiano Di Tecnologia
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fond Istituto Italiano Di Tecnologia filed Critical Fond Istituto Italiano Di Tecnologia
Priority to IT000530A priority Critical patent/ITTO20110530A1/it
Priority to US14/125,848 priority patent/US20140114445A1/en
Priority to EP12738201.8A priority patent/EP2721464A1/en
Priority to PCT/IB2012/052972 priority patent/WO2012172487A1/en
Priority to IN232DEN2014 priority patent/IN2014DN00232A/en
Priority to RU2014101148/08A priority patent/RU2014101148A/ru
Priority to CN201280039911.4A priority patent/CN103748532A/zh
Priority to KR1020147001018A priority patent/KR20140053954A/ko
Priority to BR112013032189A priority patent/BR112013032189A2/pt
Priority to JP2014515324A priority patent/JP2014519669A/ja
Publication of ITTO20110530A1 publication Critical patent/ITTO20110530A1/it

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B15/00Systems controlled by a computer
    • G05B15/02Systems controlled by a computer electric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user

Description

"Sistema di interfaccia per interazione uomomacchina"
DESCRIZIONE
La presente invenzione si riferisce ad un sistema di interfaccia per interazione uomo-macchina, comprendente
una disposizione di sensori ed attuatori indossabile od accoppiabile al corpo di un utilizzatore; ed
un’unità di gestione governante detta disposizione di sensori ed attuatori, e predisposta per scambiare dati con un’applicazione di controllo residente su un sistema di elaborazione remoto, in modo tale da trasmettere a detta applicazione dati indicativi dei movimenti dell’utilizzatore in un ambiente fisico, ed in modo tale da trasmettere all’utilizzatore sensazioni localizzate in almeno un punto del corpo dell’utilizzatore, indicative dell’interazione dell’utilizzatore con un ambiente operativo generato od almeno controllato da detto sistema di elaborazione;
in cui detta disposizione di sensori ed attuatori comprende almeno una rete di sensori, i quali sono atti a rilevare dati di misurazione indicativi dei movimenti dei sensori in detto ambiente fisico ed a fornire detti dati di misurazione all’applicazione di controllo tramite l’unità di gestione, ed almeno una rete di attuatori, i quali sono atti ad indurre in detto almeno un punto del corpo dell’utilizzatore almeno una sensazione indicativa dell’interazione dell’utilizzatore in detto ambiente operativo, in funzione di dati di istruzione ricevuti dall’applicazione di controllo tramite l’unità di gestione.
Un sistema di questo tipo à ̈ descritto ad esempio nella pubblicazione EP 1 533 678, riguardante un sistema a feedback aptico per ambienti di gioco ed intrattenimento. Tale sistema noto prevede attuatori e sensori applicati su un capo di abbigliamento od altro accessorio indossabile da un utilizzatore. Le possibilità di impiego di un sistema siffatto sono condizionate dallo specifico posizionamento della rete di attuatori e sensori sul capo di abbigliamento o sull’accessorio.
Uno scopo dell’invenzione à ̈ quello di rendere disponibile un sistema di interfaccia che permetta di conseguire una maggior versatilità, flessibilità ed adattabilità alle condizioni di impiego, rispetto ai sistemi noti.
In vista di tale scopo, costituisce oggetto dell’invenzione un sistema del tipo definito all’inizio, in cui detti sensori ed attuatori sono supportati da una pluralità di moduli operativi, affacciati ad almeno un canale di comunicazione attraverso rispettive coppie di porte di comunicazione di ingresso ed uscita ed operativamente collegati a detta unità di gestione mediante detto canale di comunicazione, in cui detti moduli operativi sono provvisti di mezzi di interconnessione in modo tale per cui detti moduli operativi sono assemblabili l’uno all’altro secondo una disposizione planare e/o una disposizione impilata.
Secondo tale idea di soluzione, i moduli operativi supportanti i sensori e gli attuatori possono essere assemblati a piacere per ottenere aggregati di moduli operativi, o “molecole†, in grado di rilevare una serie di differenti dati di misurazione in determinati punti di rilevamento del corpo dell’utilizzatore, e/o di somministrare all’utilizzatore una combinazione di stimoli tattili, od altri stimoli, in modo localizzato in determinati punti di stimolazione del corpo dell’utilizzatore.
Vantaggiosamente, secondo una forma di realizzazione preferita dell’invenzione il funzionamento dei sensori ed attuatori à ̈ configurabile dall’utilizzatore mediante un sistema di elaborazione ed attraverso detta unità di gestione, in funzione del posizionamento di detti sensori ed attuatori sul corpo dell’utilizzatore ed in funzione della desiderata interazione dell’utilizzatore con l’ambiente operativo generato od almeno controllato dal sistema di elaborazione.
Forma inoltre oggetto dell’invenzione un sistema di interazione uomo-macchina, comprendente
un sistema di elaborazione atto ad eseguire un’applicazione di controllo, ed
un’interfaccia comprendente
- una disposizione di sensori ed attuatori indossabile od accoppiabile al corpo di un utilizzatore; ed
- un’unità di gestione governante detta disposizione di sensori ed attuatori, e predisposta per scambiare dati con detta applicazione di controllo, in modo tale da trasmettere a detta applicazione dati indicativi dei movimenti dell’utilizzatore in un ambiente fisico, ed in modo tale da trasmettere all’utilizzatore sensazioni localizzate in almeno un punto del corpo dell’utilizzatore, indicative dell’interazione dell’utilizzatore con un ambiente operativo generato od almeno controllato da detto sistema di elaborazione;
in cui detta disposizione di sensori ed attuatori comprende almeno una rete di sensori, i quali sono atti a rilevare dati di misurazione indicativi dei movimenti dei sensori in detto ambiente fisico ed a fornire detti dati di misurazione all’applicazione di controllo tramite l’unità di gestione, ed almeno una rete di attuatori, i quali sono atti ad indurre almeno una sensazione indicativa dell’interazione del soggetto in detta realtà virtuale, in funzione di dati di istruzione ricevuti dall’applicazione di controllo tramite l’unità di gestione;
in cui detti sensori ed attuatori sono supportati da una pluralità di moduli operativi, affacciati ad almeno un canale di comunicazione attraverso rispettive coppie di porte di comunicazione di ingresso ed uscita ed operativamente collegati a detta unità di gestione mediante detto canale di comunicazione, in cui detti moduli operativi sono provvisti di mezzi di interconnessione in modo tale per cui detti moduli operativi sono assemblabili l’uno all’altro secondo una disposizione planare e/o una disposizione impilata.
Ulteriori caratteristiche e vantaggi del sistema secondo l'invenzione risulteranno evidenti dalla descrizione dettagliata che segue, effettuata con riferimento ai disegni annessi, forniti a puro titolo di esempio non limitativo, in cui:
- la figura 1 à ̈ una rappresentazione schematica in pianta di un modulo operativo di un sistema di interfaccia secondo l’invenzione;
- le figure 2 e 3 sono rappresentazioni schematiche di una pluralità di moduli operativi come quello di figura 1, assemblati in due configurazioni differenti; e
- la figura 4 à ̈ una rappresentazione schematica di un sistema di interazione uomo-macchina secondo l’invenzione.
Con riferimento alle figure, ed in particolare alla figura 4, un sistema di interfaccia per interazione uomo-macchina à ̈ indicato complessivamente con 10.
Tale sistema 10 comprende una disposizione di sensori ed attuatori 12 indossabile od accoppiabile al corpo B di un utilizzatore. Tale disposizione 12 può ad esempio essere fissata ad un capo di abbigliamento, ad un accessorio indossabile, ad un attrezzo, e così via.
Il sistema 10 comprende inoltre un’unità di gestione 14 governante la disposizione di sensori ed attuatori 12, e predisposta per scambiare dati con un’applicazione di controllo residente su un sistema di elaborazione PS remoto, in modo tale da trasmettere all’applicazione dati indicativi dei movimenti dell’utilizzatore in un ambiente fisico, ed in modo tale da trasmettere all’utilizzatore sensazioni localizzate in almeno un punto del corpo dell’utilizzatore, indicative dell’interazione dell’utilizzatore con un ambiente operativo generato od almeno controllato dal sistema di elaborazione PS.
Secondo una forma di attuazione dell’invenzione, tale ambiente operativo può essere costituito da una realtà virtuale generata dal sistema di elaborazione. Secondo un’altra forma di attuazione, l’ambiente operativo suddetto può essere costituito da un’applicazione software, ad esempio un’applicazione CAD o CAM. Secondo un’ulteriore forma di attuazione, l’ambiente operativo può essere costituito da un ambiente fisico controllato dal sistema di elaborazione, come nel caso del controllo di dispositivi robotici.
La disposizione di sensori ed attuatori comprende almeno una rete di sensori, i quali sono atti a rilevare dati di misurazione indicativi dei movimenti dei sensori nell’ambiente fisico ed a fornire tali dati di misurazione all’applicazione di controllo tramite l’unità di gestione 14, ed almeno una rete di attuatori, i quali sono atti ad indurre almeno una sensazione indicativa dell’interazione del soggetto nella realtà virtuale, in funzione di dati di istruzione ricevuti dall’applicazione di controllo tramite l’unità di gestione 14.
I sensori e gli attuatori suddetti sono supportati da una pluralità di moduli operativi 16, uno dei quali à ̈ rappresentato singolarmente ed in maniera schematica in figura 1. Tali moduli operativi 16 sono affacciati ad almeno un canale di comunicazione attraverso rispettive coppie di porte di comunicazione di ingresso ed uscita e sono operativamente collegati all’unità di gestione 14 mediante il canale di comunicazione suddetto. Tale canale di comunicazione può essere ad esempio un bus di comunicazione, od una rete mesh wireless.
Con riferimento alla figura 1, ciascun modulo operativo 16 à ̈ costituito da un elemento a piastra avente forma di poligono regolare, in particolare da una scheda a circuito stampato (PCB) di forma esagonale. I moduli operativi 16 sono provvisti di mezzi di interconnessione meccanica 18 in modo tale per cui tali moduli operativi 16 sono assemblabili l’uno all’altro secondo una disposizione planare, come illustrato nelle figure 2 e 4, e/o una disposizione impilata, come illustrato in figura 3.
Ciascuno degli elementi a piastra 16 presenta una pluralità di connettori elettrici di connessione laterale 19a, 19b, rispettivamente maschio e femmina, posizionati in modo alternato sui lati del perimetro poligonale dell’elemento a piastra 16.
Inoltre, ciascuno degli elementi a piastra 16 presenta (almeno) una coppia di connettori elettrici di connessione verticale 19c, maschio e femmina (il connettore femmina non à ̈ visibile in figura), rispettivamente posizionati su facce opposte dell’elemento a piastra 16.
Vantaggiosamente, i mezzi di interconnessione 18 sono forniti dagli stessi connettori elettrici 19a, 19b, 19c dell’elemento a piastra. Secondo modi di realizzazione alternativi, tali mezzi di interconnessione potrebbero essere costituiti da dispositivi indipendenti dai connettori elettrici.
Ai fini della presente invenzione, con “moduli operativi assemblabili l’uno all’altro†si intende che i mezzi di interconnessione sono configurati in modo da permettere l’interconnessione fisica diretta fra moduli operativi, qualora ciò sia richiesto dalle circostanze. Tale interconnessione può essere ottenuta ad esempio con mezzi meccanici, quali dispositivi di accoppiamento a scatto, oppure con mezzi magnetici. Naturalmente, a seconda delle esigenze tali mezzi di interconnessione possono essere impiegati anche in cooperazione con elementi mediatori, ad esempio cavi flessibili, per realizzare un’interconnessione fisica mediata fra i moduli.
Da un punto di vista circuitale, ciascun modulo operativo si appoggia ad un rispettivo microcontrollore. Gli inventori hanno realizzato dei prototipi di moduli operativi con connettori elettrici laterali a 6 pin, con la seguente configurazione a livello PIN:
Vcc
GND
I2C SDA (data)
I2C SCL (clock)
Tx UART
Rx UART
Sono stati invece impiegati connettori verticali da 10 pin, con la stessa configurazione di quelli laterali ma con l’aggiunta di 4 canali per consentire il flash del bootloader (MISO, MOSI, RESET, CLK), ma che possono essere usati anche per l’upload di un programma.
Come sopra affermato, i sensori e gli attuatori del sistema di interfaccia sono supportati dai moduli operativi 16. In figura 1 à ̈ rappresentato un modulo operativo che supporta sia un sensore, indicato con 22, che un attuatore, indicato con 24. Chiaramente, ciascuno dei moduli operativi 16 può essere realizzato come un’unità di rilevamento supportante esclusivamente uno o più sensori, oppure come un’unità di attuazione supportante esclusivamente uno o più attuatori.
A livello prototipale gli inventori hanno realizzato le seguenti unità hardware.
Unità di gestione, od unità Master
Tale unità à ̈ rappresentata in figura 4, ed indicata con 14. Da un punto di vista strutturale, anch’essa à ̈ vantaggiosamente realizzata come un modulo operativo di forma analoga a quella dei moduli operativi 16 supportanti i sensori e gli attuatori, ed à ̈ provvista di mezzi di interconnessione meccanica per realizzare con tali moduli operativi configurazioni di interconnessione planare o verticale. Nel prototipo realizzato dagli inventori tale unità si differenzia dagli altri moduli per la presenza di un Bus Multiplexer e per il fatto che i suoi connettori sono divisi in BUS I2C distinti, utili alla connessione di fino a 127 unità per singolo BUS. Come sopra indicato, l’unità Master si occupa di gestire l’intero sistema per guanto riguarda la comunicazione dati fra i moduli operativi 16 ed il sistema di elaborazione PS remoto.
Unità di comunicazione seriale
Tale unità, non rappresentata nelle figure, da un punto di vista strutturale à ̈ vantaggiosamente realizzata come un modulo operativo di forma analoga a quella dei moduli operativi 16 supportanti i sensori e gli attuatori, ed à ̈ provvista di mezzi di interconnessione per realizzare con tali moduli operativi configurazioni di interconnessione planare o verticale. Questa unità consente la comunicazione via seriale del sistema di interfaccia 10 con il sistema di elaborazione PS. A livello prototipale tale unità à ̈ stata realizzata con un’interfaccia USB.
Unità di comunicazione wireless
Tale unità, non rappresentata nelle figure, da un punto di vista strutturale à ̈ vantaggiosamente realizzata come un modulo operativo di forma analoga a quella dei moduli operativi 16 supportanti i sensori e gli attuatori, ed à ̈ provvista di mezzi di interconnessione per realizzare con tali moduli operativi configurazioni di interconnessione planare o verticale. Tale unità consente la comunicazione wireless del sistema di interfaccia 10 con il sistema di elaborazione PS. A livello prototipale tale unità à ̈ stata realizzata con un dispositivo ZigBee.
Naturalmente possono essere previsti ulteriori tipi di unità di comunicazione, ad esempio con dispositivi WiFi, Bluetooth, o con modem GPRS.
Unità di attuazione
Tale unità, genericamente indicata con 16 nelle figure, à ̈ dotata di uno o più attuatori per indurre almeno una sensazione indicativa dell’interazione del soggetto nella realtà virtuale generata dal sistema di elaborazione, in funzione di dati di istruzione ricevuti dall’unità di gestione 14. A livello prototipale una tale unità à ̈ stata realizzata con due motori per la vibrazione, una cella di Peltier ed un motore a corrente continua, ed à ̈ stata dotata di due ponti H per il controllo di due segnali PWM (Pulse Width Modulation).
Naturalmente possono essere previsti anche altri tipi di attuatori, ad esempio attuatori fluidici. Altri dispositivi di attuazione possono essere dispositivi di rilascio di liquido o di effetti quali fumo o ritorno di forza.
Unità hole
Tale unità à ̈ un’unità di attuazione come quella sopra descritta, ma provvista di un foro centrale che consente il movimento di parti meccaniche, come un cursore per il feedback tattile.
Unità di rilevamento
Tale unità, genericamente indicata con 16 nelle figure, à ̈ dotata di uno o più sensori per rilevare dati di misurazione indicativi dei movimenti dei sensori nell’ambiente fisico ed a fornire tali dati di misurazione all’unità di gestione 14. A livello prototipale una tale unità à ̈ stata realizzata con un accelerometro, che fornisce in uscita il vettore di orientazione nello spazio tridimensionale; la localizzazione nello spazio dei moduli operativi à ̈ ottenuta mediante un sistema di tracking esterno, in particolare di tipo ottico, gestito dal sistema di elaborazione PS.
Naturalmente possono essere previsti ulteriori tipi di sensori, quali ad esempio sensori di temperatura, di campo magnetico, di umidità, di forza, flessione, o sensori luminosi. Per la localizzazione spaziale dei moduli operativi, in alternativa al sistema di tracking à ̈ possibile prevedere di dotare tali moduli di rispettive unità di posizionamento.
Unità di alimentazione
Tale unità provvede all’alimentazione elettrica del sistema di interfaccia. A livello prototipale tale unità à ̈ stata realizzata con una sede per l’inserimento di batterie.
Naturalmente possono essere previsti altri mezzi di alimentazione, ad esempio una connessione ad una rete elettrica esterna, od una sorgente autonoma quale una sorgente fotovoltaica.
Oltre alle unità sopra elencate possono essere presenti unità con altre funzioni, quali ad esempio unità di memoria di massa, od unità di input/output non tattile provviste di microfono, micro-speaker, mini-display o micro-camera.
Inoltre, differenti funzioni possono essere integrate nella medesima unità/modulo operativo; ad esempio, nell’unità di gestione/Master 14 può essere integrato un dispositivo di comunicazione wireless. In questo caso, à ̈ possibile rinunciare ad un’unità di comunicazione wireless dedicata. Come ulteriore esempio, l’unità di gestione/Master 14 può essere anch’essa dotata di un attuatore e/o di un sensore.
Possono altresì essere presenti più unità Master, ciascuna delle quali gestisce proprie reti di attuatori e sensori; in questo caso à ̈ possibile prevedere un’unità di gestione/supermaster con funzioni di routing. In tale ambito, à ̈ anche possibile prevedere una rete formata da sole unità Master, ciascuna delle quali essendo dotata di propri attuatori e/o sensori.
Nel sistema prototipale realizzato dagli inventori ogni unità può essere programmata, ed à ̈ gestita da un sistema operativo real time che consente al sistema di interfaccia di poter eseguire più task in contemporanea.
All’interno dell’unità Master sono stati di base configurati i seguenti task:
- Task di comunicazione, ovvero la gestione delle comunicazioni via seriale e via I2C;
- Task di data polling, ovvero l’interrogazione ciclica di tutte le unità per conoscere il loro stato.
All’interno dell’unità di attuazione prototipale sono presenti i seguenti task:
- Task di controllo temperatura - Ã ̈ stato implementato un controllore PID, di tipo base, per la gestione della temperatura rispetto ad un determinato SetPoint;
- Task di raggiungimento posizione – questo task à ̈ adibito alla gestione della posizione del motore DC, mediante tabella di Look-Up ed in ciclo aperto.
All’interno dell’unità di rilevamento prototipale sono presenti i seguenti task:
- Task di calcolo orientazione – acquisiti i valori analogici dell’accelerometro viene calcolato il vettore di orientamento.
In generale, à ̈ possibile creare task specifici per ogni unità fino al riempimento totale della memoria RAM disponibile.
Nel sistema prototipale sopra descritto la comunicazione fra sistema di interfaccia 10 e sistema di elaborazione PS avviene principalmente in due modalità: via seriale cablata oppure via wireless. La comunicazione inter-unità avviene invece via protocollo I2C e ad ogni unità à ̈ assegnato un indirizzo unico. La comunicazione di dati avviene utilizzando il seguente protocollo dati:
$ TipoComando│IndirizzoUnità│ValoreComando # Possono essere gestiti comandi singoli oppure Macro di comandi al fine di eseguire operazioni in tempo reale eventualmente dipendenti l’una dall’altra (ad esempio nel caso di un insieme complesso di stimoli sensoriali da somministrare all’utilizzatore).
Come detto sopra, i moduli operativi sono programmabili, e quindi il funzionamento dei sensori e degli attuatori à ̈ configurabile e ri-configurabile dall’utilizzatore mediante il sistema di elaborazione PS ed attraverso l’unità di gestione 14, in funzione del posizionamento desiderato dei sensori e degli attuatori sul corpo dell’utilizzatore ed in funzione della desiderata interazione dell’utilizzatore con la realtà virtuale generata dal sistema di elaborazione.
La configurazione e ri-configurazione dei moduli operativi può avvenire programmandoli manualmente mediante l’uso di un compilatore, o mediante una procedura di riconoscimento ottico o con RFID. La procedura di riconoscimento ottico od RFID à ̈ preferibile in quanto non richiede all’utilizzatore particolare esperienza di programmazione.
Un esempio di procedura riconoscimento ottico à ̈ il seguente.
L’utilizzatore mostra un modulo operativo 16 ad una telecamera del sistema di elaborazione PS e ne sceglie di conseguenza la possibilità di utilizzo, posizionando il modulo operativo sulla parte del corpo da lui desiderata. Se per esempio à ̈ stata utilizzata un’unità per la generazione di uno stimolo tattile posizionata sull’avambraccio, un’applicazione software simulante cubi che escono dallo schermo del sistema di elaborazione porterà il modulo operativo a generare uno stimolo tattile quando un cubo entrerà in contatto virtuale con il braccio dell’utilizzatore.
Un altro esempio à ̈ il seguente.
L’utilizzatore assembla l’unità Master 14 con più moduli operativi 16 atti a generare sensazioni di contatto, stimolo termico e vibrazione, per simulare l’uso di un’arma da fuoco. L’utilizzatore mostra quindi l’assieme di tali moduli, o molecola, ad una telecamera, e lo posiziona tramite un sistema di ancoraggio su un dito. Tale sequenza può essere ripetuta per quante dita si desidera. A questo punto l’utilizzatore interagisce con le caratteristiche dell’oggetto virtuale, in questo caso l’arma da fuoco. Afferrando l’arma virtuale, l’utilizzatore avrà la sensazione di contatto, mentre premendo il grilletto virtuale avrà la sensazione di vibrazione e di calore, in determinati punti operativi dipendenti dal posizionamento dei moduli operativi responsabili di tali sensazioni.

Claims (9)

  1. RIVENDICAZIONI 1. Sistema di interfaccia (10) per interazione uomo-macchina, comprendente una disposizione di sensori ed attuatori (12) indossabile od accoppiabile al corpo (B) di un utilizzatore; ed almeno un’unità di gestione (14) governante detta disposizione di sensori ed attuatori, e predisposta per scambiare dati con un’applicazione di controllo residente su un sistema di elaborazione (PS) remoto, in modo tale da trasmettere a detta applicazione dati indicativi dei movimenti dell’utilizzatore in un ambiente fisico, ed in modo tale da trasmettere all’utilizzatore sensazioni localizzate in almeno un punto del corpo dell’utilizzatore, indicative dell’interazione dell’utilizzatore con un ambiente operativo generato od almeno controllato da detto sistema di elaborazione; in cui detta disposizione di sensori ed attuatori comprende almeno una rete di sensori (22), i quali sono atti a rilevare dati di misurazione indicativi dei movimenti dei sensori in detto ambiente fisico ed a fornire detti dati di misurazione all’applicazione di controllo tramite l’unità di gestione (14), ed almeno una rete di attuatori (24), i quali sono atti ad indurre in detto almeno un punto del corpo dell’utilizzatore almeno una sensazione indicativa dell’interazione dell’utilizzatore con detto ambiente operativo, in funzione di dati di istruzione ricevuti dall’applicazione di controllo tramite l’unità di gestione (14); caratterizzato dal fatto che detti sensori ed attuatori sono supportati da una pluralità di moduli operativi (16), affacciati ad almeno un canale di comunicazione attraverso rispettive coppie di porte di comunicazione di ingresso ed uscita ed operativamente collegati a detta unità di gestione mediante detto canale di comunicazione, in cui detti moduli operativi sono provvisti di mezzi di interconnessione (18) in modo tale per cui detti moduli operativi sono assemblabili l’uno all’altro secondo una disposizione planare e/o una disposizione impilata.
  2. 2. Sistema secondo la rivendicazione 1, in cui detti moduli operativi sono costituiti da elementi a piastra, e detti mezzi di interconnessione sono disposti su uno o più connettori elettrici previsti su ciascuno di detti elementi a piastra.
  3. 3. Sistema secondo la rivendicazione 1 o 2, in cui detti moduli operativi sono costituiti da elementi a piastra aventi forma di poligono regolare, ciascuno di detti elementi a piastra presentando una pluralità di connettori elettrici di connessione laterale, maschi e femmina (19a, 19b), posizionati in modo alternato sui lati del perimetro poligonale dell’elemento a piastra (16).
  4. 4. Sistema secondo una delle rivendicazioni 1 a 3, in cui ciascuno di detti elementi a piastra presenta almeno una coppia di connettori elettrici di connessione verticale, maschio e femmina (19c), rispettivamente posizionati su facce opposte dell’elemento a piastra (16).
  5. 5. Sistema di interazione uomo-macchina, comprendente un sistema di elaborazione (PS) atto ad eseguire un’applicazione di controllo, ed un’interfaccia (10) comprendente - una disposizione di sensori ed attuatori (12) indossabile od accoppiabile al corpo (B) di un utilizzatore; ed - almeno un’unità di gestione (14) governante detta disposizione di sensori ed attuatori, e predisposta per scambiare dati con detta appli cazione di controllo, in modo tale da trasmettere a detta applicazione dati indicativi dei movimenti dell’utilizzatore in un ambiente fisico, ed in modo tale da trasmettere all’utilizzatore sensazioni localizzate in almeno un punto del corpo dell’utilizzatore, indicative dell’interazione dell’utilizzatore con un ambiente operativo generato od almeno controllato da detto sistema di elaborazione; in cui detta disposizione di sensori ed attuatori comprende almeno una rete di sensori (22), i quali sono atti a rilevare dati di misurazione indicativi dei movimenti dei sensori in detto ambiente fisico ed a fornire detti dati di misurazione all’applicazione di controllo tramite l’unità di gestione (14), ed almeno una rete di attuatori (24), i quali sono atti ad indurre in detto almeno un punto del corpo dell’utilizzatore almeno una sensazione indicativa dell’interazione dell’utilizzatore con detto ambiente operativo, in funzione di dati di istruzione ricevuti dall’applicazione di controllo tramite l’unità di gestione (14); caratterizzato dal fatto che detti sensori ed attuatori sono supportati da una pluralità di moduli operativi (16), affacciati ad almeno un canale di comunicazione attraverso rispettive coppie di porte di comunicazione di ingresso ed uscita ed operativamente collegati a detta unità di gestione mediante detto canale di comunicazione, in cui detti moduli operativi sono provvisti di mezzi di interconnessione (18) in modo tale per cui detti moduli operativi sono assemblabili l’uno all’altro secondo una disposizione planare e/o una disposizione impilata.
  6. 6. Sistema secondo la rivendicazione 5, in cui detti moduli operativi sono costituiti da elementi a piastra, e detti mezzi di interconnessione sono disposti su uno o più connettori elettrici previsti su ciascuno di detti elementi a piastra.
  7. 7. Sistema secondo la rivendicazione 5 o 6, in cui detti moduli operativi sono costituiti da elementi a piastra aventi forma di poligono regolare, ciascuno di detti elementi a piastra presentando una pluralità di connettori elettrici di connessione laterale, maschi e femmina (19a, 19b), posizionati in modo alternato sui lati del perimetro poligonale dell’elemento a piastra (16).
  8. 8. Sistema secondo una delle rivendicazioni 5 a 7, in cui ciascuno di detti elementi a piastra presenta almeno una coppia di connettori elettrici di connessione verticale, maschio e femmina (19c), rispettivamente posizionati su facce opposte dell’elemento a piastra (16).
  9. 9. Sistema secondo una delle rivendicazioni da 5 a 8, in cui il funzionamento di detti sensori ed attuatori à ̈ configurabile dall’utilizzatore mediante detto sistema di elaborazione ed attraverso detta unità di gestione, in funzione del posizionamento desiderato di detti sensori ed attuatori sul corpo (B) dell’utilizzatore ed in funzione della desiderata interazione dell’utilizzatore con l’ambiente operativo generato od almeno controllato dal sistema di elaborazione.
IT000530A 2011-06-16 2011-06-16 Sistema di interfaccia per interazione uomo-macchina ITTO20110530A1 (it)

Priority Applications (10)

Application Number Priority Date Filing Date Title
IT000530A ITTO20110530A1 (it) 2011-06-16 2011-06-16 Sistema di interfaccia per interazione uomo-macchina
US14/125,848 US20140114445A1 (en) 2011-06-16 2012-06-13 Interface system for man-machine interaction
EP12738201.8A EP2721464A1 (en) 2011-06-16 2012-06-13 An interface system for man-machine interaction
PCT/IB2012/052972 WO2012172487A1 (en) 2011-06-16 2012-06-13 An interface system for man-machine interaction
IN232DEN2014 IN2014DN00232A (it) 2011-06-16 2012-06-13
RU2014101148/08A RU2014101148A (ru) 2011-06-16 2012-06-13 Интерфейсная система для человеко-машинного взаимодействия
CN201280039911.4A CN103748532A (zh) 2011-06-16 2012-06-13 用于人机交互的接口系统
KR1020147001018A KR20140053954A (ko) 2011-06-16 2012-06-13 인간­기계간 상호 작용하는 인터페이스 시스템
BR112013032189A BR112013032189A2 (pt) 2011-06-16 2012-06-13 sistema de interface para a interação homem-máquina
JP2014515324A JP2014519669A (ja) 2011-06-16 2012-06-13 人間と機械の相互作用のためのインターフェースシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT000530A ITTO20110530A1 (it) 2011-06-16 2011-06-16 Sistema di interfaccia per interazione uomo-macchina

Publications (1)

Publication Number Publication Date
ITTO20110530A1 true ITTO20110530A1 (it) 2012-12-17

Family

ID=44555159

Family Applications (1)

Application Number Title Priority Date Filing Date
IT000530A ITTO20110530A1 (it) 2011-06-16 2011-06-16 Sistema di interfaccia per interazione uomo-macchina

Country Status (10)

Country Link
US (1) US20140114445A1 (it)
EP (1) EP2721464A1 (it)
JP (1) JP2014519669A (it)
KR (1) KR20140053954A (it)
CN (1) CN103748532A (it)
BR (1) BR112013032189A2 (it)
IN (1) IN2014DN00232A (it)
IT (1) ITTO20110530A1 (it)
RU (1) RU2014101148A (it)
WO (1) WO2012172487A1 (it)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102277752B1 (ko) 2014-01-06 2021-07-16 삼성전자주식회사 웨어러블 기기를 이용한 홈 디바이스 제어 장치 및 제어 방법
WO2015102467A1 (ko) * 2014-01-06 2015-07-09 삼성전자 주식회사 웨어러블 기기를 이용한 홈 디바이스 제어 장치 및 제어 방법
KR102335766B1 (ko) 2014-10-08 2021-12-06 삼성전자주식회사 생체 신호를 검출하는 센서를 착탈할 수 있는 웨어러블 디바이스 및 웨어러블 디바이스를 제어하는 방법
IT201700072559A1 (it) 2017-06-28 2017-09-28 Trama S R L Interfaccia aptica
CN107763585B (zh) * 2017-11-02 2020-02-11 上海华成实业有限公司 一种远程led灯人机交互控制器
US11392203B2 (en) * 2018-03-27 2022-07-19 Sony Corporation Information processing apparatus, information processing method, and program
US20220035454A1 (en) * 2018-11-14 2022-02-03 Sony Group Corporation Information processing system, tactile presentation apparatus, tactile presentation method, and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5568356A (en) * 1995-04-18 1996-10-22 Hughes Aircraft Company Stacked module assembly including electrically interconnected switching module and plural electronic modules
US20030227374A1 (en) * 2002-06-10 2003-12-11 Ling Sho-Hung Welkin Modular electrotactile system and method
US20060254369A1 (en) * 2005-05-12 2006-11-16 Euisik Yoon Flexible modular sensor systems
WO2009060366A2 (en) * 2007-11-05 2009-05-14 Fondazione Istituto Italiano Di Tecnologia Tactile sensor arrangement and corresponding sensory system

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6500210B1 (en) * 1992-09-08 2002-12-31 Seattle Systems, Inc. System and method for providing a sense of feel in a prosthetic or sensory impaired limb
JPH0720978A (ja) * 1993-07-05 1995-01-24 Sony Corp 仮想体感装置
ATE264087T1 (de) * 1995-07-28 2004-04-15 Cardiotronics Int Inc Elektrodermale wegwerfvorrichtung
AU2001249990A1 (en) * 2000-02-16 2001-08-27 Charles Stark Draper Laboratory Balance prosthesis
US6741911B2 (en) * 2000-09-20 2004-05-25 John Castle Simmons Natural robot control
US6769313B2 (en) * 2001-09-14 2004-08-03 Paricon Technologies Corporation Flexible tactile sensor
WO2004053782A1 (en) * 2002-12-12 2004-06-24 Danfoss A/S Tactile sensor element and sensor array
US6826640B1 (en) * 2003-06-04 2004-11-30 Digi International Inc. Bus bandwidth control system
US20040254503A1 (en) * 2003-06-13 2004-12-16 Sarvazyan Armen P. Internet-based system and a method for automated analysis of tactile imaging data and detection of lesions
EP1524586A1 (en) * 2003-10-17 2005-04-20 Sony International (Europe) GmbH Transmitting information to a user's body
EP1533678A1 (en) 2003-11-24 2005-05-25 Sony International (Europe) GmbH Physical feedback channel for entertaining or gaming environments
US7167781B2 (en) * 2004-05-13 2007-01-23 Lee Hugh T Tactile device and method for providing information to an aircraft or motor vehicle or equipment operator
US7117030B2 (en) * 2004-12-02 2006-10-03 The Research Foundation Of State University Of New York Method and algorithm for spatially identifying sources of cardiac fibrillation
US8299905B2 (en) * 2005-02-10 2012-10-30 Quentin King System for applying tactile stimulation to the controller of unmanned vehicles
CA2621713C (en) * 2005-09-07 2016-01-26 Amx Llc Method and computer program for device configuration
JP4868347B2 (ja) * 2005-09-12 2012-02-01 国立大学法人 東京大学 触覚センサ用モジュールおよび触覚センサの実装方法
KR101010528B1 (ko) * 2005-12-28 2011-01-24 혼다 기켄 고교 가부시키가이샤 로봇의 외피
US8581700B2 (en) * 2006-02-28 2013-11-12 Panasonic Corporation Wearable device
SE529656C2 (sv) * 2006-05-23 2007-10-16 Vibsec Ab Metod och system för övervakning av manuell styrning av dynamiska system
US8049591B2 (en) * 2006-08-31 2011-11-01 Korea Research Institute Of Standards And Science Tactile sensor for curved surface and manufacturing method thereof
KR20080029676A (ko) * 2006-09-29 2008-04-03 한국전자통신연구원 접촉 감각 정보 제공 장치
JP4926799B2 (ja) * 2006-10-23 2012-05-09 キヤノン株式会社 情報処理装置、情報処理方法
FR2916869B1 (fr) * 2007-06-01 2009-09-11 Dav Sa Dispositif de commande tactile a retour haptique
US8031172B2 (en) * 2007-10-12 2011-10-04 Immersion Corporation Method and apparatus for wearable remote interface device
EP2277096A1 (en) * 2008-05-09 2011-01-26 Koninklijke Philips Electronics N.V. Method and system for conveying an emotion
US8482381B2 (en) * 2008-07-31 2013-07-09 Palm, Inc. Multi-purpose detector-based input feature for a computing device
KR101014263B1 (ko) * 2008-09-04 2011-02-16 삼성전기주식회사 촉각 센서
TWI385366B (zh) * 2009-03-03 2013-02-11 Univ Nat Taiwan 觸覺感測陣列及其製造方法
KR101051349B1 (ko) * 2009-06-02 2011-07-22 한국표준과학연구원 초광대역 무선통신 기능을 갖는 촉각센서모듈 및 그 촉각센서모듈을 이용한 초광대역 무선통신방법
US8638236B2 (en) * 2010-02-25 2014-01-28 Qualcomm Incorporated Methods and apparatus for applying tactile pressure sensors
US8316719B2 (en) * 2010-11-12 2012-11-27 President And Fellows Of Harvard College Stretchable two-dimensional pressure sensor
US20120119920A1 (en) * 2010-11-12 2012-05-17 Extra Sensory Technology, L.C. Portable sensory devices
FR2976110B1 (fr) * 2011-05-30 2014-01-17 Commissariat Energie Atomique Dispositif d'affichage a surface deformable et a capteurs de position
US8552847B1 (en) * 2012-05-01 2013-10-08 Racing Incident Pty Ltd. Tactile based performance enhancement system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5568356A (en) * 1995-04-18 1996-10-22 Hughes Aircraft Company Stacked module assembly including electrically interconnected switching module and plural electronic modules
US20030227374A1 (en) * 2002-06-10 2003-12-11 Ling Sho-Hung Welkin Modular electrotactile system and method
US20060254369A1 (en) * 2005-05-12 2006-11-16 Euisik Yoon Flexible modular sensor systems
WO2009060366A2 (en) * 2007-11-05 2009-05-14 Fondazione Istituto Italiano Di Tecnologia Tactile sensor arrangement and corresponding sensory system

Also Published As

Publication number Publication date
EP2721464A1 (en) 2014-04-23
US20140114445A1 (en) 2014-04-24
JP2014519669A (ja) 2014-08-14
IN2014DN00232A (it) 2015-06-05
CN103748532A (zh) 2014-04-23
WO2012172487A1 (en) 2012-12-20
KR20140053954A (ko) 2014-05-08
BR112013032189A2 (pt) 2016-12-13
RU2014101148A (ru) 2015-07-27

Similar Documents

Publication Publication Date Title
ITTO20110530A1 (it) Sistema di interfaccia per interazione uomo-macchina
Ha et al. Development of open humanoid platform DARwIn-OP
ATE539391T1 (de) Konfigurationssystem und -verfahren für eine roboteroperator-steuereinheit
EP2871544A3 (en) Interface for data exchange between industrial controllers and simulation applications for simulating a machine
HK1120605A1 (en) Multiple configuration electronic thermometer
CN104149081B (zh) 一种模块化的手持式双操作端主机器人
JP2008515541A5 (it)
WO2007138704A8 (ja) 設備機器管理システム、その制御方法並びに設備機器管理装置
ES2750698T3 (es) Sistema para puesta en marcha virtual
EP2578364A3 (en) Robot system
Alagupandi et al. Smart irrigation system for outdoor environment using Tiny OS
MX2014002826A (es) Tarjeta madre textil con diseño modular e intercambiable para monitoreo, informacion y control.
Braumann et al. Digital and physical tools for industrial robots in architecture: robotic interaction and interfaces
ITTV20070123A1 (it) Apparato per l'automazione delle funzionalita' operative di uno o piu' carichi di uno spazio ambientale.
CN201837883U (zh) 一种生产车间集中监控系统
WO2016205880A1 (en) Modular electronics system
Dalef et al. Development of wireless controlling and monitoring system for robotic hand using Zigbee protocol
JP2006262636A5 (it)
JP2015534401A5 (it)
Diaconescu et al. Towards a General Framework for Modeling, Simulating and Building Sensor/Actuator Systems and Robots for the Web of Things.
CN106781974A (zh) 拼装式仿真设备
CN206154317U (zh) 一种可扩充的模块化教育机器人控制系统
Sharma et al. Stage-wise Development of a Remote Controlled Robotic Arm
CN203298440U (zh) 基于半实物仿真的空调自控系统
ITVR20120057A1 (it) Apparecchiatura di gestione domotica dell'energia