ITTO20110530A1 - Sistema di interfaccia per interazione uomo-macchina - Google Patents
Sistema di interfaccia per interazione uomo-macchina Download PDFInfo
- Publication number
- ITTO20110530A1 ITTO20110530A1 IT000530A ITTO20110530A ITTO20110530A1 IT TO20110530 A1 ITTO20110530 A1 IT TO20110530A1 IT 000530 A IT000530 A IT 000530A IT TO20110530 A ITTO20110530 A IT TO20110530A IT TO20110530 A1 ITTO20110530 A1 IT TO20110530A1
- Authority
- IT
- Italy
- Prior art keywords
- user
- sensors
- actuators
- management unit
- arrangement
- Prior art date
Links
- 230000003993 interaction Effects 0.000 title claims description 22
- 238000004891 communication Methods 0.000 claims description 32
- 238000012545 processing Methods 0.000 claims description 25
- 230000035807 sensation Effects 0.000 claims description 15
- 238000005259 measurement Methods 0.000 claims description 13
- 238000001514 detection method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000001939 inductive effect Effects 0.000 description 3
- 238000000034 method Methods 0.000 description 3
- 230000004807 localization Effects 0.000 description 2
- 230000000638 stimulation Effects 0.000 description 2
- 235000015429 Mirabilis expansa Nutrition 0.000 description 1
- 244000294411 Mirabilis expansa Species 0.000 description 1
- 238000004873 anchoring Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 230000001404 mediated effect Effects 0.000 description 1
- 235000013536 miso Nutrition 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B15/00—Systems controlled by a computer
- G05B15/02—Systems controlled by a computer electric
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
Description
"Sistema di interfaccia per interazione uomomacchina"
DESCRIZIONE
La presente invenzione si riferisce ad un sistema di interfaccia per interazione uomo-macchina, comprendente
una disposizione di sensori ed attuatori indossabile od accoppiabile al corpo di un utilizzatore; ed
un’unità di gestione governante detta disposizione di sensori ed attuatori, e predisposta per scambiare dati con un’applicazione di controllo residente su un sistema di elaborazione remoto, in modo tale da trasmettere a detta applicazione dati indicativi dei movimenti dell’utilizzatore in un ambiente fisico, ed in modo tale da trasmettere all’utilizzatore sensazioni localizzate in almeno un punto del corpo dell’utilizzatore, indicative dell’interazione dell’utilizzatore con un ambiente operativo generato od almeno controllato da detto sistema di elaborazione;
in cui detta disposizione di sensori ed attuatori comprende almeno una rete di sensori, i quali sono atti a rilevare dati di misurazione indicativi dei movimenti dei sensori in detto ambiente fisico ed a fornire detti dati di misurazione all’applicazione di controllo tramite l’unità di gestione, ed almeno una rete di attuatori, i quali sono atti ad indurre in detto almeno un punto del corpo dell’utilizzatore almeno una sensazione indicativa dell’interazione dell’utilizzatore in detto ambiente operativo, in funzione di dati di istruzione ricevuti dall’applicazione di controllo tramite l’unità di gestione.
Un sistema di questo tipo à ̈ descritto ad esempio nella pubblicazione EP 1 533 678, riguardante un sistema a feedback aptico per ambienti di gioco ed intrattenimento. Tale sistema noto prevede attuatori e sensori applicati su un capo di abbigliamento od altro accessorio indossabile da un utilizzatore. Le possibilità di impiego di un sistema siffatto sono condizionate dallo specifico posizionamento della rete di attuatori e sensori sul capo di abbigliamento o sull’accessorio.
Uno scopo dell’invenzione à ̈ quello di rendere disponibile un sistema di interfaccia che permetta di conseguire una maggior versatilità , flessibilità ed adattabilità alle condizioni di impiego, rispetto ai sistemi noti.
In vista di tale scopo, costituisce oggetto dell’invenzione un sistema del tipo definito all’inizio, in cui detti sensori ed attuatori sono supportati da una pluralità di moduli operativi, affacciati ad almeno un canale di comunicazione attraverso rispettive coppie di porte di comunicazione di ingresso ed uscita ed operativamente collegati a detta unità di gestione mediante detto canale di comunicazione, in cui detti moduli operativi sono provvisti di mezzi di interconnessione in modo tale per cui detti moduli operativi sono assemblabili l’uno all’altro secondo una disposizione planare e/o una disposizione impilata.
Secondo tale idea di soluzione, i moduli operativi supportanti i sensori e gli attuatori possono essere assemblati a piacere per ottenere aggregati di moduli operativi, o “molecole†, in grado di rilevare una serie di differenti dati di misurazione in determinati punti di rilevamento del corpo dell’utilizzatore, e/o di somministrare all’utilizzatore una combinazione di stimoli tattili, od altri stimoli, in modo localizzato in determinati punti di stimolazione del corpo dell’utilizzatore.
Vantaggiosamente, secondo una forma di realizzazione preferita dell’invenzione il funzionamento dei sensori ed attuatori à ̈ configurabile dall’utilizzatore mediante un sistema di elaborazione ed attraverso detta unità di gestione, in funzione del posizionamento di detti sensori ed attuatori sul corpo dell’utilizzatore ed in funzione della desiderata interazione dell’utilizzatore con l’ambiente operativo generato od almeno controllato dal sistema di elaborazione.
Forma inoltre oggetto dell’invenzione un sistema di interazione uomo-macchina, comprendente
un sistema di elaborazione atto ad eseguire un’applicazione di controllo, ed
un’interfaccia comprendente
- una disposizione di sensori ed attuatori indossabile od accoppiabile al corpo di un utilizzatore; ed
- un’unità di gestione governante detta disposizione di sensori ed attuatori, e predisposta per scambiare dati con detta applicazione di controllo, in modo tale da trasmettere a detta applicazione dati indicativi dei movimenti dell’utilizzatore in un ambiente fisico, ed in modo tale da trasmettere all’utilizzatore sensazioni localizzate in almeno un punto del corpo dell’utilizzatore, indicative dell’interazione dell’utilizzatore con un ambiente operativo generato od almeno controllato da detto sistema di elaborazione;
in cui detta disposizione di sensori ed attuatori comprende almeno una rete di sensori, i quali sono atti a rilevare dati di misurazione indicativi dei movimenti dei sensori in detto ambiente fisico ed a fornire detti dati di misurazione all’applicazione di controllo tramite l’unità di gestione, ed almeno una rete di attuatori, i quali sono atti ad indurre almeno una sensazione indicativa dell’interazione del soggetto in detta realtà virtuale, in funzione di dati di istruzione ricevuti dall’applicazione di controllo tramite l’unità di gestione;
in cui detti sensori ed attuatori sono supportati da una pluralità di moduli operativi, affacciati ad almeno un canale di comunicazione attraverso rispettive coppie di porte di comunicazione di ingresso ed uscita ed operativamente collegati a detta unità di gestione mediante detto canale di comunicazione, in cui detti moduli operativi sono provvisti di mezzi di interconnessione in modo tale per cui detti moduli operativi sono assemblabili l’uno all’altro secondo una disposizione planare e/o una disposizione impilata.
Ulteriori caratteristiche e vantaggi del sistema secondo l'invenzione risulteranno evidenti dalla descrizione dettagliata che segue, effettuata con riferimento ai disegni annessi, forniti a puro titolo di esempio non limitativo, in cui:
- la figura 1 à ̈ una rappresentazione schematica in pianta di un modulo operativo di un sistema di interfaccia secondo l’invenzione;
- le figure 2 e 3 sono rappresentazioni schematiche di una pluralità di moduli operativi come quello di figura 1, assemblati in due configurazioni differenti; e
- la figura 4 à ̈ una rappresentazione schematica di un sistema di interazione uomo-macchina secondo l’invenzione.
Con riferimento alle figure, ed in particolare alla figura 4, un sistema di interfaccia per interazione uomo-macchina à ̈ indicato complessivamente con 10.
Tale sistema 10 comprende una disposizione di sensori ed attuatori 12 indossabile od accoppiabile al corpo B di un utilizzatore. Tale disposizione 12 può ad esempio essere fissata ad un capo di abbigliamento, ad un accessorio indossabile, ad un attrezzo, e così via.
Il sistema 10 comprende inoltre un’unità di gestione 14 governante la disposizione di sensori ed attuatori 12, e predisposta per scambiare dati con un’applicazione di controllo residente su un sistema di elaborazione PS remoto, in modo tale da trasmettere all’applicazione dati indicativi dei movimenti dell’utilizzatore in un ambiente fisico, ed in modo tale da trasmettere all’utilizzatore sensazioni localizzate in almeno un punto del corpo dell’utilizzatore, indicative dell’interazione dell’utilizzatore con un ambiente operativo generato od almeno controllato dal sistema di elaborazione PS.
Secondo una forma di attuazione dell’invenzione, tale ambiente operativo può essere costituito da una realtà virtuale generata dal sistema di elaborazione. Secondo un’altra forma di attuazione, l’ambiente operativo suddetto può essere costituito da un’applicazione software, ad esempio un’applicazione CAD o CAM. Secondo un’ulteriore forma di attuazione, l’ambiente operativo può essere costituito da un ambiente fisico controllato dal sistema di elaborazione, come nel caso del controllo di dispositivi robotici.
La disposizione di sensori ed attuatori comprende almeno una rete di sensori, i quali sono atti a rilevare dati di misurazione indicativi dei movimenti dei sensori nell’ambiente fisico ed a fornire tali dati di misurazione all’applicazione di controllo tramite l’unità di gestione 14, ed almeno una rete di attuatori, i quali sono atti ad indurre almeno una sensazione indicativa dell’interazione del soggetto nella realtà virtuale, in funzione di dati di istruzione ricevuti dall’applicazione di controllo tramite l’unità di gestione 14.
I sensori e gli attuatori suddetti sono supportati da una pluralità di moduli operativi 16, uno dei quali à ̈ rappresentato singolarmente ed in maniera schematica in figura 1. Tali moduli operativi 16 sono affacciati ad almeno un canale di comunicazione attraverso rispettive coppie di porte di comunicazione di ingresso ed uscita e sono operativamente collegati all’unità di gestione 14 mediante il canale di comunicazione suddetto. Tale canale di comunicazione può essere ad esempio un bus di comunicazione, od una rete mesh wireless.
Con riferimento alla figura 1, ciascun modulo operativo 16 à ̈ costituito da un elemento a piastra avente forma di poligono regolare, in particolare da una scheda a circuito stampato (PCB) di forma esagonale. I moduli operativi 16 sono provvisti di mezzi di interconnessione meccanica 18 in modo tale per cui tali moduli operativi 16 sono assemblabili l’uno all’altro secondo una disposizione planare, come illustrato nelle figure 2 e 4, e/o una disposizione impilata, come illustrato in figura 3.
Ciascuno degli elementi a piastra 16 presenta una pluralità di connettori elettrici di connessione laterale 19a, 19b, rispettivamente maschio e femmina, posizionati in modo alternato sui lati del perimetro poligonale dell’elemento a piastra 16.
Inoltre, ciascuno degli elementi a piastra 16 presenta (almeno) una coppia di connettori elettrici di connessione verticale 19c, maschio e femmina (il connettore femmina non à ̈ visibile in figura), rispettivamente posizionati su facce opposte dell’elemento a piastra 16.
Vantaggiosamente, i mezzi di interconnessione 18 sono forniti dagli stessi connettori elettrici 19a, 19b, 19c dell’elemento a piastra. Secondo modi di realizzazione alternativi, tali mezzi di interconnessione potrebbero essere costituiti da dispositivi indipendenti dai connettori elettrici.
Ai fini della presente invenzione, con “moduli operativi assemblabili l’uno all’altro†si intende che i mezzi di interconnessione sono configurati in modo da permettere l’interconnessione fisica diretta fra moduli operativi, qualora ciò sia richiesto dalle circostanze. Tale interconnessione può essere ottenuta ad esempio con mezzi meccanici, quali dispositivi di accoppiamento a scatto, oppure con mezzi magnetici. Naturalmente, a seconda delle esigenze tali mezzi di interconnessione possono essere impiegati anche in cooperazione con elementi mediatori, ad esempio cavi flessibili, per realizzare un’interconnessione fisica mediata fra i moduli.
Da un punto di vista circuitale, ciascun modulo operativo si appoggia ad un rispettivo microcontrollore. Gli inventori hanno realizzato dei prototipi di moduli operativi con connettori elettrici laterali a 6 pin, con la seguente configurazione a livello PIN:
Vcc
GND
I2C SDA (data)
I2C SCL (clock)
Tx UART
Rx UART
Sono stati invece impiegati connettori verticali da 10 pin, con la stessa configurazione di quelli laterali ma con l’aggiunta di 4 canali per consentire il flash del bootloader (MISO, MOSI, RESET, CLK), ma che possono essere usati anche per l’upload di un programma.
Come sopra affermato, i sensori e gli attuatori del sistema di interfaccia sono supportati dai moduli operativi 16. In figura 1 à ̈ rappresentato un modulo operativo che supporta sia un sensore, indicato con 22, che un attuatore, indicato con 24. Chiaramente, ciascuno dei moduli operativi 16 può essere realizzato come un’unità di rilevamento supportante esclusivamente uno o più sensori, oppure come un’unità di attuazione supportante esclusivamente uno o più attuatori.
A livello prototipale gli inventori hanno realizzato le seguenti unità hardware.
Unità di gestione, od unità Master
Tale unità à ̈ rappresentata in figura 4, ed indicata con 14. Da un punto di vista strutturale, anch’essa à ̈ vantaggiosamente realizzata come un modulo operativo di forma analoga a quella dei moduli operativi 16 supportanti i sensori e gli attuatori, ed à ̈ provvista di mezzi di interconnessione meccanica per realizzare con tali moduli operativi configurazioni di interconnessione planare o verticale. Nel prototipo realizzato dagli inventori tale unità si differenzia dagli altri moduli per la presenza di un Bus Multiplexer e per il fatto che i suoi connettori sono divisi in BUS I2C distinti, utili alla connessione di fino a 127 unità per singolo BUS. Come sopra indicato, l’unità Master si occupa di gestire l’intero sistema per guanto riguarda la comunicazione dati fra i moduli operativi 16 ed il sistema di elaborazione PS remoto.
Unità di comunicazione seriale
Tale unità , non rappresentata nelle figure, da un punto di vista strutturale à ̈ vantaggiosamente realizzata come un modulo operativo di forma analoga a quella dei moduli operativi 16 supportanti i sensori e gli attuatori, ed à ̈ provvista di mezzi di interconnessione per realizzare con tali moduli operativi configurazioni di interconnessione planare o verticale. Questa unità consente la comunicazione via seriale del sistema di interfaccia 10 con il sistema di elaborazione PS. A livello prototipale tale unità à ̈ stata realizzata con un’interfaccia USB.
Unità di comunicazione wireless
Tale unità , non rappresentata nelle figure, da un punto di vista strutturale à ̈ vantaggiosamente realizzata come un modulo operativo di forma analoga a quella dei moduli operativi 16 supportanti i sensori e gli attuatori, ed à ̈ provvista di mezzi di interconnessione per realizzare con tali moduli operativi configurazioni di interconnessione planare o verticale. Tale unità consente la comunicazione wireless del sistema di interfaccia 10 con il sistema di elaborazione PS. A livello prototipale tale unità à ̈ stata realizzata con un dispositivo ZigBee.
Naturalmente possono essere previsti ulteriori tipi di unità di comunicazione, ad esempio con dispositivi WiFi, Bluetooth, o con modem GPRS.
Unità di attuazione
Tale unità , genericamente indicata con 16 nelle figure, à ̈ dotata di uno o più attuatori per indurre almeno una sensazione indicativa dell’interazione del soggetto nella realtà virtuale generata dal sistema di elaborazione, in funzione di dati di istruzione ricevuti dall’unità di gestione 14. A livello prototipale una tale unità à ̈ stata realizzata con due motori per la vibrazione, una cella di Peltier ed un motore a corrente continua, ed à ̈ stata dotata di due ponti H per il controllo di due segnali PWM (Pulse Width Modulation).
Naturalmente possono essere previsti anche altri tipi di attuatori, ad esempio attuatori fluidici. Altri dispositivi di attuazione possono essere dispositivi di rilascio di liquido o di effetti quali fumo o ritorno di forza.
Unità hole
Tale unità à ̈ un’unità di attuazione come quella sopra descritta, ma provvista di un foro centrale che consente il movimento di parti meccaniche, come un cursore per il feedback tattile.
Unità di rilevamento
Tale unità , genericamente indicata con 16 nelle figure, à ̈ dotata di uno o più sensori per rilevare dati di misurazione indicativi dei movimenti dei sensori nell’ambiente fisico ed a fornire tali dati di misurazione all’unità di gestione 14. A livello prototipale una tale unità à ̈ stata realizzata con un accelerometro, che fornisce in uscita il vettore di orientazione nello spazio tridimensionale; la localizzazione nello spazio dei moduli operativi à ̈ ottenuta mediante un sistema di tracking esterno, in particolare di tipo ottico, gestito dal sistema di elaborazione PS.
Naturalmente possono essere previsti ulteriori tipi di sensori, quali ad esempio sensori di temperatura, di campo magnetico, di umidità , di forza, flessione, o sensori luminosi. Per la localizzazione spaziale dei moduli operativi, in alternativa al sistema di tracking à ̈ possibile prevedere di dotare tali moduli di rispettive unità di posizionamento.
Unità di alimentazione
Tale unità provvede all’alimentazione elettrica del sistema di interfaccia. A livello prototipale tale unità à ̈ stata realizzata con una sede per l’inserimento di batterie.
Naturalmente possono essere previsti altri mezzi di alimentazione, ad esempio una connessione ad una rete elettrica esterna, od una sorgente autonoma quale una sorgente fotovoltaica.
Oltre alle unità sopra elencate possono essere presenti unità con altre funzioni, quali ad esempio unità di memoria di massa, od unità di input/output non tattile provviste di microfono, micro-speaker, mini-display o micro-camera.
Inoltre, differenti funzioni possono essere integrate nella medesima unità /modulo operativo; ad esempio, nell’unità di gestione/Master 14 può essere integrato un dispositivo di comunicazione wireless. In questo caso, à ̈ possibile rinunciare ad un’unità di comunicazione wireless dedicata. Come ulteriore esempio, l’unità di gestione/Master 14 può essere anch’essa dotata di un attuatore e/o di un sensore.
Possono altresì essere presenti più unità Master, ciascuna delle quali gestisce proprie reti di attuatori e sensori; in questo caso à ̈ possibile prevedere un’unità di gestione/supermaster con funzioni di routing. In tale ambito, à ̈ anche possibile prevedere una rete formata da sole unità Master, ciascuna delle quali essendo dotata di propri attuatori e/o sensori.
Nel sistema prototipale realizzato dagli inventori ogni unità può essere programmata, ed à ̈ gestita da un sistema operativo real time che consente al sistema di interfaccia di poter eseguire più task in contemporanea.
All’interno dell’unità Master sono stati di base configurati i seguenti task:
- Task di comunicazione, ovvero la gestione delle comunicazioni via seriale e via I2C;
- Task di data polling, ovvero l’interrogazione ciclica di tutte le unità per conoscere il loro stato.
All’interno dell’unità di attuazione prototipale sono presenti i seguenti task:
- Task di controllo temperatura - Ã ̈ stato implementato un controllore PID, di tipo base, per la gestione della temperatura rispetto ad un determinato SetPoint;
- Task di raggiungimento posizione – questo task à ̈ adibito alla gestione della posizione del motore DC, mediante tabella di Look-Up ed in ciclo aperto.
All’interno dell’unità di rilevamento prototipale sono presenti i seguenti task:
- Task di calcolo orientazione – acquisiti i valori analogici dell’accelerometro viene calcolato il vettore di orientamento.
In generale, à ̈ possibile creare task specifici per ogni unità fino al riempimento totale della memoria RAM disponibile.
Nel sistema prototipale sopra descritto la comunicazione fra sistema di interfaccia 10 e sistema di elaborazione PS avviene principalmente in due modalità : via seriale cablata oppure via wireless. La comunicazione inter-unità avviene invece via protocollo I2C e ad ogni unità à ̈ assegnato un indirizzo unico. La comunicazione di dati avviene utilizzando il seguente protocollo dati:
$ TipoComando│IndirizzoUnità │ValoreComando # Possono essere gestiti comandi singoli oppure Macro di comandi al fine di eseguire operazioni in tempo reale eventualmente dipendenti l’una dall’altra (ad esempio nel caso di un insieme complesso di stimoli sensoriali da somministrare all’utilizzatore).
Come detto sopra, i moduli operativi sono programmabili, e quindi il funzionamento dei sensori e degli attuatori à ̈ configurabile e ri-configurabile dall’utilizzatore mediante il sistema di elaborazione PS ed attraverso l’unità di gestione 14, in funzione del posizionamento desiderato dei sensori e degli attuatori sul corpo dell’utilizzatore ed in funzione della desiderata interazione dell’utilizzatore con la realtà virtuale generata dal sistema di elaborazione.
La configurazione e ri-configurazione dei moduli operativi può avvenire programmandoli manualmente mediante l’uso di un compilatore, o mediante una procedura di riconoscimento ottico o con RFID. La procedura di riconoscimento ottico od RFID à ̈ preferibile in quanto non richiede all’utilizzatore particolare esperienza di programmazione.
Un esempio di procedura riconoscimento ottico à ̈ il seguente.
L’utilizzatore mostra un modulo operativo 16 ad una telecamera del sistema di elaborazione PS e ne sceglie di conseguenza la possibilità di utilizzo, posizionando il modulo operativo sulla parte del corpo da lui desiderata. Se per esempio à ̈ stata utilizzata un’unità per la generazione di uno stimolo tattile posizionata sull’avambraccio, un’applicazione software simulante cubi che escono dallo schermo del sistema di elaborazione porterà il modulo operativo a generare uno stimolo tattile quando un cubo entrerà in contatto virtuale con il braccio dell’utilizzatore.
Un altro esempio à ̈ il seguente.
L’utilizzatore assembla l’unità Master 14 con più moduli operativi 16 atti a generare sensazioni di contatto, stimolo termico e vibrazione, per simulare l’uso di un’arma da fuoco. L’utilizzatore mostra quindi l’assieme di tali moduli, o molecola, ad una telecamera, e lo posiziona tramite un sistema di ancoraggio su un dito. Tale sequenza può essere ripetuta per quante dita si desidera. A questo punto l’utilizzatore interagisce con le caratteristiche dell’oggetto virtuale, in questo caso l’arma da fuoco. Afferrando l’arma virtuale, l’utilizzatore avrà la sensazione di contatto, mentre premendo il grilletto virtuale avrà la sensazione di vibrazione e di calore, in determinati punti operativi dipendenti dal posizionamento dei moduli operativi responsabili di tali sensazioni.
Claims (9)
- RIVENDICAZIONI 1. Sistema di interfaccia (10) per interazione uomo-macchina, comprendente una disposizione di sensori ed attuatori (12) indossabile od accoppiabile al corpo (B) di un utilizzatore; ed almeno un’unità di gestione (14) governante detta disposizione di sensori ed attuatori, e predisposta per scambiare dati con un’applicazione di controllo residente su un sistema di elaborazione (PS) remoto, in modo tale da trasmettere a detta applicazione dati indicativi dei movimenti dell’utilizzatore in un ambiente fisico, ed in modo tale da trasmettere all’utilizzatore sensazioni localizzate in almeno un punto del corpo dell’utilizzatore, indicative dell’interazione dell’utilizzatore con un ambiente operativo generato od almeno controllato da detto sistema di elaborazione; in cui detta disposizione di sensori ed attuatori comprende almeno una rete di sensori (22), i quali sono atti a rilevare dati di misurazione indicativi dei movimenti dei sensori in detto ambiente fisico ed a fornire detti dati di misurazione all’applicazione di controllo tramite l’unità di gestione (14), ed almeno una rete di attuatori (24), i quali sono atti ad indurre in detto almeno un punto del corpo dell’utilizzatore almeno una sensazione indicativa dell’interazione dell’utilizzatore con detto ambiente operativo, in funzione di dati di istruzione ricevuti dall’applicazione di controllo tramite l’unità di gestione (14); caratterizzato dal fatto che detti sensori ed attuatori sono supportati da una pluralità di moduli operativi (16), affacciati ad almeno un canale di comunicazione attraverso rispettive coppie di porte di comunicazione di ingresso ed uscita ed operativamente collegati a detta unità di gestione mediante detto canale di comunicazione, in cui detti moduli operativi sono provvisti di mezzi di interconnessione (18) in modo tale per cui detti moduli operativi sono assemblabili l’uno all’altro secondo una disposizione planare e/o una disposizione impilata.
- 2. Sistema secondo la rivendicazione 1, in cui detti moduli operativi sono costituiti da elementi a piastra, e detti mezzi di interconnessione sono disposti su uno o più connettori elettrici previsti su ciascuno di detti elementi a piastra.
- 3. Sistema secondo la rivendicazione 1 o 2, in cui detti moduli operativi sono costituiti da elementi a piastra aventi forma di poligono regolare, ciascuno di detti elementi a piastra presentando una pluralità di connettori elettrici di connessione laterale, maschi e femmina (19a, 19b), posizionati in modo alternato sui lati del perimetro poligonale dell’elemento a piastra (16).
- 4. Sistema secondo una delle rivendicazioni 1 a 3, in cui ciascuno di detti elementi a piastra presenta almeno una coppia di connettori elettrici di connessione verticale, maschio e femmina (19c), rispettivamente posizionati su facce opposte dell’elemento a piastra (16).
- 5. Sistema di interazione uomo-macchina, comprendente un sistema di elaborazione (PS) atto ad eseguire un’applicazione di controllo, ed un’interfaccia (10) comprendente - una disposizione di sensori ed attuatori (12) indossabile od accoppiabile al corpo (B) di un utilizzatore; ed - almeno un’unità di gestione (14) governante detta disposizione di sensori ed attuatori, e predisposta per scambiare dati con detta appli cazione di controllo, in modo tale da trasmettere a detta applicazione dati indicativi dei movimenti dell’utilizzatore in un ambiente fisico, ed in modo tale da trasmettere all’utilizzatore sensazioni localizzate in almeno un punto del corpo dell’utilizzatore, indicative dell’interazione dell’utilizzatore con un ambiente operativo generato od almeno controllato da detto sistema di elaborazione; in cui detta disposizione di sensori ed attuatori comprende almeno una rete di sensori (22), i quali sono atti a rilevare dati di misurazione indicativi dei movimenti dei sensori in detto ambiente fisico ed a fornire detti dati di misurazione all’applicazione di controllo tramite l’unità di gestione (14), ed almeno una rete di attuatori (24), i quali sono atti ad indurre in detto almeno un punto del corpo dell’utilizzatore almeno una sensazione indicativa dell’interazione dell’utilizzatore con detto ambiente operativo, in funzione di dati di istruzione ricevuti dall’applicazione di controllo tramite l’unità di gestione (14); caratterizzato dal fatto che detti sensori ed attuatori sono supportati da una pluralità di moduli operativi (16), affacciati ad almeno un canale di comunicazione attraverso rispettive coppie di porte di comunicazione di ingresso ed uscita ed operativamente collegati a detta unità di gestione mediante detto canale di comunicazione, in cui detti moduli operativi sono provvisti di mezzi di interconnessione (18) in modo tale per cui detti moduli operativi sono assemblabili l’uno all’altro secondo una disposizione planare e/o una disposizione impilata.
- 6. Sistema secondo la rivendicazione 5, in cui detti moduli operativi sono costituiti da elementi a piastra, e detti mezzi di interconnessione sono disposti su uno o più connettori elettrici previsti su ciascuno di detti elementi a piastra.
- 7. Sistema secondo la rivendicazione 5 o 6, in cui detti moduli operativi sono costituiti da elementi a piastra aventi forma di poligono regolare, ciascuno di detti elementi a piastra presentando una pluralità di connettori elettrici di connessione laterale, maschi e femmina (19a, 19b), posizionati in modo alternato sui lati del perimetro poligonale dell’elemento a piastra (16).
- 8. Sistema secondo una delle rivendicazioni 5 a 7, in cui ciascuno di detti elementi a piastra presenta almeno una coppia di connettori elettrici di connessione verticale, maschio e femmina (19c), rispettivamente posizionati su facce opposte dell’elemento a piastra (16).
- 9. Sistema secondo una delle rivendicazioni da 5 a 8, in cui il funzionamento di detti sensori ed attuatori à ̈ configurabile dall’utilizzatore mediante detto sistema di elaborazione ed attraverso detta unità di gestione, in funzione del posizionamento desiderato di detti sensori ed attuatori sul corpo (B) dell’utilizzatore ed in funzione della desiderata interazione dell’utilizzatore con l’ambiente operativo generato od almeno controllato dal sistema di elaborazione.
Priority Applications (10)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT000530A ITTO20110530A1 (it) | 2011-06-16 | 2011-06-16 | Sistema di interfaccia per interazione uomo-macchina |
US14/125,848 US20140114445A1 (en) | 2011-06-16 | 2012-06-13 | Interface system for man-machine interaction |
EP12738201.8A EP2721464A1 (en) | 2011-06-16 | 2012-06-13 | An interface system for man-machine interaction |
PCT/IB2012/052972 WO2012172487A1 (en) | 2011-06-16 | 2012-06-13 | An interface system for man-machine interaction |
IN232DEN2014 IN2014DN00232A (it) | 2011-06-16 | 2012-06-13 | |
RU2014101148/08A RU2014101148A (ru) | 2011-06-16 | 2012-06-13 | Интерфейсная система для человеко-машинного взаимодействия |
CN201280039911.4A CN103748532A (zh) | 2011-06-16 | 2012-06-13 | 用于人机交互的接口系统 |
KR1020147001018A KR20140053954A (ko) | 2011-06-16 | 2012-06-13 | 인간기계간 상호 작용하는 인터페이스 시스템 |
BR112013032189A BR112013032189A2 (pt) | 2011-06-16 | 2012-06-13 | sistema de interface para a interação homem-máquina |
JP2014515324A JP2014519669A (ja) | 2011-06-16 | 2012-06-13 | 人間と機械の相互作用のためのインターフェースシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT000530A ITTO20110530A1 (it) | 2011-06-16 | 2011-06-16 | Sistema di interfaccia per interazione uomo-macchina |
Publications (1)
Publication Number | Publication Date |
---|---|
ITTO20110530A1 true ITTO20110530A1 (it) | 2012-12-17 |
Family
ID=44555159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
IT000530A ITTO20110530A1 (it) | 2011-06-16 | 2011-06-16 | Sistema di interfaccia per interazione uomo-macchina |
Country Status (10)
Country | Link |
---|---|
US (1) | US20140114445A1 (it) |
EP (1) | EP2721464A1 (it) |
JP (1) | JP2014519669A (it) |
KR (1) | KR20140053954A (it) |
CN (1) | CN103748532A (it) |
BR (1) | BR112013032189A2 (it) |
IN (1) | IN2014DN00232A (it) |
IT (1) | ITTO20110530A1 (it) |
RU (1) | RU2014101148A (it) |
WO (1) | WO2012172487A1 (it) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102277752B1 (ko) | 2014-01-06 | 2021-07-16 | 삼성전자주식회사 | 웨어러블 기기를 이용한 홈 디바이스 제어 장치 및 제어 방법 |
WO2015102467A1 (ko) * | 2014-01-06 | 2015-07-09 | 삼성전자 주식회사 | 웨어러블 기기를 이용한 홈 디바이스 제어 장치 및 제어 방법 |
KR102335766B1 (ko) | 2014-10-08 | 2021-12-06 | 삼성전자주식회사 | 생체 신호를 검출하는 센서를 착탈할 수 있는 웨어러블 디바이스 및 웨어러블 디바이스를 제어하는 방법 |
IT201700072559A1 (it) | 2017-06-28 | 2017-09-28 | Trama S R L | Interfaccia aptica |
CN107763585B (zh) * | 2017-11-02 | 2020-02-11 | 上海华成实业有限公司 | 一种远程led灯人机交互控制器 |
US11392203B2 (en) * | 2018-03-27 | 2022-07-19 | Sony Corporation | Information processing apparatus, information processing method, and program |
US20220035454A1 (en) * | 2018-11-14 | 2022-02-03 | Sony Group Corporation | Information processing system, tactile presentation apparatus, tactile presentation method, and storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5568356A (en) * | 1995-04-18 | 1996-10-22 | Hughes Aircraft Company | Stacked module assembly including electrically interconnected switching module and plural electronic modules |
US20030227374A1 (en) * | 2002-06-10 | 2003-12-11 | Ling Sho-Hung Welkin | Modular electrotactile system and method |
US20060254369A1 (en) * | 2005-05-12 | 2006-11-16 | Euisik Yoon | Flexible modular sensor systems |
WO2009060366A2 (en) * | 2007-11-05 | 2009-05-14 | Fondazione Istituto Italiano Di Tecnologia | Tactile sensor arrangement and corresponding sensory system |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6500210B1 (en) * | 1992-09-08 | 2002-12-31 | Seattle Systems, Inc. | System and method for providing a sense of feel in a prosthetic or sensory impaired limb |
JPH0720978A (ja) * | 1993-07-05 | 1995-01-24 | Sony Corp | 仮想体感装置 |
ATE264087T1 (de) * | 1995-07-28 | 2004-04-15 | Cardiotronics Int Inc | Elektrodermale wegwerfvorrichtung |
AU2001249990A1 (en) * | 2000-02-16 | 2001-08-27 | Charles Stark Draper Laboratory | Balance prosthesis |
US6741911B2 (en) * | 2000-09-20 | 2004-05-25 | John Castle Simmons | Natural robot control |
US6769313B2 (en) * | 2001-09-14 | 2004-08-03 | Paricon Technologies Corporation | Flexible tactile sensor |
WO2004053782A1 (en) * | 2002-12-12 | 2004-06-24 | Danfoss A/S | Tactile sensor element and sensor array |
US6826640B1 (en) * | 2003-06-04 | 2004-11-30 | Digi International Inc. | Bus bandwidth control system |
US20040254503A1 (en) * | 2003-06-13 | 2004-12-16 | Sarvazyan Armen P. | Internet-based system and a method for automated analysis of tactile imaging data and detection of lesions |
EP1524586A1 (en) * | 2003-10-17 | 2005-04-20 | Sony International (Europe) GmbH | Transmitting information to a user's body |
EP1533678A1 (en) | 2003-11-24 | 2005-05-25 | Sony International (Europe) GmbH | Physical feedback channel for entertaining or gaming environments |
US7167781B2 (en) * | 2004-05-13 | 2007-01-23 | Lee Hugh T | Tactile device and method for providing information to an aircraft or motor vehicle or equipment operator |
US7117030B2 (en) * | 2004-12-02 | 2006-10-03 | The Research Foundation Of State University Of New York | Method and algorithm for spatially identifying sources of cardiac fibrillation |
US8299905B2 (en) * | 2005-02-10 | 2012-10-30 | Quentin King | System for applying tactile stimulation to the controller of unmanned vehicles |
CA2621713C (en) * | 2005-09-07 | 2016-01-26 | Amx Llc | Method and computer program for device configuration |
JP4868347B2 (ja) * | 2005-09-12 | 2012-02-01 | 国立大学法人 東京大学 | 触覚センサ用モジュールおよび触覚センサの実装方法 |
KR101010528B1 (ko) * | 2005-12-28 | 2011-01-24 | 혼다 기켄 고교 가부시키가이샤 | 로봇의 외피 |
US8581700B2 (en) * | 2006-02-28 | 2013-11-12 | Panasonic Corporation | Wearable device |
SE529656C2 (sv) * | 2006-05-23 | 2007-10-16 | Vibsec Ab | Metod och system för övervakning av manuell styrning av dynamiska system |
US8049591B2 (en) * | 2006-08-31 | 2011-11-01 | Korea Research Institute Of Standards And Science | Tactile sensor for curved surface and manufacturing method thereof |
KR20080029676A (ko) * | 2006-09-29 | 2008-04-03 | 한국전자통신연구원 | 접촉 감각 정보 제공 장치 |
JP4926799B2 (ja) * | 2006-10-23 | 2012-05-09 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
FR2916869B1 (fr) * | 2007-06-01 | 2009-09-11 | Dav Sa | Dispositif de commande tactile a retour haptique |
US8031172B2 (en) * | 2007-10-12 | 2011-10-04 | Immersion Corporation | Method and apparatus for wearable remote interface device |
EP2277096A1 (en) * | 2008-05-09 | 2011-01-26 | Koninklijke Philips Electronics N.V. | Method and system for conveying an emotion |
US8482381B2 (en) * | 2008-07-31 | 2013-07-09 | Palm, Inc. | Multi-purpose detector-based input feature for a computing device |
KR101014263B1 (ko) * | 2008-09-04 | 2011-02-16 | 삼성전기주식회사 | 촉각 센서 |
TWI385366B (zh) * | 2009-03-03 | 2013-02-11 | Univ Nat Taiwan | 觸覺感測陣列及其製造方法 |
KR101051349B1 (ko) * | 2009-06-02 | 2011-07-22 | 한국표준과학연구원 | 초광대역 무선통신 기능을 갖는 촉각센서모듈 및 그 촉각센서모듈을 이용한 초광대역 무선통신방법 |
US8638236B2 (en) * | 2010-02-25 | 2014-01-28 | Qualcomm Incorporated | Methods and apparatus for applying tactile pressure sensors |
US8316719B2 (en) * | 2010-11-12 | 2012-11-27 | President And Fellows Of Harvard College | Stretchable two-dimensional pressure sensor |
US20120119920A1 (en) * | 2010-11-12 | 2012-05-17 | Extra Sensory Technology, L.C. | Portable sensory devices |
FR2976110B1 (fr) * | 2011-05-30 | 2014-01-17 | Commissariat Energie Atomique | Dispositif d'affichage a surface deformable et a capteurs de position |
US8552847B1 (en) * | 2012-05-01 | 2013-10-08 | Racing Incident Pty Ltd. | Tactile based performance enhancement system |
-
2011
- 2011-06-16 IT IT000530A patent/ITTO20110530A1/it unknown
-
2012
- 2012-06-13 CN CN201280039911.4A patent/CN103748532A/zh active Pending
- 2012-06-13 WO PCT/IB2012/052972 patent/WO2012172487A1/en active Application Filing
- 2012-06-13 IN IN232DEN2014 patent/IN2014DN00232A/en unknown
- 2012-06-13 RU RU2014101148/08A patent/RU2014101148A/ru unknown
- 2012-06-13 JP JP2014515324A patent/JP2014519669A/ja active Pending
- 2012-06-13 KR KR1020147001018A patent/KR20140053954A/ko not_active Application Discontinuation
- 2012-06-13 BR BR112013032189A patent/BR112013032189A2/pt not_active IP Right Cessation
- 2012-06-13 EP EP12738201.8A patent/EP2721464A1/en not_active Withdrawn
- 2012-06-13 US US14/125,848 patent/US20140114445A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5568356A (en) * | 1995-04-18 | 1996-10-22 | Hughes Aircraft Company | Stacked module assembly including electrically interconnected switching module and plural electronic modules |
US20030227374A1 (en) * | 2002-06-10 | 2003-12-11 | Ling Sho-Hung Welkin | Modular electrotactile system and method |
US20060254369A1 (en) * | 2005-05-12 | 2006-11-16 | Euisik Yoon | Flexible modular sensor systems |
WO2009060366A2 (en) * | 2007-11-05 | 2009-05-14 | Fondazione Istituto Italiano Di Tecnologia | Tactile sensor arrangement and corresponding sensory system |
Also Published As
Publication number | Publication date |
---|---|
EP2721464A1 (en) | 2014-04-23 |
US20140114445A1 (en) | 2014-04-24 |
JP2014519669A (ja) | 2014-08-14 |
IN2014DN00232A (it) | 2015-06-05 |
CN103748532A (zh) | 2014-04-23 |
WO2012172487A1 (en) | 2012-12-20 |
KR20140053954A (ko) | 2014-05-08 |
BR112013032189A2 (pt) | 2016-12-13 |
RU2014101148A (ru) | 2015-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ITTO20110530A1 (it) | Sistema di interfaccia per interazione uomo-macchina | |
Ha et al. | Development of open humanoid platform DARwIn-OP | |
ATE539391T1 (de) | Konfigurationssystem und -verfahren für eine roboteroperator-steuereinheit | |
EP2871544A3 (en) | Interface for data exchange between industrial controllers and simulation applications for simulating a machine | |
HK1120605A1 (en) | Multiple configuration electronic thermometer | |
CN104149081B (zh) | 一种模块化的手持式双操作端主机器人 | |
JP2008515541A5 (it) | ||
WO2007138704A8 (ja) | 設備機器管理システム、その制御方法並びに設備機器管理装置 | |
ES2750698T3 (es) | Sistema para puesta en marcha virtual | |
EP2578364A3 (en) | Robot system | |
Alagupandi et al. | Smart irrigation system for outdoor environment using Tiny OS | |
MX2014002826A (es) | Tarjeta madre textil con diseño modular e intercambiable para monitoreo, informacion y control. | |
Braumann et al. | Digital and physical tools for industrial robots in architecture: robotic interaction and interfaces | |
ITTV20070123A1 (it) | Apparato per l'automazione delle funzionalita' operative di uno o piu' carichi di uno spazio ambientale. | |
CN201837883U (zh) | 一种生产车间集中监控系统 | |
WO2016205880A1 (en) | Modular electronics system | |
Dalef et al. | Development of wireless controlling and monitoring system for robotic hand using Zigbee protocol | |
JP2006262636A5 (it) | ||
JP2015534401A5 (it) | ||
Diaconescu et al. | Towards a General Framework for Modeling, Simulating and Building Sensor/Actuator Systems and Robots for the Web of Things. | |
CN106781974A (zh) | 拼装式仿真设备 | |
CN206154317U (zh) | 一种可扩充的模块化教育机器人控制系统 | |
Sharma et al. | Stage-wise Development of a Remote Controlled Robotic Arm | |
CN203298440U (zh) | 基于半实物仿真的空调自控系统 | |
ITVR20120057A1 (it) | Apparecchiatura di gestione domotica dell'energia |