ITFI20080103A1 - Metodo e apparato per l'accesso alla comunicazione e/o alla scrittura attraverso l'utilizzo di un'interfaccia dedicata e controllo a scansione con feedback visivo di percorso anticipato. - Google Patents

Metodo e apparato per l'accesso alla comunicazione e/o alla scrittura attraverso l'utilizzo di un'interfaccia dedicata e controllo a scansione con feedback visivo di percorso anticipato. Download PDF

Info

Publication number
ITFI20080103A1
ITFI20080103A1 IT000103A ITFI20080103A ITFI20080103A1 IT FI20080103 A1 ITFI20080103 A1 IT FI20080103A1 IT 000103 A IT000103 A IT 000103A IT FI20080103 A ITFI20080103 A IT FI20080103A IT FI20080103 A1 ITFI20080103 A1 IT FI20080103A1
Authority
IT
Italy
Prior art keywords
groups
highlighting
highlighted
interface
scan
Prior art date
Application number
IT000103A
Other languages
English (en)
Inventor
Marco Caligari
Paolo Invernizzi
Franco Martegani
Original Assignee
Fimi S R L
Sr Labs S R L
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fimi S R L, Sr Labs S R L filed Critical Fimi S R L
Priority to IT000103A priority Critical patent/ITFI20080103A1/it
Priority to CA2728908A priority patent/CA2728908A1/en
Priority to EP09750260A priority patent/EP2300902A2/en
Priority to PCT/IB2009/052146 priority patent/WO2009141806A2/en
Priority to US12/993,911 priority patent/US20110078611A1/en
Publication of ITFI20080103A1 publication Critical patent/ITFI20080103A1/it

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04895Guidance during keyboard input operation, e.g. prompting
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F4/00Methods or devices enabling patients or disabled persons to operate an apparatus or a device not forming part of the body 
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute

Description

Descrizione dell'invenzione industriale dal titolo:
“Metodo e apparato per l’accesso alla comunicazione e/o alla scrittura attraverso l’utilizzo di una interfaccia dedicata e controllo a scansione con feedback visivo di percorso anticipato”
CAMPO DELL'INVENZIONE
La presente invenzione si riferisce all’ambito di tecniche per l’accesso alla comunicazione e/o alla scrittura tramite l’utilizzo di ausili high tech, come il computer, per persone disabili con gravi limitazioni nell’organizzazione del movimento o anche un solo movimento controllato. Non avendo la possibilità di utilizzare le periferiche tradizionali come dispositivo di comando per il computer l’utente deve sfruttare la tecnica della scansione che prevede la possibilità di utilizzare uno o più sensori esterni per selezionare il comando su una matrice di lettere o simboli che vengono visualizzati in sequenza temporale, con degli accorgimenti che gli permettono di diminuire notevolmente lo sforzo fisico o cognitivo da compiere.
STATO DELL'ARTE
Nel corso degli ultimi anni l’accresciuto bisogno di ausili per l’accesso alla comunicazione e/o alla scrittura di persone disabili ha favorito lo sviluppo di soluzioni informatiche per facilitare l’accessibilità agli ausili high tech come il computer.
Infatti lo straordinario sviluppo delle tecnologie dell’informazione e della comunicazione ha fatto emergere una nuova categoria di ausili, quelli informatici, che hanno aperto possibilità prima impensabili per chi presenta un deficit motorio, sensoriale o cognitivo.
La cosiddetta “Assistive Technology’’, o tecnologia assistiva, ha lo scopo di ampliare le capacità di pensare, di informarsi, di esprimersi, di stabilire e mantenere un contatto con il mondo, accelerando ed accrescendo le possibilità di comunicazione e di interazione di persone con deficit motori, sensoriali, comunicativi o cognitivi.
Tastiere e mouse speciali, sistemi di sintesi e riconoscimento vocale, programmi a scansione, sono nati per sostituire i sistemi di input (mouse e tastiera) e output (monitor) standard, offrendo la possibilità di adattare lo strumento computer a chi presenta difficoltà. Ciò significa che esiste, anche per persone con gravi disabilità motorie, la possibilità di lavorare, studiare, intrattenere relazioni a distanza, in poche parole uscire dall’isolamento e ripensare positivamente le proprie prospettive di vita.
Nello stato dell’arte attuale, tutti i programmi software di ausilio alla disabilità motoria grave si basano sull’emulazione del movimento del puntatore allo scopo di posizionarlo sull’elemento voluto.
Il limite di questi sistemi è dato dall'impossibilità di poter conoscere a priori le necessità dell’utente e soprattutto non poter conoscere gli elementi con i quali è possibile interagire.
Nel caso siano presenti possibilità minime di movimento, tramite un sensore di comando che rileva il movimento disponibile, è possibile effettuare una scansione (a passi successivi) dell’area visibile su schermo (andando inevitabilmente ad evidenziare aree di nessun interesse, con conseguente perdita di tempo), fino ad individuare l’elemento selezionato.
Tali sistemi a scansione risultano sì flessibili ma, in generale, anche lenti e faticosi. In particolare, nel caso della scrittura, le operazioni descritte risultano lente e piuttosto frustranti; per questo motivo sono stati studiati degli accorgimenti per limitare questo problema rendendo più rapida ed efficiente la scrittura di parole o comandi, cercando di minimizzare il numero di azionamenti del sensore. In questi casi, tuttavia, passando dalla scansione lineare a scansioni di altri tipi, la complessità d’uso aumenta. Infatti, le matrici variabili e la tipologia di scansione riga / colonna aumentano la velocità, ma comportano un maggior controllo di tutto il sistema anche da un punto di vista cognitivo. In altre parole, l’utente non solo deve pensare a ciò che vuole fare, ma deve anche essere concentrato sul come farlo: l’uso della scansione rispetto al compito è dunque un compito supplementare.
Il sistema descritto nel seguito ha lo scopo, non di emulare il passo dello spostamento del cursore (ovvero sostituire l’utente nell’atto di posizionare il puntatore su un elemento), ma di semplificare il processo di interazione tra utente disabile e macchina tramite l’utilizzo di un feedback visivo che consenta all’utente di prevedere in anticipo il percorso della scansione. In questo modo, la modalità di scansione viene efficacemente definita in anticipo e si riduce notevolmente lo sforzo di memorizzazione che l'utente deve compiere e di conseguenza la possibilità di errore.
Inoltre, mentre in generale la scansione di tipo non lineare aumenta la velocità, ma comporta un maggior carico cognitivo per l’utente, attraverso questa modalità la scansione può essere anche di tipo non lineare, per esempio evidenziando per primi gli elementi con più alta probabilità di selezione, senza che aumenti in modo considerevole lo sforzo cognitivo dell’utente. L’uso della scansione rispetto al compito non si risolve più in un compito supplementare e l’utente deve solo pensare a ciò che vuole fare senza essere troppo concentrato sul come farlo.
BREVE DESCRIZIONE DEI DISEGNI
Fig. 1 Mostra lo schema a blocchi dell’architettura del metodo in accordo alla presente invenzione.
Fig. 2 Mostra il diagramma di flusso del metodo secondo la presente invenzione.
Fig. 3 Mostra il diagramma di flusso relativo al modulo Esecuzione comando.
Fig. 4 Mostra il diagramma di flusso del processo della scansione secondo il metodo della presente invenzione.
Fig. 5 - 6 Mostrano un esempio delle possibili implementazioni visuali dei feedback relativi a due modalità di scansione.
Fig. 7 - 11 Mostrano a titolo di esempio la sequenza dei passi necessari per entrare nel modulo Posta dell’applicativo e aprire un messaggio utilizzando una seconda modalità di feedback visuale.
DESCRIZIONE DETTAGLIATA DELL’INVENZIONE
In una realizzazione preferita della presente invenzione, l’apparato oggetto della presente invenzione comprende mezzi di elaborazione elettronica di dati e informazioni, mezzi per la memorizzazione di detti dati e informazioni, mezzi di interfacciamento utente e sensori di comando utilizzabili da persone con gravi disabilità motorie e al limite un solo movimento residuo.
Detti mezzi di elaborazione elettronica di dati e informazioni comprendono un’opportuna sezione di controllo, preferibilmente basata su almeno un microprocessore, e possono ad esempio essere realizzati da un personal computer. Detti mezzi di memorizzazione comprendono preferibilmente dischi rigidi e memorie di tipo flash. Detti mezzi di interfacciamento utente comprendono mezzi di visualizzazione dati, come ad esempio display, monitor o analoghe unità di output esterne. Detti sensori di comando comprendono i dispositivi (pulsanti, sensori a pressione, a deformazione, a soffio, a potenziale mioelettrico, cellule fotoeletriche, etc.) che rilevano e sfrutano i movimenti, anche minimi, disponibili per fornire l’azione di conferma durante la scansione dell'interfaccia.
Deto almeno un microprocessore è preferibilmente corredato da un opportuno programma software costituito da una serie di moduli applicativi, contenenti un set di istruzioni relative all’espletamento di una funzione o un gruppo di funzioni, atraverso i quali l'utente disabile può comunicare il proprio pensiero ed esigenze, ascoltare la letura di testi e documenti, accedere alla posta eletronica e redigere documenti di testo, navigare in internet ed accedere ad una varietà di contenuti ed informazioni, controllare l’ambiente domestico (domotica), accedere ai servizi di telecomunicazione (telefonia fissa e mobile, sms, mms) e di intratenimento (Video and Music player, Radio/TV), etc.
La selezione dei comandi e delle funzioni avviene tramite la scansione un procedimento che consente di individuare e selezionare un elemento appartenente ad un insieme atraverso scelte successive compiute in sot’insiemi sempre più piccoli rispeto a quello di partenza utilizzando un sensore di comando.
L’architetura di tale programma software, descrita nella Fig. 1 allegata, comprende i seguenti moduli: un modulo, cosiddeto di Esecuzione Comando 11, responsabile della gestione dell’applicazione, che determina l’azione da eseguire e la mete in esecuzione. Deto modulo di Esecuzione del Comando 11 possedendo l’informazione relativa al tipo di azione associata all’attivazione di un determinato componente.
Detto modulo Esecuzione del Comando 11 comprende tre ulteriori moduli: Un Modulo Gestore Eventi 12 atto a definire le regole per trasformare gli input in arrivo dall’utente - tramite un sensore di comando che ne rileva il movimento disponibile - in una risposta dell’applicativo; un Modulo Gestore Stati 13 che è atto a definire lo stato e le funzionalità dell’applicazione, e comprende a sua volta due ulteriori moduli che interagiscono tra loro: il modulo Gestione Stati Interfaccia 13A e il modulo Gestione Stati Scansione 13B, responsabili rispettivamente della definizione degli stati generale dell’applicazione e degli stati del processo di scansione; un Modulo Gestore Interfaccia 14, atto a gestire la visualizzazione degli oggetti dell’interfaccia, comprendente a sua volta due ulteriori moduli che interagiscono tra loro: il modulo Gestione Interfaccia 14A che definisce la visualizzazione dell'interfaccia generale e il modulo Gestione Feedback Scansione 14B che definisce la modalità di visualizzazione del feedback relativo al processo di scansione .
In riferimento alla Fig. 2 vediamo il diagramma di flusso che rappresenta il funzionamento dei moduli menzionati in precedenza e le interconnessioni tra di essi illustrando i passi del metodo secondo la presente invenzione.
a) Viene visualizzata 20, sui mezzi di visualizzazione associati all’elaboratore elettronico che svolge il programma che realizza il metodo secondo la presente invenzione, l’interfaccia utente dell’applicazione che consente all’utente di interagire con detto programma.
b) Viene effettuata 21, la scansione dei gruppi e sottogruppi cioè degli insiemi e dei sottoinsiemi di elementi visualizzati dall'interfaccia utente i quali vengono raggruppati in maniera prima generale e poi via via sempre più particolare secondo il loro posizionamento e/o la loro funzione, fino ad arrivare al singolo elemento tramite azionamento del sensore di comando. c) Viene selezionato 22 l'elemento desiderato tramite azionamento del sensore di comando.
d) L’azione corrispondente viene eseguita 23 e l'interfaccia utente dell’applicazione viene modificata in seguito all’azione stessa. e) Si ripete la sequenza a partire dal passo b) fino a quando l’utente decide di uscire dall’applicazione.
Il processo di scansione di gruppi e sottogruppi di cui al passo b) della sequenza illustrata in Figura 2, avviene secondo la sequenza riportata di seguito ed illustrata in Figura 3:
f) Il Modulo Gestione Stati Scansione 31 riceve l’input dall’utente, modifica il proprio stato, genera un evento e lo invia al modulo Gestore eventi.
g) Il Modulo Gestore Eventi 32 elabora l’evento in arrivo ed invia le notifiche di tali cambiamenti al Modulo Gestione Feedback Scansione.
h) Il Modulo Gestione Feedback Scansione 33, dopo aver richiesto i dati per l’aggiornamento al Modulo Gestione Stati Scansione, genera il feedback appropriato e si pone in attesa di altri input.
Il passo d) della sequenza illustrata in Figura 2, corrispondente all’esecuzione dell’azione collegata all’elemento selezionato, awiene secondo la sequenza definita di seguito ed illustrata in Figura 3:
i) Il Modulo Gestore Eventi 34 effettua una mappatura tra l’input dell’utente e le risposte dell’applicativo ed invia notifiche di modifica dello stato al Modulo Gestore Stati.
j) Il Modulo Gestore Stati 35, incapsulando lo stato dell’applicazione, modifica il proprio stato e invia le notifiche di tali cambiamenti al Modulo Gestore Interfaccia.
k) Il Modulo Gestore Interfaccia 36, dopo aver richiesto i dati per l'aggiornamento al Modulo Gestore Stati, genera l’interfaccia appropriata e rimane in attesa degli ulteriori input dell’utente. La sequenza di scansione di gruppi e sottogruppi fino al singolo elemento di cui ai passi b) e c) della sequenza illustrata in Figura 2, avviene secondo la sequenza riportata nel seguito ed illustrata in Figura 4:
L) Viene effettuata 41 la scansione dei gruppi principali fino all’azionamento del sensore di comando per la selezione di uno di essi.
m) Viene effettuata 42 la scansione dei corrispondenti sottogruppi per la selezione di uno di essi fino al raggiungimento dei singoli elementi.
n) Viene effettuata 43 la scansione dei singoli elementi fino alla selezione dell’elemento desiderato tramite azionamento del sensore di comando e la conseguente esecuzione del comando/azione ad esso associato.
Il processo di scansione di gruppi e sottogruppi fino al singolo elemento può avvenire con diverse modalità di feedback visivo, tutte caratterizzate dalla semplificazione del processo di interazione tra utente disabile e macchina tramite l'utilizzo di un feedback visivo che consenta all'utente di prevedere in anticipo il percorso della scansione. Sotto vengono riportati a titolo di esempio due tipologie secondo le sequenze riportate nel seguito.
La prima tipologia di feedback prevede che:
o) Opportuni mezzi di evidenziazione, ad esempio un rettangolo colorato posto attorno a ciascun gruppo principale, si spostano secondo tempi e sequenza predefiniti e gli elementi componenti detti gruppi vengono evidenziati tramite ulteriori mezzi di evidenziazione comprendenti, ad esempio, un punto colorato loro sovrapposto.
p) Un’icona che permette di risalire al gruppo/sottogruppo precedente è visualizzata durante la scansione permettendo di tornare alia scansione dei gruppi/sottogruppi del livello precedente a quello attuale.
q) Alla selezione tramite sensore di comando la scansione riparte dal sottogruppo relativo al blocco evidenziato in quell’istante tramite un rettangolo colorato a contorno, e gli elementi componenti sono evidenziati tramite un punto colorato loro sovrapposto.
r) Tale processo si ripete fino al raggiungimento dei singoli elementi, la cui scansione procederà secondo tempi e sequenza predefiniti, e che verranno evidenziati tramite un rettangolo colorato di contorno.
s) Alla selezione dell’elemento desiderato corrisponderà l’esecuzione di un comando e il conseguente aggiornamento dell’interfaccia, per cui il processo di scansione riprenderà con la scansione dei gruppi e sottogruppi costituenti la nuova interfaccia aggiornata.
La seconda tipologia di feedback prevede che:
t) Ciascun elemento viene evidenziato tramite un punto sovrapposto con indicato il numero di selezioni da effettuare mediante il sensore di comando impiegato, necessarie per selezionarlo.
u) Un’icona che permette di risalire al gruppo/sottogruppo precedente è visualizzata durante la sequenza del processo di scansione e tutti gli elementi che compongono i gruppi/sottogruppi del livello precedente a quello attuale vengono evidenziati tramite un punto di colore diverso loro sovrapposto. v) Alla selezione tramite sensore di comando la scansione riparte dal sottogruppo relativo al blocco evidenziato in quell’istante, i cui elementi saranno evidenziati a loro volta dal punto sovrapposto con indicato il numero di selezioni diminuito via via di uno oppure da gruppo/sottogruppo del livello precedente a quello attuale se viene selezionata l’apposita icona.
w) Tale processo si ripete fino al raggiungimento dei singoli elementi che verranno evidenziati tramite un punto colorato sovrapposto loro che si sposta secondo tempi e sequenza predefiniti.
x) Alla selezione dell’elemento desiderato corrisponderà l’esecuzione di un comando e il conseguente aggiornamento dell’interfaccia, per cui il processo di scansione riprenderà con la scansione dei gruppi e sottogruppi costituenti la nuova interfaccia aggiornata.

Claims (14)

  1. RIVENDICAZIONI 1. Apparato per l'accesso facilitato alla comunicazione e / o alla scrittura comprendente mezzi di elaborazione elettronica di dati e informazioni, mezzi per la memorizzazione di detti dati e informazioni, mezzi di interfacciamento utente e sensori di comando utilizzabili da persone con gravi disabilità motorie.
  2. 2. Apparato secondo la rivendicazione 1 caratterizzato dal fatto che detti mezzi di elaborazione elettronica di dati e informazioni comprendono un’opportuna sezione di controllo preferibilmente basata su almeno un microprocessore.
  3. 3. Apparato secondo la rivendicazione 2 caratterizzato dal fatto che detti mezzi di elaborazione elettronica di dati e informazioni comprendono un personal computer.
  4. 4. Apparato secondo le rivendicazioni 1 - 3 caratterizzato dal fatto che detti mezzi di interfacciamento utente comprendono mezzi di visualizzazione e immissione dati.
  5. 5. Apparato secondo le rivendicazioni 1 - 4 caratterizzato dal fatto che detti mezzi per la memorizzazione di detti dati e informazioni comprendono dischi rigidi e memorie di tipo flash.
  6. 6. Apparato secondo le rivendicazioni 1 - 5 caratterizzato dal fatto che detti sensori di comando comprendono dispositivi atti a rilevare movimenti, scelti nel gruppo comprendente: pulsanti, sensori a pressione, a deformazione, a soffio, a potenziale mioelettrico, cellule fotoelettriche.
  7. 7. Metodo per l’accesso facilitato alla comunicazione e / o alla scrittura caratterizzato dal fatto di comprendere i seguenti passi: a) Viene visualizzata (20) sui mezzi di visualizzazione associati all’elaboratore elettronico che svolge il programma che realizza il metodo secondo la presente invenzione, l’interfaccia utente dell’applicazione che consente all’utente stesso di interagire con detto programma. b) Viene effettuata (21) la scansione dei gruppi e sottogruppi cioè degli insiemi e dei sottoinsiemi di elementi visualizzati dall’interfaccia utente i quali vengono raggruppati in maniera prima generale e poi via via sempre più particolare secondo il loro posizionamento e/o la loro funzione, fino ad arrivare al singolo elemento tramite azionamento del sensore di comando. c) Viene selezionato (22) l’elemento desiderato tramite azionamento del sensore di comando. d) L’azione corrispondente viene eseguita (23) e l’interfaccia utente dell’applicazione viene modificata in seguito all’azione stessa. e) Si ripete la sequenza a partire dal passo b) fino a quando l’utente decide di uscire dall’applicazione.
  8. 8. Metodo secondo la rivendicazione 7 caratterizzato dal fatto che detto passo b) comprende i seguenti sotto - passi: I) Viene effettuata (41) la scansione dei gruppi principali fino aH’azionamento del sensore di comando per la selezione di uno di essi. m) Viene effettuata (42) la scansione dei corrispondenti sottogruppi per la selezione di uno di essi fino al raggiungimento dei singoli elementi. n) Viene effettuata (43) la scansione dei singoli elementi fino alla selezione dell’elemento desiderato tramite azionamento del sensore di comando e la conseguente esecuzione del comando/azione ad esso associato.
  9. 9. Metodo secondo le rivendicazioni 7 - 8 caratterizzato dal fatto che detto passo b) viene effettuato mediante i seguenti passi: f) Il Modulo Gestione Stati Scansione riceve l’input dall’utente, modifica il proprio stato, genera un evento e lo invia (31) al modulo Gestore eventi. g) Il Modulo Gestore Eventi elabora l’evento in arrivo ed invia (32) le notifiche di tali cambiamenti al Modulo Gestione Feedback Scansione. h) Il Modulo Gestione Feedback Scansione, dopo aver richiesto i dati per l'aggiornamento al Modulo Gestione Stati Scansione, genera (33) il feedback appropriato e si pone in attesa di altri input.
  10. 10. Metodo secondo le rivendicazioni 7 - 9 caratterizzato dal fatto che detto passo d) viene effettuato secondo i passi seguenti: i) Il Modulo Gestore Eventi effettua una mappatura tra l’input dell’utente e le risposte dell’applicativo ed invia (34) notifiche di modifica dello stato al Modulo Gestore Stati. j) Il Modulo Gestore Stati, incapsulando lo stato dell’applicazione, modifica il proprio stato e invia (35) le notifiche di tali cambiamenti al Modulo Gestore Interfaccia. k) Il Modulo Gestore Interfaccia, dopo aver richiesto i dati per l'aggiornamento al Modulo Gestore Stati, genera (36) l'interfaccia appropriata e rimane in attesa degli ulteriori input dell’utente.
  11. 11. Metodo secondo le rivendicazioni 7 - 10 caratterizzato dal fatto che detto processo di scansione di gruppi e sottogruppi di cui a detto passo b) viene effettuato tramite una modalità di feedback visivo effettuata secondo i passi seguenti: o) Opportuni mezzi di evidenziazione, vengono spostati secondo tempi e sequenza predefiniti evidenziando detti gruppi mentre gli elementi componenti detti gruppi vengono evidenziati tramite ulteriori mezzi di evidenziazione. p) Un’icona che permette di risalire al gruppo/sottogruppo precedente è visualizzata durante la scansione permettendo di tornare alla scansione dei gruppi/sottogruppi del livello precedente a quello attuale. q) Alla selezione effettuata tramite sensore di comando la scansione riparte dal sottogruppo relativo al blocco evidenziato in quell’istante da detti opportuni mezzi di evidenziazione e gli elementi componenti sono evidenziati a loro volta da detti ulteriori mezzi di evidenziazione. r) I passi p) e o) precedenti vengono ripetuti fino al raggiungimento dei singoli elementi, la cui scansione procederà secondo tempi e sequenza predefiniti, e che verranno evidenziati tramite detti opportuni mezzi di evidenziazione. s) Alla selezione dell’elemento desiderato corrisponderà l’esecuzione di un comando e il conseguente aggiornamento dell’interfaccia, per cui il successivo processo di scansione riprenderà con la scansione dei gruppi e sottogruppi costituenti la nuova interfaccia aggiornata.
  12. 12. Metodo secondo la rivendicazione 11 caratterizzato dal fatto che detti opportuni mezzi di evidenziazione comprendono un rettangolo colorato circoscritto a detti gruppi principale e detti ulteriori mezzi di evidenziazione comprendono un punto colorato associato agli elementi componenti detti gruppi principali.
  13. 13. Metodo secondo le rivendicazioni 7 - 10 caratterizzato dal fatto che detto processo di scansione di gruppi e sottogruppi di cui a detto passo b) viene effettuato tramite una modalità di feedback visivo effettuata secondo i passi seguenti: t) Ciascun elemento viene evidenziato tramite opportuni mezzi di evidenziazione recanti l’indicazione del numero di selezioni da effettuare mediante il sensore di comando impiegato, necessarie per selezionarlo. u) Un’icona che permette di risalire al gruppo/sottogruppo precedente è visualizzata durante la sequenza del processo di scansione e tutti gli elementi che compongono i gruppi/sottogruppi del livello precedente a quello attuale vengono evidenziati tramite detti opportuni mezzi di evidenziazione di colore diverso ad essi associati. v) Alla selezione tramite sensore di comando la scansione riparte dal sottogruppo relativo al blocco evidenziato in quell’istante, i cui elementi saranno evidenziati a loro volta opportuni mezzi di evidenziazione recanti l'indicazione del numero di selezioni da effettuare diminuito progressivamente di uno oppure da gruppo/sottogruppo del livello precedente a quello attuale se viene selezionata l’apposita icona. w) I passi t) - v) precedenti vengono ripetuti fino al raggiungimento dei singoli elementi che verranno evidenziati tramite detti ulteriori mezzi di evidenziazione che si spostano secondo tempi e sequenza predefiniti. x) Alla selezione dell’elemento desiderato corrisponderà l’esecuzione di un comando e il conseguente aggiornamento dell'interfaccia, per cui il processo di scansione riprenderà con la scansione dei gruppi e sottogruppi costituenti la nuova interfaccia aggiornata.
  14. 14. Metodo secondo la rivendicazione 13 caratterizzato dal fatto che detti opportuni mezzi di evidenziazione comprendono un punto colorato.
IT000103A 2008-05-22 2008-05-22 Metodo e apparato per l'accesso alla comunicazione e/o alla scrittura attraverso l'utilizzo di un'interfaccia dedicata e controllo a scansione con feedback visivo di percorso anticipato. ITFI20080103A1 (it)

Priority Applications (5)

Application Number Priority Date Filing Date Title
IT000103A ITFI20080103A1 (it) 2008-05-22 2008-05-22 Metodo e apparato per l'accesso alla comunicazione e/o alla scrittura attraverso l'utilizzo di un'interfaccia dedicata e controllo a scansione con feedback visivo di percorso anticipato.
CA2728908A CA2728908A1 (en) 2008-05-22 2009-05-22 Method and apparatus for the access to communication and/or to writing using a dedicated interface and a scanning control with advanced visual feedback
EP09750260A EP2300902A2 (en) 2008-05-22 2009-05-22 Method and apparatus for the access to communication and/or to writing using a dedicated interface and a scanning control with advanced visual feedback
PCT/IB2009/052146 WO2009141806A2 (en) 2008-05-22 2009-05-22 Method and apparatus for the access to communication and/or to writing using a dedicated interface and a scanning control with advanced visual feedback
US12/993,911 US20110078611A1 (en) 2008-05-22 2009-05-22 Method and apparatus for the access to communication and/or to writing using a dedicated interface and a scanning control with advanced visual feedback

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT000103A ITFI20080103A1 (it) 2008-05-22 2008-05-22 Metodo e apparato per l'accesso alla comunicazione e/o alla scrittura attraverso l'utilizzo di un'interfaccia dedicata e controllo a scansione con feedback visivo di percorso anticipato.

Publications (1)

Publication Number Publication Date
ITFI20080103A1 true ITFI20080103A1 (it) 2009-11-23

Family

ID=40302617

Family Applications (1)

Application Number Title Priority Date Filing Date
IT000103A ITFI20080103A1 (it) 2008-05-22 2008-05-22 Metodo e apparato per l'accesso alla comunicazione e/o alla scrittura attraverso l'utilizzo di un'interfaccia dedicata e controllo a scansione con feedback visivo di percorso anticipato.

Country Status (5)

Country Link
US (1) US20110078611A1 (it)
EP (1) EP2300902A2 (it)
CA (1) CA2728908A1 (it)
IT (1) ITFI20080103A1 (it)
WO (1) WO2009141806A2 (it)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9146617B2 (en) 2013-01-25 2015-09-29 Apple Inc. Activation of a screen reading program
US9792013B2 (en) 2013-01-25 2017-10-17 Apple Inc. Interface scanning for disabled users

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4698625A (en) * 1985-05-30 1987-10-06 International Business Machines Corp. Graphic highlight adjacent a pointing cursor
US6903723B1 (en) * 1995-03-27 2005-06-07 Donald K. Forest Data entry method and apparatus
US5796404A (en) * 1996-07-01 1998-08-18 Sun Microsystems, Inc. Computer system having alphanumeric keyboard access to objects in graphical user interface
US6128010A (en) * 1997-08-05 2000-10-03 Assistive Technology, Inc. Action bins for computer user interface
US6990638B2 (en) * 2001-04-19 2006-01-24 International Business Machines Corporation System and method for using shading layers and highlighting to navigate a tree view display
US9445133B2 (en) * 2002-07-10 2016-09-13 Arris Enterprises, Inc. DVD conversion for on demand
US7170977B2 (en) * 2003-04-01 2007-01-30 Fairleigh Dickinson University Telephone interface for a handicapped individual
US7159181B2 (en) * 2003-10-01 2007-01-02 Sunrise Medical Hhg Inc. Control system with customizable menu structure for personal mobility vehicle
US7317449B2 (en) * 2004-03-02 2008-01-08 Microsoft Corporation Key-based advanced navigation techniques
US7624355B2 (en) * 2004-05-27 2009-11-24 Baneth Robin C System and method for controlling a user interface
US7661074B2 (en) * 2005-07-01 2010-02-09 Microsoft Corporation Keyboard accelerator
JP4619882B2 (ja) * 2005-07-12 2011-01-26 株式会社東芝 携帯電話およびその遠隔操作方法
US8013837B1 (en) * 2005-10-11 2011-09-06 James Ernest Schroeder Process and apparatus for providing a one-dimensional computer input interface allowing movement in one or two directions to conduct pointer operations usually performed with a mouse and character input usually performed with a keyboard
US7567844B2 (en) * 2006-03-17 2009-07-28 Honeywell International Inc. Building management system
KR100973354B1 (ko) * 2008-01-11 2010-07-30 성균관대학교산학협력단 메뉴 유저 인터페이스 제공 장치 및 방법
US20090313581A1 (en) * 2008-06-11 2009-12-17 Yahoo! Inc. Non-Mouse Computer Input Method and Apparatus

Also Published As

Publication number Publication date
WO2009141806A3 (en) 2010-01-28
EP2300902A2 (en) 2011-03-30
WO2009141806A2 (en) 2009-11-26
US20110078611A1 (en) 2011-03-31
CA2728908A1 (en) 2009-11-26

Similar Documents

Publication Publication Date Title
CN102741789B (zh) 触感提供装置和用于提供触感的方法
JP2022529628A (ja) 複数のアプリケーションウィンドウと対話するためのシステム、方法、及びユーザインタフェース
Mankoff et al. Interaction techniques for ambiguity resolution in recognition-based interfaces
DE202016008310U1 (de) Vorhersagen von Suchanfragen durch eine Tastatur
DE202017105673U1 (de) Ikonografische Symbolvorhersagen für eine Konversation
US20120280927A1 (en) Simple touch interface and hdtp grammars for rapid operation of physical computer aided design (cad) systems
DE112016001104T5 (de) Aktivierung von virtuellen Assistenten
US20120254197A1 (en) Object access system based upon hierarchical extraction tree and related methods
CN107967055A (zh) 一种人机交互方法、终端及计算机可读介质
CN109891374B (zh) 用于与数字代理的基于力的交互的方法和计算设备
CN109906431A (zh) 启用动作的着墨工具
CN106940652A (zh) 控制应用程序的方法及移动终端
CN101504585A (zh) 触摸屏的滑动式输入方法
CN104598133B (zh) 对象的说明书生成方法和装置
US11436942B2 (en) Systems and methods for interactive braille display
US20120176302A1 (en) Optimized on-screen keyboard responsive to a user's thoughts and facial expressions
CN106557175B (zh) 文字输入方法和电子设备
ITFI20080103A1 (it) Metodo e apparato per l'accesso alla comunicazione e/o alla scrittura attraverso l'utilizzo di un'interfaccia dedicata e controllo a scansione con feedback visivo di percorso anticipato.
CN107111441A (zh) 多级用户界面
CN105843506A (zh) 一种标识信息显示方法和终端
Bongiovanni et al. Gestural and touchscreen interaction for human-robot collaboration: A comparative study
CN115756161B (zh) 多模态交互结构力学分析方法、系统、计算机设备及介质
KR20110082956A (ko) 터치스크린의 한글 입력 방법
JP2013088974A (ja) 情報処理装置、表示制御方法及びプログラム
Loch et al. An adaptive speech interface for assistance in maintenance and changeover procedures