ITFI20080049A1 - Apparato per la creazione, il salvataggio e la formattazione di documenti testuali tramite controllo oculare e metodo associato basato sul posizionamento ottimizzato del cursore. - Google Patents

Apparato per la creazione, il salvataggio e la formattazione di documenti testuali tramite controllo oculare e metodo associato basato sul posizionamento ottimizzato del cursore. Download PDF

Info

Publication number
ITFI20080049A1
ITFI20080049A1 IT000049A ITFI20080049A ITFI20080049A1 IT FI20080049 A1 ITFI20080049 A1 IT FI20080049A1 IT 000049 A IT000049 A IT 000049A IT FI20080049 A ITFI20080049 A IT FI20080049A IT FI20080049 A1 ITFI20080049 A1 IT FI20080049A1
Authority
IT
Italy
Prior art keywords
management module
data
information
user
status
Prior art date
Application number
IT000049A
Other languages
English (en)
Inventor
Lago Gianluca Dal
Original Assignee
Sr Labs Srl
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sr Labs Srl filed Critical Sr Labs Srl
Priority to IT000049A priority Critical patent/ITFI20080049A1/it
Priority to EP09719356.9A priority patent/EP2266014B1/en
Priority to DK09719356.9T priority patent/DK2266014T3/da
Priority to PCT/IB2009/051007 priority patent/WO2009113026A2/en
Priority to ES09719356T priority patent/ES2424662T3/es
Priority to US12/922,236 priority patent/US8205165B2/en
Priority to PT97193569T priority patent/PT2266014E/pt
Priority to CA2718441A priority patent/CA2718441C/en
Publication of ITFI20080049A1 publication Critical patent/ITFI20080049A1/it

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Document Processing Apparatus (AREA)
  • Channel Selection Circuits, Automatic Tuning Circuits (AREA)

Description

“Apparato per la creazione, il salvataggio e la formattazione di documenti testuali tramite controllo oculare e metodo associato basato sul posizionamento ottimizzato del cursore “
CAMPO DELL'INVENZIONE
La presente invenzione si riferisce aN’ambito delle tecniche di interazione nelle interfacce di sistemi a controllo oculare, ed in particolare ad un nuovo sistema di creazione, salvataggio e formattazione di documenti testuali tramite dispositivi di eye-tracking attraverso l'utilizzo di un sistema di posizionamento veloce del cursore. STATO DELL'ARTE
Uno degli obiettivi di ricerca nell'ambito dell’interazione uomo-computer è stato ed è tuttora quello di aumentare la larghezza di banda di comunicazione fra l'utente e la macchina, poiché con l’introduzione delle GUI (graphical user interface) la larghezza di banda dei dati forniti in output si è moltiplicata mentre quella delle informazioni acquisite in input è rimasta in gran parte la stessa.
A questo scopo sono stati fatti parecchi tentativi nell’ambito dell’eyetracking per far diminuire il divario fra la larghezza di banda di comunicazione dell'input e dell’output e poiché tale tecnologia è diventata abbastanza robusta, accurata ed economica, nasce ora l’esigenza di realizzare un'interfaccia reale utente-calcolatore che utilizzi tali informazioni in input.
Risulta necessario dunque trovare le "tecniche di interazione" adatte ai movimenti oculari in modo da costruire un dialogo utente-calcolatore conveniente e naturale visto che un'interfaccia utente basata su tali input ha il potenziale per un’interazione più veloce e che richiede molto meno sforzo rispetto alle interfacce correnti.
Costruire questo tipo di interfaccia può risultare però difficile per molte ragioni e in particolare poiché gli occhi sono deputati alla percezione e lo sguardo si muove sullo schermo anche quando l'utente registra delle informazioni e non è interessato a generare alcun tipo di comando di controllo.
Inoltre l'utente, che spesso è una persona disabile, può avere problemi nel controllare il proprio sguardo con precisione sufficientemente alta da controllare il computer come desiderato e ciò risulta particolarmente accentuato se gli oggetti dello schermo da controllare con lo sguardo sono piccoli.
Allo stato deN’arte esistono parecchi sistemi che in modi diversi hanno cercato di sviluppare metodi di interazione basati sulla gestione completa dell’emulazione del mouse; in particolare in alcuni di essi il movimento del puntatore è funzione del movimento dello sguardo.
Una di queste tecniche di interazione ingrandisce le aree presenti sullo schermo permettendo al’utente di eseguire in maniera più affidabile un’azione utilizzando il puntatore e consentendo di accedere a praticamente tutte le applicazioni Windows.
In questi casi tale soluzione non appare essere la migliore poiché le potenzialità dell’input visivo vengono ridotte ad una semplice riproduzione delle caratteristiche del mouse (spostare il cursore con gli occhi). A differenza del gesto motorio fornito dall’avambraccio e dalla mano, stabile e direttamente associato all’azione volontaria, il gesto oculo-motorio presenta altre caratteristiche essendo spesso involontario e finalizzato all’acquisizione di informazioni dall’esterno e non presentando un andamento stabile nel tempo. Inoltre tale modalità di interazione affatica chi lo usa, rallenta l’interazione con l’artefatto e comporta un numero elevato di errori.
In un altro sistema il cursore viene posizionato, in maniera approssimativa, all’inizio della parola guardata soffermandosi sopra di essa con lo sguardo o premendo lo switch. Per muovere il cursore di carattere in carattere, dopo aver guardato la parola desiderata per un certo tempo (dwell time), occorre guardare la freccia nella direzione opportuna tra le 4 che appaiono attorno alla parola fissata (un set di 4 frecce nelle 4 direzioni). Per muovere lentamente il cursore è sufficiente guardare in quella direzione. Esiste poi una particolare schermata di navigazione in cui sono presenti alcuni pulsanti che permettono di muovere il cursore in tutte le direzioni, sia per piccoli che per grandi spostamenti. Per selezionare un testo da copiare o tagliare, occorre posizionare il cursore all’inizio di questo testo, selezionare un particolare pulsante e muovere il cursore alla fine del testo da selezionare. Altri sistemi presentano una soluzione del posizionamento del cursore che integra controllo oculare e manuale, in cui quando è rilevata un’attivazione manuale dell’operatore il cursore viene posizionato nella posizione iniziale determinata dallo sguardo dell’utente nell’area selezionata. In altri ancora, la regione dello schermo verso la quale è diretto lo sguardo dell’utente si espande in modo che la selezione degli oggetti dentro di essa sia facilitata; i componenti collocati immediatamente fuori da tale regione si contraggono e/o traslano in relazione a tale espansione.
SOMMARIO DELL'INVENZIONE
Costituisce l’oggetto della presente invenzione un metodo e un apparato per l’elaborazione di documenti testuali che utilizza come sistema di input lo sguardo ed un metodo veloce di posizionamento del cursore, sviluppando un’interfaccia intuitiva e facile da usare come descritto nelle rivendicazioni che formano parte integrante della presente descrizione.
Questo apparato rappresenta quindi una possibile implementazione di una tecnologia assistiva estremamente innovativa per la creazione, il salvataggio e la formattazione di documenti testuali, basata sull’uso di input alternativi e naturali, quali lo sguardo.
BREVE DESCRIZIONE DEI DISEGNI
Fig. 1 Mostra lo schema a blocchi dell’architettura del metodo in accordo alla presente invenzione.
Fig. 2 Mostra il diagramma di flusso del metodo secondo la presente invenzione.
Fig. 3 Mostra il diagramma di flusso della routine di generazione ed esecuzione dell’azione metodo secondo la presente invenzione.
Fig. 4 Mostra il diagramma di flusso relativo alla routine di posizionamento del cursore.
Fig. 5 Mostra il diagramma di flusso relativo alla routine di posizionamento del cursore per selezione di testo (selezione multipla). DESCRIZIONE DETTAGLIATA DELL’INVENZIONE
In una realizzazione preferita della presente invenzione, l’apparato oggetto della presente invenzione comprende mezzi di elaborazione elettronica di dati e informazioni, mezzi per la memorizzazione di detti dati e informazioni e mezzi di interfacciamento utente.
Detti mezzi di elaborazione elettronica di dati e informazioni comprendono un’opportuna sezione di controllo, preferibilmente basata su almeno un microprocessore, e possono ad esempio essere realizzati da un personal computer. Detti mezzi di memorizzazione comprendono preferibilmente dischi rigidi e memorie di tipo flash. Detti mezzi di interfacciamento utente comprendono mezzi di visualizzazione dati, come ad esempio display, monitor o analoghe unità di output esterne e dispositivi di eye - tracking atti ad interpretare la direzione dello sguardo dell’utente.
Detto almeno un microprocessore è preferibilmente corredato da un opportuno programma software la cui architettura, descritta in Fig. 1, comprende i seguenti moduli: un modulo di filtraggio 10 in cui vengono elaborate le coordinate dello sguardo dell’utente in modo da rendere i dati grezzi in arrivo dal dispositivo di eye - tracking utilizzato più stabili; un modulo, cosiddetto di Definizione dell’Azione 11 , responsabile della gestione dell’interfaccia grafica dell’applicazione che detiene l’informazione relativa alle aree componenti dell’interfaccia con le quali l’utente può interagire ed è atto a determinare quale area dell’interfaccia è attualmente fissata dall’utente, determinare l’azione da eseguire e metterla in esecuzione. Detto modulo di Definizione dell’Azione 11 possedendo l’informazione relativa al tipo di azione associata all’attivazione di un determinato componente.
Detto modulo Definizione dell’Azione 11 si compone di tre moduli componenti: Un Modulo Gestione Eventi 12 atto a definire le regole per trasformare gli input sull’interfaccia in modifiche sullo stato dell’applicazione effettuando una mappatura tra l’azione dell’utente e la risposta dell’applicativo; un Modulo Gestione Stati 13 che rappresenta i dati dell’applicazione ed è atto a definirne lo stato e le funzionalità e un Modulo Gestione Interfaccia 14 che rappresenta la visualizzazione degli oggetti dell’interfaccia, ed è atto a gestire l’interfaccia grafica dell’applicazione detenendo l’informazione relativa alle aree componenti dell’interfaccia con le quali l’utente può interagire ed è atto a determinare quale area dell’interfaccia è attualmente fissata dall’utente. In riferimento alla Fig. 2 vediamo il diagramma di flusso che rappresenta le interconnessioni tra i moduli menzionati in precedenza illustrando i passi del metodo secondo la presente invenzione.
a) Viene visualizzata 20, sui mezzi di visualizzazione associati all’elaboratore elettronico che svolge il programma che realizza il metodo secondo la presente invenzione, l’interfaccia utente dell’applicazione che consente all’utente di interagire con detto programma attraverso un dispositivo eye - tracker associato a detto elaboratore elettronico.
b) Vengono rilevate 21, sottoforma di dati grezzi, le coordinate dello sguardo dell’utente da parte del dispositivo di eye - tracking, detti dati grezzi rappresentando le coordinate dello sguardo lungo i due assi coordinati rilevati con la frequenza propria di detto dispositivo di eye-tracking.
c) Vengono filtrati 22 i dati grezzi relativi a dette coordinate in modo da renderli stabili e adatti a fornire indicazioni sulle fissazioni dell’utente cioè al numero di sguardi (detti “gaze”) dell’utente entro un certo intorno.
d) Vengono inviati i dati filtrati provenienti dal passo precedente al modulo Definizione dell’Azione 23.
e) L’azione corrispondente viene eseguita 24 e l’interfaccia utente dell’applicazione viene modificata in seguito all’azione stessa. f) Si ripete la sequenza a partire dal passo b) fino a quando l’utente decide di uscire dall’applicazione.
La generazione ed esecuzione dell’azione di cui al passo e) della sequenza illustrata in Figura 2, avviene secondo la sequenza riportata nel seguito ed illustrata in Figura 3:
g) Il modulo Gestione Eventi 30 elabora l’evento in arrivo effettuando una mappatura tra esso e la risposta dell’applicativo in modo da associare ad ogni evento/azione un’azione corrispondente sull’interfaccia utente che implica una modifica dei dati ed eventualmente una modifica della stessa interfaccia utente .
h) Il modulo Gestione Eventi 31 invia tali informazioni al modulo Gestione Stati.
i) Il modulo Gestione Stati 32 processa tali informazioni ed aggiorna il proprio stato interno sulla base delle informazioni ricevute; in pratica detto modulo Gestione Eventi notifica al modulo Gestione Stati che a seguito dell’azione dell’utente occorre modificare lo stato dell’applicazione su detta interfaccia utente.
j) Il Modulo Gestione Interfaccia 33 richiede i dati per l'aggiornamento al Modulo Gestione Stati e genera un’appropriata interfaccia utente.
k) Il modulo Gestione Interfaccia 34 rimane in attesa dei successivi dati in input.
In particolare vengono descritte di seguito due modalità di posizionamento del cursore e di selezione del testo, parte integrante di questo brevetto, che permettono una formattazione di documenti testuali efficiente e veloce utilizzando solo il controllo oculare.
In riferimento alla Fig. 4, il posizionamento del cursore - che risulta posizionato alla fine del testo visualizzato su detta interfaccia utente, nel caso si tratti della prima apertura della finestra di testo, oppure posizionato come da selezione effettuata alla fine della sessione precedente - avviene secondo i passi descritti nel seguito che sviluppano il passo j) precedente. Dopo tale posizionamento potranno essere effetuate operazioni di cancellazione inserimento, etc. normalmente effetuate nel corso di elaborazione di testi.
L) Il modulo Gestione Interfaccia richiede 40 i dati per l’aggiornamento al modulo Gestione Stati e genera una finestra semitrasparente relativa all’area di fissazione, che si muove sul testo seguendo lo sguardo dell’utente, ed una serie di botoni selezionabili nella barra laterale ciascuno relativo alle parole contenute nell’area di fissazione stessa.
m) Il modulo Gestione Eventi riceve 41 in input l’evento relativo alla selezione di una parola scelta tra i botoni selezionabili dalla barra laterale, definisce la risposta dell’applicativo e invia al modulo Gestione Stati tali informazioni.
n) Il modulo Gestione Stati processa 42 tali informazioni e aggiorna il proprio stato.
o) Il modulo Gestione Interfaccia richiede 43 i dati per l'aggiornamento al modulo Gestione Stati e genera una barreta colorata posizionata alla fine della parola scelta.
In riferimento alla Fig. 5 allegata, il posizionamento del cursore per la selezione del testo avviene seguendo la procedura illustrata sopra atraverso i passi da I) a o) per il posizionamento del primo cursore all’inizio/fine del testo da selezionare e successivamente seguendo i passi illustrati di seguito, risultanti da modifiche dei passi j) e seguenti.
p) Il modulo Gestione Eventi riceve 50 in input l’evento relativo alla selezione del botone “Seleziona” della barra laterale, definisce la risposta dell’applicativo e invia al modulo Gestione Stati tali informazioni.
q) Il modulo Gestione Stati processa 51 tali informazioni e aggiorna il proprio stato.
r) Il modulo Gestione Interfaccia richiede 52 i dati per l'aggiornamento al modulo Gestione Stati e rimane in attesa di ulteriori eventi.
s) Il modulo Gestione Eventi riceve 53 in input l’evento relativo alla selezione di una parola scelta (precedente alla prima che si vuole selezionare o successiva all’ultima) tra i bottoni selezionabili dalla barra laterale, definisce la risposta dell’applicativo e invia al modulo Gestione Stati tali informazioni.
t) Il modulo Gestione Stati processa 54 tali informazioni e aggiorna il proprio stato.
u) Il modulo Gestione Interfaccia richiede 55 i dati per l'aggiornamento al Modulo Gestione Stati e colora il testo contenuto tra le due parole come feedback per l’avvenuta selezione.
Dopo tale selezione potranno essere effettuate operazioni di cancellazione inserimento formattazione etc. secondo la sequenza descritta in precedenza.

Claims (10)

  1. RIVENDICAZIONI 1. Apparato per l’elaborazione di documenti testuali comprendente mezzi di elaborazione elettronica di dati e informazioni, mezzi per la memorizzazione di detti dati e informazioni e mezzi di interfacciamento utente.
  2. 2. Apparato secondo la rivendicazione 1 caratterizzato dal fatto che detti mezzi di elaborazione elettronica di dati e informazioni comprendono una sezione di controllo basata su almeno un microprocessore.
  3. 3. Apparato secondo le rivendicazioni 1 - 2 caratterizzato dal fatto che detti mezzi di elaborazione elettronica di dati e informazioni comprendono almeno un personal computer.
  4. 4. Apparato secondo le rivendicazioni 1 - 2 caratterizzato dal fatto che detti mezzi per la memorizzazione di detti dati e dette informazioni comprendono dispositivi di memoria di massa scelti nel gruppo comprendente dischi rigidi e memorie di tipo flash.
  5. 5. Apparato secondo le rivendicazioni 1 - 4 caratterizzato dal fatto che detti mezzi di interfacciamento utente comprendono mezzi di visualizzazione dati scelti nel gruppo comprendente display, monitor e dispositivi di eye - tracking atti ad interpretare la direzione dello sguardo dell’utente.
  6. 6. Metodo per l’elaborazione di documenti testuali basato sul posizionamento ottimizzato del cursore caratterizzato dal fatto di comprendere i seguenti passi: a) si visualizza (20), su opportuni mezzi di visualizzazione associati ad opportuni mezzi di elaborazione elettronica di dati e informazioni, l’interfaccia utente dell’applicativo atto a consentire all’utente di interagire con un dispositivo eye - tracker associato a detto elaboratore elettronico; b) si rilevano (21), in forma di dati grezzi, le coordinate dello sguardo dell’utente da parte di detto dispositivo di eye - tracking, detti dati grezzi rappresentando le coordinate dello sguardo lungo i due assi coordinati rilevati con la frequenza propria di detto dispositivo di eye-tracking; c) si filtrano (22) i dati grezzi relativi a dette coordinate in modo da renderli stabili e adatti a fornire indicazioni sulle fissazioni dell’utente cioè al numero di sguardi (detti “gaze”) dell’utente entro un certo intorno; d) si inviano (23) i dati filtrati provenienti dal passo precedente al modulo Definizione dell’azione; e) si esegue (24) l’azione corrispondente e l’interfaccia utente viene modificata in seguito all’azione stessa; f) Si ripete la sequenza a partire dal passo b).
  7. 7. Metodo secondo la rivendicazione 6 caratterizzato dal fatto che detto passo e) comprende i seguenti passi: g) Il modulo Gestione Eventi elabora (30) l’evento in arrivo effettuando una mappatura tra esso e la risposta dell’applicativo in modo da associare, ad ogni evento/azione, un’azione corrispondente sull’interfaccia utente che implica una modifica dei dati ed eventualmente una modifica della stessa interfaccia utente . h) Il modulo Gestione Eventi (31 ) invia tali informazioni al Modulo Gestione Stati i) Il modulo Gestione Stati processa (32) tali informazioni ed aggiorna il proprio stato interno sulla base delle informazioni ricevute. j) Il Modulo Gestione Interfaccia richiede (33) i dati per l’aggiornamento al Modulo Gestione Stati e genera un’appropriata interfaccia. k) Il modulo Gestione Interfaccia rimane in attesa (34) dei successivi dati in input.
  8. 8. Metodo secondo la rivendicazione 7 caratterizzato dal fatto che detto passo j) comprende i passi seguenti: L) Il modulo Gestione Interfaccia richiede (40) i dati per l’aggiornamento al modulo Gestione Stati e genera una finestra semitrasparente relativa all’area di fissazione, che si muove sul testo seguendo lo sguardo dell’utente, ed una serie di bottoni selezionabili nella barra laterale ciascuno relativo alle parole contenute nell’area di fissazione stessa m) Il modulo Gestione Eventi riceve (41 ) in input l’evento relativo alla selezione di una parola scelta tra i bottoni selezionabili dalla barra laterale, definisce la risposta dell’applicativo e invia al modulo Gestione Stati tali informazioni. n) Il modulo Gestione Stati processa (42) tali informazioni e aggiorna il proprio stato o) Il modulo Gestione Interfaccia richiede (43) i dati per l'aggiornamento al modulo Gestione Stati e genera una barretta colorata posizionata alla fine della parola scelta.
  9. 9. Metodo secondo la rivendicazione 8 caratterizzato dal fatto che detto passo j) comprende ulteriormente i passi seguenti: p) Il modulo Gestione Eventi riceve (50) in input l’evento relativo alla selezione del bottone “Seleziona” della barra laterale, definisce la risposta dell’applicativo e invia al modulo Gestione Stati tali informazioni q) Il modulo Gestione Stati processa (51) tali informazioni e aggiorna il proprio stato. r) Il modulo Gestione Interfaccia richiede (52) i dati per l’aggiornamento al modulo Gestione Stati e rimane in attesa di ulteriori eventi. s) Il modulo Gestione Eventi riceve (53) in input l’evento relativo alla selezione di una parola scelta (precedente alla prima che si vuole selezionare o successiva all’ultima) tra i bottoni selezionabili dalla barra laterale, definisce la risposta dell’applicativo e invia al modulo Gestione Stati tali informazioni. t) Il modulo Gestione Stati processa (54) tali informazioni e aggiorna il proprio stato. u) Il modulo Gestione Interfaccia richiede (55) i dati per l’aggiornamento al Modulo Gestione Stati e colora il testo contenuto tra le due parole come feedback per l’awenuta selezione.
  10. 10. Metodo secondo le rivendicazioni 8 - 9 caratterizzato dal fatto di comprendere un ulteriore passo atto ad eseguire un’azione scelta nel gruppo comprendente: cancellazione inserimento formattazione di parole o parti di testo.
IT000049A 2008-03-12 2008-03-12 Apparato per la creazione, il salvataggio e la formattazione di documenti testuali tramite controllo oculare e metodo associato basato sul posizionamento ottimizzato del cursore. ITFI20080049A1 (it)

Priority Applications (8)

Application Number Priority Date Filing Date Title
IT000049A ITFI20080049A1 (it) 2008-03-12 2008-03-12 Apparato per la creazione, il salvataggio e la formattazione di documenti testuali tramite controllo oculare e metodo associato basato sul posizionamento ottimizzato del cursore.
EP09719356.9A EP2266014B1 (en) 2008-03-12 2009-03-11 Apparatus to create, save and format text documents using gaze control and associated method
DK09719356.9T DK2266014T3 (da) 2008-03-12 2009-03-11 Apparat til at frembringe, gemme og formatere tekstdokumenter under anvendelse af øjenstyring samt tilhørende fremgangsmåde
PCT/IB2009/051007 WO2009113026A2 (en) 2008-03-12 2009-03-11 Apparatus to create, save and format text documents using gaze control and method associated based on the optimized positioning of cursor
ES09719356T ES2424662T3 (es) 2008-03-12 2009-03-11 Aparato para crear, grabar y formatear documentos de texto usando control con la mirada y método asociado
US12/922,236 US8205165B2 (en) 2008-03-12 2009-03-11 Apparatus to create, save and format text documents using gaze control and method associated based on the optimized positioning of cursor
PT97193569T PT2266014E (pt) 2008-03-12 2009-03-11 Aparelho para criar, guardar e formatar documentos de texto usando um controlo ocular e método associado
CA2718441A CA2718441C (en) 2008-03-12 2009-03-11 Apparatus to create, save and format text documents using gaze control and method associated based on the optimized positioning of cursor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT000049A ITFI20080049A1 (it) 2008-03-12 2008-03-12 Apparato per la creazione, il salvataggio e la formattazione di documenti testuali tramite controllo oculare e metodo associato basato sul posizionamento ottimizzato del cursore.

Publications (1)

Publication Number Publication Date
ITFI20080049A1 true ITFI20080049A1 (it) 2009-09-13

Family

ID=40292754

Family Applications (1)

Application Number Title Priority Date Filing Date
IT000049A ITFI20080049A1 (it) 2008-03-12 2008-03-12 Apparato per la creazione, il salvataggio e la formattazione di documenti testuali tramite controllo oculare e metodo associato basato sul posizionamento ottimizzato del cursore.

Country Status (8)

Country Link
US (1) US8205165B2 (it)
EP (1) EP2266014B1 (it)
CA (1) CA2718441C (it)
DK (1) DK2266014T3 (it)
ES (1) ES2424662T3 (it)
IT (1) ITFI20080049A1 (it)
PT (1) PT2266014E (it)
WO (1) WO2009113026A2 (it)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8793620B2 (en) * 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
US9250703B2 (en) 2006-03-06 2016-02-02 Sony Computer Entertainment Inc. Interface with gaze detection and voice input
US8730156B2 (en) 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
US20100118200A1 (en) * 2008-11-10 2010-05-13 Geoffrey Michael Gelman Signage
IT1399456B1 (it) * 2009-09-11 2013-04-19 Sr Labs S R L Metodo e apparato per l'utilizzo di generiche applicazioni software attraverso controllo oculare e opportune metodologie di interazione.
US8888287B2 (en) 2010-12-13 2014-11-18 Microsoft Corporation Human-computer interface system having a 3D gaze tracker
US10120438B2 (en) 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US8571851B1 (en) * 2012-12-31 2013-10-29 Google Inc. Semantic interpretation using user gaze order
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US9829972B2 (en) * 2014-03-12 2017-11-28 Lenovo (Singapore) Pte. Ltd. Eye tracking for automatically updating document status
US10993837B2 (en) * 2014-04-23 2021-05-04 Johnson & Johnson Surgical Vision, Inc. Medical device data filtering for real time display
US10884488B2 (en) 2014-11-24 2021-01-05 Samsung Electronics Co., Ltd Electronic device and method for controlling display

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6204828B1 (en) * 1998-03-31 2001-03-20 International Business Machines Corporation Integrated gaze/manual cursor positioning system
US6091378A (en) * 1998-06-17 2000-07-18 Eye Control Technologies, Inc. Video processing methods and apparatus for gaze point tracking
US6873314B1 (en) * 2000-08-29 2005-03-29 International Business Machines Corporation Method and system for the recognition of reading skimming and scanning from eye-gaze patterns
US7092554B2 (en) * 2001-05-01 2006-08-15 Eastman Kodak Company Method for detecting eye and mouth positions in a digital image
US6712468B1 (en) * 2001-12-12 2004-03-30 Gregory T. Edwards Techniques for facilitating use of eye tracking data
GB2396001B (en) * 2002-10-09 2005-10-26 Canon Kk Gaze tracking system
WO2005046465A1 (en) * 2003-11-14 2005-05-26 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
EP1607840B1 (en) * 2004-06-18 2015-01-28 Tobii Technology AB Eye control of computer apparatus
ITFI20040223A1 (it) * 2004-10-29 2005-01-29 Sr Labs S R L Metodo e sistema di visualizzazione,elaborazione ed analisi integrata di immagini mediche
ITFI20050176A1 (it) * 2005-08-10 2007-02-11 Sr Labs S R L Metodo e apparato per l'inserimento sicuro di un codice di accesso tramite l'uso di un dispositivo a controllo oculare
EP1943583B1 (en) * 2005-10-28 2019-04-10 Tobii AB Eye tracker with visual feedback
US7429108B2 (en) * 2005-11-05 2008-09-30 Outland Research, Llc Gaze-responsive interface to enhance on-screen user reading tasks
US7556377B2 (en) * 2007-09-28 2009-07-07 International Business Machines Corporation System and method of detecting eye fixations using adaptive thresholds

Also Published As

Publication number Publication date
WO2009113026A3 (en) 2010-01-21
US20110022950A1 (en) 2011-01-27
WO2009113026A2 (en) 2009-09-17
DK2266014T3 (da) 2013-07-29
CA2718441C (en) 2018-01-16
EP2266014B1 (en) 2013-05-22
ES2424662T3 (es) 2013-10-07
EP2266014A2 (en) 2010-12-29
CA2718441A1 (en) 2009-09-17
US8205165B2 (en) 2012-06-19
PT2266014E (pt) 2013-08-22

Similar Documents

Publication Publication Date Title
ITFI20080049A1 (it) Apparato per la creazione, il salvataggio e la formattazione di documenti testuali tramite controllo oculare e metodo associato basato sul posizionamento ottimizzato del cursore.
CN109074166B (zh) 使用神经数据改变应用状态
DK2202609T3 (en) Eye control of computer equipment
CA2773636C (en) Method and apparatus for using generic software applications by ocular control and suitable methods of interaction
JP6659644B2 (ja) 応用素子の代替的グラフィック表示の事前の生成による入力に対する低レイテンシの視覚的応答およびグラフィック処理ユニットの入力処理
DE202017105307U1 (de) Umschalten aktiver Objekte in einer erweiterten Realitäts- und/oder virtuellen Realitätsumgebung
El-Bakry et al. Adaptive user interface for web applications
Shree DV et al. Operating different displays in military fast jets using eye gaze tracker
Loch et al. An adaptive speech interface for assistance in maintenance and changeover procedures
Peissner et al. Transparency and controllability in user interfaces that adapt during run-time
US20220366803A1 (en) Computer-implemented methods and systems for designing and conducting virtual reality experiments
Kemali Interaction Optimization through Pen and Touch, Eye Tracking and Speech Control for the Multimodal Seismic Interpretation Workspace
Kemper et al. Foundations for creating a distributed adaptive user interface