ITFI20080049A1 - Apparato per la creazione, il salvataggio e la formattazione di documenti testuali tramite controllo oculare e metodo associato basato sul posizionamento ottimizzato del cursore. - Google Patents
Apparato per la creazione, il salvataggio e la formattazione di documenti testuali tramite controllo oculare e metodo associato basato sul posizionamento ottimizzato del cursore. Download PDFInfo
- Publication number
- ITFI20080049A1 ITFI20080049A1 IT000049A ITFI20080049A ITFI20080049A1 IT FI20080049 A1 ITFI20080049 A1 IT FI20080049A1 IT 000049 A IT000049 A IT 000049A IT FI20080049 A ITFI20080049 A IT FI20080049A IT FI20080049 A1 ITFI20080049 A1 IT FI20080049A1
- Authority
- IT
- Italy
- Prior art keywords
- management module
- data
- information
- user
- status
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 30
- 230000009471 action Effects 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 9
- 230000010365 information processing Effects 0.000 claims description 6
- 230000004048 modification Effects 0.000 claims description 5
- 238000012986 modification Methods 0.000 claims description 5
- 230000000875 corresponding effect Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- YTAHJIFKAKIKAV-XNMGPUDCSA-N [(1R)-3-morpholin-4-yl-1-phenylpropyl] N-[(3S)-2-oxo-5-phenyl-1,3-dihydro-1,4-benzodiazepin-3-yl]carbamate Chemical compound O=C1[C@H](N=C(C2=C(N1)C=CC=C2)C1=CC=CC=C1)NC(O[C@H](CCN1CCOCC1)C1=CC=CC=C1)=O YTAHJIFKAKIKAV-XNMGPUDCSA-N 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 239000003086 colorant Substances 0.000 claims description 2
- 238000003780 insertion Methods 0.000 claims description 2
- 230000037431 insertion Effects 0.000 claims description 2
- 230000015654 memory Effects 0.000 claims description 2
- 238000012217 deletion Methods 0.000 claims 1
- 230000037430 deletion Effects 0.000 claims 1
- 230000003993 interaction Effects 0.000 description 8
- 230000004913 activation Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 230000003565 oculomotor Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Digital Computer Display Output (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Document Processing Apparatus (AREA)
- Channel Selection Circuits, Automatic Tuning Circuits (AREA)
Description
“Apparato per la creazione, il salvataggio e la formattazione di documenti testuali tramite controllo oculare e metodo associato basato sul posizionamento ottimizzato del cursore “
CAMPO DELL'INVENZIONE
La presente invenzione si riferisce aN’ambito delle tecniche di interazione nelle interfacce di sistemi a controllo oculare, ed in particolare ad un nuovo sistema di creazione, salvataggio e formattazione di documenti testuali tramite dispositivi di eye-tracking attraverso l'utilizzo di un sistema di posizionamento veloce del cursore. STATO DELL'ARTE
Uno degli obiettivi di ricerca nell'ambito dell’interazione uomo-computer è stato ed è tuttora quello di aumentare la larghezza di banda di comunicazione fra l'utente e la macchina, poiché con l’introduzione delle GUI (graphical user interface) la larghezza di banda dei dati forniti in output si è moltiplicata mentre quella delle informazioni acquisite in input è rimasta in gran parte la stessa.
A questo scopo sono stati fatti parecchi tentativi nell’ambito dell’eyetracking per far diminuire il divario fra la larghezza di banda di comunicazione dell'input e dell’output e poiché tale tecnologia è diventata abbastanza robusta, accurata ed economica, nasce ora l’esigenza di realizzare un'interfaccia reale utente-calcolatore che utilizzi tali informazioni in input.
Risulta necessario dunque trovare le "tecniche di interazione" adatte ai movimenti oculari in modo da costruire un dialogo utente-calcolatore conveniente e naturale visto che un'interfaccia utente basata su tali input ha il potenziale per un’interazione più veloce e che richiede molto meno sforzo rispetto alle interfacce correnti.
Costruire questo tipo di interfaccia può risultare però difficile per molte ragioni e in particolare poiché gli occhi sono deputati alla percezione e lo sguardo si muove sullo schermo anche quando l'utente registra delle informazioni e non è interessato a generare alcun tipo di comando di controllo.
Inoltre l'utente, che spesso è una persona disabile, può avere problemi nel controllare il proprio sguardo con precisione sufficientemente alta da controllare il computer come desiderato e ciò risulta particolarmente accentuato se gli oggetti dello schermo da controllare con lo sguardo sono piccoli.
Allo stato deN’arte esistono parecchi sistemi che in modi diversi hanno cercato di sviluppare metodi di interazione basati sulla gestione completa dell’emulazione del mouse; in particolare in alcuni di essi il movimento del puntatore è funzione del movimento dello sguardo.
Una di queste tecniche di interazione ingrandisce le aree presenti sullo schermo permettendo al’utente di eseguire in maniera più affidabile un’azione utilizzando il puntatore e consentendo di accedere a praticamente tutte le applicazioni Windows.
In questi casi tale soluzione non appare essere la migliore poiché le potenzialità dell’input visivo vengono ridotte ad una semplice riproduzione delle caratteristiche del mouse (spostare il cursore con gli occhi). A differenza del gesto motorio fornito dall’avambraccio e dalla mano, stabile e direttamente associato all’azione volontaria, il gesto oculo-motorio presenta altre caratteristiche essendo spesso involontario e finalizzato all’acquisizione di informazioni dall’esterno e non presentando un andamento stabile nel tempo. Inoltre tale modalità di interazione affatica chi lo usa, rallenta l’interazione con l’artefatto e comporta un numero elevato di errori.
In un altro sistema il cursore viene posizionato, in maniera approssimativa, all’inizio della parola guardata soffermandosi sopra di essa con lo sguardo o premendo lo switch. Per muovere il cursore di carattere in carattere, dopo aver guardato la parola desiderata per un certo tempo (dwell time), occorre guardare la freccia nella direzione opportuna tra le 4 che appaiono attorno alla parola fissata (un set di 4 frecce nelle 4 direzioni). Per muovere lentamente il cursore è sufficiente guardare in quella direzione. Esiste poi una particolare schermata di navigazione in cui sono presenti alcuni pulsanti che permettono di muovere il cursore in tutte le direzioni, sia per piccoli che per grandi spostamenti. Per selezionare un testo da copiare o tagliare, occorre posizionare il cursore all’inizio di questo testo, selezionare un particolare pulsante e muovere il cursore alla fine del testo da selezionare. Altri sistemi presentano una soluzione del posizionamento del cursore che integra controllo oculare e manuale, in cui quando è rilevata un’attivazione manuale dell’operatore il cursore viene posizionato nella posizione iniziale determinata dallo sguardo dell’utente nell’area selezionata. In altri ancora, la regione dello schermo verso la quale è diretto lo sguardo dell’utente si espande in modo che la selezione degli oggetti dentro di essa sia facilitata; i componenti collocati immediatamente fuori da tale regione si contraggono e/o traslano in relazione a tale espansione.
SOMMARIO DELL'INVENZIONE
Costituisce l’oggetto della presente invenzione un metodo e un apparato per l’elaborazione di documenti testuali che utilizza come sistema di input lo sguardo ed un metodo veloce di posizionamento del cursore, sviluppando un’interfaccia intuitiva e facile da usare come descritto nelle rivendicazioni che formano parte integrante della presente descrizione.
Questo apparato rappresenta quindi una possibile implementazione di una tecnologia assistiva estremamente innovativa per la creazione, il salvataggio e la formattazione di documenti testuali, basata sull’uso di input alternativi e naturali, quali lo sguardo.
BREVE DESCRIZIONE DEI DISEGNI
Fig. 1 Mostra lo schema a blocchi dell’architettura del metodo in accordo alla presente invenzione.
Fig. 2 Mostra il diagramma di flusso del metodo secondo la presente invenzione.
Fig. 3 Mostra il diagramma di flusso della routine di generazione ed esecuzione dell’azione metodo secondo la presente invenzione.
Fig. 4 Mostra il diagramma di flusso relativo alla routine di posizionamento del cursore.
Fig. 5 Mostra il diagramma di flusso relativo alla routine di posizionamento del cursore per selezione di testo (selezione multipla). DESCRIZIONE DETTAGLIATA DELL’INVENZIONE
In una realizzazione preferita della presente invenzione, l’apparato oggetto della presente invenzione comprende mezzi di elaborazione elettronica di dati e informazioni, mezzi per la memorizzazione di detti dati e informazioni e mezzi di interfacciamento utente.
Detti mezzi di elaborazione elettronica di dati e informazioni comprendono un’opportuna sezione di controllo, preferibilmente basata su almeno un microprocessore, e possono ad esempio essere realizzati da un personal computer. Detti mezzi di memorizzazione comprendono preferibilmente dischi rigidi e memorie di tipo flash. Detti mezzi di interfacciamento utente comprendono mezzi di visualizzazione dati, come ad esempio display, monitor o analoghe unità di output esterne e dispositivi di eye - tracking atti ad interpretare la direzione dello sguardo dell’utente.
Detto almeno un microprocessore è preferibilmente corredato da un opportuno programma software la cui architettura, descritta in Fig. 1, comprende i seguenti moduli: un modulo di filtraggio 10 in cui vengono elaborate le coordinate dello sguardo dell’utente in modo da rendere i dati grezzi in arrivo dal dispositivo di eye - tracking utilizzato più stabili; un modulo, cosiddetto di Definizione dell’Azione 11 , responsabile della gestione dell’interfaccia grafica dell’applicazione che detiene l’informazione relativa alle aree componenti dell’interfaccia con le quali l’utente può interagire ed è atto a determinare quale area dell’interfaccia è attualmente fissata dall’utente, determinare l’azione da eseguire e metterla in esecuzione. Detto modulo di Definizione dell’Azione 11 possedendo l’informazione relativa al tipo di azione associata all’attivazione di un determinato componente.
Detto modulo Definizione dell’Azione 11 si compone di tre moduli componenti: Un Modulo Gestione Eventi 12 atto a definire le regole per trasformare gli input sull’interfaccia in modifiche sullo stato dell’applicazione effettuando una mappatura tra l’azione dell’utente e la risposta dell’applicativo; un Modulo Gestione Stati 13 che rappresenta i dati dell’applicazione ed è atto a definirne lo stato e le funzionalità e un Modulo Gestione Interfaccia 14 che rappresenta la visualizzazione degli oggetti dell’interfaccia, ed è atto a gestire l’interfaccia grafica dell’applicazione detenendo l’informazione relativa alle aree componenti dell’interfaccia con le quali l’utente può interagire ed è atto a determinare quale area dell’interfaccia è attualmente fissata dall’utente. In riferimento alla Fig. 2 vediamo il diagramma di flusso che rappresenta le interconnessioni tra i moduli menzionati in precedenza illustrando i passi del metodo secondo la presente invenzione.
a) Viene visualizzata 20, sui mezzi di visualizzazione associati all’elaboratore elettronico che svolge il programma che realizza il metodo secondo la presente invenzione, l’interfaccia utente dell’applicazione che consente all’utente di interagire con detto programma attraverso un dispositivo eye - tracker associato a detto elaboratore elettronico.
b) Vengono rilevate 21, sottoforma di dati grezzi, le coordinate dello sguardo dell’utente da parte del dispositivo di eye - tracking, detti dati grezzi rappresentando le coordinate dello sguardo lungo i due assi coordinati rilevati con la frequenza propria di detto dispositivo di eye-tracking.
c) Vengono filtrati 22 i dati grezzi relativi a dette coordinate in modo da renderli stabili e adatti a fornire indicazioni sulle fissazioni dell’utente cioè al numero di sguardi (detti “gaze”) dell’utente entro un certo intorno.
d) Vengono inviati i dati filtrati provenienti dal passo precedente al modulo Definizione dell’Azione 23.
e) L’azione corrispondente viene eseguita 24 e l’interfaccia utente dell’applicazione viene modificata in seguito all’azione stessa. f) Si ripete la sequenza a partire dal passo b) fino a quando l’utente decide di uscire dall’applicazione.
La generazione ed esecuzione dell’azione di cui al passo e) della sequenza illustrata in Figura 2, avviene secondo la sequenza riportata nel seguito ed illustrata in Figura 3:
g) Il modulo Gestione Eventi 30 elabora l’evento in arrivo effettuando una mappatura tra esso e la risposta dell’applicativo in modo da associare ad ogni evento/azione un’azione corrispondente sull’interfaccia utente che implica una modifica dei dati ed eventualmente una modifica della stessa interfaccia utente .
h) Il modulo Gestione Eventi 31 invia tali informazioni al modulo Gestione Stati.
i) Il modulo Gestione Stati 32 processa tali informazioni ed aggiorna il proprio stato interno sulla base delle informazioni ricevute; in pratica detto modulo Gestione Eventi notifica al modulo Gestione Stati che a seguito dell’azione dell’utente occorre modificare lo stato dell’applicazione su detta interfaccia utente.
j) Il Modulo Gestione Interfaccia 33 richiede i dati per l'aggiornamento al Modulo Gestione Stati e genera un’appropriata interfaccia utente.
k) Il modulo Gestione Interfaccia 34 rimane in attesa dei successivi dati in input.
In particolare vengono descritte di seguito due modalità di posizionamento del cursore e di selezione del testo, parte integrante di questo brevetto, che permettono una formattazione di documenti testuali efficiente e veloce utilizzando solo il controllo oculare.
In riferimento alla Fig. 4, il posizionamento del cursore - che risulta posizionato alla fine del testo visualizzato su detta interfaccia utente, nel caso si tratti della prima apertura della finestra di testo, oppure posizionato come da selezione effettuata alla fine della sessione precedente - avviene secondo i passi descritti nel seguito che sviluppano il passo j) precedente. Dopo tale posizionamento potranno essere effetuate operazioni di cancellazione inserimento, etc. normalmente effetuate nel corso di elaborazione di testi.
L) Il modulo Gestione Interfaccia richiede 40 i dati per l’aggiornamento al modulo Gestione Stati e genera una finestra semitrasparente relativa all’area di fissazione, che si muove sul testo seguendo lo sguardo dell’utente, ed una serie di botoni selezionabili nella barra laterale ciascuno relativo alle parole contenute nell’area di fissazione stessa.
m) Il modulo Gestione Eventi riceve 41 in input l’evento relativo alla selezione di una parola scelta tra i botoni selezionabili dalla barra laterale, definisce la risposta dell’applicativo e invia al modulo Gestione Stati tali informazioni.
n) Il modulo Gestione Stati processa 42 tali informazioni e aggiorna il proprio stato.
o) Il modulo Gestione Interfaccia richiede 43 i dati per l'aggiornamento al modulo Gestione Stati e genera una barreta colorata posizionata alla fine della parola scelta.
In riferimento alla Fig. 5 allegata, il posizionamento del cursore per la selezione del testo avviene seguendo la procedura illustrata sopra atraverso i passi da I) a o) per il posizionamento del primo cursore all’inizio/fine del testo da selezionare e successivamente seguendo i passi illustrati di seguito, risultanti da modifiche dei passi j) e seguenti.
p) Il modulo Gestione Eventi riceve 50 in input l’evento relativo alla selezione del botone “Seleziona” della barra laterale, definisce la risposta dell’applicativo e invia al modulo Gestione Stati tali informazioni.
q) Il modulo Gestione Stati processa 51 tali informazioni e aggiorna il proprio stato.
r) Il modulo Gestione Interfaccia richiede 52 i dati per l'aggiornamento al modulo Gestione Stati e rimane in attesa di ulteriori eventi.
s) Il modulo Gestione Eventi riceve 53 in input l’evento relativo alla selezione di una parola scelta (precedente alla prima che si vuole selezionare o successiva all’ultima) tra i bottoni selezionabili dalla barra laterale, definisce la risposta dell’applicativo e invia al modulo Gestione Stati tali informazioni.
t) Il modulo Gestione Stati processa 54 tali informazioni e aggiorna il proprio stato.
u) Il modulo Gestione Interfaccia richiede 55 i dati per l'aggiornamento al Modulo Gestione Stati e colora il testo contenuto tra le due parole come feedback per l’avvenuta selezione.
Dopo tale selezione potranno essere effettuate operazioni di cancellazione inserimento formattazione etc. secondo la sequenza descritta in precedenza.
Claims (10)
- RIVENDICAZIONI 1. Apparato per l’elaborazione di documenti testuali comprendente mezzi di elaborazione elettronica di dati e informazioni, mezzi per la memorizzazione di detti dati e informazioni e mezzi di interfacciamento utente.
- 2. Apparato secondo la rivendicazione 1 caratterizzato dal fatto che detti mezzi di elaborazione elettronica di dati e informazioni comprendono una sezione di controllo basata su almeno un microprocessore.
- 3. Apparato secondo le rivendicazioni 1 - 2 caratterizzato dal fatto che detti mezzi di elaborazione elettronica di dati e informazioni comprendono almeno un personal computer.
- 4. Apparato secondo le rivendicazioni 1 - 2 caratterizzato dal fatto che detti mezzi per la memorizzazione di detti dati e dette informazioni comprendono dispositivi di memoria di massa scelti nel gruppo comprendente dischi rigidi e memorie di tipo flash.
- 5. Apparato secondo le rivendicazioni 1 - 4 caratterizzato dal fatto che detti mezzi di interfacciamento utente comprendono mezzi di visualizzazione dati scelti nel gruppo comprendente display, monitor e dispositivi di eye - tracking atti ad interpretare la direzione dello sguardo dell’utente.
- 6. Metodo per l’elaborazione di documenti testuali basato sul posizionamento ottimizzato del cursore caratterizzato dal fatto di comprendere i seguenti passi: a) si visualizza (20), su opportuni mezzi di visualizzazione associati ad opportuni mezzi di elaborazione elettronica di dati e informazioni, l’interfaccia utente dell’applicativo atto a consentire all’utente di interagire con un dispositivo eye - tracker associato a detto elaboratore elettronico; b) si rilevano (21), in forma di dati grezzi, le coordinate dello sguardo dell’utente da parte di detto dispositivo di eye - tracking, detti dati grezzi rappresentando le coordinate dello sguardo lungo i due assi coordinati rilevati con la frequenza propria di detto dispositivo di eye-tracking; c) si filtrano (22) i dati grezzi relativi a dette coordinate in modo da renderli stabili e adatti a fornire indicazioni sulle fissazioni dell’utente cioè al numero di sguardi (detti “gaze”) dell’utente entro un certo intorno; d) si inviano (23) i dati filtrati provenienti dal passo precedente al modulo Definizione dell’azione; e) si esegue (24) l’azione corrispondente e l’interfaccia utente viene modificata in seguito all’azione stessa; f) Si ripete la sequenza a partire dal passo b).
- 7. Metodo secondo la rivendicazione 6 caratterizzato dal fatto che detto passo e) comprende i seguenti passi: g) Il modulo Gestione Eventi elabora (30) l’evento in arrivo effettuando una mappatura tra esso e la risposta dell’applicativo in modo da associare, ad ogni evento/azione, un’azione corrispondente sull’interfaccia utente che implica una modifica dei dati ed eventualmente una modifica della stessa interfaccia utente . h) Il modulo Gestione Eventi (31 ) invia tali informazioni al Modulo Gestione Stati i) Il modulo Gestione Stati processa (32) tali informazioni ed aggiorna il proprio stato interno sulla base delle informazioni ricevute. j) Il Modulo Gestione Interfaccia richiede (33) i dati per l’aggiornamento al Modulo Gestione Stati e genera un’appropriata interfaccia. k) Il modulo Gestione Interfaccia rimane in attesa (34) dei successivi dati in input.
- 8. Metodo secondo la rivendicazione 7 caratterizzato dal fatto che detto passo j) comprende i passi seguenti: L) Il modulo Gestione Interfaccia richiede (40) i dati per l’aggiornamento al modulo Gestione Stati e genera una finestra semitrasparente relativa all’area di fissazione, che si muove sul testo seguendo lo sguardo dell’utente, ed una serie di bottoni selezionabili nella barra laterale ciascuno relativo alle parole contenute nell’area di fissazione stessa m) Il modulo Gestione Eventi riceve (41 ) in input l’evento relativo alla selezione di una parola scelta tra i bottoni selezionabili dalla barra laterale, definisce la risposta dell’applicativo e invia al modulo Gestione Stati tali informazioni. n) Il modulo Gestione Stati processa (42) tali informazioni e aggiorna il proprio stato o) Il modulo Gestione Interfaccia richiede (43) i dati per l'aggiornamento al modulo Gestione Stati e genera una barretta colorata posizionata alla fine della parola scelta.
- 9. Metodo secondo la rivendicazione 8 caratterizzato dal fatto che detto passo j) comprende ulteriormente i passi seguenti: p) Il modulo Gestione Eventi riceve (50) in input l’evento relativo alla selezione del bottone “Seleziona” della barra laterale, definisce la risposta dell’applicativo e invia al modulo Gestione Stati tali informazioni q) Il modulo Gestione Stati processa (51) tali informazioni e aggiorna il proprio stato. r) Il modulo Gestione Interfaccia richiede (52) i dati per l’aggiornamento al modulo Gestione Stati e rimane in attesa di ulteriori eventi. s) Il modulo Gestione Eventi riceve (53) in input l’evento relativo alla selezione di una parola scelta (precedente alla prima che si vuole selezionare o successiva all’ultima) tra i bottoni selezionabili dalla barra laterale, definisce la risposta dell’applicativo e invia al modulo Gestione Stati tali informazioni. t) Il modulo Gestione Stati processa (54) tali informazioni e aggiorna il proprio stato. u) Il modulo Gestione Interfaccia richiede (55) i dati per l’aggiornamento al Modulo Gestione Stati e colora il testo contenuto tra le due parole come feedback per l’awenuta selezione.
- 10. Metodo secondo le rivendicazioni 8 - 9 caratterizzato dal fatto di comprendere un ulteriore passo atto ad eseguire un’azione scelta nel gruppo comprendente: cancellazione inserimento formattazione di parole o parti di testo.
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT000049A ITFI20080049A1 (it) | 2008-03-12 | 2008-03-12 | Apparato per la creazione, il salvataggio e la formattazione di documenti testuali tramite controllo oculare e metodo associato basato sul posizionamento ottimizzato del cursore. |
EP09719356.9A EP2266014B1 (en) | 2008-03-12 | 2009-03-11 | Apparatus to create, save and format text documents using gaze control and associated method |
DK09719356.9T DK2266014T3 (da) | 2008-03-12 | 2009-03-11 | Apparat til at frembringe, gemme og formatere tekstdokumenter under anvendelse af øjenstyring samt tilhørende fremgangsmåde |
PCT/IB2009/051007 WO2009113026A2 (en) | 2008-03-12 | 2009-03-11 | Apparatus to create, save and format text documents using gaze control and method associated based on the optimized positioning of cursor |
ES09719356T ES2424662T3 (es) | 2008-03-12 | 2009-03-11 | Aparato para crear, grabar y formatear documentos de texto usando control con la mirada y método asociado |
US12/922,236 US8205165B2 (en) | 2008-03-12 | 2009-03-11 | Apparatus to create, save and format text documents using gaze control and method associated based on the optimized positioning of cursor |
PT97193569T PT2266014E (pt) | 2008-03-12 | 2009-03-11 | Aparelho para criar, guardar e formatar documentos de texto usando um controlo ocular e método associado |
CA2718441A CA2718441C (en) | 2008-03-12 | 2009-03-11 | Apparatus to create, save and format text documents using gaze control and method associated based on the optimized positioning of cursor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT000049A ITFI20080049A1 (it) | 2008-03-12 | 2008-03-12 | Apparato per la creazione, il salvataggio e la formattazione di documenti testuali tramite controllo oculare e metodo associato basato sul posizionamento ottimizzato del cursore. |
Publications (1)
Publication Number | Publication Date |
---|---|
ITFI20080049A1 true ITFI20080049A1 (it) | 2009-09-13 |
Family
ID=40292754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
IT000049A ITFI20080049A1 (it) | 2008-03-12 | 2008-03-12 | Apparato per la creazione, il salvataggio e la formattazione di documenti testuali tramite controllo oculare e metodo associato basato sul posizionamento ottimizzato del cursore. |
Country Status (8)
Country | Link |
---|---|
US (1) | US8205165B2 (it) |
EP (1) | EP2266014B1 (it) |
CA (1) | CA2718441C (it) |
DK (1) | DK2266014T3 (it) |
ES (1) | ES2424662T3 (it) |
IT (1) | ITFI20080049A1 (it) |
PT (1) | PT2266014E (it) |
WO (1) | WO2009113026A2 (it) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8793620B2 (en) * | 2011-04-21 | 2014-07-29 | Sony Computer Entertainment Inc. | Gaze-assisted computer interface |
US9250703B2 (en) | 2006-03-06 | 2016-02-02 | Sony Computer Entertainment Inc. | Interface with gaze detection and voice input |
US8730156B2 (en) | 2010-03-05 | 2014-05-20 | Sony Computer Entertainment America Llc | Maintaining multiple views on a shared stable virtual space |
US20100118200A1 (en) * | 2008-11-10 | 2010-05-13 | Geoffrey Michael Gelman | Signage |
IT1399456B1 (it) * | 2009-09-11 | 2013-04-19 | Sr Labs S R L | Metodo e apparato per l'utilizzo di generiche applicazioni software attraverso controllo oculare e opportune metodologie di interazione. |
US8888287B2 (en) | 2010-12-13 | 2014-11-18 | Microsoft Corporation | Human-computer interface system having a 3D gaze tracker |
US10120438B2 (en) | 2011-05-25 | 2018-11-06 | Sony Interactive Entertainment Inc. | Eye gaze to alter device behavior |
US9265458B2 (en) | 2012-12-04 | 2016-02-23 | Sync-Think, Inc. | Application of smooth pursuit cognitive testing paradigms to clinical drug development |
US8571851B1 (en) * | 2012-12-31 | 2013-10-29 | Google Inc. | Semantic interpretation using user gaze order |
US9380976B2 (en) | 2013-03-11 | 2016-07-05 | Sync-Think, Inc. | Optical neuroinformatics |
US9829972B2 (en) * | 2014-03-12 | 2017-11-28 | Lenovo (Singapore) Pte. Ltd. | Eye tracking for automatically updating document status |
US10993837B2 (en) * | 2014-04-23 | 2021-05-04 | Johnson & Johnson Surgical Vision, Inc. | Medical device data filtering for real time display |
US10884488B2 (en) | 2014-11-24 | 2021-01-05 | Samsung Electronics Co., Ltd | Electronic device and method for controlling display |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6204828B1 (en) * | 1998-03-31 | 2001-03-20 | International Business Machines Corporation | Integrated gaze/manual cursor positioning system |
US6091378A (en) * | 1998-06-17 | 2000-07-18 | Eye Control Technologies, Inc. | Video processing methods and apparatus for gaze point tracking |
US6873314B1 (en) * | 2000-08-29 | 2005-03-29 | International Business Machines Corporation | Method and system for the recognition of reading skimming and scanning from eye-gaze patterns |
US7092554B2 (en) * | 2001-05-01 | 2006-08-15 | Eastman Kodak Company | Method for detecting eye and mouth positions in a digital image |
US6712468B1 (en) * | 2001-12-12 | 2004-03-30 | Gregory T. Edwards | Techniques for facilitating use of eye tracking data |
GB2396001B (en) * | 2002-10-09 | 2005-10-26 | Canon Kk | Gaze tracking system |
WO2005046465A1 (en) * | 2003-11-14 | 2005-05-26 | Queen's University At Kingston | Method and apparatus for calibration-free eye tracking |
EP1607840B1 (en) * | 2004-06-18 | 2015-01-28 | Tobii Technology AB | Eye control of computer apparatus |
ITFI20040223A1 (it) * | 2004-10-29 | 2005-01-29 | Sr Labs S R L | Metodo e sistema di visualizzazione,elaborazione ed analisi integrata di immagini mediche |
ITFI20050176A1 (it) * | 2005-08-10 | 2007-02-11 | Sr Labs S R L | Metodo e apparato per l'inserimento sicuro di un codice di accesso tramite l'uso di un dispositivo a controllo oculare |
EP1943583B1 (en) * | 2005-10-28 | 2019-04-10 | Tobii AB | Eye tracker with visual feedback |
US7429108B2 (en) * | 2005-11-05 | 2008-09-30 | Outland Research, Llc | Gaze-responsive interface to enhance on-screen user reading tasks |
US7556377B2 (en) * | 2007-09-28 | 2009-07-07 | International Business Machines Corporation | System and method of detecting eye fixations using adaptive thresholds |
-
2008
- 2008-03-12 IT IT000049A patent/ITFI20080049A1/it unknown
-
2009
- 2009-03-11 WO PCT/IB2009/051007 patent/WO2009113026A2/en active Application Filing
- 2009-03-11 US US12/922,236 patent/US8205165B2/en active Active
- 2009-03-11 PT PT97193569T patent/PT2266014E/pt unknown
- 2009-03-11 CA CA2718441A patent/CA2718441C/en active Active
- 2009-03-11 ES ES09719356T patent/ES2424662T3/es active Active
- 2009-03-11 DK DK09719356.9T patent/DK2266014T3/da active
- 2009-03-11 EP EP09719356.9A patent/EP2266014B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2009113026A3 (en) | 2010-01-21 |
US20110022950A1 (en) | 2011-01-27 |
WO2009113026A2 (en) | 2009-09-17 |
DK2266014T3 (da) | 2013-07-29 |
CA2718441C (en) | 2018-01-16 |
EP2266014B1 (en) | 2013-05-22 |
ES2424662T3 (es) | 2013-10-07 |
EP2266014A2 (en) | 2010-12-29 |
CA2718441A1 (en) | 2009-09-17 |
US8205165B2 (en) | 2012-06-19 |
PT2266014E (pt) | 2013-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ITFI20080049A1 (it) | Apparato per la creazione, il salvataggio e la formattazione di documenti testuali tramite controllo oculare e metodo associato basato sul posizionamento ottimizzato del cursore. | |
CN109074166B (zh) | 使用神经数据改变应用状态 | |
DK2202609T3 (en) | Eye control of computer equipment | |
CA2773636C (en) | Method and apparatus for using generic software applications by ocular control and suitable methods of interaction | |
JP6659644B2 (ja) | 応用素子の代替的グラフィック表示の事前の生成による入力に対する低レイテンシの視覚的応答およびグラフィック処理ユニットの入力処理 | |
DE202017105307U1 (de) | Umschalten aktiver Objekte in einer erweiterten Realitäts- und/oder virtuellen Realitätsumgebung | |
El-Bakry et al. | Adaptive user interface for web applications | |
Shree DV et al. | Operating different displays in military fast jets using eye gaze tracker | |
Loch et al. | An adaptive speech interface for assistance in maintenance and changeover procedures | |
Peissner et al. | Transparency and controllability in user interfaces that adapt during run-time | |
US20220366803A1 (en) | Computer-implemented methods and systems for designing and conducting virtual reality experiments | |
Kemali | Interaction Optimization through Pen and Touch, Eye Tracking and Speech Control for the Multimodal Seismic Interpretation Workspace | |
Kemper et al. | Foundations for creating a distributed adaptive user interface |