IT201800009989A1 - Metodo per gestire una interazione informativa con un utente, programma software per eseguire detto metodo e dispositivo elettronico dotato di detto software - Google Patents
Metodo per gestire una interazione informativa con un utente, programma software per eseguire detto metodo e dispositivo elettronico dotato di detto software Download PDFInfo
- Publication number
- IT201800009989A1 IT201800009989A1 IT102018000009989A IT201800009989A IT201800009989A1 IT 201800009989 A1 IT201800009989 A1 IT 201800009989A1 IT 102018000009989 A IT102018000009989 A IT 102018000009989A IT 201800009989 A IT201800009989 A IT 201800009989A IT 201800009989 A1 IT201800009989 A1 IT 201800009989A1
- Authority
- IT
- Italy
- Prior art keywords
- vibration
- image
- intensity
- display
- generate
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 23
- 230000003993 interaction Effects 0.000 title claims description 4
- 230000007246 mechanism Effects 0.000 claims description 19
- 230000001755 vocal effect Effects 0.000 claims description 5
- 230000003213 activating effect Effects 0.000 claims 4
- 238000005516 engineering process Methods 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 8
- 230000001771 impaired effect Effects 0.000 description 6
- 230000004913 activation Effects 0.000 description 3
- 238000001994 activation Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000035807 sensation Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/001—Teaching or communicating with blind persons
- G09B21/006—Teaching or communicating with blind persons using audible presentation of the information
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/001—Teaching or communicating with blind persons
- G09B21/007—Teaching or communicating with blind persons using both tactile and audible presentation of the information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/014—Force feedback applied to GUI
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Storage Device Security (AREA)
Description
"METODO PER GESTIRE UNA INTERAZIONE INFORMATIVA CON UN
UTENTE, PROGRAMMA SOFTWARE PER ESEGUIRE DETTO METODO E DISPOSITIVO ELETTRONICO DOTATO DI DETTO SOFTWARE"
DESCRIZIONE
[CAMPO DELLA TECNICA]
La presente invenzione ha per oggetto un metodo, eseguito tramite un dispositivo elettronico, per gestire una interazione informativa con un utente.
L'invenzione riguarda inoltre un programma software per l'esecuzione di detto metodo, nonché un dispositivo elettronico dotato di detto software.
[ARTE NOTA]
Com'è noto, sono ad oggi disponibili molte maniere per permettere a un utente di interagire con dispositivi elettronici, quali ad esempio smartphone e tablet.
Tipicamente, le interfacce utente comprendono un display touch-screen, tramite il quale è possibile sia visualizzare contenuti (testo, immagini, video, ecc.), sia inserire dati (premendo bottoni virtuali dedicati oppure componendo porzioni di testo tramite tastiere virtuali mostrate tramite il display stesso).
È altresì possibile interagire con tali dispositivi tramite tecnologie audio/vocali, basate su riconoscimento vocale e/o applicazioni text-to-speech.
Un particolare settore delle interfacce utente riguarda le estensioni per utenti ipovedenti o non vedenti.
La maggior parte di queste estensioni utilizza il feedback vocale o sonoro per guidare l'utente attraverso gli elementi dell'interfaccia utente del dispositivo. Tali interfacce sono conosciute come "interfacce utente vocali" e sono per loro natura limitate a una navigazione lineare, su un'unica dimensione, o una navigazione categoriale degli elementi dell'interfaccia utente, pertanto mal supportano la presentazione delle caratteristiche morfologiche o topologiche di contenuti .visuali.
[OBIETTIVI E SINTESI DELL'INVENZIONE]
Scopo della presente invenzione è quello di fornire una tecnologia che possa fornire una user experience più efficace rispetto a quelle oggi disponibili, in particolare - ma non esclusivamente - per utenti non vedenti o ipovedenti.
Con specifico riferimento a utenti non vedenti o ipovedenti, l'invenzione si prefigge lo scopo di permettere a tali utenti di percepire e comprendere caratteristiche/dettagli mostrati sullo schermo di un dispositivo elettronico, che altrimenti non potrebbero essere riconosciuti e apprezzati.
Questi ed altri scopi ancora sono sostanzialmente raggiunti da un metodo, un programma software e un dispositivo elettronico secondo quanto descritto nelle unite rivendicazioni.
In particolare, l'invenzione si basa sulla creazione di una relazione tra la posizione di un evento tattile sul display touch-screen di un dispositivo elettronico e un feedback tattile, in forma di vibrazione. In maggiore dettaglio, le specifiche caratteristiche della vibrazione (che potrà avere intensità, durata e/o pattern variabili) consentono di distinguere le varie entità e i dettagli delle stesse presenti sul display del dispositivo.
[BREVE DESCRIZIONE DEI DISEGNI]
Ulteriori caratteristiche e vantaggi appariranno maggiormente dalla descrizione dettagliata delle forme di esecuzione preferite ma non limitative dell'invenzione.
Tale descrizione è fornita qui di seguito con riferimento alle unite figure, anch'esse aventi scopo puramente esemplificativo e pertanto non limitativo, in cui:
la figura 1 mostra uno schema a blocchi di un dispositivo elettronico in accordo con la presente invenzione; la figura 2 mostra schematicamente il dispositivo di figura 1 in funzione;
le figure 3-4 mostrano schematicamente ulteriori fasi di funzionamento del dispositivo di figura 1.
[DESCRIZIONE DETTAGLIATA DELL'INVENZIONE]
In accordo con le unite figure, con 1 è stato complessivamente indicato un dispositivo elettronico in accordo con la presente invenzione.
Il dispositivo elettronico 1 è preferibilmente un dispositivo mobile o portatile, quale ad esempio uno smartphone o tablet.
Il dispositivo elettronico 1 (figura 1) comprende un display 10 sensibile al tocco o "touch-screen".
Il dispositivo elettronico 1 comprende un meccanismo di vibrazione 20. Il meccanismo di vibrazione 20 è solitamente impiegato, in combinazione o in sostituzione dei toni acustici, per avvisare l'utente di una o più delle seguenti circostanze: chiamata in ingresso; ricezione di un messaggio SMS; ricezione di un messaggio su chat; notifiche varie da applicativi; ecc.
Come sarà più chiaro in seguito, nell'ambito della presente invenzione viene fatto un utilizzo diverso (o ulteriore) e particolarmente vantaggioso di tale meccanismo di vibrazione 20.
Il dispositivo elettronico 1 comprende un processore 30. Il processore 30 ha il compito di gestire l'intero funzionamento del dispositivo elettronico 1.
Si noti che il dispositivo elettronico 1 può comprendere anche due o più processori. Con il termine "processore", nella presente descrizione e nelle successive rivendicazioni, si intende indicare il complesso di componenti hardware, opportunamente programmati, in modo da permettere al dispositivo elettronico 1 stesso di operare.
Il dispositivo elettronico 1 comprende inoltre una serie di ulteriori elementi/componenti e funzionalità (antenna, batteria, connettività, interfacce fisiche, fotocamera/e ecc.) .che il tecnico del ramo ben conosce, e che non è quindi necessario descrivere in dettaglio nel presente contesto.
In accordo con l'invenzione, il processore 30 è configurato per predisporre un'immagine I (figura 2).
L'immagine I rappresenta i contenuti visivi che si desidera trasferire all'utente tramite vibrazione e, preferibilmente, tramite una combinazione di vibrazioni e suoni.
In una forma di realizzazione, l'immagine I viene presentata sul display 10 del dispositivo elettronico 1. In una diversa forma di realizzazione, l'immagine I viene semplicemente considerata dal processore 30 per la regolazione di vibrazioni/suoni, senza che l'immagine I stessa sia rappresentata sul display 10.
Nella descrizione che segue verrà fatto specifico riferimento alla forma di realizzazione in cui l'immagine I viene presentata sul display 10. Va comunque considerato che la medesima tecnologia può essere impiegata anche senza che tale immagine I venga visualizzata sul display 10.
Da un punto di vista pratico, il processore 30 può prendere in considerazione, di volta in volta, diverse immagini. La tecnica di elaborazione che viene descritta in seguito può essere applicata ad una o più di tali immagini.
In una forma di realizzazione, l'immagine I può essere una mappa stradale topografica, oppure una porzione di una mappa stradale topografica.
Preferibilmente, l'immagine I può essere ottenuta a partire da una mappa commercialmente disponibile, sottoposta a idonea elaborazione (es. rastering).
Il processore 30 è configurato per rilevare una pressione o tocco sul display 10 da parte di un utente.
Come sarà più chiaro in seguito, tale pressione o tocco può essere localizzata in una determinata posizione del display, oppure potrà essere uno strisciamento eseguito sul display stesso, in modo da passare da una prima posizione ad una seconda posizione.
Nella descrizione che segue verrà fatto riferimento alla "pressione" esercitata dall'utente sul display 10. Si noti che tale espressione intende comprendere anche un semplice "tocco" da parte dell'utente stesso, che può essere rilevato tramite tecnologia touch-screen.
In funzione della posizione in cui la pressione è rilevata, ed in funzione della immagine I rappresentata sul display 10, il processore 30 genera un segnale di comando CS.
Il segnale di comando CS è inviato al meccanismo di vibrazione 20 in modo da generare una vibrazione che ha almeno uno tra intensità, durata e pattern determinato sulla base dell'immagine I visualizzata e della posizione in cui è stata rilevata la pressione sul display 10.
L'intensità della vibrazione è definita dalla intensità con cui viene azionato l'attuatore facente parte del meccanismo di vibrazione 20 (intensità che, ad esempio, può essere proporzionale o comunque correlata alla potenza fornita all'attuatore stesso). Alcuni dispositivi elettronici mettono a disposizione tre livelli di intensità (low, medium, high) di vibrazione; altri mettono a disposizione un range quasi continuo (256 livelli) di intensità di vibrazione.
La durata della vibrazione è definita dal tempo complessivo per cui la vibrazione viene generata.
Il pattern della vibrazione è definito dalla successione di attivazioni/disattivazioni della vibrazione associata ad una determinata posizione/zona dell'immagine I (cioè della corrispondente posizione sul display 10). Ciascun intervallo di attivazione è preferibilmente associato ad una rispettiva intensità di vibrazione, diversa o uguale rispetto a ciascuno degli altri intervalli di vibrazione.
Vantaggiosamente, l'immagine I è suddivisa in una pluralità di zone. Ciascuna di tali zone è associata ad una rappresentazione grafica/visiva differente. Preferibilmente, le zone sono virtualmente suddivise in gruppi. A ciascun gruppo è associata una rappresentazione grafica/visiva differente. Alle zone facenti parte di un medesimo gruppo, è associata una medesima rappresentazione grafica/visiva.
A titolo esemplificativo, nella schematizzazione di figura 2, i quadretti neri rappresentano zone appartenenti a un primo gruppo, i quadretti grigi rappresentano zone appartenenti ad un secondo gruppo, ed i quadretti bianchi rappresentano zone appartenenti ad un terzo gruppo.
A ciascuna zona è associata una rispettiva vibrazione, diversa - in termini di intensità e/o durata e/o pattern - dalla vibrazione associata ad altre zone.
Preferibilmente, alle zone appartenenti ad un medesimo gruppo è associata una medesima vibrazione in termini di intensità, durata e pattern.
Prendendo in considerazione l'esempio in cui l'immagine I rappresenta una mappa stradale topografica (o una relativa porzione) , un primo gruppo può comprendere le strade, un secondo gruppo può comprendere edifici, un terzo gruppo può comprendere parcheggi, un quarto gruppo può comprendere rotatorie ed un quinto gruppo può comprendere incroci. Quando l'utente esercita una pressione, ad esempio, su una strada, avrà una determinata sensazione tattile derivante dalla specifica vibrazione associata alle strade. Quando l'utente esercita una pressione, ad esempio, su un edificio, avrà una diversa sensazione tattile, derivante dalla diversa vibrazione associata agli edifici.
Come sopra accennato, la pressione esercitata dall'utente sull'immagine I può essere uno strisciamento, da una prima zona ad una seconda zona (figure 3-4). A titolo esemplificativo, nelle figure 3-4 la prima zona è rappresentata con il colore bianco, e la seconda zona con il colore nero. Lo strisciamento è invece rappresentato dalla freccia grigia. Quando la pressione viene esercitata sulla prima zona (figura 3), il processore 30 genera un primo segnale di comando CSI per generare, tramite il meccanismo di vibrazione 20, una prima vibrazione; il pattern di tale prima vibrazione è schematicamente rappresentato nella parte destra di figura 3, ed è costituito da un primo intervallo ad intensità bassa (L), un secondo intervallo in cui la vibrazione è assente (N), un terzo intervallo ad intensità media (M), un quarto intervallo in cui la vibrazione è assente (N), un quinto intervallo ad intensità bassa (L). Quando, nel corso dello strisciamento, si passa dalla prima alla seconda zona (figura 4), e la pressione viene quindi esercitata sulla seconda zona, il processore 30 genera un secondo segnale di comando (CS2), per generare, tramite il meccanismo di vibrazione 20, una seconda vibrazione; il pattern di tale seconda vibrazione è schematicamente rappresentato in figura 4, ed è costituito da un primo intervallo ad intensità media (M), un secondo intervallo ad intensità alta (H), un terzo intervallo ad intensità alta (H).
Si noti che i pattern schematizzati nelle figure 3-4 sono del tutto esemplificativi e possono essere sostituiti da altri pattern senza per questo esulare dall'ambito della presente invenzione.
Si noti altresì che è previsto che, in corrispondenza della prima zona, non venga generata alcuna vibrazione, mentre viene generata una vibrazione (opportunamente definita) quando lo strisciamento giunge nella seconda zona, così da permettere comunque all'utente di riconoscere il passaggio dalla prima zona alla seconda zona. È quindi previsto che, per ,una tipologia di zone, non venga generata alcuna vibrazione, mentre per una o più diverse tipologie di zone, possono essere generate rispettive vibrazioni diverse.
In una forma di realizzazione, le caratteristiche delle varie vibrazioni possono essere personalizzate dall'utente. Entrando in una idonea pagina di set-up, ad esempio in un'app installata nel dispositivo, l'utente può configurare le varie vibrazioni in termini di intensità/durata/pattern e associare le stesse a rispettive zone o gruppi di zone.
In una forma di realizzazione, la frequenza delle vibrazioni generate è correlata (ad esempio, proporzionale) alla velocità con cui l'utente trascina il proprio dito sul display (cioè alla velocità con cui l'utente scansiona il display o una parte dello stesso). Questo potrebbe facilitare l'utente non vedente o ipovedente nella costruzione di un modello mentale, morfologico o topografico, di quanto mostrato nell'immagine I.
In generale, il dispositivo elettronico 1 è vantaggiosamente dotato di una memoria 50, associata al processore 30, in cui sono archiviate le varie tipologie di vibrazioni (preimpostate e/o personalizzate dall'utente) e le relative associazioni con zone/gruppi di zone dell'immagine I. Quando viene rilevata una pressione in una determinata posizione, il processore 30 provvede ad identificare nella memoria 50 la vibrazione corretta da applicare e genera il conseguente segnale di comando CS destinato al meccanismo di vibrazione 20.
In una forma di realizzazione, il dispositivo elettronico 1 è configurato per generare un segnale vocale/acustico in funzione della immagine I visualizzata sul display 10 e descrittivo di una porzione di detta immagine I.
In particolare, il processore 30 è configurato per cooperare con un modulo di riproduzione sonora 40 (altoparlante, auricolari, cuffie, ecc.), di per sé noto, per generare ed emettere il suddetto segnale vocale/acustico.
In una forma di realizzazione, il segnale vocale/acustico avente intensità/frequenza/timbrica che variano in funzione della porzione di immagine I di cui tale segnale vocale/acustico è descrittivo. Preferibilmente, in questa forma di realizzazione la porzione di immagine I di cui il segnale acustico è rappresentativo corrisponde alla posizione in cui viene rilevata la pressione da parte dell'utente. In questo caso è prevista la generazione di varie tipologie di suoni, in funzione di ciò che è rappresentato nell'immagine I e della posizione in cui è stata esercitata la pressione da parte dell'utente. Analogamente a quanto sopra descritto con riferimento alle vibrazioni, gruppi di zone (ad esempio contenenti entità tra loro omogenee) possono essere associate a suoni sostanzialmente uguali. In un esempio realizzativo, i gruppi relativi alla vibrazione sono diversi dai gruppi relativi ai suoni. In questo modo, il suono viene impiegato per fornire informazioni diverse/ulteriori rispetto alla vibrazione. Da un punto di vista logico-concettuale, si può immaginare che nella memoria 50 sia presente una tabella presentante tre colonne ed una molteplicità di righe; in ciascuna riga sono inseriti: posizione/zona sul display; gruppo vibrazione; gruppo suono. In questo modo, quando viene rilevata una pressione su una determinata posizione/zona, il processore 30, cooperando con il meccanismo di vibrazione 20 e con il modulo di riproduzione sonora 40, provvede a generare la relativa vibrazione ed a riprodurre il relativo segnale sonoro.
A titolo esemplificativo, diverse vibrazioni possono rappresentare diversi valori di luminosità delle zone dell'immagine I, mentre diversi suoni possono rappresentare diversi colori delle zone della medesima immagine I.
In una forma di realizzazione, il segnale vocale/acustico può essere un segnale vocale, realizzato per,esempio tramite text-to-speech, che descrive un dettaglio dell'immagine I visualizzata. Preferibilmente, in questa forma di realizzazione la generazione del segnale vocale viene attivata da una pressione ulteriore (es. tap, cioè il tocco con cui l'utente seleziona un oggetto sullo schermo, doppio tap, ecc.) esercitata dall'utente, successivamente alla pressione che ha causato la generazione della vibrazione. È comunque previsto che il segnale vocale possa essere generato anche a seguito della sola pressione iniziale, cioè la pressione sulla base della quale viene attivata la vibrazione.
Nell'esempio relativo alla mappa stradale, il segnale vocale può essere relativo al nome della via/località visualizzata nella posizione in cui l'utente ha esercitato l'ulteriore pressione.
In generale, la vibrazione ed eventualmente il segnale acustico/visivo possono essere rappresentativi di forme, colori, trame rappresentati nelle varie porzioni di cui l'immagine I si compone .
A livello esemplificativo è stato finora fatto riferimento ad una mappa stradale. È tuttavia previsto che l'invenzione possa essere applicata, in generale, a qualunque contenuto grafico visivo rappresentato dall'immagine I. A titolo meramente esemplificativo, vengono qui di seguito presentate ulteriori possibili applicazioni dell'invenzione, fermo restando che anche altri utilizzi non espressamente indicati rientrano comunque nell'ambito di quanto qui rivendicato.
Rappresentazione della profondità spaziale
Il dispositivo elettronico 1 può essere dotato, in maniera di per sé nota, di sensori di profondità in grado di costruire una mappa di profondità degli oggetti inquadrati dalla fotocamera.
Tale mappa può essere rappresentata tramite un'opportuna attivazione del meccanismo di vibrazione 20: mentre il dito dell'utente scansiona l'immagine scorrendo sul display, il processore 30 provvede a comandare il meccanismo di vibrazione 20 in modo differente in funzione della profondità spaziale degli oggetti/zone rappresentati.
A titolo esemplificativo, l'intensità della vibrazione può essere proporzionale al valore della mappa di profondità in corrispondenza del punto in cui il dito dell'utente tocca l'immagine .
Applicazione artistica
È previsto che possano essere realizzate opere d'arte create appositamente per una fruizione tramite il dispositivo elettronico 1 oggetto della presente invenzione. Tali opere d'arte sarebbero rivolte, in modo non esclusivo, a persone non vedenti o ipovedenti.
Localizzazione di oggetti
Utilizzando tecnologie per l'apprendimento automatico per identificare un particolare oggetto, o qualunque entità caratterizzata per il proprio aspetto visivo, ed applicando tali tecnologie a quanto rilevato tramite la fotocamera del dispositivo elettronico 1, le vibrazioni generate dal meccanismo di vibrazione 20 possono guidare l'utente verso l'oggetto/entità di interesse, fornendo indizi e suggerimenti relativi a distanza e posizione di tale oggetto/entità in base all'orientamento della fotocamera.
Rilevatore di prossimità
Tramite la fotocamera del dispositivo elettronico 1 ed i summenzionati sensori di profondità, è possibile restituire, tramite le vibrazioni generate dal meccanismo di vibrazione 20, indizi relativi alla presenza e al posizionamento di ostacoli.
Rappresentazione di soggetti umani
È previsto che, quando il viso di una persona viene inquadrato dalla fotocamera, il processore 30 elabori l'immagine tramite un idoneo algoritmo, in modo da identificare i tratti principali del volto del soggetto inquadrato e fornirne una rappresentazione grafica "stilizzata". L'utente, scansionando il display con il dito, e ricevendo diversi feedback in termini di vibrazione in funzione della conformazione dei tratti così ottenuti, potrà farsi un'idea della fisionomia del soggetto inquadrato.
Alla luce di quanto sopra è chiaro che il dispositivo elettronico 1 è dotato di un programma software dedicato, che può essere ad esempio memorizzato nella summenzionata memoria 50 e/o archiviato su altro supporto di archiviazione. Quando tale programma software viene eseguito dal processore 30, il dispositivo elettronico 1 opera secondo quando qui descritto e rivendicato. A titolo esemplificativo, tale programma software può essere un applicativo dedicato per dispositivi mobili (cosiddetta "app"), scaricabile ed installabile sul dispositivo elettronico 1 tramite tecnologie di per sé note (es. accesso ad Apple AppStore ®, Google Play Store ®, ecc.).
L'invenzione consegue importanti vantaggi.
Innanzitutto il trovato fornisce una tecnologia che permette agli utenti di sperimentare una user experience più efficace rispetto a quelle oggi disponibili.
Infatti, il feedback tramite vibrazione qui descritto e rivendicato consente di trasmettere agli utenti informazioni/sensazioni ulteriori rispetto a quelle che i dispositivi elettronici oggi riescono a trasferire.
In particolare, con specifico riferimento a utenti non vedenti o ipovedenti, l'invenzione permette a tali utenti di percepire e comprendere caratteristiche/dettagli mostrati sullo schermo di un dispositivo elettronico, che, altrimenti non potrebbero essere riconosciuti ed apprezzati.
Claims (11)
- RIVENDICAZIONI 1. Metodo per gestire una interazione informativa con un utente, in cui detto metodo è eseguito tramite un dispositivo elettronico (1) dotato di un display (10) touch-screen, un meccanismo di vibrazione (20) ed un processore (30), detto metodo comprendendo : a) predisporre una immagine (I), preferibilmente ma non necessariamente visualizzata su detto display (10); b) attivare detto processore (30) per rilevare una pressione o tocco da parte di detto utente su detto display in una determinata posizione; c) attivare detto processore (30) per generare un segnale di comando (CS) per detto meccanismo di vibrazione (20), in modo da generare una vibrazione avente almeno uno tra intensità, durata e pattern definito in funzione di detta immagine (I) e di detta determinata posizione.
- 2. Metodo secondo la rivendicazione 1 in cui detta immagine (I) comprende una pluralità di zone, in cui a ciascuna di dette zone è associata una differente vibrazione in termini di intensità, durata e/o pattern.
- 3. Metodo secondo la rivendicazione 1 o 2 in cui detta immagine (I) comprende una pluralità di gruppi di zone, in cui a ciascun gruppo è associata una differente vibrazione in termini di intensità, durata e/o pattern, in cui alle zone appartenenti al medesimo gruppo è associata una medesima vibrazione.
- 4. Metodo secondo una qualsiasi delle rivendicazioni precedenti in cui rilevare detta pressione o tocco comprende rilevare uno strisciamento su detto display da una prima zona a una seconda zona, detto metodo comprendendo almeno uno dei seguenti gruppi di fasi: a)non generare alcuna vibrazione quando detto strisciamento viene effettuato su detta prima zona; b)quando detto strisciamento avviene in detta seconda zona, generare una vibrazione, definita in termini di intensità, durata e/o pattern; oppure c) attivare detto processore (30) per generare un primo segnale di comando (CSI) per detto meccanismo di vibrazione (20) per generare una prima vibrazione quando detto strisciamento viene effettuato su detta prima zona; d) attivare detto processore (30) per generare un secondo segnale di comando (CS2) per detto meccanismo di vibrazione (20) per generare una seconda vibrazione quando detto strisciamento viene effettuato su detta seconda zona, detta seconda vibrazione presentando intensità, durata e/o pattern diverso rispetto a detta prima vibrazione.
- 5. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui detta immagine (I) rappresenta una mappa stradale o una porzione di mappa stradale, in cui elementi diversi sono associati a vibrazioni diverse in termini di intensità, durata e/o pattern.
- 6. Metodo secondo una qualsiasi delle rivendicazioni precedenti comprendente la capacità di generare un segnale vocale/acustico in funzione di detta immagine (I) e descrittivo di una porzione di detta immagine (I).
- 7. Metodo secondo la rivendicazione 6 in cui una intensità e/o frequenza e/o timbrica di detto segnale acustico/vocale viene variata in funzione di detta determinata posizione.
- 8. Metodo secondo le rivendicazioni 5 e 6 in cui detto segnale vocale/acustico è descrittivo di un dettaglio di detta mappa stradale.
- 9. Metodo secondo la rivendicazione 8 in cui la generazione di detto segnale vocale/acustico è attivata da una pressione o tocco ulteriore su detto display.
- 10. Programma software contenenti istruzioni che, quando eseguite da un processore elettronico, provocano lo svolgimento di un metodo in accordo con una qualsiasi delle rivendicazioni precedenti .
- 11. Dispositivo elettronico comprendente: a) un display (10) touch-screen; b) un meccanismo di vibrazione (20); c) un processore (30) configurato per: i. predisporre una immagine (I), preferibilmente ma non necessariamente visualizzata su detto display (10); ii. rilevare una pressione o tocco da parte di un utente su detto display in una determinata posizione; iii. generare un segnale di comando (CS) per detto meccanismo di vibrazione (20), in modo da generare una vibrazione avente almeno uno tra intensità, durata e pattern definito in funzione di detta immagine (I) e di detta determinata posizione.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT102018000009989A IT201800009989A1 (it) | 2018-10-31 | 2018-10-31 | Metodo per gestire una interazione informativa con un utente, programma software per eseguire detto metodo e dispositivo elettronico dotato di detto software |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT102018000009989A IT201800009989A1 (it) | 2018-10-31 | 2018-10-31 | Metodo per gestire una interazione informativa con un utente, programma software per eseguire detto metodo e dispositivo elettronico dotato di detto software |
Publications (1)
Publication Number | Publication Date |
---|---|
IT201800009989A1 true IT201800009989A1 (it) | 2020-05-01 |
Family
ID=65576411
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
IT102018000009989A IT201800009989A1 (it) | 2018-10-31 | 2018-10-31 | Metodo per gestire una interazione informativa con un utente, programma software per eseguire detto metodo e dispositivo elettronico dotato di detto software |
Country Status (1)
Country | Link |
---|---|
IT (1) | IT201800009989A1 (it) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5186629A (en) * | 1991-08-22 | 1993-02-16 | International Business Machines Corporation | Virtual graphics display capable of presenting icons and windows to the blind computer user and method |
US20090251421A1 (en) * | 2008-04-08 | 2009-10-08 | Sony Ericsson Mobile Communications Ab | Method and apparatus for tactile perception of digital images |
EP2667285A2 (en) * | 2012-05-22 | 2013-11-27 | Samsung Electronics Co., Ltd | Method for providing ui and portable apparatus applying the same |
US20140049491A1 (en) * | 2012-08-20 | 2014-02-20 | Samsung Electronics Co., Ltd | System and method for perceiving images with multimodal feedback |
-
2018
- 2018-10-31 IT IT102018000009989A patent/IT201800009989A1/it unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5186629A (en) * | 1991-08-22 | 1993-02-16 | International Business Machines Corporation | Virtual graphics display capable of presenting icons and windows to the blind computer user and method |
US20090251421A1 (en) * | 2008-04-08 | 2009-10-08 | Sony Ericsson Mobile Communications Ab | Method and apparatus for tactile perception of digital images |
EP2667285A2 (en) * | 2012-05-22 | 2013-11-27 | Samsung Electronics Co., Ltd | Method for providing ui and portable apparatus applying the same |
US20140049491A1 (en) * | 2012-08-20 | 2014-02-20 | Samsung Electronics Co., Ltd | System and method for perceiving images with multimodal feedback |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tan et al. | The psychology of music in multimedia | |
Csapó et al. | Overview of auditory representations in human-machine interfaces | |
JP2017162507A5 (it) | ||
CN104007816B (zh) | 用于提供语音-言语服务的方法和实现该方法的移动终端 | |
Strohmeier et al. | BARefoot: Generating virtual materials using motion coupled vibration in shoes | |
JP2018507485A (ja) | 触覚系における知覚 | |
Gorlewicz et al. | Design guidelines and recommendations for multimodal, touchscreen-based graphics | |
JP2008534996A5 (it) | ||
JP2005135106A (ja) | 表示画像制御装置及び方法 | |
Hornecker et al. | A design vocabulary for data physicalization | |
US20210056866A1 (en) | Portable Reading, Multi-sensory Scan and Vehicle-generated Motion Input | |
EP1868070A3 (en) | User interface apparatus and method | |
Elleström | Bridging the gap between image and metaphor through cross-modal iconicity | |
Rocchesso et al. | Interaction by ear | |
Figliolia et al. | Experiences using three app prototyping tools with different levels of fidelity from a product design student’s perspective | |
KR20150091692A (ko) | 형용사 공간에서 진동 생성 방법 및 디바이스 | |
Hedger et al. | Music can elicit a visual motion aftereffect | |
Cachia | The politics of creative access: Guidelines for a critical dis/ability curatorial practice | |
IT201800009989A1 (it) | Metodo per gestire una interazione informativa con un utente, programma software per eseguire detto metodo e dispositivo elettronico dotato di detto software | |
CN105684012A (zh) | 提供情境信息 | |
WO2018211767A1 (ja) | 触質情報処理装置および触質情報処理方法 | |
US20090225033A1 (en) | Electronic Apparatus | |
JP2012018544A (ja) | 音声出力装置、音声出力方法、及びプログラム | |
KR102665099B1 (ko) | 스트레처블 디스플레이 장치가 구비된 스피커 시스템 및 그의 구동 방법 | |
KR20060106088A (ko) | 그림을 그려 음악을 작곡하는 음악작곡장치 |