ITTO20130659A1 - Procedimento, apparecchiatura e dispositivo per il riconoscimento di gesti, prodotto informatico relativo - Google Patents

Procedimento, apparecchiatura e dispositivo per il riconoscimento di gesti, prodotto informatico relativo

Info

Publication number
ITTO20130659A1
ITTO20130659A1 IT000659A ITTO20130659A ITTO20130659A1 IT TO20130659 A1 ITTO20130659 A1 IT TO20130659A1 IT 000659 A IT000659 A IT 000659A IT TO20130659 A ITTO20130659 A IT TO20130659A IT TO20130659 A1 ITTO20130659 A1 IT TO20130659A1
Authority
IT
Italy
Prior art keywords
nodes
detection signals
detection
frames
hovering
Prior art date
Application number
IT000659A
Other languages
English (en)
Inventor
Alessandro Capra
Nunziata Ivana Guarneri
Original Assignee
St Microelectronics Srl
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by St Microelectronics Srl filed Critical St Microelectronics Srl
Priority to IT000659A priority Critical patent/ITTO20130659A1/it
Priority to US14/450,105 priority patent/US9910503B2/en
Publication of ITTO20130659A1 publication Critical patent/ITTO20130659A1/it
Priority to US15/889,859 priority patent/US10551934B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0446Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a grid-like structure of electrodes in at least two directions, e.g. using row and column electrodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Description

DESCRIZIONE dell’invenzione industriale dal titolo:
“Procedimento, apparecchiatura e dispositivo per il riconoscimento di gesti, prodotto informatico relativo” di: STMicroelectronics S.r.l., nazionalità italiana, Via C. Olivetti, 2 – 20864 Agrate Brianza (MB), Italia.
Inventori designati: Nunziata Ivana GUARNERI, Alessandro CAPRA
Depositata il: 1° agosto 2013
* ;;TESTO DELLA DESCRIZIONE ;Campo tecnico ;La descrizione è relativa al riconoscimento di gesti. Una o più forme di attuazione possono essere relative al riconoscimento di gesti, per es. nei dispositivi di visualizzazione capacitivi con auto-rilevazione (“selfsensing”). ;;Sfondo ;I dispositivi di visualizzazione capacitivi con autorilevazione possono essere utili nel fornire interfacce intuitive tra un utente e dispositivi basati su uno “schermo a tocco” (“touch-screen”). ;Sebbene si faccia correntemente riferimento ad un’azione di “tocco”, un’interazione con tali dispositivi può comportare certi gesti, come per esempio un colpetto (“flip”), una pizzicatura (“pinch”), una rotazione e così via effettuati in realtà da un utente nello spazio di prossimità del dispositivo (per es. un pannello, come uno schermo) senza che il dispositivo sia effettivamente toccato dall’utente. ;I pannelli di visualizzazione suscettibili di captare gesti effettuati nello spazio di prossimità (per es. ;“restando sospesi” (“hovering”) a una distanza dalla superficie del pannello di visualizzazione senza effettivamente toccarla) possono essere di interesse per un certo numero di applicazioni, come una “passata” (“swipe”) (per es. per un e-reader), l’uso di un dito come un joystick (per es. ai fini dei videogiochi), una “pizzicatura” (per es. per operazioni di trascinamento e rilascio (“drag-and-drop”)), una rotazione (per es. di un oggetto), una riduzione (“zoom-in”) e/o un ingrandimento (“zoom-out”) (per es. per applicazioni grafiche e di formazione di immagine). ;Su taluni mercati si può anche individuare una crescente sensibilità per la natura “igienica” di un’operazione senza tocco (“touch-less”), in cui è possibile non far residuare sul pannello alcuna traccia indesiderata delle dita di un utente. ;;Scopo e sintesi ;E’ perciò avvertita l’esigenza di soluzioni per il riconoscimento di gesti perfezionate, per esempio al fine di espandere ulteriormente la capacità per una modalità di funzionamento senza tocco. ;Una o più forme di attuazione hanno come scopo soddisfare una tale esigenza. ;Una o più forme di attuazione possono soddisfare una tale esigenza per mezzo di un procedimento avente le caratteristiche richiamate nelle rivendicazioni che seguono. ;Una o più forme di attuazione possono anche riferirsi a una corrispondente apparecchiatura, a un relativo dispositivo basato sul tocco così come a un prodotto informatico relativo, caricabile nella memoria di almeno un dispositivo di elaborazione e che include parti di codice software per effettuare le fasi del procedimento delle forme di attuazione quando il prodotto è eseguito su un tale dispositivo. Come qui usato, un riferimento a un tale prodotto informatico intende essere equivalente a un riferimento a un mezzo leggibile da computer che contiene istruzioni per controllare un dispositivo elettronico per coordinare l’esecuzione del procedimento dell’invenzione. Un riferimento ad “almeno un computer” intende evidenziare la possibilità che certe forme di attuazione siano implementate in maniera distribuita/modulare. ;Una o più forme di attuazione rendono possibile riconoscere la direzione di un gesto di hovering effettuato con la mano (le mani) e/o con un dito (o con dita) con la possibilità di fornire una riconoscimento della presenza di una mano. ;Una o più forme di attuazione rendono possibile distinguere gesti “di dito” e “non di dito”. ;Una o più forme di attuazione possono comportare un’analisi temporale delle coordinate rilevate per ciascun frame in una sequenza di immagini/frame. ;Una o più forme di attuazione possono comportare l’uso di una memoria tampone circolare (per es. per gli assi X e Y di un sistema di coordinate cartesiane) nella rilevazione dei gesti di hovering effettuati con la mano (le mani) e con una o più dita. ;;Breve descrizione delle figure ;Una o più forme di attuazione saranno ora descritte, a puro titolo di esempio, con riferimento alle figure annesse, in cui: ;- le Figure 1 e 2 sono esempi di gesti di hovering suscettibili di essere riconosciuti in forme di attuazione, - la Figura 3 è un esempio di schema a blocchi di una apparecchiatura secondo forme di attuazione, ;- la Figura 4 è un esempio di un pannello di rilevazione suscettibile di essere usato in forme di attuazione, ;- la Figura 5 è un esempio di diagramma di flusso di un possibile funzionamento di forme di attuazione, ;- la Figura 6, comprendente tre parti indicate con a), b) e c), la Figura 7, comprendente due parti indicate con a) e b), e la Figura 8 sono esempi di schemi del rilevamento di un hovering in forme di attuazione, ;- le Figure 9 e 10, ciascuna comprendente tre parti indicate con a), b) e c), sono esempi del rilevamento di un hovering di una mano in forme di attuazione, ;- le Figure 11 e 12, di nuovo ciascuna comprendente tre parti indicate con a), b) e c), sono esempi del rilevamento dell’hovering di un dito in forme di attuazione, ;- le Figure 13, 14 e 15, queste ultime comprendenti due parti indicate con a) e b), sono esempi del rilevamento delle coordinate di un dito in forme di attuazione, ;- le Figure da 16 a 18 sono esempi di schemi del rilevamento di un dito in forme di attuazione, ;- la Figura 19, comprendente due parti indicate con a) e b), è un esempio di trasformazione di spazio per l’uso nel rilevamento di un dito nelle forme di attuazione, ;- le Figure da 20 a 22 sono esempi dei risultati ottenibili con la trasformazione di spazio della Figura 19, e ;- le Figure 23 e 24 sono esempi del possibile uso di tali risultati in forme di attuazione. ;Descrizione dettagliata ;Nella seguente descrizione sono illustrati vari dettagli specifici che mirano a una comprensione approfondita di vari esempi di forme di attuazione. Le forme di attuazione possono essere ottenute senza uno o più dettagli specifici, o attraverso altri procedimenti, componenti, materiali, ecc. In altri casi, operazioni, materiali o strutture note non sono rappresentate descritte in dettaglio per evitare di rendere poco chiari i vari aspetti delle forme di attuazione. Un riferimento a “una forma di attuazione” in questa descrizione indica che una particolare configurazione, struttura o caratteristica descritta con riferimento alla forma di attuazione è inclusa in almeno una forma di attuazione. Per cui, le espressioni quali “in una forma di attuazione”, eventualmente presenti in varie parti di questa descrizione, non fanno necessariamente riferimento alla stessa forma di attuazione. Inoltre, particolari configurazioni, strutture o caratteristiche possono essere combinate in qualsiasi maniera adeguata in una o più forme di attuazione. I riferimenti sono qui usati per facilitare il lettore e così non definiscono l’ambito di protezione o la portata delle forme di attuazione. ;Le Figure 1 e 2 sono rappresentative di gesti di hovering suscettibili di essere rilevati in una o più forme di attuazione. ;Tali gesti possono essere rilevati, per es. rispetto a un pannello S, come per es. uno schermo di visualizzazione del cosiddetto tipo con auto-rilevazione (self-sensing), che è uno schermo di rilevazione adatto all’uso nei dispositivi basati su schermo a tocco. ;In una o più forme di attuazione, un tale pannello S può essere basato su una tecnologia capacitiva e può produrre segnali di uscita indicativi della posizione rispetto allo (al piano dello) schermo della mano (delle mani) o del dito (delle dita) di un utente che “restano sospesi” (in “hovering”) a distanza dalla superficie del pannello. ;Una o più forme di attuazione possono riferirsi alla capacità di un tale pannello (per es. uno schermo con autorilevazione di qualsiasi tipo noto nella tecnica) di funzionare in una modalità senza tocco (“touch-less) , vale a dire fornendo in uscita segnali indicativi della posizione della mano/dito di un utente anche in assenza di un contatto fisico con la superficie del pannello in una modalità di “hovering”. ;In una o più forme di attuazione, tale azione di rilevazione può essere fornita a distanze dalla superficie del pannello fino ad approssimativamente 3 centimetri. Sono noti nella tecnica pannelli suscettibili di fornire una azione di rilevazione di prossimità fino ad approssimativamente 10 centimetri dalla superficie del pannello. ;La Figura 1 è rappresentativa in generale del gesto di hovering “di mano”, vale a dire di una mano H di un utente che è mossa in alto, in basso, a destra e a sinistra come indicato schematicamente dalle frecce nella Figura 1 rimanendo sospesa rispetto alla superficie del pannello. ;La Figura 2 similmente è rappresentativa di un gesto di hovering “di dito”, vale a dire di un dito F di un utente che è mosso in alto, in basso, a destra e a sinistra come indicato schematicamente dalle frecce nella Figura 2 rimanendo sospeso rispetto alla superficie del pannello. ;Per semplicità, in tutta questa descrizione saranno ipotizzati pannelli (per es. schermi capacitivi con autorilevazione) S che hanno una forma quadrata/rettangolare con lati che si estendono nelle direzioni degli assi X, Y di un sistema cartesiano. Una o più forme di attuazione possono comportare schermi con una forma diversa da quella rettangolare/quadrata, come rotonda, ellittica, poligonale e altre. ;La Figura 3 è uno schema a blocchi rappresentativo di una apparecchiatura secondo forme di attuazione, indicata in generale con 10. In una o più forme di attuazione, l’apparecchiatura 10 può essere configurata per elaborare segnali di rilevazione provenienti da un pannello di rilevazione S come discusso in precedenza. In una o più forme di attuazione, si può ipotizzare che tali segnali includano un primo e un secondo segnale rappresentativi delle azioni di rilevazione effettuate, come descritto meglio in dettaglio nel seguito, per gli assi ortogonali X e Y di uno spazio o di un sistema cartesiano (piano). ;L’apparecchiatura 10 può essere qualsiasi dispositivo di elaborazione (per es. un microprocessore) configurato per effettuare le funzioni di elaborazione esemplificate nel seguito al fine di produrre un segnale di uscita O da rendere disponibile a una funzione o un blocco di “destinazione” D. Tale funzione o blocco può essere qualsiasi modulo/funzione che si intende controllare tramite un gesto di hovering di una mano/dito, come per es. una azione di hovering (ossia senza tocco) effettuata da un utente rispetto al pannello S. ;La combinazione del pannello S, dell’apparecchiatura 10 e del modulo/funzione di destinazione D rappresentati nella Figura 3 intende essere rappresentativa in generale di qualsiasi dispositivo (per es. di una apparato di utente in una rete di comunicazione mobile) atto ad essere azionato/controllato per mezzo dei gesti di un utente come qui esemplificato. ;In una o più forme di attuazione, per memorizzare i segnali relativi ai “nodi X” (asse X) e ai “nodi Y” (asse Y) dal pannello S si possono usare memorie tampone (buffer) circolari 12 e 14. ;In una o più forme di attuazione, le memorie tampone circolari 12, 14 possono essere configurate per memorizzare un certo numero (per es. 10) di “frame” per i nodi X e i nodi Y. In una o più forme di attuazione, le memorie tampone circolari 12, 14 possono essere aggiornate ogni volta che un nuovo frame è letto dal pannello S. ;Così come qui utilizzata, la denominazione “circolare” si applica in quanto, per es. dopo il calcolo del valore massimo su ciascuna colonna della memoria tampone circolare, la prima riga (linea) nella memoria tampone può essere scartata dalla memoria tampone mentre tutti i frame sono fatti scorrere di una posizione (per es. di una posizione in su, con il secondo frame che diventa il primo, e così via), mentre il frame al momento letto è caricato nella posizione più nuova (per es. la più recente) della memoria tampone circolare. ;Nell’approccio prevalente usato negli schermi a tocco che funzionano in una modalità a tocco (con un contatto fisico per es. di un dito con la superficie dello schermo) i segnali provenienti da uno schermo S possono essere relativi a ciascuna intersezione delle righe (linee) e delle colonne nel pannello, per cui l’azione di tocco (effettiva) produce coppie univoche di coordinate del tocco. ;In una o più forme di attuazione, i segnali provenienti da un pannello S come considerati nel seguito possono essere relativi singolarmente agli elettrodi di riga (linea) e di colonna nel pannello S. ;Per esempio, in una o più forme di attuazione come esemplificate nel seguito, per ciascun frame (per es. per ciascuna “immagine” successiva del gesto della mano/del dito rilevato dal pannello S), i segnali per i nodi X e per i nodi Y saranno emessi sotto forma di sequenze di valori rappresentativi dell’intensità del segnale (per es. della capacità) di rilevazione per i nodi X e i nodi Y. ;In una o più forme di attuazione, un gesto di una caratteristica di una mano nello spazio di prossimità di un pannello di rilevazione S può così essere riconosciuto rilevando i segnali di rilevazione X, Y nei nodi X e nei nodi Y indicativi della presenza della caratteristica della mano nelle corrispondenti posizioni delle righe (linee) e posizioni delle colonne del pannello di rilevazione S. ;Così come qui utilizzato, il termine “caratteristica di una mano” indicherà in generale una mano nel suo complesso, un singolo dito o una pluralità di dita, nonché una “immagine fantasma” di un pugno o di un palmo. ;Il diagramma di flusso della Figura 5 è un esempio di una o più forme di attuazione nelle quali i segnali relativi all’asse X e/o all’asse Y dal pannello S possono essere elaborati per accertare se nello spazio si prossimità del pannello S si sta effettuando un gesto di hovering “di mano” (Figura 1) o un gesto di hovering “di dito” (Figura 2). ;Nel diagramma di flusso della Figura 5, il blocco 100 è rappresentativo dell’inizializzazione delle due memorie tampone circolari 12 (per es. asse X o CBX) e 14 (per es. asse Y o CBY), per es.: ;CBX = [10 frame per X] ;CBY = [10 frame per Y] ;Una fase 102 è rappresentativa di una verifica effettuata per ciascun frame delle due memorie tampone di CBX e di CBY 12 e 14 in merito a se è stata rilevata una forma “di dito” (finger) o “non di dito” (non-finger). ;In una o più forme di attuazione, questo può avvenire usando l’approccio descritto nel seguito con riferimento alle Figure da 13 a 24. ;In una fase 104, si possono calcolare due variabili, vale a dire FingersOnX e FingersOnY suscettibili di assumere due valori, per es. “0” o “1”. ;In una o più forme di attuazione, queste variabili possono essere impostate a “1” se in almeno un frame della rispettiva memoria tampone è stata rilevata la presenza di un dito e possono essere impostate a “0” altrimenti. ;Per esempio, FingersOnX può essere impostato a 0 quando in uno qualsiasi dei frame della memoria tampone di CBX 12 è stata rilevata una forma non di dito, mentre FingersOnX è impostato a 1 quando in almeno un frame della memoria tampone di CBX 12 è stata rilevata una forma di dito. Lo stesso può valere mutatisi mutandis per l’asse Y, vale a dire per la memoria tampone di CBY 14. ;In una fase 106 i valori assegnati a FingerOnX e a FingerOnY sono sottoposti a verifica per distinguere un hovering di mano da un hovering di dito. ;Nel caso in cui sia rilevato un gesto di hovering di mano, in una o più forme di attuazione si possono calcolare parametri di inclinazione (“slant”) SlantX, SlantY rispettivamente per l’asse X e l’asse Y, come descritto meglio in dettaglio nel seguito, per es. analizzando il modo (cioè l’ordine temporale) in cui i nodi X e i nodi Y del pannello sensore S hanno raggiunto i loro valori massimi. ;In una o più forme di attuazione, in una fase 110 si possono verificare i valori per SlantX e SlantY (positivo/negativo/zero) come descritto in dettaglio nel seguito fornendo in uscita (per es. come segnale di uscita O) la direzione di hovering della mano (in alto, in basso, a destra, a sinistra). ;In una o più forme di attuazione, se - in base alla verifica della fase 106 – si è determinata una forma di dito, un gesto di hovering di dito può essere elaborato per es. analizzando l’evoluzione temporale dei valori delle coordinate del dito in base ai frame memorizzati nelle memorie tampone circolari 12 e 14 come descritto meglio in dettaglio nel seguito fornendo in uscita (per es. come segnale di uscita O) la direzione di hovering del dito (in alto, in basso, a destra, a sinistra). ;In una o più forme di attuazione, gli insiemi dei segnali di rilevazione dei nodi X e dei nodi Y per una pluralità di frame su una finestra temporale possono essere sottoposti a verifica (ricerca) riguardo alla presenza di almeno una forma di dito; in assenza di forme di dito, i gesti rilevati, per es. come descritto in dettaglio nel seguito, possono essere riconosciuti come gesti (di hovering) di mano. ;La Figura 6 è un esempio generale della possibilità, in una o più forme di attuazione, di rilevare un gesto di hovering analizzando i segnali relativi agli assi X e/o agli assi Y come prodotti dal pannello di rilevazione (per es. dallo schermo capacitivo con auto-rilevazione) S. In una o più forme di attuazione, il pannello S può misurare un segnale di rilevazione (per es. di capacità) singolarmente per ciascun elettrodo di riga (linea) e di colonna e produrre segnali indicativi dell’evoluzione temporale nel tempo (per es. su una pluralità di frame successivi) dei segnali di rilevazione (valori di capacità) relativi ai nodi X (asse X) e nei nodi Y (asse Y). ;La parte a) della Figura 6 rappresenta un possibile esempio di evoluzione su una pluralità di frame (scala delle ascisse, da destra a sinistra) dei valori di rilevazione (per es. di capacità) relativi ai nodi X (scala delle ordinate, a titolo di esempio sono considerati 16 nodi). ;La parte b) della Figura 6 rappresenta analogamente un possibile esempio di evoluzione su una pluralità di frame (scala delle ascisse, da destra a sinistra) dei valori di rilevazione (per es. di capacità) relativi ai nodi Y (scala delle ordinate, a titolo di esempio sono considerati di nuovo 16 nodi). ;I segnali esemplificati nelle parti a) e b) per i nodi X e i nodi Y possono essere relativi a un movimento (gesto) di hovering verso destra come rappresentato nella parte c) della Figura 6. ;Si può così notare che con un tale movimento di hovering orizzontale, i segnali per i nodi X sono sostanzialmente uguali per ciascun frame, il che può essere spiegato osservando che un tale movimento di hovering nella direzione dell’asse Y non comporta alcun cambiamento apprezzabile nel tempo dei segnali per i nodi X rappresentati nella parte a) della Figura 6, che mostrano tutti per es. un valore di picco sostanzialmente nella stessa posizione per tutti i frame. ;Al contrario, durante un tale movimento di hovering nella direzione dell’asse X, i segnali per i nodi Y rappresentati nella parte a) della Figura 6 cambiano sui frame: per es. i nodi con indici inferiori (1, 2, ...) hanno un valore di picco del segnale di rilevazione approssimativamente nel frame 22, mentre i nodi con indici superiori (...., 15, 16) raggiungono il loro valore di picco circa nel frame 32. ;Sebbene nella Figura 6 sia esemplificato un segnale con picco (che può essere un esempio di un hovering di un dito), un comportamento simile dei segnali di rilevazione su frame successivi può essere rilevato anche per un hovering di una mano. ;L’inclinazione o pendenza (slant) di una linea SL che congiunge i massimi rilevati su una finestra temporale di frame successivi per i segnali per i nodi X e per i nodi Y, per es. come memorizzati nelle memorie tampone circolari 12 e 14 (CBX, CBY), possono così essere rappresentative di un movimento di hovering e dei parametri associati di un tale movimento. ;Per esempio, nella parte a) della Figura 6 (nodi X -senza alcun hovering nella direzione X) la curva SL è diretta verticalmente; al contrario, nella parte b) della Figura 6 (nodi Y - con un hovering che ha luogo nella direzione Y) la curva SL è inclinata rispetto alla verticale. Inoltre, il verso dell’inclinazione (ossia il fatto che la curva SL sia inclinata verso sinistra o verso destra rispetto alla verticale) può essere indicativo della direzione di hovering e l’ammontare di inclinazione (per es. l’angolo rispetto alla verticale) può essere rappresentativo della velocità di transizione sui nodi, vale a dire della velocità del movimento di hovering. ;Le Figure 7 e 8 sono esempi di una o più forme di attuazione nelle quali i criteri esemplificati nella Figura 6 possono essere usati per determinare i valori di inclinazione atti a fornire una indicazione dei movimenti di hovering per es. nei termini di: ;- hovering/nessun hovering nella direzione dell’asse X e/o dell’asse Y, ;- direzione (senso) del movimento di hovering (per es. in alto o in basso, a destra o a sinistra), e ;- velocità del movimento di hovering. ;Forme di attuazione delle funzioni per distinguere fra hovering di mano ed hovering di dito saranno esemplificate nel seguito con riferimento alle Figure 13 a 24. ;La parte a) della Figura 7 è un esempio di come i segnali (per es. di capacità) di rilevamento o rilevazione dal pannello S possono essere memorizzati nelle memorie tampone circolari 12, 14. ;La Figura 7 si riferisce a titolo di esempio ai segnali per i nodi Y, Y1, Y2, Y3..., Y16 (il numero di nodi, che può essere differente per i due assi X e Y, è puramente esemplificativo e non limitativo delle forme di attuazione) che sono disposti in linee successive per es. della memoria tampone 14 della Figura 1. ;In una o più forme di attuazione, una tale memoria tampone può includere per es. dieci linee per memorizzare informazioni concernenti dieci frame successivi, vale a dire “immagini” successive di un gesto di hovering rilevato successivamente dal pannello di rilevazione S. Il numero indicato di posizioni di memorizzazione/di frame per le memorie tampone circolari, che può essere differente per i due assi X e Y, è puramente esemplificativo e non limitativo delle forme di attuazione. ;In una o più forme di attuazione, un valore di 10 o circa 10 frame è stato riscontrato rappresentare un compromesso ragionevole fra il fornire una “finestra temporale” sufficientemente ampia ai fini del rilevamento ed i requisiti di memorizzazione/complessità computazionale, lo stesso applicandosi anche eventualmente al fatto di scegliere gli insiemi di segnali di rilevazione X dei nodi X ed i segnali di rilevazione Y dei nodi Y come relativi ciascuno a 16 o circa 16 nodi. ;La Figura 7 può riferirsi ad un caso esemplificativo in cui un primo nodo Y, Y1 raggiunge il suo massimo del valore (per es. di capacità) di rilevazione nel frame 91, mentre il secondo nodo Y2 raggiunge il suo massimo nel frame 92, il terzo nodo Y3 nel frame 93, e così via. Questo può essere un esempio di un caso nel quale il massimo del segnale di rilevamento (o di rilevazione) evolve nel tempo dai nodi Y con indici inferiori ai nodi Y con indici superiori (il che può corrispondere, per es. a un hovering verso destra), come rappresentato schematicamente nella parte b) della Figura 7, dove i punti rappresentano i massimi per ciascuna colonna, raffigurati in termini di indice di frame (scala delle ordinate) rispetto ai sensori/nodi in Y. ;La Figura 8 è un esempio di come per i segnali come presentati nella Figura 7 si può calcolare un parametro di inclinazione con una procedura nella quale, per es. partendo dal primo nodo (per es. Y1), l’indice di frame del massimo viene confrontato con quello successivo, e: ;- se l’indice corrente è inferiore a quello successivo, il valore del parametro di inclinazione è incrementato, per es. di una unità; ;- se l’indice corrente è superiore a quello successivo, il valore del parametro di inclinazione è decrementato, per es. di una unità; e ;- se l’indice corrente è identico a quello successivo, il valore del parametro di inclinazione è lasciato invariato. ;La seguente routine è un esempio di una possibile forma di attuazione di una tale procedura: ;slant = 0; ;for (i = 1; i ≤ 16; i++) ;{if (w(i) > w(i+1)) ;slant --; ;else if (w(i) < w (i+1)) ;slant +;} ;Il fatto che parametro di inclinazione ha un valore differente da 0 può essere in generale indicativo di un movimento di hovering in corso. ;In una o più forme di attuazione, la grandezza (per es. il modulo o il valore assoluto) del parametro di inclinazione può essere confrontata con una soglia, con hovering che viene effettivamente dichiarato solo se si raggiunge una tale soglia. ;Una o più forme di attuazione possono così comportare il confrontare le posizioni dei massimi degli insiemi dei segnali di rilevazione dei nodi X e dei nodi Y ricavati dal pannello S rispetto a una soglia di spostamento, e il valutare che dette posizioni dei massimi rimangono stazionarie se detta soglia di spostamento non è raggiunta. ;In una o più forme di attuazione, una tale azione di confronto con una soglia (che può essere rispetto a una soglia variabile) permette di evitare di generare falsi positivi a seguito di un semplice tremolio di una mano e/o di un dito di un utente che non intende rappresentare un gesto di hovering vero e proprio. ;In una o più forme di attuazione, il segno del parametro di inclinazione (positivo o negativo) può essere indicativo della direzione del movimento di hovering, per es. in alto o in basso per i nodi X e/o verso destra o verso sinistra per i nodi Y. ;Le Figure 9 e 10 sono esempi di una o più forme di attuazione nelle quali il meccanismo esemplificato in precedenza può essere applicato a un gesto di hovering di mano (per es. ipotizzando che non sia rilevata alcuna forma di dito). ;Con riferimento alla Figura 9, la parte c) rappresenta schematicamente per es. un hovering di mano verso destra. ;In tal caso, tutti i frame come eventualmente memorizzati nella memoria tampone circolare dei nodi X (CBX) avranno un profilo con una tendenza piuttosto costante per X1, X2, X3 sui vari frame 91 ... 100, come rappresentato schematicamente nelle parti a) e b) della Figura 9. In un tale caso di esempio, tutti i nodi in X saranno eccitati in modo pressoché uguale per tutti i frame, cioè nel tempo. ;La parte c) della Figura 10 rappresenta di nuovo schematicamente un esempio di un hovering di mano verso destra. ;In tal caso, i frame come eventualmente memorizzati nella memoria tampone circolare dei nodi Y (CBY) saranno generalmente differenti l’uno dall’altro come rappresentato nelle parti a) e b) della Figura 10. In un tale caso di esempio, i nodi in Y saranno eccitati in modo differente per ciascun frame, con l’eccitazione che cambia nel tempo come risultato del movimento di hovering. ;Il calcolo del parametro di inclinazione considerato in precedenza produrrà così differenti risultati per i due assi X e Y. ;Nel caso dell’asse X, si può verificare la posizione dei massimi per i nodi X1, X2 ..., X16 all’interno della finestra temporale rappresentata dai vari frame di CBX memorizzati nella memoria tampone circolare 12 per l’asse X. Per ciascuna colonna nella memoria tampone, il valore massimo può essere rilevato localizzando nel contempo il suo indice di frame relativo. ;Il parametro di inclinazione per i nodi X può quindi essere calcolato per es. in base ai criteri discussi in precedenza. Nell’esempio specifico considerato, il parametro di inclinazione per l’asse X, per es. SlantX è uguale a 0 (o, più in generale, può presentare valori che rimangono al di sotto di una data soglia) perché tutti i nodi in X sono eccitati in modo sostanzialmente uguale durante il gesto di hovering. ;Al contrario, la stessa elaborazione effettuata per i nodi Y confermerà che i frame di CBY (vale a dire, i frame memorizzati nella memoria tampone circolare 14 per l’asse Y) non mostreranno una tendenza costante come rappresentato schematicamente nella parte b) della Figura 10: per es. con il primo nodo Y, Y1 che raggiunge il suo valore massimo nel frame 91, il secondo nodo Y2 nel frame 92, il terzo nodo Y3 nel frame 93, e così via, per es. con il massimo del segnale di rilevamento (di rilevazione) che va dai nodi in Y con indici inferiori ai nodi in Y con indici superiori (nel caso di esempio di un hovering verso destra). ;Il corrispondente valore per il parametro di inclinazione, per es. SlantY, presenterà così una tendenza nel tempo che non è piatta e che ha un valore non zero, per es. un valore positivo. ;Le Figure 11 e 12 sono di nuovo esempi di un hovering verso destra lungo l’asse Y, nel caso di un gesto di dito. ;A titolo di confronto diretto con l’esempio di un gesto di hovering di mano a cui si riferiscono le Figure 9 e 10, si apprezzerà che nel caso di esempio di un hovering di dito rappresentato nelle Figure 11 e 12 sia i frame per l’asse X (CBX) sia quelli per l’asse Y (CBY) presenteranno una forma simile a una campana, con un picco, con la coppia di coordinate del picco della campana che può essere usata come la coppia di coordinate per il dito: sebbene per semplicità sia considerato il gesto di un singolo dito, gli stessi principi fondamentali possono applicarsi anche a un gesto con molteplici dita. ;In una o più forme di attuazione, se in un frame si è rilevata una forma di dito (per es. come descritto meglio in dettaglio nel seguito) le sue coordinate sull’asse X e/o sull’asse Y possono essere memorizzate nelle memorie tampone circolari 12 e 14 e i segnali relativi possono essere eseguiti secondo gli stessi principi discussi in precedenza per un hovering di mano. ;Per esempio, ipotizzando un gesto di hovering di dito verso destra come rappresentato schematicamente nelle parti c) di entrambe le Figure 11 e 12, i frame per l’asse X mostreranno una campana con picco che rimane sostanzialmente stabile nel tempo nello stesso nodo (negli stessi nodi). ;Di nuovo, in una o più forme di attuazione, tale stabilità può essere verificata rispetto a una data soglia in modo tale che un hovering lungo un certo asse non sia “dichiarato” se i parametri relativi (per es. il parametro di inclinazione discusso in precedenza o un parametro simile) rimangono in valore assoluto sotto una tale soglia, evitando così falsi positivi dovuti al tremolio di un dito che non intende essere un gesto di hovering. ;Al contrario, i profili (per es. di capacità) di rilevazione dal pannello S per l’asse Y (come memorizzati per es. nella memoria tampone di CBY 14) possono presentare un comportamento come rappresentato schematicamente nelle parti a) e b) della Figura 12, per es. con un picco a forma di campana che cambia la sua posizione nel tempo muovendosi da frame a frame. ;In una o più forme di attuazione, verificare questa posizione variabile può permettere di determinare la direzione di hovering del dito. Per esempio, un picco di un dito che si sposta dal nodo Y1 al nodo Y16 rimanendo nel contempo sostanzialmente stazionario per i nodi X può identificare un hovering di un dito verso destra, come rappresentato schematicamente nelle parti c) delle Figure 11 e 12. ;In una o più forme di attuazione, rilevare un gesto di hovering di dito può comportare il calcolare un parametro di inclinazione (per es. SlantX, SlantY) come discusso in precedenza per i gesti di mano. In una o più forme di attuazione, una rielaborazione più semplice può identificare la presenza/direzione di hovering confrontando semplicemente la posizione di un picco in un insieme di frame successivi. ;Le Figure da 13 a 24 sono esempi di una o più forme di attuazione per evidenziare un gesto di dito e per rilevare eventualmente una forma di dito, per es. per evidenziare una tale forma di dito su uno sfondo come rappresentato eventualmente da una “immagine fantasma” del palmo/pugno della mano alla quale appartiene il dito. ;In una o più forme di attuazione, l’esempio di soluzione descritto in seguito può essere adottato per effettuare per es. la fase 102 nel diagramma di flusso della Figura 5 (e - più in generale - qualsiasi altra fase che comporta di distinguere un gesto/forma di dito rispetto ad un gesto/forma non di dito) al fine di decidere se il rilevamento del gesto debba evolvere verso le fasi 108 e 110 (gesto di mano) o alla fase 112 (gesto di dito). ;A tale riguardo, una o più forme di attuazione possono comportare una trasformazione di spazio per effettuare un riconoscimento/rilevamento della forma di dito anche su un singolo frame. ;Il lato di sinistra della Figura 13 rappresenta schematicamente un esempio di una configurazione di picchi e valli in un segnale di rilevazione dal pannello S per i vari nodi in un frame (questo può essere un frame sull’asse X o un frame sull’asse Y) che, in base a una trasformazione in una rappresentazione di nodi-distanze (da d1 a d6, M1, M2, M3 come descritto meglio in dettaglio nel seguito), può permettere di distinguere forme “non di dito” A e B da una forma “di dito” C e viceversa. ;La trasformazione nello spazio dei nodi-distanze esemplificata nel seguito può essere usata per es. per determinare se si è rilevato un gesto di mano o un gesto di dito, come esemplificato nel diagramma di flusso della Figura 5, per esempio nel rivelare la direzione o il senso (in alto, in basso, verso destra, verso sinistra) di gesti di hovering come descritto precedentemente con riferimento alle Figure 11 e 12. ;Una o più forme di attuazione possono tuttavia applicarsi, più in generale, a qualsiasi contesto nel quale una forma di dito può essere distinta rispetto a una forma non di dito nei dati “non elaborati” (per es. capacità del nodo) come prodotti da un pannello di rilevazione S, come uno schermo di visualizzazione con auto-rilevazione. ;In una o più forme di attuazione, come esemplificato nella Figura 14 si può effettuare un’analisi preliminare, per i nodi in X (parte a) della Figura 14) e/o per i nodi in Y (parte b) della Figura 14) ad un dato tempo t (per es. per un dato frame, eventualmente il più recente per es. il più nuovo frame memorizzato in una delle memorie tampone circolari 12, 14) in modo da rilevare la presenza di picchi, come P1 e P2, al fine di determinare il numero di picchi e di identificare un insieme di nodi “inferiori” sotto ciascun picco (per nodi “inferiori” si intendono i nodi che hanno un’intensità inferiore del segnale di rilevamento (o di rilevazione), per es. la capacità, del picco). ;In una o più forme di attuazione, tale analisi può essere effettuata applicando una soglia di intensità, per es. con un valore di soglia arbitrario Th = 200 come esemplificato nella Figura 14. ;In una o più forme di attuazione, tale elaborazione di soglia, se estesa su un insieme di nodi (nodi X e nodi Y) che definiscono una certa area della superficie del pannello di rilevazione S su un’area minima, può essere facilmente suscettibile di rilevare la presenza di una mano nelle vicinanze del pannello S. ;In una o più forme di attuazione, tale elaborazione di soglia (in cui il valore di soglia può essere reso adattativo per certe applicazioni) rende possibile determinare ad es. che per un certo numero di nodi (ad es. i nodi da 5 a 10 per i nodi in X della parte a) e i nodi da 4 a 13 per i nodi in Y della parte b) della Figura 14) il segnale di rilevazione è superiore alla soglia, con uno di questi nodi che è un nodo di picco e con gli altri nodi nell’insieme che “giacciono” sotto tale picco. ;Discriminare le dita da altre forme considerando soltanto per es. il numero di nodi che giacciono sotto un dato picco può essere difficile e/o può dare origine ad una determinazione inaffidabile. ;Per esempio per es. due picchi possono ricoprire uno stesso numero di nodi con forme che derivano da due fonti diverse, come un dito e una “immagine fantasma” del corrispondente palmo/pugno. ;La Figura 15 rappresenta, di nuovo rispetto a un’asse X (parte a) e a un asse Y (parte b), un esempio di un caso in cui un dito punta a un pannello di rilevazione S con una forte presenza di un’immagine fantasma di un palmo/pugno. ;La parte a) della Figura 15 rappresenta un possibile profilo di rilevamento relativo a tre gruppi di nodi, per es. da sinistra a destra, un dito che punta allo schermo più un’immagine fantasma di un palmo/pugno. ;La parte b) della Figura 15 rappresenta un corrispondente profilo di rilevamento per i nodi Y che presenta sostanzialmente soltanto un picco e soltanto un gruppo di nodi che giacciono sotto tale picco. ;Le Figure da 16 a 18 (queste essendo applicabili sia ai nodi X sia ai nodi Y) sviluppano questo caso di esempio mostrando un profilo di rilevamento (per es. della capacità) dell’intensità rispetto a una scala delle ascisse rappresentativo dei nodi, per es. da X1 a X16 o da Y1 a Y16, un tale profilo includendo due picchi P1, P2 e tre valli V1, V2 e V3. ;Le Figure 17 e 18 rappresentano il fatto che un tale profilo di rilevamento può essere considerato come costituito da un primo picco (per es. il picco P1) situato tra due valli vicine V11 (= V1 della Figura 16) e V12 (= V2 della Figura 16) più un secondo picco (per es. P2) situato tra due valli vicine V21 (= V2 della Figura 16) e V22 (= V3 della Figura 16). Le Figure 17 e 18 sono così rappresentative della possibilità di rappresentare un profilo di rilevamento come un insieme di singoli picchi (per es. P1, P2) situati ciascuno tra due valli vicine (per es. V11, V12; V21, V22). ;Una tale disposizione di picchi/valli descritta in termini di spazio dei nodi-intensità (per es. capacità) può non essere in grado di discriminare in modo affidabile una forma di dito rispetto ad una forma non di dito (per es. un’immagine fantasma di un palmo/pugno). ;Una o più forme di attuazione possono superare un tale inconveniente facendo ricorso a una trasformazione di spazio come rappresentato schematicamente nella Figura 19. ;Nella parte di sinistra a) della Figura 19 è rappresentato un esempio di profilo di rilevamento come considerato in precedenza che include tre picchi P1, P2, P3. Ciascuno di questi picchi può essere rappresentato nel modo illustrato nelle Figure 17 e 18 come situato tra due valli adiacenti (per es. A e B per il picco P1, B e C per il picco P2 e C e D per il picco P3), la distanza tra le valli adiacenti definendo una larghezza d1, d2, d3 del picco P1, P2, P3. ;Come rappresentato schematicamente nella parte b) della Figura 19, per ciascun picco P1, P2, P3 può essere definito un punto medio (di media) M1, M2, M3 tra le due valli per ciascun picco (per es. A e B per il picco P1, B e C per il picco P2 e C e D per il picco P3). ;Nel caso di esempio della Figura 19, i punti medi/di media risultano così M1 (per il picco P1), M2 (per il picco P2) e M3 (per il picco P3), ciascuno di questi punti medi avendo la stessa distanza dalle due valli vicine al rispettivo picco (per es. A e B per il picco P1, B e C per il picco P2 e C e D per il picco P3). ;In una o più forme di attuazione, la natura media/di media dei punti, come M1, M2, M3 può essere sotto forma di una distanza euclidea in termini di posizione del nodo e in termini di intensità di rilevamento (o di rilevazione), come per es. del valore di capacità. ;In una o più forme di attuazione, per i vari nodi i = 1, 2, ... nel picco si possono calcolare le distanze (per es. euclidee) del valore (di capacità) di intensità f(i) rispetto al punto medio/di media M1 identificato in precedenza. ;Per esempio (facendo riferimento per semplicità soltanto al picco P1 con il punto medio M1 tra i punti A e B) si possono definire ad es. le distanze euclidee per ciascuno dei sette punti del picco in questione e il punto M1, definendo così per ciascuno di questi punti una distanza di tra il punto in questione e il punto di mezzo M1 con i = 1, ..., 7. ;In una o più forme di attuazione, una corrispondente formula matematica per calcolare dipuò essere: ;di= [(M1x– Vi)<2>+ (M1y– Vi)<2>]<1/2>;dove ;M1x= (min(Bx, Ax) │Bx– Ax│/ 2) ;M1y= (min(By, Ax) │By– Ay│ / 2) ;Vi= (i, f(i) ;f(i) è il valore (per es. della capacità) dell’intensità di rilevamento o di rilevazione per il nodo i con i = 1, ..., N, ;N è il numero di nodi nel picco considerato (qui N = 7, incluso il nodo che ha il valore di picco). ;I valori delle distanze così calcolati possono essere tracciati per i vari nodi, come rappresentato schematicamente nelle Figure 21 e 22. ;Specificamente, le Figure 20, 21 e 22 sono esempi di rappresentazioni di: ;- il picco P1 nella posizione più a sinistra nella Figura 19 come rappresentato nello spazio nodi-distanze trasformato, ;- il picco P2 nella posizione centrale nella Figura 19 come rappresentato nello spazio originale nodi-intensità (per es. capacità), e ;- lo stesso picco P2 nello spazio nodi-distanze trasformato. ;Il picco P1 (che, nel caso di esempio, si ritiene corrispondere ad un dito che punta nel pannello S) conserva la sua forma a campana con picco anche nello spazio trasformato. Al contrario, la forma appena leggermente “piccata” del picco P2 nello spazio dei nodi-intensità (Figura 21), quando rappresentata nello spazio dei nodidistanze, risulta mappata su una forma simile a una valle (Figura 22). ;Pur senza volersi vincolare ad alcuna teoria specifica al riguardo, si può apprezzare che la rappresentazione nello spazio nodi-distanze può essere vista corrispondere a una specie di rappresentazione “polare” delle distanze dell’intensità di rilevamento per i vari nodi dal punto medio nel picco (per es. M1, M2 o M3). In una tale rappresentazione quasi-polare, un picco marcato che corrisponde a un dito che punta al pannello S manterrà sostanzialmente la sua forma a picco, mentre forme meno pronunciate come quelle eventualmente prodotte da immagini fantasma di un palmo/pugno vedranno le loro forme trasformate nello spazio dei nodi-distanze trasformato in forme sostanzialmente piatte o perfino concave (per es. simili a una valle). ;Le Figure 23, 24 rappresentano schematicamente, in relazione sia ai nodi X sia ai nodi Y, il fatto che qualsiasi elaborazione relativa (come facilmente suscettibile di essere implementata in un processore, come il processore 10) e tale da comportare un confronto dei valori vicini per i vari nodi renderà possibile distinguere forme “di dito” F – per es. forme che è altamente probabile che corrispondano a un dito che punta (a delle dita che puntano) al pannello - rispetto a forme “non di dito” NF – per es. forme che è altamente probabile che abbiano origine da un’immagine fantasma, come un’immagine fantasma di un palmo o di un pugno, indicate con NF nelle Figure 23 e 24. ;In una o più forme di attuazione, le informazioni relative (F = dito, NF = non dito) possono essere elaborate in maniera combinata rispetto ai due assi per distinguere in modo affidabile le forme di dito dalle forme non di dito, per es. riguardo ad una direzione di hovering di una mano/dito come descritto in precedenza. ;Le Figure da 13 a 24 rappresentano così esempi di una o più forme di attuazione di un procedimento di riconoscimento di forme di dito in almeno uno tra un segnale di rilevazione X, Y dei nodi X e dei nodi Y prodotto da un pannello S di rilevazione di gesti (per es. uno schermo di visualizzazione capacitivo con autorilevazione), i segnali di rilevazione X, Y essendo indicativi della presenza di una caratteristica di una mano in corrispondenti posizioni di riga (linea) o di colonna del pannello di rilevazione S (per es. nello spazio in prossimità al pannello S o – eventualmente - a contatto con il pannello S). ;In una o più forme di attuazione, il procedimento può comportare di rilevare la presenza - nel segnale di rilevamento per almeno uno tra i segnali di rilevazione dei nodi X e dei nodi Y, X, Y - di almeno un picco, per es. P1, P2, P3, situato tra una coppia di valli (per es. V11, V12; V21, V22; A, B; B, C; C, D), il picco avendo un insieme di nodi di rilevamento sottostanti – ad es. compreso il nodo di picco - tra la coppia di valli; un punto medio (di media) M1, M2, M3 tra la coppia di valli viene determinato calcolando, per i nodi di rilevamento nell’insieme, le distanze (per es. euclidee) dei rispettivi valori del segnale di rilevamento dal punto medio M1, M2, M3 tra la coppia di valli. Rappresentando le distanze così calcolate rispetto ai nodi per i quali sono state calcolate le distanze, in una o più forme di attuazione si può quindi: i) se la rappresentazione presenta una forma con picco (si veda per es. la Figura 20), riconoscere una forma di dito; e ;ii) se la rappresentazione non presenta una forma con picco (si veda per es. la Figura 22), riconoscere una forma non di dito. ;In una o più forme di attuazione, l’elaborazione esemplificata con riferimento alle Figure da 13 a 24 può anche applicarsi al rilevamento di forme di più dita, vale a dire forme di dito che comportano una pluralità di dita, per es. per rilevare gesti di “pizzicatura”, di rotazione, di ingrandimento/riduzione e simili. ;Fermo restando il principio dell’invenzione, i dettagli e le forme di attuazione potranno variare, anche in modo significativo, rispetto a quanto è stato qui descritto puramente a fini di esempio, senza uscire dall’ambito di protezione. L’ambito di protezione è determinato dalle rivendicazioni allegate. ;LEGENDA DELLE TAVOLE DEI DISEGNI FIGURA 6 ;Frame ;Nodi X ;Nodi Y ;FIGURA 7 ;Frame Y ;FIGURA 8 ;inclinazione = 7 ;FIGURE 9, 10, 11, 12, 14 ;Nodi X ;Nodi Y ;FIGURA 15 ;Nodi Y ;FIGURE 20, 21, 22 ;nodi ;FIGURA 24 ;Nodi Y *

Claims (13)

  1. RIVENDICAZIONI 1. Procedimento per riconoscere gesti nello spazio di prossimità di un pannello di rilevazione (S) a partire da segnali di rilevazione di nodi X e di nodi Y (X, Y) identificativi della presenza di una caratteristica di mano in corrispondenti posizioni di riga e posizioni di colonna del pannello di rilevazione (S), il procedimento comprendendo: - rilevare le posizioni dei massimi di detti segnali di rilevazione dei nodi X e dei nodi Y (X, Y) rilevando le posizioni dei massimi per una pluralità di frame su una finestra temporale per un insieme di segnali di rilevazione dei nodi X (X) e per un insieme di segnali di rilevazione dei nodi Y (Y), - riconoscere un gesto di hovering di detta caratteristica di mano se le posizioni dei massimi rilevate variano su detta pluralità di frame per uno (CBX risp. CBY) di detti insiemi di segnali di rilevazione dei nodi in X e dei nodi in Y (X, Y) mentre rimangono stazionarie su detta pluralità di frame per l’altro (CBY risp. CBX) di detti insiemi di segnali di rilevazione dei nodi X e dei nodi Y (X, Y).
  2. 2. Procedimento secondo la rivendicazione 1, comprendente riconoscere detto gesto di hovering come avente luogo nella direzione dei nodi per i quali le posizioni dei massimi variano su detta pluralità di frame.
  3. 3. Procedimento secondo la rivendicazione 1 o la rivendicazione 2, comprendente riconoscere detto gesto di hovering come avente luogo nel senso di spostamento dei nodi per i quali le posizioni dei massimi variano su detta pluralità di frame.
  4. 4. Procedimento secondo qualsiasi delle rivendicazioni precedenti, comprendente determinare per detti segnali di rilevazione dei nodi X e per detti segnali di rilevazione dei nodi Y (X, Y) un parametro di inclinazione in funzione di un indice di frame indicativo del frame nel quale è situato un massimo in un certo nodo in detti segnali di rilevazione dei nodi X e dei nodi Y (X, Y), in cui il procedimento comprende confrontare gli indici di frame di nodi adiacenti, e - se un indice di frame corrente è inferiore a uno successivo, incrementare il valore del parametro di inclinazione; - se un indice di frame corrente è superiore a uno successivo, decrementare il valore del parametro di inclinazione; e - se l’indice corrente è identico a uno successivo lasciare invariato il valore del parametro di inclinazione, per cui la grandezza e il segno di detto parametro di inclinazione sono indicativi di un gesto di hovering e del suo senso.
  5. 5. Procedimento secondo qualsiasi delle rivendicazioni precedenti, comprendente confrontare le posizioni dei massimi di detti insiemi di segnali di rilevazione dei nodi X e dei nodi Y (X, Y) rispetto a una soglia di spostamento, e valutare dette posizioni dei massimi come rimanenti stazionarie se detta soglia di spostamento non è raggiunta.
  6. 6. Procedimento secondo la rivendicazione 4 e la rivendicazione 5, comprendente confrontare la grandezza di detto parametro di inclinazione rispetto a una soglia di hovering, e determinare un hovering se è raggiunta una tale soglia.
  7. 7. Procedimento secondo qualsiasi delle rivendicazioni precedenti, comprendente: - sottoporre detti insiemi di segnali di rilevazione dei nodi X e dei nodi Y (X, Y) per detta pluralità di frame su una finestra temporale a verificate riguardo alla presenza di almeno una forma di dito, - in assenza di forme di dito in detti insiemi di segnali di rilevazione dei nodi X e dei nodi Y (X, Y) per detta pluralità di frame su una finestra temporale, riconoscere detto gesto di hovering come gesto di hovering di mano.
  8. 8. Procedimento secondo qualsiasi delle rivendicazioni precedenti, comprendente: - provvedere memorie tampone circolari (12, 14) per memorizzare rispettivi insiemi di segnali di rilevazione dei nodi X (X) e dei segnali di rilevazione dei nodi Y (Y) rilevati per una pluralità di frame su una certa finestra temporale, e - scartare un segnale di rilevazione (X, Y) che è il più vecchio dalla memoria tampone (12, 14) quando un nuovo segnale di rilevazione (X, Y) è caricato nella memoria tampone (12, 14).
  9. 9. Procedimento secondo qualsiasi delle rivendicazioni precedenti, comprendente almeno uno tra: - selezionare detti insiemi di segnali di rilevazione dei nodi X (X) e di segnali di rilevazione dei nodi Y (Y) come relativi a 16 o circa 16 nodi di rilevazione; e - selezionare detta pluralità di frame in modo da comprendere 10 o circa 10 frame.
  10. 10. Procedimento secondo qualsiasi delle rivendicazioni precedenti, comprendente rilevare detti segnali di rilevazione dei nodi X e dei nodi Y (X, Y) come segnali di rilevazione di capacità.
  11. 11. Apparecchiatura per riconoscere gesti nello spazio di prossimità di un pannello di rilevazione (S) a partire da segnali di rilevazione di nodi X e di nodi Y (X, Y) indicativi della presenza di una caratteristica di mano in corrispondenti posizioni di riga e posizioni di colonna del pannello di rilevazione (S), l’apparecchiatura essendo configurata per implementare il procedimento secondo qualsiasi delle rivendicazioni da 1 a 10.
  12. 12. Dispositivo comprendente: - un pannello di rilevazione (S) per produrre segnali di rilevazione di nodi X e di nodi Y (X, Y) indicativi della presenza di una caratteristica di mano in corrispondenti posizioni di riga e posizioni di colonna del pannello di rilevazione (S), - una apparecchiatura secondo la rivendicazione 11 per riconoscere gesti nello spazio di prossimità del pannello di rilevazione (S) a partire da detti segnali di rilevazione di nodi X e di nodi Y (X, Y) e per produrre un corrispondente segnale di uscita (O), e - un modulo/funzione (D) controllato da detto segnale di uscita (O).
  13. 13. Prodotto informatico, caricabile nella memoria di almeno un dispositivo di elaborazione e comprendente porzioni di codice software per attuare le fasi del procedimento secondo qualsiasi delle rivendicazioni da 1 a 10.
IT000659A 2013-08-01 2013-08-01 Procedimento, apparecchiatura e dispositivo per il riconoscimento di gesti, prodotto informatico relativo ITTO20130659A1 (it)

Priority Applications (3)

Application Number Priority Date Filing Date Title
IT000659A ITTO20130659A1 (it) 2013-08-01 2013-08-01 Procedimento, apparecchiatura e dispositivo per il riconoscimento di gesti, prodotto informatico relativo
US14/450,105 US9910503B2 (en) 2013-08-01 2014-08-01 Gesture recognition method, apparatus and device, computer program product therefor
US15/889,859 US10551934B2 (en) 2013-08-01 2018-02-06 Gesture recognition method, apparatus and device, computer program product therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT000659A ITTO20130659A1 (it) 2013-08-01 2013-08-01 Procedimento, apparecchiatura e dispositivo per il riconoscimento di gesti, prodotto informatico relativo

Publications (1)

Publication Number Publication Date
ITTO20130659A1 true ITTO20130659A1 (it) 2015-02-02

Family

ID=49226415

Family Applications (1)

Application Number Title Priority Date Filing Date
IT000659A ITTO20130659A1 (it) 2013-08-01 2013-08-01 Procedimento, apparecchiatura e dispositivo per il riconoscimento di gesti, prodotto informatico relativo

Country Status (2)

Country Link
US (2) US9910503B2 (it)
IT (1) ITTO20130659A1 (it)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10416777B2 (en) * 2016-08-16 2019-09-17 Microsoft Technology Licensing, Llc Device manipulation using hover
JP2023032324A (ja) * 2021-08-26 2023-03-09 アルプスアルパイン株式会社 非接触入力装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090284495A1 (en) * 2008-05-14 2009-11-19 3M Innovative Properties Company Systems and methods for assessing locations of multiple touch inputs
WO2013009335A1 (en) * 2011-07-14 2013-01-17 Microsoft Corporation Multi-finger detection and component resolution
CN103139627A (zh) * 2013-02-07 2013-06-05 上海集成电路研发中心有限公司 智能电视及其手势控制方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050175012A1 (en) * 2004-02-06 2005-08-11 Telefonaktiebolaget L.M. Ericsson (Publ) System and method for transmitting and receiving data frames in a NAK-based window protocol
CN101189660B (zh) * 2005-03-14 2012-07-04 尼尔逊媒介研究股份有限公司 用于媒体信号的压缩域编码设备和方法
US20070103431A1 (en) * 2005-10-24 2007-05-10 Tabatowski-Bush Benjamin A Handheld tilt-text computing system and method
US8208380B1 (en) * 2006-11-22 2012-06-26 Marvell Israel (M.I.S.L) Ltd. Lossless system support using circular buffer allocation
DE102007016408A1 (de) * 2007-03-26 2008-10-02 Ident Technology Ag Mobiles Kommunikationsgerät und Eingabeeinrichtung hierfür
US9377874B2 (en) * 2007-11-02 2016-06-28 Northrop Grumman Systems Corporation Gesture recognition light and video image projector
TWI442293B (zh) * 2008-07-09 2014-06-21 Egalax Empia Technology Inc 電容式感測裝置及方法
KR20110067039A (ko) * 2008-09-24 2011-06-20 쓰리엠 이노베이티브 프로퍼티즈 컴파니 상호 정전용량 측정 회로 및 방법
TWI459250B (zh) * 2008-10-09 2014-11-01 Au Optronics Corp 觸控板之觸控點偵測方法
US9565397B2 (en) * 2009-02-26 2017-02-07 Akamai Technologies, Inc. Deterministically skewing transmission of content streams
CN101963855B (zh) * 2009-07-24 2012-11-21 群康科技(深圳)有限公司 用于触摸屏的多点触摸辨识方法
US9042240B2 (en) * 2009-07-31 2015-05-26 Qualcomm Incorporated Systems, apparatus and methods for broadcast channel decoding
TWI427518B (zh) * 2009-08-06 2014-02-21 Raydium Semiconductor Corp 觸控感測電路及觸控感測方法
WO2011119154A1 (en) * 2010-03-24 2011-09-29 Hewlett-Packard Development Company, L.P. Gesture mapping for display device
US20110254765A1 (en) * 2010-04-18 2011-10-20 Primesense Ltd. Remote text input using handwriting
EP2601565A4 (en) * 2010-08-04 2016-10-26 Hewlett Packard Development Co SYSTEM AND METHOD FOR ACTIVATING AN INPUT THROUGH SEVERAL DISPLAYS
JPWO2012070682A1 (ja) 2010-11-24 2014-05-19 日本電気株式会社 入力装置及び入力装置の制御方法
US8982061B2 (en) * 2011-02-12 2015-03-17 Microsoft Technology Licensing, Llc Angular contact geometry
US9116553B2 (en) * 2011-02-28 2015-08-25 AI Cure Technologies, Inc. Method and apparatus for confirmation of object positioning
US20130106683A1 (en) * 2011-10-31 2013-05-02 Elwha LLC, a limited liability company of the State of Delaware Context-sensitive query enrichment
TWI571772B (zh) * 2011-10-31 2017-02-21 財團法人資訊工業策進會 虛擬滑鼠驅動裝置及虛擬滑鼠模擬方法
TW201324245A (zh) 2011-12-01 2013-06-16 Serafim Technologies Inc 人機介面裝置及其應用方法
US9020194B2 (en) * 2013-06-14 2015-04-28 Qualcomm Incorporated Systems and methods for performing a device action based on a detected gesture

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090284495A1 (en) * 2008-05-14 2009-11-19 3M Innovative Properties Company Systems and methods for assessing locations of multiple touch inputs
WO2013009335A1 (en) * 2011-07-14 2013-01-17 Microsoft Corporation Multi-finger detection and component resolution
CN103139627A (zh) * 2013-02-07 2013-06-05 上海集成电路研发中心有限公司 智能电视及其手势控制方法

Also Published As

Publication number Publication date
US10551934B2 (en) 2020-02-04
US9910503B2 (en) 2018-03-06
US20150040076A1 (en) 2015-02-05
US20180164894A1 (en) 2018-06-14

Similar Documents

Publication Publication Date Title
US9552095B2 (en) Touch screen controller and method for controlling thereof
ITTO20130657A1 (it) Procedimento, apparecchiatura e dispositivo per il riconoscimento di gesti, prodotto informatico relativo
TWI496041B (zh) 二維觸碰感測器
KR101487638B1 (ko) 터치 패널 시스템 및 전자 기기
TWI524224B (zh) 觸控面板系統及電子機器
JP6027328B2 (ja) ディスプレイ装置及びそのオブジェクト表示方法
US20110109577A1 (en) Method and apparatus with proximity touch detection
US20110205175A1 (en) Method and device for determining rotation gesture
US8743065B2 (en) Method of identifying a multi-touch rotation gesture and device using the same
TW201305876A (zh) 觸摸面板系統及電子裝置
WO2014109262A1 (ja) タッチパネルシステム
WO2014141763A1 (ja) タッチパネルシステム
US9984335B2 (en) Data processing device
JP2007188482A (ja) 表示装置及びそれの駆動方法
CN102411447A (zh) 输入检出装置、方法、程序及计算机可读取媒体
KR20140049794A (ko) 터치 스크린 제어 장치 및 그의 제어 방법
WO2012129973A1 (en) Method of identifying multi-touch scaling gesture and device using the same
US8698779B2 (en) Touch panel with unbalanced conductive patterns, and touch-controlled apparatus and method for determining multi-touch thereof
US20150205483A1 (en) Object operation system, recording medium recorded with object operation control program, and object operation control method
ITTO20130659A1 (it) Procedimento, apparecchiatura e dispositivo per il riconoscimento di gesti, prodotto informatico relativo
KR101981141B1 (ko) 펜 방식에 기반한 디스플레이의 좌표 검출 방법 및 장치
KR101990565B1 (ko) 펜 방식의 디스플레이장치에서 좌표 검출 장치 및 방법
KR102092664B1 (ko) 차동 터치 센싱 시스템의 좌표 선택 회로 및 방법
US20180188842A1 (en) Method and device for operating capacitive touch panel
JP5898447B2 (ja) タッチ式入力装置およびそのコントローラ、電子機器