ITTO20120842A1 - Procedimento e sistema per rilevazione di dito, relativa apparecchiatura a schermo e prodotto informatico - Google Patents

Procedimento e sistema per rilevazione di dito, relativa apparecchiatura a schermo e prodotto informatico Download PDF

Info

Publication number
ITTO20120842A1
ITTO20120842A1 IT000842A ITTO20120842A ITTO20120842A1 IT TO20120842 A1 ITTO20120842 A1 IT TO20120842A1 IT 000842 A IT000842 A IT 000842A IT TO20120842 A ITTO20120842 A IT TO20120842A IT TO20120842 A1 ITTO20120842 A1 IT TO20120842A1
Authority
IT
Italy
Prior art keywords
finger
orientation
axis2
axis1
ycm
Prior art date
Application number
IT000842A
Other languages
English (en)
Inventor
Alessandro Capra
Nunziata Ivana Guarneri
Original Assignee
St Microelectronics Srl
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by St Microelectronics Srl filed Critical St Microelectronics Srl
Priority to IT000842A priority Critical patent/ITTO20120842A1/it
Priority to US14/037,359 priority patent/US9804713B2/en
Publication of ITTO20120842A1 publication Critical patent/ITTO20120842A1/it

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
  • Control Of Vending Devices And Auxiliary Devices For Vending Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

“Procedimento e sistema per rilevazione di dito, relativa apparecchiatura a schermo e prodotto informaticoâ€
TESTO DELLA DESCRIZIONE
Campo tecnico
La descrizione à ̈ relativa alla rilevazione di un dito, per es. negli schermi a sfioramento (“touch screen†).
Varie forme di attuazione possono essere relative alla rilevazione di un dito comprendente, per es. la rilevazione dell’orientamento della forma di un dito in 2D, della direzione di puntamento della punta di un dito in 2D e la stima di un angolo in 3D.
Sfondo tecnico
Un’ampia gamma di applicazioni degli schermi a sfioramento coinvolge la tecnologia di rilevazione di dito: gli smartphone, i computer tablet, i navigatori, i dispositivi di visualizzazione interattiva di vario genere, i pannelli di controllo e/o i telecomandi di vari tipi sono esemplificativi di tali applicazioni.
In varie tecnologie di rilevazione, un dito che si avvicina a uno schermo a sfioramento può attivare le funzionalità di tocco ancor prima di toccare effettivamente lo schermo.
Per molte applicazioni, può così interessare essere in grado di determinare la posizione e l’orientamento del dito, sia nella dimensione in 2D (vale a dire nel piano dello schermo), sia nella dimensione in 3D (vale a dire rispetto al piano dello schermo), eventualmente includendo il caso di un dito che “fluttuante†(“hovering†) a una distanza da 0 a 3 cm dallo schermo.
Scopo e sintesi
Lo scopo di varie forme di attuazione à ̈ di rispondere a un tale interesse.
Varie forme di attuazione raggiungono questo scopo per mezzo di un procedimento avente gli elementi distintivi esposti nelle rivendicazioni che seguono.
Certe forme di attuazione possono anche essere relative a un corrispondente sistema, a una relativa apparecchiatura a schermo a sfioramento, così come a un relativo prodotto informatico, caricabile nella memoria di almeno un dispositivo di elaborazione e includente porzioni di codice software per attuare le fasi del procedimento delle forme di attuazione quando il prodotto à ̈ eseguito su un tale dispositivo. Come qui utilizzato, s’intende che un riferimento a un tale prodotto informatico sia equivalente a un riferimento a un mezzo leggibile da computer contenente istruzioni per controllare un dispositivo elettronico in modo da coordinare l’esecuzione del procedimento dell’invenzione. S’intende che un riferimento ad “almeno un computer†evidenzia la possibilità per certe forme di attuazione di essere implementate in maniera distribuita/modulare.
Le rivendicazioni sono parte integrante della descrizione dell’invenzione qui fornita.
Varie forme di attuazione possono essere relative a una condizione di tocco (cioà ̈ un dito che tocca uno schermo); varie forme di attuazione possono estendersi anche al caso di “hovering†, per esempio nel caso di una tecnologia di rilevazione mutua con un livello di guadagno elevato.
Varie forme di attuazione possono permettere di rilevare la direzione del tocco.
Varie forme di attuazione possono permettere di rilevare la forma del dito rispetto all’orientamento dell’asse principale del display (orientamento della forma del dito in 2D) e/o la direzione di puntamento della punta del dito in una di una pluralità di possibili direzioni (per esempio, otto direzioni, vale a dire a sinistra, a destra, in alto, in basso, in alto a sinistra, in alto a destra, in basso a sinistra e in basso a destra).
Varie forme di attuazione possono permettere di rilevare l’angolo che il dito forma rispetto al piano dello schermo (angolo in 3D).
Varie forme di attuazione possono essere basate su valori di mappa del tocco; gli assi principali della forma del tocco possono essere rilevati e caratterizzati mediante le loro lunghezze e coefficienti angolari e quindi può essere rilevato un asse principale che fornisce l’orientamento della forma del dito in 2D.
In varie forme di attuazione, il rilevamento del puntamento del dito in 2D può essere effettuato confrontando la posizione sul piano di due punti, vale a dire un centro di massa o baricentro della forma e un centro geometrico della forma.
In varie forme di attuazione, l’angolo in 3D può essere calcolato utilizzando due misurazioni, per es.
l’eccentricità della forma e la sua area.
Varie forme di attuazione possono fornire un sistema atto a produrre, per ciascuna trama (“frame†) di dati non trattati (per es. capacitivi) ricevuti come ingresso, dati d’uscita includenti per es. due insiemi di dati relativi alla dimensione in 2D e un insieme di dati relativo alla dimensione in 3D.
In varie forme di attuazione, può essere fornito un sistema che elabora i dati di tocco d’ingresso non trattati (per es. disposti in trame) per produrre i seguenti dati d’uscita:
- orientamento della forma del tocco del dito in 2D;
- direzione di puntamento della punta del dito;
- angolo in 3D (Î ̧) tra l’asse del dito e il piano dello schermo a sfioramento in 2D.
Varie forme di attuazione possono essere molto “leggere†da un punto di vista computazionale e possono essere implementate in vari tipi di apparecchiature a schermo a sfioramento.
Breve descrizione delle figure
Saranno ora descritte varie forme di attuazione, soltanto a titolo di esempio, con riferimento alle figure allegate, nelle quali:
- le Figure da 1 a 3 sono esemplificative del posizionamento di un dito rispetto a uno schermo;
- le Figure da 4A a 4C e da 5A a 5D sono esemplificative del rilevamento dell’orientamento di un dito in 2D;
- le Figure 6, 7A e 7B, da 8A a 8C e da 9A a 9C sono esemplificative della rilevazione della direzione di puntamento della punta di un dito;
- le Figure 10, 11, 12, 13A e 13B e 14 sono esemplificative della rilevazione di un angolo in 3D; e
- le Figure da 15 a 20 sono diagrammi di flusso esemplificativi dell’elaborazione all’interno delle forme di attuazione.
Descrizione dettagliata
Nella seguente descrizione sono illustrati vari dettagli specifici mirati a un comprensione approfondita di varie forme di attuazione esemplificative. Le forme di attuazione possono essere ottenute senza uno o più dettagli specifici, oppure attraverso altri procedimenti, componenti, materiali, ecc. In altri casi, strutture, materiali o operazioni note non sono rappresentate o descritte in dettaglio per evitare di oscurare i vari aspetti delle forme di attuazione. Un riferimento a “una forma di attuazione†in questa descrizione indica che in almeno una forma di attuazione à ̈ inclusa una particolare configurazione, struttura o caratteristica descritta con riferimento alla forma di attuazione. Per cui, espressioni quali “in una forma di attuazione†, eventualmente presenti in varie parti di questa descrizione, non fanno riferimento necessariamente alla stessa forma di attuazione. Inoltre, particolari configurazioni, strutture o caratteristiche possono essere combinate in qualsiasi modo adeguato in una o più forme di attuazione.
I riferimenti qui sono utilizzati per facilitare il lettore e così non definiscono l’ambito di protezione o la portata delle forme di attuazione.
La figura 1 à ̈ rappresentativa in generale di un dito F di un utente che tocca (o fluttua in prossimità di) uno schermo a sfioramento S.
Sebbene a scopi esemplificativi sia qui considerato uno schermo S piatto, varie forme di attuazione si possono applicare ad uno schermo non piano, per il quale una porzione di superficie destinata ad “interagire†con un dito F può essere approssimata localmente con una superficie piana.
La figura 2 à ̈ rappresentativa in modo schematico della possibilità di definire la posizione di un dito F rispetto a uno schermo S come:
- un orientamento bidimensionale (“2D†) della forma del dito, vale a dire l’orientamento -- nel -- piano dello schermo S, per es. un angolo (“angolo in 2D†) formato con una direzione di riferimento XD, quale una direzione parallela a un asse principale x dello schermo nel caso esemplificativo di uno schermo rettangolare;
- una direzione di puntamento della punta del dito, cioà ̈ il senso o il verso nella direzione della linea che definisce la direzione di orientamento del dito.
La figura 3 rappresenta in modo schematico la possibilità di definire l’orientamento -- rispetto al --piano dello schermo S, per es. un angolo (“angolo in 3D†) tra l’asse del dito e il piano dello schermo a sfioramento S (o un asse z ortogonale ad esso).
Le figure da 4A a 4C sono esemplificative delle fasi di elaborazione miranti a una stima dell’orientamento della forma del dito in 2D.
In una tale forma di attuazione esemplificativa, i dati di ingresso per l’elaborazione possono essere una mappa del tocco del dito FTM (“Finger Touch Map†) come si ottiene correntemente da uno schermo a sfioramento S mediante qualsiasi mezzo noto secondo la tecnologia dello schermo a sfioramento.
In tutta la presente descrizione dettagliata delle forme di attuazione esemplificative, si farà riferimento secondo la fraseologia prevalente in questo campo tecnico ad uno schermo a “sfioramento†S e a una forma o a una mappa del “tocco†del dito. Come già indicato, varie forme di attuazione possono estendersi anche a un dito che non “tocca†propriamente ma piuttosto che “fluttua†a una distanza ridotta dallo schermo, per esempio nel caso di una tecnologia di rilevazione reciproca con un livello di guadagno elevato. Di conseguenza, si intenderà in generale che la forma o la mappa del “tocco†come qui considerata sia rappresentativa di una forma o di una mappa prodotta da un dito che interagisce con uno schermo a sfioramento anche nell’eventuale assenza di un effettivo contatto “fisico†diretto.
In varie forme di attuazione esemplificative qui considerate, una mappa del tocco del dito FTM, includente dati di mappa non trattati atti a essere elaborati, può essere acquisita utilizzando qualsiasi scheda nota con schermo a sfioramento, eventualmente dotata di un controllore. Il controllore STMT05 S-Touch® FingerTip Multi-touch prodotto dalla richiedente e un display capacitivo a sfioramento da 4†possono essere esemplificativi di un sistema atto a elaborare tali dati di mappa.
Una mappa del tocco del dito FTM può essere elaborata opzionalmente, di nuovo con mezzi di elaborazione di immagini tradizionali, tramite una soglia (di filtraggio del rumore) al fine di ottenere una mappa filtrata del tocco del dito FFTM (“Filtered Finger Touch Map†) per selezionare i più utili dati della forma rispetto allo sfondo dell’immagine. Per esempio, in varie forme di attuazione, la FFTM può essere ottenuta dalla FTM impostando a zero tutti i valori della FTM sotto una soglia di filtraggio THnoise.
In varie forme di attuazione, una mappa del tocco del dito FTM/FFTM può corrispondere, almeno in modo approssimativo, a una forma del dito circa ellittica o, più in generale, a una forma o a una figura che ammette due assi principali. Questi assi possono essere “estratti†dalla mappa di FTM con una elaborazione di immagini tradizionale, per es. ricercando i massimi valori di intensità per ciascuna riga e per ciascuna colonna come rappresentato schematicamente nella figura 4C.
In varie forme di attuazione, il fatto che la mappa del tocco del dito sia sostanzialmente ellittica può condurre a estrarre due assi principali che si estendono ortogonali l’uno all’altro, per es. a 0° e a 90° rispetto all’asse x della figura 4C. Inoltre, essi possono avere rispettive lunghezze degli assi, per es. L1 = 7 pixel (o nodi, secondo la fraseologia prevalente nella tecnologia degli schermi a sfioramento) e L2 = 11 nodi. L’utilizzo delle unità pixel/nodo per le lunghezze e di 0° e 90° rispetto alla direzione x della figura 4C come direzioni di riferimento à ̈ soltanto a scopi esemplificativi e non à ̈ obbligatorio per le forme di attuazione.
In varie forme di attuazione, i dati di asse (coordinate dei nodi) rendono possibile calcolare, come descritto meglio in dettaglio nel seguito, una direzione del tocco del dito in 2D corrispondente a una direzione di asse maggiore.
Nel caso esemplificativo della figura 4C, l’asse orizzontale, cioà ̈ l’ASSE 2, può essere più lungo dell’asse verticale, cioà ̈ l’ASSE1 (L2>L1), così l’asse maggiore à ̈ l’ASSE2 e il suo orientamento può essere determinato come Î ̧majoraxis = 0°.
Nel caso esemplificativo delle figure da 5A a 5D, l’elaborazione della mappa del tocco del dito FTM/FFTM conduce a localizzare due assi principali, l’ASSE1 e l’ASSE2, che non sono ortogonali ma, di nuovo con riferimento a titolo di esempio all’asse x della figura 2, che sono situati, ad esempio, a 80° e a 20° rispetto alla direzione x, e che possono anche avere lunghezze uguali di per es. L1 = L2 = 6 pixel/nodi.
In varie forme di attuazione, l’orientamento dell’asse maggiore può così essere stimato come l’angolo in 2D o la direzione della linea bisettrice (cioà ̈ che passa a metà tra) i due assi principali AXIS1 e AXIS2, vale a dire Î ̧majoraxis = 20° │80° - 20°â”‚/2 = 50°.
Nonostante la loro semplicità e la loro bassa complessità computazionale, varie forme di attuazione come esemplificate in quanto precede possono fornire risultati accurati nella determinazione della direzione di un dito in 2D e possono essere utilizzate efficacemente per es. nei settori dei microcontrollori e dei micro-attuatori.
La figura 6 descrive che, a causa della sua anatomia, quando un dito F à ̈ vicino a (o appena a contatto con) uno schermo a sfioramento S, una parte rilevante del dito vicino alla punta del dito T provoca nella mappa del tocco del dito FTM valori di intensità più elevati rispetto ad altre parti della forma del tocco.
Di conseguenza, una forma di un dito in 2D, per es. ellittica, può avere il suo centro di massa (baricentro) CM non coincidente con il centro C della mappa e la posizione del centro di massa CM della mappa rispetto al centro geometrico C della mappa può essere indicativa della direzione di puntamento della punta del dito, per il fatto che ci si aspetta che la punta del dito T punti dal centro C verso il centro di massa CM.
In varie forme di attuazione, la posizione del centro C e la posizione del centro di massa CM possono essere stimate partendo dalla mappa del tocco del dito FTM/FFTM e dagli assi, per es. ASSE1 e/o ASSE2, estratti da essa.
Per esempio, in varie forme di attuazione, le coordinate XCentere YCenterdel punto del centro geometrico della forma o della mappa del tocco possono essere calcolate come la media delle coordinate dei due punti estremi degli assi maggiori XA, XBe YA, YB, vale a dire:
XCenter= (XB- XA)/2
YCenter= (YB- YA)/2
Per esempio, in varie forme di attuazione, il centro di massa CM può essere calcolato sulla forma o sulla mappa del tocco; le sue coordinate XCMe YCMpossono essere determinate come:
XCM= ∑∑ i∙P(i, j)/∑∑ P(i, j)
YCM= ∑∑ j∙P(i, j)/∑∑ P(i, j)
dove:
- P(i, j) indica l’intensità del segnale di rilevamento (cioà ̈ il “peso†o la “massa†che si può utilizzare per calcolare un centro di massa) in un pixel/nodo nella mappa del tocco del dito (eventualmente filtrata) avente coordinate i e j; P(i, j) può essere rappresentativa dei dati del tocco o della risposta elettrica del pannello a sfioramento per es. che à ̈ proporzionale all’intensità del tocco o (inversamente) proporzionale alla distanza del dito F dal piano dello schermo, e
- in ciascuna coppia di sommatorie ∑∑, La prima sommatoria si estende su i = 1, …, N mentre la seconda sommatoria si estende su j = 1, …, M dove N e M sono le dimensioni verticale e orizzontale (in pixel/nodi) della mappa d’ingresso.
In certi casi, il centro di massa può corrispondere semplicemente al punto di intersezione degli assi ASSE1 e ASSE2.
Come illustrato schematicamente nelle figure da 8A a 8C e da 9A a 9C, in varie forme di attuazione, l’aspettativa che la punta del dito T punti dal centro C verso il centro di massa CM rende possibile utilizzare la posizione del centro di massa CM rispetto al centro geometrico C per rilevare una pluralità di direzioni di puntamento di un dito F, per es. otto differenti direzioni di puntamento del dito: in alto, in basso, a sinistra, a destra (come esemplificato nella figura 8C), in alto a destra, in alto a sinistra, in basso a sinistra, in basso a destra (come esemplificato nella figura 9C). In varie forme di attuazione, si può verificare l’accuratezza dei risultati calcolando l’angolo della linea che passa attraverso i due punti.
In varie forme di attuazione, il rilevamento di un punto di un dito in 2D può implicare l’utilizzo di una pluralità di centri di massa, per es. costruendo una ipotetica “casella di delimitazione†(“bounding box†) intorno alla forma del dito (il che può essere effettuato utilizzando i dati degli assi principali) e calcolando una pluralità di centri di massa (per es. quattro, uno per ciascun quadrante della casella di delimitazione), e valutando quindi per es. i due centri di massa più vicini rispetto al centro geometrico per trovare la direzione di puntamento.
In varie forme di attuazione, i dati del tocco o la risposta elettrica del pannello a sfioramento P(i, j) possono essere rappresentativi dell’intensità del tocco o della distanza del dito F dal piano dello schermo. Così, varie forme di attuazione possono determinare l’angolo in 3D (si veda la figura 3) come correlato alla forma del dito così come proiettata nel piano dello schermo in 2D.
Come rappresentato schematicamente nelle figure 10 e 11, l’angolo in 3D, vale a dire l’angolo Î ̧ formato dall’asse del dito FA rispetto al piano dello schermo SP può essere correlato al profilo della forma del dito in 2D, per il fatto che un dito F orizzontale o quasi orizzontale (angolo Î ̧ in 3D prossimo a 0° o in generale piccolo -figura 10) produrrà un profilo della forma del dito in 2D più grande di un dito F verticale o quasi verticale (angolo Î ̧ in 3D prossimo a 90° - figura 11).
In varie forme di attuazione, la stima dell’angolo in 3D può così essere basata sulla dimensione dell’area della forma del tocco in 2D e/o su un valore di eccentricità calcolato tenendo conto dell’asse maggiore e di quello minore.
In varie forme di attuazione, la dimensione dell’area della forma o della mappa del tocco in 2D e il valore di eccentricità in questione possono essere stimati di nuovo partendo dalla mappa del tocco del dito FTM/FFTM e dagli assi, per es. ASSE1 e/o ASSE2, estratti da essa.
Per esempio, in varie forme di attuazione, possono valere le seguenti formule:
- per la dimensione dell’area A della forma o della mappa del tocco in 2D:
A = ∑i,jw
dove w=1 se p(i,j)≠0 e w=0 se p(i,j)=0
con p (i, j) à ̈ una versione con rumore filtrato (cioà ̈ FFTM) di P(i, j), per es. ottenuta da P(i, j) impostando a 0 tutti i valori di P(i, j) sotto una soglia di filtraggio THnoise;
- per il valore di eccentricità E:
E = asse di lunghezza maggiore/asse di lunghezza minore
dove la lunghezza dell’asse più lungo à ̈ la più grande di XB- XAe YB- YAe la lunghezza dell’asse più corto à ̈ la più piccola di XB- XAe YB- YAa seconda di quale asse à ̈ il più lungo e quale il più corto.
Si à ̈ osservato che, in varie forme di attuazione, una combinazione delle eccentricità E e dell’area A della forma ellittica in 2D può rappresentare una misura affidabile per l’angolo in 3D, per es. sotto forma di una funzione monotonicamente inversa, per cui l’angolo in 3D (tra il dito e il piano dello schermo) decresce, risp. cresce, monotonicamente all’aumentare, risp. al diminuire, di E e/o di A.
La figura 13A à ̈ una curva normalizzata di nove valori, rispettivamente, per E e A, normalizzati tra [0,1], che sono stati ottenuti posizionando un dito F su uno schermo e variando l’angolo in 3D nell’intervallo di [10°, 90°] come rappresentato schematicamente nella figura 12 (per semplicità, nella figura 12, non à ̈ rappresentato un angolo in 3D di 10°).
Si à ̈ osservato che, in varie forme di attuazione, una somma E A dell’eccentricità E e dell’area A (si veda la figura 13B) può rappresentare una misura affidabile dell’angolo in 3D.
In varie forme di attuazione, si può fornire una valutazione approssimata dell’angolo in 3D semplicemente indicando se l’angolo in 3D à ̈ incluso in un primo intervallo R1 (per es. da 0° a 45°) o in un secondo intervallo R2 (per es. da 45° a 90°). In tal caso, si possono applicare rispettivi valori di soglia (THareae THeccentricity) ai valori per A e E oppure si può applicare una singola soglia TH alla somma A E (si veda di nuovo la figura 13B) a seconda delle specifiche tecniche dello schermo a sfioramento, delle dimensioni in pollici e del numero di nodi ammissibili, e della sensitività di guadagno al fine di classificare l’appartenenza dell’angolo in 3D a R1 o a R2.
Si à ̈ osservato che l’angolo in 3D può variare nell’intervallo [0°,180°] con alcune posizioni del dito in 3D che forniscono forme speculari in 2D come 45° e 135° (ciò à ̈ rappresentato schematicamente nella figura 14).
Così, varie forme di attuazione possono considerare soltanto l’intervallo [0°, 90°], che può essere campionato in due parti, cioà ̈:
Intervallo1 (R1) → 0°Ã·45°;
Intervallo2 (R2) → 45°Ã·90°.
In varie forme di attuazione, i valori per E e A possono essere assoggettati a rispettive soglie THareae THeccentricitye possono essere elaborati logicamente come segue:
E ≥ THeccentricityAND A ≥ THarea→ angolo in 3D [0°, 45°[ cioà ̈ R1
E < THeccentricityAND A < THarea→ angolo in 3D [45°, 90°] cioà ̈ R2.
Così, si può classificare che l’angolo in 3D appartenga all’intervallo R1 o R2 in base ai valori delle eccentricità e dell’area. In varie forme di attuazione, le soglie THareae THeccentricityutilizzate per classificare che un angolo in 3D appartiene a R1 o a R2 possono essere “messe a punto†considerando la specifica applicazione, per esempio al fine di tenere conto della risoluzione del display.
In varie forme di attuazione, la valutazione dell’angolo in 3D e della direzione di puntamento della punta del dito può sfruttare i risultati dell’elaborazione (per es. dell’estrazione e del calcolo delle lunghezze degli assi principali) già effettuata per il calcolo dell’orientamento del dito in 2D.
Ciò può essere interessante in varie applicazioni, quali per es. quelle applicazioni nelle quali s’intende utilizzare un dito di un utente come joystick.
La figura 15 à ̈ rappresentativa di un’elaborazione esemplificativa che può essere alla base di varie forme di attuazione. Varie forme di attuazione possono essere “leggere†(cioà ̈ di peso ridotto) da un punto di vista computazionale, il che rende adatta tale elaborazione ad essere implementata con risorse di elaborazione associate perfino a un’apparecchiatura a schermo a sfioramento semplice e poco costosa.
In varie forme di attuazione, in un primo blocco di elaborazione 100 nello schema della figura 15, la mappa d’ingresso FTM (per es. sotto forma di una matrice M x N di pixel/nodi) può essere assoggettata a un’elaborazione includente:
- l’elaborazione di soglia rispetto a una soglia (di rumore) THnoiseper ottenere una mappa filtrata del tocco del dito FFTM (si veda per es. la figura 4B) al fine di selezionare i più utili dati della forma rispetto allo sfondo dell’immagine;
- l’estrazione degli assi principali ASSE1 e ASSE2 (si vedano per es. le figure 4C, e 5B e 5C);
- il calcolo di un’area A.
In varie forme di attuazione, i risultati dell’elaborazione nel blocco 100 possono essere forniti a un blocco 200 per l’elaborazione includente il calcolo delle lunghezze degli assi L1, L2 e gli angoli di orientamento Î ̧1, Î ̧2 (si vedano di nuovo le figure 4C e da 5B a 5D).
In varie forme di attuazione, i risultati dell’elaborazione nel blocco 200 possono essere distribuiti a tre blocchi 300, 400 e 500 per un’elaborazione includente:
- nel blocco 300: la determinazione dell’asse maggiore e della sua direzione Î ̧majoraxis (si vedano per es. le figure 4C e 5D), che può essere fornita in uscita come orientamento in 2D, cioà ̈ come una prima uscita O1;
- nel blocco 400: il calcolo del centro geometrico C e del centro di massa CM (si vedano per es. le figure da 6 a 9A a 9C e la rispettiva descrizione) con la determinazione dell’orientamento o della direzione di puntamento della punta del dito, che può essere fornita in uscita come una seconda uscita O2; e
- nel blocco 500: il calcolo dell’eccentricità E e di una combinazione (per es. una somma) con l’area A, con un possibile confronto di soglia (si vedano per es. le figure da 10 a 14 e la rispettiva descrizione) con la determinazione dell’orientamento in 3D, che può essere fornito in uscita come una terza uscita O3.
I diagrammi di flusso delle figure 16A e 16B sono esemplificativi di possibili implementazioni della elaborazione all’interno del blocco 100 che può essere effettuata, almeno parzialmente, in parallelo per l’asse sulle righe (della matrice d’ingresso N x M) e per il calcolo dell’area (figura 16A) e per l’asse sulle colonne (figura 16B).
Nei diagrammi di flusso delle figure 16A e 16B, le fasi da 1001a a 1007a e 1001b a 1007b sono esemplificative del calcolo dell’area A (il cui valore à ̈ memorizzato in 1013).
Le fasi 1008a, 1008b sono esemplificative del confronto di soglia rispetto a una soglia di rumore THnoiseper produrre una FFTM, la fase 1009a à ̈ rappresentativa dell’incremento dell’area, mentre le fasi da 1010a a 1012a e da 1010b a 1012b sono esemplificative dell’estrazione degli assi (cioà ̈ ASSE1, ASSE2).
I diagrammi di flusso delle figure 17A e 17B sono esemplificativi di possibili implementazioni dell’elaborazione sugli assi estratti, cioà ̈ ASSE1 e ASSE 2, all’interno del blocco 200; in varie forme di attuazione ciò può essere effettuato, di nuovo almeno parzialmente, in parallelo per l’ASSE1 e per l’ASSE2.
Nei diagrammi di flusso delle figure 17A e 17B, le fasi 2001a e 2001b sono esemplificative del calcolo del coefficiente angolare (cioà ̈ della pendenza) della linea che meglio approssima tale rispettivo asse (si vedano per es. le figure 4A e da 5B a 5D).
Le fasi 2002a, 2002b sono esemplificative del calcolo della direzione dell’asse Î ̧1, Î ̧2 (che può essere accumulato per es. in una LUT secondo un rispettivo coefficiente m1, m2 per es. per il calcolo dell’asse bisettore, si veda per es. la figura 5D).
Le fasi 2003a, 2003b sono esemplificative del calcolo delle lunghezze degli assi (cioà ̈ L1, L2) in base per es. al numero di pixel/nodi nella direzione del rispettivo asse.
I blocchi 2004a, 2004b sono rappresentativi dei risultati del blocco 200 che sono forniti in uscita per es. come coppie L1, Î ̧1 e L2, Î ̧2.
Il diagramma di flusso della figura 18 Ã ̈ esemplificativo di possibili implementazioni della elaborazione su L1, Î ̧1 e su L2, Î ̧2 nel blocco 300.
Per esempio, le fasi 3001 e 3002 possono essere dedicate a verificare se si determinano le condizioni della figura 4C (Î ̧1 ortogonale a Î ̧2) o le condizioni delle figure 5B e 5C.
Se la prima condizione (Î ̧1 non ortogonale a Î ̧2) non à ̈ soddisfatta (fase 3001 = no), si determinano le condizioni delle figure 5B e 5C; allora, in una fase 3003, l’asse maggiore à ̈ stimato come la linea bisettrice (cioà ̈ che passa a metà tra) l’ASSE1 e l’ASSE2 e l’orientamento può essere calcolato come Î ̧majoraxis = min(Î ̧1, Î ̧2) │Π̧1 - Î ̧2│/2.
Se Î ̧1 à ̈ ortogonale a Î ̧2 (fase 3001 = sì), nella fase 3002 si verifica se L1 = L2.
Nel caso negativo (fase 3002 = no), si determina l’asse maggiore come quello avente la lunghezza maggiore Lmaxtra L1 e L2, vale a dire
Lmax= max(L1, L2)
e
se Lmax= L1, allora Î ̧majoraxis = Î ̧1
se Lmax= L2, allora Î ̧majoraxis = Î ̧2.
In L1 = L2 (fase 3002 = sì) si ritiene che la mappa o la forma abbiano una forma circolare senza alcun orientamento predominante.
Nel secondo caso esiste la possibilità di identificare una possibile direzione di puntamento della punta del dito confrontando la posizione delle coordinate del centro geometrico C rispetto alle coordinate del centro di massa CM. Nel caso in cui queste si sovrappongano, non si può effettuare alcuna stima; altrimenti le loro posizioni sono utilizzate per calcolare la direzione di puntamento della punta del dito.
Il blocco indicato con O1 nella figura 18 à ̈ rappresentativo dell’orientamento in 2D che à ̈ fornito in uscita come un primo risultato.
Il diagramma di flusso della figura 19 Ã ̈ esemplificativo di una possibile implementazione della lavorazione effettuata nel blocco 400.
Per esempio, le fasi 4001 e 4002 possono essere dedicate a calcolare il centro geometrico C (XCenter,YCenter) e il centro di massa CM (XCM,YCM) come definito precedentemente (si vedano per es. le figure 6, 7A e 7B).
In varie forme di attuazione, in una fase 4003 si può utilizzare la posizione del centro di massa CM rispetto al centro geometrico C per rilevare per es. una pluralità di direzioni di puntamento del dito.
In varie forme di attuazione, una logica di elaborazione alla base della fase 4003 può essere come segue:
se XCM< XCenterAND YCM> YCenter,direzione = in alto a sinistra se XCM< XCenterAND YCM< YCenter,direzione = in alto a destra se XCM> XCenterAND YCM> YCenter,direzione = in basso a destra se XCM> XCenterAND YCM< YCenter,direzione = in basso a sinistra se XCM< XCenterAND YCM= YCenter,direzione = in alto
se XCM= XCenterAND YCM> YCenter,direzione = a destra
se XCM> XCenterAND YCM= YCenter,direzione = in basso
se XCM= XCenterAND YCM< YCenter,direzione = a sinistra.
Il blocco indicato con O2 à ̈ rappresentativo della direzione di puntamento del dito, che à ̈ fornita in uscita come secondo risultato così come appena descritto.
Infine, il diagramma di flusso della figura 20 Ã ̈ esemplificativo di una possibile implementazione delle lavorazione effettuata nel blocco 500.
Per esempio, la fase 5001 può essere dedicata a calcolare l’eccentricità E come definito precedentemente (per es. come il rapporto tra la più lunga e la più corta delle lunghezze degli assi L1 e L2). In una fase 5002, l’eccentricità à ̈ sommata all’area A (per es. come calcolato nel blocco e memorizzato nel blocco 1013 della figura 16A).
In varie forme di attuazione, una fase 5001 può essere dedicata a sommare l’eccentricità E all’area A e a sottoporre la somma E A a una soglia TH (si veda per es. la figura 13B). I blocchi indicati con O3 sono rappresentativi dell’angolo in 3D che à ̈ fornito in uscita come un terzo risultato dell’elaborazione per es. come appartenente agli intervalli R1, vale a dire [0°, 45°[ o R2, vale a dire [45°, 90°].
L’utilizzo di varie forme di attuazione può essere rilevato in base a un certo numero di test.
Per esempio, per l’orientamento in 2D e la direzione di puntamento del dito si può acquisire due volte la forma dello stesso dito (per es. area = 12 pixel, N=3, M=4), vale a dire:
- una prima volta posizionando un dito con un angolo in 3D = per es. a 140° e con la punta del dito che punta verso destra, e
- una seconda volta posizionando il dito con un angolo in 3D = per es. a 40° e con la punta del dito che punta verso sinistra.
Questi sarebbero due “tocchi†uguali nei termini delle forme (stessa area e stesso orientamento), che saranno discriminati da una forma di attuazione per quanto riguarda l’orientamento in 2D e la direzione di puntamento della punta del dito.
Per esempio, per l’angolo in 3D, può essere effettuato un insieme specifico di acquisizioni della forma del tocco posizionando un dito al fine di produrre un insieme di valori dell’angolo in 3D varianti per es. da 20° a 90° rispetto al piano dello schermo (si veda per es. la figura 13) per raccogliere un insieme corrispondente, per es., di otto mappe.
Effettuando un test di queste mappe rispetto a una soglia messa a punto, il sistema sotto test può classificare per es. le prime quattro mappe in un primo intervallo R1 (per es. da 20° a 40°) e le rimanenti mappe in un secondo intervallo R2 (per es. da 50° a 90°).
Come indicato, varie forme di attuazione possono essere molto “leggere†da implementare da un punto di vista computazionale per un certo numero di motivi che possono includere (ma non sono limitati a) uno o più dei seguenti:
- gli assi principali sono estratti rilevando soltanto un massimo dapprima sulle righe e quindi sulle colonne;
- questi assi sono estratti e le loro lunghezze (dimensione in pixel/nodi) calcolate con la loro direzione in 2D determinata per es. utilizzando una Tabella di Ricerca (“Look Up Table†);
- la direzione di puntamento della punta del dito può essere determinata dalle posizioni del centro geometrico e da un centro di massa della forma o della mappa del dito;
- un angolo in 3D può essere stimato calcolando un valore di eccentricità (per es. come un rapporto tra le lunghezze degli assi) che può essere sommato all’area della forma del tocco.
Così, varie forme di attuazione possono basarsi su un approccio nel quale certe entità possono essere condivise in un processo “integrato†ai fini di determinare una direzione in 2D, una direzione di puntamento della punta del dito e un angolo in 3D.
Senza pregiudizio per i principi alla base dell’invenzione, i dettagli e le forme di attuazione possono variare, anche in modo apprezzabile, rispetto a quanto à ̈ stato qui descritto soltanto a titolo di esempio non limitativo, senza allontanarsi dall’ambito di protezione dell’invenzione, tale ambito di protezione essendo determinato dalle rivendicazioni.
LEGENDA DELLE TAVOLE DEI DISEGNI
FIGURA 2
angolo in 2D
FIGURA 3
angolo in 3D
asse x
FIGURA 4C
ASSE 1
ASSE 2
FIGURA 5B
ASSE 1
FIGURA 5C
ASSE 2
FIGURA 16A
1006a: Memorizzare massimo
yes = sì
end = fine
FIGURA 16b
1006b: Memorizzare massimo
yes = sì
end = fine
FIGURA 17A
Asse 1
FIGURA 17B
Asse 2
FIGURA 18
Yes = sì
FIGURA 19 ASSE 1 ASSE 2

Claims (12)

  1. RIVENDICAZIONI 1. Procedimento per elaborare dati di rilevamento di dito prodotti da uno schermo a sfioramento (S), in cui i dati di rilevamento di dito sono disposti in una mappa di dati di dito (FTM) avente un’area (A) e una coppia di assi principali (ASSE1, ASSE2), il procedimento comprendendo: - calcolare l’area (A) della mappa di dati di dito, - estrarre gli assi principali (ASSE1, ASSE2) dalla mappa di dati di dito, - calcolare le lunghezze (L1, L2) e gli orientamenti (Î ̧1, Î ̧2) degli assi principali (ASSE1, ASSE2), - determinare a partire dagli assi principali (ASSE1, ASSE2) un asse maggiore avente un orientamento dell’asse maggiore (Î ̧majoraxis), - calcolare un centro geometrico (C) ed almeno un centro di massa (CM) della mappa di dati di dito, - calcolare un’eccentricità (E) della mappa di dati di dito in funzione delle lunghezze (L1, L2) degli assi principali (ASSE1, ASSE2), il procedimento includendo fornire in uscita come dati di uscita (O1, O2, O3): - l’orientamento dell’asse maggiore (Î ̧majoraxis) come indicativo della direzione di orientamento del dito nel piano dello schermo (S), - la posizione reciproca del centro geometrico (C) e del centro di massa (CM) della mappa di dati di dito come indicativa della direzione di puntamento del dito lungo la direzione di orientamento del dito nel piano dello schermo (S), e - una combinazione dell’eccentricità (E) e dell’area (A) dei dati di mappa di dito come indicativa dell’orientamento del dito rispetto al piano dello schermo (S).
  2. 2. Procedimento secondo la rivendicazione 1, comprendente sottoporre la mappa di dati di dito (FTM) a una funzione di soglia di filtraggio (THnoise) per cui l’elaborazione à ̈ effettuata su una mappa di dati di dito filtrata (FFTM).
  3. 3. Procedimento secondo la rivendicazione 1 o la rivendicazione 2, comprendente determinare un asse maggiore avente un orientamento dell’asse maggiore (Î ̧majoraxis) a partire dagli assi principali (ASSE1, ASSE2) come l’uno o l’altro fra: - i) quello (ASSE2) degli assi principali (ASSE1, ASSE2) avente una lunghezza maggiore (L2) dell’altro (ASSE1) degli assi principali (ASSE1, ASSE2), l’orientamento dell’asse maggiore (Î ̧majoraxis) essendo l’orientamento (Î ̧2) di quello (ASSE2) degli assi principali (ASSE1, ASSE2) avente una lunghezza maggiore (L2); - ii) un asse avente un orientamento dell’asse maggiore (Î ̧majoraxis) a metà fra gli orientamenti (Î ̧1, Î ̧2) degli assi principali (ASSE1, ASSE2).
  4. 4. Procedimento secondo una qualsiasi delle rivendicazioni precedenti, comprendente calcolare le coordinate del centro geometrico (C) della mappa di dati di dito come la media delle coordinate dei punti estremi degli assi principali (ASSE1, ASSE2).
  5. 5. Procedimento secondo una qualsiasi delle rivendicazioni precedenti, comprendente calcolare le coordinate XCMe YCMdi un centro di massa (CM) della mappa di dati di dito come: XCM= ∑∑ i∙P(i, j)/∑∑ P(i, j) YCM= ∑∑ j∙P(i, j)/∑∑ P(i, j) dove: - P(i, j) indica l’intensità del segnale di rilevamento in un pixel/nodo con coordinate i e j nella mappa di tocco di dito; - in ciascuna coppia di sommatorie ∑∑, la prima sommatoria e la seconda sommatoria si estendono sulle dimensioni orizzontale e verticale della mappa d’ingresso.
  6. 6. Procedimento secondo una qualsiasi delle rivendicazioni precedenti, in cui fornire in uscita la posizione reciproca del centro geometrico (C) e del centro di massa (CM) della mappa di dati del dito come indicativa della direzione di puntamento del dito lungo la direzione di orientamento del dito nel piano dello schermo à ̈ in base alla seguente tabella: se XCM< XCenterAND YCM> YCenter,direzione = in alto a sinistra se XCM< XCenterAND YCM< YCenter,direzione = in alto a destra se XCM> XCenterAND YCM> YCenter,direzione = in basso a destra se XCM> XCenterAND YCM< YCenter,direzione = in basso a sinistra se XCM< XCenterAND YCM= YCenter,direzione = in alto se XCM= XCenterAND YCM> YCenter,direzione = a destra se XCM> XCenterAND YCM= YCenter,direzione = in basso se XCM= XCenterAND YCM< YCenter,direzione = a sinistra. dove XCenter, YCentere XCM, YCMsono rispettivamente le coordinate del centro geometrico (C) e del centro di massa (CM) della mappa di dati del dito.
  7. 7. Procedimento secondo una qualsiasi delle rivendicazioni precedenti, comprendente fornire in uscita (O3) l’orientamento del dito rispetto al piano dello schermo (S) come una funzione monotonicamente inversa dell’eccentricità (E) e/o dell’area (A) della mappa di dati di dito.
  8. 8. Procedimento secondo una qualsiasi delle rivendicazioni precedenti, comprendente fornire in uscita (O3) la somma dell’eccentricità (E) e dell’area (A) della mappa di dati di dito come indicativa dell’orientamento del dito rispetto al piano dello schermo (S).
  9. 9. Procedimento secondo una qualsiasi delle rivendicazioni precedenti, comprendente il fatto di sottoporre l’eccentricità (E) e l’area (A) della mappa di dati di dito ad almeno una soglia di intervallo di orientamento, per cui detto orientamento del dito rispetto al piano dello schermo (S) à ̈ fornito in uscita come compreso in uno di una pluralità di intervalli di orientamento (R1, R2) determinato da detta almeno una soglia di intervallo di orientamento.
  10. 10. Sistema per l’elaborazione di dati di rilevamento di dito prodotti da uno schermo a sfioramento (S), il sistema configurato per implementare il procedimento secondo una qualsiasi delle rivendicazioni 1 a 9.
  11. 11. Apparecchiatura con schermo a sfioramento comprendente: - uno schermo a sfioramento (S) per produrre dati di rilevamento di dito, - un sistema per elaborare dati di rilevamento di dito operativamente connesso allo schermo a sfioramento (S) per ricevere dallo schermo a sfioramento (S) dati di rilevamento di dito per l’elaborazione, il sistema essendo secondo la rivendicazione 10.
  12. 12. Prodotto informatico, caricabile nella memoria di almeno un dispositivo di elaborazione e includente porzioni di codice software per effettuare le fasi del procedimento secondo una qualsiasi delle rivendicazioni 1 a 9.
IT000842A 2012-09-27 2012-09-27 Procedimento e sistema per rilevazione di dito, relativa apparecchiatura a schermo e prodotto informatico ITTO20120842A1 (it)

Priority Applications (2)

Application Number Priority Date Filing Date Title
IT000842A ITTO20120842A1 (it) 2012-09-27 2012-09-27 Procedimento e sistema per rilevazione di dito, relativa apparecchiatura a schermo e prodotto informatico
US14/037,359 US9804713B2 (en) 2012-09-27 2013-09-25 Method and system for finger sensing, related screen apparatus and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT000842A ITTO20120842A1 (it) 2012-09-27 2012-09-27 Procedimento e sistema per rilevazione di dito, relativa apparecchiatura a schermo e prodotto informatico

Publications (1)

Publication Number Publication Date
ITTO20120842A1 true ITTO20120842A1 (it) 2014-03-28

Family

ID=47226345

Family Applications (1)

Application Number Title Priority Date Filing Date
IT000842A ITTO20120842A1 (it) 2012-09-27 2012-09-27 Procedimento e sistema per rilevazione di dito, relativa apparecchiatura a schermo e prodotto informatico

Country Status (2)

Country Link
US (1) US9804713B2 (it)
IT (1) ITTO20120842A1 (it)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102056316B1 (ko) * 2013-05-03 2020-01-22 삼성전자주식회사 터치 스크린 동작 방법 및 그 전자 장치
FR3006757B1 (fr) * 2013-06-11 2016-10-14 Fogale Nanotech Procede pour caracteriser un objet d'interet en interaction avec une interface de mesure, et dispositif mettant en oeuvre le procede
NL2011182C2 (en) * 2013-07-17 2015-01-21 Aesthetic Interactions B V Luminaire system.
US10564762B2 (en) * 2015-09-17 2020-02-18 Canon Kabushiki Kaisha Electronic apparatus and control method thereof
US10732759B2 (en) 2016-06-30 2020-08-04 Microsoft Technology Licensing, Llc Pre-touch sensing for mobile interaction
US20180181245A1 (en) * 2016-09-23 2018-06-28 Microsoft Technology Licensing, Llc Capacitive touch mapping
US20180088786A1 (en) * 2016-09-23 2018-03-29 Microsoft Technology Licensing, Llc Capacitive touch mapping
US20180239509A1 (en) * 2017-02-20 2018-08-23 Microsoft Technology Licensing, Llc Pre-interaction context associated with gesture and touch interactions
JP2020527801A (ja) * 2017-07-17 2020-09-10 タクチュアル ラブズ シーオー. 指の分離および再現を向上させるための装置および方法
US10983636B2 (en) 2018-08-02 2021-04-20 Elo Touch Solutions, Inc. Water immune projected-capacitive (PCAP) touchscreen
US11783707B2 (en) 2018-10-09 2023-10-10 Ford Global Technologies, Llc Vehicle path planning
US11460851B2 (en) 2019-05-24 2022-10-04 Ford Global Technologies, Llc Eccentricity image fusion
US11521494B2 (en) * 2019-06-11 2022-12-06 Ford Global Technologies, Llc Vehicle eccentricity mapping
US11662741B2 (en) 2019-06-28 2023-05-30 Ford Global Technologies, Llc Vehicle visual odometry
CN114338896B (zh) * 2021-12-17 2024-03-19 深圳市中兴移动软件有限公司 一种屏下心率检测控制方法、设备及计算机可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090254869A1 (en) * 2008-04-06 2009-10-08 Ludwig Lester F Multi-parameter extraction algorithms for tactile images from user interface tactile sensor arrays
US20100044121A1 (en) * 2008-08-15 2010-02-25 Simon Steven H Sensors, algorithms and applications for a high dimensional touchpad

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6803906B1 (en) * 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
JP2003303048A (ja) * 2002-02-06 2003-10-24 Fujitsu Component Ltd 入力装置、ポインタ制御方法
US8154529B2 (en) * 2009-05-14 2012-04-10 Atmel Corporation Two-dimensional touch sensors
US9069405B2 (en) * 2009-07-28 2015-06-30 Cypress Semiconductor Corporation Dynamic mode switching for fast touch response
US8658917B2 (en) * 2011-02-04 2014-02-25 Perceptive Pixel Inc. Techniques for disambiguating touch data using user devices
US20130135218A1 (en) * 2011-11-30 2013-05-30 Arbitron Inc. Tactile and gestational identification and linking to media consumption

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090254869A1 (en) * 2008-04-06 2009-10-08 Ludwig Lester F Multi-parameter extraction algorithms for tactile images from user interface tactile sensor arrays
US20100044121A1 (en) * 2008-08-15 2010-02-25 Simon Steven H Sensors, algorithms and applications for a high dimensional touchpad

Also Published As

Publication number Publication date
US9804713B2 (en) 2017-10-31
US20140085260A1 (en) 2014-03-27

Similar Documents

Publication Publication Date Title
ITTO20120842A1 (it) Procedimento e sistema per rilevazione di dito, relativa apparecchiatura a schermo e prodotto informatico
US9829969B2 (en) Method for determining bent state of electronic device, electronic device and flexible screen
JP2018073415A5 (ja) タッチパネル入力システム
CN104077134B (zh) 获取数据中心机房平面温度云图的方法和系统
JP2008117371A5 (it)
CN202757587U (zh) 基于多ccd的空间尺寸测量装置
US8531458B2 (en) Method of determining pointing object position for three-dimensional interactive system
CN105184953B (zh) 一种纸币处理的方法及装置
US20130285957A1 (en) Display device and method using a plurality of display panels
CN106485710A (zh) 一种元件错件检测方法和装置
CN107527353B (zh) 一种基于视觉处理的投影画面外框检测方法
ITMN20090001A1 (it) Dispositivo ottico di interazione con sistemi ad interfaccia grafica con schermo a griglia di pixel
US9196051B2 (en) Electronic equipment with image analysis function and related method
CN201611477U (zh) 一种光学触摸屏
JP2014016787A5 (it)
ITTO20130657A1 (it) Procedimento, apparecchiatura e dispositivo per il riconoscimento di gesti, prodotto informatico relativo
CN102184054B (zh) 多触摸点识别方法及装置
WO2014004534A4 (en) Analyzing structured light patterns
CN101751165A (zh) 触控系统及其取得指示物的位置的方法
CN104461197B (zh) 一种大尺寸电容触控膜的快速扫描检测方法
Du et al. Measuring straight line segments using HT butterflies
Luo et al. A fast and robust circle detection method using perpendicular bisector of chords
JP2018018515A5 (it)
CN102331889B (zh) 一种摄像式触摸控制方法及其装置
CN105388028A (zh) 移动终端及其检测汽车轮胎下沉量的方法和装置