AT15499U1 - Verfahren zum Erfassen von Gesten unter Verwendung einer Multisegment-Photodiode und einer oder weniger Beleuchtungsquellen - Google Patents

Verfahren zum Erfassen von Gesten unter Verwendung einer Multisegment-Photodiode und einer oder weniger Beleuchtungsquellen Download PDF

Info

Publication number
AT15499U1
AT15499U1 ATGM50195/2015U AT501952015U AT15499U1 AT 15499 U1 AT15499 U1 AT 15499U1 AT 501952015 U AT501952015 U AT 501952015U AT 15499 U1 AT15499 U1 AT 15499U1
Authority
AT
Austria
Prior art keywords
target
light
movement
segments
sensor
Prior art date
Application number
ATGM50195/2015U
Other languages
English (en)
Original Assignee
Maxim Integrated Products
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxim Integrated Products filed Critical Maxim Integrated Products
Publication of AT15499U1 publication Critical patent/AT15499U1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • G01J1/4228Photometry, e.g. photographic exposure meter using electric radiation detectors arrangements with two or more detectors, e.g. for sensitivity compensation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)

Abstract

Vorrichtung zum Bestimmen der Bewegung eines Ziels, mit zumindest einem Lichtsensor (12) und einer Lichtmodifizierungsstruktur zum Weiterleiten von vom Ziel reflektiertem Licht zu dem zumindest einem Lichtsensor (12), wobei die Lichtmodifizierungsstruktur mehrere Schichten aufweist, die in einer stufenförmigen Struktur konfiguriert sind, und die zum selektiven Blockieren eines Teils des Lichts kofiguriert ist.

Description

Beschreibung [0001] Die Erfindung betrifft eine Vorrichtung zum Bestimmen der Bewegung eines Ziels, mit zumindest einem Lichtsensor und einer Lichtmodifizierungsstruktur zum Weiterleiten von vom Ziel reflektiertem Licht zu dem zumindest einem Lichtsensor.
[0002] Eine derartige Vorrichtung kann insbesondere zum Bestimmen einer körperlichen Geste vorgesehen sein.
[0003] Ein Gestensensor ist eine menschliche Schnittstellenvorrichtung, die das Erfassen einer körperlichen Bewegung ermöglicht, ohne dass der Anwender die Vorrichtung tatsächlich berührt. Die erfassten Bewegungen können als Eingabebefehle für die Vorrichtung dienen. Die Vorrichtung kann so programmiert sein, dass sie unterschiedliche Handbewegungen kontaktlos erkennt, wie Handbewegungen von links nach rechts, von rechts nach links, von oben nach unten, von unten nach oben, von innen nach außen und/oder von außen nach innen. Gestensensoren sind in von Hand gehaltenen Vorrichtungen, wie Tablet-Rechnern, Laptops, Smart-phones und anderen tragbaren Vorrichtungen sehr beliebt geworden. Gestensensoren werden auch in Video-Spielkonsolen implementiert, um beim Videospiel die Bewegung eines Spielers zu erfassen.
[0004] Aus US 2008/0006762 A1, US 2010/0102230 A1 und US 5,103,085 A sind Näherungs-dedektoren bekannt, und in WO 2009/067103 A1 ist eine Tablet-Positionserfassung in Verbindung mit einer Flüssigkeits-Manipuliervorrichtung beschrieben. Eine optische Zeiger-Vorrichtung ist weiters in WO 2005/088435 A1 geoffenbart.
[0005] Herkömmliche Gestensensoren verwenden drei oder mehr Beleuchtungsquellen, wie Leuchtdioden (LEDs), und einen Lichtsensor, wie einen Photodetektor. Die Beleuchtungsquellen werden der Reihe nach zum Aufleuchten gebracht, damit der Sensor räumliche Informationen aus der Reflexion des aufblitzenden Lichts erhält. Fig. 1 zeigt ein vereinfachtes Block-Schaltbild eines herkömmlichen Gestensensors. Ein Photosensor 4 ist nahe von Beleuchtungsquellen LED 1, LED 2 und LED 3 positioniert. Eine Steuerschaltung 5 ist so programmiert, dass die LEDs 1-3 der Reihe nach ein- und ausgeschaltet werden und die erhaltenen Messungen, die vom Photosensor 4 erfasst werden, analysiert werden. Daten, die vom Photosensor 4 erfasst werden, werden separat für jede LED gespeichert. Beispielsweise werden die erfassten Daten, die jedem Aufleuchten von LED 1 entsprechen, in einem LED 1-Register gespeichert, die erfassten Daten, die jedem Aufleuchten von LED 2 entsprechen, werden in einem LED 2-Register gespeichert und die erfassten Daten, die jedem Aufleuchten von LED 3 entsprechen, werden in einem LED 3-Register gespeichert. Das Ergebnis ist ein Zeitdomänensignal für jede LED.
[0006] Fig. 2 zeigt ein beispielhaftes Verfahren zum Erfassen eines sich bewegenden Ziels unter Verwendung des Sensors von Fig. 1. Die Bewegung wird durch Beobachten der relativen Verzögerung zwischen erfassten LED-Signalen auf derselben Achse erfasst. Zum Beispiel werden zum Erfassen einer Bewegung von links nach rechts oder rechts nach links die Signale, die von den LEDs 1 und 2 erfasst werden, verglichen, wie in Figur 2 dargestellt. LED 1 leuchtet zu einem anderen Zeitpunkt auf als LED 2. Die LEDs 1 und 2 sind an bekannten Stellen positioniert und werden in einer bekannten Abfolge ein- und ausgeschaltet. Wenn das Licht von den LEDs auf ein Ziel trifft, das sich über den LEDs bewegt, wird Licht von dem sich bewegenden Ziel zum Photosensor 4 zurück reflektiert. Das erfasste reflektierte Licht wird in ein Spannungssignal umgewandelt, das zur Steuerschaltung 5 (Fig. 1) übertragen wird. Die Steuerschaltung 5 enthält einen Algorithmus, der die LED-Positionen, die LED-Einschaltsequenzen und die empfangenen erfassten Daten zur Bestimmung der relativen Bewegung des Ziels verwendet. Der zeitliche Abstand zwischen dem Aufleuchten aufeinander folgender LEDs ist im Vergleich zu der Geschwindigkeit des sich bewegenden Ziels ziemlich klein und ist daher vernachlässigbar, wenn die Zeitdomänensignale von einer LED mit jenem einer anderen LED verglichen werden.
[0007] Fig. 2 zeigt die Zeitdomäne-erfassten Spannungssignale sowohl für den Fall einer Be- wegung von links nach rechts wie auch einer Bewegung von rechts nach links. Die Kurven, die mit "Signal von LED 1” bezeichnet sind, zeigen die erfasste Spannung, die sich aus dem wiederholten Aufleuchten der LED 1 ergibt. Der untere Teil jeder Kurve zeigt, dass das Ziel sich nicht über oder in der Nähe der LED 1 bewegt. Mit anderen Worten, das Ziel befindet sich nicht im "Gesichtsfeld" oder Deckungsbereich des Photosensors 4, wodurch Licht, das von der LED 1 ausgestrahlt wird, vom Ziel weg und auf den Photosensor 4 reflektiert werden kann. Wenn das Ziel nicht im Gesichtsfeld des Photosensors 4 in Bezug auf die LED 1 liegt, erfasst der Photosensor 4 keine Reflexionen von Licht, das von LED 1 ausgestrahlt wird. Der hohe Abschnitt der Kurve zeigt, dass sich das Ziel im Gesichtsfeld in Bezug auf LED 1 befindet, was anzeigt, dass sich das Ziel über oder nahe der LED 1 bewegt. Die Kurve, die mit "Signal von LED 2" markiert ist, zeigt die erfasste Spannung, die sich aus dem wiederholten Aufleuchten der LED 2 ergibt. Die LED 1 und LED 2 leuchten abwechselnd auf, so dass, während LED 1 eingeschaltet ist, LED 2 ausgeschaltet ist, und umgekehrt. Während das Ziel im Gesichtsfeld positioniert ist, das LED 1 entspricht, nicht aber im Gesichtsfeld, das LED 2 entspricht, ist die erfasste Spannung im Zusammenhang mit dem Aufleuchten von LED 1 hoch, aber die erfasste Spannung im Zusammenhang mit dem Aufleuchten der LED 2 ist gering. Vereinfacht ausgedrückt entspricht dies einem Ziel, das über oder nahe der LED 1 positioniert ist. Wenn das Ziel in der Mitte, zwischen den zwei LEDs 1 und 2 positioniert ist, erfasst der Photosensor 4 reflektiertes Licht aus dem Aufleuchten sowohl der LED 1 als auch der LED 2, was zu hohen erfassten Spannungspegeln führt, die sowohl der LED 1 als auch der LED 2 entsprechen. Wenn das Ziel über oder nahe der LED2 positioniert ist, ist die erfasste Spannung im Zusammenhang mit dem Aufleuchten von LED 2 hoch, aber die erfasste Spannung im Zusammenhang mit dem Aufleuchten der LED 1 ist gering. Wenn das Ziel weder über LED 1 noch über LED 2 oder zwischen LED 1 und LED 2 positioniert ist, erfasst der Photosensor 4 kein reflektiertes Licht in Verbindung mit einer von ihnen, und die entsprechenden erfassten Spannungspegel sind gering.
[0008] Für eine Bewegung von links nach rechts geht der erfasste Spannungspegel für den Fall "Signal von LED 1” vor dem erfassten Spannungspegel für den Fall "Signal von LED 2" auf hoch, wie in den Links-nach Rechts-Bewegungssignalen von Fig. 2 dargestellt ist. Mit anderen Worten, der zeitliche Verlauf der Spannung, d.h. des "Signals von LED 2", ist relativ zum zeitlichen Verlauf der Spannung des "Signals von LED 1" verzögert, wenn sich das Ziel von links nach rechts bewegt.
[0009] Fig. 2 zeigt auch die erfassten Spannungssignale für den Fall einer Bewegung von rechts nach links. In diesem Fall wird der erfasste Spannungspegel für das "Signal von LED 2" vor dem erfassten Spannungspegel für das "Signal von LED 1" hoch, wie in den Rechts-nach-Links-Bewegungssignalen auf der rechten Seite von Fig. 2 dargestellt ist. Hier ist also die Kurve der Spannung des "Signals von LED 1" relativ zur Kurve der Spannung des "Signals von LED 2" verzögert, wenn sich das Ziel von rechts nach links bewegt.
[0010] Eine Auf- und Abwärtsbewegung, wobei „aufwärts" und „abwärts" als eine Bewegung gemäß der y-Achse angesehen werden, wird ähnlich unter Verwendung der LEDs 2 und 3 und der entsprechenden Spannungs-/Zeit-Daten bestimmt. Die Steuerschaltung 5 empfängt die erfassten Spannungen vom Photosensor 4 und bestimmt die relative Bewegung des Ziels in der y-Achse auf ähnliche Weise wie zuvor in Bezug auf die x-Achse beschrieben.
[0011] Ein Nachteil der Konfiguration mit mehreren Beleuchtungsquellen, z.B. LED1 und LED2, sind auch die vielen Beleuchtungsquellenkomponenten, die in der Vorrichtung enthalten sein müssen. Mit zunehmender Verringerung der Vorrichtungsgröße sind zusätzliche Komponenten unerwünscht.
[0012] Aufgabe der Erfindung ist es, eine Vorrichtung zu Bestimmen die Bewegung eines Ziels vorzusehen, mit der eine sichere Bestimmung der Zielbewegung, insbesondere auch was die Geschwindigkeit anlangt, abgesehen von der Richtung der Bewegung, ermöglicht wird.
[0013] Die erfindungsgemäße Vorrichtung der eingangs angeführten Art ist dadurch gekennzeichnet, dass die Lichtmodifizierungsstruktur mehrere Schichten aufweist, die in einer stufenförmigen Struktur konfiguriert sind, und die zum selektiven Blockieren eines Teils des Lichts konfiguriert ist.
[0014] Vorteilhafte Ausführungsformen und Weiterbildung sind in den abhängigen Ansprüchen angegeben.
[0015] Bei der vorliegenden Vorrichtung ist ein einzelner Photosensor oder eine Gruppe von Photosensoren bzw. Lichtsensoren vorgesehen, wobei eine Lichtmodifizierungsstruktur reflektiertes Licht zum Lichtsensor weiterleitet. Der oder die Licht- bzw. Photosensoren erfasst bzw. erfassen das reflektierte Licht und geben entsprechende erfasste Spannungssignale ab. Eine Steuerschaltung empfängt und verarbeitet die erfassten Spannungssignale zur Bestimmung der Bewegung des Ziels relativ zum Photosensor. Die Steuerschaltung enthält einen Algorithmus, der zum Berechnen eines oder mehrerer differentieller analoger Signale unter Verwendung der erfassten Spannungssignale konfiguriert ist, die von den segmentierten Photosensoren ausgegeben werden. Dabei kann gemäß den berechneten differentiellen analogen Signalen ein Vektor bestimmt werden, der zum Bestimmen einer Richtung und/oder der Geschwindigkeit der Bewegung des Ziels verwendet wird.
[0016] Die Vorrichtung kann zum Erfassen von Hand-Gesten verwendet werden. Die Bewegungsrichtung des Ziels, das sich an dem Sensor vorbei bewegt, kann durch Anwenden einer Vektoranalyse an Differentialsignalen auf Basis der Sensorsignale bestimmt werden.
[0017] In entsprechender Weise kann auch ein proportionaler Wert einer Bewegungsgeschwin-digkeit des Ziels, das sich an dem Sensor vorbei bewegt, durch Anwenden einer Vektoranalyse an dem Differentialsignalen bestimmt werden. Das Licht, das vom Segment erfasst wird, kann einerseits Licht von einer Beleuchtungsquelle sein, das vom Ziel reflektiert wird. Andererseits kann das Licht, das vom Segment erfasst wird, aber auch Umgebungslicht sein. Die Differentialsignale können zusammengesetzte Differentialsignale sein, wobei ein zusammengesetztes Signal ein Signal ist, das durch Addition von zwei oder mehr Segmentsignalen gebildet wird.
[0018] Die Berechnung eines oder mehrerer Differentialsignale kann das Berechnen eines ersten Differentialsignals enthalten, das die Bewegungsrichtung des Ziels entlang einer x-Achse angibt. Das erste Differentialsignal enthält bevorzugt einen positiven Maximalwert und einen negativen Maximalwert. Die Bewegungsrichtung des Ziels kann als eine in positive x-Richtung verlaufend bestimmt werden, wenn der positive Maximalwert dem negativen Maximalwert zeitlich vorangeht, und die Bewegungsrichtung des Ziels kann als in eine negative x-Richtung verlaufend bestimmt werden, wenn der negative Maximalwert dem positiven Maximalwert zeitlich vorangeht. Die Berechnung eines oder mehrerer Differentialsignale kann das Berechnen eines zweiten Differentialsignals enthalten, das die Bewegungsrichtung des Ziels entlang einer y-Achse angibt. Dieses zweite Differentialsignal kann ebenfalls einen positiven Maximalwert und einen negativen Maximalwert enthalten. Die Bewegungsrichtung des Ziels kann als in eine positive y- Richtung verlaufend bestimmt werden, wenn der positive Maximalwert dem negativen Maximalwert zeitlich vorangeht, und sie kann als in eine negative y-Richtung verlaufend bestimmt werden, wenn der negative Maximalwert dem positiven Maximalwert zeitlich vorangeht.
[0019] Ein proportionaler Wert einer Bewegungsgeschwindigkeit des Ziels entlang der x-Achse kann unter Verwendung der Zeitdifferenz zwischen aufeinander folgenden Nulldurchgängen des ersten Differentialsignals und ein proportionaler Wert einer Bewegungsgeschwindigkeit des Ziels entlang der y-Achse kann unter Verwendung einer Zeitdifferenz zwischen aufeinander folgenden Nulldurchgängen des zweiten Differentialsignals berechnet werden. Die proportionalen Werte der Bewegungsgeschwindigkeit des Ziels entlang der x-Achse und entlang der y-Achse können zur Bildung eines Zielvektors überlagert werden. Ferner ist das Bestimmen eines vordefinierten Satzes von Richtungen gemäß dem Zielvektor möglich. Der vordefinierte Satz von Richtungen kann eine positive x-Richtung, eine negative x-Richtung, eine positive y-Richtung und eine negative y-Richtung enthalten. Der Zielvektor kann einen Zielvektorwinkel haben, und das Bestimmen eines vordefinierten Satzes von Richtungen kann das Vergleichen des Zielvektorwinkels mit einem Satz von definierten Schwellenwertwinkeln beinhalten. Auch kann das Bestimmen des vordefinierten Satzes von Richtungen das Vergleichen des Zielvek tors mit einem Satz von vordefinierten Verteilungsmustern enthalten, wobei jedes Verteilungsmuster einer der Richtungen in dem vordefinierten Satz von Richtungen entspricht. Hierbei kann das Vergleichen des Zielvektors das Bestimmen eines Vertrauenswertes enthalten, der mit einem Vergleich des Zielvektors mit jedem Verteilungsmuster verknüpft ist, sowie das Auswählen des vordefinierten Satzes von Richtungen gemäß dem höchsten Vertrauenswert.
[0020] Die vorliegende Vorrichtung kann einen segmentierten Sensor mit mehreren Segmenten, die jeweils ein Segmentsignal entsprechend dem Licht ausgeben, das vom Segment erfasst wird; einen Speicher, der zum Speichern der Segmentsignale konfiguriert ist; und einen Prozessor enthalten, der mit dem Speicher verbunden ist. Der Prozessor enthält Programmanweisungen, die konfiguriert sind zum Berechnen eines oder mehrerer Differentialsignale gemäß den Segmentsignalen, die von den mehreren Segmenten ausgegeben werden; und zum Bestimmen einer Zielbewegungsrichtung eines Ziels, das sich an dem segmentierten Sensor vorbei bewegt, durch Anwenden einer Vektoranalyse an dem einen oder den mehreren Differentialsignalen.
[0021] Nachfolgend werden verschiedene Ausführungen von Vorrichtungen zur Bestimmung der Bewegung von Zielen anhand der Zeichnungen erläutert; in der Zeichnung zeigen: [0022] Fig. 1 ein vereinfachtes Blockschaltbild eines herkömmlichen Gesten sensors; [0023] Fig. 2 schematisch ein Beispiel zum Erfassen eines sich bewegenden
Ziels unter Verwendung des Gestensensors von Fig. 1; [0024] Fig. 3 ein weiteres Schema einer Gestenerfassungs-Vorrichtung; [0025] die Figuren 4 und 5 beispielhafte zusammengesetzte Signale, die aus Signalen er zeugt werden, die von einem segmentierten Photosensor als Reaktion auf ein Ziel ausgegeben werden, das sich in verschiedene Richtungen bewegt; [0026] Fig. 6 eine Querschnittsansicht einer erfindungsgemäßen Vorrichtung bzw. Zelle gemäß einer „Sonnenuhrkonfiguration"; [0027] Fig. 7 eine Draufsicht auf die Zelle von Fig. 6; [0028] Fig. 8 die Zelle von Fig. 7, um 90° gedreht; [0029] Fig. 9 eine Draufsicht auf mehrere Zellen, die zur Bildung von vier
Sensor-Segmenten konfiguriert sind; [0030] Fig. 10 eine Querschnittsansicht einer alternativen Sonnenuhrkonfigura tion; [0031] Fig. 11 eine Querschnittsansicht einer weiteren Sonnenuhrkonfiguration; [0032] Fig. 12 eine Querschnittsansicht einer „Nadellochkonfiguration" einer
Vorrichtung gemäß der Erfindung; [0033] Fig. 13 eine schematische Draufsicht auf die Zelle gemäß Fig. 12; [0034] Fig. 14 eine Querschnittsansicht-Vorrichtung gemäß einer „Dachkonfigu ration"; [0035] Fig. 15 eine Draufsicht auf eine „Vierfacheckenkonfiguration"; [0036] Fig. 16 eine schematische Querschnittsansicht der Vierfacheckenkonfi guration von Fig. 15; [0037] Fig. 17 eine beispielhafte Implementierung von Stufen-Wänden, die in der Jalousienkonfiguration verwendet werden; [0038] Fig. 18 benachbarte Zellen in einer solchen Jalousienkonfiguration.
[0039] Fig. 19 eine Draufsicht einer Sensor-Vierfachzellenkonfiguration; [0040] Fig. 20 eine beispielhafte Wellenform entsprechend einer Bildbewegung von links nach rechts über den segmentierten Sensor von Fig. 3; [0041] die Figuren 21 bis 27 weitere beispielhafte Wellenformen entsprechend verschiedenen
Bildbewegungen über den segmentierten Sensor; [0042] Fig. 28 vier Gauß’sche Verteilungen entsprechend erkannten Bewe gungsrichtungen „links", „rechts", „aufwärts" und „abwärts"; und [0043] Fig. 29 eine beispielhafte 4x4 Anordnung von Photodiodensegmenten.
[0044] Die vorliegende Vorrichtung kann eine einzige Lichtquelle und einen mehrfach segmentierten einzelnen Photosensor oder eine Gruppe von Photosensoren enthalten. Durch Hinzufügen einer Lichtmodifizierungsstruktur, wie einer optischen Linsenstruktur oder einer mechanischen Struktur, kann Licht, das von einem nahen Ziel, wie einer Hand oder einem Finger, reflektiert wird, auf verschiedene Segmente des Photosensors abhängig von der Zielposition relativ zum segmentierten Photosensor gerichtet bzw. fokussiert werden. Die verschiedenen Segmente des Photosensors erfassen das reflektierte Licht, und die relativen Amplituden der Segmente geben die Bewegung des Ziels an. Eine Steuerschaltung empfängt und verarbeitet die vom segmentierten Photosensor erfassten Daten zur Bestimmung der Zielbewegung relativ zum segmentierten Photosensor. Die Ein-Lichtsensor-Konfiguration ist vergleichsweise kompakt und preiswert. Ein Benützer kann über die Vorrichtung einen Befehl durch Gestikulieren weiterleiten, ohne eine Berührungsbildschirm-Steuerung aktivieren oder mechanische Tasten betätigen zu müssen. Dies bietet signifikante Leistungs- und Kostenersparnisse.
[0045] Fig. 3 zeigt ein prinzipielles Schema einer Gestenerfassungs-Vorrichtung 10. Diese Vorrichtung 10 enthält eine einzige Beleuchtungsquelle, z.B. eine LED 11, und einen segmentierten Photosensor 12. Der segmentierte Photosensor 12 kann zum Erfassen von nur einer spezifischen Licht-Wellenlänge oder von spezifischen Wellenlängen konfiguriert sein, wie den Wellenlängen, die von der Beleuchtungsquelle bzw. LED 11 ausgestrahlt werden. Eine solche Konfiguration kann durch die Verwendung eines Filters implementiert werden. Der segmentierte Photosensor 12 kann entweder ein einzelner Sensor sein, der funktionell in mehrere Segmente unterteilt ist, oder eine Gruppe von einzelnen Photosensoren. So ist ein in vier Teilen segmentierter Photosensor funktionell vier einzelnen Photosensoren äquivalent, die in einem Vierfach-Layout angeordnet sind. Eine Bezugnahme auf ein "Segment" bezieht sich hier demgemäß entweder auf ein Segment, einem Teil, innerhalb eines einzelnen Sensors oder auf einen einzelnen Sensor in einer Gruppe von Sensoren. Fig. 3 zeigt den segmentierten Photosensor 12 sowohl in einer (oberen) Seitenansicht (als auch in einer (unteren) Draufsicht, um die verschiedenen Segmente A, B, C und D zu zeigen.
[0046] Gemäß Fig. 3 enthält der segmentierte Photosensor 12 vier Segmente A, B, C und D. Obwohl ein Vier-Segment-Detektor die einfachste Implementierung ist, kann eine größere Anzahl von Segmenten vorgesehen werden, um die Auflösung des Systems zu erhöhen. Die Signalverarbeitungselektronik wird mit einer Erhöhung der Anzahl von Segmenten zunehmend komplexer. Die Segmente sind jeweils voneinander isoliert. Die LED 11 ist nahe dem segmentierten Photosensor 12 positioniert. Wenn sich ein Ziel nahe der LED 11 und in ein entsprechendes Gesichtsfeld des segmentierten Photosensors 12 bewegt, wird Licht, das von der LED 11 ausgeht, von dem sich bewegenden Ziel weg und zum segmentierten Photosensor 12 reflektiert. Die Vorrichtung 10 enthält auch als Lichtmodifizierungsstruktur eine optische Linsenstruktur 13, um Licht auf den segmentierten Photosensor 12 zu fokussieren. Die fokussierende Linse fokussiert reflektiertes Licht von einem sich bewegenden Ziel, wie einer Hand, im Raum über dem segmentierten Photosensor 12. Nur reflektiertes Licht, das im "Gesichtsfeld" ist, wird auf den segmentierten Photosensor 12 fokussiert. Obwohl die optische Linsenstruktur 13 schematisch als einzelnes Linsenelement 13 in Fig. 3 dargestellt ist, kann doch eine beliebige Anzahl von Linsen und/oder optischen Elementen vorgesehen sein, die Licht auf den segmentierten Photosensor 12 lenken. Eine beispielhafte Implementierung einer optischen Linsenstruktur und/oder eines Lichtsensors ist in der gleichzeitig anhängigen US Patentanmeldung Nr. 61/490,568 vom 26. Mai 2011, mit dem Titel "Light Sensor Having Glass Substrate With Lens Formed Therein", und in der gleichzeitig anhängigen US Patentanmeldung Nr. 61/491,805 vom 31. Mai 2011, mit dem Titel "Light Sensor Having Glass Substrate With Lens Formed Therein", beschrieben. Jedes Segment (A, B, C und D) des segmentierten Photosensors 12 gibt ein Segmentsignal an eine Steuerschaltung 14 aus, wo die Segmentsignale verarbeitet werden.
[0047] Die LED 11 wird kontinuierlich oder periodisch erregt, um das Ziel zu beleuchten. Das vom Ziel reflektierte Licht löst das Segmentsignal an jedem der segmentierten Photosensoren aus. Diese Segmentsignale werden verarbeitet und in einem Zwischenspeicher gespeichert, wobei der Zwischenspeicher mit der Steuerschaltung 14 integriert oder getrennt von dieser vorgesehen ist. Die Steuerschaltung 14 analysiert die gespeicherten Daten und bestimmt, ob eine gültige Geste erfasst wurde. Dieselben Daten können auch so verwendet werden, dass der segmentierte Photosensor 12 als Näherungsdetektor arbeitet. Dieselbe Photosensorstruktur kann mit einer anderen Signalverarbeitungsschaltung verwendet werden, so dass die Vorrichtung 10 z.B. als Umgebungslichtsensor dient.
[0048] Wenn die LED 11 eingeschaltet wird oder aufleuchtet, wird das Ziel beleuchtet, wenn sich das Ziel in einem nahen Raum über dem segmentierten Photosensor 12 befindet. Das sich bewegende Ziel ist beispielhaft in Fig. 3 als flacher Reflektor dargestellt. Die Reflexion des Ziels wird von der optischen Linsenstruktur 13 auf den segmentierten Photosensor 12 abgebildet. Das Beispiel von Figur 3 zeigt eine Bewegung des Ziels von rechts nach links. Während sich der Rand des Ziels durch die Mitte der Bildgebungszone bewegt, bewegt sich das fokussierte Bild des Zielrandes über den segmentierten Photosensor 12. Die Segmente A und C sprechen als erste auf das sich bewegende Bild an, gefolgt von den Segmenten B und D, vgl. Fig. 4. Die Steuerschaltung 14 ist zum Erfassen dieser Abfolge von Ereignissen programmiert und erkennt eine Zielbewegung von rechts nach links. Ebenso kann eine Zielbewegung von links nach rechts durch eine entgegengesetzte Abfolge erkannt werden, und sowohl von oben nach unten wie auch von unten nach oben verlaufende Zielbewegungen können unter Verwendung des orthogonalen Satzes von Signalen erkannt werden. Eine Zielbewegung von innen nach außen kann durch Erfassen der absoluten Amplitude der Summe der vier Segmente A-D erkannt werden, die auch die Näherungsmessung ist.
[0049] Die Figuren 4 und 5 zeigen beispielhafte zusammengesetzte Signale, die aus Signalen erzeugt werden, die vom segmentierten Photosensor 12 als Reaktion auf ein Ziel ausgegeben werden, das sich in verschiedene Richtungen bewegt. Ein zusammengesetztes Signal ist aus zwei oder mehreren Segmentsignalen zusammengesetzt, wobei jedes Segmentsignal Daten über die erfasste Spannung über der Zeit liefert. Die zusammengesetzten Signale und die Beispiele zur Analyse der zusammengesetzten Signale, die in Figuren 4 und 5 dargestellt sind, zeigen eine beispielhafte Vorgangsweise zur Analyse der Segmentsignale zum Bestimmen einer Zielbewegung. Selbstverständlich können auch alternative Analyseverfahren bei den Segmentsignalen zur Bestimmung der relativen Zielbewegung angewendet werden.
[0050] Gemäß Fig. 4 werden zur Bestimmung, ob sich ein Ziel von rechts nach links oder von links nach rechts bewegt, die Segmentsignale aus Segment A und Segment C addiert, um ein zusammengesetztes Signal A+C zu bilden, und die Segmentsignale aus Segment B und Segment D werden addiert, um ein zusammengesetztes Signal B+D zu bilden. Fig. 4 zeigt beispielhafte zusammengesetzte Signale entsprechend der Bestimmung einer Bewegung von rechts nach links oder von links nach rechts des Ziels. Das zusammengesetzte Signal B+D wird von dem zusammengesetzten Signal A+C subtrahiert, um ein differentielles zusammengesetztes Signal (A+C)-(B+D) zu bilden. Wenn die Bewegung von rechts nach links verläuft, hat das differentielle zusammengesetzte Signal (A+C)-(B+D) eine positive Spitze, gefolgt von einer negativen Spitze, wie in der unteren linken Kurve von Fig. 4 dargestellt ist. Wenn die Bewegung von links nach rechts verläuft, hat das differentielle zusammengesetzte Signal (A+C)-(B+D) eine negative Spitze, gefolgt von einer positiven Spitze, wie in der unteren rechten Kurve von Fig. 4 dargestellt.
[0051] In Fig. 3 ist zu erkennen, dass die Bewegungsrichtung des Ziels der Bewegungsrichtung des Bildes auf dem segmentierten Photosensor 12 entgegengesetzt ist. Die Bildumkehr ist ein Ergebnis der optischen Linsenstruktur 13. In alternativen Ausführungsformen, die in der Folge ausführlich beschrieben werden, ist die optische Linsenstruktur 13 durch eine aus einer Reihe von mechanischen Strukturen ersetzt. In einigen Ausführungsformen dieser alternativen Konfigurationen bewegt sich das Bild auf dem segmentierten Photosensor 12 in dieselbe Richtung wie das Ziel, und die zusammengesetzten Signale (A+C) und (B+D), die in Fig. 4 dargestellt sind, werden getauscht und das differentielle zusammengesetzte Signal (A+C)-(B+D) wird umgekehrt. Wenn sich das Ziel von rechts nach links bewegt, wie in Fig. 3 dargestellt, bewegt sich das Bild auf dem segmentierten Photosensor 12 von links nach rechts. Wenn sich das Ziel von rechts nach links bewegt, wie in Fig. 4, erscheint das Bild zunächst auf Segmenten A und C, da sich das Ziel auf der rechten Seite befindet, aber das Bild erscheint noch nicht auf den Segmenten B und D, und das erhaltene zusammengesetzte Signal A+C beginnt zuzunehmen, wie in der oberen linken Kurve von Fig. 4 dargestellt ist wogegen das zusammengesetzte Signal B+D bei 0 bleibt. Wenn sich das Ziel dann nach links bewegt, beginnt das Bild auf Segmenten B+D zu erscheinen, während es auch noch auf den Segmenten A+C erscheint, und das erhaltene zusammengesetzte Signal B+D beginnt zuzunehmen, wie in der mittleren linken Kurve von Fig. 4 dargestellt ist. Schließlich erscheint das Bild vollständig auf allen Segmenten A-D. Wenn sich der nachlaufende Rand des Zielbildes von den Segmenten A und C weg bewegt, kehrt das zusammengesetzte Signal A+C auf 0 zurück, und die negative Spitze des differentiellen zusammengesetzten Signals (A+C)-(B+D) wird gebildet.
[0052] Wenn sich das Ziel von links nach rechts bewegt, erscheint in ähnlicher Weise das Bild anfänglich auf den Segmenten B und D, während sich das Ziel an der linken Seite befindet, aber das Bild erscheint noch nicht auf den Segmenten A und C, und das erhaltene zusammengesetzte Signal B+D beginnt zuzunehmen, wie in der oberen rechten Kurve von Fig. 4 dargestellt ist, aber das zusammengesetzte Signal A+C bleibt auf 0. Wenn sich das Ziel nach rechts bewegt, beginnt das Bild auf den Segmenten B+D zu erscheinen, und das erhaltene zusammengesetzte Signal A+C beginnt zuzunehmen, wie in der mittleren rechten Kurve von Fig. 4 dargestellt. Schließlich erscheint das Bild vollständig auf allen Segmenten A-D. Wenn sich der nachlaufende Rand des Zielbildes von den Segmenten B und D weg bewegt, kehrt das zusammengesetzte Signal B+D auf 0 zurück, und die positive Spitze des differentiellen zusammengesetzten Signals (A+C)- (B+D) wird gebildet.
[0053] Eine Auf- und Abwärtsbewegung wird ähnlich bestimmt. Zur Bestimmung, ob sich ein Ziel von oben nach unten oder von unten nach oben bewegt, werden die Segmentsignale aus Segment A und Segment B addiert, um ein zusammengesetztes Signal A+B zu bilden, und die Segmentsignale aus Segment C und Segment D werden addiert, um ein zusammengesetztes Signal C+D zu bilden. Fig. 5 zeigt beispielhafte zusammengesetzte Signale, die der Bestimmung einer Bewegung des Ziels von oben nach unten oder von unten nach oben entsprechen. Das zusammengesetzte Signal C+D wird vom zusammengesetzten Signal A+B subtrahiert, um ein differentielles zusammengesetztes Signal (A+B)-(C+D) zu bilden. Bei einer Bewegung von unten nach oben hat das differentielle zusammengesetzte Signal (A+B)-(C+D) eine positive Spitze, gefolgt von einer negativen Spitze, wie in der unteren linken Kurve von Fig. 5 dargestellt ist. Bei einer Bewegung von oben nach unten hat das differentielle zusammengesetzte Signal (A+B)-(C+D) eine negative Spitze, gefolgt von einer positiven Spitze, wie in der unteren rechten Kurve von Fig. 5 gezeigt ist.
[0054] Wenn sich das Ziel von oben nach unten bewegt, erscheint das Bild zunächst auf den Segmenten A und B, jedoch noch nicht auf den Segmenten C und D. Das erhaltene zusammengesetzte Signal A+B beginnt zuzunehmen, wie in der oberen linken Kurve von Fig. 5 dargestellt, aber das zusammengesetzte Signal C+D bleibt auf 0. Wenn sich das Ziel nach unten bewegt, beginnt das Bild auch auf den Segmenten C+D zu erscheinen, während es noch auf den Segmenten A+B erscheint, und das erhaltene zusammengesetzte Signal C+D beginnt zuzunehmen, wie in der mittleren linken Kurve von Fig. 5 dargestellt ist. Schließlich erscheint das Bild vollständig auf allen Segmenten A-D. Wie bei der Bewegung von rechts nach links weist bei der Bewegung von unten nach oben das differentielle zusammengesetzte Signal (A+B)-(C+D) eine positive Spitze auf, gefolgt von einer negativen Spitze, wie in der unteren linken Kurve von Fig. 5 gezeigt ist. Wie leicht erkennbar ist, bildet die entgegengesetzte Bewegung, von oben nach unten, ein ähnliches differentielles zusammengesetztes Signal (A+B)-(C+D), aber mit der entgegengesetzten Phase, wie in der unteren rechten Kurve von Fig. 5 dargestellt ist.
[0055] Eine zusätzliche Verarbeitung wird durchgeführt, um eine Bewegung zum segmentierten Photosensor 12 hin und von diesem weg zu bestimmen, die als Bewegung von innen nach außen bezeichnet wird. Zur Bestimmung der Bewegung von innen nach außen werden alle vier Segmente A, B, C, D addiert, um ein zusammengesetztes Signal A+B+C+D zu bilden. Wenn das zusammengesetzte Signal A+B+C+D über eine bestimmte Zeitperiode zunimmt, wird bestimmt, dass eine Bewegung zum segmentierten Photosensor 12 hin oder nach innen erfolgt. Wenn das zusammengesetztes Signal A+B+C+D über eine bestimmte Zeitperiode abnimmt, wird bestimmt, dass eine Bewegung vom segmentierten Photosensor 12 weg oder nach außen erfolgt.
[0056] Allgemein werden die Segmente A, B, C, D gemessen und die Segmentsignale geeignet verarbeitet, um Änderungen in der Größe der zusammengesetzten Signale zu bestimmen. Diese Änderungen bestimmen, wenn sie zeitlich mit Änderungen in der Größe anderer zusammengesetzter Signale verglichen werden, die relative Bewegung eines Ziels, das Licht zum segmentierten Photosensor 12 zurück reflektiert.
[0057] Es können nun mechanische Strukturen anstelle der optischen Linsenstruktur 13 verwendet werden. Mechanische Strukturen werden verwendet, um zu beeinflussen, wie das reflektierte Licht auf den segmentierten Photosensor 12 gerichtet wird. Eine erste mechanische Struktur wird als „Sonnenuhrkonfiguration" bezeichnet. Eine solche Sonnenuhrkonfiguration implementiert eine physische "Wand", die von einer Sensoroberfläche des segmentierten Photosensors 12 vorragt. Die Wand wirft effektiv einen "Schatten" auf verschiedene Sensorsegmente, während sich das Ziel durch den Raum über dem segmentierten Photosensor 12 bewegt. Dieser Schatten wird verfolgt und die Zielbewegung wird entsprechend bestimmt.
[0058] Fig. 6 zeigt beispielhaft eine Querschnittsansicht einer derartigen Sonnenuhrkonfiguration. Die Sonnenuhrkonfiguration sieht ein mechanisches Mittel vor, um reflektiertes Licht auf einen Photosensor, in diesem Fall eine Photodiode, zu lenken. Die zentrale Struktur ist die physische Sonnenuhrwand, die zum Blockieren von reflektiertem Licht verwendet wird. Gemäß Fig. 6 bilden zwei N-EPI zu P-SUBSTRAT-Übergänge an jeder Seite der Wand zwei Photodioden. Die Wand ist eine Reihe von Metallschichten, die zur Trennung der zwei Photodioden errichtet sind. In der beispielhaften Konfiguration von Fig. 6 enthält die Wand eine erste Metallschicht M1, eine zweite Metallschicht M2, eine dritte Metallschicht M3 und eine obere Metallschicht TM. Jede Metallschicht ist durch eine Passivierungsschicht, wie Siliziumdioxid, getrennt, in der Kontaktlöcher (Vias) gebildet sind. Die Metallschichten, Passivierungsschichten und Kontaktlöcher sind mittels herkömmlicher Halbleiterverarbeitungstechniken gebildet. Die Wand ist auf einem Substrat gebildet, das zur Bildung der Photodioden dotiert ist, die auch als eine Zelle bezeichnet werden. Die erste Photodiode, oder Photodiodenzelle A ist durch einen N-EPI/P-SUBSTRAT- Übergang gebildet. Ein Metallkontakt M1 ist an den N-EPI-Bereich gekoppelt, um einen Kontakt mit der Kathode der Photodiodenzelle A herzustellen. Das P-SUBSTRAT dient als Photodiodenanode und ist beiden Photodiodenzellen der A-Zellen und einer B-Zelle, gemein. Es gibt eine zusätzliche Photodiode, die durch Hinzugefügen einer die P-WANNE Schicht an der Oberseite der N-EPI Schicht der Photodiodenzelle A gebildet wird. Ein Kontakt für P-WANNE wird am Ende der P-WANNE gebildet (in Fig. 6 nicht dargestellt). Die P-WANNE-Photodiode kann zum Messen von Umgebungslicht verwendet werden, wenn die Gestenfunktion nicht verwendet wird. Eine solche Konfiguration und Funktionalität ist in der US Patentanmeldung Nummer 12/889,335, eingereicht am 23. September 2010, mit dem Titel "Double Layer Photodiodes in Ambient Light Sensors and Proximity Detectors", beschrieben. Die zweite Photodiode oder Photodiodenzelle B ist auf identische Weise wie die Photodiodenzelle A gebildet. Die zwei Photodiodenzellen A und B sind durch zwei P+ Diffusionen getrennt, die sich durch den N-EPI-Bereicherstrecken und mit dem P-SUBSTRAT in Kontakt stehen. Eine Insel aus N-EPI ist zwischen den zwei P+ Isolations-Diffusionen gebildet. Diese Insel bildet eine zusätzliche Diode, die jeden gestreuten Photostrom sammelt, der von unter der Photodiodenzelle A wandern könnte und andernfalls von der Photodiodenzelle B gesammelt wird. Diese zusätzliche Diode sammelt auch jeglichen gestreuten Photostrom, der von unter der Photodiodenzelle B wandern könnte und andernfalls von der Photodiodenzelle A gesammelt würde. Gemeinsam bilden die zwei Ρ-ι-lsolationsdiffusionen und die N-EPI-lnsel dazwischen den A/B-Isolationsbereich. Die drei Elemente des A/B-Isolationsbereichs werden alle durch die erste Metallschicht M1 kurzgeschlossen, die mit Erde an der oberen Metallschicht TM verbunden ist. Jeder Photostrom, der im zusammengesetzten A/B-Isolationsbereich gesammelt wird, wird zur Erde abgeleitet, wodurch eine Überlagerung zwischen der Photodiodenzelle A und der Photodiodenzelle B verhindert wird.
[0059] Die Struktur in Fig. 6 ist eine Zelle, die die Photodiodenzelle A, die Photodiodenzelle B, den Isolationsbereich und die Wand enthält. Fig. 7 zeigt eine Ansicht von oben nach unten der Zelle von Figur 6. Diese Zelle ist zum Bestimmen einer Links-Rechts-Bewegung konfiguriert, da die Wand senkrecht zur Links-Rechts-Bewegungsrichtung ausgerichtet ist, die bestimmt werden soll. Zur Bestimmung einer Auf-/Abwärtsbewegung wird die Zelle um 90° gedreht, wie in Fig. 8 dargestellt ist. In der Zellenkonfiguration von Fig. 8 ist die Wandstruktur senkrecht zur Auf-/Abwärtsbewegung ausgerichtet, die bestimmt werden soll. Ein Grund zur Schaffung von Zellen ist, dass die Größe der Photodiodenzellen begrenzt ist, insbesondere die Breite der Photodiodenzelle, die sich von der Wandstruktur weg erstreckt. Dies begrenzt die Oberfläche, die zur Messung des reflektierten Lichts verwendet werden kann. Fig. 9 zeigt beispielhaft eine Ansicht von oben nach unten von mehreren Zellen, die zur Bildung von vier Blöcken konfiguriert sind. Jede Zelle ist von einer benachbarten Zelle durch einen Isolationsbereich I isoliert. In Fig. 9 besteht Block 1 aus einer Gruppe abwechselnder Photodiodenzellen A und B. Block 1 ist mit Block 4 identisch, der auch eine Gruppe abwechselnder Photodiodenzellen A und B enthält. Alle Photodiodenzellen A in den beiden Blöcken 1 und 4 sind kurzgeschlossen, um einen zusammengefassten A-Knoten zu bilden. Das Zusammenfassen der Gruppe von Zellen erhöht die Signalstärke. Ebenso sind alle Photodiodenzellen B in beiden Blöcken 1 und 4 zusammengefasst, um einen einzigen B-Knoten zu bilden. Dasselbe Verbindungsschema wird zur Bildung eines C-Knotens und eines D-Knotens aus der Gruppe abwechselnder Photodiodenzellen C und D in Blöcken 2 und 3 verwendet. Die Photodiodenzellen in den Blöcken 2 und 3 sind relativ zu den Photodiodenzellen in den Blöcken 1 und 4 um 90° gedreht. Auf diese Weise gibt es vier separate Signale, eines von jedem der Knoten A, B, C und D.
[0060] Die Bewegung des Ziels in den Links-Rechts- und Auf-/Ab- Richtungen wird wieder durch Analyse der Differentialsignale bestimmt. Zur Bestimmung der Zielbewegung in der Links-Rechts-Richtung wird das Differentialsignal A-B gebildet. Das Differentialsignal A-B wird auf gleiche Weise wie das differentielle zusammengesetzte Signal (A+C)-(B+D) analysiert, das sich auf die Vierfachzellkonfiguration von Fig. 3 bezieht. Zur Bestimmung der Zielbewegung in der Auf-/Ab-Richtung wird das Differentialsignal C-D gebildet. Das Differentialsignal C-D wird auf gleiche Weise wie das differentielle zusammengesetzte Signal (A+B)-(C+D) analysiert, das sich auf die Vierfachzellkonfiguration von Fig. 3 bezieht.
[0061] Die Zellstruktur, die in Fig. 6 dargestellt ist, ist eine beispielhafte „Sonnenuhrkonfiguration", wobei alternative Strukturen möglich sind. Fig. 10 zeigt eine Querschnittsansicht einer modifizierten Sonnenuhrkonfiguration.
[0062] Gemäß Fig. 10 ist die Wand alternativ gebildet und das darunter liegende Substrat ist alternativ dotiert. Dabei besteht der Isolationsbereich zwischen den zwei Photodiodenzellen A und B aus einer einzigen P-ι—Diffusion. Der kleinere Isolationsbereich von Fig. 10 ermöglicht im Vergleich zu jenem von Fig. 6 eine erhöhte Packungsdichte. Kontakte der P-WANNE und der N-EPI-Bereiche sind am Ende der Gruppe gebildet (in Fig. 10 nicht dargestellt). Die P-i-Region in dem Substrat ist an der oberen Metallschicht TM an Erde angeschlossen.
[0063] Fig. 11 zeigt eine Querschnittsansicht einer alternativen Sonnenuhrkonfiguration. In der
Konfiguration von Fig. 11 ist die Wand alternativ gebildet und das darunter liegende Substrat ist alternativ dotiert. Die Photodiodenzellen enthalten in dieser Konfiguration keine P-WANNE. Die Kontakte der N-EPI Region sind am Ende der Gruppe gebildet (in Fig. 11 nicht dargestellt). Der P+-lsolationsbereich zwischen den Photodiodenzellen A und B ist an der oberen Metallschicht TM an Erde angeschlossen. In dieser Ausführungsform ermöglicht das Fehlen der P-WANNE-Schicht die Herstellung schmälerer Photodiodenzellen A und B im Vergleich zu jenen von Fig. 6. Diese Struktur ermöglicht im Vergleich zu jener von Fig. 6 eine höhere Packungsdichte.
[0064] Eine andere mechanische Struktur wird als „Nadelstreifenkonfiguration" bezeichnet. Fig. 12 zeigt eine Querschnittsansicht einer solchen Nadelstreifenkonfiguration. Die Nadelstreifenkonfiguration sieht ein mechanisches Mittel zum Lenken eines reflektierten Lichts auf einen Photosensor, in diesem Fall eine Photodiode, vor. Die Nadelstreifenkonfiguration ist analog zu einer Lochkamera, wo das Loch zu einem Streifen oder einem Schlitz verlängert wurde. Die zwei N-EPI Abschnitte im Substrat bilden die Kathoden der Photodiodenzellen A und B, wobei das P-SUBSTRAT die gemeinsame Anode bildet. Eine Metallschicht M3 ist über der Zelle gebildet, und ein offener Schlitz ist in der Metallschicht M3 gebildet. Die Metallschicht M3 ist über einem Zwischenschichtdielektrikum, wie Siliziumdioxid, gebildet, das optisch transparent ist. Die Metallschicht M3 und der offene Schlitz werden mit Hilfe herkömmlicher Halbleiterherstellungsprozesse gebildet. In einigen Ausführungsformen wird die Zellstruktur mittels herkömmlicher digitaler CMOS-Halbleiterherstellungsprozesse gebildet. Fig. 13 zeigt eine Draufsicht der Zelle von Fig. 12 von oben nach unten. Wie in Fig. 13 dargestellt, ist der offene Schlitz entlang einer Länge der Zelle ausgerichtet. Der offene Schlitz kann über die gesamte Länge oder eine Teillänge der Zelle verlaufen.
[0065] In Betrieb geht reflektiertes Licht durch den offenen Schlitz und fällt auf die Photodioden, die N-EPI-Bereiche. Wenn eine Zielposition an der rechten Seite des offenen Schlitzes ist, geht Licht, das vom Ziel reflektiert wird, durch den offenen Schlitz und fällt auf die Photodiodenzelle A an der linken Seite. Wenn sich das Ziel von rechts nach links bewegt, fällt mehr reflektiertes Licht auf die Photodiodenzelle A an der linken Seite, bis das Ziel einen kritischen Winkel durchläuft, wo weniger reflektiertes Licht auf die linke Photodiodenzelle A fällt und stattdessen reflektiertes Licht beginnt, auf die Photodiodenzelle B an der rechte Seite zu fallen. Wenn das Ziel direkt über dem Schlitz an einem Kreuzungspunkt ist, sind die Signale, die von den Photodiodenzellen A und B empfangen werden, gleich. Dies ist die Position der höchsten Gesamtsignalstärke und ist auch der Punkt, wo die Differenz zwischen den zwei Signalen A-B null ist. Während sich das Ziel weiter nach links bewegt, fällt mehr reflektiertes Licht auf die Photodiodenzelle B an der rechte Seite, das Differenzsignal A-B ändert das Vorzeichen und wird negativ. Nach einer weiteren Bewegung des Ziels nach links fällt null reflektiertes Licht auf die Photodiodenzelle A an der linken Seite. Ähnlich wie bei den Sonnenuhrkonfigurationen sind mehrere Zellen der Nadellochkonfiguration nebeneinander positioniert, um einen Block zu bilden, und die Signale von den einzelnen Photodiodenzellen A werden zusammengefasst, um den gemeinsamen A-Knoten zu bilden. Dieselbe Art von Signalaggregation wird für die Signale B bis D verwendet. Die Ausrichtung des offenen Schlitzes bestimmt die Richtung der Zielbewegung, die bestimmt werden soll. Zum Beispiel wird die horizontale Ausrichtung des offenen Schlitzes in Fig. 13 zur Bestimmung einer Auf-/Ab-Bewegung verwendet. Mehrere Zellen, die wie die Zelle in Fig. 13 ausgerichtet sind, bilden ein Segment, das zur Messung der Auf-/Ab- Bewegung konfiguriert ist. Die vertikale Ausrichtung des offenen Schlitzes wird zur Bestimmung der Links-Rechts- Bewegung verwendet. In einer beispielhaften Konfiguration sind die Segmente mit der Nadelstreifenkonfiguration auf ähnliche Weise ausgerichtet wie die Segmente mit der Sonnenuhrkonfiguration, wie in Fig. 9 dargestellt, wo die Segmente A und D zur Bestimmung einer Links-Rechts-Bewegung konfiguriert sind und die Segmente B und C zur Bestimmung einer Auf-/Abwärtsbe-wegung konfiguriert sind. Die Zielbewegung in den Links-Rechts- und Auf-/Ab-Richtungen wird unter Verwendung der Differenzsignale in gleicher Weise wie bei der oben beschriebenen Sonnenuhrkonfiguration bestimmt.
[0066] In alternativen Konfigurationen können die Metallschicht M3 und der offene Schlitz durch jede Art von lichtverdeckendem Element ersetzt werden, das ermöglicht, dass Licht durch eine definierte Fläche eintritt, und an anderen Stellen Licht blockiert, wie eine MEMS- (mikro-elektromechanische Systeme) Vorrichtung oder ein anderes gehebeltes oder teilweise schwebendes Element, wobei das verdeckende Element von einem optisch transparenten Material getragen wird oder über Luft nahe dem offenen Schlitz hängt. Eine MEMS-Vorrichtung ist eine sehr kleine mechanische Vorrichtung, die elektrisch angesteuert wird.
[0067] Eine Möglichkeit ist die Anwendung des Nadelstreifenkonzepts bei dem Vierfachzellen-design zur Herstellung einer Mikro-Vierfachzelle. Fig. 19 zeigt eine Ansicht von oben nach unten einer beispielhaften Mikro-Vierfachzellenkonfiguration. Die Mikro-Vierfachzelle besteht aus einer Gruppe kleiner Vierfachzellen. Alle einzelnen A-Segmente sind aggregiert, um ein einziges A-Signal zu bilden, und dasselbe gilt für die B, C und D-Segmente. Die Gruppe von Vierfachzellen ist von einer Metallschicht bedeckt, die quadratische oder runde Öffnungen („Löcher") hat, die Licht durchlassen. Die Metallschicht wird unter Verwendung eines Halbleiterprozesses auf eine Weise ähnlich jener gebildet, die für das Nadelstreifenkonzept beschrieben wurde. Die Dimensionen der Vierfachzellen A bis D, der Metallschichtabstand und die Dimension der Öffnung in der Metallschicht stimmen mit den Dimensionen überein, die üblicherweise in Halbleiterprozessen erhältlich sind. Die Öffnungen in der Metallschicht sind so positioniert, dass, wenn sich Licht direkt über der Öffnung befindet, alle Zellen gleich, aber teilweise beleuchtet sind. Wenn sich der Lichtwinkel ändert, wird die relative Beleuchtung der vier Zellen unausgewogen. Die vier Signale A bis D werden auf gleiche Weise, wie zuvor für Fig. 3 beschrieben, verarbeitet.
[0068] Eine weitere mechanische Struktur wird als Dachkonfiguration bezeichnet. Die Dachkonfiguration arbeitet ähnlich wie die Nadelstreifenkonfiguration, mit der Ausnahme, dass reflektiertes Licht nicht durch einen offenen Schlitz in der Mitte der Zellstruktur in die Photodioden einer Zelle eintritt, wie bei der Nadellochkonfiguration, sondern dass die Mitte der Zellstruktur von einem "Dach" bedeckt ist und die peripheren Seiten der Struktur offen sind, so dass reflektiertes Licht zu den Photodioden der Zelle gelangt. Fig. 14 zeigt eine schematische Querschnittsansicht einer beispielhaften Dachkonfiguration. Die Dachkonfiguration sieht ein mechanisches Mittel vor, um reflektiertes Licht auf einen Photosensor zu lenken, in diesem Fall eine Photodiode. Die zwei N-EPI Abschnitte bilden die Photodiodenzellen A und B. Eine obere Metallschicht TM bildet ein Dach über der Mitte der Zellstruktur, wodurch ein innerer Abschnitt der Photodioden bedeckt wird, nicht aber ein äußerer Abschnitt bedeckt wird. Die obere Metallschicht TM ist eine obere Schicht einer Wand, die als eine Reihe von Metallschichten M1, M2, M3 gebildet ist, die die zwei Photodiodenzellen A und B trennen. Die Wandstruktur wird auf ähnliche Weise wie die Wandstrukturen der Sonnenuhrkonfigurationen gebildet, mit der Ausnahme, dass sich die obere Metallschicht TM der Dachkonfiguration über Abschnitte der zwei Photodiodenzellen A und B erstreckt. Der Abschnitt der oberen Metallschicht TM, der sich über die zwei Photodiodenzellen A und B erstreckt, ist über einem Zwischenschichtdielektrikum (nicht dargestellt), wie Siliziumdioxid, gebildet, das optisch transparent ist, Ähnlich wie bei der Nadelstreifenkonfiguration und den Sonnenuhrkonfigurationen sind mehrere Zellen der Dachkonfiguration zur Bildung eines Segments nebeneinander positioniert, und mehrere Segmente sind zur Bestimmung der Links-Rechts- und Auf-/Ab-Bewegung konfiguriert und orientiert. Reflektiertes Licht wird von den Photodiodenzellen A und B erfasst, und die erfasste Spannung wird gesammelt und ähnlich wie bei der oben beschriebenen Nadelstreifenkonfiguration und Sonnenuhrkonfiguration verarbeitet.
[0069] Eine andere mechanische Struktur wird als Vierfacheckenkonfiguration bezeichnet. Diese Vierfacheckenkonfiguration ist konzeptionell der Sonnenuhrkonfiguration ähnlich, da sie eine physische Wand verwendet, die zwischen Lichterfassungselementen angeordnet ist, aber anstelle einer Implementierung der Wand auf der Siliziumebene und Vorsehen mehrerer Zellen für jedes Segment, wie in der Sonnenuhrkonfiguration, ist die Vierfacheckenkonfiguration auf der Chip-Packungsebene implementiert, wo eine Wand zwischen den Segmenten gebildet ist. Fig. 15 zeigt eine Ansicht von oben einer beispielhaften Vierfacheckenkonfiguration. Fig. 16 zeigt eine Querschnittsansicht der Vierfacheckenkonfiguration von Fig. 15. In der beispielhaften Konfiguration, die in Fig. 15 und 16 dargestellt ist, sind Photosensorsegmente A-D als vier Photodioden auf einem integrierten Schaltungs-Chip gebildet. Die vier Photodioden können als identisch mit den vier Photodioden von Fig. 3 angesehen werden, mit der Ausnahme, dass gemäß Fig. 16 anstelle der Verwendung der eng beabstandeten Vierfach-Geometrie von Fig. 3 die Photodioden stattdessen beabstandet und in den vier Ecken des Substrats angeordnet sind. Der integrierte Schaltungschip ist in eine Chip-Packung gepackt, die eine Wand enthält, die aus optisch opakem Material gebildet ist und Licht blockiert, wie das Licht, das von einem sich bewegendem Ziel reflektiert wird. Der Abschnitt der Chip-Packung über den Photodioden besteht aus einem optisch transparenten Material. Die Höhe der Wand in der Vierfacheckenkonfiguration ist hoch genug, so dass jedes Segment ein einziges Sensorelement ist, im Gegensatz zu mehreren Zellen, wie in den Sonnenuhr- und Dachkonfigurationen. Die Bestimmung der Bewegung des Ziels wird auf ähnliche Weise wie bei der Sonnenuhrkonfiguration vorgenommen, ohne die einzelnen Zellenspannungen für ein bestimmtes Segment zusammensetzen zu müssen. Die Vierfacheckenkonfiguration enthält eine Wand, die eine Chip-Packungs-Größenordnung gegenüber der Sonnenuhrkonfiguration aufweist, die eine Wand enthält, die eine Transistorgrößenordnung hat.
[0070] Eine weitere mechanische Struktur wird als „Jalousienkonfiguration" bezeichnet. Die Jalousienkonfiguration ist ähnlich der Sonnenuhrkonfiguration mit der Ausnahme, dass die Wandstruktur in jeder Zelle in einem nicht senkrechten Winkel zu der (den) Photodiodenzelle(n) gebildet ist, im Gegensatz zu dem senkrechten Winkel wie in der Sonnenuhrkonfiguration. Die winkeligen Wände werden durch Bilden von Metallschichten und Kontaktlöchern in einer Stufenkonfiguration hergestellt, wie in Figur 17 dargestellt ist. Zusätzlich enthält jede Zelle in der Jalousienkonfiguration eine einzige Photodiodenzelle, die an einer Seite der winkeligen Wand angeordnet ist, wie in Fig. 18 gezeigt ist. In der Jalousienkonfiguration weist jedes der vier Segmente in eine andere 90°-Richtung. Zum Beispiel ist Segment A mit Wänden konfiguriert, die nach links abgewinkelt sind, Segment B ist mit Wänden konfiguriert, die nach oben abgewinkelt sind, Segment C ist mit Wänden konfiguriert, die nach unten abgewinkelt sind, und Segment D ist mit Wänden konfiguriert, die nach rechts abgewinkelt sind. Mit anderen Worten, jedes Segment hat ein anderes Gesichtsfeld. Unter Verwendung dieser Ausrichtungen wird eine Zielbewegung in die Links-Rechts- und Auf-/Ab-Richtungen unter Verwendung von Differentialsignalen auf die gleiche Weise wie bei der oben beschriebenen Sonnenuhrkonfiguration bestimmt. Selbstverständlich können auch andere Ausrichtungen verwendet werden.
[0071] In einigen Ausführungsformen werden Filter auf der Oberseite der Photosensoren zum Herausfiltern von Licht mit Wellenlängen verwendet, die anders als jene der Beleuchtungsquelle sind.
[0072] Die beispielhaften Ausführungsformen beschrieben eine Gestenerfassungsvorrichtung mit vier symmetrisch konfigurierten Segmenten oder Photosensoren. Es ist klar, dass die hierin beschriebenen Konzepte auf mehr als vier Segmente erweitert werden können, die symmetrisch oder asymmetrisch konfiguriert sind, wie in einer NxN, NxM, kreisförmigen oder anders geformten Gruppe von Photosegmenten oder Sensoren. Wie zuvor beschrieben, bezieht sich ein "Segment" entweder auf ein geteiltes Segment in einem einzigen Sensor oder auf einen separaten Sensor, oder eine Photodiode, in einer Gruppe von Sensoren.
[0073] Wie beschrieben ist die Steuerschaltung zum Verarbeiten der Segmentsignale konfiguriert, die vom segmentierten Photosensor empfangen werden. Insbesondere enthält die Steuerschaltung einen Algorithmus, der zum Erkennen sowohl der Richtung wie auch der Geschwindigkeit einer Geste bzw. Bewegung in zwei Dimensionen bestimmt ist, z.B. einer Kombination aus links, rechts, aufwärts und abwärts, um einen "Gestenvektor" zu erhalten. Dies kann auf größere Gruppen von Photodioden erweitert werden, um die Bildung von Vektorfeldern zu ermöglich, wodurch die Genauigkeit des Algorithmus weiter erhöht wird. Ein Vektor kann für eine Befehlsidentifizierung, anschließende Verarbeitung oder andere anwendungsspezifische Verwendungen benützt werden. Durch die Möglichkeit, die Geschwindigkeit zu verfolgen, kann die effektive Anzahl erkennbarer Gesten um einen Faktor zwei erhöht werden, wenn nur "langsam" und "schnell" verwendet werden, oder mehr, wodurch eine erhöhte Funktionalität vorgesehen ist. Die rohen Vektordaten können zum Definieren vorbestimmter Gesten verwendet werden oder die rohen Vektordaten können zu einer Wahrscheinlichkeit umgewandelt werden, dass der Vektor einer der vier Himmelsrichtungen oder einem anderen definierten Satz von Grundrichtungen entspricht.
[0074] Der Algorithmus enthält auch eine Gestenerkennung entlang der Z-Achse, z.B. zum segmentierten Photosensor hin oder von diesem weg. Auch kann der Algorithmus eine „Fingerverfolgung" enthalten.
[0075] Der Algorithmus wird im Zusammenhang mit der Vorrichtung von Fig. 3 erklärt. Die LED 11 beleuchtet das Ziel, das sich über den segmentierten Sensor 12 bewegt, was dazu führt, dass Licht, das vom Ziel reflektiert wird, auf den segmentierten Sensor 12 fällt. Die Lichtmodifizierungsstruktur 13 stellt konzeptionell jedes Mittel dar, das reflektiertes Licht auf den segmentierten Sensor 12 lenkt, wobei das Mittel zum Lenken, ohne darauf beschränkt zu sein, das beschriebene optische Mittel und mechanische Mittel enthält. Das Bild, das auf dem segmentierten Sensor gebildet wird, bewegt sich in einer Verschiebung in Bezug auf die Zielbewegung. Aus den segmentierten Signalen, die aus den vier Segmenten A, B, C, D ausgegeben werden, werden zusammengesetzte Signale abgeleitet. Die Bewegung wird durch Addition und Subtraktion der Segmentsignale bestimmt, die in verschiedenen Kombinationen für die zwei Achsen x und y genommen werden, wobei die x-Achse der Links- und Rechts-Bewegung entspricht und die y-Achse der Auf- und Bewegung entspricht. Die Bewegung in der Links- und Rechts-Richtung wird gemäß X = (A+C) - (B+D) bestimmt und die Bewegung in der Auf- und Abwärtsrichtung wird gemäß Y = (A+B) - (C+D) bestimmt. Die Bewegung in der Z-Achse zum segmentierten Sensor hin oder von diesem weg ist die Gesamtmenge an Licht, die auf alle Segmente fällt, und wird gemäß Z = A+B+C+D bestimmt.
[0076] Wenn sich ein Bild von links nach rechts über den segmentierten Sensor bewegt, nimmt das zusammengesetzte Signal X zunächst von 0 auf einen gewissen positiven Wert zu, nimmt dann unter 0 auf einen gewissen negativen Wert ab, bevor es schließlich zu 0 zurückkehrt. Wenn die Bewegung ausschließlich in x-Richtung verläuft, ändert sich das zusammengesetzte Signal Y nicht sehr, und wenn doch, bewegt es sich nur in eine Richtung, da die Segmente von der Beleuchtungsquelle asymmetrisch beleuchtet werden. Das zusammengesetzte Signal Z nimmt mit der Beleuchtung zu, unabhängig von der Bewegungsrichtung entlang der x-Achse oder y-Achse.
[0077] Das Verhältnis zwischen der Richtung der Zielbewegung und der entsprechenden Richtung der Bildbewegung auf dem Sensor ist vom Lichtlenkmechanismus abhängig, der verwendet wird, um reflektiertes Licht auf den segmentierten Sensor zu lenken. Fig. 3 zeigt in der linken Hälfte eine beispielhafte Zielbewegung von rechts nach links. Wie zuvor erwähnt wird diese Zielbewegung umgekehrt als Bildbewegung auf dem segmentierten Sensor 12 erfasst. Für eine Zielbewegung von rechts nach links gibt es auf dem Sensor 12 eine entsprechende Bildbewegung von links nach rechts und umgekehrt. Ebenso gibt es für eine Zielbewegung von oben nach unten eine entsprechende Bildbewegung von unten nach oben und umgekehrt. In den oben beschriebenen Beispielen gibt es ein entgegengesetztes Verhältnis, wobei die Bewegungsrichtung des Ziels der Bildbewegungsrichtung entgegengesetzt ist. Alternative Verhältnisse werden aber ebenso in Betracht gezogen.
[0078] Fig. 20 zeigt eine beispielhafte Wellenform entsprechend der Bildbewegung von links nach rechts über den segmentierten Sensor 12 von Fig. 3. Eine Bildbewegung von links nach rechts entspricht einer Zielbewegung von rechts nach links. Während sich das Ziel von ganz rechts zum segmentierten Sensor 12 bewegt, beginnt schließlich ein Bild auf den Segmenten A und C zu erscheinen. Wenn sich das Ziel weiter von rechts nach links bewegt, wird ein immer größerer Teil des Ziels auf den Segmenten A und C abgebildet, was zu einem steigenden X-Wert führt. An einem gewissen Punkt wird ein Maximalbild auf den Segmenten A und C erfasst, das dem Punkt unmittelbar, bevor das Bild auf die Segmente B und D trifft, entspricht. Dieser Punkt entspricht einem maximalen X-Wert, der als Beispiel in Fig. 20 als der positive Scheitel der Sinus-Wellenform dargestellt ist. Wenn sich das Ziel weiter nach links bewegt, bewegt sich das Bild weiter nach rechts und beginnt auf die Segmente B und D zu fallen. In der Formel zur Berechnung des Wertes X wird ein positiver Wert für B+D von A+C subtrahiert, was zu einem abnehmenden Wert von X führt. Schließlich bewegt sich das Ziel nach links zu einem Punkt, wo ein halbes Bild auf die Segmente A und C und das andere halbe Bild auf die Segmente B und D trifft, was dem mittleren Nulldurchgang in Fig. 20 entspricht. Während sich das Ziel weiter nach links bewegt, bewegt sich das Bild weiter nach rechts und fällt immer mehr auf die Segmente B und D und immer weniger auf die Segmente A und C, was zu einem immer stärker negativen Wert von X führt. Schließlich erreicht der Wert von X ein negatives Maximum, das der Position des Ziels entspricht, wo das Bild nicht mehr auf die Segmente A und C fällt und in einen maximalen Ausmaß auf die Segmente B und D fällt. Wenn sich das Ziel immer weiter nach links bewegt, fällt immer weniger Bild auf die Segmente B und D, bis das Ziel eine Position erreicht, wo kein reflektiertes Licht mehr auf eines der Segmente fällt, was dem ganz rechten Nulldurchgang in Fig. 20 entspricht.
[0079] Fig. 21 zeigt eine beispielhafte Wellenform, die einer Auf- /Ab-Bildbewegung über den segmentierten Sensor 12 entspricht, während die Zielbewegung von rechts nach links verläuft, wie in Fig. 20. Die beispielhaften Wellenformen, die in Figuren 20 und 21 dargestellt sind, entsprechen der Zielbewegung ausschließlich in der x-Richtung. Idealerweise ist im Fall einer Zielbewegung ausschließlich in die x- Richtung der Y-Wert gleich 0. In der Praxis jedoch wird für gewöhnlich ein gewisser Wert ungleich 0 bestimmt, da der segmentierte Sensor 12 von der LED 11 asymmetrisch beleuchtet wird. Die in Fig. 21 dargestellte Wellenform zeigt einen positiven Wert ungleich 0, soll aber einen trivialen Wert ungleich 0 darstellen, der positiv, negativ, gleich 0 oder eine Kombination im Laufe der Zeit sein kann.
[0080] Fig. 23 zeigt eine beispielhafte Wellenform entsprechend einer Auf-/Ab-Bildbewegung über dem segmentierten Sensor 12 von Fig. 3. Eine Bildbewegung von oben nach unten entspricht einer Zielbewegung von unten nach oben. Die in Fig. 23 dargestellte Wellenform entspricht dem zusammengesetzten Signal Y und wird ähnlich wie die Wellenform bestimmt, die dem zusammengesetzten Signal X entspricht, das in Fig. 20 dargestellt ist. Die positiven Werte von Y entsprechen dem reflektierten Licht, das ausschließlich oder vorwiegend auf die Segmente A und B fällt, und die negativen Werte von Y entsprechen dem reflektierten Licht, das ausschließlich oder vorwiegend auf die Segmente C und D fällt. Die Nulldurchgänge entsprechen entweder einem Nullbild, das auf die Segmente A, B, C und D fällt, oder einem gleichen Ausmaß eines Bildes, das auf die Segmente A+B wie auf die Segmente C+D fällt.
[0081] Fig. 22 zeigt eine beispielhafte Wellenform entsprechend einer Bildbewegung von links nach rechts über den segmentierten Sensor 12, während die Zielbewegung von unten nach oben verläuft, wie in Fig. 23. Die beispielhaften Wellenformen, die in den Figuren 22 und 23 dargestellt sind, entsprechen einer Zielbewegung ausschließlich in der y-Richtung. Idealerweise ist der X-Wert für eine Zielbewegung ausschließlich in y-Richtung gleich 0. In der Praxis jedoch wird sich für gewöhnlich ein gewisser Wert ungleich 0 ergeben, da der segmentierte Sensor 12 von der LED 11 asymmetrisch beleuchtet wird. Die in Fig. 22 dargestellte Wellenform zeigt einen positiven Wert ungleich 0, soll aber einen trivialen Wert ungleich 0 darstellen, der positiv, negativ, gleich 0 oder eine Kombination im Laufe der Zeit sein kann.
[0082] Zur Bestimmung einer Geste in die z-Richtung muss nach einem ausreichenden Anstieg im Z-, oder VSUM-, Signal (A+B+C+D) gesucht werden, ohne dass es einen Vektor gibt, der in der x- oder y-Richtung erfasst wird.
[0083] Gemäß den Figuren 20 und 23 stimmen der positive und negative Nulldurchgang mit dem Bild überein, das sich von einer Seite des segmentierten Sensors 12 zur anderen bewegt. Je schneller sich das Ziel bewegt, umso schneller kreuzt daher das Bild von einer Seite des segmentierten Sensors 12 zur anderen und bewirkt daher, dass die Nulldurchgänge der Wellenform zeitlich enger beabstandet sind. Dies korreliert exakt mit der Geschwindigkeit. Die Figuren 24-27 zeigen Wellenformen ähnlich den jeweiligen Wellenformen der Figuren 20-23, mit der Ausnahme, dass die Zielbewegung, die den Wellenformen in den Figuren 24-27 entspricht, schneller ist als die Zielbewegung, die den Wellenformen in den Figuren 20-23 entspricht. Die Wellenformen in den Figuren 24-27 haben ein analoges Verhältnis zu den Wellenformen in den jeweiligen Figuren 20-23. Die Wellenformen, die einer schnelleren Zielbewegung entsprechen, wie die Wellenformen, die in den Figuren 24-27 dargestellt sind, haben eine kürzere Periode oder sind im Vergleich zu den Wellenformen komprimiert, die einer ähnlichen aber langsameren Zielbewegung entsprechen, wie die Wellenformen, die in den Figuren 20-23 dargestellt sind.
[0084] Das reflektierte Licht wird mit einer vorherbestimmten Rate abgetastet, z.B. einmal pro Millisekunde. Zum Zeitpunkt 0 beginnt der X-Wert positiv zu werden, wie in Fig. 20 dargestellt. Zu einem späteren Zeitpunkt, wie zum Zeitpunkt gleich 30 Millisekunden, kreuzt der X-Wert den Null-Wert und wird negativ. Ein Dividieren der Abtastrate durch die Zeit zwischen Nulldurchgängen ergibt einen Wert, der zur Geschwindigkeit proportional ist. Dies ist eine Rohschätzung der Zielgeschwindigkeit, da es andere beitragende Faktoren gibt, wie den Abstand des Ziels vom Sensor, aber diese Schätzung liefert eine exakte relative Geschwindigkeit im Vergleich zu der anderen Richtung, zum Beispiel eine relative Geschwindigkeit in die x-Richtung im Vergleich zur y-Richtung, da die geschätzte Geschwindigkeit sowohl in der x- wie auch in der y-Richtung unter Verwendung der jeweiligen Nulldurchgänge berechnet und dann anschließend verglichen werden kann. Eine beispielhafte Anwendung ist die Verwendung der geschätzten Geschwindigkeitsbestimmung als Kurslevel-Befehl, wo verschiedene Befehle auf der Basis einer unterschiedlichen geschätzten Geschwindigkeit bestimmt werden. Beispielsweise kann eine Rotation eines angezeigten Objekts bei einer schnelleren Rate befohlen werden, wenn die bestimmte geschätzte Geschwindigkeit größer als ein Schwellenwert ist, bei einer mittleren Rate, wenn die bestimmte geschätzte Geschwindigkeit zwischen dem hohen Schwellenwert und einem niederen Schwellenwert liegt, oder bei einer langsamen Rate, wenn die bestimmte geschätzte Geschwindigkeit geringer als der untere Schwellenwert ist.
[0085] Die vorstehenden Beispiele betreffen Wellenformen, die sich aus Gesten oder einer Zielbewegung ausschließlich in der x- oder in der y-Richtung ergeben. Viele Gesten bzw. allgemein Zielbewegungen könnten jedoch Komponenten in beiden Richtungen enthalten, wie eine diagonale Zielbewegung, und die entsprechenden Wellenformamplituden können von Fall zu Fall variieren. Daher ist es vernünftig, auf eine relative Änderung zwischen positiv und negativ, insbesondere auf Nulldurchgänge zu achten, und dies insbesondere sowohl für die Unks-Rechts- wie auch für die Auf-/Ab-Kanäle gleichzeitig. Wenn die Zielbewegung nicht ausschließlich eine Links-Rechts- oder Auf-/Ab-Bewegung ist, können die resultierenden Wellenformen des X- und Y-Signals sowohl in der Amplitude als auch in der Periode variieren.
[0086] Unter Verwendung der Informationen, die im zusammengesetzten Signal X und im zusammengesetzten Signal Y erhalten werden, kann ein zweidimensionaler Vektor bestimmt werden. Wenn spezifiziert ist, dass auf einen Nulldurchgang in einer Richtung ein Nulldurchgang in der entgegengesetzten Richtung folgen muss, um eine Geste auf entweder den Links-Rechts- oder Auf-/Ab-Kanälen zu identifizieren, und der erste Nulldurchgang zu einem Zeitpunkt t1 und der zweite Nulldurchgang zu einem Zeitpunkt t2 erfolgt, so ist die Geschwindigkeit entlang entweder der x- oder der y-Richtung proportional zu 1/(t2-11). Die Richtung wird abhängig davon bestimmt, ob der erste Nulldurchgang negativ oder positiv ist. Wenn dies für sowohl Links-Rechts- wie auch Auf-/Ab-Kanäle durchgeführt wird, können die Geschwindigkeit Vx in der x-Richtung, und die Geschwindigkeit Vy in der y-Richtung, zu einem zweidimensionalen Vektor in der Form Vxi + Vyj unter Verwendung Kartesischer Koordinaten überlagert werden. Die Kartesischen Koordinaten werden sofort in polare Koordinaten umgewandelt, die einen Vektorwinkel enthalten. Das Ergebnis ist, dass die Zielbewegung entlang jedem Winkel und bei jeder Geschwindigkeit in der x,y-Ebene erfasst werden kann, nur durch die Abtastrate begrenzt. Je größer die Abtastrate ist, umso feiner ist die Auflösung des Vektorwinkels. Wenn z.B. die Geschwindigkeit Vx größer ist als die Geschwindigkeit Vy, kann bestimmt werden, dass sich das Ziel stärker in einer Links-Rechts-Richtung als einer Auf-/Abwärtsrichtung bewegt.
[0087] Es können verschiedene Winkelschwellenwerte definiert werden und der Vektorwinkel wird mit den Winkelschwellenwerten verglichen. Beispielweise wird ein Vektorwinkel zwischen +45° und +135° als Aufwärtsbewegung des Ziels bestimmt, und ein Vektorwinkel zwischen +45° und -45° wird als Zielbewegung nach rechts bestimmt. Der Algorithmus kann auch asymmetrisch gewichtet sein. Zum Beispiel kann ein Vektorwinkel von 60° noch immer als Zielbewegung nach rechts bestimmt werden, obwohl der Vektor mehr zu 90° zeigt, was der Aufwärtsbewe gung des Ziels entspricht. Dieses Beispiel zeigt das allgemeine Konzept, dass der Algorithmus so programmiert werden kann, dass er z.B. frühere Gestenverteilungen berücksichtigt, die gleichförmig oder ungleichförmig sein können.
[0088] Dieses Konzept kann unter Verwendung von Vektoren mit einem Satz von probabilistischen Wahrscheinlichkeitsfunktionen erweitert werden, um das Vertrauen darzustellen, dass eine Zielbewegung in einer bestimmten definierten Richtung erfolgt. Auf diese Weise muss der Anwender z.B. keine so exakte Geste ausführen, dass die Geste als eine der definierten Bewegungsrichtungen des Ziels erkannt wird, wie links, rechts, aufwärts und abwärts. Dies kann auch ein gewisses Rauschen ausgleichen, das eingeführt worden sein könnte. Wenn der Anwender zum Beispiel nur Richtungen von links nach rechts, von oben nach unten, von rechts nach links und von unten nach oben erkennen möchte, können vier Wahrscheinlichkeitsfunktionen, wie Gauß’sche Verteilungen, definiert werden, wobei Maxima an jedem gewünschten Vektor zentriert sind und ein Halbmaximum exakt auf halbem (radialen) Weg zwischen den benachbarten gewünschten Vektoren liegt. Fig. 28 zeigt vier Gauß’sche Verteilungen, die den erkannten Richtungen links, rechts, aufwärts und abwärts entsprechen. In diesem Beispiel erscheinen die Maxima bei 0° (rechts), +90° (aufwärts), -90° (abwärts) und 180° (links), und die Halbmaxima erscheinen bei ±45° und ±135°. Dabei ist ein Eintreten jeder Richtung in gleichem Maße wahrscheinlich. Bei einem bestimmten Vektor wird der Vektorwinkel in Bezug auf 0° (positive x-Richtung) bestimmt und die Wahrscheinlichkeit, dass der Vektor allen vier Wahrscheinlichkeitsverteilungen entspricht, wird berechnet. Der größte dieser Werte ist dadurch der "am wahrscheinlichste” und wird als die Zielbewegung bestimmt. Zwei Beispielsvektoren sind in Fig. 28 dargestellt und jeder Vektor entspricht einer gemessenen Zielbewegung. Vektor 1 wird als eine Bewegung von links nach rechts mit 90% Vertrauen bestimmt. Vektor 2 wird als zweideutig von den nach unten und von rechts nach links bestimmt, da dieser Vektor mit gleicher Wahrscheinlichkeit im Linkskreis und im Abwärtskreis verläuft. Der Algorithmus kann aber so programmiert sein, dass ein vordefiniertes Ergebnis im Falle jeder solchen Zweideutigkeit erhalten wird. Andererseits kann der Algorithmus aber auch so programmiert sein, dass er nicht auf ein zweideutiges Ergebnis reagiert oder eine Fehlernachricht oder -anzeige erzeugt.
[0089] Wie oben beschrieben wird der Algorithmus bei einem Vier-Segmentsensor angewen-det. Der segmentierte Sensor und der Algorithmus sind für den Fall eines Sensors mit mehr als vier Segmenten anpassbar, z. B. einer NxN- oder NxM-Gruppe von Segmenten. Fig. 29 zeigt eine beispielhafte 4x4-Gruppe von Photodiodensegmenten. Ein Vektor kann für jede von neun verschiedenen Vier-Segmente-Anordnungen bestimmt werden. Zum Beispiel enthält eine erste Vier-Segmente-Anordnung der Segmente Nr. 1, 2, 5 und 6, eine zweite Vier-Segmente-Anordnung enthält die Segmente Nr. 6, 7, 10 und 11, eine dritte Vier-Segmente-Anordnung enthält die Segmente Nr. 11, 12, 15 und 16 usw.. Durch Anwenden des Algorithmus für jede der neun Vier-Segmente-Anordnungen kann ein Vektorfeld zusammengefügt werden, das zum Erlangen komplexerer Zielbewegungsinformationen verwendet werden kann.
[0090] Die Vorrichtung 10 wurde in Verbindung mit einer Beleuchtungsquelle, wie die LED 11 in Fig. 3, beschrieben. Als Beleuchtungsquelle können auch mehrere Lichtquellen verwendet werden, die gleichzeitig gepulst werden, im Gegensatz zu mehreren Beleuchtungsquellen, die seriell gepulst werden, wie in der herkömmlichen Vorrichtung von Fig. 1. Durch Verwendung mehrerer Beleuchtungsquellen, die gleichzeitig gepulst werden, kann ein breiterer Abdeckungsbereich erzielt werden. Der Abdeckungsbereich einer bestimmten Beleuchtungsquelle ist als die Fläche über der Beleuchtungsquelle definiert, wo Licht, das von einem innerhalb des Abdeckungsbereichs liegenden Ziel reflektiert wird, auf den Sensor trifft. Der Abdeckungsbereich stimmt mit dem Gesichtsfeld des segmentierten Sensors überein. Obwohl Licht von der Beleuchtungsquelle auf das Ziel an Flächen außerhalb des Abdeckungsbereichs auftreffen kann, wird das reflektierte Licht nur abgelenkt, wenn sich das Ziel innerhalb des Abdeckungsbereichs befindet, so dass es auf den segmentierten Sensor fällt. Außerhalb des Abdeckungsbereichs wird reflektiertes Licht nicht richtig abgelenkt, um auf den segmentierten Sensor zu fallen. Mehrere Beleuchtungsquellen, die gleichzeitig gepulst werden, dienen zur Vergrößerung des Abdeckungsbereichs.
[0091] Mehr als eine Beleuchtungsquelle können auch in Verbindung mit dem segmentierten Sensor verwendet werden, wenn die Beleuchtungsquellen nicht gleichzeitig gepulst werden. Auf diese Weise können mehrere x-Kanäle und mehrere y-Kanäle implementiert werden, ein erster x-Kanal und ein erster y-Kanal, die einer ersten Beleuchtungsquelle entsprechen, usw..
[0092] Die Vorrichtung 10 und der Algorithmus können auch zur Verwendung ohne Beleuchtungsquelle angepasst werden. Anstelle des Erfassens des Bildes, das dem reflektierten Licht entspricht, das von einer Beleuchtungsquelle stammt, wird das Umgebungslicht erfasst, und es wird z.B. eine Abnahme im Umgebungslicht bestimmt, die sich aus einem sich vorbei bewegenden Ziel ergibt. Somit wirft ein sich vorbei bewegendes Ziel einen Schatten auf den segmentierten Sensor, wobei der Schatten als Abnahme im Umgebungslicht erfasst wird. Der Schatten in einer Umgebungslichtkonfiguration ist umgekehrt analog zu einem Bild in einer Beleuchtungsquellenkonfiguration zu sehen. In der Umgebungslichtkonfiguration ist die Polarität der drei zusammengesetzten Signale X, Y und Z umgekehrt.
[0093] Die Vorrichtung 10 und der Algorithmus können auch zur Fingerverfolgung verwendet werden. Durch Analyse der Momentanwerte der zusammengesetzten Signale X und Y kann eine aktuelle Position des Ziels, wie eines Fingers, bestimmt werden. Wenn z. B. der Wert des zusammengesetzten Signals X positiv oder einen gewissen Betrag größer als ein gewisser vorbestimmter positiver X-Schwellenwert ist und der Wert des zusammengesetzten Signals Y gleich 0 oder ein gewisser Wert annähernd gleich 0 ist, der einen gewissen Y- Schwellenwert annähernd gleich 0 nicht überschreitet, wird bestimmt, dass ein Finger einer Person an der linken Seite des segmentierten Sensors positioniert ist. In ähnlicher Weise wird, wenn der Wert des zusammengesetzten Signals X gleich 0 oder ein gewisser Wert annähernd gleich 0 ist, der einen gewissen X-Schwellenwert annähernd gleich 0 überschreitet, und der Wert des zusammengesetzten Signals Y negativ oder ein gewisser Wert größer als einen gewissen vordefinierter Y negativer Schwellenwert ist, bestimmt, dass der Finger der Person unter dem Sensor positioniert ist. Wenn der Wert des zusammengesetzten Signals X positiv ist und der Wert des zusammengesetzten Signals Y negativ ist, wird bestimmt, dass der Finger der Person nahe der unteren linken Ecke des Sensors positioniert ist. Auf diese Weise können neun Positionen bestimmt werden. Acht der Positionen liegen um den Umfang bzw. sind die vier Ecken, „links", „rechts", „aufwärts" und „abwärts". Die neunte Position ist die Mitte des segmentierten Sensors, die dem Fall entspricht, dass der Wert des zusammengesetzten Signals X und der Wert des zusammengesetzten Signals Y beide gleich 0 sind, aber das Z-, oder VSUM-, Signal (A+B+C+D) ungleich 0 ist.
[0094] Die Verfolgung aufeinanderfolgender Fingerpositionen bestimmt ebenfalls einen Vektor. Beispielsweise geben drei aufeinanderfolgende Fingerpositionen-Bilder, die links vom Sensor, in der Mitte des Sensors und rechts vom Sensor liegen, eine Zielbewegung von rechts nach links an. Auf diese Weise ist eine Fingerverfolgung, die zu einer Vektorbestimmung führt, ein komplexeres Verfahren zum Bestimmen eines Zielbewegungsvektors. Die Fingerverfolgung kann auch für einfachere Anwendungen verwendet werden, wie eine einzelne Fingerposition, anstelle einer Abfolge von aufeinanderfolgenden Fingerpositionen, die einen Befehl angibt.
[0095] Die Erfindung wurde vorstehend anhand von spezifischen Ausführungsformen beschrieben, die Einzelheiten für ein besseres Verständnis der Konstruktions- und Betriebsprinzipien der Vorrichtung 10 enthalten. Viele der Komponenten, die in den verschiedenen Ausführungs-beipielen beschrieben sind, können untereinander getauscht werden. Demgemäß sind auch Abwandlungen bzw. Modifikationen möglich, ohne den Rahmen der Erfindung zu verlassen.

Claims (15)

  1. Ansprüche
    1. Vorrichtung zum Bestimmen der Bewegung eines Ziels, mit zumindest einem Lichtsensor (12) und einer Lichtmodifizierungsstruktur zum Weiterleiten von vom Ziel reflektiertem Licht zu dem zumindest einem Lichtsensor (12), dadurch gekennzeichnet, dass die Lichtmodifizierungsstruktur mehrere Schichten aufweist, die in einer stufenförmigen Struktur konfiguriert sind, und die zum selektiven Blockieren eines Teils des Lichts konfiguriert sind.
  2. 2. Vorrichtung nach Anspruch 1, eingerichtet zum Bestimmen einer körperlichen Geste.
  3. 3. Vorrichtung nach Anspruch 1 oder 2, gekennzeichnet durch eine Beleuchtungsquelle (11).
  4. 4. Vorrichtung nach Anspruch 3, dadurch gekennzeichnet, dass die Beleuchtungsquelle (11) eine Leuchtdiode (11) aufweist.
  5. 5. Vorrichtung nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass der zumindest eine Lichtsensor (12) eine Photodiode aufweist.
  6. 6. Vorrichtung nach einem der Ansprüche 1 bis 4, gekennzeichnet durch ein Array von einzelnen Lichtsensoren (12).
  7. 7. Vorrichtung nach einem der Ansprüche 1 bis 4, gekennzeichnet durch einen einzigen Lichtsensor (12), der in mehrere Segmente geteilt ist.
  8. 8. Vorrichtung nach einem der Ansprüche 1 bis 5 oder 7, dadurch gekennzeichnet, dass der zumindest eine Lichtsensor (12) mehrere Zellstrukturen enthält, die je zwei Photodioden enthalten, und die Lichtmodifierungsstruktur mehrere Wandstrukturen enthält, eine Wandstruktur pro Zelle, wobei die Wandstruktur zwischen den zwei Photodioden positioniert ist.
  9. 9. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, dass eine obere Schicht jeder Wandstruktur einen äußeren Umfang hat, der keine der zwei Photodioden überlappt.
  10. 10. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, dass eine obere Schicht jeder Wandstruktur einen äußeren Umfang hat, der teilweise jede der zwei Photodioden bedeckt.
  11. 11. Vorrichtung nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass die Lichtmodifizierungsstruktur mehrere Metallschichten (M1, M2, M3) und mehrere die Metallschichten trennende dielektrische Schichten enthält, wobei jede dielektrische Schicht mehrere Metallkontaktlöcher (Vias) enthält, die mit Metallschichten an jeder Seite der dielektrischen Schicht verbunden sind.
  12. 12. Vorrichtung nach Anspruch 11, dadurch gekennzeichnet, dass die Lichtmodifizierungsstruktur senkrecht zu einer oberen Oberfläche des zumindest einen Lichtsensors liegt.
  13. 13. Vorrichtung nach einem der Ansprüche 1 bis 5 oder 7, dadurch gekennzeichnet, dass der zumindest eine Lichtsensor mehrere Zellstrukturen aufweist, die je eine oder mehrere Photodioden enthalten, und die Lichtmodifizierungsstruktur mehrere Wandstrukturen aufweist, eine Wandstruktur pro Zelle, wobei die Wandstruktur in einem nicht senkrechten Winkel zu einer oberen Fläche der einen oder mehreren Photodioden verläuft.
  14. 14. Vorrichtung nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass eine Wandstruktur zwischen zwei Schichten der Lichtmodifizierungsstruktur angeordnet ist.
  15. 15. Vorrichtung nach Anspruch 14, dadurch gekennzeichnet, dass die Wandstruktur ein Via-Kontaktloch aufweist. Hierzu 14 Blatt Zeichnungen
ATGM50195/2015U 2011-05-05 2012-05-03 Verfahren zum Erfassen von Gesten unter Verwendung einer Multisegment-Photodiode und einer oder weniger Beleuchtungsquellen AT15499U1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US201161483034P 2011-05-05 2011-05-05

Publications (1)

Publication Number Publication Date
AT15499U1 true AT15499U1 (de) 2017-10-15

Family

ID=47089609

Family Applications (2)

Application Number Title Priority Date Filing Date
ATA9196/2012A AT518427B1 (de) 2011-05-05 2012-05-03 Verfahren zum Erfassen von Gesten unter Verwendung einer Multisegment-Photodiode und einer oder weniger Beleuchtungsquellen
ATGM50195/2015U AT15499U1 (de) 2011-05-05 2012-05-03 Verfahren zum Erfassen von Gesten unter Verwendung einer Multisegment-Photodiode und einer oder weniger Beleuchtungsquellen

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ATA9196/2012A AT518427B1 (de) 2011-05-05 2012-05-03 Verfahren zum Erfassen von Gesten unter Verwendung einer Multisegment-Photodiode und einer oder weniger Beleuchtungsquellen

Country Status (3)

Country Link
US (2) US8716649B2 (de)
CN (1) CN102880286B (de)
AT (2) AT518427B1 (de)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9285459B2 (en) 2008-05-09 2016-03-15 Analog Devices, Inc. Method of locating an object in 3D
US9746544B2 (en) 2008-12-03 2017-08-29 Analog Devices, Inc. Position measurement systems using position sensitive detectors
EP2434945B1 (de) 2009-05-27 2018-12-19 Analog Devices, Inc. Mehrfach verwendbarer optischer sensor
US9229581B2 (en) 2011-05-05 2016-01-05 Maxim Integrated Products, Inc. Method for detecting gestures using a multi-segment photodiode and one or fewer illumination sources
US9702690B2 (en) * 2011-12-19 2017-07-11 Analog Devices, Inc. Lens-less optical position measuring sensor
CN104871009B (zh) * 2013-01-31 2017-09-22 夏普株式会社 光传感器
US9431440B2 (en) * 2013-03-14 2016-08-30 Maxim Integrated Products, Inc. Optical sensor
US9582078B1 (en) 2013-06-28 2017-02-28 Maxim Integrated Products, Inc. Integrated touchless joystick-type controller
US9256290B2 (en) 2013-07-01 2016-02-09 Blackberry Limited Gesture detection using ambient light sensors
US9489051B2 (en) 2013-07-01 2016-11-08 Blackberry Limited Display navigation using touch-less gestures
US9398221B2 (en) 2013-07-01 2016-07-19 Blackberry Limited Camera control using ambient light sensors
US9342671B2 (en) 2013-07-01 2016-05-17 Blackberry Limited Password by touch-less gesture
US9367137B2 (en) 2013-07-01 2016-06-14 Blackberry Limited Alarm operation by touch-less gesture
US9323336B2 (en) 2013-07-01 2016-04-26 Blackberry Limited Gesture detection using ambient light sensors
US9423913B2 (en) 2013-07-01 2016-08-23 Blackberry Limited Performance control of ambient light sensors
US9405461B2 (en) 2013-07-09 2016-08-02 Blackberry Limited Operating a device using touchless and touchscreen gestures
US9304596B2 (en) 2013-07-24 2016-04-05 Blackberry Limited Backlight for touchless gesture detection
US9465448B2 (en) 2013-07-24 2016-10-11 Blackberry Limited Backlight for touchless gesture detection
US9891099B2 (en) * 2013-07-30 2018-02-13 Elbit Systems Of America, Llc Optical detector and system therefor
US9194741B2 (en) 2013-09-06 2015-11-24 Blackberry Limited Device having light intensity measurement in presence of shadows
US9383434B2 (en) 2013-10-01 2016-07-05 Heptagon Micro Optics Pte. Ltd. Compact opto-electronic sensor modules for detecting gestures or other movements by a user
EP2860612B1 (de) 2013-10-04 2019-04-24 ams AG Optische Sensoranordnung und Verfahren zur Gestenerfassung
KR102098400B1 (ko) 2013-10-28 2020-04-08 매그나칩 반도체 유한회사 제스처 셀 및 이를 포함하는 제스처 센서
JP6223779B2 (ja) * 2013-10-28 2017-11-01 シャープ株式会社 光検知装置および電子機器
CN104700603A (zh) * 2015-03-11 2015-06-10 四川和芯微电子股份有限公司 远程控制智能移动终端的系统
GB2529567B (en) 2015-09-22 2016-11-23 X-Fab Semiconductor Foundries Ag Light shield for light sensitive elements
CN108917926A (zh) * 2018-07-25 2018-11-30 厦门匠仕工业设计有限公司 一种光线感应装置及包括该光线感应装置的电器
US11385336B2 (en) 2018-07-31 2022-07-12 Maxim Integrated Products, Inc. Time of flight sensors and sensing methods
US11674797B2 (en) 2020-03-22 2023-06-13 Analog Devices, Inc. Self-aligned light angle sensor using thin metal silicide anodes

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5103085A (en) * 1990-09-05 1992-04-07 Zimmerman Thomas G Photoelectric proximity detector and switch
US20050179908A1 (en) * 2004-02-12 2005-08-18 Sharp Kabushiki Kaisha Optical movement information detector, movement information detection system, electronic equipment and encoder
US20080006762A1 (en) * 2005-09-30 2008-01-10 Fadell Anthony M Integrated proximity sensor and light sensor
US20090065821A1 (en) * 2007-09-07 2009-03-12 Sun-Chan Lee Image sensor and fabricating method thereof
US20100078545A1 (en) * 2008-09-26 2010-04-01 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Lensless user input device with optical interference

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19911419A1 (de) 1998-03-16 1999-10-14 Cyberoptics Corp Digitales Bereichssensorsystem
US6351576B1 (en) 1999-12-23 2002-02-26 Intel Corporation Optical clocking distribution using diffractive metal mirrors and metal via waveguides
US6624833B1 (en) * 2000-04-17 2003-09-23 Lucent Technologies Inc. Gesture-based input interface system with shadow detection
US6618038B1 (en) * 2000-06-02 2003-09-09 Hewlett-Packard Development Company, Lp. Pointing device having rotational sensing mechanisms
JP4040825B2 (ja) 2000-06-12 2008-01-30 富士フイルム株式会社 画像撮像装置及び距離測定方法
US6870152B2 (en) * 2002-02-01 2005-03-22 Georgia Tech Research Corporation Segmented photodetectors for detection and compensation of modal dispersion in optical waveguides
US6838715B1 (en) 2002-04-30 2005-01-04 Ess Technology, Inc. CMOS image sensor arrangement with reduced pixel light shadowing
WO2005088435A1 (en) * 2004-03-11 2005-09-22 Mobisol Inc. Pointing device with an integrated optical structure
EP1622200A1 (de) 2004-07-26 2006-02-01 CSEM Centre Suisse d'Electronique et de Microtechnique SA Festkörper-Fotodetektor-Pixel und Fotodetektionsverfahren
US7214920B2 (en) 2005-05-06 2007-05-08 Micron Technology, Inc. Pixel with spatially varying metal route positions
US7683407B2 (en) * 2005-08-01 2010-03-23 Aptina Imaging Corporation Structure and method for building a light tunnel for use with imaging devices
US7620309B2 (en) * 2006-04-04 2009-11-17 Adobe Systems, Incorporated Plenoptic camera
CN101558367A (zh) * 2006-12-05 2009-10-14 索尼爱立信移动通讯有限公司 用于检测物体移动的方法和系统
WO2009067103A1 (en) * 2007-11-20 2009-05-28 Hewlett-Packard Development Company, L.P. Liquid handling device
US8432372B2 (en) * 2007-11-30 2013-04-30 Microsoft Corporation User input using proximity sensing
US8187097B1 (en) 2008-06-04 2012-05-29 Zhang Evan Y W Measurement and segment of participant's motion in game play
WO2010011923A1 (en) 2008-07-24 2010-01-28 Gesturetek, Inc. Enhanced detection of circular engagement gesture
TW201007531A (en) 2008-08-01 2010-02-16 Yu-Hsiang Huang Gesture detecting method of capacitive touch pad is disclosed
TW201008698A (en) 2008-08-20 2010-03-01 Co Matic Machinery Co Ltd Feeder stand capable of measurement
WO2010047807A1 (en) 2008-10-22 2010-04-29 Tom Chang Light detection circuit for ambient light and proximity sensor
US8344325B2 (en) 2009-05-22 2013-01-01 Motorola Mobility Llc Electronic device with sensing assembly and method for detecting basic gestures
US20100320552A1 (en) 2009-06-19 2010-12-23 Pixart Imaging Inc. CMOS Image Sensor
TW201106614A (en) 2009-08-10 2011-02-16 Holtek Semiconductor Inc Low-frequency amplifier and PIR detector
US8072442B2 (en) * 2010-02-09 2011-12-06 Sharp Kabushiki Kaisha Electrically switchable field of view for embedded light sensor
US20110310005A1 (en) 2010-06-17 2011-12-22 Qualcomm Incorporated Methods and apparatus for contactless gesture recognition
US8461513B2 (en) 2010-09-28 2013-06-11 Texas Advanced Optoelectronic Solutions, Inc. Method and apparatus for device with minimized optical cross-talk
US20140035812A1 (en) 2011-05-05 2014-02-06 Maxim Integrated Products, Inc. Gesture sensing device
US9229581B2 (en) 2011-05-05 2016-01-05 Maxim Integrated Products, Inc. Method for detecting gestures using a multi-segment photodiode and one or fewer illumination sources

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5103085A (en) * 1990-09-05 1992-04-07 Zimmerman Thomas G Photoelectric proximity detector and switch
US20050179908A1 (en) * 2004-02-12 2005-08-18 Sharp Kabushiki Kaisha Optical movement information detector, movement information detection system, electronic equipment and encoder
US20080006762A1 (en) * 2005-09-30 2008-01-10 Fadell Anthony M Integrated proximity sensor and light sensor
US20090065821A1 (en) * 2007-09-07 2009-03-12 Sun-Chan Lee Image sensor and fabricating method thereof
US20100078545A1 (en) * 2008-09-26 2010-04-01 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Lensless user input device with optical interference

Also Published As

Publication number Publication date
US20140284462A1 (en) 2014-09-25
US20120280107A1 (en) 2012-11-08
CN102880286B (zh) 2018-02-06
US10429236B2 (en) 2019-10-01
AT518427B1 (de) 2017-10-15
US8716649B2 (en) 2014-05-06
AT518427A5 (de) 2017-10-15
CN102880286A (zh) 2013-01-16

Similar Documents

Publication Publication Date Title
AT518427B1 (de) Verfahren zum Erfassen von Gesten unter Verwendung einer Multisegment-Photodiode und einer oder weniger Beleuchtungsquellen
DE102012008954A1 (de) Verfahren zum Erfassen von Gesten unter Verwendung einer Mehrfachsegment-Photodiode und einer oder weniger Beleuchtungsquellen
DE112012005324B4 (de) Integrierte Schaltung und Verfahren zum Detektieren eines Winkels von einfallendem Licht
DE3789508T2 (de) Detektorsystem für optische maus.
DE112013000590B4 (de) Verbesserter Kontrast zur Objekterfassung und Charakterisierung durch optisches Abbilden
US10656275B1 (en) Remote sensing for detection and ranging of objects
US10445896B1 (en) Systems and methods for determining object range
DE102008016215B4 (de) Informationsvorrichtungsbediengerät
DE10241392A1 (de) Vorrichtung und Verfahren zum Erfassen einer dreidimensionalen Relativbewegung
AT512461B1 (de) Vorrichtung für die eingabe von informationen an eine datenverarbeitungsanlage
DE112015004407T5 (de) Hintergrundlicht-Detektion für optische Navigationssysteme
DE102006041815A1 (de) Positionsdetektionssystem unter Verwendung von Lasergranulation
DE102014108310B4 (de) Optisches Laufzeitsystem
DE112013005337T5 (de) Objekterfassung und Nachverfolgung mit veränderlichen Feldbeleuchtungsvorrichtungen
DE112018006394B4 (de) Kapazitiver bewegungssensor
DE102018119376A1 (de) Display zur Darstellung einer optischen Information
EP3743849A1 (de) Vorrichtung zur optischen direktaufnahme von hautabdrücken und dokumenten
DE102012107739B4 (de) Sensorsystem zum Erkennen einer Bewegung einer Infrarotlichtquelle
CN102981608B (zh) 使用多分段光电二极管和一个或更少的照明源检测手势的方法
DE102017204073A1 (de) Tof-kamera, kraftfahrzeug, verfahren zum herstellen einer tof-kamera und verfahren zum ermitteln eines abstands zu einem objekt
DE60205736T2 (de) System und verfahren zum optischen identifizieren von objekten
DE69421365T2 (de) Wärmequellendetektor
DE60205735T2 (de) Trainierbares laser-optisches sensorsystem zur objekterkennung
DE60213777T2 (de) Vorrichtung und verfahren zur optischen erfassung der bewegung von objekten
DE60009996T2 (de) Detektierung der Position und der Bewegung von Subpixelbildern

Legal Events

Date Code Title Description
MM01 Lapse because of not paying annual fees

Effective date: 20180531