DE102005056658A1 - Kompakte optische Navigationsvorrichtung mit flachem Profil - Google Patents

Kompakte optische Navigationsvorrichtung mit flachem Profil Download PDF

Info

Publication number
DE102005056658A1
DE102005056658A1 DE102005056658A DE102005056658A DE102005056658A1 DE 102005056658 A1 DE102005056658 A1 DE 102005056658A1 DE 102005056658 A DE102005056658 A DE 102005056658A DE 102005056658 A DE102005056658 A DE 102005056658A DE 102005056658 A1 DE102005056658 A1 DE 102005056658A1
Authority
DE
Germany
Prior art keywords
array
light source
sensor array
sensor
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102005056658A
Other languages
English (en)
Inventor
Tong Loveland Xie
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Avago Technologies International Sales Pte Ltd
Original Assignee
Avago Technologies ECBU IP Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Avago Technologies ECBU IP Singapore Pte Ltd filed Critical Avago Technologies ECBU IP Singapore Pte Ltd
Publication of DE102005056658A1 publication Critical patent/DE102005056658A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L23/00Cleaning footwear
    • A47L23/04Hand implements for shoe-cleaning, with or without applicators for shoe polish
    • A47L23/06Hand implements for shoe-cleaning, with or without applicators for shoe polish with electric drive
    • AHUMAN NECESSITIES
    • A46BRUSHWARE
    • A46BBRUSHES
    • A46B13/00Brushes with driven brush bodies or carriers
    • A46B13/02Brushes with driven brush bodies or carriers power-driven carriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0338Fingerprint track pad, i.e. fingerprint sensor used as pointing device tracking the fingertip image

Abstract

Eine optische Navigationsvorrichtung erfasst eine relative Bewegung nicht optisch flacher Oberflächen, z. B. von Fingern, durch ein Vergleichen der erfassten Bilder der Oberflächentextur, z. B. Furchen auf dem Finger. Innerhalb eines Gehäuses sind eine Lichtquelle und ein Sensorarray nahe beieinander positioniert. Das Sensorarray ist an einem Substrat befestigt. Ein Linsenarray ist zwischen der abzubildenden Oberfläche und dem Sensorarray derart angeordnet, dass ein 1 : 1-Bild der Oberfläche, z. B. Fingeroberfläche des Benutzers, auf dem 2-D-Sensorarray gebildet wird. Die Mikrolinsen könnten entworfen sein, um mit einzelnen Pixeln auf dem Sensorarray zusammenzupassen, oder jedes Element des Linsenarrays wird verwendet, um eine Gruppe von Pixeln auf dem Sensor abzudecken. Die Mikrolinsen könnten derart positioniert sein, dass das Bild auf dem Sensorarray gebildet wird oder in einer Ebene in einem Raum gebildet wird, derart, dass das Bild von der Oberfläche defokussiert wird.

Description

  • Mit immer weiter ansteigender Popularität mobiler und tragbarer elektronischer Vorrichtungen sind Bedarfe nach kleinen und billigen Zeigevorrichtungen dramatisch angestiegen. Optische Navigationstechnologien, die im Inneren optischer Mäuse eingesetzt werden, bieten bei Genauigkeit, Zuverlässigkeit und Flexibilität viele Vorteile gegenüber anderen Lösungen. Existierende Maussensormodule jedoch sind zu groß, um auf tragbare elektronische Vorrichtungen, wie z. B. Mobiltelefone und Personaldigitalassistenten (PDAs), angewendet zu werden.
  • Optische Maussensoren erfassen eine relative Bewegung durch ein Verfolgen der Veränderungen an den erfassten Bildern aus der Reflexion von der Navigationsoberfläche. Die Navigationsbilder könnten Muster von Schatten und Spitzlicht auf der Oberfläche, die durch eine schräg beleuchtete Leuchtdiode (LED) geworfen werden, oder Beugungsmuster oder Flecken, die durch die Navigationsoberfläche mit einer kohärenten Beleuchtungsquelle gebildet werden, sein. Das Herz einer optischen Maus ist das Navigationsmodul, das aus einer Lichtquelle, einem Bildsensor und einem optischen Teil (könnte ein optisches Teil beinhalten oder auch nicht), z. B. einer Abbildungslinse, besteht. Die Lichtquelle, wie z. B. eine LED oder ein Laser, wird verwendet, um eine Beleuchtung der Navigationsoberfläche bereitzustellen, während der Abbildungsabschnitt des optischen Teils Navigationsbilder auf dem Bildsensorarray bildet. Eine Abbildungslinse wird üblicherweise verwendet, um die Navigationsbilder auf ein 2D-Sensorarray abzubilden. Die Größe eines typischen Maussensormoduls ist ziemlich groß, insbesondere die Höhe. Die große Modulgröße war bisher für die Verbreitung der optischen Navigationstechnologien in Anwen dungen, wie z. B. Tischcomputermäusen, kein Problem. Sie verhindert jedoch die breiteren Anwendungen der gleichen Technologie in tragbaren elektronischen Vorrichtungen, wie z. B. Mobiltelefonen und PDAs. Für tragbare Elektroniken ist eine Zeigevorrichtung mit einer Dicke in der Größenordnung von 2 mm erwünscht, während ein typisches Maussensormodul mehr als 10 mm Raum zwischen der Navigationsoberfläche und dem Sensor erfordert.
  • Existierende optische Maussensoren sind hauptsächlich aufgrund der Höhe der Vorrichtungsanordnung zu groß, um in tragbare elektronische Vorrichtungen, wie z. B. Mobiltelefone, integriert zu werden. Ein typischer optischer Maussensor erfordert eine Beabstandung von mehr als 14 mm zwischen der Navigationsoberfläche und dem Bildsensor, um die Abbildungsbedingungen, die für eine Navigation erforderlich sind, zu erfüllen. Gemäß dem gegenwärtigen Modulentwurf wird die Abbildungsfunktion üblicherweise durch ein Einzellinsenelement durchgeführt. Die minimale Beabstandung zwischen der Oberfläche und dem Sensor ist durch die Sensorpixelgröße und die Arraygröße, einen optischen Wirkungsgrad (oder f/#) und die erwünschte optische Vergrößerung eingeschränkt.
  • Die Höhe des herkömmlichen Maussensormoduls ist hauptsächlich durch die Höhenanforderung der Bildoptiken eingeschränkt. Üblicherweise wird eine einzelne geformte Kunststoff-Linse mit einer Einheitsvergrößerung verwendet und ein 2D-Sensor mit 20 × 20 Pixeln in einer Beabstandung von 50 μm wird verwendet. In erster Ordnung ist, um eine 1:1-Abbildung zu erzielen, die Beabstandung zwischen der Navigationsoberfläche und dem Sensor vier mal die Brennweite der Bildlinse. Mit reduzierter Beabstandung zwischen der Navigationsoberfläche und dem Sensor muss die Brennweite der Abbildungslinse reduziert werden. Es ist theoretisch möglich, zu diesem Zweck eine Linse mit sehr kurzer Brennweite zu entwerfen, wodurch eine Beabstandung nahe 2 mm zwischen dem Sensor und der Navigationsoberfläche erzielt wird, obwohl in der Praxis die Aperturgröße der Linse berücksichtigt werden muss, um einen vernünftigen Lichtsammelwirkungsgrad beizubehalten. Das Verhältnis der Brennweite der Linse und des Durchmessers der Linse ist die Lichtstärke der Linse. Es ist praktisch schwierig, eine Einzelelement-Brechungslinse aufzuweisen, die einen f/# aufweist, das so klein wie 1 ist, das einen großen Sichtbereich mit einer guten Bildqualität abdecken kann. Aus diesem Grund erfordert ein typisches optisches Maussensormodul eine Beabstandung von mehr als 10 mm zwischen dem Sensor und der Navigationsoberfläche.
  • Es ist die Aufgabe der vorliegenden Erfindung, eine Vorrichtung oder ein Verfahren mit verbesserten Charakteristika zu schaffen.
  • Diese Aufgabe wird durch eine Vorrichtung gemäß Anspruch 1 oder ein Verfahren gemäß Anspruch 17 gelöst.
  • Eine optische Navigationsvorrichtung erfasst eine relative Bewegung nicht optisch flacher Oberflächen, wie z. B. von Fingern, durch ein Vergleichen der erfassten Bilder der Oberflächentextur, wie z. B. Furchen auf dem Finger. Innerhalb eines Gehäuses sind eine Lichtquelle und ein Sensorarray nahe beieinander positioniert. Das Sensorarray ist an einem Substrat befestigt. Ein Linsenarray ist zwischen der abzubildenden Oberfläche und dem Sensorarray derart angeordnet, dass ein 1:1-Bild der Oberfläche, z. B. Fingeroberfläche des Benutzers, auf dem zweidimensionalen (2D-) Sensorarray gebildet wird. Die Mikrolinsen könnten entworfen sein, um mit einzelnen Pixeln auf dem Sensorarray zusammenzupassen, oder jedes Element des Linsenarrays wird verwendet, um eine Gruppe von Pixeln auf dem Sensor abzudecken. Die Mikrolinsen könnten derart positioniert sein, dass das Bild auf dem Sensorarray gebildet oder in einer Ebene in einem Raum gebildet wird, derart, dass das Bild von der Oberfläche defokussiert wird.
  • Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die beigefügten Zeichnungen näher erläutert. Es zeigen:
  • 1 ein Ausführungsbeispiel der vorliegenden Erfindung; und
  • 2A bis 2C Ausführungsbeispiele der vorliegenden Erfindung.
  • Wie in 1 gezeigt ist, wird bei einem Ausführungsbeispiel der vorliegenden Erfindung ein Linsenarray anstelle der einzelnen Abbildungslinse in einer herkömmlichen optischen Navigationsvorrichtung verwendet. Innerhalb eines Gehäuses 8 sind eine Lichtquelle 10 und ein Sensorarray 12 nahe beieinander positioniert. Das Sensorarray 12 ist an einem Substrat 13, z. B. einer gedruckten Schaltungsplatine (PCB), befestigt. Ein Linsenarray 14 ist derart positioniert, dass das aus der Lichtquelle 10 emittierte Licht von einer Oberfläche 20 reflektiert wird. Das Linsenarray 14 umfasst M × N Element, wobei M > 1 und N ≥ 1. Das Linsenarray 14 sammelt das von der Oberfläche 20 reflektierte Licht und bildet ein Muster auf dem 2D-Sensorarray 12 darunter. Wenn z. B. eine LED als die Lichtquelle 10 verwendet wird, könnte das Linsenarray 14 verwendet werden, um ein Bild der Oberfläche, z. B. Fingeroberfläche des Benutzers, zu bilden. Wie in den 2A2C gezeigt ist, könnte jedes Element des Linsenarrays 14 entworfen sein, um mit einzelnen Pixeln auf dem Sensorarray (2A) zusammenzupassen, oder jedes Element des Linsenarrays wird verwendet, um eine Gruppe von Pixeln auf dem Sensor (2B) abzudecken, oder jedes Element des Linsenarrays wird verwendet, um einen Bruchteil eines Pixelbereichs auf dem Sensor (2C) abzudecken. Das Linsenarray 14 könnte derart positioniert sein, dass das Bild der Oberfläche 20 auf dem Sensorarray gebildet wird, oder eine Ebene in einem Raum, die sich von der Oberfläche 20 unterscheidet, wird auf dem Sensorarray gebildet.
  • Eine optische Linse 16 könnte zwischen der Lichtquelle 10 und der Oberfläche 20 platziert sein, wo der Ausgangsstrahl im Wesentlichen kollimiert ist. Es wird darstellend auf Licht Bezug genommen. Das erfindungsgemäße Konzept könnte erweitert werden, um elektromagnetische Strahlung über einen Wellenlängenbereich zu umfassen, der sich von etwa 1 Nanometer (nm) bis zu etwa 1 Meter (m) erstreckt.
  • Die Gesamthöhe der Vorrichtung ist wesentlich reduziert, da die Brennweite jedes Elements des Linsenarrays 14 sehr kurz sein kann, während dennoch der gleiche f/# eines Einzellinsenelements beibehalten wird.
  • Die Beleuchtungsquelle 10 könnte eine kohärente Lichtquelle, wie z. B. eine Laserdiode oder ein Vertikalresonator-Oberflächenemissionslaser, sein. Alternativ könnte sie eine inkohärente oder quasi kohärente Lichtquelle, wie z. B. eine Leuchtdiode (LED), oder eine Breitbandquelle mit oder ohne optisches Filter sein. Obwohl dieses Ausführungsbeispiel die Lichtquelle 10 als innerhalb des Gehäuses 8 enthalten offenbart, könnte die Oberfläche durch eine externe Lichtquelle, wie z. B. das Umgebungslicht, beleuchtet werden. Die Oberfläche selbst könnte selbst beleuchtet sein, wie in dem Fall, in dem die Oberfläche Lumineszenzmaterial umfasst, wie z. B. Elektrolumineszenzmaterial.
  • Das Linsenarray 14 umfasst Elemente, die brechend, beugend oder hybrid sein könnten.
  • Das Sensorarray 12 könnte ein Abbildungsarray eines ladungsgekoppelten Bauelements (CCD) oder eines Komplementärmetalloxidhalbleiters (CMOS) sein. Das Sensorarray 12 ist vorzugsweise positioniert, um das durch das Linsenarray gebildete Muster zu erfassen. Das Muster könnte direkt der Oberfläche entsprechen oder eine Herleitung von Oberflächeninformationen sein, wie z. B. Flecken oder Interferenz mustern, die aus dem von der Oberfläche reflektierten Licht erzeugt werden.
  • Die Erfindung reduziert die Beabstandung, die zwischen der Oberfläche und dem Sensorarray erforderlich ist, unter Verwendung eines unterschiedlichen optischen Entwurfskonzepts wesentlich, wodurch die Gesamthöhe des Navigationsmoduls reduziert wird.
  • Wie in 1 dargestellt ist, kann die Entfernung von der Oberfläche zu dem Sensorarray durch ein Verwenden eines Mehrelementlinsenarrays drastisch reduziert werden, während die gleichen optischen Eigenschaften, wie z. B. Vergrößerung und f/#, einer Einzellinsenimplementierung unter Verwendung des gleichen Sensorarrays beibehalten werden.
  • Ein Lichtsammelwirkungsgrad der Abbildungslinse kann entworfen sein, um gleich oder besser zu sein als in dem Fall einer Einzelelementlinse. Das Makrolinsenarray könnte derart entworfen sein, dass jedes Element einem Pixel des Sensorarrays entspricht, oder jedes Element bildet Bilder auf eine Gruppe von Pixeln in dem Sensor ab oder jedes Pixel in dem Sensor entspricht einer Gruppe von Linsenelementen.
  • Ein Herstellen von Makrolinsenarrays kann in vielen Weisen erzielt werden, wie z. B. Ätzen, Aufschmelzen, Replikation oder Formen. Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung ist das Linsenarray auf der Waferebene mit dem Sensorarray integriert. Bei einem weiteren Ausführungsbeispiel ist das Linsenarray ein separates Teil, das zwischen der Oberfläche und dem Sensor platziert ist.

Claims (23)

  1. Vorrichtung mit folgenden Merkmalen: einem Gehäuse (8); einem M × N-Array von Elementen (14) zum Sammeln elektromagnetischer Wellen von einer Oberfläche, wobei M > 1 und N ≥ 1 gilt; und einer Bewegungserfassungsschaltung, die ein Sensorarray (12) zum Aufnehmen der elektromagnetischen Wellen aufweist, die eine relative Bewegung in den Richtungen entlang der ersten und der zweiten Achse bestimmt.
  2. Vorrichtung gemäß Anspruch 1, bei der die elektromagnetischen Wellen aus einer Gruppe ausgewählt sind, die sichtbares Licht, Infrarotlicht, Mikrowelle, Schallwellen umfasst.
  3. Vorrichtung gemäß Anspruch 2, die ferner eine Lichtquelle (10) aufweist, die innerhalb des Gehäuses positioniert ist, die wirksam ist, um die elektromagnetische Welle in Richtung der Oberfläche zu emittieren.
  4. Vorrichtung gemäß Anspruch 3, bei der jedes Element des M × N-Arrays (14) zumindest einem Bruchteil eines Sensors in dem Sensorarray entspricht.
  5. Vorrichtung gemäß Anspruch 3, bei der jedes Element des M × N-Arrays (14) einem einzelnen Sensor in dem Sensorarray entspricht.
  6. Vorrichtung gemäß Anspruch 3, bei der jedes Element des M × N-Arrays (14) einer Gruppe von Sensoren in dem Sensorarray entspricht.
  7. Vorrichtung gemäß einem der Ansprüche 3 bis 6, bei der die Lichtquelle (10) sichtbares oder Infrarotlicht emittiert.
  8. Vorrichtung gemäß Anspruch 7, bei der jedes Element des M × N-Arrays (14) eine Linse ist.
  9. Vorrichtung gemäß Anspruch 8, bei der die Linse ein Brechungs-, Beugungs- oder Hybridelement ist.
  10. Vorrichtung gemäß einem der Ansprüche 3 bis 9, bei der die Lichtquelle (10) eine kohärente, eine quasi kohärente oder eine nicht kohärente Lichtquelle ist.
  11. Vorrichtung gemäß Anspruch 10, bei der die Lichtquelle (10) eine kohärente Lichtquelle ist, wobei die kohärente Lichtquelle aus einer Gruppe ausgewählt ist, die aus Laserdioden und Vertikalresonatoroberflächenemissionslasern besteht.
  12. Vorrichtung gemäß einem der Ansprüche 3 bis 10, bei der die Lichtquelle (10) eine nicht kohärente oder quasi kohärente Lichtquelle ist, wobei die Lichtquelle aus einer Gruppe ausgewählt ist, die aus Leuchtdioden (LEDs) und Breitbandlichtquellen besteht.
  13. Vorrichtung gemäß einem der Ansprüche 3 bis 12, bei der das Sensorarray (12) ein CCD- oder ein CMOS-Abbilder ist.
  14. Vorrichtung gemäß einem der Ansprüche 3 bis 13, die ferner das M × N-Array (14) umfasst, das positioniert ist, um ein Muster auf der Oberfläche auf dem Sensorarray zu bilden.
  15. Vorrichtung gemäß einem der Ansprüche 3 bis 14, die ferner das M × N-Array (14) umfasst, das positioniert ist, um ein Bild einer Ebene in einem Raum, die sich von der Oberfläche unterscheidet, auf dem Sensorarray zu bilden.
  16. Vorrichtung gemäß einem der Ansprüche 3 bis 15, bei der die Muster aus einer Gruppe ausgewählt sind, die Fleck, Beugung und Oberflächenbild umfasst.
  17. Verfahren mit folgenden Schritten: Anlegen einer elektromagnetischen Quelle (10) in Richtung einer Oberfläche; Bilden eines Musters, das einer Reflexion der Oberfläche entspricht, durch Anlegen eines M × N-Arrays (14) von Sammelelementen, wobei M > 1 und N ≥ 1 gilt; Erfassen einer Serie von Mustern unter Verwendung eines Sensorarrays (12); und Analysieren der Muster zur Bestimmung einer relativen Bewegung.
  18. Verfahren gemäß Anspruch 17, bei dem: die elektromagnetische Quelle (10) Licht in dem optischen Wellenlängenbereich emittiert; und wobei das Muster aus einer Gruppe ausgewählt ist, die Fleck, Beugung und Oberflächenbilder umfasst.
  19. Verfahren gemäß Anspruch 18, bei dem die Lichtquelle (10) eine kohärente Lichtquelle ist, die aus einer Gruppe ausgewählt ist, die aus Laserdioden und Vertikalresonatoroberflächenemissionslasern besteht.
  20. Verfahren gemäß Anspruch 18, bei dem die Lichtquelle (10) eine nicht kohärente oder eine quasi kohärente Lichtquelle ist, wobei die Lichtquelle aus einer Grup pe ausgewählt wird, die aus Leuchtdioden (LEDs) und einer Breitbandlichtquelle besteht.
  21. Verfahren gemäß einem der Ansprüche 17 bis 20, bei dem: das Sensorarray (12) ein CCD- oder ein CMOS-Bildarray ist; und das M × N-Array (14) ein Array von Linsen ist.
  22. Verfahren gemäß Anspruch 21, bei dem das M × N-Array (14) positioniert ist, um ein Muster der Oberflächen auf dem Sensorarray zu bilden.
  23. Verfahren gemäß Anspruch 21, bei dem das M × N-Array (14) positioniert ist, um ein Bild einer Ebene in einem Raum, die sich von der Oberfläche unterscheidet, auf dem Sensorarray zu bilden.
DE102005056658A 2005-03-21 2005-11-28 Kompakte optische Navigationsvorrichtung mit flachem Profil Ceased DE102005056658A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/085,282 US7244925B2 (en) 2005-03-21 2005-03-21 Compact and low profile optical navigation device
US11/085,282 2005-03-21

Publications (1)

Publication Number Publication Date
DE102005056658A1 true DE102005056658A1 (de) 2006-09-28

Family

ID=36218941

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005056658A Ceased DE102005056658A1 (de) 2005-03-21 2005-11-28 Kompakte optische Navigationsvorrichtung mit flachem Profil

Country Status (7)

Country Link
US (1) US7244925B2 (de)
JP (2) JP2006268852A (de)
KR (1) KR20060101859A (de)
CN (1) CN1838049B (de)
DE (1) DE102005056658A1 (de)
GB (1) GB2424514B (de)
TW (1) TWI387902B (de)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008004916A (ja) * 2006-05-23 2008-01-10 Seiko Epson Corp 光モジュール
US7408718B2 (en) * 2006-09-07 2008-08-05 Avago Technologies General Pte Ltd Lens array imaging with cross-talk inhibiting optical stop structure
WO2008034191A1 (en) * 2006-09-22 2008-03-27 Rpo Pty Limited Signal detection for optical touch input devices
KR100832073B1 (ko) * 2006-11-15 2008-05-27 삼성전기주식회사 비접촉식 광 센서 모듈
TWM311892U (en) * 2006-11-22 2007-05-11 Lite On Semiconductor Corp Movable inspection detecting module
DE102007042984A1 (de) * 2007-09-10 2009-03-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur optischen Navigation
TWI426418B (zh) * 2007-12-25 2014-02-11 Myson Century Inc 光學導航感測器及其光學導航裝置
US7855843B2 (en) * 2008-02-07 2010-12-21 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Optical finger navigation device with a folded air lens
JP5353196B2 (ja) * 2008-11-17 2013-11-27 株式会社リコー 移動計測装置および移動計測プログラム
DE102009005092A1 (de) * 2009-01-19 2010-09-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur optischen Navigation und dessen Verwendung
US8373110B2 (en) * 2009-05-26 2013-02-12 Honeywell International Inc. System and method for linear and angular measurements of a moving object
US8643602B2 (en) * 2009-05-28 2014-02-04 Avago Technologies General Ip (Singapore) Pte. Ltd. Device and method for performing optical navigation without using lenses
US8525777B2 (en) * 2009-08-25 2013-09-03 Microsoft Corporation Tracking motion of mouse on smooth surfaces
US8711097B2 (en) * 2009-11-22 2014-04-29 Digitaloptics Corporation Optical navigation device with image sensor and inner housing
CN102236168A (zh) * 2010-04-20 2011-11-09 埃派克森微电子(上海)股份有限公司 一种光学装置
CN102338974A (zh) * 2010-07-22 2012-02-01 昆山西钛微电子科技有限公司 光电导航模组
US8538606B2 (en) 2010-11-03 2013-09-17 The Aerospace Corporation Systems, methods, and apparatus for sensing flight direction of a spacecraft
US10691261B2 (en) 2011-01-19 2020-06-23 Pixart Imaging Inc. Non-planar reflective folded optics
US9104268B2 (en) * 2011-02-03 2015-08-11 Avago Technologies General Ip (Singapore) Pte. Ltd. Compact optical finger navigation system with illumination via redirection surface holes
US8534876B2 (en) 2011-02-10 2013-09-17 Avago Technologies General Ip (Singapore) Pte. Ltd. Ultra-low profile optical finger navigation illumination system through segmentation
US8547333B2 (en) * 2011-06-22 2013-10-01 Blackberry Limited Optical navigation device with haptic feedback
CN102427168A (zh) * 2011-08-08 2012-04-25 东南大学 一种太赫兹波的空间馈电传输方法及其焦面阵成像结构
EP2602679A1 (de) * 2011-12-08 2013-06-12 Miele & Cie. KG Bedienelement für ein Haushaltsgerät, Bedieneinheit eines Haushaltsgeräts zur Aufnahme eines solchen Bedienelements und Haushaltsgerät mit einer solchen Bedieneinheit und einem solchen Bedienelement
KR101388697B1 (ko) 2011-12-13 2014-04-25 삼성전기주식회사 옵티컬 네비게이션 모듈 및 옵티컬 네비게이션 모듈용 렌즈

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4409479A (en) 1981-12-03 1983-10-11 Xerox Corporation Optical cursor control device
US5907152A (en) * 1992-10-05 1999-05-25 Logitech, Inc. Pointing device utilizing a photodetector array
CN1122925A (zh) * 1994-11-07 1996-05-22 颜艮山 可即时监看的鼠标扫描器
JP3622367B2 (ja) * 1996-10-01 2005-02-23 松下電器産業株式会社 画像入力装置
EP1073005A1 (de) 1999-07-28 2001-01-31 Siemens Aktiengesellschaft Bedienoberfläche mit einem optischen Sensor
JP4087247B2 (ja) 2000-11-06 2008-05-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 入力デバイスの移動の測定方法
US6977645B2 (en) 2001-03-16 2005-12-20 Agilent Technologies, Inc. Portable electronic device with mouse-like capabilities
US6809723B2 (en) 2001-05-14 2004-10-26 Agilent Technologies, Inc. Pushbutton optical screen pointing device
US6765555B2 (en) * 2001-11-07 2004-07-20 Omnivision Technologies, Inc. Passive optical mouse using image sensor with optional dual mode capability
EP1429235B1 (de) 2002-12-10 2010-08-25 OPDI Technologies ApS Eingabegerät für Bildschirmnavigation, unter anderem für Cursorkontrolle an einem Computerbildschirm
KR100465969B1 (ko) 2003-04-11 2005-01-13 (주)모비솔 손가락 표면을 이용한 소형 포인팅 장치
US7164782B2 (en) * 2003-04-18 2007-01-16 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. System and method for time-space multiplexing in finger-imaging applications
US7274808B2 (en) * 2003-04-18 2007-09-25 Avago Technologies Ecbu Ip (Singapore)Pte Ltd Imaging system and apparatus for combining finger recognition and finger navigation
CN1570814A (zh) * 2003-07-26 2005-01-26 于尚民 带透镜的红外式免触摸输入装置及应用该装置的设备
US7298367B2 (en) * 2003-11-25 2007-11-20 3M Innovative Properties Company Light emitting stylus and user input device using same
US20060158424A1 (en) * 2005-01-19 2006-07-20 Tong Xie Optical slide pad

Also Published As

Publication number Publication date
KR20060101859A (ko) 2006-09-26
US20060208170A1 (en) 2006-09-21
GB2424514A (en) 2006-09-27
US7244925B2 (en) 2007-07-17
TWI387902B (zh) 2013-03-01
GB2424514B (en) 2010-06-02
JP2012181880A (ja) 2012-09-20
CN1838049B (zh) 2012-05-02
JP2006268852A (ja) 2006-10-05
CN1838049A (zh) 2006-09-27
GB0604134D0 (en) 2006-04-12
TW200634602A (en) 2006-10-01

Similar Documents

Publication Publication Date Title
DE102005056658A1 (de) Kompakte optische Navigationsvorrichtung mit flachem Profil
DE10392670B4 (de) Miniatur-Kamerakopf
DE102006041815A1 (de) Positionsdetektionssystem unter Verwendung von Lasergranulation
DE69926645T2 (de) Gerät zur optischen fingerabdruckeingabe
DE112013006158B4 (de) Lichtleiter, Lichtquellenvorrichtung und Bildleseeinrichtung
DE102006004802B4 (de) Bilderfassungssystem und Verfahren zur Herstellung mindestens eines Bilderfassungssystems
DE69733124T2 (de) Vorrichtung und verfahren zur messung der flächenkontur
DE102009005092A1 (de) Vorrichtung zur optischen Navigation und dessen Verwendung
DE112005001311T5 (de) Methoden zum Herstellen eines Wellenleiters mit einer dreidimensionalen Linse
DE112005001310T5 (de) Wellenleiter mit einer dreidimensionalen Linse
DE112005001547T5 (de) Vorrichtung und Verfahren für einen gefalteten Wellenleiter für ein optisches Element zur Verwendung mit lichtbasierten Touchscreens
DE102008035150A1 (de) Stereokamerasystem
DE60015966T2 (de) Messung der lagen oder koplanarität von kontaktelementen eines elektronischen bauteils mit flacher beleuchtung und zwei kameras
DE102010038186A1 (de) Optoelektronischer Sensor mit Linienanordnung von Einzelemittern
DE102016222047A1 (de) Beleuchtungseinheit für ein Mikrospektrometer, Mikrospektrometer und mobiles Endgerät
DE102015122627A1 (de) Optoelektronische Anordnung und Tiefenerfassungssystem
DE112014000937T5 (de) Lichtführung und Bildlesevorrichtung
DE60202770T2 (de) Vorrichtung zur detektion der verschiebung einer oberfläche eines objektes
DE102017204073A1 (de) Tof-kamera, kraftfahrzeug, verfahren zum herstellen einer tof-kamera und verfahren zum ermitteln eines abstands zu einem objekt
EP0045915B1 (de) Fingerabdrucksensor zum Erzeugen eines dem topografischen Relief eines zu untersuchenden Fingers entsprechenden Ausgangssignals
DE10222685C1 (de) Einrichtung und Verfahren zum Abtasten einer Vorlage
DE112017002649T5 (de) Anordnung zum und verfahren zum bestimmen eines zielabstandes und anpassen von leseparametern eines bildgebungslesegerätes basierend auf einem zielabstand
EP0045913A1 (de) Fingerabdrucksensor zum Erzeugen eines dem topografischen Relief eines zu untersuchenden Fingers entsprechenden elektrischen Signals
DE112015004195B4 (de) Optoelektronisches bauelement
DE10258283B4 (de) Tasteinrichtung zur Werkstückvermessung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8128 New person/name/address of the agent

Representative=s name: DILG HAEUSLER SCHINDELMANN PATENTANWALTSGESELLSCHA

R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: AVAGO TECHNOLOGIES GENERAL IP (SINGAPORE) PTE., SG

Free format text: FORMER OWNER: AVAGO TECHNOLOGIES ECBU IP (SINGAPORE) PTE. LTD., SINGAPORE, SG

Effective date: 20130606

R082 Change of representative

Representative=s name: DILG HAEUSLER SCHINDELMANN PATENTANWALTSGESELL, DE

Effective date: 20130606

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final
R003 Refusal decision now final

Effective date: 20140919