DE4410078B4 - Optische Positionserfassungseinheit und optische Koordinateneingabeeinheit - Google Patents

Optische Positionserfassungseinheit und optische Koordinateneingabeeinheit Download PDF

Info

Publication number
DE4410078B4
DE4410078B4 DE4410078A DE4410078A DE4410078B4 DE 4410078 B4 DE4410078 B4 DE 4410078B4 DE 4410078 A DE4410078 A DE 4410078A DE 4410078 A DE4410078 A DE 4410078A DE 4410078 B4 DE4410078 B4 DE 4410078B4
Authority
DE
Germany
Prior art keywords
light
pattern
optical
light receiving
light beam
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE4410078A
Other languages
English (en)
Other versions
DE4410078A1 (de
Inventor
Yasuji Ogawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wacom Co Ltd
Original Assignee
Wacom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wacom Co Ltd filed Critical Wacom Co Ltd
Publication of DE4410078A1 publication Critical patent/DE4410078A1/de
Application granted granted Critical
Publication of DE4410078B4 publication Critical patent/DE4410078B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D5/00Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable
    • G01D5/26Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light
    • G01D5/32Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light
    • G01D5/34Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light the beams of light being detected by photocells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/228Character recognition characterised by the type of writing of three-dimensional handwriting, e.g. writing in the air
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0331Finger worn pointing device

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Optische Positionserfassungseinheit umfassend:
eine ein Bildelementfeld enthaltende Lichtempfangseinrichtung zum Bilden eines Lichtempfangsgebietes und zum Ausgeben von Signalen bezüglich des von jeweiligen Bildelementen in dem Bildelementfeld erfaßten Lichtes;
ein vor dem Lichtempfangsgebiet der Lichtempfangseinrichtung angeordnetes Musterteil mit einem Muster, das solche Eigenschaften aufweißt, daß ein Teil des Musters von einem einfallenden Lichtstrahl so auf das Lichtempfangsgebiet projiziert wird, daß eine Abbildung dieses Teils des Musters die Einfallsrichtung des Lichtstrahls eindeutig bestimmt; und
eine Signalverarbeitungseinrichtung zum Extrahieren von Informationen bezüglich der Einfallsrichtung des Lichtstrahls auf Grundlage der von den jeweiligen Bildelementen in dem Bildelementfeld ausgegebenen Signale, dadurch gekennzeichnet, daß das Muster eine M-Sequenz-Charakteristik aufweist und das Muster eine eindimensionale Zeilenform aufweist, die sich in einer Richtung senkrecht zur Ausrichtungsanordnung des Bildelementfeldes erstreckt; und die Einheit ferner aufweist zumindest eine konvergierende Einrichtung für eine unidirektionale Beschränkung, die an einer willkürlichen Stelle auf einem Durchgangsweg des Lichtstrahls angeordnet ist und zum...

Description

  • Diese Erfindung betrifft eine optische Positionserfassungseinheit nach dem Oberbegriff des Patentanspruchs 1 und eine mit derartigen Positionserfassungseinheiten ausgestattete optische Koordinateneingabeeinheit.
  • Bislang sind PSDs (PositionsSensitive LichtDetektoren) als Einheit zum Erfassen einer Position, einer Richtung usw. bekannt. Der PSD ist ein Lichtsensor, mit dem die Position eines auf eine lichtempfangende Oberfläche eingestrahlten Lichtfleckes als eine Position auf der lichtempfangenden Oberfläche erfaßt werden kann. Bei Verwendung des PSD in Kombination mit einer Punktlichtquelle kann hergestellt werden eine Positionserfassungseinheit zum Erfassen der Position, an der sich die Punktlichtquelle befindet, eine Richtungserfassungseinheit zum Erfassen der Einfallsrichtung des Lichtes von der Punktlichtquelle, eine Entfernungsmeßeinheit zum Messen der Entfernung zwischen der Punktlichtquelle und einem Gehäuse des Detektors u. s. w., wie beispielsweise in "Production of Distance Detector using PSD", August 1990-Ausgabe von "Transistor Technique" offenbart.
  • Die JP-A-5-19954 ist eine Quelle aus dem Stand der Technik, in der eine Einheit zum Erlangen von Positionsinformation auf optischem Weg offenbart ist. In der Einheit wird während ein bewegbarer Körper mit einem Licht emittierenden Element auf einer Operationstafel mit einer darauf festgelegten X-Y-Koordinatenebene bewegt wird Licht von dem lichtemittierenden Element des bewegbaren Körpers mit Hilfe von optischen Linsen auf einen im Zentrum einer X-Richtungsseite der Operationstafel angeordneten X-Licht-Empfangsbereich und einen im Zentrum einer Y-Richtungsseite der Operationstafel angeordneten Y-Licht-Empfangsbereich konvergiert, um dadurch auf den jeweiligen Lichtempfangsbereichen Abbildungen zu formen, so daß der X-Koordinatenwert und der Y-Koordinatenwert der von dem bewegbaren Körper bezeichneten Position unter Verwendung von Information über Abbildungsformationspositionen in den jeweiligen Lichtempfangsbereichen erhalten werden. Demgemäß weist die Einheit einen Aufbau zum Erhalt von Positionsinformation unter Verwendung des Abgebens und Empfangens von Licht auf.
  • Zum Erfassen der Position o. dgl. der Punktlichtquelle unter Verwendung des PSD muß Licht von der Punktlichtquelle in einen Lichtfleck umgewandelt werden, bevor das Licht zum Erfassen auf die lichtempfangenden Oberflächen eingestrahlt wird. Zum Bilden des Lichtfleckes ist der Einsatz einer optischen Linse notwendig, mit der Licht zur Formung der Abbildung der Punktlichtquelle konvergiert wird. Weil die Positionserfassungsgenauigkeit des PSD vermindert wird, sobald die Größe oder der Durchmesser des auf die lichtempfangenden Oberflächen eingestrahlten Lichtfleckes sich erhöht, wird eine optische Hochpräzisionslinse benötigt, mit der ein Lichtfleck mit einer gewünschten Größe gebildet werden kann. Zur Durchführung einer Positionserfassung mit einer hohen Genauigkeit ist andererseits die Entfernung zwischen dem Gehäuse des Detektors mit der lichtempfangenden Oberfläche und der Punktlichtquelle dahingehend eingeschränkt, daß sie innerhalb eines Fokussierbereiches liegen muß, der die Bildung des Lichtfleckes mit der gewünschten Größe erlaubt. Wie vorstehend beschrieben benötigt der bei einer herkömmlichen Positionserfassungseinheit verwendete PSD eine optische Linse mit herausragenden Konvergierungseigenschaften, so daß die Entfernung von der zum Erfassen vorgesehenen lichtempfangenden Oberfläche zur Punktlichtquelle begrenzt ist. Folglich ist der PSD nicht nur unter wirtschaftlichen Gesichtspunkten nachteilhaft, sondern er ist auch bezüglich seiner Einsatzbedingungen äußerst eingeschränkt.
  • Bei einer Positionserfassung unter Anwendung des PSD wird die Einfallsposition des Lichtflecks auf der lichtempfangenden Oberfläche erhalten auf der Grundlage von vorher festgelegten, arithmetischen Operationsgleichungen und zwei quotientenmäßig von zwei Stromanschlüssen, die beispielsweise jeweils an gegenüberliegenden Enden der lichtempfangenden Oberfläche angeordnet sind, abgenommenen Stromwerten. Die Beziehung zwischen den Größen der beiden quotientenmäßig abgenommenen Stromwerte enthält Information bezüglich der Einfallsposition des Lichtflecks. Weil die beiden durch eine Division erhaltenen Stromwerte als Werte abgenommen werden, die proportional zu Widerstandswerten von Halbleitergebieten sind, die Stromwege bilden, ist es notwendig, daß die Widerstandswerte in den Halbleitergebieten der Stromwege einförmig verteilt sind, um zwei aufgespaltene Stromwerte zu erhalten, die der Einfallsposition genau entsprechen. Aufgrund von Einschränkungen bei der Produktionstechnik ist es jedoch für gewöhnlich schwierig, eine derartige einförmige Verteilung von Widerstandswerten zu erhalten. Bei dem herkömmlichen PSD sind daher im allgemeinen Fehler innerhalb von plus minus 1 Prozent oder so bei der Linearität der Positionserfassung unvermeidbar. Diese Fehler sind beispielsweise in dem Fall akzeptabel, in dem der PSD zum Selbstfokussieren einer Kamera verwendet wird. Jedoch ist eine Korrektur von Erfassungssignalen des PSD in solchen Fällen notwendig, in denen eine höhere Genauigkeit bei der Positionserfassung gefordert wird. Weil alle hergestellten PSDs dieser Korrektur unterzogen werden müssen, ist die Korrektur aller PSDs sehr mühsam.
  • Wie vorstehend erwähnt, wird eine Positionserfassung unter Verwendung des PSD auf der Grundlage von zwei aufgespaltenen, von zwei Stromanschlüssen abgenommenen Stromwerten und den vorher festgelegten, arythmetischen Operationsgleichungen durchgeführt. Demgemäß sind die Werte der von den Stromanschlüssen abgenommenen Erfassungssignalen Analogwerte und wenn beispielsweise eine digitale Verarbeitung für die vorher festgelegte, arithmetische, eine Divion enthaltende Operation mit Hilfe eines Computers unter Verwendung dieser analogen Werte ausgeführt wird, besteht ein Nachteil darin, daß gemäß der Genauigkeit teure Analog-Digital(A/P)-Wandler benötigt werden.
  • Auch bei der in der vorgenannten Quelle ( JP-A-5-19954 ) offenbarten optischen Koordinateninformationsausgabeeinheit ist es notwendig, daß Licht von dem lichtemittierenden Element auf die Lichtempfangsbereiche einer Lichtempfangseinrichtung unter Verwendung von optischen Linsen konvergiert wird, um Lichtfleckabbildungen auf den Lichtempfangsbereichen zu formen, um dadurch eine Information bezüglich der von dem bewegbaren Körper bezeichneten Position zu erhalten. Wie im Fall des PSD gibt es demgemäß auch in diesem Fall einen Nachteil, der darin besteht, daß optische Linsen mit herausragenden Konvergierungseigenschaften unter dem Gesichtspunkt einer erfaßbaren Positionsgenauigkeit benötigt werden.
  • Optische Positionserfassungseinheiten nach dem Oberbegriff des Patentanspruchs 1 sind in der DE 35 11 330 A1 , der US 4,550,250 der US 4,999,483 und der US 4,794,245 beschrieben. Vergleichbare Vorrichtungen sind in der US 3,602,903 , DE 39 39 353 A1 , der GB 2 215 159 A , der GB 2 002 986 A und der JP 03158705 A beschrieben.
  • Eine Hauptaufgabe dieser Erfindung besteht daher in der Schaffung einer optischen Positionserfassungseinheit mit einem sehr breiten Anwendungsgebiet, in der eine Abbildungsformung unter Verwendung von optischen Linsen nicht erforderlich ist, so daß nicht nur die Entfernung zwischen der Erfassungseinheit und einer Lichtquelle in einem weiten Bereich gewählt werden kann, sondern auch die Position der Lichtquelle, die Einfallsrichtung von Licht o. dgl. ohne Rücksicht auf den weiten Bereich mit einer hohen Genauigkeit erfaßt werden kann und darüber hinaus auch Linearitätsfehler vermindert werden können.
  • Eine weitere Aufgabe dieser Erfindung besteht in der Schaffung einer optischen Koordinateneingabeeinheit unter Verwendung der vorgenannten optischen Positionserfassungseinheit, die eine herausragende Erfassungsgenauigkeit aufweist, ohne Anschlußkabel arbeitet, eine herausragende Wirtschaftlichkeit aufweist, und sowohl bezüglich der Handhabungseigenschaften als auch der Anwendbarkeit verbessert ist.
  • Die vorgenannten, dieser Erfindung zugrundeliegenden Aufgaben werden mit der im kennzeichnenden Teil des Patentanspruchs 1 angegebenen Weiterbildung der bekannten optischen Positionserfassungseinheit gelöst. Vorteilhafte Weiterbildungen der Erfindung sind in den abhängigen Patentansprüchen angegeben.
  • Die Konvergierungseinrichtung für eine unidirektionale Beschränkung wird von einer Zylinderlinse gebildet.
  • Die vorgenannten Aufgaben dieser Erfindung werden ebenfalls von einer optischen Koordinateneingabeeinheit gemäß Patentanspruch 8 gelöst.
  • 1 ist ein eine erste Ausführungsform einer erfindungsgemäßen optischen Positionserfassungseinheit zeigendes Blockdiagramm, welches einen Grundaufbau für eine eindimensionale (lineare) Positionserfassung zeigt;
  • 2 ist ein die Beziehungen zwischen Positionen von Aufbauelementen und dem Projektionsort eines Schattens darstellendes Diagramm und dient zum Erläutern der Theorie der Positionserfassung;
  • 3 ist ein den inneren Aufbau einer Signalverarbeitungseinrichtung darstellendes Blockddiagramm;
  • 4 ist eine einen Signalstärkeverteilungszustand in einer Bildelementmatrix in einem zeilenförmigen Bildsensor in Form einer ladungsgekoppelten Vorrichtung (CCD) zeigende, graphische Darstellung;
  • 5 ist ein Flußdiagramm zum Erläutern eines Positionsberechnungsverarbeitungsprogramms;
  • 6 ist eine einen weiteren Aufbau des Musterteils darstellende, perspektivische Ansicht;
  • 7 ist ein eine zweite Ausführungsform der erfindungsgemäßen optischen Positionserfassungseinheit für eine eindimensionale (lineare) Positionserfassung darstellendes Blockdiagramm;
  • 8 ist eine ein Beispiel eines Musters mit einer M-Sequenz-Charakteristik darstellende Ansicht;
  • 9 ist ein Diagramm zum Erläutern der Theorie der Positionserfassung;
  • 10A und 10B sind Flußdiagramme zum Erläutern eines Positionsberechnungsverarbeitungsprogramms;
  • 11 ist eine von oben betrachtete perspektivische Ansicht einer ersten Ausführungsform einer erfindungsgemäßen optischen Koordinateneingabeeinheit;
  • 12 ist ein eine Schaltstruktur eines wichtigen Teils der Koordinatenerfassungseinheit darstellendes Blockdiagramm;
  • 13 ist ein eine Schaltstruktur des Positionsanzeigers darstellendes Blockdiagramm;
  • 14 ist ein Diagramm zum Erläutern einer Dreiecksbestimmungsrechnung zum Erhalt von X-Koordinatenwerten und Y-Koordinatenwerten und
  • 15 ist eine eine zweite Ausführungsform der erfindungsgemäßen optischen Koordinateneingabeeinheit darstellende perspektivische Ansicht.
  • Ausführungsformen dieser Erfindung werden nachstehend unter Bezugnahme auf die begleitende Zeichnung beschrieben.
  • Die 1 bis 5 sind Ansichten zum Erläutern einer grundlegenden (ersten) Ausführungsform einer erfindungsgemäßen optischen Positionserfassungseinheit.
  • In den 1 und 2 bezeichnet das Bezugszeichen 1 eine Lichtquelle, beispielsweise eine Lichtquelle in Form eines Punktes, und 2 einen eine Lichtempfangseinrichtung bildenden, zeilenförmigen CCD-Bildsensor. Als Lichtquelle 1 wird beispielsweise eine kleindimensionierte elektrische Röhre oder irgendeine aus den verschiedenen Arten lichtemittierender Dioden(LED)-Lampen verwendet. Die Lichtquelle 1 kann einen lichtemittierenden Bereich enthalten, der selbst Licht erzeugt und emittiert, aber auch einen lichtemittierenden Bereich, der über ein Lichtübertragungsmedium Licht von einer anderen Lichtquelle empfängt und Licht emittiert, und schließlich auch einen lichtemittierenden Bereich, der darauf von außen eingestrahltes Licht reflektiert. Der zeilenförmige CCD-Bildsensor 2 weist ein von einer Anzahl von CCD-Bildelementen, beispielsweise 2048 CCD-Bildelementen (nachstehend "Pixel" genannt) gebildetes Pixelfeld 3 auf, welches in einem zentralen Bereich davon, lateral in Form einer Zeile angeordnet ist. Die Pixel in der Lichtempfangseinrichtung werden im allgemeinen von Elementen mit fotoelektrischen Übertragungseigenschaften gebildet. Beispielsweise ist ein "Toshiba TCD133D" als zeilenförmiger CCD-Bildsensor erhältlich. In dem zeilenförmigen CCD-Bildsensor 2 bildet das lineare Pixelfeld 3 einen zeilenförmigen Lichtempfangsbereich. Die Anzahl von Pixeln in dem zeilenförmigen CCD-Bildsensor 2 kann gemäß der Zielsetzung willkürlich gewählt werden, aber das Feld wird vorzugsweise von N (N ist eine natürliche Zahl) Pixeln gebildet, so daß die Auflösung bezüglich des Erfassungsbereichs auf das 1/N-fache erhöht wird. Von jeweiligen Pixeln 3a erfasste Pixelsignale werden von dem zeilenförmigen CCD-Bildsensor 2 ausgegeben. Die Lichtquelle 1 weist auf das zeilenförmige Pixelfeld 3 des zeilenförmigen CCD-Bildsensors 2. Ein Musterteil 4 ist zwi schen der Lichtquelle 1 und dem zeilenförmigen CCD-Bildsensor 2 angeordnet. Das Musterteil 4 wird beispielsweise von einem durchsichtigen Film oder einer durchsichtigen Kunststoffplatte gebildet und weist darüber hinaus einen in seinem Zentrum vorgesehenen linearen Lichtabschirmbereich 4a auf. Der lineare Lichtabschirmbereich 4a bildet ein Muster. Der Schatten 5 des Lichtabschirmbereichs 4a, d. h. der Schatten des Musters, wird auf Grundlage des Musterteils 4 und eines von der Lichtquelle 1 emittierten Lichtstrahls 13 auf eine Lichtempfangsoberfläche des zeilenförmigen CCD-Bildsensors 2 projiziert. Der lineare Schatten wird vorzugsweise so projiziert, daß er senkrecht auf dem zeilenförmigen Pixelfeld 3 steht. Demnach gleicht die Richtung, in der der lineare Lichtabschirmbereich 4a eingezeichnet ist, einer senkrecht auf die Ausrichtungsanordnung des Pixelfelds 3 stehenden Richtung. Das Bezugszeichen 6 bezeichnet eine Elektrizitätsquelle zum Anlegen von Lichtemissionsleistung an die Lichtquelle 1. Im allgemeinen wird eine Batterie als Elektrizitätsquelle verwendet.
  • Die punktartige Lichtquelle 1 ist so gebildet, daß sie sich in der dargestellten Richtung (links/rechts-Richtung in 1) innerhalb eines festgelegten Segmentes 7 bewegen kann. Obwohl nicht dargestellt, kann eine beliebige, herkömmlicherweise bekannte Einheit als Antriebseinheit zum Bewegen der Lichtquelle 1 verwendet werden. Das Musterteil 4 und der zeilenförmige CCD-Bildsensor 2 sind so befestigt, daß die Entfernung dazwischen konstant gehalten wird. In Übereinstimmung mit der Bewegung der Lichtquelle 1 in dem Segment 7 bewegt sich der Schatten 5 in dem Lichtempfangsbereich des zeilenförmigen CCD-Bildsensors 2.
  • In 2 gezeigte Entfernungen L1 und L2 sind in Übereinstimmung mit der Zielsetzung willkürlich gewählt. Durch geeignete Wahl dieser Entfernungen kann ein Bewegungserfassungsbereich der Lichtquelle 1 festgelegt werden. Nach dieser Festlegung werden die eingestellten Entfernungen L1 und L2 konstant gehalten.
  • Bei dem in 1 dargestellten Aufbau ermöglichen der zeilenförmige CCD-Bildsensor 2 und das Musterteil 4 den Erhalt von Informationen bezüglich der Position der Lichtquelle 1 auf der Grundlage der Position einer Projektion des Schattens 5, so daß die Position der Lichtquelle 1 im Segment 7 über eine festgelegte Signalverarbeitung ('die nachstehend beschrieben wird') in einem Signalprozessor 8 erfaßt werden kann. Andererseits kann die optische Positionserfassungseinheit die Position der Lichtquelle 1 in Abhängigkeit von der Einfallsrichtung des Lichtstrahls 13 von der Lichtquelle 1 erfassen, so daß die Einheit als Erfassungseinheit für eine Lichteinfallsrichtung betrachtet werden kann. Wenn das Segment 7 der Bewegung der Lichtquelle 1 nicht speziell eingestellt ist, hängt die Position einer Projektion des Schattens 5 nur von der Einfallsrichtung des Lichtstrahls 13 ab. Der Einfachheit halber wird eine Kombination des zeilenförmigen CCD-Bildsensors 2 ('der im allgemeinen die Lichtempfangseinrichtung bildet') und des Musterteils 4 nun mit "Lichteinfallsrichtungserfassungsbereich 28'' bezeichnet.
  • Ausgabesignale von jeweiligen Pixeln 3a in dem zeilenförmigen CCD-Bildsensor 2 werden gemäß einer Leseverarbeitung des Signalprozessors 8 an den Signalprozessor 8 geliefert. Wie in 3 dargestellt, ist der Signalprozessor 8 beispielsweise aus einem 8-Bit-A/D-Wandler 9, einem Mikrocomputer 10 und einer seriellen Schnittstelle 11 gebildet. Der A/D-Wandler 9 wandelt ein von dem zeilenförmigen CCD-Bildsensor 2 abgegebenes, analoges Signal in ein digitales Signal um. Ein in dem in 5 dargestellten Flußdiagramm dargestelltes Programm wird von dem Mikrocomputer 10 ausgeführt, so daß die Position einer Projektion des Schattens auf dem Pixelfeld 3 erhalten wird, das bedeutet, die Position der Lichtquelle 1 wird erhalten. Von dem Mikrocomputer 10 erhaltene Daten bezüglich der Position der Lichtquelle 1 werden über die serielle Schnittstelle 11 einer RS232C Ausgabeverbindung zugeführt.
  • Bezugnehmend auf die 4 und 5 wird ein Programm zum Erhalt der Position der Lichtquelle 1 nachstehend detailliert beschrieben. In 4 bezeichnet die Abszisse eine Pixelposition und die Ordinate bezeichnet eine Signalstärke. In 4 ist die Signalstärke bezüglich der Projektionsstelle des Schattens 5 auf dem zeilenförmigen CCD-Bildsensor 2 dargestellt, insbesondere bezüglich Pixeln mit den Pixelnummern i bis i + 14. Wie aus 4 ersichtlich, werden Signalstärken von am Ort der Projektion des Schattens 5 angeordneten Pixeln klein, während Signalstärken von an anderen Stellen angeordneten Pixeln vergleichsweise groß werden. Unter der Annahme daß die Signalstärken ideale Werte aufweisen, sind die Signalstärken von an Stellen, auf denen der Schatten nicht projiziert ist, angeordneten Pixeln als ein konstanter Wert dargestellt.
  • Wie in 5 dargestellt, liest der Mikrocomputer 10 Ausgabesignale von jeweiligen, zeilenförmig angeordneten Pixeln und speichert die Signale jeweils in einem Pufferspeicher (als Pixeldata BUF[i: i = 0 bis 2047]; Schritt 1). Als erstes werden die 2048 Pixeldaten BUF[i] in Richtung von 0 bis 2047 (definiert als die Richtung von links nach rechts in dem zeilenförmigen Pixelfeld) untersucht, um ihr Minimum aufzufinden, so daß das zum Minimum entsprechende i als "LMIN" ausgedrückt wird. Dann werden die 2048 Pixeldaten in umgekehrter Richtung von 2047 bis 0 (definiert als die Richtung von rechts nach links in dem zeilenförmigen Pixelfeld) untersucht, um ihr Minimum aufzufinden, so daß das dem Minimum entsprechende i als "RMIN" ausgerückt wird (Schritt S2).
  • Im nächsten Schritt S3 wird ΣBUF[i: =LMIN – 50 bis LMIN – 20] berechnet und durch 30 dividiert, um einen Mittelwert in einer linken Hälfte eines festgelegten Bereichs zu erhalten. Dann wird ΣBUF[i: i = RMIN + 20 bis RMIN + 50] berechnet und durch 30 dividiert, um einen Mittelwert in einer rechten Hälfte eines festgelegten Bereichs zu erhalten. Schließlich werden die beiden so erhaltenen Mittelwerte gemittelt, so daß der resultierende Mittelwert als VM ausgedrückt wird. Der Schritt S2 zeigt eine Vorverarbeitung zum Auffinden der Signalstärke eines Pixels, der als Ergebnis einer Projektion des Schattens die am stärksten verminderte Signalstärke aufweist. In der Vorverarbeitung wird ein Pixel mit der geringsten Signalstärke nicht auf einfache Weise gewählt, das bedeutet Gebiete von Plateaubereichen, die bezüglich den Positionen "LMIN" und "RMIN", an denen die minimale Signalstärke angegeben wird, symmetrisch angeordnet sind, werden auf geeignete Weise so gewählt, daß die Mittelwerte jeweils in den ausgewählten Gebieten erhalten werden und dann werden diese Mittelwerte weiter gemittelt. Unter Verwendung des resultierenden Mittelwerts wird die Position eines Pixels, der einer Signalstärke entspricht, welche als minimale Signalstärke betrachtet wird, in dem folgenden Schritt S4 erhalten.
  • Im Schritt S4 wird die Position eines der minimalen Signalstärke entsprechenden Pixels unter Verwendung des im Schritt S3 erhaltenen Mittelwertes VM erhalten. Bezüglich der Berechnung der Position dieses Pixels enthält das Programm in dieser Ausführungsform eine Interpolation zum Erhöhen der Genauigkeit auf das Zehnfache. Bei der arithmetischen Operation auf der linken Seite der im Schritt S4 dargestellten Gleichung wird nach Berechnung des Feldes des in 4 dargestellten abgeschatteten Bereichs das Halbfeld SQ1 davon berechnet. Aus der Beziehung zwischen der linken Seite und der rechten Seite der Gleichung kann eine Position, an der das Ergebnis der Gleichung dem Feld SQ1 gleicht als x1 erhalten werden. Die Position x1 liegt so, daß in 4 eine dieser Position x1 entsprechende strichpunktierte Linie 12 eine Halbierende bildet, durch die die Fläche des abgeschatteten Gebiets in zwei gleiche Teile unterteilt wird. Demnach ist die Position x1 die genaue Position der Lichtquelle 1, die auf Grundlage der Interpolation in den festgelegten eindimensionalen Koordinatenachsen erhalten wird. Wie in 4 dargestellt, wird jedoch die konstante Signalstärke von an Stellen, auf die der Schatten 5 nicht projiziert ist, angeordneten Pixelgruppen als Mittelwert VM ausgedrückt, der auf Grundlage des durch den Schritt S3 dargestellten Verfahrens erhalten wird.
  • Wenn die Position des auf das Pixelfeld 3, welcher der Lichtempfangsbereich des zeilenförmigen CCD-Bildsensors 2 ist, projizierten Schattens 5 über die Wirkung des von der Punktlichtquelle 1 emittierten Lichtstrahls 13 und des Lichtabschirmbereichs 4a des Musterteils 4 erhalten wird, auf der Grundlage der Ausgabesignale von jeweiligen Pixeln 3a und durch Anwenden einer geeigneten, arithmetischen Interpolationsoperation, wie vorstehend beschrieben, kann die Position der Punktlichtquelle in dem festgelegten Bereich (Segment 7) mit einer sehr hohen Auflösung erhalten werden. Wenn die Punktlichtquelle 1 beispielsweise so gebildet ist, daß sie auf einem sich bewegenden Gegenstand angebracht ist, kann demnach die Position des Gegenstandes optisch erfaßt werden.
  • Die vorgenannte Ausführungsform kann wie folgt geändert werden. Obwohl die Ausführungsform den Fall dargestellt hat, in dem das Musterteil von einem transparenten Film mit einem Lichtabschirmbereich gebildet ist, kann die Erfindung auch für den Fall angewendet werden, in dem eine Lichtabschirmplatte 15 mit einem wie in 6 dargestellt geformten Schlitz 14 als Musterteil verwendet wird. In diesem Fall wird die Position auf Grundlage einer beleuchteten Stelle erhalten, weil es keine Stelle einer Projektion eines Schattens auf dem zeilenförmigen CCD-Bildsensor 2 gibt. Die Form des Lichtabschirmbereichs 4a ist nicht auf die lineare Form beschränkt. Jede geeignete Form kann als Form des Lichtabschirmbereichs 4a gewählt werden. Auf ähnliche Weise ist die Form der Lichtquelle 1 nicht auf die Punktform eingeschränkt. Beispielsweise kann eine parallel zum Lichtabschirmbereich 4a ausgerichtete lineare Lichtquelle benutzt werden.
  • Weil die Position der Lichtquelle 1 auf Grundlage der Änderung der Position einer Projektion des Schattens auf dem Pixelfeld 3 genau erfaßt werden kann, welches den Lichtempfangsbereich des linearen CCD-Bildsensors 2 bildet, kann ein umgekehrter Aufbau, bei dem die Lichtquelle 1 festgelegt ist und bei dem der Lichteinfallsrichtungserfassungsbereich 28 bewegbar gebildet ist, gebildet werden, so daß die Position des Lichteinfallsrichtungserfassungsbereichs 28 erfaßt wird.
  • Bezugnehmend auf die 7 bis 10B wird nachstehend eine weitere Ausführungsform (zweite Ausführungsform) der erfindungsgemäßen optischen Positionserfassungseinheit beschrieben. Diese Ausführungsform hat zum Ziel, die Anzahl von Pixeln zu vermindern, um dadurch den Aufbau der Lichtempfangseinrichtung zu vereinfachen. In den jeweiligen Zeichnungen werden denjenigen Teilen gleiche Bezugszeichen gegeben, die den Teilen gleichen, welche bezüglich der ersten Ausführungsform erläutert wurden.
  • In 7 wird eine punktartige Infrarot-LED als Lichtquelle 21 verwendet und ein Lichtbildsensor 22 mit einem zeilenförmigen Feld wird als Lichtempfangseinrichtung benutzt. Der Lichtbildsensor 22 mit einem zeilenförmigen Feld besitzt beispielsweise 64 Zellen (im wesentlichen entsprechend den vorgenannten Pixeln), die zeilenförmig angeordnet sind. Beispielsweise ist ein von Texas Instruments Inc. hergestellter TSL214 als Lichtbildsensor 22 mit zeilenförmigem Feld erhältlich. Ein infrarotdurchlässiger Filter 23 ist vor dem Lichtempfangsbereich des Lichtbildsensors 22 mit zeilenförmigem Feld angeordnet. Die Infrarot-LED 21 und der infrarotdurchlässige Filter 23 werden zum Entfernen von Störlicht benutzt.
  • Ein Musterteil 24 ist zwischen der Lichtquelle 21 und dem Lichtbildsensor 22 mit zeilenförmigem Feld angeordnet. Das Musterteil 24 ist gebildet durch Aufzeichnen eines Kodierinformation enthaltenden Musters, in dem ein willkürlicher Teil der Kodierinformation zufällige Eigenschaften aufweist, als Lichtabschirmbereich in einem durchsichtigen Teil, und vorzugsweise durch Aufzeichnen eines M-Sequenz(Sequenz maximaler Länge)-Musters als Lichtabschirmbereich. 8 stellt eine vergrößerte Ansicht des M-Sequenzmusters dar. Das M-Sequenzmuster wird gebildet durch Kombinieren einer Mehrzahl von dicken Linien 26 mit einer Mehrzahl von dünnen Linien 27. Die Entfernungen zwischen den jeweiligen Zentren der dicken und dünnen Linien sind konstant. Die Anzahl von Musterlinien beträgt beispielsweise 128. Wenn die dicken Linien und die dünnen Linien als 1 bzw. als 0 kodiert sind, sind die resultierenden Kodierungen in einer M-Sequenz angeordnet, die 1 im allgemeinen in einem Rastersynchronisiersignal für Datenübertragung benutzt wird. Als Beispiel einer M-Sequenz kann eine M-Sequenz mit einer Periode von (000100110101111) dargestellt werden. Die M-Sequenz zeichnet sich dadurch aus, daß alle fortlaufenden N-Bit-Kombinationen unterschiedlich sind. Beispielsweise im Fall von 4-Bit-Kombinationen können 24 – l = 15 Arten unterschiedlicher Kodierungen als fortlaufende 4-Bitkodierungen erhalten werden. Wenn die M-Sequenz-Periode 2k – 1 (k ist eine natürliche Zahl) beträgt, kann das Pixelfeld des Lichtbildsensors 22 mit einem zeilenförmigen Feld im allgemeinen von etwa k Pixeln gebildet werden.
  • Alternativ kann das Musterteil von einem nicht durchsichtigen Teil gebildet werden und kann zur Bildung des Musters mit einem lichtdurchlässigen Bereich, wie etwa einem Schlitz oder einem Loch versehen werden.
  • Eine Zylinderlinse 25 ist zwischen dem Musterteil 24 und der Lichtquelle 21 angeordnet. Die Zylinderlinse 25 ist zum Erhöhen der Intensität des Lichtes von der Lichtquelle 21 vorgesehen, um dadurch die Nachweisempfindlichkeit des Lichtbildsensors 22 mit zeilenförmigem Feld zu erhöhen. Die Zylinderlinse 25 konvergiert Licht in länglicher Form ohne das Licht in Querrichtung (in der Längsrichtung davon) zu konvergieren, um dadurch das Licht von der Lichtquelle 21 intensiver zu machen. Das bedeutet, die Zylinderlinse 25 ist eine unidirektional beschränkende Konvergierungseinrichtung. Der Hardwareaufbau des Signalprozessors 8 gleicht im wesentlichen dem in 3 dargestellten Aufbau. Im Signalprozessor 8 wird ein in den 10A und 10B dargestelltes Programm ausgeführt, um die Position der Lichtquelle 21 zu erhalten.
  • Durch Verwendung der Zylinderlinse, wie vorstehend beschrieben, kann für eine schwaches Licht emittierende Punktlichtquelle eine wirksame Positionserfassung durchgeführt werden. Bezugnehmend auf 9 wird die Theorie einer Positionserfassung in der optischen Positionserfassungseinheit der zweiten Ausführungsform beschrieben. Bei der optischen Positionserfassungseinheit dieser Ausführungsform kann die Anzahl von in der Lichtempfangseinrichtung benutzten Pixeln im hohen Maß vermindert werden unter Verwendung des Musterteils 24, in dem ein spezielles Lichtabschirmmuster (vorzugsweise die M-Sequenz) aufgezeichnet ist. Das bedeutet, die Position der sich im Segment 7 bewegenden Lichtquelle 21 kann selbst in dem Fall mit hoher Auflösung erfaßt werden, in dem der Lichtbildsensor 22 mit zeilenförmigem Feld eine geringe Anzahl von Pixeln aufweist, beispielsweise 64 Zellen verwendet werden. Der Grund, warum eine derartige Erfassung ausgeführt werden kann, ist wie folgt.
  • Wie in 9 dargestellt, wird angenommen, daß A1 und A2 Positionen der Lichtquelle 21 im Segment 7 sind. Der auf das zeilenförmige Zellenfeld, welches der Lichtempfangsbereich des Lichtbildsensors 22 mit zeilenförmigem Feld ist, projizierte Schatten ist eine zu dem Bereich 24a des Musterteils 24 gehörige Musterabbildung, wenn die Lichtquelle 21 an der Position A1 angeordnet ist. Der Schatten ist eine zum Gebiet 24b des Musterteils 24 gehörige Musterabbildung, wenn die Lichtquelle 21 an der Position A2 angeordnet ist. Die zum Gebiet 24a gehörige Musterabbildung und die zum Gebiet 24b gehörige Musterabbildung sind recht unterschiedlich voneinander, weil, wie vorstehend beschrieben, das M-Sequenzmuster benutzt wird. Mit anderen Worten, wenn eine auf dem Lichtempfangsbereich des Lichtbildsensors 22 mit zeilenförmigem Feld projizierte Musterabbildung erfaßt und dekodiert wird, kann die Position der Lichtquelle 21 im Segment 7 eindeutig bestimmt werden. Wenn das Musterteil 24 mit dem M-Sequenzmuster verwendet wird, wie vorstehend beschrieben, kann die Position der Lichtquelle 21 unter Verwendung einer Lichtempfangseinrichtung mit einer vergleichsweise geringen Anzahl von Pixeln erfaßt werden.
  • Obwohl die vorstehende Beschreibung für den Fall vorgenommen wurde, in dem das M-Sequenzmuster als in dem Musterteil 24 aufgezeichnetes Muster verwendet wird, ist es selbstverständlich, daß das M-Sequenzmuster als ein Beispiel dargestellt wird, und daß irgendein geeignetes Muster verwendet werden kann, solange die als Schatten auf den Lichtempfangsbereich des Lichtbildsensors 22 mit zeilenförmigem Feld projizierte Abbildung eindeutig die Position der punktförmigen Lichtquelle bestimmen kann, welche den Anlaß für den Schatten gibt.
  • Der Einfachheit halber sind die Zylinderlinse 25 und der infrarotdurchlässige Filter 23 in 9 nicht dargestellt.
  • Bezugnehmend auf die 10A und 10b wird ein von dem Mikrocomputer 10 des Signalprozessors 8 ausgeführtes Positionserfassungspsrogramm beschrieben.
  • Im Schritt S11 werden jeweilige Ausgabesignale von 64 Zellen (Pixeln) gelesen und dann werden jeweilige Erfassungswerte mit Hilfe einer Glättungkurve interpoliert, um die Wertezahl auf das Zehnfache zu erhöhen. Weiterhin werden die resultierenden 640 Werte in den Pufferspeicher als Pixeldaten BUF[i: i = 0 bis 639] gespeichert. Dann wird der Mittelwert der 640 Erfassungswerte erhalten und daraus VM1 gebildet (Schritt S12). Die Beziehungen A[i] = 1 im Fall BUF[i] ≥ VM1 und A[i] = 0 im Fall BUF[i] < VM1 werden für alle Elemente von i = 0 bis 639 unter Verwendung des Mittelwertes angewendet, um dadurch A[i: i = 0 bis 639] zu erhalten (Schritt S13).
  • In Schritt S14 wird die erste Stelle, in der sich A[i] von 1 auf 0 ändert in Richtung von 0 bis 639 bezüglich i aufgefunden. Die Anzahl von von dieser Stelle fortlaufenden Nullen wird gezählt. Dann wird an der Stelle, an der 1 erscheint aus dem Zählwert B[j] gebildet und aus dem Wert i im Zentrum der fortlaufenden Nullen wird C[j] gebildet. Der Wert j wird, wie durch j = j + 1 dargestellt, von seinem Anfangswert 0 ausgehend erhöht und die vorstehend erwähnte Zähloperation wird wiederholt, bis i den Wert 639 erreicht.
  • Im Schritt S14 werden aus B[j] N Werte erhalten und aus der Anzahl von in B oder C gespeicherten Daten wird im nächsten Schritt S15 N (= j) gebildet. Ferner wird in Schritt S16 der Maximalwert aus den B[j] bezüglich aller Elemente von J = 0 bis N – 1 ausgewählt und daraus "BMAX" gebildet und der Minimalwert wird auf gleiche Weise ausgewählt und daraus "BMIN" gebildet. Dann werden bezüglich aller Werte B[j] die Werte D[j] = 1 und D[j] = 0 auf der Grundlage der im Schritt S16 dargestellten Ungleichungen bestimmt. D[j] = 1 repräsentiert ein einer dicken Linie in dem M-Sequenzmuster entsprechenden Schatten und D[j] = 0 repräsentiert ein Signal eines einer dünnen Linie in dem M-Sequenzmuster entsprechenden Schattens. Demnach repräsentiert der erhaltene Wert von D[j] eine M-Sequenz-Kodierung. Im Schritt S17 werden die dem Wert 319 nächstkommenden Werte aus den Werten C[j] aufgefunden. Aus einem kleineren Wert wird C[JL] gebildet und aus einem größeren Wert wird C[JR] gebildet.
  • In Schritt S18 wird D[j: j = JL – 3 bis JL + 3] was eine von der M-Sequenz kodierte Koordinatenkodierung ist, unter Verwendung einer Umwandlungstabelle in einen binären Wert umgewandelt, so daß der resultierende binäre Wert in XL gespeichert wird. Die Koordinatenkodierung von D[j: j = JR – 3 bis JR + 3] wird unter Verwendung einer Umwandlungstabelle auf die gleiche Weise, wie vorstehend beschrieben in einen binären Wert umgewandelt, so daß der resultierende binäre Wert in XR gespeichert wird (Schritt S19). In Schritt S20 werden interpolierte Koordinatenwerte X auf der Grundlage der Interpolationsgleichung berechnete. Die mit Hilfe der Interpolationsgleichung erhaltenen, interpolierten Koordinatenwerte X werden über die serielle Schnittstelle 11 ausgegeben (Schritt S21).
  • Bei Verwendung eines von einer M-Sequenzkodierung gebildeten Musters, wie vorstehend beschrieben, kann die Po sition der Lichtquelle 21 bei Benutzung einer Lichtempfangseinrichtung mit einer vergleichsweise geringen Anzahl von Pixeln (verglichen mit der vorhergehenden, grundlegenden Ausführungsform) mit hoher Genauigkeit optisch erfaßt werden.
  • Die vorhergehenden Ausführungsformen betreffen eine optische Positionserfassung für eine eindimensionale Positionserfassung. Ausführungsformen, mit denen eine zweidimensionale Positionserfassung unter Benutzung eines optischen Aufbaus, ähnlich zum vorhergehend beschriebenen optischen Aufbau ausgeführt werden kann, wird nachstehend beschrieben.
  • Bezugnehmend auf 11 bis 14 wird eine erste Ausführungsform einer unter Benutzung der vorgenannten optischen Positionserfassungseinheit gebildeten optischen Koordinateneingabeeinheit nachstehend beschrieben. Die bei dieser Ausführungsform benutzte optische Positionserfassungseinheit ist eine vorstehend unter Bezugnahme auf die erste oder zweite Ausführungsform erläuterte eindimensionale Positionserfassungseinheit. Zwei Lichteinfallsrichtungserfassungsbereiche 28, die jeweils in der Positionserfassungseinheit benutzt werden, werden bei dieser Ausführungsform verwendet.
  • In 11 umfaßt die optische Koordinateneingabeeinheit 41 einen Koordinatendetektor 42 und einen Positionsanzeiger 43. Der Koordinatendetektor 42 weist eine Eingabeoberfläche 44 zum Bewegen des Positionsanzeigers 43 vom Maustyp auf einer Operationstafel auf. Die Lichteinfallsrichtungserfassungsbereiche 28A und 28B sind in Eckbereichen an gegenüberliegenden Enden der Oberseite der Eingabeoberfläche 44 vorgesehen. Jeder der Lichteinfallsrichtungserfassungsbereiche 28A und 28B weist den gleichen Aufbau auf, wie der Lichteinfallsrichtungserfassungsbereich 28, welcher bezüglich der ersten oder zweiten Ausführungsform der eindimensionalen, optischen Positionserfassungseinheit erläutert wurde. Das Bezugszeichen 45 bezeichnet in den Lichteinfallsrichtungserfassungsbereichen 28A bzw. 28B vorgesehene Lichteinlaßflächen. Ein Steuerlichtempfangsbereich 46 ist im Zentrum des Oberseitenbereichs vorgesehen. Das Bezugszeichen 47 bezeichnet eine Ausgabeverbindung.
  • Auf der anderen Seite ist der Positionsanzeiger 43 eine Vorrichtung zum Anzeigen einer willkürlichen Position in einer auf der Eingabeoberfläche 44 bestimmten zweidimensionalen XY-Koordinatenebene. Der Positionsanzeiger 43 weist an einer festgelegten Position ein punktartiges lichtemittierendes Element 48 auf und weist beispielsweise ferner zwei Operationsschalter (Druckknöpfe) 49 auf. Von dem lichtemittierenden Element 48 emittiertes Licht 13 wird von den Lichteinfallsrichtungserfassungsbereichen 28A und 28B und dem Steuerlichtempfangsbereich 46 empfangen. Ein die optische Koordinateneingabe 41 verwendender Benutzer bewegt den Positionsanzeiger 43 auf der Eingabeoberfläche 44 und bedient die Operationsschalter 49. Die Position, an der das lichtemittierende Element 48 sich befindet, ist eine Koordinatenposition P (x, y) die von dem Positionsanzeiger 43 angezeigt wird. Die Lichteinfallsrichtungserfassungsbereiche 28A und 28B empfangen von den lichtemittierenden Element emittiertes Licht und erhalten Informationen bezüglich der Position, an der sich das lichtemittierende Element 48 befindet, beispielsweise auf Grundlage der Positionsbeziehung zwischen dem Schatten und dem Pixelfeld.
  • Wie in 12 dargestellt, werden mit Hilfe der Erfassungsfunktionen der Lichteinfallsrichtungserfassungsbereiche 28A bzw. 28B erhaltene Signale eingegeben in einen arithmetischen Operationsbereich 50 für Koordinaten. Der zu dem vorstehend erwähnten Signalprozessor 8 äquivalente arithmetische Operationsbereich 50 für Koordinaten berechnet eine Koordinatenposition P (x, y) des Positionsanzeigers 43 auf der Eingabeoberfläche 44 auf Grundlage von von den Lichteinfallsrichtungserfassungsbereichen 28A und 28B erfaßten Pixelinformationen. Bei dieser arithmetischen Operation wird die Technik einer Dreiecksbestimmung benutzt. Die arithmetische Operation bezüglich einer Dreiecksbestimmung wird nachstehend beschrieben. Daten P (x, y) der von dem Positionsanzeiger 43 angezeigten Koordinatenposition, wie sie von dem arithmetischen Operationsbereich 50 für Koordinaten erhalten werden, werden über einen Schnittstellenbereich 52 ausgegeben. Von dem Kontrollichtempfangsbereich 46 erhaltene Lichtinformation ist in von dem lichtemittierenden Element des Positionsanzeigers 43 emittiertem, moduliertem Licht enthaltene Kontrollinformation. Das von dem Lichtempfangsbereich 46 erfaßte Signal wird von einem Demodulationsbereich 51 demoduliert, so daß die so erhaltene Steuerinformation über den Schnittstellenbereich 52 ausgegeben wird.
  • In 13 weist der Positionsanzeiger 43 in seinem Inneren einen Oszillator 53 und eine Batterie 54 für die Leistungsversorgung des Oszillators 53 auf. Oszillationsbedingungen (Frequenz usw.) für den Oszillator 53 können durch geeignete Betätigung der beiden Operationsschalter 49 geändert werden, so daß das Ausgabesignal moduliert werden kann. Durch diese Modulationsoperation wird Steuerinformation in das Ausgabesignal des Oszillators 53 eingeführt. Das lichtemittierende Element 48 wird zum Emittieren von Licht von dem modulierten Ausgabesignal betrieben. Demgemäß enthält von dem lichtemittierenden Element 48 emittiertes Licht Steuerinformation auf Grundlage einer Modulation.
  • In 14 bezeichnet Bezugszeichen 44a einen der auf der Eingabeoberfläche 44 bestimmten XY-Koordinatenebene äquivalenten Block; und ferner werden mit 44b Diagonallinien in der XY-Koordinatenebene 44a bezeichnet. Ferner bezeichnet 0 den Ursprung. Ein Verfahren zum Erhalt von Koordinatenwerten x und y einer Position P (x, y) in der XY-Koordinatenebene 44a wird nun beschrieben. Unter der Annahme, daß die XY-Koordinatenebene 44a ein regelmäßiges Quadrat mit der Seitenlänge L ist, sind die Winkel Θ und ψ zwischen der Position P (x, y) und den Diagonallinien 44b bestimmt, wie in der Figur dargestellt. Folglich sind tan ψ und tan Θ, wie in 20 dargestellt, in den jeweiligen, linearen Lichtempfangsbereichen der Lichteinfallsrichtungerfassungsbereiche 28A und 28B bestimmt. Es wird angenommen, daß eine Einheitslänge die Entfernung von jedem Eckbereich zu einem entsprechenden, linearen Lichtempfangsbereich ist. Unter Verwendung dieser Werte tan ψ und tan Θ werden die Koordinatenwerte x und y der Position P (x, y) wie folgt erhalten.
  • In 14 sollten die Gleichungen tan (π/4 – Θ) = x/y und tan (π/4 – ψ) = (L – y)/x gelten. Durch Substituieren von tan Θ = p und tan ψ = Θ in diesen Gleichungen sollten die folgenden Gleichungen (1) und (2) gelten. x/y = (1 – p)/(1 + p) (1) (L – y)/x = (1 – q)/(1 + q) (2)
  • Wenn x und y durch T, S und L ausgedrückt werden, wobei T bestimmt ist durch (1 – p)/(1 + p) und S bestimmt ist durch (1 – q)/1 + q), werden x und y wie folgt berechnet. x = TL/(ST + 1) y = L/(ST + 1)
  • Auf diese Weise wird der x-Koordinatenwert und der y-Koordinatenwert erhalten.
  • Die unter Bezugnahme auf die 11 bis 14 beschriebene optische Koordinateneingabeeinheit 41 ist so ausgebildet, daß die Position P (x, y), die von dem Positionsanzeiger 43 auf der Eingabeoberfläche 44 des Koordinatendetektors 42 angezeigt wird, erhalten wird unter Verwendung des in der ersten oder zweiten Ausführungsform der optischen Positionserfassungseinheit verwendeten Lichteinfallserfassungsbereichs 28, des arithmetischen Operationsverfahrens für eine Dreiecksbestimmung und des punktförmigen, lichtemittierenden Elementes 48. Diese optische Koordinateneingabeeinheit 41 kann als Digitalisierer mit einem Positionsanzeiger ohne Verbindungskabel benutzt werden. Ferner kann durch Kombinieren eines Positionsanzeigers mit einem lichtemittierenden Element mit einer optischen Positionserfassungseinheit eine eindimensionale Koordinateneingabeeinheit auf die gleiche Weise, wie vorstehend beschrieben, geschaffen werden.
  • Wie vorstehend beschrieben, kann durch Kombinieren von zwei optischen Positionserfassungseinheiten ein zweidimensionaler Digitalisierer mit einem Positionsanzeiger ohne Verbindungskabel auf einfache Weise aufgebaut werden, und insbesondere ein solcher, der sowohl eine hohe Erfassungs genauigkeit als auch eine hohe Positionsauflösung aufweist, weil keine konvergierenden, optischen Linsen benutzt werden.
  • 15 zeigt eine Ausführungsform einer für eine Positionserfassung in drei Richtungen geeigneten Koordinateneingabeeinheit. Das bedeutet, die optische Koordinateneingabeeinheit 61 in dieser Ausführungsform kann Information bezüglich einer Höhe über der Eingabeoberfläche 44 erfassen. In 15 werden den Teilen in 11 entsprechende Teil mit gleichen Bezugszeichen bezeichnet.
  • Die optische Koordinateneingabeeinheit 61 weist Lichteinfallsrichtungserfassungsbereiche 28A und 28B an Positionen auf, die im wesentlichen den Positionen in der Koordinateneingabeeinheit der vorhergehenden Ausführungsform gleichen. In dieser Ausführungsform ist die Lichteinlaßfläche 45 im wesentlichen wie ein regelmäßiges Rechteck geformt, so daß Licht von einer höheren Position empfangen werden kann, unter Berücksichtigung der Höhe über der Eingabeoberfläche 45. Der Positionsanzeiger 62 ist ein stiftartiger Positionsanzeiger, welcher an seiner Spitze ein lichtemittierendes Element 48 aufweist, und in dessen Zentrum Operationsschalter 49 vorgesehen sind.
  • Bei dieser optischen Koordinateneingabeeinheit 61 ist ein dritter Lichteinfallsrichtungserfassungsbereich 63 zusätzlich im Zentrum der Oberseite der Eingabeoberfläche 44 vorgesehen. Der Lichteinfallsrichtungserfassungsbereich 63 ist zum Erfassen von Höheninformation vorgesehen. Die Größe und Höhe der Lichteinlaßoberfläche 45 des Lichteinfallsrichtungserfassungsbreichs 63 sind in Übereinstimmung mit der Höhe eines zu erfassenden Gegenstandes auf geeignete Weise gewählt. Die Berechnung der Position P (x, y) in der auf der Eingabeoberfläche 44 bestimmten XY-Koordinatenebene wird auf die gleiche Weise ausgeführt, wie im Fall der bezüglich der vor hergehenden Ausführungsform erläuterten Koordinateneingabeeinheit 41. Die Koordinate z in der Höhenrichtung wird unter Verwendung des Koordinatenwertes (des Wertes x) in der XY-Koordinatenebene berechnet, der unter Verwendung der Lichteinfallsrichtungserfassungsbereiche 28A und 28B erhalten wird und in Kombination mit dem Erfassungsbereich 63.
  • Wie vorstehend beschrieben kann durch Kombinieren von drei optischen Positionserfassungseinheiten unter speziellen Anordnungsbeziehungen ein Digitalisierer aufgebaut werden, mit dem eine dreidimensionale Koordinatenerfassung ausgeführt werden kann.
  • Es ist ferner möglich, daß eine dreidimensionale Koordinateneingabeeinheit aufgebaut wird, unter Verwendung der dritten Ausführungsform der optischen Positionserfassungseinheit, welche ein M-Ebenenmuster benutzt, und durch Kombinieren der Einheit mit dem Lichteinfallsrichtungserfassungsbereich.

Claims (9)

  1. Optische Positionserfassungseinheit umfassend: eine ein Bildelementfeld enthaltende Lichtempfangseinrichtung zum Bilden eines Lichtempfangsgebietes und zum Ausgeben von Signalen bezüglich des von jeweiligen Bildelementen in dem Bildelementfeld erfaßten Lichtes; ein vor dem Lichtempfangsgebiet der Lichtempfangseinrichtung angeordnetes Musterteil mit einem Muster, das solche Eigenschaften aufweißt, daß ein Teil des Musters von einem einfallenden Lichtstrahl so auf das Lichtempfangsgebiet projiziert wird, daß eine Abbildung dieses Teils des Musters die Einfallsrichtung des Lichtstrahls eindeutig bestimmt; und eine Signalverarbeitungseinrichtung zum Extrahieren von Informationen bezüglich der Einfallsrichtung des Lichtstrahls auf Grundlage der von den jeweiligen Bildelementen in dem Bildelementfeld ausgegebenen Signale, dadurch gekennzeichnet, daß das Muster eine M-Sequenz-Charakteristik aufweist und das Muster eine eindimensionale Zeilenform aufweist, die sich in einer Richtung senkrecht zur Ausrichtungsanordnung des Bildelementfeldes erstreckt; und die Einheit ferner aufweist zumindest eine konvergierende Einrichtung für eine unidirektionale Beschränkung, die an einer willkürlichen Stelle auf einem Durchgangsweg des Lichtstrahls angeordnet ist und zum Konvergieren des Lichtstrahls in die Richtung senkrecht zur Anordnungsausrichtung des Bildelementfeldes dient zum Erhöhen der Lichtintensität in dem Lichtempfangsgebiet.
  2. Optische Positionserfassungseinheit nach Anspruch 1, bei der das Musterteil aus einem durchsichtigen Teil gebildet und zur Ausbildung des Musters mit einem Lichtabschirmbereich versehen ist.
  3. Optische Positionserfassungseinheit nach Anspruch 1, bei der das Musterteil aus einem undurchsichtigen Teil gebildet ist und zur Ausbildung des Musters mit einem lichtdurchlässigen Bereich versehen ist.
  4. Optische Positionserfassungseinheit nach einem der vorhergehenden Ansprüche, bei der das Bildelementfeld ein eindimensionales Lichtempfangsgebiet bildet.
  5. Optische Positionserfassungseinheit nach einem der vorhergehenden Ansprüche, bei der das Muster von einer Kombination von dicken Linien und dünnen Linien in M-Sequenz-Ordnung gebildet ist.
  6. Optische Positionserfassungseinheit nach einem der vorhergehenden Ansprüche, bei der die M-Sequenz eine Periode von 2k – 1 (k ist eine natürliche Zahl) aufweist und das Bildelementfeld von etwa k Bildelementen gebildet ist.
  7. Optische Positionserfassungseinheit nach einem der vorhergehenden Ansprüche, bei der die unidirektional beschränkende Konvergierungseinrichtung von einer Zylinderlinse gebildet ist.
  8. Optische Koordinateneingabeeinheit umfassend: einen eine lichtemittierende Einrichtung enthaltenden Positionsanzeiger; und einen unter Verwendung von zumindest zwei optischen Positionserfassungseinheiten nach einem der Ansprüche 1 bis 7, zum Erfassen der Einfallsrichtung eines Lichtstrahls von dem Positionsanzeiger gebildeten Koordinatendetektor; wobei die optischen Positionserfassungseinheiten Koordinatendaten einer von dem Positionsanzeiger angezeigten Position auf Grundlage eines von der lichtemittierenden Einrichtung emittierten Lichtstrahls erhalten.
  9. Optische Koordinateneingabeeinheit nach Anspruch 8, bei der der Positionsanzeiger eine Modulationseinrichtung enthält, so daß die lichtemittierende Einrichtung durch eine Modulation einen Steuerinformation enthaltenden Lichtstrahl emittiert, und der Koordinatendetektor einen Steuerlichtempfangsbereich zum Empfangen des die Steuerinformation enthaltenden Lichtstrahls enthält.
DE4410078A 1993-03-23 1994-03-23 Optische Positionserfassungseinheit und optische Koordinateneingabeeinheit Expired - Fee Related DE4410078B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP5-87940 1993-03-23
JP08794093A JP3400485B2 (ja) 1993-03-23 1993-03-23 光学式位置検出装置および光学式座標入力装置

Publications (2)

Publication Number Publication Date
DE4410078A1 DE4410078A1 (de) 1994-09-29
DE4410078B4 true DE4410078B4 (de) 2008-08-14

Family

ID=13928904

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4410078A Expired - Fee Related DE4410078B4 (de) 1993-03-23 1994-03-23 Optische Positionserfassungseinheit und optische Koordinateneingabeeinheit

Country Status (3)

Country Link
US (1) US5499098A (de)
JP (1) JP3400485B2 (de)
DE (1) DE4410078B4 (de)

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3814904B2 (ja) * 1996-12-25 2006-08-30 ソニー株式会社 位置検出装置及び遠隔操作装置
US6141104A (en) * 1997-09-09 2000-10-31 Image Guided Technologies, Inc. System for determination of a location in three dimensional space
JP3492180B2 (ja) 1998-01-30 2004-02-03 キヤノン株式会社 座標入力装置
US6664954B1 (en) 1998-11-05 2003-12-16 Canon Kabushiki Kaisha Coordinate input indicator
JP4422851B2 (ja) 1999-03-17 2010-02-24 キヤノン株式会社 座標入力装置及び方法
JP3513419B2 (ja) 1999-03-19 2004-03-31 キヤノン株式会社 座標入力装置及びその制御方法、コンピュータ可読メモリ
JP3513420B2 (ja) 1999-03-19 2004-03-31 キヤノン株式会社 座標入力装置及びその制御方法、コンピュータ可読メモリ
JP2001022520A (ja) 1999-07-07 2001-01-26 Canon Inc 座標入力装置
US6847356B1 (en) 1999-08-13 2005-01-25 Canon Kabushiki Kaisha Coordinate input device and its control method, and computer readable memory
JP2001075737A (ja) 1999-09-06 2001-03-23 Canon Inc 座標入力装置及びその方法、コンピュータ可読メモリ
JP2001075736A (ja) 1999-09-06 2001-03-23 Canon Inc 座標入力装置
DE19956912A1 (de) 1999-11-26 2001-08-09 Heidenhain Gmbh Dr Johannes Winkelmeßsystem und Winkelmeßverfahren zur berührungslosen Winkelmessung
DE19962701A1 (de) * 1999-12-23 2001-06-28 Sick Ag Verfahren zur Ermittlung der Position eines Lichtspots auf einer Fotodioden-Zeile
JP4697916B2 (ja) 2000-07-07 2011-06-08 キヤノン株式会社 座標入力装置及びその制御方法、プログラム
JP4018326B2 (ja) 2000-08-07 2007-12-05 キヤノン株式会社 座標入力装置及びその制御方法、コンピュータ可読メモリ
JP2002142054A (ja) * 2000-08-23 2002-05-17 Canon Inc 電子ボード装置及び電子ボード装置のデータ処理方法
DE10052424C1 (de) * 2000-10-23 2002-05-02 Astrium Gmbh Anordnung zur Bestimmung der Position einer Lichtquelle
JP2002268810A (ja) 2001-03-13 2002-09-20 Canon Inc 座標入力装置
DE10130423B4 (de) * 2001-06-23 2004-02-05 Forschungszentrum Karlsruhe Gmbh Optisches 3D-Positionsmesssystem für die simultane Erfassung von sechs Freiheitsgraden
JP2005520239A (ja) * 2002-03-13 2005-07-07 オー−プン・アンパルトセルスカブ タッチパッド、タッチパッドを用いるスタイラス、及びタッチパッドを操作する方法
JP2004163302A (ja) * 2002-11-14 2004-06-10 Harmonic Drive Syst Ind Co Ltd 光学式エンコーダ
JP2006523869A (ja) * 2003-03-12 2006-10-19 オー−プン・アンパルトセルスカブ 放射線を放射する要素の位置を測定するシステム及び方法
US7049594B2 (en) * 2003-03-28 2006-05-23 Howmedica Leibinger Position sensing sensor, method and system
ATE514991T1 (de) 2003-09-12 2011-07-15 Flatfrog Lab Ab System und verfahren zur bestimmung einer position eines strahlungsstreu-/- reflexionselements
US7442914B2 (en) * 2003-09-12 2008-10-28 Flatfrog Laboratories Ab System and method of determining a position of a radiation emitting element
US7161686B2 (en) * 2003-11-13 2007-01-09 Ascension Technology Corporation Sensor for determining the angular position of a radiating point source in two dimensions and method of operation
US7586075B1 (en) * 2004-03-01 2009-09-08 Raytheon Company Method for analyzing output data of array subelements of an imaging segmented array
JP4772540B2 (ja) * 2006-03-10 2011-09-14 株式会社東芝 超音波診断装置
US7570373B2 (en) * 2006-04-29 2009-08-04 Prompribor, Inc. System and method to measure parameters distribution in sheet-like objects
TW200802036A (en) * 2006-06-01 2008-01-01 Micro Nits Co Ltd Input method of a pointer input system
EP2073055A1 (de) * 2007-12-20 2009-06-24 TPO Displays Corp. Detektion einer Auflichtverteilung
JP2009245349A (ja) * 2008-03-31 2009-10-22 Namco Bandai Games Inc 位置検出システム、プログラム、情報記憶媒体及び画像生成装置
WO2010023442A2 (en) * 2008-08-26 2010-03-04 The University Court Of The University Of Glasgow Uses of electromagnetic interference patterns
SE533704C2 (sv) 2008-12-05 2010-12-07 Flatfrog Lab Ab Pekkänslig apparat och förfarande för drivning av densamma
JP5347800B2 (ja) * 2009-07-27 2013-11-20 ソニー株式会社 検出システムおよび検出方法
KR101624505B1 (ko) * 2009-09-24 2016-05-26 삼성전자주식회사 3-d 포인팅 감지 장치 및 방법
US7990528B2 (en) * 2009-09-29 2011-08-02 Xerox Corporation High resolution linear image sensing using multi-row low resolution image sensor
JP5489886B2 (ja) * 2010-06-30 2014-05-14 キヤノン株式会社 座標入力装置、該装置における受光装置、及びその製造方法
US9103661B2 (en) * 2010-07-16 2015-08-11 CSEM Centre Suisse d'Electronique et de Microtechnique SA—Recherche et Developpment Measurement system of a light source in space
US20120127012A1 (en) * 2010-11-24 2012-05-24 Samsung Electronics Co., Ltd. Determining user intent from position and orientation information
US10168835B2 (en) 2012-05-23 2019-01-01 Flatfrog Laboratories Ab Spatial resolution in touch displays
EP2722650A1 (de) 2012-10-18 2014-04-23 Lambda-X Winkelstellungserfassung
TWI502446B (zh) * 2013-04-09 2015-10-01 Pixart Imaging Inc 影像感測方法以及影像感測器
US9684416B2 (en) 2013-04-09 2017-06-20 Pixart Imaging Inc. Image sensor
US10019113B2 (en) 2013-04-11 2018-07-10 Flatfrog Laboratories Ab Tomographic processing for touch detection
US9874978B2 (en) 2013-07-12 2018-01-23 Flatfrog Laboratories Ab Partial detect mode
WO2015108479A1 (en) 2014-01-16 2015-07-23 Flatfrog Laboratories Ab Light coupling in tir-based optical touch systems
WO2015108480A1 (en) 2014-01-16 2015-07-23 Flatfrog Laboratories Ab Improvements in tir-based optical touch systems of projection-type
US10161886B2 (en) 2014-06-27 2018-12-25 Flatfrog Laboratories Ab Detection of surface contamination
CN107209608A (zh) 2015-01-28 2017-09-26 平蛙实验室股份公司 动态触摸隔离帧
US10318074B2 (en) 2015-01-30 2019-06-11 Flatfrog Laboratories Ab Touch-sensing OLED display with tilted emitters
WO2016130074A1 (en) 2015-02-09 2016-08-18 Flatfrog Laboratories Ab Optical touch system comprising means for projecting and detecting light beams above and inside a transmissive panel
US10401546B2 (en) 2015-03-02 2019-09-03 Flatfrog Laboratories Ab Optical component for light coupling
US20160286141A1 (en) * 2015-03-23 2016-09-29 Rosemount Aerospace Inc. Altimeter using imaging capability
EP4075246B1 (de) 2015-12-09 2024-07-03 FlatFrog Laboratories AB Stift für optisches berührungssystem
JP6664211B2 (ja) * 2015-12-22 2020-03-13 株式会社ミツトヨ エンコーダ
JP6705649B2 (ja) * 2015-12-22 2020-06-03 株式会社ミツトヨ エンコーダ
WO2017116364A1 (en) 2015-12-30 2017-07-06 Ford Otomotiv Sanayi A. S. A vehicle seat movement area measurement and sitting position detection system
US10012531B2 (en) * 2016-10-20 2018-07-03 Bae Systems Information And Electronic Systems Integration Inc. Laser source direction finding under non-uniform illumination conditions
US10761657B2 (en) 2016-11-24 2020-09-01 Flatfrog Laboratories Ab Automatic optimisation of touch signal
KR102629629B1 (ko) 2016-12-07 2024-01-29 플라트프로그 라보라토리즈 에이비 개선된 터치 장치
WO2018141948A1 (en) 2017-02-06 2018-08-09 Flatfrog Laboratories Ab Optical coupling in touch-sensing systems
US20180275830A1 (en) 2017-03-22 2018-09-27 Flatfrog Laboratories Ab Object characterisation for touch displays
CN110663015A (zh) 2017-03-28 2020-01-07 平蛙实验室股份公司 触摸感应装置和用于组装的方法
CN117311543A (zh) 2017-09-01 2023-12-29 平蛙实验室股份公司 触摸感测设备
EP3467516A1 (de) * 2017-10-05 2019-04-10 Conti Temic microelectronic GmbH Bestimmen einer winkelgeschwindigkeit eines objekts
US11567610B2 (en) 2018-03-05 2023-01-31 Flatfrog Laboratories Ab Detection line broadening
CN112889016A (zh) 2018-10-20 2021-06-01 平蛙实验室股份公司 用于触摸敏感装置的框架及其工具
JP7236854B2 (ja) * 2018-12-11 2023-03-10 キヤノン株式会社 形状情報取得装置および形状情報取得方法、プログラム並びに記憶媒体
WO2020153890A1 (en) 2019-01-25 2020-07-30 Flatfrog Laboratories Ab A videoconferencing terminal and method of operating the same
CN110332903A (zh) * 2019-07-16 2019-10-15 中国二十冶集团有限公司 基于数字图像处理的非接触式监测结构变形的方法
CN114730228A (zh) 2019-11-25 2022-07-08 平蛙实验室股份公司 一种触摸感应设备
JP2023512682A (ja) 2020-02-10 2023-03-28 フラットフロッグ ラボラトリーズ アーベー 改良型タッチ検知装置
US11669121B2 (en) * 2021-01-19 2023-06-06 Pixart Imaging Inc. Joystick and image identifying method

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3602903A (en) * 1969-01-06 1971-08-31 Northrop Corp Optical sensing system for detecting and storing the position of a point source target
GB2002986A (en) * 1977-07-29 1979-02-28 Thomson Csf Arrangement for locating radiating sources
US4550250A (en) * 1983-11-14 1985-10-29 Hei, Inc. Cordless digital graphics input device
DE3511330A1 (de) * 1985-03-28 1986-10-02 Siemens Ag Anordnung zum eingeben von grafischen mustern
US4794245A (en) * 1987-03-03 1988-12-27 Applied Research Corporation Position sensor
GB2215159A (en) * 1988-02-26 1989-09-13 James Donald Campbell Allan Detecting change in location of a moving source of electromagnetic radiation
US4999483A (en) * 1989-03-09 1991-03-12 Kabushiki Kaisha Toshiba Sensor for detecting two dimensional angle of incidence of the sun
DE3939353A1 (de) * 1989-11-24 1991-05-29 Schueler Ben Michael Messverfahren und -vorrichtung
JPH03158705A (ja) * 1989-11-17 1991-07-08 Toshiba Corp 位置検出用ccd装置
JPH0519954A (ja) * 1991-07-11 1993-01-29 Casio Comput Co Ltd 光学式座標情報出力装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3951550A (en) * 1974-08-12 1976-04-20 The Magnavox Company Direction-sensing virtual aperture radiation detector
GB1550339A (en) * 1975-08-28 1979-08-15 Elliott Brothers London Ltd Optical angular position sensors
FR2416480A1 (fr) * 1978-02-03 1979-08-31 Thomson Csf Dispositif de localisation de source rayonnante et systeme de reperage de direction comportant un tel dispositif
FR2621398B1 (fr) * 1987-10-02 1989-07-28 Thomson Csf Dispositif optoelectrique de detection et de localisation d'une source rayonnante
EP0366112B1 (de) * 1988-10-26 1995-03-08 Wacom Co., Ltd. Optische Koordinateneingabevorrichtung und Positionszeiger dafür
US5166668A (en) * 1991-04-10 1992-11-24 Data Stream Corporation Wireless pen-type input device for use with a computer
NL9101542A (nl) * 1991-09-12 1993-04-01 Robert Jan Proper Meetinrichting voor het bepalen van de positie van een beweegbaar element t.o.v. een referentie.
US5355222A (en) * 1992-05-15 1994-10-11 Precision Tracking Fm, Inc. Optical receiver for area location system

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3602903A (en) * 1969-01-06 1971-08-31 Northrop Corp Optical sensing system for detecting and storing the position of a point source target
GB2002986A (en) * 1977-07-29 1979-02-28 Thomson Csf Arrangement for locating radiating sources
US4550250A (en) * 1983-11-14 1985-10-29 Hei, Inc. Cordless digital graphics input device
DE3511330A1 (de) * 1985-03-28 1986-10-02 Siemens Ag Anordnung zum eingeben von grafischen mustern
US4794245A (en) * 1987-03-03 1988-12-27 Applied Research Corporation Position sensor
GB2215159A (en) * 1988-02-26 1989-09-13 James Donald Campbell Allan Detecting change in location of a moving source of electromagnetic radiation
US4999483A (en) * 1989-03-09 1991-03-12 Kabushiki Kaisha Toshiba Sensor for detecting two dimensional angle of incidence of the sun
JPH03158705A (ja) * 1989-11-17 1991-07-08 Toshiba Corp 位置検出用ccd装置
DE3939353A1 (de) * 1989-11-24 1991-05-29 Schueler Ben Michael Messverfahren und -vorrichtung
JPH0519954A (ja) * 1991-07-11 1993-01-29 Casio Comput Co Ltd 光学式座標情報出力装置

Also Published As

Publication number Publication date
JP3400485B2 (ja) 2003-04-28
US5499098A (en) 1996-03-12
JPH06274266A (ja) 1994-09-30
DE4410078A1 (de) 1994-09-29

Similar Documents

Publication Publication Date Title
DE4410078B4 (de) Optische Positionserfassungseinheit und optische Koordinateneingabeeinheit
DE3789508T2 (de) Detektorsystem für optische maus.
DE10241392B4 (de) Vorrichtung und Verfahren zum Erfassen einer dreidimensionalen Relativbewegung
DE68926664T2 (de) Detektoranordnung und Beleuchtungssystem für einen Strichkode-Abtaster mit grosser Tiefenschärfe
DE69021661T2 (de) Dateneingabeeinheit mit optischem Griffel und passivem Digitalisierungstablett.
DE69821842T2 (de) System zur Positionsbestimmung
DE19810452B4 (de) Optischer Digitalisierer
EP0005462B1 (de) Verfahren zum Positionieren von zwei aufeinander einzujustierenden Objekten
DE69116270T3 (de) Verfahren und vorrichtung zur bestimmung der position von mindestens einer anschlussfahne eines elektronischen bauelements
EP0168557A1 (de) Verfahren zum Auslesen einer Entfernungsbildzeile
DE2648641B2 (de) Elektronische Anordnung zum Lesen von Zeichen
DE1930111B2 (de) Optische Vorrichtung zum Messen der Bewegung von gegeneinander bewegten Teilen
DE3538812A1 (de) Verfahren und vorrichtung zur messung der winkelablage eines mit einer zielmarke versehenen objektes
WO2003078920A2 (de) Verfahren und vorrichtung zur bestimmung der absolut-koordinaten eines objekts
DE19963809C2 (de) Optischer Encoder mit dreifacher Photodiode
DE4304529C1 (de) Meßkameraanordnung, insbesondere für photogrammetrische Messungen an technischen Objekten
DE4304815A1 (de) Optischer Sensor
DE2822269C2 (de) Verfahren zur automatischen Ausrichtung von zwei aufeinander einzujustierenden Objekten
DE4426355B4 (de) Optische Positionserfassungseinheit und optische Koordinateneingabeeinheit
WO1989001147A1 (en) Process for quality control of a flat object, in particular for detecting defects in textile fabrics, and device for this purpose
DE3312203C2 (de)
DE8717558U1 (de) Lichtelektrische Positionsmeßeinrichtung
DE112018005337T5 (de) Formmesssensor
DE1548805A1 (de) Datenanzeigegeraet
DE4318386C2 (de) Optische Encodervorrichtung zum Erfassen der Bewegung eines beweglichen Elements

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee