DE102009059890A1 - Optische Positionierungs-Vorrichtung und ihr Positionierungs-Verfahren - Google Patents

Optische Positionierungs-Vorrichtung und ihr Positionierungs-Verfahren Download PDF

Info

Publication number
DE102009059890A1
DE102009059890A1 DE102009059890A DE102009059890A DE102009059890A1 DE 102009059890 A1 DE102009059890 A1 DE 102009059890A1 DE 102009059890 A DE102009059890 A DE 102009059890A DE 102009059890 A DE102009059890 A DE 102009059890A DE 102009059890 A1 DE102009059890 A1 DE 102009059890A1
Authority
DE
Germany
Prior art keywords
axis
optical
coordinate
optical sensor
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102009059890A
Other languages
English (en)
Inventor
Yu-Hsiang Chen
An-Shun Cheng
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cheng Uei Precision Industry Co Ltd
Original Assignee
Cheng Uei Precision Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cheng Uei Precision Industry Co Ltd filed Critical Cheng Uei Precision Industry Co Ltd
Publication of DE102009059890A1 publication Critical patent/DE102009059890A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/30Interpretation of pictures by triangulation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/18Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration in two or more dimensions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/36Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light
    • G01P3/38Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light using photographic means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/7803Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/783Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from static detectors or detector systems
    • G01S3/784Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from static detectors or detector systems using a mosaic of detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Power Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft eine optische Positionierungs-Vorrichtung sowie ein Verfahren zur Bestimmung einer Position eines Gegenstandes in einem dreidimensionalen Koordinatensystem, das eine erste Achse und eine zweite Achse sowie eine dritte Achse aufweist, die lotrecht zueinander angeordnet sind. Die optische Positionierungs-Vorrichtung weist eine Host-Vorrichtung auf, die mit einem ersten optischen Sensor und einem zweiten optischen Sensor versehen sind, welche auf der ersten Achse mit einem ersten Abstand zwischen ihnen angeordnet sind, sowie einen Prozessor, der mit den optischen Sensoren verbunden ist, und eine Kalibriereinrichtung, die in dem Empfindlichkeitsbereich der optischen Sensoren liegt, wobei ein zweiter Abstand zwischen einem Ursprung der zweiten Achse und einer Koordinate der Kalibriereinrichtung gegeben ist, welche sich in der zweiten Achse erstreckt. Die optischen Sensoren tasten die Kalibier-Vorrichtung ab, so daß der Prozessor einen Kalibriervorgang durchführt, und tasten dann den Gegenstand ab, um den Prozessor zu veranlassen, einen Positionierungsvorgang durchzuführen, um die Position des Gegenstandes in dem dreidimensionalen Koordinatensystem zu bestimmen.

Description

  • Hintergrund der Erfindung
  • 1. Erfindungsgebiet
  • Die vorliegende Erfindung betrifft ganz allgemein eine Positionierungs-Vorrichtung und insbesondere eine optische Positionierungs-Vorrichtung und ein zugehöriges Positionierungs-Verfahren.
  • 2. Diesbezüglicher Stand der Technik
  • Optische Positionierungs-Vorrichtungen sind bekannt. Sie werden für vielfältige Anwendungsfälle verwendet, einschließlich gewöhnlicher automatischer Toilettenspüler, Videospiele und ausgefallene lasergestützte Munition, usw. Beispielsweise steuert die optische Maus die Videospiele wie folgt. Die optische Maus stützt sich auf eine Licht emittierende Diode (LED), die eine Oberfläche am Lichteinfall erhellt, sowie auf einen zweidimensionalen CMOS-Detektor, der die resultierenden Bilder einfängt, des weiteren auf eine Software, die aufeinanderfolgende Bilder zur Positionsbestimmung zuordnet und Geschwindigkeitssensoren, die die Geschwindigkeit bestimmen, mit der die Maus bewegt worden ist.
  • Die optische Maus hat jedoch Nachteile, betreffend eine komplizierte Anordnung und Verwendung. Darüber hinaus leidet die optische Maus bei Abschwächung des LED an einem niedrigen optischen Wirkungsgrad und relativ unterscheidungsschwacher sich ergebender Bilder, worunter die Positionierungsgenauigkeit leidet. Es besteht daher der Wunsch nach einer verbesserten optischen Positionierungs-Vorrichtung, die in der Lage ist, die obigen Probleme zu beseitigen.
  • Zusammenfassung der Erfindung
  • Eine Aufgabe der vorliegenden Erfindung besteht darin, eine optische Positionierungs-Vorrichtung zu schaffen, die zur Bestimmung einer Position eines Gegenstandes in einem dreidimensionalen Koordinatensystem geeignet ist, das eine erste Achse, eine zweite Achse und eine dritte Achse aufweist, die zueinander senkrecht stehen. Die optische Positionierungs-Vorrichtung weist eine Host-Einrichtung und eine Kalibriereinrichtung auf. Die Host-Einrichtung hat einen ersten optischen Sensor und einen zweiten optischen Sensor, die längs der ersten Achse mit einem ersten Abstand dazwischen angeordnet sind. Die Host-Einrichtung weist ferner einen Prozessor auf, der mit dem ersten und dem zweiten optischen Sensor verbunden ist. Die Kalibriereinrichtung liegt in dem Empfindlichkeitsbereich des ersten und des zweiten Sensors mit einem zweiten Abstand zwischen einem Ursprung der zweiten Achse und einer Koordinate der Kalibriereinrichtung, die auf die zweite Achse projiziert wird. Die ersten und zweiten optischen Sensoren tasten die Kalibriereinrichtung ab, um den Prozessor zu veranlassen, einen Kalibrierungs-Vorgang auszuführen, woraufhin der erste und der zweite optische Sensor den Gegenstand abtasten, um den Prozessor zu veranlassen, einen Positionierungsvorgang auszuführen, um dadurch die Position des Gegenstandes in dem dreidimensionalen Koordinatensystem weiter zu bestimmen.
  • Eine weitere Aufgabe der vorliegenden Erfindung besteht darin, ein optisches Positionierungs-Verfahren zu schaffen, mit dem die Position eines Gegenstandes in einem dreidimensionalen Koordinatensystem bestimmt werden kann, das eine erste Achse, eine zweite Achse und eine dritte Achse aufweist, die senkrecht zueinander angeordnet sind. Das optische Positionierungs-Verfahren weist die folgenden Schritte auf. Anordnen eines ersten optischen Sensors und eines zweiten optischen Sensors auf der ersten Achse mit einem ersten Abstand zwischen ihnen. Plazieren einer Kalibriereinrichtung in dem Empfindlichkeitsbereich des ersten und des zweiten optischen Sensors mit einem zweiten Abstand zwischen einem Ursprung der zweiten Achse und der Koordinate der Kalibriereinrichtung, die in die zweite Achse füllt. Die ersten und zweiten optischen Sensoren tasten die Kalibriereinrichtung ab, um ein erstes Bild zu erhalten, und übertragen dann dieses erste Bild an einen Prozessor. Der Prozessor empfängt das erste Bild und berechnet daraufhin ein Verhältnis aus einer tatsächlichen Abmessung der Kalibriereinrichtung zu einem entsprechenden Pixel des ersten Bildes. Die ersten und zweiten optischen Sensoren tasten ein Objekt ab, um ein zweites Bild bzw. ein drittes Bild zu erhalten. Der Prozessor empfängt das zweite Bild und das dritte Bild und bestimmt dann eine erste Koordinate und eine zweite Koordinate des Gegenstandes, der in dem zweiten Bild bzw. in dem dritten Bild abgetastet wird. Der Prozessor berechnet erste, zweite und dritte eingeschlossene Winkel gemäß den entsprechenden umgekehrten trigonometrischen Funktionen mit Hilfe der ersten Koordinate, der zweiten Koordinate, dem Verhältnis und dem zweiten Abstand, wobei der erste eingeschlossene Winkel zwischen der zweiten Achse und einer geraden Linie gebildet ist, die durch den ersten optischen Sensor und eine Koordinate läuft derart, daß der Gegenstand in eine Ebene projiziert wird, die durch die erste Achse und die zweite Achse gebildet wird, wobei der zweite eingeschlossene Winkel zwischen der zweiten Achse und der durch den zweiten optischen Sensor und die Koordinate verlaufenden geraden Linie gebildet wird derart, daß der Gegenstand in eine Ebene projiziert wird, die von der ersten und der zweiten Achse gebildet wird, und wobei der dritte eingeschlossene Winkel zwischen der zweiten Achse und einer geraden Linie liegt, die sich durch den Gegenstand und eine Koordinate erstreckt, so daß der Gegenstand in die erste Achse projiziert wird. Schließlich erhält der Prozessor eine Koordinate des Gegenstandes in dem dreidimensionalen Koordinatensystem mit Hilfe des ersten Abstandes sowie der ersten, zweiten und dritten eingeschlossenen Winkel, um dadurch die Position des Gegenstandes in dem dreidimensionalen Koordinatensystem aufzuzeigen.
  • Wie oben beschrieben, verwenden die optische Positionierungs-Vorrichtung und das Verfahren der vorliegenden Erfindung die ersten und zweiten optischen Sensoren, um die Kalibriereinrichtung sowie den Gegenstand abzutasten, und benutzen dann den Prozessor zur Durchführung des Kalibrierungsvorgangs und schließlich zur Durchführung des Positionierungsvorgangs, um die Koordinate des Gegenstandes in dem dreidimensionalen Koordinatensystem zu erhalten. Daher lassen sich die optische Positionierungs-Vorrichtung und das Verfahren vorteilhafterweise leicht planen und benutzen.
  • Kurze Beschreibung der Zeichnungen
  • Die vorliegende Erfindung wird den auf diesem Gebiet tätigen Fachleuten durch Lesen der folgenden Beschreibung unter Bezug auf die beigefügten Zeichnungen offenbart, in denen sind:
  • 1 eine Ansicht einer optischen Positionierungs-Vorrichtung gemäß einer ersten Ausführungsform der vorliegenden Erfindung, wobei die Lage eines Gegenstandes in einem dreidimensionalen Koordinatensystem zu bestimmen ist;
  • 2 ein Blockschaubild einer Host-Vorrichtung der optischen Positionierungs-Vorrichtung von 1;
  • 3 eine Ansicht des in 1 gezeigten Gegenstandes;
  • 47 Funktionsschaubilder, die zeigen, daß die optische Positionierungs-Vorrichtung von 1 die Position des Gegenstandes in dem dreidimensionalen Koordinatensystem auf der Grundlage eines Parallaxenprinzips bestimmt;
  • 8 eine Teilansicht einer optischen Positionierungs-Vorrichtung gemäß einer zweiten Ausführungsform der vorliegenden Erfindung;
  • 9 ein Blockschaubild einer Host-Vorrichtung der optischen Positionierungs-Vorrichtung von 8; und
  • 10 ein Fließbild eines Positionierungs-Verfahrens, das die optische Positionierungs-Vorrichtung von 1 benutzt, um die Lage des Gegenstandes in dem dreidimensionalen Koordinatensystem zu bestimmen.
  • Detaillierte Beschreibung der bevorzugten Ausführungsform
  • Die 1, 2 und 4 zeigen eine optische Positionierungs-Vorrichtung gemäß einer ersten Ausführungsform der vorliegenden Erfindung, die dazu dient, eine Position eines Gegenstandes 6 in einem dreidimensionalen Koordinatensystem zu bestimmen, das eine erste Achse X, eine zweite Achse Z und eine dritte Achse Y aufweist, so daß sich eine Koordinate (Dx, Dz, Dy) ergibt, wo Dx die Koordinate des Gegenstandes 6 auf der ersten Achse X, Dz die Koordinate des Gegenstandes 6 auf der zweiten Achse Z und Dy die Koordinate des Gegenstandes 6 auf der dritten Achse Y darstellen. Die optische Positionierungs-Vorrichtung weist eine Host-Vorrichtung 2 und eine Kalibriereinrichtung 4 auf.
  • Wie aus 2 ersichtlich, ist die Host-Vorrichtung 2 mit einem ersten optischen Sensor 8, einem zweiten optischen Sensor 10, einer Steuereinheit 12 und einem Prozessor 14 versehen. Der erste optische Sensor 8 und der zweite optische Sensor 10 sind entsprechend mit der Steuereinheit 12 verbunden, und die Steuereinheit 12 ist des weiteren an den Prozessor 14 angeschlossen. Die Steuereinheit 12 empfängt Signale der Kalibriereinrichtung 4 und des Gegenstandes 6, die durch den ersten optischen Sensor 8 und den zweiten optischen Sensor 10 festgestellt werden, und überträgt dann die Bildsignale an den Prozessor 14. Der Prozessor 14 führt zunächst einen Kalibrier- oder Eichvorgang durch und schließlich einen Positionierungsvorgang, und zwar auf einem Parallaxenprinzip, um die Koordinaten (Dx, Dz, Dy) des Gegenstandes 6 in dem dreidimensionalen Koordinatensystem zu erhalten.
  • Der in den 1, 6 und 7 gezeigte erste optische Sensor 8 und zweite optische Sensor 10 sind auf der ersten Achse X und nebeneinander angeordnet, um zwischen sich einen ersten Abstand Df zu bilden. Ein Mittelpunkt des ersten Abstandes Df dient als Ursprung (0, 0, 0) des dreidimensionalen Koordinatensystems. Darüber hinaus ist der erste optische Sensor 8 auf einem negativen Teil der ersten Achse X angeordnet, während der zweite optische Sensor 10 auf einem positiven Teil der ersten Achse X liegt. Die ersten und zweiten optischen Sensoren 8, 10 können entweder CMOS-Bildsensoren oder CCD-Bildsensoren sein.
  • Wenn unter Bezug auf die 4 und 5 die optische Positionierungs-Vorrichtung damit beginnt, die Position des Gegenstandes 6 in dem dreidimensionalen Koordinatensystem zu bestimmen, wird die Kalibriereinrichtung 4 zunächst in dem Empfindlichkeitsbereich des ersten optischen Sensors 8 und des zweiten optischen Sensors 10 angeordnet. Die Kalibiervorrichtung 4 liegt des weiteren lotrecht zu der zweiten Achse Z, und zwischen der Kalibiervorrichtung 4 und der ersten Achse X besteht ein zweiter Abstand Ds, in dem der erste optische Sensor 8 und der zweite optische Sensor 10 fluchtend ausgerichtet sind. Der erste optische Sensor 8 bzw. der zweite optische Sensor 10 ermitteln dann die Kalibiervorrichtung 4 und erhalten ein erstes Bild 16. Darüber hinaus übertragen die ersten und zweiten optischen Sensoren 8, 10 eine tatsächliche Abmessung der Kalibiervorrichtung 4 und eines Pixels des ersten Bildes 16 an den Prozessor 14 durch die Steuereinheit 12. Der Prozessor 14 berechnet daraufhin ein Verhältnis R der tatsächlichen Abmessung der Kalibiervorrichtung 4 zu dem Pixel des ersten Bildes 16. Bei dieser Ausführungsform ist die Kalibiervorrichtung 4 eine Kalibrierplatte, bestehend aus mehreren schwarzen Blöcken 50 und mehreren weißen Blöcken 51, die einander abwechselnd angeordnet sind. Wenn der schwarze Block 50 der Kalibiervorrichtung 4 eine Höhe von etwa 10 mm aufweist und die Höhe eines entsprechenden schwarzen Blockes 50' in dem ersten Bild 16 zwanzig Pixel beträgt, dann ist das Verhältnis R der augenblicklichen Abmessung der Kalibiervorrichtung 4 zu dem Pixel des ersten Bildes 16 gleich 0,5 mm/Pixel.
  • Unter Bezug auf die 1 und 57 ist wiederum festzustellen, daß dann der Gegenstand 6 in dem Empfindlichkeitsbereich der ersten und zweiten optischen Sensoren 8, 10 mit der Koordinate (Dx, Dz, Dy) in dem dreidimensionalen Koordinatensystem liegt. Demzufolge bedeutet die Koordinate (Dx, Dz, 0), daß der Gegenstand 6 in die Ebene projiziert wird, die von der ersten Achse X und der zweiten Achse Z gebildet wird, während die Koordinate (Dx, 0, 0) bedeutet, daß der Gegenstand 6 in die erste Achse X projiziert wird. Ein erster eingeschlossener Winkel θ1 ist zwischen der zweiten Achse Z und der geraden Linie ausgebildet, die durch die Koordinate (Dx, Dz, 0) und den ersten optischen Sensor 8 verläuft, während ein zweiter eingeschlossener Winkel θr zwischen der zweiten Achse Z und einer geraden Linie, die durch die Koordinate (Dx, Dz, 0) verläuft sowie den zweiten optischen Sensor 10 ausgebildet ist und ein dritter eingeschlossener Winkel θ, der zwischen der zweiten Achse Z und der geraden Linie durch die Koordinate (Dx, Dz, Dy) ausgebildet ist und durch die Koordinate (Dx, 0, 0) läuft. Somit ermitteln der erste optische Sensor 8 und der zweite optische Sensor 10 den Gegenstand 6, um ein zweites Bild 18 bzw. ein drittes Bild (nicht gezeigt) zu erhalten, und der Prozessor 14 kann des weiteren die Koordinaten des Gegenstandes 6 bestimmen, die in dem zweiten Bild 18 bzw. dem dritten Bild festgestellt werden und als eine erste Koordinate (x, z, y) (nicht gezeigt) und eine zweite Koordinate (x', z', y') (nicht gezeigt) bezeichnet werden. Danach rechnet der Prozessor 14 die eingeschlossenen Winkel θ1, θr, θ gemäß einer inversen trigonometrischen Funktion auf der Grundlage der ersten Koordinate (x, z, y), der zweiten Koordinate (x', z', y'), dem Verhältnis R und dem zweiten Abstand Ds.
  • In den 1, 3 und 5 ist der Gegenstand 6 ein Handgriff mit einer Lichtquelle 20, die an seiner einen Stirnfläche angeordnet ist, so daß sie von dem ersten bzw. dem zweiten optischen Sensor 8, 10 festgestellt werden kann. Die Lichtquelle 20 wird als Lichtpunkt in dem zweiten Bild 18 und dem dritten Bild ermittelt und auch auf der ersten Koordinate (x, z, y) in dem zweiten Bild 18 und auf der zweiten Koordinate (x', z', y') in dem dritten Bild ermittelt. Bei der ersten Ausführungsform ist das zweite Bild 18 bzw. das dritte Bild ein VGA(Video Graphics Array)-Bild mit 640·480 Pixel, die durch die erste Achse X und die dritte Achse Y zu sehen sind, so daß die erste Koordinate als (x, y) und die zweite Koordinate als (x', y') zu bezeichnen sind, wobei entweder x oder x' jede beliebige Zahl im Bereich von 0 bis 639 längs der ersten Achse X und entweder y oder y' eine beliebige Zahl im Bereich von 0 bis 479 auf der dritte Achse Y sind. Darüber hinaus ist y = y', da die ersten und zweiten optischen Sensoren 8, 10 in der Ebene liegen, die von der ersten Achse X und der zweiten Achse Z gebildet wird. Somit werden die eingeschlossenen Winkel θ1, θr, θ gemäß der entsprechenden inversen trigonometrischen Funktion wie folgt berechnet: θ1 = arctan(x·R/Ds), θr = arctan(x'·R/Ds) und θ = arctan(y·R/Ds). Wenn (x, y) = (336, 240), (x', y') = (146, 240) und Ds = 200 mm betragen, dann sind die entsprechenden Winkel für θ1 = arctan(336·0,5/200) = 40°, θr = arctan(146·0,5/200) = 20° und θ = arctan(240·0,5/200) = 31°.
  • In den 1 und 7 berechnet der Prozessor 14 wieder die Koordinate (Dx, Dz, Dy) des Gegenstandes 6 in dem dreidimensionalen Koordinatensystem mit Hilfe des ersten Abstands Df und der eingeschlossenen Winkel θ1, θr, θ. Das Verfahren zur Berechnung von Dz der Koordinate (Dx, Dz, Dy) ist im folgenden beschrieben. Zunächst wird der Empfindlichkeitsbereich der ersten und zweiten optischen Sensoren 8, 10 in drei Abschnitte auf der ersten Achse X aufgeteilt, die entsprechend als zweiter Abschnitt II, erster Abschnitt I und dritter Abschnitt III bezeichnet sind, wobei der erste Abschnitt I sich auf den Raum zwischen dem ersten optischen Sensor und dem zweiten optischen Sensor 10 bezieht, der zweite Abschnitt II sich auf den Raum neben dem ersten optischen Sensor 8 und von dem zweiten optischen Sensor 10 abgelegen bezieht und der dritte Bereich III sich auf den Raum neben dem zweiten optischen Sensor 10 und von dem ersten optischen Sensor 8 abgelegen bezieht. In welchem Bereich der Gegenstand 6 angeordnet ist, wird durch den Prozessor 14 gemäß der ersten Koordinate (x, z, y) und der zweiten Koordinate (x', z', y') bestimmt.
  • Wenn der Gegenstand 6 in dem ersten Bereich I liegt, ist die Formel, die Dz der Koordinate (Dx, Dz, Dy) berechnet: Dz = Df/(|tanθ1| + |tanθr|). Wenn der Gegenstand 6 in dem zweiten Bereich II liegt, heißt die Formel, die zur Berechnung Dz der Koordinate (Dx, Dz, Dy): Dz = Df/(|tanθr| – |tanθ1|). Wenn der Gegenstand 6 sich in dem dritten Bereich III befindet, lautet die Formel zur Berechnung von Dz der Koordinate (Dx, Dz, Dy): Dz = Df/(|tanθ1| – |tanθr|). Wenn der Gegenstand 6 in dem ersten Bereich I liegt und Df = 300 mm ist, dann beträgt gemäß der obigen entsprechenden Formel Dz = 300/(|tan40| – |tan20|) = 249.
  • Die Berechnungsformel für Dx der Koordinate (Dx, Dz, Dy) schreibt sich wie folgt: Dx = Dz·tanθ1 – Df/2. So ergibt sich Dx = 249·tan40 – 300/2 = 59 in der ersten Ausführungsform. Außerdem können der erste optische Sensor 8 und der zweite optische Sensor 10 auf der ersten Achse X willkürlich angeordnet werden. In einer solchen Situation hängt das Vorzeichen von Dx von einer Versetzung des Gegenstandes 6 ab, der dem Ursprung (0, 0, 0) des dreidimensionalen Koordinatensystems benachbart ist. Wenn eine positive Versetzung gegeben ist, dann ist Dx = |Dx|. Im Gegensatz dazu, wenn eine negative Versetzung gegeben ist, dann ist Dx = –|Dx|.
  • Letztlich läßt sich die Berechnungsformel von Dy der Koordinate (Dx, Dz, Dy) wie folgt beschreiben: Dy = Dz·tanθ. Somit ist Dy = 249·tan31 = 149. Deshalb wird die Koordinate (59, 249, 149) erhalten, um die Position des Gegenstandes 6 in dem dreidimensionalen Koordinatensystem zu zeigen.
  • Wie aus den 8 und 9 ersichtlich, ist eine optische Positionierungs-Vorrichtung gemäß einer zweiten Ausführungsform der vorliegenden Erfindung ähnlich derjenigen der ersten Ausführungsform. Der Unterschied zwischen beiden besteht darin, daß eine Host-Vorrichtung 2' in der zweiten Ausführungsform zwei Gruppen von Sensoren aufweist, die als eine erste Gruppe Sensoren A und eine zweite Gruppe Sensoren B bezeichnet sind. Die erste Gruppe Sensoren A weist einen ersten optischen Sensor 8 und einen zweiten optischen Sensor 10 auf, und die zweite Gruppe der Sensoren B weist einen dritten optischen Sensor 22 und einen vierten optischen Sensor 24 auf. Der dritte optische Sensor 22 und der vierte optische Sensor 24 sind entsprechend neben dem ersten optischen Sensor 8 und dem zweiten optischen Sensor 10 auf der ersten Achse X angeordnet, um zwischen sich einen ersten Abstand Df festzulegen. Bei der zweiten Ausführungsform kann entweder die erste Gruppe der Sensoren A oder die zweite Gruppe der Sensoren B eine 30 Bilder/S-Leistung bieten, so daß beide, also die erste und die zweite Gruppe Sensoren A, B eine 60 Bilder/S-Leistung insgesamt bei normaler Umgebung erzeugt und auch eine 30 Bilder/S-Leistung insgesamt erzeugt, selbst wenn die Umgebung dunkler wird, so daß die Koordinate (Dx, Dz, Dy) des Gegenstandes 6 in dem dreidimensionalen Koordinatensystem genau erhalten werden kann. Darüber hinaus kann die optische Positionierungs-Vorrichtung der zweiten Ausführungsform auch eine Beschleunigung des Gegenstandes 6 auf Kosten der 60 Bilder/S-Leistung erhalten, und zwar sowohl von der ersten Gruppe als auch der zweiten Gruppe Sensoren A, B, wobei eine Proben-Koordinate für den Gegenstand 6 verdoppelt wird. Die dritten und vierten optischen Sensoren 22, 24 können entweder CMOS-Bildsensoren oder CCD-Bildsensoren sein.
  • Wie aus 9 ersichtlich, ist die Steuereinheit 12 ein FPGA (frei programmierbarer, integrierter Schaltkreis) und weist eine phasenverriegelte Schleife 26, einen Frequenzgenerator 28, einen Parallel-zu-Reihen-Wandler 30 und einen Puffer 32 auf. Die phasenverriegelte Schleife 26 ist mit den optischen Sensoren 8, 10, 22, 24 verbunden, um die optischen Sensoren 8, 10, 22 bzw. 24 zu betätigen. Der Frequenzgenerator 28 ist an die optischen Sensoren 8, 10, 22 bzw. 24 angeschlossen, um für sie eine Arbeitsfrequenz zu schaffen. Der Parallel-zu-Reihen-Wandler 30 ist mit den optischen Sensoren 8, 10, 22, 24 zum Empfang von Bild-Signalen verbunden, die durch die erste Gruppe der Sensoren A bzw. die zweite Gruppe der Sensoren B ermittelt werden, um dann an den Prozessor 14 übertragen zu werden. Der Puffer 32 steht mit dem Parallel-zu-Reihen-Wandler 30 in Verbindung, um die Bildsignale zeitweilig zu speichern, die durch den Parallel-zu-Reihen-Wandler 30 empfangen werden, so daß die Bildsignale von der ersten Gruppe der Sensoren A und der zweiten Gruppe der Sensoren B auf den Prozessor 14 durch den Parallel-zu-Reihen-Wandler 30 nur einmal übertragen werden.
  • In 10 wird ein Positionierungsverfahren, das die optische Positionierungs-Vorrichtung der ersten Ausführungsform zum Erhalt der Koordinate (Dx, Dz, Dy) des Gegenstandes 6 in dem dreidimensionalen Koordinatensystem verwendet, wie folgt beschrieben.
  • Schritt 1, der erste optische Sensor 8 und der zweite optische Sensor 10 werden auf der ersten Achse X angeordnet, wobei zwischen ihnen der erste Abstand Df herrscht.
  • Schritt 2, die Kalibriereinrichtung 4 wird in dem Empfindlichkeitsbereich des ersten und des zweiten optischen Sensors 8, 10 angeordnet, wobei zwischen dem Ursprung der zweiten Achse Z und einer Koordinate der Kalibriereinrichtung 4, die auf die zweite Achse Z projiziert wird, der zweite Abstand Ds gegeben ist.
  • Schritt 3, der erste und der zweite optische Sensor 8, 10 steuern die Kalibriereinrichtung 4 so, daß das erste Bild 16 erhalten wird und übertragen daraufhin das erste Bild 16 auf den Prozessor 14.
  • Schritt 4, der Prozessor 14 empfängt das erste Bild 16 und führt daraufhin einen Kalibrierungsvorgang aus, wobei der Prozessor 14 das Verhältnis R der tatsächlichen Messung der Kalibriereinrichtung 4 zu dem entsprechenden Pixel des ersten Bildes 16 berechnet.
  • Schritt 5, die ersten und zweiten optischen Sensoren 8, 10 steuern den Gegenstand 6 so, daß das zweite Bild 18 bzw. das dritte Bild (nicht gezeigt) erhalten wird.
  • Schritt 6, der Prozessor 14 empfängt das zweite Bild 18 und das dritte Bild und bestimmt dann die erste Koordinate (x, z, y) und die zweite Koordinate (x', z', y') des Gegenstandes 6, der in dem zweiten Bild 18 bzw. dem dritten Bild ermittelt wird.
  • Schritt 7, der Prozessor 14 berechnet die eingeschlossenen Winkel θ1, θr, θ gemäß der entsprechenden inversen trigonometrischen Funktion, auf der Grundlage der ersten Koordinate (x, z, y), der zweiten Koordinate (x', z', y'), des Verhältnisses R und des zweiten Abstandes Ds, wobei der erste eingeschlossene Winkel θ1 zwischen der zweiten Achse Z und der geraden Linie liegt, die durch die Koordinate (Dx, Dz, 0) läuft, gebildet wird, und der erste optische Sensor 8, der zweite eingeschlossene Winkel θr zwischen der zweiten Achse Z und der geraden Linie ausgebildet ist, die sich durch die Koordinate (Dx, Dz, 0) erstreckt und der zweite optische Sensor 10 sowie der dritte eingeschlossene Winkel θ zwischen der zweiten Achse Z und der geraden Linie liegt, die durch die Koordinate (Dx, Dz, Dy) und die Koordinate (Dx, 0, 0) läuft.
  • Schritt 8, der Prozessor 14 berechnet Dz, Dx bzw. Dy mit Hilfe des ersten Abstandes Df und der eingeschlossenen Winkel θ1, θr, θ, um letztlich die Koordinate (Dx, Dz, Dy) des Gegenstandes 6 in dem dreidimensionalen Koordinatensystem zu erhalten.
  • Wie oben beschrieben, benutzen die optische Positionierungs-Vorrichtung und das Positionierungs-Verfahren der vorliegenden Erfindung die ersten und die zweiten optischen Sensoren 8, 10, um die Kalibriereinrichtung 4 und den Gegenstand 6 zu ermitteln, verwenden dann den Prozessor 14 zur Durchführung des Kalibrierungsvorgangs und führen schließlich den Positionierungsvorgang aus, und zwar auf der Basis des Parallaxenprinzips, um die Koordinate (Dx, Dz, Dy) des Gegenstandes 6 in dem dreidimensionalen Koordinatensystem zu erhalten. Daher hat die optische Positionierungs-Vorrichtung die Vorteile des leichten Planens und Benutzens. Darüber hinaus kann die optische Positionierungs-Vorrichtung eine Beschleunigung des Gegenstandes 6 auf Kosten der 60 Rahmen/S-Leistung sowohl von der ersten als auch von der zweiten Gruppe Sensoren A, B bekommen, so daß Geschwindigkeitssensoren des Standes der Technik weggelassen werden können. Sowohl die erste als auch die zweite Gruppe Sensoren A, B kann auch eine 30 Rahmen/S-Leistung insgesamt bieten, selbst wenn sich die Umgebung verdunkelt. Somit kann eine genaue Koordinate (Dx, Dz, Dy) des Gegenstandes 6 in dem dreidimensionalen Koordinatensystem immer durch die optische Positionierungs-Vorrichtung der vorliegenden Erfindung bestimmt werden.

Claims (10)

  1. Optische Positionierungs-Vorrichtung zur Bestimmung der Lage eines Gegenstandes in einem dreidimensionalen Koordinatensystem, das eine erste Achse (X), eine zweite Achse (Z) und eine dritte Achse (Y) aufweist, die lotrecht zueinander angeordnet sind, gekennzeichnet durch eine Host-Vorrichtung (2) mit einem ersten optischen Sensor (8) und einem zweiten optischen Sensor (10), die längs der ersten Achse (Z) mit einem ersten Abstand (Df) zwischen sich angeordnet sind, wobei die Host-Vorrichtung (2) des weiteren einen Prozessor (14) aufweist, der mit dem ersten und dem zweiten optischen Sensor (8, 10) verbunden ist; und durch eine Kalibriereinrichtung (4), die in dem Empfindlichkeitsbereich der ersten und zweiten optischen Sensoren (8, 10) liegt, mit einem zweiten Abstand zwischen einem Ursprung der zweiten Achse (Z) und einer Koordinate der Kalibriereinrichtung, die in der zweiten Achse ausgebildet ist, wobei die ersten und zweiten optischen Sensoren (8, 10) die Kalibriereinrichtung (4) ermitteln, damit der Prozessor (14) einen Kalibriervorgang ausführen kann, woraufhin die ersten und zweiten optischen Sensoren den Gegenstand 6 feststellen, damit der Prozessor (14) einen Positionierungsvorgang ausführen kann, um die Position des Gegenstandes (6) in dem dreidimensionalen Koordinatensystem weiter zu bestimmen.
  2. Optische Positionierungs-Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Host-Vorrichtung (2) des weiteren einen dritten optischen Sensor (22) und einen vierten optischen Sensor (24) aufweist, die entsprechend neben dem ersten optischen Sensor (8) und dem zweiten optischen Sensor (10) auf der ersten Achse (X) und mit dem ersten Abstand zwischen ihnen angeordnet sind.
  3. Optische Positionierungs-Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, daß die Host-Vorrichtung (2) des weiteren eine Steuereinheit (12) aufweist, die zwischen den optischen Sensoren und dem Prozessor (14) zur Aufnahme von Bildsignalen der Kalibriereinrichtung (4) und des Gegenstandes (6) angeordnet sind, die durch die optischen Sensoren ermittelt werden, und daß dann die Bildsignale auf den Prozessor (14) übertragen werden.
  4. Optische Positionierungs-Vorrichtung nach Anspruch 3, dadurch gekennzeichnet, daß die Steuereinheit (12) ein FPGA (frei programmierbarer, integrierter Schaltkreis) ist.
  5. Optische Positionierungs-Vorrichtung nach Anspruch 3, dadurch gekennzeichnet, daß die Steuereinheit (12) eine phasenverriegelte Schleife (26) aufweist, die mit den optischen Sensoren zur Betätigung der optischen Sensoren verbunden ist, daß ein Frequenzgenerator (28) mit den optischen Sensoren verbunden ist, um eine Arbeitsfrequenz für sie zu erzeugen, daß ein Parallel-zu-Reihen-Wandler (30) an die optischen Sensoren (8, 10, 22, 24) zum Empfang der Bildsignale angeschlossen ist, die dann auf den Prozessor (14) übertragen werden, und daß ein Puffer (32) an den Parallel-zu-Reihen-Wandler (30) angeschlossen ist, um die Bildsignale, die von dem Parallel-zu-Reihen-Wandler (30) erhalten werden, zeitweilig zu speichern.
  6. Optische Positionierungs-Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, daß die optischen Sensoren (8, 10, 22, 24) entweder CMOS-Bildsensoren oder CCD-Bildsensoren sind.
  7. Optische Positionierungs-Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß sich in dem Gegenstand (6) eine Lichtquelle (20) befindet, die durch die ersten und zweiten optischen Sensoren (8, 10) abgetastet wird.
  8. Optische Positionierungs-Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Kalibriereinrichtung (4) eine Kalibrierungsplatte aus mehreren schwarzen Blöcken (50) und mehreren weißen Blöcken (51) ist, die einander abwechselnd angeordnet sind.
  9. Optisches Positionierungs-Verfahren zur Bestimmung einer Position eines Gegenstandes (6) in einem dreidimensionalen Koordinatensystem, das eine erste Achse (X), eine zweite Achse (Z) und eine dritte Achse (Y) aufweist, die lotrecht zueinander angeordnet sind, gekennzeichnet durch Anordnen eines ersten optischen Sensors (8) und eines zweiten optischen Sensors (10) auf der ersten Achse (X) in einem ersten Abstand dazwischen; Plazieren einer Kalibriereinrichtung (4) in dem Empfindlichkeitsbereich des ersten und des zweiten optischen Sensors (8, 10) in einem zweiten Abstand zwischen einem Ursprung der zweiten Achse (Z) und einer Koordinate der Kalibriereinrichtung, die in der zweiten Achse liegt; wobei der erste und der zweite optische Sensor die Kalibriereinrichtung (4) abtasten, um ein erstes Bild zu erhalten und dann das erste Bild an einen Prozessor (14) zu übertragen; wobei ferner der Prozessor das erste Bild empfängt und dann ein Verhältnis (R) einer tatsächlichen Abmessung der Kalibriereinrichtung (4) zu einem entsprechenden Pixel des ersten Bildes berechnet; wobei des weiteren der erste und der zweite optische Sensor (8, 10) den Gegenstand (6) abtasten, um ein zweites Bild bzw. ein drittes Bild zu erhalten; wobei des weiteren der Prozessor (4) das zweite Bild und das dritte Bild empfängt und dann eine erste Koordinate und eine zweite Koordinate des Gegenstandes bestimmt, der in dem zweiten Bild bzw. im dritten Bild abgetastet ist; wobei darüber hinaus der Prozessor erste, zweite und dritte eingeschlossene Winkel gemäß entsprechender inverser trigonometrischer Funktionen mit Hilfe der ersten Koordinate, der zweiten Koordinate, des Verhältnisses (R) und des zweiten Abstandes berechnet, wobei der erste eingeschlossene Winkel zwischen der zweiten Achse und einer geraden Linie liegt, die durch den ersten optischen Sensor und einer Koordinate verläuft derart, daß der Gegenstand (6) in der Ebene abgebildet wird, die durch die erste Achse und die zweite Achse gebildet wird, wobei des weiteren der zweite eingeschlossene Winkel zwischen der zweiten Achse und einer geraden Linie ausgebildet ist, die durch den zweiten optischen Sensor und die Koordinate verläuft derart, daß der Gegenstand in der Ebene abgebildet wird, die durch die erste Achse und die zweite Achse gebildet wird, wobei der dritte eingeschlossene Winkel zwischen der zweiten Achse und einer geraden Linie ausgebildet wird, die durch den Gegenstand und eine Koordinate verläuft derart, daß der Gegenstand in der ersten Achse abgebildet wird; und wobei schließlich der Prozessor (14) eine Koordinate des Gegenstandes in dem dreidimensionalen Koordinatensystem mit Hilfe des ersten Abstandes und der ersten, zweiten und dritten eingeschlossenen Winkel erhält, um dadurch die Position des Gegenstandes in dem dreidimensionalen Koordinatensystem anzuzeigen.
  10. Optische Positionierungs-Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß bei Berechnung einer Koordinate, bei der der Gegenstand in der zweiten Achse projiziert wird, der Empfindlichkeitsbereich der ersten und der zweiten optischen Sensoren zuerst in drei Abschnitte entlang der ersten Achse unterteilt wird, entsprechend bezeichnet als ein zweiter Bereich, ein erster Bereich und ein dritter Bereich, wobei der erste Bereich sich auf den Raum zwischen dem ersten optischen Sensor und dem zweiten optischen Sensor bezieht, der dritte Bereich sich auf den Raum neben dem ersten optischen Sensor und von dem zweiten optischen Sensor abgelegen bezieht und der dritte Bereich sich auf den Raum neben dem zweiten optischen Sensor und von dem ersten optischen Sensor abgelegen bezieht und woraufhin dann der Bereich, in dem sich der Gegenstand befindet, durch den Prozessor gemäß der ersten Koordinate und der zweiten Koordinate bestimmt wird, so daß die Koordinate, in der der Gegenstand in der zweiten Achse projiziert wird, mit Hilfe einer entsprechenden Formel berechnet wird.
DE102009059890A 2009-06-30 2009-12-21 Optische Positionierungs-Vorrichtung und ihr Positionierungs-Verfahren Ceased DE102009059890A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW098122157A TWI379224B (en) 2009-06-30 2009-06-30 Optical positing apparatus and positing method thereof
TW098122157 2009-06-30

Publications (1)

Publication Number Publication Date
DE102009059890A1 true DE102009059890A1 (de) 2011-01-13

Family

ID=41666914

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009059890A Ceased DE102009059890A1 (de) 2009-06-30 2009-12-21 Optische Positionierungs-Vorrichtung und ihr Positionierungs-Verfahren

Country Status (6)

Country Link
US (1) US8204275B2 (de)
JP (1) JP2011027447A (de)
DE (1) DE102009059890A1 (de)
FR (1) FR2947343A1 (de)
GB (1) GB2471534A (de)
TW (1) TWI379224B (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8497902B2 (en) * 2009-12-18 2013-07-30 Sony Computer Entertainment Inc. System for locating a display device using a camera on a portable device and a sensor on a gaming console and method thereof
TWI466112B (zh) * 2011-10-07 2014-12-21 Ind Tech Res Inst 光學設備及光學定址方法
US10664994B2 (en) * 2013-02-25 2020-05-26 Cognex Corporation System and method for calibration of machine vision cameras along at least three discrete planes
CN104133076A (zh) * 2014-07-30 2014-11-05 宇龙计算机通信科技(深圳)有限公司 一种测速装置、方法及终端
TW201608256A (zh) * 2014-08-20 2016-03-01 Edison Opto Corp 多向光學定位方法及其裝置
CN113532329B (zh) * 2020-03-16 2024-03-19 天目爱视(北京)科技有限公司 一种以投射光斑为标定点的标定方法
CN115839667B (zh) * 2023-02-21 2023-05-12 青岛通产智能科技股份有限公司 一种高度测量方法、装置、设备及存储介质

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3452076B2 (ja) * 1993-10-27 2003-09-29 富士重工業株式会社 車輌用距離検出装置
EP0660131A1 (de) * 1993-12-23 1995-06-28 Karl Osen Kamera-Führungssystem
US6690474B1 (en) * 1996-02-12 2004-02-10 Massachusetts Institute Of Technology Apparatus and methods for surface contour measurement
JPH1069543A (ja) * 1996-08-29 1998-03-10 Oki Electric Ind Co Ltd 被写体の曲面再構成方法及び被写体の曲面再構成装置
JPH11160021A (ja) * 1997-11-27 1999-06-18 Nippon Telegr & Teleph Corp <Ntt> 広域3次元位置計測方法及び装置
JPH11173840A (ja) * 1997-12-08 1999-07-02 Ishikawajima Harima Heavy Ind Co Ltd 測距装置及び測距方法
US6125059A (en) * 1999-05-14 2000-09-26 Gatefield Corporation Method for erasing nonvolatile memory cells in a field programmable gate array
JP2001052177A (ja) * 1999-08-11 2001-02-23 Univ Waseda 画像処理装置および画像処理方法
US6768509B1 (en) * 2000-06-12 2004-07-27 Intel Corporation Method and apparatus for determining points of interest on an image of a camera calibration object
JP2002031515A (ja) * 2000-07-17 2002-01-31 Central Res Inst Of Electric Power Ind カメラのキャリブレーション方法およびこれを利用する装置並びにキャリブレーションプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2003065714A (ja) * 2001-08-21 2003-03-05 Sony Corp カメラ・キャリブレーションのためのガイド装置及びガイド方法、並びに、カメラ・キャリブレーション装置
JP4166988B2 (ja) * 2002-02-20 2008-10-15 株式会社トプコン ステレオ画像用処理装置及び方法
FR2836215B1 (fr) * 2002-02-21 2004-11-05 Yodea Systeme et procede de modelisation et de restitution tridimensionnelle d'un objet
ES2209655B1 (es) * 2002-12-12 2005-12-16 Universidad De Malaga Sistema para medida de distancias y velocidades por procedimientos electroopticos no radiantes.
JP2004354257A (ja) * 2003-05-29 2004-12-16 Olympus Corp キャリブレーションずれ補正装置及びこの装置を備えたステレオカメラ並びにステレオカメラシステム
WO2005031253A1 (ja) * 2003-09-29 2005-04-07 Brother Kogyo Kabushiki Kaisha 3次元形状検出装置、撮像装置、及び、3次元形状検出プログラム
US7433021B2 (en) * 2004-08-10 2008-10-07 Joseph Saltsman Stereoscopic targeting, tracking and navigation device, system and method
KR101408959B1 (ko) * 2006-03-14 2014-07-02 프라임센스 엘티디. 삼차원 감지를 위한 깊이 가변 광 필드
WO2008155961A1 (ja) * 2007-06-21 2008-12-24 Konica Minolta Holdings, Inc. 測距装置
JP4943270B2 (ja) * 2007-08-09 2012-05-30 富士フイルム株式会社 三次元座標系の設定方法および装置
KR20090062027A (ko) * 2007-12-12 2009-06-17 삼성전기주식회사 3차원자세측정장치 및 이를 이용한 3차원자세측정방법

Also Published As

Publication number Publication date
TWI379224B (en) 2012-12-11
US8204275B2 (en) 2012-06-19
FR2947343A1 (fr) 2010-12-31
TW201101154A (en) 2011-01-01
JP2011027447A (ja) 2011-02-10
US20110110559A1 (en) 2011-05-12
GB2471534A (en) 2011-01-05
GB0921655D0 (en) 2010-01-27

Similar Documents

Publication Publication Date Title
DE102012112321B4 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102009059890A1 (de) Optische Positionierungs-Vorrichtung und ihr Positionierungs-Verfahren
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE102015000386B4 (de) Vorrichtung und Verfahren zum Messen einer dreidimensionalen Form und nichtflüchtiges computerlesbares Speichermedium
DE10058244C2 (de) Messverfahren zur Ermittlung der Position eines Objektes vor einem Bildschirm und Vorrichtung zur Durchführung des Verfahrens
DE60034166T2 (de) Automatische Vermessungsgerät und Verfahren zum dreidimensionalen Messen
DE19983341B4 (de) Verfahren und Einrichtung zur Erfassung stereoskopischer Bilder unter Verwendung von Bildsensoren
DE202012104890U1 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
EP2275990A1 (de) 3D-Sensor
EP2886043A1 (de) Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten
EP2025991B1 (de) Vorrichtung und Verfahren zur dreidimensionalen Überwachung eines Raumbereichs mit mindestens zwei Bildsensoren
DE102007003586A1 (de) Automatische Kollimationsvorrichtung für ein Vermessungsgerät
DE112014004190T5 (de) Positurschätzverfahren und Roboter
DE102009051826A1 (de) Verfahren zum Vergleichen der Ähnlichkeit von 3D-bildlichen Objekten
DE102014104712A1 (de) Registrierung einer in Cluster zerfallenden Szene mit visualisierten Clustern
DE102009013667A1 (de) Verfahren zur Herstellung einer bekannnten festen räumlichen Beziehung zwischen einem Laserscanner und einer Digitalkamera zur Verkehrsüberwachung
DE112012004352B4 (de) Stereobildgebungsvorrichtung
DE102012111345B4 (de) Mobiles Handgerät zur Ausrichtung eines Sensors
DE102008011596B4 (de) Kombiniertes Baken- und Szenen-Navigationssystem
DE102009035755A1 (de) Verfahren und Vorrichtung zum Überwachen eines Raumbereichs
DE102011103933A1 (de) Endoskop, das einen Maßstab anzeigen kann, um die Größe des Ziels zu bestimmen
DE112015002821T5 (de) Beobachtungssystem
EP3631758B1 (de) Steuereinrichtung für eine kameravorrichtung, kameraanordnung und verfahren zur stereoskopischen aufnahme eines überwachungsbereichs
WO2018087392A1 (de) 3d-referenzierung
EP3486606A1 (de) Stereokamera und stereophotogrammetrisches verfahren

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final

Effective date: 20130509