DE102009059890A1 - Optische Positionierungs-Vorrichtung und ihr Positionierungs-Verfahren - Google Patents
Optische Positionierungs-Vorrichtung und ihr Positionierungs-Verfahren Download PDFInfo
- Publication number
- DE102009059890A1 DE102009059890A1 DE102009059890A DE102009059890A DE102009059890A1 DE 102009059890 A1 DE102009059890 A1 DE 102009059890A1 DE 102009059890 A DE102009059890 A DE 102009059890A DE 102009059890 A DE102009059890 A DE 102009059890A DE 102009059890 A1 DE102009059890 A1 DE 102009059890A1
- Authority
- DE
- Germany
- Prior art keywords
- axis
- optical
- coordinate
- optical sensor
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 147
- 238000000034 method Methods 0.000 title claims abstract description 20
- 230000035945 sensitivity Effects 0.000 claims abstract description 10
- 238000010586 diagram Methods 0.000 description 3
- 239000010261 arctane Substances 0.000 description 2
- 230000002238 attenuated effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/30—Interpretation of pictures by triangulation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P15/00—Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
- G01P15/18—Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration in two or more dimensions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P3/00—Measuring linear or angular speed; Measuring differences of linear or angular speeds
- G01P3/36—Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light
- G01P3/38—Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light using photographic means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/78—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
- G01S3/7803—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/78—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
- G01S3/782—Systems for determining direction or deviation from predetermined direction
- G01S3/783—Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from static detectors or detector systems
- G01S3/784—Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from static detectors or detector systems using a mosaic of detectors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0325—Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Power Engineering (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Die Erfindung betrifft eine optische Positionierungs-Vorrichtung sowie ein Verfahren zur Bestimmung einer Position eines Gegenstandes in einem dreidimensionalen Koordinatensystem, das eine erste Achse und eine zweite Achse sowie eine dritte Achse aufweist, die lotrecht zueinander angeordnet sind. Die optische Positionierungs-Vorrichtung weist eine Host-Vorrichtung auf, die mit einem ersten optischen Sensor und einem zweiten optischen Sensor versehen sind, welche auf der ersten Achse mit einem ersten Abstand zwischen ihnen angeordnet sind, sowie einen Prozessor, der mit den optischen Sensoren verbunden ist, und eine Kalibriereinrichtung, die in dem Empfindlichkeitsbereich der optischen Sensoren liegt, wobei ein zweiter Abstand zwischen einem Ursprung der zweiten Achse und einer Koordinate der Kalibriereinrichtung gegeben ist, welche sich in der zweiten Achse erstreckt. Die optischen Sensoren tasten die Kalibier-Vorrichtung ab, so daß der Prozessor einen Kalibriervorgang durchführt, und tasten dann den Gegenstand ab, um den Prozessor zu veranlassen, einen Positionierungsvorgang durchzuführen, um die Position des Gegenstandes in dem dreidimensionalen Koordinatensystem zu bestimmen.
Description
- Hintergrund der Erfindung
- 1. Erfindungsgebiet
- Die vorliegende Erfindung betrifft ganz allgemein eine Positionierungs-Vorrichtung und insbesondere eine optische Positionierungs-Vorrichtung und ein zugehöriges Positionierungs-Verfahren.
- 2. Diesbezüglicher Stand der Technik
- Optische Positionierungs-Vorrichtungen sind bekannt. Sie werden für vielfältige Anwendungsfälle verwendet, einschließlich gewöhnlicher automatischer Toilettenspüler, Videospiele und ausgefallene lasergestützte Munition, usw. Beispielsweise steuert die optische Maus die Videospiele wie folgt. Die optische Maus stützt sich auf eine Licht emittierende Diode (LED), die eine Oberfläche am Lichteinfall erhellt, sowie auf einen zweidimensionalen CMOS-Detektor, der die resultierenden Bilder einfängt, des weiteren auf eine Software, die aufeinanderfolgende Bilder zur Positionsbestimmung zuordnet und Geschwindigkeitssensoren, die die Geschwindigkeit bestimmen, mit der die Maus bewegt worden ist.
- Die optische Maus hat jedoch Nachteile, betreffend eine komplizierte Anordnung und Verwendung. Darüber hinaus leidet die optische Maus bei Abschwächung des LED an einem niedrigen optischen Wirkungsgrad und relativ unterscheidungsschwacher sich ergebender Bilder, worunter die Positionierungsgenauigkeit leidet. Es besteht daher der Wunsch nach einer verbesserten optischen Positionierungs-Vorrichtung, die in der Lage ist, die obigen Probleme zu beseitigen.
- Zusammenfassung der Erfindung
- Eine Aufgabe der vorliegenden Erfindung besteht darin, eine optische Positionierungs-Vorrichtung zu schaffen, die zur Bestimmung einer Position eines Gegenstandes in einem dreidimensionalen Koordinatensystem geeignet ist, das eine erste Achse, eine zweite Achse und eine dritte Achse aufweist, die zueinander senkrecht stehen. Die optische Positionierungs-Vorrichtung weist eine Host-Einrichtung und eine Kalibriereinrichtung auf. Die Host-Einrichtung hat einen ersten optischen Sensor und einen zweiten optischen Sensor, die längs der ersten Achse mit einem ersten Abstand dazwischen angeordnet sind. Die Host-Einrichtung weist ferner einen Prozessor auf, der mit dem ersten und dem zweiten optischen Sensor verbunden ist. Die Kalibriereinrichtung liegt in dem Empfindlichkeitsbereich des ersten und des zweiten Sensors mit einem zweiten Abstand zwischen einem Ursprung der zweiten Achse und einer Koordinate der Kalibriereinrichtung, die auf die zweite Achse projiziert wird. Die ersten und zweiten optischen Sensoren tasten die Kalibriereinrichtung ab, um den Prozessor zu veranlassen, einen Kalibrierungs-Vorgang auszuführen, woraufhin der erste und der zweite optische Sensor den Gegenstand abtasten, um den Prozessor zu veranlassen, einen Positionierungsvorgang auszuführen, um dadurch die Position des Gegenstandes in dem dreidimensionalen Koordinatensystem weiter zu bestimmen.
- Eine weitere Aufgabe der vorliegenden Erfindung besteht darin, ein optisches Positionierungs-Verfahren zu schaffen, mit dem die Position eines Gegenstandes in einem dreidimensionalen Koordinatensystem bestimmt werden kann, das eine erste Achse, eine zweite Achse und eine dritte Achse aufweist, die senkrecht zueinander angeordnet sind. Das optische Positionierungs-Verfahren weist die folgenden Schritte auf. Anordnen eines ersten optischen Sensors und eines zweiten optischen Sensors auf der ersten Achse mit einem ersten Abstand zwischen ihnen. Plazieren einer Kalibriereinrichtung in dem Empfindlichkeitsbereich des ersten und des zweiten optischen Sensors mit einem zweiten Abstand zwischen einem Ursprung der zweiten Achse und der Koordinate der Kalibriereinrichtung, die in die zweite Achse füllt. Die ersten und zweiten optischen Sensoren tasten die Kalibriereinrichtung ab, um ein erstes Bild zu erhalten, und übertragen dann dieses erste Bild an einen Prozessor. Der Prozessor empfängt das erste Bild und berechnet daraufhin ein Verhältnis aus einer tatsächlichen Abmessung der Kalibriereinrichtung zu einem entsprechenden Pixel des ersten Bildes. Die ersten und zweiten optischen Sensoren tasten ein Objekt ab, um ein zweites Bild bzw. ein drittes Bild zu erhalten. Der Prozessor empfängt das zweite Bild und das dritte Bild und bestimmt dann eine erste Koordinate und eine zweite Koordinate des Gegenstandes, der in dem zweiten Bild bzw. in dem dritten Bild abgetastet wird. Der Prozessor berechnet erste, zweite und dritte eingeschlossene Winkel gemäß den entsprechenden umgekehrten trigonometrischen Funktionen mit Hilfe der ersten Koordinate, der zweiten Koordinate, dem Verhältnis und dem zweiten Abstand, wobei der erste eingeschlossene Winkel zwischen der zweiten Achse und einer geraden Linie gebildet ist, die durch den ersten optischen Sensor und eine Koordinate läuft derart, daß der Gegenstand in eine Ebene projiziert wird, die durch die erste Achse und die zweite Achse gebildet wird, wobei der zweite eingeschlossene Winkel zwischen der zweiten Achse und der durch den zweiten optischen Sensor und die Koordinate verlaufenden geraden Linie gebildet wird derart, daß der Gegenstand in eine Ebene projiziert wird, die von der ersten und der zweiten Achse gebildet wird, und wobei der dritte eingeschlossene Winkel zwischen der zweiten Achse und einer geraden Linie liegt, die sich durch den Gegenstand und eine Koordinate erstreckt, so daß der Gegenstand in die erste Achse projiziert wird. Schließlich erhält der Prozessor eine Koordinate des Gegenstandes in dem dreidimensionalen Koordinatensystem mit Hilfe des ersten Abstandes sowie der ersten, zweiten und dritten eingeschlossenen Winkel, um dadurch die Position des Gegenstandes in dem dreidimensionalen Koordinatensystem aufzuzeigen.
- Wie oben beschrieben, verwenden die optische Positionierungs-Vorrichtung und das Verfahren der vorliegenden Erfindung die ersten und zweiten optischen Sensoren, um die Kalibriereinrichtung sowie den Gegenstand abzutasten, und benutzen dann den Prozessor zur Durchführung des Kalibrierungsvorgangs und schließlich zur Durchführung des Positionierungsvorgangs, um die Koordinate des Gegenstandes in dem dreidimensionalen Koordinatensystem zu erhalten. Daher lassen sich die optische Positionierungs-Vorrichtung und das Verfahren vorteilhafterweise leicht planen und benutzen.
- Kurze Beschreibung der Zeichnungen
- Die vorliegende Erfindung wird den auf diesem Gebiet tätigen Fachleuten durch Lesen der folgenden Beschreibung unter Bezug auf die beigefügten Zeichnungen offenbart, in denen sind:
-
1 eine Ansicht einer optischen Positionierungs-Vorrichtung gemäß einer ersten Ausführungsform der vorliegenden Erfindung, wobei die Lage eines Gegenstandes in einem dreidimensionalen Koordinatensystem zu bestimmen ist; -
2 ein Blockschaubild einer Host-Vorrichtung der optischen Positionierungs-Vorrichtung von1 ; -
3 eine Ansicht des in1 gezeigten Gegenstandes; -
4 –7 Funktionsschaubilder, die zeigen, daß die optische Positionierungs-Vorrichtung von1 die Position des Gegenstandes in dem dreidimensionalen Koordinatensystem auf der Grundlage eines Parallaxenprinzips bestimmt; -
8 eine Teilansicht einer optischen Positionierungs-Vorrichtung gemäß einer zweiten Ausführungsform der vorliegenden Erfindung; -
9 ein Blockschaubild einer Host-Vorrichtung der optischen Positionierungs-Vorrichtung von8 ; und -
10 ein Fließbild eines Positionierungs-Verfahrens, das die optische Positionierungs-Vorrichtung von1 benutzt, um die Lage des Gegenstandes in dem dreidimensionalen Koordinatensystem zu bestimmen. - Detaillierte Beschreibung der bevorzugten Ausführungsform
- Die
1 ,2 und4 zeigen eine optische Positionierungs-Vorrichtung gemäß einer ersten Ausführungsform der vorliegenden Erfindung, die dazu dient, eine Position eines Gegenstandes6 in einem dreidimensionalen Koordinatensystem zu bestimmen, das eine erste Achse X, eine zweite Achse Z und eine dritte Achse Y aufweist, so daß sich eine Koordinate (Dx, Dz, Dy) ergibt, wo Dx die Koordinate des Gegenstandes6 auf der ersten Achse X, Dz die Koordinate des Gegenstandes6 auf der zweiten Achse Z und Dy die Koordinate des Gegenstandes6 auf der dritten Achse Y darstellen. Die optische Positionierungs-Vorrichtung weist eine Host-Vorrichtung2 und eine Kalibriereinrichtung4 auf. - Wie aus
2 ersichtlich, ist die Host-Vorrichtung2 mit einem ersten optischen Sensor8 , einem zweiten optischen Sensor10 , einer Steuereinheit12 und einem Prozessor14 versehen. Der erste optische Sensor8 und der zweite optische Sensor10 sind entsprechend mit der Steuereinheit12 verbunden, und die Steuereinheit12 ist des weiteren an den Prozessor14 angeschlossen. Die Steuereinheit12 empfängt Signale der Kalibriereinrichtung4 und des Gegenstandes6 , die durch den ersten optischen Sensor8 und den zweiten optischen Sensor10 festgestellt werden, und überträgt dann die Bildsignale an den Prozessor14 . Der Prozessor14 führt zunächst einen Kalibrier- oder Eichvorgang durch und schließlich einen Positionierungsvorgang, und zwar auf einem Parallaxenprinzip, um die Koordinaten (Dx, Dz, Dy) des Gegenstandes6 in dem dreidimensionalen Koordinatensystem zu erhalten. - Der in den
1 ,6 und7 gezeigte erste optische Sensor8 und zweite optische Sensor10 sind auf der ersten Achse X und nebeneinander angeordnet, um zwischen sich einen ersten Abstand Df zu bilden. Ein Mittelpunkt des ersten Abstandes Df dient als Ursprung (0, 0, 0) des dreidimensionalen Koordinatensystems. Darüber hinaus ist der erste optische Sensor8 auf einem negativen Teil der ersten Achse X angeordnet, während der zweite optische Sensor10 auf einem positiven Teil der ersten Achse X liegt. Die ersten und zweiten optischen Sensoren8 ,10 können entweder CMOS-Bildsensoren oder CCD-Bildsensoren sein. - Wenn unter Bezug auf die
4 und5 die optische Positionierungs-Vorrichtung damit beginnt, die Position des Gegenstandes6 in dem dreidimensionalen Koordinatensystem zu bestimmen, wird die Kalibriereinrichtung4 zunächst in dem Empfindlichkeitsbereich des ersten optischen Sensors8 und des zweiten optischen Sensors10 angeordnet. Die Kalibiervorrichtung4 liegt des weiteren lotrecht zu der zweiten Achse Z, und zwischen der Kalibiervorrichtung4 und der ersten Achse X besteht ein zweiter Abstand Ds, in dem der erste optische Sensor8 und der zweite optische Sensor10 fluchtend ausgerichtet sind. Der erste optische Sensor8 bzw. der zweite optische Sensor10 ermitteln dann die Kalibiervorrichtung4 und erhalten ein erstes Bild16 . Darüber hinaus übertragen die ersten und zweiten optischen Sensoren8 ,10 eine tatsächliche Abmessung der Kalibiervorrichtung4 und eines Pixels des ersten Bildes16 an den Prozessor14 durch die Steuereinheit12 . Der Prozessor14 berechnet daraufhin ein Verhältnis R der tatsächlichen Abmessung der Kalibiervorrichtung4 zu dem Pixel des ersten Bildes16 . Bei dieser Ausführungsform ist die Kalibiervorrichtung4 eine Kalibrierplatte, bestehend aus mehreren schwarzen Blöcken50 und mehreren weißen Blöcken51 , die einander abwechselnd angeordnet sind. Wenn der schwarze Block50 der Kalibiervorrichtung4 eine Höhe von etwa 10 mm aufweist und die Höhe eines entsprechenden schwarzen Blockes50' in dem ersten Bild16 zwanzig Pixel beträgt, dann ist das Verhältnis R der augenblicklichen Abmessung der Kalibiervorrichtung4 zu dem Pixel des ersten Bildes16 gleich 0,5 mm/Pixel. - Unter Bezug auf die
1 und5 –7 ist wiederum festzustellen, daß dann der Gegenstand6 in dem Empfindlichkeitsbereich der ersten und zweiten optischen Sensoren8 ,10 mit der Koordinate (Dx, Dz, Dy) in dem dreidimensionalen Koordinatensystem liegt. Demzufolge bedeutet die Koordinate (Dx, Dz, 0), daß der Gegenstand6 in die Ebene projiziert wird, die von der ersten Achse X und der zweiten Achse Z gebildet wird, während die Koordinate (Dx, 0, 0) bedeutet, daß der Gegenstand6 in die erste Achse X projiziert wird. Ein erster eingeschlossener Winkel θ1 ist zwischen der zweiten Achse Z und der geraden Linie ausgebildet, die durch die Koordinate (Dx, Dz, 0) und den ersten optischen Sensor8 verläuft, während ein zweiter eingeschlossener Winkel θr zwischen der zweiten Achse Z und einer geraden Linie, die durch die Koordinate (Dx, Dz, 0) verläuft sowie den zweiten optischen Sensor10 ausgebildet ist und ein dritter eingeschlossener Winkel θ, der zwischen der zweiten Achse Z und der geraden Linie durch die Koordinate (Dx, Dz, Dy) ausgebildet ist und durch die Koordinate (Dx, 0, 0) läuft. Somit ermitteln der erste optische Sensor8 und der zweite optische Sensor10 den Gegenstand6 , um ein zweites Bild18 bzw. ein drittes Bild (nicht gezeigt) zu erhalten, und der Prozessor14 kann des weiteren die Koordinaten des Gegenstandes6 bestimmen, die in dem zweiten Bild18 bzw. dem dritten Bild festgestellt werden und als eine erste Koordinate (x, z, y) (nicht gezeigt) und eine zweite Koordinate (x', z', y') (nicht gezeigt) bezeichnet werden. Danach rechnet der Prozessor14 die eingeschlossenen Winkel θ1, θr, θ gemäß einer inversen trigonometrischen Funktion auf der Grundlage der ersten Koordinate (x, z, y), der zweiten Koordinate (x', z', y'), dem Verhältnis R und dem zweiten Abstand Ds. - In den
1 ,3 und5 ist der Gegenstand6 ein Handgriff mit einer Lichtquelle20 , die an seiner einen Stirnfläche angeordnet ist, so daß sie von dem ersten bzw. dem zweiten optischen Sensor8 ,10 festgestellt werden kann. Die Lichtquelle20 wird als Lichtpunkt in dem zweiten Bild18 und dem dritten Bild ermittelt und auch auf der ersten Koordinate (x, z, y) in dem zweiten Bild18 und auf der zweiten Koordinate (x', z', y') in dem dritten Bild ermittelt. Bei der ersten Ausführungsform ist das zweite Bild18 bzw. das dritte Bild ein VGA(Video Graphics Array)-Bild mit 640·480 Pixel, die durch die erste Achse X und die dritte Achse Y zu sehen sind, so daß die erste Koordinate als (x, y) und die zweite Koordinate als (x', y') zu bezeichnen sind, wobei entweder x oder x' jede beliebige Zahl im Bereich von 0 bis 639 längs der ersten Achse X und entweder y oder y' eine beliebige Zahl im Bereich von 0 bis 479 auf der dritte Achse Y sind. Darüber hinaus ist y = y', da die ersten und zweiten optischen Sensoren8 ,10 in der Ebene liegen, die von der ersten Achse X und der zweiten Achse Z gebildet wird. Somit werden die eingeschlossenen Winkel θ1, θr, θ gemäß der entsprechenden inversen trigonometrischen Funktion wie folgt berechnet: θ1 = arctan(x·R/Ds), θr = arctan(x'·R/Ds) und θ = arctan(y·R/Ds). Wenn (x, y) = (336, 240), (x', y') = (146, 240) und Ds = 200 mm betragen, dann sind die entsprechenden Winkel für θ1 = arctan(336·0,5/200) = 40°, θr = arctan(146·0,5/200) = 20° und θ = arctan(240·0,5/200) = 31°. - In den
1 und7 berechnet der Prozessor14 wieder die Koordinate (Dx, Dz, Dy) des Gegenstandes6 in dem dreidimensionalen Koordinatensystem mit Hilfe des ersten Abstands Df und der eingeschlossenen Winkel θ1, θr, θ. Das Verfahren zur Berechnung von Dz der Koordinate (Dx, Dz, Dy) ist im folgenden beschrieben. Zunächst wird der Empfindlichkeitsbereich der ersten und zweiten optischen Sensoren8 ,10 in drei Abschnitte auf der ersten Achse X aufgeteilt, die entsprechend als zweiter Abschnitt II, erster Abschnitt I und dritter Abschnitt III bezeichnet sind, wobei der erste Abschnitt I sich auf den Raum zwischen dem ersten optischen Sensor und dem zweiten optischen Sensor10 bezieht, der zweite Abschnitt II sich auf den Raum neben dem ersten optischen Sensor8 und von dem zweiten optischen Sensor10 abgelegen bezieht und der dritte Bereich III sich auf den Raum neben dem zweiten optischen Sensor10 und von dem ersten optischen Sensor8 abgelegen bezieht. In welchem Bereich der Gegenstand6 angeordnet ist, wird durch den Prozessor14 gemäß der ersten Koordinate (x, z, y) und der zweiten Koordinate (x', z', y') bestimmt. - Wenn der Gegenstand
6 in dem ersten Bereich I liegt, ist die Formel, die Dz der Koordinate (Dx, Dz, Dy) berechnet: Dz = Df/(|tanθ1| + |tanθr|). Wenn der Gegenstand6 in dem zweiten Bereich II liegt, heißt die Formel, die zur Berechnung Dz der Koordinate (Dx, Dz, Dy): Dz = Df/(|tanθr| – |tanθ1|). Wenn der Gegenstand6 sich in dem dritten Bereich III befindet, lautet die Formel zur Berechnung von Dz der Koordinate (Dx, Dz, Dy): Dz = Df/(|tanθ1| – |tanθr|). Wenn der Gegenstand6 in dem ersten Bereich I liegt und Df = 300 mm ist, dann beträgt gemäß der obigen entsprechenden Formel Dz = 300/(|tan40| – |tan20|) = 249. - Die Berechnungsformel für Dx der Koordinate (Dx, Dz, Dy) schreibt sich wie folgt: Dx = Dz·tanθ1 – Df/2. So ergibt sich Dx = 249·tan40 – 300/2 = 59 in der ersten Ausführungsform. Außerdem können der erste optische Sensor
8 und der zweite optische Sensor10 auf der ersten Achse X willkürlich angeordnet werden. In einer solchen Situation hängt das Vorzeichen von Dx von einer Versetzung des Gegenstandes6 ab, der dem Ursprung (0, 0, 0) des dreidimensionalen Koordinatensystems benachbart ist. Wenn eine positive Versetzung gegeben ist, dann ist Dx = |Dx|. Im Gegensatz dazu, wenn eine negative Versetzung gegeben ist, dann ist Dx = –|Dx|. - Letztlich läßt sich die Berechnungsformel von Dy der Koordinate (Dx, Dz, Dy) wie folgt beschreiben: Dy = Dz·tanθ. Somit ist Dy = 249·tan31 = 149. Deshalb wird die Koordinate (59, 249, 149) erhalten, um die Position des Gegenstandes
6 in dem dreidimensionalen Koordinatensystem zu zeigen. - Wie aus den
8 und9 ersichtlich, ist eine optische Positionierungs-Vorrichtung gemäß einer zweiten Ausführungsform der vorliegenden Erfindung ähnlich derjenigen der ersten Ausführungsform. Der Unterschied zwischen beiden besteht darin, daß eine Host-Vorrichtung2' in der zweiten Ausführungsform zwei Gruppen von Sensoren aufweist, die als eine erste Gruppe Sensoren A und eine zweite Gruppe Sensoren B bezeichnet sind. Die erste Gruppe Sensoren A weist einen ersten optischen Sensor8 und einen zweiten optischen Sensor10 auf, und die zweite Gruppe der Sensoren B weist einen dritten optischen Sensor22 und einen vierten optischen Sensor24 auf. Der dritte optische Sensor22 und der vierte optische Sensor24 sind entsprechend neben dem ersten optischen Sensor8 und dem zweiten optischen Sensor10 auf der ersten Achse X angeordnet, um zwischen sich einen ersten Abstand Df festzulegen. Bei der zweiten Ausführungsform kann entweder die erste Gruppe der Sensoren A oder die zweite Gruppe der Sensoren B eine 30 Bilder/S-Leistung bieten, so daß beide, also die erste und die zweite Gruppe Sensoren A, B eine 60 Bilder/S-Leistung insgesamt bei normaler Umgebung erzeugt und auch eine 30 Bilder/S-Leistung insgesamt erzeugt, selbst wenn die Umgebung dunkler wird, so daß die Koordinate (Dx, Dz, Dy) des Gegenstandes6 in dem dreidimensionalen Koordinatensystem genau erhalten werden kann. Darüber hinaus kann die optische Positionierungs-Vorrichtung der zweiten Ausführungsform auch eine Beschleunigung des Gegenstandes6 auf Kosten der 60 Bilder/S-Leistung erhalten, und zwar sowohl von der ersten Gruppe als auch der zweiten Gruppe Sensoren A, B, wobei eine Proben-Koordinate für den Gegenstand6 verdoppelt wird. Die dritten und vierten optischen Sensoren22 ,24 können entweder CMOS-Bildsensoren oder CCD-Bildsensoren sein. - Wie aus
9 ersichtlich, ist die Steuereinheit12 ein FPGA (frei programmierbarer, integrierter Schaltkreis) und weist eine phasenverriegelte Schleife26 , einen Frequenzgenerator28 , einen Parallel-zu-Reihen-Wandler30 und einen Puffer32 auf. Die phasenverriegelte Schleife26 ist mit den optischen Sensoren8 ,10 ,22 ,24 verbunden, um die optischen Sensoren8 ,10 ,22 bzw.24 zu betätigen. Der Frequenzgenerator28 ist an die optischen Sensoren8 ,10 ,22 bzw.24 angeschlossen, um für sie eine Arbeitsfrequenz zu schaffen. Der Parallel-zu-Reihen-Wandler30 ist mit den optischen Sensoren8 ,10 ,22 ,24 zum Empfang von Bild-Signalen verbunden, die durch die erste Gruppe der Sensoren A bzw. die zweite Gruppe der Sensoren B ermittelt werden, um dann an den Prozessor14 übertragen zu werden. Der Puffer32 steht mit dem Parallel-zu-Reihen-Wandler30 in Verbindung, um die Bildsignale zeitweilig zu speichern, die durch den Parallel-zu-Reihen-Wandler30 empfangen werden, so daß die Bildsignale von der ersten Gruppe der Sensoren A und der zweiten Gruppe der Sensoren B auf den Prozessor14 durch den Parallel-zu-Reihen-Wandler30 nur einmal übertragen werden. - In
10 wird ein Positionierungsverfahren, das die optische Positionierungs-Vorrichtung der ersten Ausführungsform zum Erhalt der Koordinate (Dx, Dz, Dy) des Gegenstandes6 in dem dreidimensionalen Koordinatensystem verwendet, wie folgt beschrieben. - Schritt 1, der erste optische Sensor
8 und der zweite optische Sensor10 werden auf der ersten Achse X angeordnet, wobei zwischen ihnen der erste Abstand Df herrscht. - Schritt 2, die Kalibriereinrichtung
4 wird in dem Empfindlichkeitsbereich des ersten und des zweiten optischen Sensors8 ,10 angeordnet, wobei zwischen dem Ursprung der zweiten Achse Z und einer Koordinate der Kalibriereinrichtung4 , die auf die zweite Achse Z projiziert wird, der zweite Abstand Ds gegeben ist. - Schritt 3, der erste und der zweite optische Sensor
8 ,10 steuern die Kalibriereinrichtung4 so, daß das erste Bild16 erhalten wird und übertragen daraufhin das erste Bild16 auf den Prozessor14 . - Schritt 4, der Prozessor
14 empfängt das erste Bild16 und führt daraufhin einen Kalibrierungsvorgang aus, wobei der Prozessor14 das Verhältnis R der tatsächlichen Messung der Kalibriereinrichtung4 zu dem entsprechenden Pixel des ersten Bildes16 berechnet. - Schritt 5, die ersten und zweiten optischen Sensoren
8 ,10 steuern den Gegenstand6 so, daß das zweite Bild18 bzw. das dritte Bild (nicht gezeigt) erhalten wird. - Schritt 6, der Prozessor
14 empfängt das zweite Bild18 und das dritte Bild und bestimmt dann die erste Koordinate (x, z, y) und die zweite Koordinate (x', z', y') des Gegenstandes6 , der in dem zweiten Bild18 bzw. dem dritten Bild ermittelt wird. - Schritt 7, der Prozessor
14 berechnet die eingeschlossenen Winkel θ1, θr, θ gemäß der entsprechenden inversen trigonometrischen Funktion, auf der Grundlage der ersten Koordinate (x, z, y), der zweiten Koordinate (x', z', y'), des Verhältnisses R und des zweiten Abstandes Ds, wobei der erste eingeschlossene Winkel θ1 zwischen der zweiten Achse Z und der geraden Linie liegt, die durch die Koordinate (Dx, Dz, 0) läuft, gebildet wird, und der erste optische Sensor8 , der zweite eingeschlossene Winkel θr zwischen der zweiten Achse Z und der geraden Linie ausgebildet ist, die sich durch die Koordinate (Dx, Dz, 0) erstreckt und der zweite optische Sensor10 sowie der dritte eingeschlossene Winkel θ zwischen der zweiten Achse Z und der geraden Linie liegt, die durch die Koordinate (Dx, Dz, Dy) und die Koordinate (Dx, 0, 0) läuft. - Schritt 8, der Prozessor
14 berechnet Dz, Dx bzw. Dy mit Hilfe des ersten Abstandes Df und der eingeschlossenen Winkel θ1, θr, θ, um letztlich die Koordinate (Dx, Dz, Dy) des Gegenstandes6 in dem dreidimensionalen Koordinatensystem zu erhalten. - Wie oben beschrieben, benutzen die optische Positionierungs-Vorrichtung und das Positionierungs-Verfahren der vorliegenden Erfindung die ersten und die zweiten optischen Sensoren
8 ,10 , um die Kalibriereinrichtung4 und den Gegenstand6 zu ermitteln, verwenden dann den Prozessor14 zur Durchführung des Kalibrierungsvorgangs und führen schließlich den Positionierungsvorgang aus, und zwar auf der Basis des Parallaxenprinzips, um die Koordinate (Dx, Dz, Dy) des Gegenstandes6 in dem dreidimensionalen Koordinatensystem zu erhalten. Daher hat die optische Positionierungs-Vorrichtung die Vorteile des leichten Planens und Benutzens. Darüber hinaus kann die optische Positionierungs-Vorrichtung eine Beschleunigung des Gegenstandes6 auf Kosten der 60 Rahmen/S-Leistung sowohl von der ersten als auch von der zweiten Gruppe Sensoren A, B bekommen, so daß Geschwindigkeitssensoren des Standes der Technik weggelassen werden können. Sowohl die erste als auch die zweite Gruppe Sensoren A, B kann auch eine 30 Rahmen/S-Leistung insgesamt bieten, selbst wenn sich die Umgebung verdunkelt. Somit kann eine genaue Koordinate (Dx, Dz, Dy) des Gegenstandes6 in dem dreidimensionalen Koordinatensystem immer durch die optische Positionierungs-Vorrichtung der vorliegenden Erfindung bestimmt werden.
Claims (10)
- Optische Positionierungs-Vorrichtung zur Bestimmung der Lage eines Gegenstandes in einem dreidimensionalen Koordinatensystem, das eine erste Achse (X), eine zweite Achse (Z) und eine dritte Achse (Y) aufweist, die lotrecht zueinander angeordnet sind, gekennzeichnet durch eine Host-Vorrichtung (
2 ) mit einem ersten optischen Sensor (8 ) und einem zweiten optischen Sensor (10 ), die längs der ersten Achse (Z) mit einem ersten Abstand (Df) zwischen sich angeordnet sind, wobei die Host-Vorrichtung (2 ) des weiteren einen Prozessor (14 ) aufweist, der mit dem ersten und dem zweiten optischen Sensor (8 ,10 ) verbunden ist; und durch eine Kalibriereinrichtung (4 ), die in dem Empfindlichkeitsbereich der ersten und zweiten optischen Sensoren (8 ,10 ) liegt, mit einem zweiten Abstand zwischen einem Ursprung der zweiten Achse (Z) und einer Koordinate der Kalibriereinrichtung, die in der zweiten Achse ausgebildet ist, wobei die ersten und zweiten optischen Sensoren (8 ,10 ) die Kalibriereinrichtung (4 ) ermitteln, damit der Prozessor (14 ) einen Kalibriervorgang ausführen kann, woraufhin die ersten und zweiten optischen Sensoren den Gegenstand6 feststellen, damit der Prozessor (14 ) einen Positionierungsvorgang ausführen kann, um die Position des Gegenstandes (6 ) in dem dreidimensionalen Koordinatensystem weiter zu bestimmen. - Optische Positionierungs-Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Host-Vorrichtung (
2 ) des weiteren einen dritten optischen Sensor (22 ) und einen vierten optischen Sensor (24 ) aufweist, die entsprechend neben dem ersten optischen Sensor (8 ) und dem zweiten optischen Sensor (10 ) auf der ersten Achse (X) und mit dem ersten Abstand zwischen ihnen angeordnet sind. - Optische Positionierungs-Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, daß die Host-Vorrichtung (
2 ) des weiteren eine Steuereinheit (12 ) aufweist, die zwischen den optischen Sensoren und dem Prozessor (14 ) zur Aufnahme von Bildsignalen der Kalibriereinrichtung (4 ) und des Gegenstandes (6 ) angeordnet sind, die durch die optischen Sensoren ermittelt werden, und daß dann die Bildsignale auf den Prozessor (14 ) übertragen werden. - Optische Positionierungs-Vorrichtung nach Anspruch 3, dadurch gekennzeichnet, daß die Steuereinheit (
12 ) ein FPGA (frei programmierbarer, integrierter Schaltkreis) ist. - Optische Positionierungs-Vorrichtung nach Anspruch 3, dadurch gekennzeichnet, daß die Steuereinheit (
12 ) eine phasenverriegelte Schleife (26 ) aufweist, die mit den optischen Sensoren zur Betätigung der optischen Sensoren verbunden ist, daß ein Frequenzgenerator (28 ) mit den optischen Sensoren verbunden ist, um eine Arbeitsfrequenz für sie zu erzeugen, daß ein Parallel-zu-Reihen-Wandler (30 ) an die optischen Sensoren (8 ,10 ,22 ,24 ) zum Empfang der Bildsignale angeschlossen ist, die dann auf den Prozessor (14 ) übertragen werden, und daß ein Puffer (32 ) an den Parallel-zu-Reihen-Wandler (30 ) angeschlossen ist, um die Bildsignale, die von dem Parallel-zu-Reihen-Wandler (30 ) erhalten werden, zeitweilig zu speichern. - Optische Positionierungs-Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, daß die optischen Sensoren (
8 ,10 ,22 ,24 ) entweder CMOS-Bildsensoren oder CCD-Bildsensoren sind. - Optische Positionierungs-Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß sich in dem Gegenstand (
6 ) eine Lichtquelle (20 ) befindet, die durch die ersten und zweiten optischen Sensoren (8 ,10 ) abgetastet wird. - Optische Positionierungs-Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Kalibriereinrichtung (
4 ) eine Kalibrierungsplatte aus mehreren schwarzen Blöcken (50 ) und mehreren weißen Blöcken (51 ) ist, die einander abwechselnd angeordnet sind. - Optisches Positionierungs-Verfahren zur Bestimmung einer Position eines Gegenstandes (
6 ) in einem dreidimensionalen Koordinatensystem, das eine erste Achse (X), eine zweite Achse (Z) und eine dritte Achse (Y) aufweist, die lotrecht zueinander angeordnet sind, gekennzeichnet durch Anordnen eines ersten optischen Sensors (8 ) und eines zweiten optischen Sensors (10 ) auf der ersten Achse (X) in einem ersten Abstand dazwischen; Plazieren einer Kalibriereinrichtung (4 ) in dem Empfindlichkeitsbereich des ersten und des zweiten optischen Sensors (8 ,10 ) in einem zweiten Abstand zwischen einem Ursprung der zweiten Achse (Z) und einer Koordinate der Kalibriereinrichtung, die in der zweiten Achse liegt; wobei der erste und der zweite optische Sensor die Kalibriereinrichtung (4 ) abtasten, um ein erstes Bild zu erhalten und dann das erste Bild an einen Prozessor (14 ) zu übertragen; wobei ferner der Prozessor das erste Bild empfängt und dann ein Verhältnis (R) einer tatsächlichen Abmessung der Kalibriereinrichtung (4 ) zu einem entsprechenden Pixel des ersten Bildes berechnet; wobei des weiteren der erste und der zweite optische Sensor (8 ,10 ) den Gegenstand (6 ) abtasten, um ein zweites Bild bzw. ein drittes Bild zu erhalten; wobei des weiteren der Prozessor (4 ) das zweite Bild und das dritte Bild empfängt und dann eine erste Koordinate und eine zweite Koordinate des Gegenstandes bestimmt, der in dem zweiten Bild bzw. im dritten Bild abgetastet ist; wobei darüber hinaus der Prozessor erste, zweite und dritte eingeschlossene Winkel gemäß entsprechender inverser trigonometrischer Funktionen mit Hilfe der ersten Koordinate, der zweiten Koordinate, des Verhältnisses (R) und des zweiten Abstandes berechnet, wobei der erste eingeschlossene Winkel zwischen der zweiten Achse und einer geraden Linie liegt, die durch den ersten optischen Sensor und einer Koordinate verläuft derart, daß der Gegenstand (6 ) in der Ebene abgebildet wird, die durch die erste Achse und die zweite Achse gebildet wird, wobei des weiteren der zweite eingeschlossene Winkel zwischen der zweiten Achse und einer geraden Linie ausgebildet ist, die durch den zweiten optischen Sensor und die Koordinate verläuft derart, daß der Gegenstand in der Ebene abgebildet wird, die durch die erste Achse und die zweite Achse gebildet wird, wobei der dritte eingeschlossene Winkel zwischen der zweiten Achse und einer geraden Linie ausgebildet wird, die durch den Gegenstand und eine Koordinate verläuft derart, daß der Gegenstand in der ersten Achse abgebildet wird; und wobei schließlich der Prozessor (14 ) eine Koordinate des Gegenstandes in dem dreidimensionalen Koordinatensystem mit Hilfe des ersten Abstandes und der ersten, zweiten und dritten eingeschlossenen Winkel erhält, um dadurch die Position des Gegenstandes in dem dreidimensionalen Koordinatensystem anzuzeigen. - Optische Positionierungs-Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß bei Berechnung einer Koordinate, bei der der Gegenstand in der zweiten Achse projiziert wird, der Empfindlichkeitsbereich der ersten und der zweiten optischen Sensoren zuerst in drei Abschnitte entlang der ersten Achse unterteilt wird, entsprechend bezeichnet als ein zweiter Bereich, ein erster Bereich und ein dritter Bereich, wobei der erste Bereich sich auf den Raum zwischen dem ersten optischen Sensor und dem zweiten optischen Sensor bezieht, der dritte Bereich sich auf den Raum neben dem ersten optischen Sensor und von dem zweiten optischen Sensor abgelegen bezieht und der dritte Bereich sich auf den Raum neben dem zweiten optischen Sensor und von dem ersten optischen Sensor abgelegen bezieht und woraufhin dann der Bereich, in dem sich der Gegenstand befindet, durch den Prozessor gemäß der ersten Koordinate und der zweiten Koordinate bestimmt wird, so daß die Koordinate, in der der Gegenstand in der zweiten Achse projiziert wird, mit Hilfe einer entsprechenden Formel berechnet wird.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW098122157A TWI379224B (en) | 2009-06-30 | 2009-06-30 | Optical positing apparatus and positing method thereof |
TW098122157 | 2009-06-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102009059890A1 true DE102009059890A1 (de) | 2011-01-13 |
Family
ID=41666914
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102009059890A Ceased DE102009059890A1 (de) | 2009-06-30 | 2009-12-21 | Optische Positionierungs-Vorrichtung und ihr Positionierungs-Verfahren |
Country Status (6)
Country | Link |
---|---|
US (1) | US8204275B2 (de) |
JP (1) | JP2011027447A (de) |
DE (1) | DE102009059890A1 (de) |
FR (1) | FR2947343A1 (de) |
GB (1) | GB2471534A (de) |
TW (1) | TWI379224B (de) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8497902B2 (en) * | 2009-12-18 | 2013-07-30 | Sony Computer Entertainment Inc. | System for locating a display device using a camera on a portable device and a sensor on a gaming console and method thereof |
TWI466112B (zh) * | 2011-10-07 | 2014-12-21 | Ind Tech Res Inst | 光學設備及光學定址方法 |
US10664994B2 (en) * | 2013-02-25 | 2020-05-26 | Cognex Corporation | System and method for calibration of machine vision cameras along at least three discrete planes |
CN104133076A (zh) * | 2014-07-30 | 2014-11-05 | 宇龙计算机通信科技(深圳)有限公司 | 一种测速装置、方法及终端 |
TW201608256A (zh) * | 2014-08-20 | 2016-03-01 | Edison Opto Corp | 多向光學定位方法及其裝置 |
CN113532329B (zh) * | 2020-03-16 | 2024-03-19 | 天目爱视(北京)科技有限公司 | 一种以投射光斑为标定点的标定方法 |
CN115839667B (zh) * | 2023-02-21 | 2023-05-12 | 青岛通产智能科技股份有限公司 | 一种高度测量方法、装置、设备及存储介质 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3452076B2 (ja) * | 1993-10-27 | 2003-09-29 | 富士重工業株式会社 | 車輌用距離検出装置 |
EP0660131A1 (de) * | 1993-12-23 | 1995-06-28 | Karl Osen | Kamera-Führungssystem |
US6690474B1 (en) * | 1996-02-12 | 2004-02-10 | Massachusetts Institute Of Technology | Apparatus and methods for surface contour measurement |
JPH1069543A (ja) * | 1996-08-29 | 1998-03-10 | Oki Electric Ind Co Ltd | 被写体の曲面再構成方法及び被写体の曲面再構成装置 |
JPH11160021A (ja) * | 1997-11-27 | 1999-06-18 | Nippon Telegr & Teleph Corp <Ntt> | 広域3次元位置計測方法及び装置 |
JPH11173840A (ja) * | 1997-12-08 | 1999-07-02 | Ishikawajima Harima Heavy Ind Co Ltd | 測距装置及び測距方法 |
US6125059A (en) * | 1999-05-14 | 2000-09-26 | Gatefield Corporation | Method for erasing nonvolatile memory cells in a field programmable gate array |
JP2001052177A (ja) * | 1999-08-11 | 2001-02-23 | Univ Waseda | 画像処理装置および画像処理方法 |
US6768509B1 (en) * | 2000-06-12 | 2004-07-27 | Intel Corporation | Method and apparatus for determining points of interest on an image of a camera calibration object |
JP2002031515A (ja) * | 2000-07-17 | 2002-01-31 | Central Res Inst Of Electric Power Ind | カメラのキャリブレーション方法およびこれを利用する装置並びにキャリブレーションプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2003065714A (ja) * | 2001-08-21 | 2003-03-05 | Sony Corp | カメラ・キャリブレーションのためのガイド装置及びガイド方法、並びに、カメラ・キャリブレーション装置 |
JP4166988B2 (ja) * | 2002-02-20 | 2008-10-15 | 株式会社トプコン | ステレオ画像用処理装置及び方法 |
FR2836215B1 (fr) * | 2002-02-21 | 2004-11-05 | Yodea | Systeme et procede de modelisation et de restitution tridimensionnelle d'un objet |
ES2209655B1 (es) * | 2002-12-12 | 2005-12-16 | Universidad De Malaga | Sistema para medida de distancias y velocidades por procedimientos electroopticos no radiantes. |
JP2004354257A (ja) * | 2003-05-29 | 2004-12-16 | Olympus Corp | キャリブレーションずれ補正装置及びこの装置を備えたステレオカメラ並びにステレオカメラシステム |
WO2005031253A1 (ja) * | 2003-09-29 | 2005-04-07 | Brother Kogyo Kabushiki Kaisha | 3次元形状検出装置、撮像装置、及び、3次元形状検出プログラム |
US7433021B2 (en) * | 2004-08-10 | 2008-10-07 | Joseph Saltsman | Stereoscopic targeting, tracking and navigation device, system and method |
KR101408959B1 (ko) * | 2006-03-14 | 2014-07-02 | 프라임센스 엘티디. | 삼차원 감지를 위한 깊이 가변 광 필드 |
WO2008155961A1 (ja) * | 2007-06-21 | 2008-12-24 | Konica Minolta Holdings, Inc. | 測距装置 |
JP4943270B2 (ja) * | 2007-08-09 | 2012-05-30 | 富士フイルム株式会社 | 三次元座標系の設定方法および装置 |
KR20090062027A (ko) * | 2007-12-12 | 2009-06-17 | 삼성전기주식회사 | 3차원자세측정장치 및 이를 이용한 3차원자세측정방법 |
-
2009
- 2009-06-30 TW TW098122157A patent/TWI379224B/zh not_active IP Right Cessation
- 2009-07-22 JP JP2009170674A patent/JP2011027447A/ja active Pending
- 2009-11-12 US US12/616,787 patent/US8204275B2/en not_active Expired - Fee Related
- 2009-12-11 GB GB0921655A patent/GB2471534A/en not_active Withdrawn
- 2009-12-18 FR FR0906131A patent/FR2947343A1/fr not_active Withdrawn
- 2009-12-21 DE DE102009059890A patent/DE102009059890A1/de not_active Ceased
Also Published As
Publication number | Publication date |
---|---|
TWI379224B (en) | 2012-12-11 |
US8204275B2 (en) | 2012-06-19 |
FR2947343A1 (fr) | 2010-12-31 |
TW201101154A (en) | 2011-01-01 |
JP2011027447A (ja) | 2011-02-10 |
US20110110559A1 (en) | 2011-05-12 |
GB2471534A (en) | 2011-01-05 |
GB0921655D0 (en) | 2010-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102012112321B4 (de) | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung | |
DE102009059890A1 (de) | Optische Positionierungs-Vorrichtung und ihr Positionierungs-Verfahren | |
DE102012112322B4 (de) | Verfahren zum optischen Abtasten und Vermessen einer Umgebung | |
DE102015000386B4 (de) | Vorrichtung und Verfahren zum Messen einer dreidimensionalen Form und nichtflüchtiges computerlesbares Speichermedium | |
DE10058244C2 (de) | Messverfahren zur Ermittlung der Position eines Objektes vor einem Bildschirm und Vorrichtung zur Durchführung des Verfahrens | |
DE60034166T2 (de) | Automatische Vermessungsgerät und Verfahren zum dreidimensionalen Messen | |
DE19983341B4 (de) | Verfahren und Einrichtung zur Erfassung stereoskopischer Bilder unter Verwendung von Bildsensoren | |
DE202012104890U1 (de) | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung | |
EP2275990A1 (de) | 3D-Sensor | |
EP2886043A1 (de) | Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten | |
EP2025991B1 (de) | Vorrichtung und Verfahren zur dreidimensionalen Überwachung eines Raumbereichs mit mindestens zwei Bildsensoren | |
DE102007003586A1 (de) | Automatische Kollimationsvorrichtung für ein Vermessungsgerät | |
DE112014004190T5 (de) | Positurschätzverfahren und Roboter | |
DE102009051826A1 (de) | Verfahren zum Vergleichen der Ähnlichkeit von 3D-bildlichen Objekten | |
DE102014104712A1 (de) | Registrierung einer in Cluster zerfallenden Szene mit visualisierten Clustern | |
DE102009013667A1 (de) | Verfahren zur Herstellung einer bekannnten festen räumlichen Beziehung zwischen einem Laserscanner und einer Digitalkamera zur Verkehrsüberwachung | |
DE112012004352B4 (de) | Stereobildgebungsvorrichtung | |
DE102012111345B4 (de) | Mobiles Handgerät zur Ausrichtung eines Sensors | |
DE102008011596B4 (de) | Kombiniertes Baken- und Szenen-Navigationssystem | |
DE102009035755A1 (de) | Verfahren und Vorrichtung zum Überwachen eines Raumbereichs | |
DE102011103933A1 (de) | Endoskop, das einen Maßstab anzeigen kann, um die Größe des Ziels zu bestimmen | |
DE112015002821T5 (de) | Beobachtungssystem | |
EP3631758B1 (de) | Steuereinrichtung für eine kameravorrichtung, kameraanordnung und verfahren zur stereoskopischen aufnahme eines überwachungsbereichs | |
WO2018087392A1 (de) | 3d-referenzierung | |
EP3486606A1 (de) | Stereokamera und stereophotogrammetrisches verfahren |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
R002 | Refusal decision in examination/registration proceedings | ||
R003 | Refusal decision now final |
Effective date: 20130509 |