DE102013227101B3 - Optisches System zur Nachverfolgung eines Ziels - Google Patents

Optisches System zur Nachverfolgung eines Ziels Download PDF

Info

Publication number
DE102013227101B3
DE102013227101B3 DE102013227101.8A DE102013227101A DE102013227101B3 DE 102013227101 B3 DE102013227101 B3 DE 102013227101B3 DE 102013227101 A DE102013227101 A DE 102013227101A DE 102013227101 B3 DE102013227101 B3 DE 102013227101B3
Authority
DE
Germany
Prior art keywords
target
image sensor
tracking
optical system
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102013227101.8A
Other languages
English (en)
Inventor
Michael Vogel
Thomas Metz
Torsten Kludas
Ute Natura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Trimble Jena GmbH
Original Assignee
Trimble Jena GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Trimble Jena GmbH filed Critical Trimble Jena GmbH
Priority to DE102013227101.8A priority Critical patent/DE102013227101B3/de
Priority to US14/553,983 priority patent/US10088569B2/en
Priority to CN201410815922.8A priority patent/CN104730673B/zh
Application granted granted Critical
Publication of DE102013227101B3 publication Critical patent/DE102013227101B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/006Filter holders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof

Abstract

Optisches System zur Nachverfolgung und visuellen Betrachtung eines Ziels mit einem Bildsensor und einer Linsenanordnung mit variabler Position relativ zum Bildsensor, um ein Abbild eines Ziels auf den Bildsensor zu projizieren, einer Lichtquelle zum Aussenden von Licht in einem vorgegebenen Wellenlängenbereich in Richtung des Ziels und einem Filterschalter zum Schalten eines optischen Filters zum selektiven Durchlassen des Lichts im vorgegebenen Wellenlängenbereich zum Bildsensor in den optischen Pfad und aus diesem hinaus, um wahlweise eine visuelle Betrachtung und Überwachung eines Nachverfolgens durchzuführen. Eine Nachverfolgungseinheit ist bereitgestellt, um unter Verwendung des reflektierten Lichts im vorgegebenen Wellenlängenbereich in einer Abfolge von von dem Bildsensor enthaltenen Abbildern ein Nachverfolgen des Ziels durchzuführen, wenn der erste optische Filter in den optischen Pfad geschaltet ist.

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft ein optisches System und Verfahren zur Nachverfolgung eines Ziels.
  • TECHNISCHER HINTERGRUND
  • Optische Instrumente wie beispielsweise Tachymeter oder Totalstationen umfassen gewöhnlich eine Optik oder optische Einrichtung wie ein Zielfernrohr und einen Bildsensor, sowie Stellglieder, um das optische Instrument auf ein Ziel auszurichten. Wenn das optische Instrument auf das Ziel ausgerichtet ist, lassen sich Winkelmessungen und Entfernungsmessungen vornehmen, um eine Ortsbestimmung des Ziels zu ermöglichen.
  • Beim Ausrichten des optischen Instruments auf das Ziel wird normaler Weise eine visuelle Kontrolle der Ausrichtung mittels eines Okulars mit Fadenkreuz oder mittels eines Bildschirms durchgeführt, auf dem ein durch den Bildsensor erfasstes Abbild des Ziels und ein Fadenkreuz sichtbar gemacht wird.
  • Solche optischen Instrumente können nicht nur zur Positionsbestimmung eines nicht beweglichen Objekts herangezogen werden, sondern sind auch zur Nachverfolgung eines bewegten Ziels geeignet. Bei der Nachverfolgung eines bewegten Ziels wird beispielsweise das optische Instrument auf ein Ziel ausgerichtet. Das optische Instrument umfasst eine Bildanalyseeinrichtung, um das Ziel auf eine Abfolge von Bildern des Bildsensors zu identifizieren und umfasst weiter Stellmotoren, die es ermöglichen, das optische Instrument immer neu auf das sich bewegende Ziel auszurichten, es nachzuverfolgen.
  • Anwendungsgebiete sind beispielsweise im Straßenbau zu finden, wo die Position beispielsweise einer Planierraupe zu bestimmen ist und anhand der Positionsbestimmung Steuerbefehle zur genauen Steuerung an die Planierraupe ausgegeben werden können. Hier ist oft ein kooperatives Ziel mit dem Objekt verbunden, wie beispielsweise ein Reflektor, auf den das optische Instrument mittels eines Lasers zur Entfernungsmessung ausgerichtet wird. Reflektiertes Laserlicht wird erfasst und zur Nachverfolgung des Ziels verwendet. Zudem kann ein Nachverfolgen auch mit Licht im visuellen Bereich durchgeführt werden.
  • In praktischen Anwendungen besteht jedoch oftmals ein Problem darin, dass im Nahbereich das Abbild des Ziels sich mit hoher Winkelgeschwindigkeit auf dem Bildsensor bewegt, und die Stellmotoren des optischen Instruments bzw. der Abbildungsbereich auf dem Bildsensor durch die Einstellung der Optik nicht ausreichen, das Ziel durchgehend nachzuverfolgen. Zudem können Abdeckungen auftreten, wenn sich das Ziel näher am optischen Instrument befindlichen Objekten vorbeibewegt, z. B. Bäumen, Fahrzeugen, Mauern etc. Diese Schwierigkeit wird auch dadurch erhöht, dass für genaue Winkelmessungen bei der Nachverfolgung des Ziels oft eine Optik zum Einsatz kommt, die einen schmalen Winkelbereich abdeckt, sodass ein Auffinden des Objekts mittels visueller Kontrolle bzw. ein automatisches Nachverfolgen des Objekts schwierig ist.
  • Um diesem Problem abzuhelfen kann parallel zur optischen Einrichtung zur Nachverfolgung eine Weitwinkeloptik bereitgestellt werden, mittels der das Ziel leicht auffindbar ist und mit der Nachverfolgungsoptik dann angezielt werden kann. Dies ist jedoch aufwendig, da unterschiedliche Optiken für unterschiedliche Zwecke bereitgestellt werden müssen. Durch den parallelen Versatz ergeben sich Nachteile für die Vermessung. Für genaue Messungen wäre in diesem Fall eine sehr aufwendige Kalibrierung notwendig.
  • Die WO 2010/092087A1 beschreibt ein Vermessungsgerät mit einer Entfernungsmessfunktionalität und Winkelmessfunktionalität zur Bestimmung einer Position eines Zielobjekts. Eine Feinanzielfunktion ist bereitgestellt, die mit einer Lichtquelle arbeitet, deren reflektierte Strahlen durch das Vermessungsgerät aufgenommen werden. Dazu kann ein einschwenkbares optisches Filter in den optischen Pfad eingeschwenkt werden, um Umgebungslicht zu blockieren und die Wellenlänge der Strahlen zum Feinanzielen passieren zu lassen.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Es ist daher eine Aufgabe der vorliegenden Erfindung, ein optisches System und Verfahren bereitzustellen, mittels dessen eine geeignete Nachverfolgung eines Ziels im Nah- wie im Fernbereich bei gleichzeitiger optischer Überwachungsmöglichkeit ermöglicht wird.
  • Diese Aufgabe der Erfindung wird durch den Gegenstand der unabhängigen Ansprüche gelöst. Vorteilhafte Ausführungen ergeben sich aus den abhängigen Ansprüchen.
  • KURZE BESCHREIBUNGEN DER FIGUREN
  • 1 zeigt schematisch eine Anordnung eines optischen Systems zur Nachverfolgung eines Ziels gemäß einem Ausführungsbeispiel;
  • 2 zeigt einen Bildsensor gemäß einem Ausführungsbeispiel;
  • 3 zeigt ein Verfahren zum Nachverfolgen eines Ziels gemäß einem Ausführungsbeispiel;
  • 4 zeigt schematisch eine Anordnung eines optischen Systems gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 5 zeigt ein Ausführungsbeispiel einer Lichtquelle zum Aussenden von Licht in Richtung eines Ziels;
  • 6 zeigt schematisch ein optisches System zur Nachverfolgung eines Ziels gemäß einem Ausführungsbeispiel der vorliegenden Erfindung; und
  • 7 zeigt ein optisches System zur Nachverfolgung eines Ziels gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Gemäß einem Ausführungsbeispiel umfasst ein optisches System zur visuellen Abbildung und/oder Nachverfolgung eines Ziels einen Bildsensor und eine Linsenanordnung mit variabler Position zum Bildsensor entlang eines optischen Pfades des optischen Systems, um ein Abbild des Ziels auf den Bildsensor zu projizieren, eine Lichtquelle zum Aussenden von Licht in einem vorgegebenen Wellenlängenbereich in Richtung des Ziels, einen ersten optischen Filter zum selektiven Durchlassen des Lichts im vorgegebenen Wellenlängenbereich in Richtung des Bildsensors, einen Filterschalter zum Schalten des ersten optischen Filters in den optischen Pfad hinein und aus ihm heraus und eine Nachverfolgungseinheit zum Nachverfolgen des Ziels unter Verwendung des reflektierten Lichts im vorgegebenen Wellenlängenbereich in einer Abfolge von von dem Bildsensor erhaltenen Abbildern des Ziels, wenn der erste optische Filter in den optischen Pfad geschaltet ist.
  • Damit kann ein optisches Instrument mit einer Optik ausgestattet werden, um ein Ziel im sichtbaren Bereich visuell zu überwachen und mittels Licht in einem bestimmten Wellenlängenbereich nachzuverfolgen, da der Filter in den optischen Pfad geschaltet werden kann. Zudem kann die Nachverfolgung des Ziels aufgrund der Linsenanordnung mit variabler Position zum Bildsensor mit unterschiedlichen Einstellungen und damit Abbildungswinkelbereichen durchgeführt werden, so dass insbesondere im Nahbereich das Ziel nicht verloren wird, d. h. sich das Abbild des Ziels aus dem vom Bildsensor erfassten Bereich herausbewegt oder nach Abdeckungen durch andere Objekte sich nicht mehr auf dem Bildsensor befindet.
  • Da eine Optik für die Nachverfolgung im Nahbereich und Fernbereich bereitgestellt wird und nicht unterschiedliche Optiken für die Nachverfolgung im Nahbereich bzw. im Fernbereich, kann ein paralleler Versatz zwischen den zwei Optiken und dessen Nachteile vermieden werden.
  • Die Nachverfolgungseinheit kann angepasst sein, die Nachverfolgung des Ziels durchzuführen, indem die Position des Abbilds des Ziels auf dem Bildsensor erfasst wird und der optische Pfad des optischen Systems so ausgerichtet wird, dass die Position des Abbilds des Ziels auf dem Bildsensor in einer vorgegebenen Nachverfolgungsposition zu liegen kommt und in dieser gehalten wird und die Nachverfolgungseinheit angepasst ist, wenn aufgrund der Bewegung des Ziels eine Ausrichtung des optischen Pfades zum Halten des Abbilds des Ziels in der Nachverfolgungsposition nicht möglich ist, die Nachverfolgung des Ziels zusätzlich durchzuführen, indem die veränderliche Position des Abbilds des Ziel auf dem Bildsensor nachverfolgt wird.
  • Weiter kann eine Lasereinrichtung bereitgestellt sein zum Aussenden von Laserlicht entlang des optischen Pfades in Richtung des Ziels und wobei die Nachverfolgungsposition festgelegt ist als die Position von von dem Ziel reflektierten Laserlicht auf dem Bildsensor, das zur Distanzmessung vom optischen System ausgesendet wird. Das Laserlicht kann unter Zwischenschaltung eines optischen Bandpassfilters vom Bildsensor erfasst werden.
  • Eine Motoreinheit kann die Linsenanordnung relativ zum Bildsensor in eine Linsenposition einer Weitwinkeleinstellung und in eine Linsenposition einer Schmalwinkeleinstellung bewegen und die Linsenanordnung in die Weitwinkeleinstellung bringen, wenn, z. B. aufgrund der Bewegung des Ziels, eine Ausrichtung des optischen Pfades zum Halten des Abbilds des Ziels in der Nachverfolgungsposition nicht möglich ist und die Linsenanordnung in die Schmalwinkeleinstellung bringen, wenn eine Ausrichtung des optischen Pfades zum Halten des Abbilds des Ziels in der Nachverfolgungsposition möglich ist.
  • Die Motoreinheit kann während des Nachverfolgens des Ziels die Linsenanordnung von der Position in der Weitwinkeleinstellung in die Position in der Schmalwinkeleinstellung bewegen und dabei die Bewegung der Linsenanordnung von der Linsenposition im Weitwinkelbereich in die Linsenposition im Schmalwinkelbereich über eine vorbestimmte Anzahl von Linsenpositionen entsprechend Zwischenwinkelbereichen durchführen.
  • Die vorbestimmte Anzahl von Zwischenwinkelbereichen kann so gewählt sein, dass die Tiefenschärfebereiche der Linsenanordnung sich in benachbarten Zwischenwinkelbereichen entsprechenden Linsenpositionen überlappen.
  • Weiter kann die Linsenposition der Linsenanordnung im Weitwinkelbereich, in den Zwischenwinkelbereichen und dem Schmalwinkelbereich so gewählt sein, dass die Größe der Abbildung des Ziels auf dem Bildsensor gleichgehalten wird. Für Linsenpositionen der Linsenanordnung im Weitwinkelbereich, in den Zwischenwinkelbereichen und im Schmalwinkelbereich können Kalibrierungswerte für einen Höhenindexfehler und einen Seitenkollimationsfehler verwendet werden, um bei der Nachverfolgung des Ziels gemessene Winkelwerte zu korrigieren. Die Kalibrierungswerte können an den jeweiligen Linsenpositionen durch Messung eines Objektes in den zwei Fernrohrlagen erfasst werden, also den zwei optischen Lagen der Linsenanordnung.
  • Die Motoreinheit kann weiter die Linsenposition der Linsenanordnung im Weitwinkelbereich, in den Zwischenwinkelbereichen und dem Schmalwinkelbereich jeweilig aus der gleichen Richtung anfahren, um Stellfehler zu minimieren.
  • Gemäß einer weiteren Ausführungsform ist die Lichtquelle bereitgestellt durch einen Laserlicht aussendenden elektronischen Distanzmesser EDM und/oder durch eine Vielzahl von lichtemittierenden Dioden, die um die Linsenanordnung herum angeordnet sind. Die Vielzahl von lichtemittierenden Dioden kann eine erste Gruppe von lichtemittierenden Dioden umfassen, die eine schmale Abstrahlcharakteristik aufweisen und eine zweite Gruppe von lichtemittierenden Dioden, die eine breite Abstrahlcharakteristik aufweisen. Die Vielzahl von lichtemittierenden Dioden bzw. der elektronische Distanzmesser kann synchron zu einer Belichtungszeit des Bildsensors gepulst sein. Das ausgesendete Licht wird durch das Ziel, das ein aktives bzw. kooperatives Ziel oder passives Ziel sein kann, reflektiert und trifft auf den Bildsensor auf.
  • Gemäß einer weiteren Ausführungsform umfasst das optische System einen zweiten optischen Filter zum selektiven Blockieren des Lichts im vorgegebenen Wellenlängenbereich und der Filterschalter ist angepasst, den zweiten optischen Filter in den optischen Pfad zu schalten, um mit dem Bildsensor ein visuelles Bild des Ziels aufzunehmen. Der Filterschalter kann durch ein Filterrad bereitgestellt sein, das den ersten und zweiten optischen Filter hält und das Schalten des ersten und zweiten optischen Filters in den optischen Pfad und aus ihm heraus kann durch Drehen des Filterrades erfolgen. Indem das Filterrad kontinuierlich rotiert wird, um im Takt der Schaltung der Filter zwischen Nachverfolgung des Ziels und Aufnahme des visuellen Bildes zu wechseln, kann während der Nachverfolgung des Objekts eine visuelle Überwachung des Ziels ermöglicht werden.
  • Gemäß einer weiteren Ausführungsform umfasst das optische System eine Monitordiode, die Licht entlang des optischen Pfades als Monitorlicht in Richtung des Bildsensors sendet. Alternativ kann ein Reflektor und ein Teilerspiegel bereitgestellt sein, der einen Teil des von Laserlichts zur Distanzmessung entlang des optischen Pfades als Monitorlicht in Richtung des Bildsensors lenkt. Eine Korrektureinheit kann einen Versatz der Position des Monitorlichtes auf dem Bildsensor aufgrund einer lateralen Verschiebung von Linsen der Linsenanordnung erfassen und die Nachverfolgungsposition unter Verwendung des Versatzes korrigieren.
  • Das optische System kann eine Totalstation sein.
  • Im Folgenden wird mit Bezug auf 1 eine schematische Anordnung eines optischen Systems zur Nachverfolgung eines Ziels gemäß einem Ausführungsbeispiel beschrieben.
  • Das optische System umfasst einen Bildsensor 110 und eine Linsenanordnung 120 mit variabler Position zum Bildsensor entlang eines optischen Pfades des optischen Systems 100, um ein Abbild eines Ziels auf dem Bildsensor 110 zu projizieren. Das Ziel kann dabei ein beliebiges Objekt sein, einschließlich eines Reflektors, der an einem zu überwachenden Objekt angebracht ist.
  • Eine Lichtquelle 130 ist bereitgestellt zum Aussenden von Licht in einem vorgegebenen Wellenlängenbereich in Richtung des Ziels. Das Licht im vorgegebenen Wellenlängenbereich wird vom Ziel in Richtung des optischen Systems reflektiert und tritt in die Linsenanordnung 120 ein. Ein erster optischer Filter 140 ist bereitgestellt, und lässt selektiv das Lichts im vorgegebenen Wellenlängenbereich in Richtung des Bildsensors 120 durchtreten. Ein Filterschalter 150 ist bereitgestellt, um den ersten optischen Filters in dem optischen Pfad hinein und aus diesem heraus zu bewegen, d. h. schalten.
  • Mit dem optischen System aus 1 wird es möglich, mittels einer einzigen Optik bzw. Linsenanordnung und Bildsensor durch Schalten des ersten optischen Filters in den optischen Pfad hinein und aus diesem heraus, ein Ziel mittels Licht im vorgegebenen Wellenlängenbereich nachzuverfolgen und dabei auch eine visuelle Überwachung eines Bereichs bzw. einer Umgebung mit dem Ziel durchzuführen. Wenn der erste optische Filter in dem optischen Pfad hineingeschaltet wird, wird nur das Licht im vorgegebenen Wellenlängenbereich, das von der Lichtquelle in Richtung des Ziels ausgesendet wurde und von diesem reflektiert wurde, durch die optische Anordnung und den Filter zum Bildsensor geführt. Damit wird auf dem Bildsensor lediglich Licht im vorgegebenen Wellenlängenbereich, was eine vereinfachte Nachverfolgung des Ziels ermöglicht. Wird der erste optische Filter aus dem optischen Pfad herausgeschaltet, trifft insbesondere auch Licht z. B. im sichtbaren Bereich vom Ziel und der Umgebung durch die optische Anordnung auf den Bildsensor auf, wodurch eine visuelle Überwachung des Bereichs mit dem Ziel möglich wird. Zusätzlich kann in den Phasen des Herausschaltens des Filters die Lichtquelle abgeschaltet werden.
  • Vorzugsweise kann ein kooperatives Ziel verwendet werden wie beispielsweise ein Reflektor für Licht im vorgegebenen Wellenlängenbereich, was die Nachverfolgung zusätzlich unterstützt. Weiter kann ein aktives Ziel verwendet werden, was Licht im vorgegebenen Wellenlängenbereich aussendet. Das Licht im vorgegebenen Wellenlängenbereich kann Licht im infraroten oder nahe infraroten Bereich sein. Zum Beispiel kann das Ziel eine Lichtquelle umfassen, die Licht im infraroten oder nahe infraroten Bereich aussendet. Aber auch Licht in anderen Wellenlängenbereichen kann zum Nachverfolgen verwendet werden.
  • Das optische System kann beispielsweise ein Video-Tachymeter bzw. eine Totalstation sein, mittels der auf ein Objekt bzw. Ziel gezielt werden kann, indem ein optischer Pfad, der durch eine Linsenanordnung wie die Linsenanordnung 120 definiert wird, auf das Ziel ausgerichtet wird. Ist das optische System auf das Ziel ausgerichtet worden, können entsprechende Winkelmessungen zur Positionsbestimmung des Objekts vorgenommen werden, beispielsweise durch Bestimmen eines vertikalen und horizontalen Winkels.
  • In einem Beispiel ist das optische System Teil eines solchen Tachymeters bzw. einer Totalstation, die auf einem Stativ montiert ist, das im Gelände aufgestellt werden kann. Nach der Aufstellung im Gelände und der Positionsbestimmung der Aufbauposition können Ziele im Gelände durch Ausrichten des optischen Pfades angezielt werden, und wie bekannt Positionsbestimmungen vorgenommen werden.
  • Der Bildsensor 110 ist vorzugsweise eine Anordnung von lichtempfindlichen Elementen, beispielsweise in einer zweidimensionalen Matrix. Der Bildsensor kann ein CCD oder CMOS Sensor oder ein beliebiger anderer verfügbarer Bildsensor sein.
  • Die Linsenanordnung kann allgemein jede optische Anordnung sein, um ein Abbild der Umgebung des optischen Systems auf den Bildsensor zu projizieren bzw. auf diesem abzubilden. Dazu enthält die Linsenanordnung vorzugsweise eine Anzahl fester und beweglicher Linsen, einschließlich beispielsweise einer beweglichen Linse zum Einstellen eines Sichtfeldes bzw. Öffnungswinkels, und einer beweglichen Linse zum Einstellen eines Fokus, sowie eine oder mehrere feste Linsen. Die Linsen können auch durch Linsengruppen bereitgestellt sein. Die Linsenanordnung kann allgemein in einem Fernrohr untergebracht sein, das Teil des optischen Systems bildet. Damit kann die Linsenposition der Linsenanordnung durch eine Position einer oder mehrerer beweglicher Linsen relativ zum Bildsensor oder den anderen Linsen definiert sein.
  • Ein Okular kann vorgesehen sein, um eine direkte optische bzw. visuelle Betrachtung einer Umgebung des optischen Systems zu ermöglichen. Es ist jedoch auch denkbar, dass lediglich über einen Bildschirm ein durch den Bildsensor aufgenommenes Abbild der Umgebung des optischen Systems aufgenommen und dargestellt wird.
  • Vorzugsweise ist die Linsenanordnung mit variabler Brennweite ausgestattet, sodass optische Ziele nicht nur im Nahbereich z. B. mit einer Weitwinkeleinstellung der Linsenanordnung verfolgt werden können, sondern auch weiter entfernte Objekte mit einer Schmalwinkeleinstellung der Linsenanordnung. Die Weitwinkeleinstellung ermöglicht die Abbildung eines größeren Umgebungsbereichs auf dem Bildsensor, die Schmalwinkeleinstellung ermöglicht verbesserte Genauigkeit. Z. B. im Fernbereich. Die Erfindung ermöglicht somit vorteilhafte eine Überwachung bzw. Nachverfolgung eines Ziels im Nahbereich wie auch im Fernbereich mit zusätzlicher Option für visuelle Überwachung des Ziels mit einer einzigen optischen Anordnung.
  • Die Lichtquelle 130 zum Aussenden von Licht in einem vorgegebenen Wellenlängenbereich kann jedwede Lichtquelle zum Aussenden von Licht im vorgegebenen Wellenlängenbereich sein. Beispielsweise kann das Licht im vorgegebenen Wellenlängenbereich Licht im infrarotem oder nahe infrarotem Bereich, d. h. Infrarotlicht sein. Weiter kann das Licht im vorgegebenen Wellenlängenbereich Licht in jedem anderen Wellenlängenbereich, einschließlich Licht im sichtbaren Bereich, z. B. Licht in einem Wellenlängenbereich, der in Abhängigkeit von den Umgebungsbedingungen, wie Sonneneinstrahlung, ein Nachverfolgen erleichtert. Die Lichtquelle sendet vorzugsweise das Licht im vorgegebenen Wellenlängenbereich entlang des optischen Pfades in Richtung des Ziels aus, sodass durch das Ziel reflektierte Licht im vorgegebenen Wellenlängenbereich in Richtung des optischen Systems durch die Linsenanordnung auf den Bildsensor auftrifft, wodurch auf dem Bildsensor ein Abbild des Ziels dargestellt wird.
  • Der erste optische Filter 140 zum selektiven Durchlassen des Lichts im vorgegebenen Wellenlängenbereich in Richtung des Bildsensors kann ein beliebiger optischer Filter sein, der entsprechende andere Lichtkomponenten außer das Licht im vorgegebenen Wellenlängenbereich blockiert. Der erste optische Filter kann grundsätzlich an beliebiger Stelle in den optischen Pfad geschaltet werden, d. h. relativ zum Bildsensor vor oder nach oder auch in die Linsenanordnung hinein. In 1 ist beispielhaft gezeigt, dass der erste optische Filter zwischen die Linsenanordnung und den Bildsensor schaltbar ist. Der Filterschalter 150 zum Schalten des ersten optischen Filters in den optischen Pfad hinein und aus ihm heraus ist vorzugsweise mit dem ersten optischen Filter mechanisch gekoppelt, sodass bei einer Betätigung des Schalters der erste optische Filter in den optischen Pfad geschwenkt oder verschoben wird. Der Schalter 150 kann dazu eine Motoreinheit umfassen, um den optischen Filter in eine Lateralbewegung oder Rotationsbewegung zu versetzen, um den ersten optischen Filter auf diese Weise in den optischen Pfad zur Filterung des von dem Ziel zurückkommenden Lichts im vorgegebenen Wellenlängenbereich zu schalten und aus diesem wieder herauszuschalten. Der Schalter 150 kann auch mechanisch schaltbar sein, beispielsweise durch Betätigung eines mechanischen Schalters durch einen Benutzer, beispielsweise am Gehäuse des optischen Systems, oder kann ein durch eine Softwareprozedur angesteuerter Schalter sein, um mittels einer Motorsteuerung den ersten optischen Filter entsprechend zu bewegen.
  • Die Nachverfolgungseinheit 160 kann jedwede Einrichtung sein, die es ermöglicht, die Position des Ziels nachzuverfolgen. Das Nachverfolgen kann dabei die Ausrichtung des optischen Systems bzw. des optischen Pfades auf das Ziel sein, und das geeignete Nachstellen der Ausrichtung des optischen Pfades, um einem beweglichen Ziel zu folgen. Weiterhin kann das Nachverfolgen ein Erkennen der Bildverarbeitung des Bildes des Ziels auf dem Bildsensor sein und/oder ein Nachverfolgen einer veränderlichen Position des Abbilds des Ziels auf dem Bildsensor.
  • Damit kann beim Nachverfolgen soweit wie möglich das optische System bzw. der optische Pfad, der durch die Linsenanordnung definiert wird, auf das Ziel ausgerichtet werden und diesem nachfolgen. Falls das Ziel jedoch eine zu große Bewegungsgeschwindigkeit bzw. Winkelgeschwindigkeit aufweist, sodass mechanische Nachstellmöglichkeiten des optischen Systems nicht ausreichen, um den optischen Pfad dem bewegten Ziel nachzuführen, dann kann z. B. für bestimmte Abschnitte des Nachverfolgens zusätzlich oder alternativ auch die Position des Abbilds des Ziels auf dem Bildsensor nachverfolgt werden, um bei einer wieder verminderten Geschwindigkeit des Ziels den optischen Pfad wieder vollständig auf das Ziel auszurichten.
  • Dazu kann die Nachverfolgungseinheit 160 angepasst sein, die Nachverfolgung des Ziels durchzuführen, indem die Position des Abbilds des Ziels auf dem Bildsensor erfasst wird und der optische Pfad des optischen Systems 100 iterativ so ausgerichtet wird, dass die Position des Abbilds des Ziels auf dem Bildsensor 110 in einer vorgegebenen Nachverfolgungsposition zu liegen kommt, und in dieser gehalten wird. Das heißt, das Abbild des Ziels wird auf dem Bildsensor erfasst, beispielsweise durch erhöhte Erfassungswerte bestimmter Bildpunkte des Bildsensors oder anderweitiger Abbildungsmerkmale des Ziels. Weiter wird dann der optische Pfad des optischen Systems so nachgestellt, beispielsweise durch Motoren, dass der optische Pfad auch bei einer Bewegung des Objekts weiterhin auf das Ziel ausgerichtet wird, sodass das Abbild des Ziels wieder auf der ursprünglichen Position, d. h. der Nachverfolgungsposition zu liegen kommt. Die Nachverfolgungsposition auf dem Bildsensor kann dabei eine beliebige Position sein, vorzugsweise eine Position oder ein Pixel oder eine Gruppe von Pixeln im Bereich des Zentrums des Bildsensors.
  • Weiter ist zur Durchführung des Nachverfolgens die Nachverfolgungseinheit vorzugsweise angepasst, wenn aufgrund der Bewegung des Ziels eine Ausrichtung des optischen Pfades zum Halten des Abbilds des Ziels in der Nachverfolgungsposition nicht möglich ist, die Nachverfolgung des Ziels zusätzlich oder auch alternativ durchzuführen, indem die veränderliche Position des Abbilds des Ziels auf dem Bildsensor nachverfolgt wird. Mit anderen Worten kann bei einer zu hohen Geschwindigkeit des Ziels relativ zum optischen System die Nachverfolgung mittels Ausrichtung des optischen Pfades möglicherweise nicht ausreichen, das Ziel immer in der Nachverfolgungsposition auf dem Bildsensor zu halten, sodass statt oder neben einer Ausrichtung des optischen Pfades auch das Abbild des Ziels auf dem Bildsensor erfasst werden kann und dessen veränderliche Position nachverfolgt werden kann. Wird die relative Geschwindigkeit des Ziels nachfolgend wieder geringer, kann der optische Pfad wieder so auf das Ziel ausgerichtet werden, dass das Abbild des Ziels in der Nachverfolgungsposition auf dem Bildsensor zu liegen kommt und dort gehalten wird. Entsprechendes kann bei zeitweiliger Abdeckung des Ziels durchgeführt werden, falls ein Ziel zeitweilig auf dem Sensor nicht sichtbar ist, kann bei Wiedererkennen des Abbilds des Ziels auf dem Sensor das Abbild auf eine oder beide der erläuterten Arten nachverfolgt werden.
  • Die Nachverfolgungseinheit umfasst in einem Ausführungsbeispiel mechanische Komponenten zum entsprechenden Bewegen des optischen Systems in eine gewünschte Ausrichtung des optischen Pfades, beispielsweise um das optische System auf ein Ziel auszurichten, und Software bzw. Hardware oder Kombinationskomponenten, um eine entsprechende Bildverarbeitung zur Nachverfolgung des Abbild des Ziels auf dem Bildsensor und Ausrichtung des optischen Systems zu ermöglichen. Vorzugsweise umfasst das optische System einen Speicher, eine Verarbeitungseinheit und geeignete Sensoren bzw. Stellglieder oder Motoren, um entsprechende Verarbeitungen und Stellvorgänge durchzuführen.
  • Im Folgenden wird mit Bezug auf 2 ein weiteres Ausführungsbeispiel beschrieben. 2 zeigt ein Beispiel eines durch den Bildsensor 110 aufgenommenen Abbilds des Ziels.
  • In 2 ist im Zentralbereich des Bildsensors schematisch an der Bildsensorposition XY, beispielsweise in einer Matrix von Bildpixeln in X und Y Richtung, das Abbild des Ziels dargestellt. In 2 ist angenommen, dass das Abbild des Ziels genau auf der Nachverfolgungsposition XY des Bildsensors zu liegen kommt. Die Nachverfolgungsposition ergibt sich durch die Anordnung der Linsenanordnung und des Bildsensors relativ zueinander, vorzugsweise kann die Nachverfolgungsposition eine Zentralposition des Bildsensors sein. Dabei ist die Nachverfolgungsposition die Position, bestimmt durch die Linsenanordnung und deren Ausrichtung zum Bildsensor, in der ein im optischen Pfad beispielsweise auf einer optischen Achse der Linsenanordnung liegendes Ziel genau auf dem Bildsensor abgebildet wird.
  • In praktischen Fällen ist dieses Kriterium jedoch schwierig dauerhaft einzuhalten, d. h. in einem realen System mit Fehlern und mechanischem Spiel wird die Nachverfolgungsposition nicht genau in einem vordefinierten Bereich des Bildsensors zu liegen kommen, bzw. kann sich je nach Temperaturen, Anwendung, etc. auch im Betrieb des optischen Systems geringfügig ändern. Das heißt, die Nachverfolgungsposition auf dem Bildsensor ist nicht eine ein für alle Mal gleiche Position, sondern eine Position, die sich je nach Bedingungen in einem gewissen Bereich ändern kann. Es ist daher wünschenswert, auch während des Betriebs die Nachverfolgungsposition jeweils genau festzulegen, wozu das optische System mit einer Lasereinrichtung 210 in 1 ausgerüstet sein kann, zum Aussenden von Laserlicht entlang des optischen Pfades. Die Nachverfolgungsposition kann dann als die Position von reflektiertem Laserlicht auf dem Bildsensor 110 definiert werden.
  • Beispielsweise kann als Lasereinrichtung 210 eine für eine elektronische Distanzmessung bereitgestellte Lasereinrichtung eines optischen Systems verwendet werden. Da eine solche Distanzmesseinrichtung Laserlicht in Richtung des Ziels aussendet und aufgrund der Reflektion des Laserlichts vom Ziel eine Entfernung zum Ziel berechnet, das Laserlicht durch die Linsenanordnung auch auf den Bildsensor auftrifft, nachdem es vom Ziel reflektiert wurde, kann das Laserlicht auch zur Festlegung der Nachverfolgungsposition herangezogen werden. Vorzugsweise ist die Lasereinrichtung 210 so angeordnet, dass sie ausgesendetes Laserlicht beispielsweise durch einen Teilerspiegel in den optischen Pfad der Linsenanordnung einkoppelt, sodass das Laserlicht entlang des optischen Pfades ausgesendet wird, und vom Ziel in Richtung des Bildsensors reflektiert oder gestreut wird. Je nach Lage der Linsenanordnung und des Bildsensors zueinander wird das zur Distanzmessung ausgesendete Laserlicht an einem definierten Punkt, der Nachverfolgungsposition, des Bildsensors auftreffen. Die Nachverfolgungsposition kann diese Weise bei Beginn eines Betriebs oder auch während eines Betriebs in bestimmten Zeitabständen festgelegt werden, um Fehler zu minimieren. In 2 ist die Laseranordnung 210 schematisch dargestellt, Licht parallel zur Linsenanordnung auszusenden, dies ist jedoch nur ein Beispiel, wie erwähnt ist es möglich, das Laserlicht auch in den optischen Pfad der Linsenanordnung einzukoppeln, mittels eines Teilerspiegels, sodass das Laserlicht im Bereich des Zentralbereichs der Linsenanordnung geführt wird.
  • Um eine Erfassung des Laserlichts, das vom Ziel zurückreflektiert wird, auf den Bildsensor zu erleichtern oder zu verbessern, kann zu diesem Zweck ein Bandpassfilter in den optischen Pfad geschaltet werden, sodass nur Licht im Bereich des Laserlichts durch die Linsenanordnung hindurch auf den Bildsensor auftreffen kann. Eine Bestimmung der Nachverfolgungsposition wird somit erleichtert, da nur das Laserlicht auf dem Bildsensor sichtbar wird.
  • Da beim Betrieb des optischen Systems, beispielsweise in einem Tachymeter oder einer Totalstation mit elektronischer Distanzmessung das zur Distanzmessung ausgesendete Laserlicht eine optische Achse der Linsenanordnung festlegt, nämlich die Richtung, in der eine Distanzmessung und somit auch eine Positionsbestimmung möglich wird, kann das Laserlicht auf diese Weise vorzugsweise für eine Bestimmung der Nachverfolgungsposition herangezogen werden. Die Nachverfolgungsposition kann als Strichkreuz auf einer Anzeigeeinrichtung angezeigt sein, vorzugsweise als Kreuzungspunkt des Strichkreuzes.
  • 3 zeigt ein Ausführungsbeispiel eines Verfahrens zum Nachverfolgen eines Ziels mit dem optischen System, beispielsweise dem optischen System aus den 1 und 2.
  • Nachdem das optische System beispielsweise in einem Baustellenbereich positioniert wurde, kann mit einer Nachverfolgung eines Ziels, beispielsweise einer Planierraupe beim Autobahnbau, begonnen werden. Zunächst wird in einem Schritt S301 ein Bild des Ziels, z. B. auf der Planierraupe, auf einen Bildsensor projiziert, unter Verwendung einer entlang eines optischen Pfades des optischen Systems angeordneten Linsenanordnung mit variabler Position zum Bildsensor.
  • In einem Schritt S302 wird Licht in einem vorgegebenen Wellenlängenbereich, z. B. Licht im infraroten oder nahezu infraroten Bereich, in Richtung des Ziels unter Verwendung einer Lichtquelle ausgesendet. Vom Ziel reflektiertes Licht im vorgegebenen Wellenlängenbereich wird in Richtung des optischen Systems zurückgeführt.
  • In einem Schritt S303 wird durch Schalten eines ersten optischen Filters, zum selektiven Durchlassen des Lichts im vorgegebenen Wellenlängenbereich in Richtung des Bildsensors, in den optischen Pfad hinein mittels eines Filterschalters selektiv nur Licht im vorgegebenen Wellenlängenbereich zum Bildsensor geführt.
  • In einem Schritt S304 wird ein Ziel nachverfolgt unter Verwendung des reflektierten Lichts in einer Abfolge von von dem Bildsensor erhaltenen Bildern des Ziels, unter Verwendung einer Nachverfolgungseinheit.
  • Indem der erste optische Filter in den optischen Pfad hinein und aus diesem herausgeschaltet werden kann, kann eine visuelle Betrachtung eines Umgebungsbereichs mit dem Ziel sowie ein Nachverfolgen mittels der Nachverfolgungseinheit mittels Licht im vorgegebenen Wellenlängenbereich ermöglicht werden. Mit dem Verfahren zum Nachverfolgen eines Ziels kann ein einziges Ziel optisch überwacht bzw. mit Licht im vorgegebenen Wellenlängenbereich nachverfolgt werden, oder auch eine Gruppe von unterschiedlichen Zielen, die in einer zeitlichen Abfolge nachverfolgt werden. Dazu wird die Nachverfolgung der Gruppe von Objekten jeweils für ein Objekt in einem beispielsweise vorgegebenen Zeitabschnitt durchgeführt, und dann in einem weiteren Zeitabschnitt für ein anderes Objekt. Nachdem alle Objekte während eines Zeitabschnitts nachverfolgt wurden, kann das erste Objekt wiederum in einem Zeitabschnitt nachverfolgt werden.
  • 4 zeigt ein Ausführungsbeispiel eines optischen Systems bei dem insbesondere die Eigenschaften der Linsenanordnung mit veränderlicher Position relativ zum Bildsensor erläutert werden.
  • Das optische System nach 4 entspricht in wesentlichen Elementen dem bereits in 1 gezeigten optischen System. In 4 ist zusätzlich eine Motoreinheit 310 dargestellt, zum Bewegen der Linsenanordnung relativ zum Bildsensor. Dabei kann die Linsenanordnung in eine Linsenposition einer Weitwinkeleinstellung bewegt werden, und in eine Linsenposition einer Schmalwinkeleinstellung. Bei der Weitwinkeleinstellung ist beispielsweise der auf dem Bildsensor abgebildete Umgebungsbereich des optischen Systems in einem weiten Winkelbereich abgebildet, sodass ein großer Bereich des Umfelds des optischen Systems auf dem Bildsensor abgebildet wird. Der Weitwinkelbereich ist insbesondere geeignet für eine Nachverfolgung eines Ziels im Nahbereich. Weiter kann in der Schmalwinkeleinstellung ein geringerer Winkelbereich des Umfelds des optischen Systems auf dem Bildsensor abgebildet werden z. B. für eine Nachverfolgung eines Ziels in größerer Entfernung. Der Schmalwinkelbereich entspricht somit mit anderen Worten einer Zoom- bzw. Teleeinstellung der Linsenanordnung, der Weitwinkelbereich einer Weitwinkeleinstellung.
  • Die Motoreinheit kann aus einer einzelnen Antriebseinheit bzw. aus mehreren Antriebseinheiten bestehen, um eine bzw. mehrere Linsen der Linsenanordnung in ihrer Position, vorzugsweise Entfernung, vom Bildsensor einzustellen. Durch die Bewegung der Linsen relativ zum Bildsensor kann beispielsweise die Brennweite und der Fokus der Linsenanordnung eingestellt werden, um Objekte in der Schmalwinkeleinstellung und Weitwinkeleinstellung scharf auf den Bildsensor abzubilden. Die Motoreinheit ist vorzugsweise mit einer Ansteuereinheit versehen, um gewünschte Linsenbewegungen durchzuführen, beispielsweise bei Fehlen zur Veränderung der Brennweite bzw. des Fokus.
  • Aufgrund der geometrischen Gegebenheiten ist die Abbildung eines Ziels im Weitwinkelbereich und im Schmalwinkelbereich mit unterschiedlichen Eigenschaften. In der Weitwinkeleinstellung ist die durch eine Bewegung des Ziels hervorgerufene Veränderung der Position des Abbilds des Ziels auf dem Bildsensor langsamer als in der Schmalwinkeleinstellung. Damit eignet die Weitwinkeleinstellung sich insbesondere für die Nachverfolgung eines Ziels im Nahbereich, beispielsweise wenn eine mit dem Ziel ausgestattete Planierraupe im Straßenbau sich in größerer Nähe zum optischen System befindet. Um eine große Positionsveränderung bzw. schnelle Positionsveränderung des Abbild des Ziels auf dem Bildsensor zu vermeiden, die Nachverfolgung des Ziels mittels Nachführung bzw. Nachverfolgung des Abbilds des Ziels auf dem Bildsensor schwer machen würde, wird bei einer solchen Überwachung eines Ziels im Nahfeld oder eines Ziels mit größerer Geschwindigkeit vorzugsweise die Weitwinkeleinstellung verwendet. Entfernt sich das Objekt weiter vom optischen System, verringert sich die Geschwindigkeit der Positionsänderung des Abbilds des Ziels auf dem Bildsensor, oder entsprechend wenn sich die Bewegungsgeschwindigkeit des Ziels absolut reduziert, kann vorzugsweise Linsenanordnung in die Schmalwinkeleinstellung gebracht werden, um die in dieser Einstellung größere Genauigkeit der Nachverfolgung zu nutzen.
  • Zu diesem Zwecke ist die Motoreinheit vorzugsweise dazu angepasst, die Linsenanordnung in die Weitwinkeleinstellung zu bringen, wenn beispielsweise aufgrund der Bewegung des Ziels oder anderer Faktoren wie beispielsweise Distanz des Ziels zum optischen System, eine Ausrichtung des optischen Pfades zum Halten des Abbilds des Ziels in der Nachverfolgungsposition nicht möglich ist. Weiter kann vorzugsweise die Motoreinheit dazu vorgesehen sein, die Linsenanordnung in die Schmalwinkeleinstellung zu bringen, wenn aufgrund der Bewegung des Ziels, z. B. einer verringerten Bewegungsgeschwindigkeit des Ziels oder einer größeren Entfernung des Ziels zum Bildsensor oder entsprechend der Größe des Bildes, eine Ausrichtung des optischen Pfades zum Halten des Abbilds des Ziels in der Nachverfolgungsposition möglich ist.
  • Somit erlaubt es die Erfindung vorteilhaft zwischen einer Nachverfolgung des Ziels mittels Weitwinkeleinstellung oder wahlweise mittels Schmalwinkeleinstellung zu wählen. Damit kann das im Stand der Technik häufige Verlieren des Ziels, d. h. des Bewegens des Abbilds des Ziels vom Bildsensor heraus, vermieden werden, da dann, wenn sich das Abbild des Ziels nicht mehr in der Nachverfolgungsposition halten lässt bzw. droht sich aus dem vom Bildsensor abgedeckten Bereich herauszubewegen, in die Weitwinkeleinstellung gewechselt werden kann. In diesem Fall kann die Motoreinheit 310 mit einem Steuerbefehl versorgt werden, um eine entsprechende Positionsveränderung der Linsen der Linsenanordnung relativ zum Bildsensor durchzuführen. Zusätzlich kann eine visuelle Betrachtung des Ziels bzw. der Ziele ermöglicht werden, indem der erste optische Filter selektiv hinein in oder aus dem optischen Pfad heraus geschaltet wird, sodass die Wellenlängen des sichtbaren Lichts auf dem Bildsensor auftreffen können. Ein somit erlangtes Abbild des Umgebungsbereichs des optischen Systems kann dann in einem Okular oder auf einer Bildschirmeinrichtung sichtbar gemacht werden.
  • Vorzugsweise wird gemäß dem obigen die Linsenanordnung bei einem Beginn des Nachverfolgens in die Weitwinkeleinstellung gebracht, um das Ziel sicher zu erfassen. Im Verlauf des Nachverfolgens kann dann von der Weitwinkeleinstellung in die Schmalwinkeleinstellung gewechselt werden, wenn sichergestellt ist, beispielsweise dass das Abbild des Ziels sich in der Nachverfolgungsposition auf dem Bildsensor durch Ausrichten des optischen Systems halten lässt. Lässt sich das Abbild des Ziels nicht durch Ausrichten des optischen Systems in der Nachverfolgungsposition halten, und/oder wenn sich das Abbild des Ziels auf dem Bildsensor in den Randbereich des Bildsensors oder über diesen hinaus bewegt, kann aus der Schmalwinkeleinstellung in die Weitwinkeleinstellung gewechselt werden, um das Ziel weiterhin nachverfolgen zu können.
  • Weiter vorzugsweise kann die Motoreinheit 310 angepasst sein, die Bewegung der Linsenanordnung von der Linsenposition im Weitwinkelbereich in die Linsenposition im Schmalwinkelbereich über eine vorbestimmte Anzahl von Linsenposition entsprechend zwischen Winkelbereichen durchzuführen. Zwischenwinkelbereiche können dann vorteilhaft sein, wenn optische Eigenschaften sich im Schmalwinkelbereich und Weitwinkelbereich stark unterscheiden, sodass eine Nachverfolgung bzw. visuelle Betrachtung in Zwischenwinkelbereichen vorteilhaft wird.
  • Die Anzahl von Zwischenwinkelbereichen wird vorzugsweise so gewählt, dass die Tiefenschärfebereiche der Linsenanordnung sich im benachbarten Zwischenwinkelbereichen überlappen. Somit kann bei einem Umschalten der Linsenanordnung zwischen den einzelnen Winkelbereichen das Ziel in jedem Fall scharf auf dem Bildsensor abgebildet werden, um die optische Nachverfolgung bzw. Betrachtung nicht zu beeinträchtigen. In praktischen Systemen können mit fünf bis zehn Winkelbereichen der gesamte optische Bereich einschließlich des Schmalwinkelbereichs und des Weitwinkelbereichs abgedeckt werden.
  • Weiter vorzugsweise kann die Linsenposition der Linsenanordnung im Weitwinkelbereich, in den Zwischenwinkelbereichen und dem Schmalwinkelbereich so gewählt sein, dass eine Größe der Abbildung des Ziels auf dem Bildsensor gleich gehalten oder in etwa gleich gehalten wird. Die tatsächliche Größe des Abbilds des Ziels hängt neben der Größe des Ziels auch von der Entfernung des Ziels vom Bildsensor und der Einstellung der Linsenanordnung relativ zum Bildsensor ab. Die einzelnen Winkelbereiche können nun so gewählt werden, dass in jedem Winkelbereich die Entfernung des Ziels vom optischen System so ist, dass durch die abstandsbedingte Verkleinerung des Abbilds des Ziels auf dem Bildsensor in Verbindung mit der Einstellung der Linsenanordnung in dem entsprechenden Winkelbereich die Größe der Abbildung des Ziels auf dem Bildsensor die gleiche Größe behält. Für eine bestimmte gemessene Entfernung des Ziels vom optischen System kann also vorteilhaft ein Winkelbereich gewählt werden, der optische Eigenschaften bewirkt, die die Größe des Ziels auf dem Bildsensor konstant halten.
  • In einer weiteren vorteilhaften Ausführungsform wird dem Umstand Rechnung getragen, dass die mit dem optischen System gemessenen Winkel zur Positionsbestimmung des Ziels fehlerbehaftet sind, beispielsweise durch Fehlstellungen der Achsen des optischen Systems. Wie bei optischen Systemen üblich, die Winkelmessungen an Zielen durchführen, sind der gemessene Höhenwinkel bzw. Vertikalwinke mit einem sogenannten Höhenindexfehler behaftet, und die gemessenen Seitenwinkel, d. h. Horizontalwinkel, mit einem entsprechenden Seitenkollimationsfehler. Gemessene Winkel müssen also immer um die entsprechenden Höhen- bzw. Seitenkollimationsfehler korrigiert werden, um genaue Messungen zu ermöglichen. Der Höhen- und Seitenkollimationsfehler kann vorab bei Herstellung und Durchführung einschließlich Feldkalibrierung, d. h. Kalibrierung während des Betriebs, bestimmt werden. Wie im Gebiet allgemein bekannt, können der Höhenindexfehler und Seitenkollimationsfehler durch Messung eines bekannten Ziels in zwei Fernrohrlagen bestimmt werden.
  • Es ergibt sich, dass der Höhenindexfehler und der Seitenkollimationsfehler unter anderem von der Position der Linsenanordnung relativ zum Bildsensor abhängig ist, so dass sich für die jeweiligen Winkelbereiche unterschiedliche Höhen- und Seitenkollimationsfehler ergeben. Gemäß der Erfindung werden somit vorteilhaft für Linsenpositionen der Linsenanordnung im Weitwinkelbereich, in den Zwischenwinkelbereichen und im Schmalwinkelbereich Kalibrierungswerte für vordefinierte Positionen auf dem Bildsensor für einen Höhenindexfehler und einen Seitenkollimationsfehler verwendet, um bei der Nachverfolgung des Ziels gemessene Winkelwerte zu korrigieren. Die für die einzelnen Winkelbereiche, d. h. Positionen der Linsen der Linsenanordnung, anwendbaren Fehlerkorrekturen können in einem Speicherbereich des optischen Systems vorab abgelegt werden, sodass bei Einstellung der Linsenanordnung in einem bestimmten Winkelbereich entsprechende Korrekturwerte für vordefinierte Bildsensorpositionen x, y aus dem Speicher ausgelesen bzw. berechnet werden können. Die Korrekturwerte können für eine oder mehrere Positionen auf dem Bildsensor für eine oder mehrere Linsenpositionen in den Winkelbereichen vorgehalten werden.
  • Beispielsweise sind die Winkelfehler von den Einstellwinkeln des optischen Systems abhängig. Für jeden Einstellwinkel, horizontal und vertikal, müssen also entsprechende Korrekturwerte vorab oder während des Betriebs erhalten werden. Zusätzlich können die Winkelfehler auch von der eingestellten Brennweite und/oder dem Fokus abhängig sein. Somit können zur Feststellung des erforderlichen Winkelkorrekturwertes die für die am optischen System eingestellten Winkel die geltenden Korrekturwerte anhand der in den jeweiligen Winkelpositionen der Linsenanordnung gemessenen Fehlerwerte herangezogen werden.
  • Um bei Temperauränderungen oder der Alterung oder aufgrund sonstiger Einflüsse veränderliche Fehler einzugehen, können während des Betriebs, vor Betriebsbeginn oder und/oder bei Herstellung des optischen Systems entsprechende Kalibrierungswerte für den Höhenindexfehler und Seitenkollimationsfehler für den Weitwinkelbereich, die Zwischenwinkelbereiche und den Schmalwinkelbereich in Abhängigkeit von den am optischen System eingestellten Winkeln, horizontal und vertikal, bestimmt werden und in dem Speicher abgelegt werden.
  • Wird im Betrieb eine Kalibrierung durchgeführt, werden durch die Motoreinheit die jeweiligen Linsenpositionen entsprechend der Winkelbereiche angefahren, und die Messfehler entsprechend bestimmt, beispielsweise durch Messung eines bekannten Ziels in zwei Fernrohrlagen.
  • Da die Zielachsenfehler stark von den Positionen der Linse und der Linsenanordnung und damit den Winkelbereichen für die Messung abhängen, ist es wünschenswert, dass die den Winkelbereichen entsprechenden Linsenpositionen mit höchster Genauigkeit eingehalten werden. Da festgestellt wurde, dass selbst Stellfehler der Motoren bei der Einstellung der Positionen der Linsen aus verschiedenen Ausgangsrichtungen Einflüsse auf die Genauigkeit der Messung bzw. Anwendbarkeit der für diese Position vorbehaltenen Kalibrierungswerte Einflüsse haben, ist es vorzuziehen, die Linsenpositionen der Linsenanordnung in dem jeweiligen Winkelbereich, d. h. im Weitwinkelbereich, in den Zwischenwinkelbereichen und dem Schmalwinkelbereich jeweilig aus der relativ zum Bildsensor gleichen Richtung anzufahren. Dieses erlaubt es die Stellfehler zu minimieren, und die Zuverlässigkeit der Messergebnisse sowie die Anwendbarkeit der für die jeweilige Linsenposition und dem Winkelbereich vorgehaltenen Kalibrierungswerte zu verbessern.
  • Die in 4 dargestellte Anordnung des optischen Systems erlaubt es, eine Nachverfolgung eines Ziels oder mehrerer Ziele mit unterschiedlichen Winkelbereichen bzw.
  • Linsenpositionen der Linsen der Linsenanordnung relativ zum Bildsensor durchzuführen.
  • Dieses ermöglicht vorteilhaft, ein Ziel in einem weiten Entfernungsbereich bzw. Geschwindigkeitsbereich nachzuverfolgen, ohne die oben geschilderten Probleme im Stand der Technik bei der Nachverfolgung eines Ziels durch Ausrichtung des optischen Systems bzw. Herausbewegen des Abbilds des Ziels auf dem Bildsensor aus dem Abbildungsbereich zu vermeiden.
  • Zudem ist durch entsprechendes Schalten des ersten optischen Filters in den optischen Pfad hinein und aus diesem heraus selektiv ein Nachverfolgen bzw. visuelles Betrachten des Umfelds des optischen Systems möglich.
  • 5 zeigt eine Lichtquelle zum Aussenden von Licht in einem vorgegebenen Wellenlängenbereich, z. B. im infraroten Bereich oder nahezu infrarotem Bereich gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
  • In 5 ist schematisch die Linsenanordnung 120 in einer Aufsicht gezeigt. Um die Linsenanordnung 120 ist ringförmig die Lichtquelle 130 bereitgestellt. Durch die symmetrische Anordnung der Lichtquelle 130 um die Linsenanordnung 120 herum kann trotz exzentrischer Anordnung einzelner Elemente der Lichtquelle nicht auf dem optischen Pfad bzw. im Zentralbereich der Linsenanordnung, eine entsprechende Wirkung der Ausleuchtung des Ziels erreicht werden. Vorteilhaft umfasst die Lichtquelle 130 eine Vielzahl von Licht emittierenden Dioden 510, die vorzugsweise gleich beabstandet und ringförmig um die Linsenanordnung 120 angeordnet sind. Die Licht emittierenden Dioden senden Licht im vorgegebenen Wellenlängenbereich aus, z. B. im infraroten Bereich oder nahezu infraroten Bereich oder jedem anderen Bereich aus, das vom Ziel reflektiert wird und in die Linsenanordnung 120 eintritt und durch diese hindurch auf dem Bildsensor auftrifft.
  • Die Licht emittierenden Dioden 510 können in einem Beispiel entsprechende Abstrahlcharakteristiken aufweisen, sodass eine homogene Ausleuchtung des Umfelds des optischen Systems bereitgestellt wird.
  • Weiter können die Licht emittierenden Dioden 510 in eine erste Gruppe von Licht emittierenden Dioden und eine zweite Gruppe von Licht emittierenden Dioden aufgeteilt werden, sodass beispielsweise jede zweite Licht emittierende Diode in Umfangsrichtung zur ersten Gruppe gehörig ist und jede zweite Licht emittierende Diode in Umfangsrichtung zur zweiten Gruppe gehörig definiert wird. Die Licht emittierenden Dioden der ersten Gruppe können eine schmale Abstrahlcharakteristik aufweisen und/oder einen ersten Wellenlängenbereich und die zweite Gruppe von Licht emittierenden Dioden kann eine breite Abstrahlcharakteristik aufweisen und/oder einen zweiten Wellenlängenbereich. Die schmale Abstrahlcharakteristik wird vorzugsweise für die Ausleuchtung des Ziels im Schmalwinkelbereich verwendet, d. h. in größerer Entfernung zum optischen System, und die erste Gruppe von Licht emittierenden Dioden mit breiter Abstrahlcharakteristik für eine Ausleuchtung des Umfelds im Weitwinkelbereich. Der erste und zweite Wellenlängenbereich kann vorzugsweise so gewählt sein, dass abhängig von verschiedenen Umgebungsbedingungen wie der Sonneneinstrahlung, Kunstlicht, etc. und/oder der Reflexionscharakteristik des Ziels bzw. Strahlungscharakteristik des aktiven Ziels, ein Nachverfolgen mit dem Licht in den unterschiedlichen Wellenlängenbereichen erleichtert wird. Dazu können die Dioden gemeinsam oder wahlweise betrieben werden.
  • Entsprechend den Wellenlängenbereichen können unterschiedliche Filter bereitgestellt sein, die in den optischen Pfad geschwenkt werden.
  • Auch ein Laserlicht zur Distanzmessung von einem elektronischen Distanzmesser bzw. EDM kann als Lichtquelle zur Ausleuchtung des Ziels herangezogen werden.
  • In einer weiteren bevorzugten Ausführungsform können eine Vielzahl von Gruppen von Licht emittierenden Dioden definiert werden, jeweilig mit Abstrahlcharakteristiken, die ein Objekt im jeweiligen zum Winkelbereich gehörenden Abstand optimal ausleuchten.
  • Die Vielzahl von Licht emittierenden Dioden kann synchron zur Belichtungszeit des Bildsensors 110 gepulst sein, sodass nur zum Zeitpunkt einer Belichtung des Bildsensors Licht im vorgegebenen Wellenlängenbereich ausgesendet wird und somit eine Batterielebensdauer verlängert wird.
  • 6 zeigt ein optisches System gemäß einem weiteren Ausführungsbeispiel der vorliegenden Erfindung.
  • 6 veranschaulicht insbesondere die Verwendung des optischen Systems zur Nachverfolgung und parallelen visuellen Überwachung bzw. Betrachtung des Umfelds und Ziels des optischen Systems.
  • Wie erwähnt senden die Licht emittierenden Dioden bzw. die Lichtquelle 130 Licht im vorgegebenen Wellenlängenbereich in Richtung des Ziels, was reflektiert wird und durch die Linsenanordnung in Richtung des Bildsensors geführt wird. Um eine visuelle Darstellung des optischen Systems im sichtbaren Bereich zu verbessern, kann ein zweiter optischer Filterbereich gestellt sein zum selektiven Durchlassen eines zur visuellen Abbildung geeigneten Spektralbereiches, sodass diese Lichtwellenlängen nicht auf dem Bildsensor 110 auftreten. Der Filterschalter kann dazu in einer Ausführungsform angepasst sein, den zweiten optischen Filter in den optischen Pfad zu schalten, um es zu ermöglichen, mit dem Bildsensor 110 ein visuelles Bild des Zieles aufzunehmen. Vorzugsweise wird beim Schalten des zweiten optischen Filters 610 der erste optische Filter 140 aus dem optischen Pfad herausgeschaltet. Der Wechsel des ersten Filters 140 mit dem zweiten optischen Filter 610 kann mittels des Schalters 150 durchgeführt werden, bzw. durch eine mechanische Umschaltung oder eine Umschaltung durch einen Motor, der mit einem entsprechenden Steuerbefehl versorgt wird.
  • In einer bevorzugten Ausführungsform kann der Filterschalter 150 durch ein Filterrad bereitgestellt sein, das den ersten und zweiten optischen Filter hält, und wobei das Schalten des ersten und zweiten optischen Filters in den optischen Pfad und aus diesem heraus durch Drehen des Filterrades erfolgt.
  • In einer weiteren bevorzugten Ausführungsform kann das Filterrad kontinuierlich rotiert werden, sodass im Takt der Schaltung der Filter, d. h. des ersten und zweiten optischen Filters zwischen Nachverfolgung des Ziels und Aufnahme des visuellen Bildes gewechselt werden kann, um während der Nachverfolgung des Objekts eine visuelle Überwachung des Ziels zu ermöglichen.
  • 6 ermöglicht es, ein verbessertes Umschalten zwischen visueller Betrachtung und Nachverfolgen eines oder mehrerer Ziele bereitzustellen, indem eine einzige optische Anordnung dazu verwendet wird in Verbindung mit entsprechenden Filtern zwischen einer Nachverfolgung mittels eines Ziels Licht im vorgegebenen Wellenlängenbereich und einer visuellen Betrachtung eines Ziels umzuschalten.
  • 7 zeigt eine Anordnung eines optischen Systems gemäß einem weiteren Ausführungsbeispiel der vorliegenden Erfindung.
  • 7 zeigt eine Linsenanordnung 710 mit insgesamt vier Linsen, von denen zwei durch Motoren 720 relativ zum Bildsensor 110 beweglich sind.
  • Wie erläutert ist bei der Nachverfolgung eines Ziels und der Positionsbestimmung des Ziels ein genaues Winkelmessergebnis von höchster Bedeutung. Die Genauigkeit des Messergebnisses wird jedoch in Anordnungen mit beweglichen Linsen Positionierungsfehler der Linsen verschlechtert. Insbesondere können bei beweglichen Linsen Toleranzen dazu führen, dass trotz gleicher gewünschter Position einer Linse, beispielsweise bei aufeinander folgender Messung eines Ziels mit gleicher Winkelposition, durch Positionierungsfehler bei der tatsächlichen Ansteuerung einer Position, die Genauigkeit der Messung stark verschlechtert werden.
  • Insbesondere können Toleranzen bei Antrieben, Aufhängungen, etc. dazu führen, dass die gleiche Positionsvorgabe einer Linse zu unterschiedlichen tatsächlichen Positionierungen führt, weil die Positionierungsfehler zufälligen Charakter aufweisen können.
  • Um eine genaue Messung eines Winkels zu einem Ziel durchzuführen, ist jedoch eine genaue Positionierung der Linsen bzw. eine Kenntnis über den Positionierungsfehler erforderlich.
  • Wie erläutert ist für eine genaue Nachverfolgung eines Ziels die Nachverfolgungsposition bzw. die Genauigkeit der Nachverfolgungsposition als die Position erforderlich, in der eine elektronische Distanzmesseinrichtung eine Distanz zu einem Objekt misst. Eine Bestimmung der Nachverfolgungsposition durch den Distanzmesslaser kann vorgenommen werden, wie oben erläutert. Im laufenden Betrieb jedoch kann nicht ohne Beeinträchtigung des Ablaufs die Nachverfolgungspositionen festgelegt bzw. korrigiert werden.
  • Daher kann im weiteren Ausführungsbeispiel eine Monitordiode 730 bereitgestellt sein, die Licht entlang des optischen Pfads als Monitorlicht in Richtung des Bildsensors 110 aussendet. Die Monitordiode im Beispiel von 7 liefert Monitorlicht über einen Teilerspiegel, wie z. B. einen Halbspiegel oder Spiegel mit anderem Lichtteilerverhältnis, in Richtung des Bildsensors. Die oben beschriebenen zufälligen Veränderungen der Linsenposition trotz gleicher Positionsvorgabe, insbesondere in lateraler Richtung, führen zu einer Verschiebung des Auftreffpunkts des Lichts von der Monitordiode auf dem Bildsensor. Eine Differenz des Auftreffpunkts des Lichts von der Monitordiode von einem Auftreffpunkt bei idealer Linsenstellung, lässt einen Rückschritt auf das Ausmaß der Positionsfehler der Linsen schließen und lässt eine entsprechende Korrektur der Nachverfolgungsposition zu. Mit anderen Worten kann anhand der Distanz der tatsächlichen Position des Monitorlichts auf den Bildsensor zu einer gewünschten Position des Monitorlichts auf den Bildsensor, z. B. bei fehlerfreier Linsenstellung, der Nachverfolgungspunkt auf dem Bildsensor korrigiert werden. Ist beispielsweise der Auftreffpunkt des Monitorlichts um jeweils 1 Pixel in frontaler Richtung des Bildsensors und vertikaler Richtung des Bildsensors, beispielsweise in 2, verschoben, kann die Nachverfolgungsposition entsprechend um 1 Pixel in X-Richtung und 1 Pixel in Y-Richtung auf dem Bildsensor verschoben werden und als Grundlage für die Nachverfolgung des Ziels angenommen werden.
  • Alternativ zu einer Monitordiode kann ein Reflektor vorgesehen sein, der mittels eines Teilerspiegels wie z. B. einen Halbspiegel oder Spiegel mit anderem Lichtteilerverhältnis einen Teil eines Laserlichts das von einer elektronischen Distanzmesseinrichtung 740 ausgesendet wird, reflektiert und in Richtung des Bildsensors gelenkt. Entsprechend dem Licht von der Monitordiode 730 wird sich die Position des Auftreffens des Laserlichts auf dem Bildsensor bei zufälligen lateralen Verschiebungen der Linsen ändern, sodass wie im Fall der Monitordiode die Nachverfolgungsposition korrigiert werden kann.
  • Entsprechend kann dazu eine Korrektureinheit zum Erfassen eines Versatzes der Position des Monitorlichts oder des reflektierten Lichts von dem Laser zur Distanzmessung auf dem Bildsensor 110 aufgrund einer lateralen Verschiebung von Linsen der Linsenanordnung 120 bereitgestellt sein, und entsprechend die Nachverfolgungsposition unter Verwendung des Versatzes korrigiert werden. Mittels der in 7 gezeigten Anordnung lässt sich die Genauigkeit eines Nachverfolgens eines Objekts trotz Linsenanordnung mit veränderlichen Linsenpositionen verbessern, da Positionierungsfehler der Linsen in Betracht gezogen werden können.

Claims (22)

  1. Optisches System zur visuellen Abbildung und/oder Nachverfolgung eines Ziels, umfassend: einen Bildsensor (110) und eine Linsenanordnung (120) mit variabler Position zum Bildsensor entlang eines optischen Pfades des optischen Systems (100), um ein Abbild des Ziels auf den Bildsensor zu projizieren; eine Lichtquelle (130) zum Aussenden von Licht in einem vorgegebenen Wellenlängenbereich in Richtung des Ziels; einen ersten optischen Filter (140) zum selektiven Durchlassen des Lichts im vorgegebenen Wellenlängenbereich in Richtung des Bildsensors (120); einen Filterschalter (150) zum Schalten des ersten optischen Filters in den optischen Pfad hinein und aus ihm heraus; eine Nachverfolgungseinheit (160) zum Nachverfolgen des Ziels unter Verwendung des reflektierten Lichts im vorgegebenen Wellenlängenbereich in einer Abfolge von von dem Bildsensor erhaltenen Abbildern des Ziels, wenn der erste optische Filter in den optischen Pfad geschaltet ist; und eine Motoreinheit (310) zum Bewegen der Linsenanordnung relativ zum Bildsensor in eine Linsenposition einer Weitwinkeleinstellung und in eine Linsenposition einer Schmalwinkeleinstellung und um die Linsenanordnung in die Weitwinkeleinstellung zu bringen, wenn eine Ausrichtung des optischen Pfades zum Halten des Abbilds des Ziels in der Nachverfolgungsposition nicht möglich ist und um die Linsenanordnung in die Schmalwinkeleinstellung zu bringen, wenn eine Ausrichtung des optischen Pfades zum Halten des Abbilds des Ziels in der Nachverfolgungsposition möglich ist.
  2. Optisches System nach Anspruch 1, wobei die Nachverfolgungseinheit (160) angepasst ist, die Nachverfolgung des Ziels durchzuführen, indem die Position des Abbilds des Ziels auf dem Bildsensor erfasst wird und der optische Pfad des optischen Systems (100) so ausgerichtet wird, dass die Position des Abbilds des Ziels auf dem Bildsensor (110) in einer vorgegebenen Nachverfolgungsposition zu liegen kommt und in dieser gehalten wird; und die Nachverfolgungseinheit (160) angepasst ist, wenn aufgrund der Bewegung des Ziels eine Ausrichtung des optischen Pfades zum Halten des Abbilds des Ziels in der Nachverfolgungsposition nicht möglich ist, die Nachverfolgung des Ziels zusätzlich durchzuführen, indem die veränderliche Position des Abbilds des Ziel auf dem Bildsensor (110) nachverfolgt wird.
  3. Optisches System nach mindestens einem der Ansprüche 1 und 2, mit einer Lasereinrichtung (210) zum Aussenden von Laserlicht entlang des optischen Pfades in Richtung des Ziels und wobei die Nachverfolgungsposition festgelegt ist als die Position von von dem Ziel reflektiertem Laserlicht auf dem Bildsensor (110), das zur Distanzmessung vom optischen System (100) ausgesendet wird.
  4. Optisches System nach mindestens einem der vorhergehenden Ansprüche, wobei das Laserlicht unter Zwischenschaltung eines optischen Bandpassfilters vom Bildsensor (110) erfasst wird.
  5. Optisches System nach mindestens einem der vorhergehenden Ansprüche, wobei die Motoreinheit (310) angepasst ist, während des Nachverfolgens des Ziels die Linsenanordnung (120) von der Position in der Weitwinkeleinstellung in die Position in der Schmalwinkeleinstellung zu bewegen.
  6. Optisches System nach mindestens einem der vorhergehenden Ansprüche, wobei die Motoreinheit (310) angepasst ist, die Bewegung der Linsenanordnung (120) von der Linsenposition im Weitwinkelbereich in die Linsenposition im Schmalwinkelbereich über eine vorbestimmte Anzahl von Linsenpositionen entsprechend Zwischenwinkelbereichen durchzuführen.
  7. Optisches System nach mindestens einem der vorhergehenden Ansprüche, wobei die vorbestimmte Anzahl von Zwischenwinkelbereichen so gewählt ist, dass die Tiefenschärfebereiche der Linsenanordnung (120) sich in benachbarten Zwischenwinkelbereichen entsprechenden Linsenpositionen überlappen.
  8. Optisches System nach mindestens einem der vorhergehenden Ansprüche, wobei die Linsenposition der Linsenanordnung im Weitwinkelbereich, in den Zwischenwinkelbereichen und dem Schmalwinkelbereich so gewählt ist, dass Größe der Abbildung des Ziels auf dem Bildsensor (110) gleichgehalten wird.
  9. Optisches System nach mindestens einem der vorhergehenden Ansprüche, wobei für Linsenpositionen der Linsenanordnung (110) im Weitwinkelbereich, in den Zwischenwinkelbereichen und im Schmalwinkelbereich Kalibrierungswerte für vordefinierte Bildsensorpositionen für einen Höhenindexfehler und einen Seitenkollimationsfehler verwendet werden, um bei der Nachverfolgung des Ziels gemessene Winkelwerte zu korrigieren.
  10. Optisches System nach mindestens einem der vorhergehenden Ansprüche, wobei die Kalibrierungswerte an den jeweiligen Linsenpositionen durch Messung eines Objektes in zwei Fernrohrlagen erfasst werden.
  11. Optisches System nach mindestens einem der vorhergehenden Ansprüche, wobei die Motoreinheit angepasst ist, die Linsenposition der Linsenanordnung (120) im Weitwinkelbereich, in den Zwischenwinkelbereichen und dem Schmalwinkelbereich jeweilig aus der gleichen Richtung anzufahren, um Stellfehler zu minimieren.
  12. Optisches System nach mindestens einem der vorhergehenden Ansprüche, wobei die Lichtquelle (130) bereitgestellt ist durch einen Laserlicht aussendenden elektronischen Distanzmesser und/oder eine Vielzahl von lichtemittierenden Dioden (510), die um die Linsenanordnung (120) herum angeordnet sind.
  13. Optisches System nach Anspruch 12, wobei die Vielzahl von lichtemittierenden Dioden (510) eine erste Gruppe von lichtemittierenden Dioden umfasst, die eine schmale Abstrahlcharakteristik und/oder einen ersten Wellenlängenbereich aufweisen und eine zweite Gruppe von lichtemittierenden Dioden umfasst, die eine breite Abstrahlcharakteristik aufweisen und/oder einen zweiten Wellenlängenbereich.
  14. Optisches System nach mindestens einem der vorhergehenden Ansprüche, wobei die Lichtquelle (130) synchron zu einer Belichtungszeit des Bildsensors (110) gepulst ist.
  15. Optisches System nach mindestens einem der vorhergehenden Ansprüche, umfassend einen zweiten optischen Filter (610) zum selektiven Durchlassen eines zur visuellen Abbildung geeigneten Spektralbereiches; und wobei der Filterschalter angepasst ist, den zweiten optischen Filter in den optischen Pfad zu schalten, um mit dem Bildsensor (110) ein visuelles Bild des Ziels aufzunehmen.
  16. Optisches System nach mindestens einem der vorhergehenden Ansprüche, wobei der Filterschalter (150) bereitgestellt ist durch ein Filterrad, das den ersten und zweiten optischen Filter hält und wobei das Schalten des ersten und zweiten optischen Filters in den optischen Pfad und aus ihm heraus durch Drehen des Filterrades erfolgt.
  17. Optisches System nach mindestens einem der vorhergehenden Ansprüche, wobei das Filterrad kontinuierlich rotiert wird, um im Takt der Schaltung der Filter zwischen Nachverfolgung des Ziels und Aufnahme des visuellen Bildes zu wechseln, um während der Nachverfolgung des Objekts eine visuelle Überwachung des Ziels zu ermöglichen.
  18. Optisches System nach mindestens einem der vorhergehenden Ansprüche, umfassend eine Monitordiode (730), die Licht entlang des optischen Pfades als Monitorlicht in Richtung des Bildsensors (110) sendet.
  19. Optisches System nach mindestens einem der Ansprüche 1 bis 17, umfassend einen Reflektor und einen Teilerspiegel, der einen Teil des Laserlichts zur Distanzmessung entlang des optischen Pfades als Monitorlicht in Richtung des Bildsensors lenkt.
  20. Optisches System nach mindestens einem der vorhergehenden Ansprüche, umfassend eine Korrektureinheit zum Erfassen eines Versatzes der Position des Monitorlichtes auf dem Bildsensor (110) aufgrund einer lateralen Verschiebung von Linsen der Linsenanordnung (120) und zum Korrigieren der Nachverfolgungsposition unter Verwendung des Versatzes.
  21. Totalstation mit einem optischen System nach einem der vorhergehenden Ansprüche.
  22. Verfahren zur visuellen Abbildung und/oder Nachverfolgung eines Ziels, umfassend: Projizieren eines Bilds des Ziels auf einen Bildsensor unter Verwendung einer entlang eines optischen Pfades des optischen Systems angeordneten Linsenanordnung mit variabler Position zum Bildsensor; Aussenden von Licht in einem vorgegebenen Wellenlängenbereich in Richtung des Ziels unter Verwendung einer Lichtquelle; selektives Durchlassen des Lichts im vorgegebenen Wellenlängenbereich mittels eines ersten optischen Filters; Schalten des ersten optischen Filters in den optischen Pfad hinein und aus ihm heraus mittels eines Filterschalters; Schalten des ersten optischen Filters in den optischen Pfad; Nachverfolgen des Ziels unter Verwendung des reflektierten Lichts im vorgegebenen Wellenlängenbereich in einer Abfolge von von dem Bildsensor erhaltenen Bildern des Ziels, unter Verwendung einer Nachverfolgungseinheit; und Bewegen der Linsenanordnung relativ zum Bildsensor in eine Linsenposition einer Weitwinkeleinstellung und in eine Linsenposition einer Schmalwinkeleinstellung und um die Linsenanordnung in die Weitwinkeleinstellung zu bringen, wenn eine Ausrichtung des optischen Pfades zum Halten des Abbilds des Ziels in der Nachverfolgungsposition nicht möglich ist und Bewegen der Linsenanordnung in die Schmalwinkeleinstellung, wenn eine Ausrichtung des optischen Pfades zum Halten des Abbilds des Ziels in der Nachverfolgungsposition möglich ist.
DE102013227101.8A 2013-12-23 2013-12-23 Optisches System zur Nachverfolgung eines Ziels Active DE102013227101B3 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102013227101.8A DE102013227101B3 (de) 2013-12-23 2013-12-23 Optisches System zur Nachverfolgung eines Ziels
US14/553,983 US10088569B2 (en) 2013-12-23 2014-11-25 Optical system for tracking a target
CN201410815922.8A CN104730673B (zh) 2013-12-23 2014-12-23 用于跟踪目标的光学系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013227101.8A DE102013227101B3 (de) 2013-12-23 2013-12-23 Optisches System zur Nachverfolgung eines Ziels

Publications (1)

Publication Number Publication Date
DE102013227101B3 true DE102013227101B3 (de) 2015-05-21

Family

ID=53184559

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013227101.8A Active DE102013227101B3 (de) 2013-12-23 2013-12-23 Optisches System zur Nachverfolgung eines Ziels

Country Status (3)

Country Link
US (1) US10088569B2 (de)
CN (1) CN104730673B (de)
DE (1) DE102013227101B3 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017161171A (ja) * 2016-03-10 2017-09-14 三菱電機株式会社 管制装置
DE102020005343A1 (de) 2020-08-31 2022-03-03 Daimler Ag Verfahren zur Objektverfolgung von mindestens einem Objekt, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Objektverfolgungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Objektverfolgungsvorrichtung

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102369792B1 (ko) * 2015-03-05 2022-03-03 한화테크윈 주식회사 촬영 장치 및 촬영 방법
KR20180070264A (ko) * 2016-12-16 2018-06-26 삼성전자주식회사 패닝 샷 이미지 획득 방법 및 이를 지원하는 전자 장치
TWI659238B (zh) * 2017-06-06 2019-05-11 香港商立景創新有限公司 鏡頭結構及其組裝方法
CN108089196B (zh) * 2017-12-14 2021-11-19 中国科学院光电技术研究所 一种光学主被动融合的非合作目标位姿测量装置
DE102017130012A1 (de) * 2017-12-14 2019-06-19 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Kamerasystem mit laserbasiertem Rangefinder
US10687034B1 (en) * 2018-04-23 2020-06-16 Facebook Technologies, Llc Image sensor with switchable optical filter
US20210329906A1 (en) * 2018-08-31 2021-10-28 Faunaphotonics Agriculture & Environmental A/S Apparatus for spraying insecticides
JP7138525B2 (ja) * 2018-09-25 2022-09-16 株式会社トプコン 測量装置及び測量装置システム
EP3640590B1 (de) * 2018-10-17 2021-12-01 Trimble Jena GmbH Vermessungsvorrichtung zur vermessung eines objekts
EP3640677B1 (de) 2018-10-17 2023-08-02 Trimble Jena GmbH Verfolger einer vermessungsvorrichtung zur verfolgung eines ziels
US10971033B2 (en) * 2019-02-07 2021-04-06 Freedom Scientific, Inc. Vision assistive device with extended depth of field
EP3696498A1 (de) 2019-02-15 2020-08-19 Trimble Jena GmbH Vermessungsinstrument und verfahren zur kalibrierung eines vermessungsinstruments
US10747314B1 (en) * 2019-04-02 2020-08-18 GM Global Technology Operations LLC Tracking system with infrared camera
CN112422184B (zh) * 2020-09-28 2022-05-27 东方红卫星移动通信有限公司 一种用于空间光通信的粗指向装置的转动控制方法及装置
CN113989695B (zh) * 2021-09-18 2022-05-20 北京远度互联科技有限公司 目标跟踪方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010092087A1 (de) * 2009-02-11 2010-08-19 Leica Geosystems Ag Geodätisches vermessungsgerät
WO2013107781A1 (de) * 2012-01-17 2013-07-25 Leica Geosystems Ag Lasertracker mit funktionalität zur graphischen zielbereitstellung

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4386848A (en) * 1980-08-11 1983-06-07 Martin Marietta Corporation Optical target tracking and designating system
KR950013702B1 (ko) * 1993-07-15 1995-11-13 엘지전자주식회사 광자기 디스크의 광픽업 장치
US6680788B1 (en) * 2000-10-12 2004-01-20 Mcnc Scanning apparatus and associated method
WO2003073136A2 (en) * 2002-02-22 2003-09-04 Bae Systems Information And Electronics Systems Integration Inc. Ultra stable optical element x, y positioning unit for use in harsh environments
EP1549909B1 (de) 2002-10-12 2011-06-08 Leica Geosystems AG Elektronische anzeige- und steuervorrichtung für ein messgerät
US7463342B2 (en) * 2007-05-02 2008-12-09 Angstrom, Inc. Optical tracking device using micromirror array lenses
WO2009109202A1 (en) 2008-03-06 2009-09-11 Trimble Jena Gmbh Geodetic apparatus and method for controlling it
WO2010148526A1 (de) * 2009-06-23 2010-12-29 Leica Geosystem Ag Tracking-verfahren und messsystem mit lasertracker
US8786415B2 (en) * 2010-02-24 2014-07-22 Sportvision, Inc. Tracking system using proximity and/or presence
US8965045B2 (en) * 2012-02-22 2015-02-24 Nokia Corporation Image capture
US9852511B2 (en) * 2013-01-22 2017-12-26 Qualcomm Incoporated Systems and methods for tracking and detecting a target object
US20160320489A1 (en) * 2013-12-18 2016-11-03 Basf Se Target device for use in optical detection of an object

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010092087A1 (de) * 2009-02-11 2010-08-19 Leica Geosystems Ag Geodätisches vermessungsgerät
WO2013107781A1 (de) * 2012-01-17 2013-07-25 Leica Geosystems Ag Lasertracker mit funktionalität zur graphischen zielbereitstellung

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017161171A (ja) * 2016-03-10 2017-09-14 三菱電機株式会社 管制装置
DE102020005343A1 (de) 2020-08-31 2022-03-03 Daimler Ag Verfahren zur Objektverfolgung von mindestens einem Objekt, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Objektverfolgungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Objektverfolgungsvorrichtung

Also Published As

Publication number Publication date
CN104730673A (zh) 2015-06-24
US20150177382A1 (en) 2015-06-25
US10088569B2 (en) 2018-10-02
CN104730673B (zh) 2018-04-03

Similar Documents

Publication Publication Date Title
DE102013227101B3 (de) Optisches System zur Nachverfolgung eines Ziels
EP2446300B1 (de) Tracking-verfahren und messsystem mit lasertracker
EP2860550B1 (de) Scanner zur Raumvermessung
EP2446299B1 (de) Koordinatenmessgerät
DE112014003227B4 (de) Dreidimensionales Messgerät mit dreidimensionaler Übersichtskamera
EP1150096B1 (de) Fernrohr für geodätische Geräte, insbesondere für Videotachymeter
EP2810020B1 (de) Vermessungsgerät mit scanfunktionalität und einzelpunktmessmodus
EP2787322B1 (de) Geodätisches Referenzieren von Punktwolken
EP2835613B1 (de) Geodätisches Vermessungsgerät mit Mikrolinsenarray
EP2737278B1 (de) Berührungslos bedienbare vermessungsvorrichtung und steuerverfahren für eine solche
DE102014019671B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mittels 2D-Kamera
DE112007003673T5 (de) Vermessungsvorrichtung zum Verfolgen und Vermessen eines Objekts
DE2208838C1 (de) Fernrohranordnung
EP2461132A1 (de) Teleskop zur Verwendung in einem Vermessungsinstrument und Verfahren zur automatisierten Autokollimation eines Teleskops eines Vermessungsinstruments mit einem Autokollimationsziel
DE102010041490A1 (de) Optisches Instrument und Verfahren zur optischen Überwachung
EP2824412A1 (de) Elektronisch einstellbares fernoptisches Gerät
DE102011010334A1 (de) Kamerasystem und Verfahren zur Beobachtung von Objekten in großer Entfernung, insbesondere zur Überwachung von Zielobjekten bei Nacht, Dunst, Staub oder Regen
EP2811328B1 (de) Positionierungsvorrichtung, insbesondere zur Verstellung von Linsen oder Linsensystemen in optischen Geräten
DE102008058798A1 (de) Stereokameraeinrichtungen, Verfahren zur fortlaufenden automatischen Kalibrierung einer Stereokameraeinrichtung, Computerprogramm, Computerprogrammprodukt und Überwachungsvorrichtung für Windkraftanlagen, Gebäude mit transparenten Bereichen, Start- und Landebahnen und/oder Flugkorridore von Flughäfen
DE60208359T2 (de) Festkörper-folgesystem mit modulierter bake
CH656216A5 (de) Verfahren und anordnung zur pruefung der uebereinstimmung von visier- und ziellinien.
DE102015016274B4 (de) Optisches System und Verfahren zum Justieren eines Signalstrahls
DE102010020537A1 (de) Wasserdetektor
EP3502617B1 (de) Vermessungsgerät mit messstrahlhomogenisierung
DE10214164A1 (de) Vermessungsgerät mit automatischer Achseneinstellung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final