DE102013217240A1 - Tragbare Entfernungsmessvorrichtung mit einem Laserentfernungsmesser, Bildsensor(en) und 1 Mikroanzeige(n) - Google Patents

Tragbare Entfernungsmessvorrichtung mit einem Laserentfernungsmesser, Bildsensor(en) und 1 Mikroanzeige(n) Download PDF

Info

Publication number
DE102013217240A1
DE102013217240A1 DE102013217240.0A DE102013217240A DE102013217240A1 DE 102013217240 A1 DE102013217240 A1 DE 102013217240A1 DE 102013217240 A DE102013217240 A DE 102013217240A DE 102013217240 A1 DE102013217240 A1 DE 102013217240A1
Authority
DE
Germany
Prior art keywords
image
measuring device
sensor
probe beam
remote object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102013217240.0A
Other languages
English (en)
Inventor
Ellis I. Betensky
Daniel A. Coner
Gregory S. Smith
Richard N. Youngworth
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pocket Optics LLC
Original Assignee
Pocket Optics LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pocket Optics LLC filed Critical Pocket Optics LLC
Publication of DE102013217240A1 publication Critical patent/DE102013217240A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/14Viewfinders
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/14Viewfinders
    • G02B23/145Zoom viewfinders
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B9/00Optical objectives characterised both by the number of the components and their arrangements according to their sign, i.e. + or -
    • G02B9/34Optical objectives characterised both by the number of the components and their arrangements according to their sign, i.e. + or - having four components only
    • G02B9/36Optical objectives characterised both by the number of the components and their arrangements according to their sign, i.e. + or - having four components only arranged + -- +
    • G02B9/38Optical objectives characterised both by the number of the components and their arrangements according to their sign, i.e. + or - having four components only arranged + -- + both - components being meniscus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B9/00Optical objectives characterised both by the number of the components and their arrangements according to their sign, i.e. + or -
    • G02B9/34Optical objectives characterised both by the number of the components and their arrangements according to their sign, i.e. + or - having four components only
    • G02B9/36Optical objectives characterised both by the number of the components and their arrangements according to their sign, i.e. + or - having four components only arranged + -- +
    • G02B9/56Optical objectives characterised both by the number of the components and their arrangements according to their sign, i.e. + or - having four components only arranged + -- + all components being simple lenses

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Measurement Of Optical Distance (AREA)
  • Lenses (AREA)

Abstract

Tragbare Laserentfernungsmesser umfassen eine Objektivlinse, die angeordnet ist, um ein Bild eines entfernten Objekts bei einem Bildsensor zu erzeugen. Der Bildsensor ist mit einer Anzeige gekoppelt, die ein entsprechendes angezeigtes Bild erzeugt, das von einem Nutzer direkt oder unter Verwendung eines Okulars betrachtet werden kann. Ein Sender richtet einen Sondenstrahl auf ein Ziel, und ein reflektierter Teil des Sondenstrahls wird detektiert, um die Entfernung zum Ziel oder die Geschwindigkeit des Ziels abzuschätzen. Ein Bildprozessor ist an den Bildsensor und der Anzeige gekoppelt, um ein digitales Bild bereitzustellen.

Description

  • Querverweis auf in Beziehung stehende Anmeldung
  • Diese Anmeldung beansprucht den Benefit der vorläufigen US-Anmeldung 61/694,562, die am 29. August 2012 eingereicht wurde, und hier durch Bezugnahme eingebunden wird.
  • Gebiet
  • Die Offenbarung bezieht sich auf tragbare Laserentfernungsmesser.
  • Hintergrund
  • Es gibt viele Vorrichtungen, die verwendet werden zum vergrößerten Betrachten, Aufnehmen und Messen der Entfernung und Geschwindigkeit von entfernten Objekten. Eine solche Vorrichtung ist ein Laserentfernungsmesser, bei dem die Entfernung zu einem entfernten Objekt dadurch gemessen wird, dass Licht von einer Quelle bei der Vorrichtung ausgestrahlt wird und die Zeitdauer bestimmt wird, die das ausgestrahlte Licht benötigt, um zu dem entfernten Objekt zu gelangen und von diesem reflektiert zu werden und an dem Ort der ausstrahlende Quelle empfangen zu werden. Typischerweise ist die Lichtquelle ein Laser, der Licht gepulst ausstrahlt und die Lichtlaufzeit wird bestimmt durch das Zählen der empfangenen Pulse. Eine andere ähnliche Vorrichtung ist eine LIDAR-Pistole, die verwendet wird, um die Geschwindigkeit von Fahrzeugen zu detektieren und ist im Wesentlichen ähnlich einem Laserentfernungsmesser, der zum Jagen und zum Golfen verwendet wird. Die LIDAR-Pistole nimmt verschiedene Entfernungsmessungen über ein sehr kurzes Zeitintervall auf, um die Geschwindigkeit des Zielobjekts zu bestimmen.
  • Handgehaltene Laserentfernungsmesser werden häufig von Jägern und Golfern zum Bestimmen von Entfernungen verwendet. Solche Laserentfernungsmesser bestehen aus einer Objektivlinse, die Licht von dem Objekt auf ein Luftbild fokussiert, welches dann durch den Nutzer mit Hilfe eines Vergrößerungsglases oder Okulars betrachtet wird. Diese Laserentfernungsmesser verwenden eines von zwei Verfahren zum Anzeigen von Informationen über das anvisierte Fadenkreuz und die Objektentfernung. Das erste Verfahren umfasst die Verwendung einer transmissiven LCD, welches das Fadenkreuz und die Entfernungsmessungsdaten auf einem LCD-Bildschirm anzeigt. Das zweite Verfahren umfasst die Verwendung von projizierten LEDs, bei denen die Information in den optischen Pfad projiziert oder eingeblendet ist.
  • LIDAR-Pistolen verwenden sogar ein noch viel einfacheres Zielverfahren, indem sie ein kleines Teleskop oder eine Frontscheibenanzeige mit einem Fadenkreuz verwenden, um die LIDAR-Pistole auf das entsprechende Ziel auszurichten. Die Geschwindigkeit des anvisierten Fahrzeugs wird dann auf einer externen direkt sichtbaren Anzeige angezeigt.
  • Die oben beschriebenen konventionellen Laserentfernungsmesser haben eine beschränkte Leistungsfähigkeit, sowohl beim Sehen von entfernten Objekten als auch beim Betrachten nützlicher Informationen. Erstens haben konventionelle Laserentfernungsmesssysteme eine niedrige Vergrößerungskraft, die nicht für unterschiedliche Bedingungen variiert werden kann; darüber hinaus haben sie keine Bildaufnahmefähigkeit. Weil die Ausgangspupille des Systems zum Betrachten notwendigerweise groß sein muss, muss der Eingangspupillendurchmesser, der annähernd dem Vorderlinsendurchmesser entspricht, gleich dem Ausgangspupillendurchmesser mal der Vergrößerungskraft sein. Somit werden die Eingangspupille und der Objektivlinsendurchmesser zunehmend größer für entferntes Betrachten von Wild, Fahrzeugen, Bäumen, Golf Pins oder anderem Terrain. Mit Bezug auf Informationen, die auf einem LCD-Bildschirm angezeigt sind, funktioniert dieser Ansatz gut in manchen Umgebungen, aber nur ungefähr 30% des Lichts wird durch die Vorrichtung übertragen. Infolgedessen ist es nicht einfach, bei schlechten Lichtverhältnissen zu lesen und die projizierte LED-Anzeige wird unsichtbar in hellen Umgebungslichtsituationen, wie beispielsweise inmitten des Tages oder in Umgebungen mit einem hohen Albedo, wie beispielsweise in Schnee.
  • Ein anderer Nachteil von konventionellen Vorrichtungen ist es, dass Jäger oder Golfer Bilder aufnehmen wollen oder Videos aufnehmen wollen, während sie die Vorrichtung verwenden. Konventionelle Laserentfernungsmessungsmonokulare und Binokulare haben keine Mittel zum Aufnehmen von Standbildern oder Videobildern.
  • LIDAR-Pistolen haben kein integriertes Verfahren zum Aufnehmen eines Bildes des anvisierten Fahrzeugs zusammen mit der Geschwindigkeit des Fahrzeugs. Manche neuere LIDAR-Pistolen verwenden eine angeschlossene Kamera, um Bilder aufzunehmen, aber die Kamera ist in der Regel weder integriert noch verwendet als Zielverfahren für den Betreiber und schafft somit eine Fehlerquelle, da die angeschlossene Kamera ein Bild eines Fahrzeugs aufnehmen kann, das nicht durch das Geschwindigkeitsdetektionssystem anvisiert war.
  • Zusammenfassung
  • Gemäß einigen Beispielen umfassen die Messvorrichtungen einen elektronischen Bildsensor und eine Objektivlinse, die ein Bild von einem entfernten Objekt auf dem elektronischen Sensor erzeugt. Ein Bildprozessor ist an den elektronischen Sensor gekoppelt und ist an eine Bildanzeige gekoppelt, um ein angezeigtes Bild zu erzeugen, das dem Bild entspricht, das durch die Objektivlinse erzeugt wurde. Ein Okular ist angeordnet, um das angezeigte Bild für einen Nutzer zu vergrößern. In typischen Bespielen sind die Nutzer unter anderem Jäger, Golfer oder andere, die die Geschwindigkeit, Entfernung oder Trajektorie des Objekts messen. Eine Lichtquelle und eine Kollimatorlinse sind angeordnet, um einen Lichtstrahl auf ein Objekt zu projizieren, dessen Entfernung und Geschwindigkeit zu messen ist. Eine empfangende Linse ist angeordnet, um Licht von der Lichtquelle, die durch das Objekt reflektiert wird, zu sammeln, und das gesammelte Licht auf einen Sensor zu richten. Ein Zeitschaltkreis ist dazu ausgestaltet, eine Zeit, die das Licht benötigt, um von der Vorrichtung zu dem Objekt zu gelangen, zu bestimmen und die Entfernung zum Objekt, die Geschwindigkeit, mit der das Objekt sich bewegt, zu berechnen. In manchen Beispielen ist eine maximale Vergrößerungskraft der Messvorrichtung größer als. 7 X des Eingangspupillendurchmessers der Objektivlinse in Millimetern. In manchen Ausführungsformen werden mehr als eine der Funktionen der Objektivlinse, Kollimatorlinse und empfangenden Linsenkomponenten kombiniert und durch nur eine einzige Komponente ausgeführt. In typischen Beispielen umfasst die Messvorrichtung ein Mikrofon, einen Umgebungslichtsensor, einen Näherungssensor, Computer oder handgehaltene Vorrichtung, und/oder Eingabe/Ausgabe-Ports. In anderen Beispielen ist ein Anker vorgesehen für einen Haltegurt und/oder ein Stativ mit Gewinde. In wieder anderen Beispielen ist ein drahtloser Empfänger dazu ausgestaltet, Vorrichtungssteuerungsdaten, Bilddaten oder Messdaten zu kommunizieren. In einem anderen Beispiel sind externe Speicherverbindungen vorgesehen, um Bilder oder Video im entfernbaren Speicher zu speichern. In manchen Beispielen ist ein Autofokussystem gekoppelt mit der Objektivlinse und ein entfernbarer Infrarotlichtfilter ist vor dem Bildsensor angeordnet, um das Betrachten von Bildern bei schlechten Lichtbedingungen oder bei Nacht zu erleichtern.
  • In wiederum anderen Alternativen ist ein Zielverfolgungs- und Identifikationssystem vorgesehen, um das Entfernungs- und/oder Geschwindigkeitsmesssystem mit einem identifizierten Ziel auf dem Bildsensor zu synchronisieren, so dass die Messvorrichtung automatisch eine Entfernungsmessung veranlasst, wenn das identifizierte Ziel durch ein Zentrum oder andere vorbestimmte Abschnitte des Bildsensors durchgeht, um die Entfernungsmessung zu unterstützen, wenn ein Nutzer instabil ist oder sich bewegt. In wiederum anderen Beispielen sind zusätzliche Bildsensoren für sichtbares Licht und Infrarotlicht vorgesehen und ein sichtbares Bild, ein infrarotes Bild und/oder ein kombiniertes Bild werden angezeigt. Gemäß anderen Beispielen ist ein zweites Okular vorgesehen für binokulares (stereoskopisches) Sehen oder biokulares Sehen. In anderen Ausführungsformen ist ein Bewegungssensor dazu ausgestaltet, festzustellen, wenn die Vorrichtung nicht mehr verwendet wird, um die Vorrichtung auszuschalten, um Energie zu sparen oder ein GPS-Empfänger und GPS-Kartensoftware zum Bestimmen des Standorts.
  • Die vorangegangenen und andere Ziele, Merkmale und Vorteile der Erfindung werden deutlicher werden aus der folgenden detaillierten Beschreibung, welche mit Bezug zu den begleitenden Figuren fortschreitet.
  • Kurze Beschreibung der Zeichnungen
  • 1 bis 2 sind perspektivische Ansichten eines Laserentfernungsmessers.
  • 3 ist ein Blockdiagramm eines Laserentfernungsmessers.
  • 4 ist ein schematisches Diagramm eines Laserempfängers (Rx) wie in dem Blockdiagramm von 3 umfasst.
  • 5 ist ein schematisches Diagramm eines Lasersenders (Tx) wie beispielsweise in dem Blockdiagramm von 3 umfasst.
  • 6 ist ein Blockdiagramm eines Laserentfernungssystems.
  • 7 bis 8 stellen Objektivlinsensysteme dar.
  • 9 stellt ein Zoom-Objektivlinsensystem dar, das drei Zoom-Positionen zeigt.
  • 10 stellt ein zusätzliches Beispiel eines Objektivlinsensystems dar.
  • 11 bis 12 stellen repräsentative Okularsysteme dar.
  • 13 bis 14 stellen Lasersendersystemoptiken dar.
  • 15 bis 16 stellen Laserempfängersystemoptiken dar.
  • 17 stellt ein repräsentatives Verfahren zum Ermitteln von Entfernungsmesseigenschaften dar.
  • Detaillierte Beschreibung
  • Wie in dieser Anmeldung und in den Ansprüchen verwendet, umfassen die Singularformen ”ein/e/es”, ”eine” und ”der/die/das” die Pluralformen, außer der Zusammenhang gibt anderes vor. Außerdem bedeutet der Begriff ”beinhaltet” ”aufweist”. Weiter schließt der Begriff ”gekoppelt” das Vorhandensein von Zwischenelementen zwischen den gekoppelten Gegenständen nicht aus.
  • Die Systeme, Vorrichtungen und Verfahren, die hier beschrieben sind, sollen nicht in irgendeiner Weise als beschränkend ausgelegt werden. Stattdessen richtet sich die vorliegende Offenbarung auf alle neuen und nicht naheliegenden Merkmale und Aspekte der verschiedenen offenbarten Ausführungsformen allein gesehen und in verschiedenen Kombinationen und Unterkombinationen miteinander. Die offenbarten Systeme, Verfahren und Vorrichtungen sind nicht auf irgendeinen spezifischen Aspekt oder ein Merkmal oder Kombinationen davon beschränkt, noch fordern die offenbarten Systeme, Verfahren und Vorrichtungen, dass irgendeines oder mehrere spezifische Vorteile vorhanden sind oder Probleme gelöst werden. Alle Theorien des Betriebs sollen die Erklärung erleichtern, aber die offenbarten Systeme, Verfahren und Vorrichtungen sind nicht auf solche Theorien des Betriebs beschränkt.
  • Obwohl die Operationen mancher der offenbarten Verfahren für eine einfache Präsentation in einer bestimmten sequenziellen Reihenfolge beschrieben sind, versteht es sich, dass diese Art der Beschreibung eine Umordnung umfasst, außer eine bestimmte Reihenfolge wird durch eine spezifische Ausdrucksweise, wie weiter unten beschrieben, gefordert. Zum Beispiel können Operationen, die als aufeinanderfolgend beschrieben sind, in manchen Fällen umgeordnet werden oder gleichzeitig ausgeführt werden. Vielmehr können die beigefügten Figuren, zum Zwecke der Einfachheit, nicht die verschiedenen Wege, in denen die offenbarten Systeme, Verfahren und Vorrichtungen zusammen mit anderen Systemen, Verfahren und Vorrichtungen verwendet werden können, zeigen. Außerdem verwendet die Beschreibung manchmal Begriffe wie ”erzeugen” und ”vorsehen”, um die offenbarten Verfahren zu beschreiben. Diese Begriffe sind hochgradige Abstraktionen der tatsächlichen Operationen, die ausgeführt werden. Die tatsächlichen Operationen, die diesen Begriffen entsprechen, werden in Abhängigkeit von der bestimmten Implementierung variieren und sind durch den Fachmann leicht erkennbar.
  • In manchen Beispielen werden Werte, Prozeduren oder Vorrichtungen als ”am niedrigsten”, ”besten”, ”minimal” oder Ähnliches bezeichnet. Es wird darauf hingewiesen, dass solche Beschreibungen darauf hinweisen sollen, dass eine Auswahl unter vielen verwendeten funktionalen Alternativen getroffen werden kann, und solche Selektionen nicht besser, kleiner oder anderweitig bevorzugter sein müssen als andere Selektionen.
  • Manche Ausführungsformen sind mit Bezug zu einer Achse oder einer optischen Achse beschrieben, entlang welcher optische Elemente, wie beispielsweise Linsen angeordnet sind. Solche Achsen werden gezeigt als Linien oder Liniensegmente, aber in anderen Beispielen können Achsen eine Vielzahl von Liniensegmenten umfassen, so dass eine optische Achse unter Verwendung von Prismen, Spiegeln oder anderen optischen Elementen gebogen oder gefaltet werden. Wie hier verwendet bezieht sich ”Linse” auf einzelne lichtbrechende Elemente (Singulett) oder Multielement-Linsensysteme.
  • Das oben beschriebene konventionelle System kann nicht angepasst werden, um als kompakter, handgehaltener Laserentfernungsmesser oder als LIDAR-Pistole mit variabler Vergrößerung und einem großen Ausgangspupillendurchrnesser verwendet zu werden, weil es zu groß wäre. Stattdessen kann die gesamte Größe signifikant reduziert werden, indem ein Bild des entfernten Objekts auf einen elektronischen Sensor, wie beispielsweise einem CCD- oder CMOS-Bildsensor, erzeugt wird, der das aufgenommene Bild elektronisch verarbeitet und das Bild elektronisch an eine kleine Anzeigevorrichtung vermittelt, die mit einer Vergrößerungsokular betrachtet wird. Die offenbarte Vorrichtung und das Verfahren können auch die anderen zuvor erwähnten Nachteile überwinden. Des Weiteren können andere Merkmale, einschließlich den Folgenden realisiert werden: Autofokus, Zoomen, Bildstabilisation und Bild- und Videoaufnahme. Die Vorrichtung kann ein oder mehrere Bildsensoren verwenden, als auch ein oder mehrere Okulare, um entweder als monokularer Laserentfernungsmesser, eine LIDAR-Pistole oder ein binokularer Laserentfernungsmesser zu funktionieren. Zusätzliche Merkmale können ein Mikrofon zum Beschriften von Bildern und Video, ein GPS-Empfänger zum Bestimmen des Standorts der Vorrichtung und des Standorts des Zielobjekts, Gyroskop(e) zur Bildstabilisation, einen Neigungsmesser zum Messen des Winkels oder der Neigung, ein Kornpass oder Magnetometer zum Bestimmen des Kurses, Umgebungssensoren, wie beispielsweise Temperatur, Druck und Feuchtigkeit, und drahtlose Sender für das Konfigurieren und Downloaden von Bildern von der Vorrichtung umfassen. Ein ballistischer Computer kann auch benutzt werden, um einen Jäger dabei zu unterstützen, die geeignete Haltestellung oder horizontale Entfernung zu einem Ziel zu bestimmen oder ein Golfcomputer, um den Nutzer zu unterstützen bei der Auswahl des Golfschlägers, basierend auf der Distanz und dem Winkel zum Grün. Da die meisten modernen Digitalbildaufnahmevorrichtungen ein IR-Schnittfilter verwenden, um die Farbsättigung eines Bildes während des Tages zu verbessern, kann die Vorrichtung auch einen entfernbaren IR-Schnittfilter verwenden, um Bildaufnahmeleistungsfähigkeit bei schlechten Lichtbedingungen oder bei Nacht zu unterstützen. Zusätzlich zu einem entfernbaren IR-Schnittfilter kann eine externe IR-LED oder IR-Laserdiode verwendet werden, um die Nachtbildaufnahmefähigkeiten zu erweitern.
  • 1 ist eine perspektivische Ansicht eines Laserentfernungsmessers, der Lasersenderkollimatoroptiken 1 zum Fokussieren des ausgestrahlten Lichts, laserempfangende Optiken 3 zum Sammeln und Fokussieren des reflektierten Lichts auf einem Lichtsensor, und eine Objektivlinse 2 zum Fokussieren eines Bildes eines entfernten Objekts umfasst. Benutzersteuerfunktionen können beispielsweise bereitgestellt werden durch: eine Zoom-Vergrößerungs-Taste 4, eine Zoom-Verkleinerungs-Taste 6, eine Reichweitentaste 5, eine Menükonfiguration und Start und Stopp Bildaufnahmetaste 13, und ein Standbild oder Videomoduswählschalter 8. Ein Mikrofon 7 oder ein Umgebungssensor können durch das Gehäuse der Vorrichtung exponiert sein. Zusätzliche sichtbare Zeichen, wie beispielsweise ein Start-Aufnahme-Symbol 12, ein Stopp-Aufnahme-Symbol 11, ein Videomodussymbol 10 oder ein Standbildmodussymbol 9 können umfasst sein.
  • 2 ist eine perspektivische Ansicht des Laserentfernungsmessers von 1 und zeigt ein Sichtstück oder Okular 16 zum Betrachten eines Displays, eine Augenmuschel 15 zum Abschirmen des Auges oder des justierenden Diopterfokus. Ein Umgebungslichtsensor und ein Näherungssensor 14 sind gekoppelt, um Umgebungslicht zu erfassen, so dass die Anzeigehelligkeit justiert ist, oder um die Anzeige, wenn sie nicht verwendet wird, auszuschalten. Eine drahtlose Taste 17 ist für das Konfigurieren und das Bildherunterladen bereitgestellt, und ein Ankerpunkt 19 ist dazu ausgestaltet, einen Haltegurt zu befestigen. Eine Batterie ist bereitgestellt für die Stromversorgung und umgeben von einer Batteriehülle 18. 3 zeigt ein Blockdiagramm eines Laserentfernungsmessers. Die Vorrichtung beinhaltet zumindest ein Objektivsystem 22 zum Fokussieren von Bildern entfernter Objekte auf zumindest einen Bildsensor 23. Die Vorrichtung beinhaltet ferner einen Bildsignalprozessor 27 zum Verarbeiten von Bildern und Formatieren dieser zum Speichern in einem Speicher 25 oder einer zusätzlichen Speichervorrichtung (nicht gezeigt). Die Vorrichtung beinhaltet ferner ein Autofokussteuersystem 24 und zumindest ein digitales Gyroskop 26, um die Bildstabilisation zu unterstützen. Die Vorrichtung beinhaltet weiterhin ein Laserentfernungsmesssystem 30, das den Lasersender 29 und den Laserempfänger 28 kontrolliert, um die Strecke zwischen der Vorrichtung und den entfernten Objekten zu bestimmen. Das ausgestrahlte Licht von dem Sender 29 ist durch ein Linsensystem 20 kollimiert und reflektiertes Licht ist durch eine Empfängerlinse 21 fokussiert auf einen Lichtsensor, der mit dem Laserempfänger 28 assoziiert ist.
  • Die Vorrichtung beinhaltet zumindest einen Prozessor 31 zum Steuern der gesamten Vorrichtung und ist verbunden mit einem Stromversorgungssystem 39, und kann verbunden sein mit Umgebungssensoren 37 (3236), einem GPS-Empfänger 47, einem drahtlosen Transceiver 46 zur Konfiguration oder Herunterladen von Bildern und Video, eine Anzeigesteuervorrichtung 41, einen zusätzlichen Speicher 40 zum Speichern von Software oder Daten, einen Umgebungslicht- und Näherungssensor 45 zum Justieren der Helligkeit einer externen direkten Sichtanzeige 48 oder internen Mikroanzeige 42 oder zum Ausschalten der externen oder internen Anzeige, ein vergrößertes Okularlinsensystem 43, um Bilder und Informationen einem Nutzer anzuzeigen. Das Blockdiagramm zeigt auch Nutzerschnittstellensteuerungen 38, die umfassen können: Tasten, Hebel, Schalter, Knöpfe und andere Eingabemechanismen einschließlich Eingabe/Ausgabe-Ports wie beispielsweise USB und Speicherkartenschlitze. Ein Mikrofon 44 ist für Audioeingabe bereitgestellt.
  • Eine alternative Ausführungsform kann eine direkte Sichtanzeige verwenden, anstatt das Bild einer kleinen Anzeige zu vergrößern, Hochauflösungs-AMLCD oder AMOLED-Anzeigen aufzubauen, die auf der Außenseite der Vorrichtung befestigt sind. Durch Verwendung einer externen Direktsichtanzeige kann der Nutzer die Komplikation von Dioptrienjustierungen, die in gewöhnlicher Weise bei Okularen vorzufinden sind, vermeiden. 4 bis 5 stellen jeweils einen repräsentativen Laserempfänger und -sender dar.
  • 6 ist ein vereinfachtes Blockdiagramm eines Entfernungsmessverarbeitungssystems, das einen Analog-zu-Digital-Wandler (ADC) umfasst, der mit einem Fotodetektor 18 gekoppelt ist, der einen Teil des reflektierten Sondenstrahls empfängt. Der ADC ist an ein FPGA gekoppelt, das dazu ausgestaltet ist, Laser- und Detektor-(typischerweise Lawinenfotodiode-(APD))-Vorspannung und andere Betriebskonditionen aufzubauen. Wie gezeigt ist das FPGA dazu ausgestaltet, ein Sendertriggersignal an einen Sender zu koppeln. Ein Mikrocontroller (MCU) ist mit einem Stromversorgungsverwaltungssystem und ein Kommunikationssystem gekoppelt, um Daten und Konfigurationsparameter zu senden und zu empfangen.
  • Bildaufnahme, Verarbeitung und Anzeigefunktionalität können bereitgestellt werden mit Komponenten, die ähnlich sind oder die gleichen sind wie diejenigen, die in kommerziellen Digitalvideokameras verwendet werden. Hochauflösungssensoren, wie beispielsweise der Omnivision OV16825 16 MP Bildsensor kann für die Bildaufnahme verwendet werden. Die Bildverarbeitung kann durchgeführt werden mit einem Hochgeschwindigkeitsfeld-programmierbaren Gate Array (FPGA) oder durch Verwendung eines kommerziellen Systems auf einem Chip (SOC) wie beispielsweise den Ambarella A5S Prozessor. Der SOC integriert solche Funktionen wie Video und Audiokompression, Bildverarbeitung, Farbkorrektur, Autofokuskontrolle, Speicher, Bildstabilisation mit gyroskopischer Eingabe und Displayformatierung. Sobald ein Bild verarbeitet ist, kann es auf einer Mikroanzeige angezeigt werden, wie beispielsweise dem MicroOLED MDP01B OLED Anzeige, oder angezeigt werden auf einer externen AMOLED-oder AMLCD-Anzeige, die gewöhnlich auf Smartphones vorgefunden wird. Der SOC kann auch Audioeingabe von einem Mikrofon akzeptieren, um Stimm- oder Spielgeräusche in Kombination mit der Bildaufnahme aufzunehmen.
  • Das effektive Digitalzoom ist definiert als das maximale Verhältnis, das durch Vergleichen der verwendbaren Pixel in dem Bildsensor und der Anzeige erreicht werden kann. Der effektive Digitalzoom ist speziell definiert als: Maximum[Minirnum(sh/dh, sv/dv), Minimum(sh/dv, sv/dh)], wobei die Anzahl von Pixeln für den Bildsensor in der horizontalen Dimension sh ist, sv für den Bildsensor in der vertikalen Dimension ist, dh für das Display in der horizontalen Dimension ist, und dv für die Anzeige in der vertikalen Dimension ist. Die Paarbildung kann in der Vorrichtung mechanisch rotiert werden in angemessener Weise, um die maximale Digitalzoomkondition zu treffen. Als ein numerisches Beispiel kann man den Omnivision OV10810 Bildsensor (4320 × 2432) und die MicroOLED MPD01B Mikroanzeige (854 × 480) benutzen. Folglich ist sh 4320, sv 2432, dh 854 und dv 480. Der maximale Digitalzoom ist Maximum[Minimum(4320/854, 2432/480), Minimum(4320/480, 2432/854)] oder 5,06-fache Vergrößerung. Das Objektivsystem kann zusätzlichen optischen Zoom verwenden durch Bewegen der Linsen, um den gesamten Vergrößerungsbereich des Systems zu vergrößern.
  • Das Objektiv der Vorrichtung kann manuell fokussiert werden oder unter Verwendung einer entsprechenden Vorrichtung, wie beispielsweise eines Autofokuskontrollverfahrens, wie beispielsweise einen Schwingspulenmotor, einen Schrittmotor, einen MEMS Aktuator, einen piezoelektrischen Aktuator, künstliche Muskeln Aktuator oder flüssiges Linsensystem, positioniert entlang der optischen Achse. Folglich kann der Autofokus erreicht werden durch jedes Verfahren und jede Vorrichtung, die für das Produktdesign geeignet sind, wie beispielsweise Linsenbewegung, Sensorbewegung oder ein variabler Leistungsteil wie beispielsweise eine flüssige Linse.
  • Der Laserentfernungsmesser und die Geschwindigkeitsdetektionsschaltung verwenden typischerweise einen Infrarotlaser, wie beispielsweise die Osram SPL PL90_3 gepulste Laserdiode, um ein oder mehrere kurze Lichtpulse auf das Ziel von Interesse auszusenden. Reflektiertes Licht wird dann unter Verwendung eines fotosensitiven Sensors empfangen, wie beispielsweise dem der Excelitas C30737PH-230-92 Lawinenfotodiode, um den/die reflektierten Puls(e) zu detektieren. Durch Verwendung einer Präzisionsflugzeitschaltung oder fortschrittlichen Signalverarbeitungstechniken kann die Entfernung oder die Geschwindigkeit eines entfernten Objekts berechnet werden.
  • Ein Universal-Mikrocontroller (MCU) kann verwendet werden, um die Bildverarbeitung und das Entfernungs- und Geschwindigkeitsmesssystem zu synchronisieren, um Bilder aufzunehmen, während jedes Entfernungs- oder Geschwindigkeitsdetektionsintervalls. Diese Informationen werden in dem Speicher gespeichert.
  • Der MCU wird auch verwendet, um Umgebungssensoren abzufragen, wie beispielsweise Temperatur, Druck, Feuchtigkeit, Neigungswinkel, geo-positionaler Standort und Magnetausrichtung. Diese Informationen können verwendet werden für die ballistische Berechnung oder zur Zielortidentifikation. Der MCU kann auch ein Umgebungslicht und einen Näherungssensor verwenden, um die Anzeigenhelligkeit zu kontrollieren oder um die Anzeige auszuschalten, wenn es nicht verwendet wird und kann in Kombination mit einem Bewegungssensor verwendet werden, um die gesamte Vorrichtung auszuschalten, wenn sie nicht verwendet wird.
  • Schnittstellensteuerungen, wie beispielsweise Schaltflächen, Knöpfe, Berührungsanzeigen und andere Schnittstellensteuerungen können vorgesehen sein, um die Vorrichtung zu betreiben. Die Benutzerschnittstellensteuerungen werden verwendet, um die Vergrößerung hoch oder herunter zu zoomen, das Bild zu fokussieren, das Ziel zu vermessen, die Geschwindigkeit eines Ziels zu detektieren, Bilder aufzunehmen und die Vorrichtung zu konfigurieren.
  • Systeme und Vorrichtungen können konfiguriert sein für die Verwendung als eine Universal-Standbildkamera, Camcorder, Laserentfernungsmesser oder als eine LIDAR-Pistole zur Geschwindigkeitsdetektion, abhängig von der Nutzerkonfiguration.
  • Ein repräsentatives Verfahren 1700 zur Bestimmung von passenden Systemspezifikationen für das Objektiv und dem Okular in dem System, basierend auf physikalischen Notwendigkeiten, welche Anforderungen verursachen, die eine beugungsbeschränkte Sehleistung sowohl bei der maximalen Vergrößerung als auch bei dem weites Zoom-Positions-Gesichtsfeld, ist in 17 gezeigt und unten beschrieben. Bei 1702 wird ein gewünschtes Objektiv Halbes Gesichtsfeld (HFOVobj) ausgewählt, das eine Szene betrachtet (die eine horizontale oder vertikale Ecke sein kann) und kann für jede Vergrößerungsleistungseinstellung definiert sein (das Breiteste kann bei der niedrigsten Vergrößerungsleistung sein, HFOVwobj). Ein Bereich der Vergrößerungsleistung für das Instrument kann in absoluten Begriffen ausgewählt sein (MPmin bis MPmax, jeweils weites bis nahes Sichtfeld), und eine Größe (CAeye) und eine Position der Okularpupille (wo das Auge bei Verwendung platziert ist) werden ausgewählt. Bei 1704 wird ein verwendbarer digitaler Zoombereich für einen Sensor und Anzeigenpaarung berechnet, wenn das digitale Zoom verwendet wird basierend auf einer Formel für effektives Digitalzoom. Effektiver Digitalzoom ist Maximum[Minimum(sh/dh, sv/dv), Minimum (sh/dv, sv/dh)], wobei die Anzahl von Pixeln für den Bildsensor in der horizontalen Dimension sh, sv für den Bildsensor in der vertikalen Dimension, dh für die Anzeige der horizontalen Dimension und dv für die Anzeige in der vertikalen Dimension ist. Ein digitaler Zoom-(DZ)-Bereich, der verwendet wird, wird basierend auf den ingenieurtechnischen Betrachtungen ausgewählt, wie beispielsweise Bildstabilisation und Demosaicing in der Bildverarbeitung: MP = DZe × MPmin, wobei DZe von 1 bis zum maximal verwendeten Wert DZmax reicht (weit bis telezentrischen Zooming-Modus), MP ist die Vergrößerungsleistung und MPmin ist die minimale Vergrößerungsleistung. Ein optischer Zoombereich, der benötigt wird, um den Vergrößerungsleistungsbereich abzudecken, wird bestimmt, wenn der verwendete Digitalzoombereich unzureichend ist. MPtot = MP × Zopt, wobei Zopt der optische Zoom ist und andere Parameter wie zuvor bestimmt sind. In solchen Fällen, in denen der optische Zoom benötigt wird, können die Berechnungen durchgeführt werden für zusätzliche Zoompositionen, die benötigt werden, um den vollständigen spezifizierten Vergrößerungszoombereich abzudecken.
  • Bei 1706 wird eine breite FOV effektive fokale Länge (EFLmin) berechnet, um einen ausgewählten Sensor anzupassen: EFLmin = HDsens/tan(HFOVwobj), wobei HDsens eine korrespondierende Sensorhalb-Dimension in der durch das Objektiv HFOVwobj weites Sichtfeld definierten Dimension ist. Ein Sollwert für die objektive designeffektive Fokallänge wird ausgewählt, um eine ausreichend lange effektive Fokallänge zu haben, um beugungsbegrenzte Sensorelementabbildung auf die Szene zu liefern: EFLset = DZset × EFLmin, wobei die Pixel-Abbildungsbedingung EFLset> = [sps/(Er/MPmax)] ist, wobei EFLset die Objektiv-Fokallänge für Design ist, DZset das digitale Zoomoffset ist, das benötigt wird, um die Pixelabbildungsbedingung zu erfüllen (und kann ausgewählt werden, um die Gleichheitsbedingung in der Magnitude zu übersteigen), sps ist die sensoreffektive Pixelgröße, Er ist die Auflösungsfähigkeit des Auges und MPmax ist die maximale Vergrößerungsleistung in dem Bereich.
  • Bei 1708 werden die spezifischen Digitalzoomnummern bewertet, um das Zusammenpassen der niedrigeren zu höheren Vergrößerungsleistungsbereiche zu verifizieren, die durch den Digitalzoom, basierend auf dem Sollwert der effektiven Fokallänge der Objektivlinse, bereitgestellt sind: DZmin <= DZset <= DZmax, wobei DZmin 1 ist, DZmax und DZset wie zuvor definiert sind und das Digitalzoomverhältnis proportional zu dem Verhältnis der äquivalenten digitalen EFL-Werte bei verschiedenen MP (digital äquivalent EFL EFLdigeq = DZe EFLmin, wobei EFLmin = EFLset/DZset als DZmin = 1) ist.
  • Bei 1710 wird ein minimaler Objektiv-Eintrittspupillendurchmesser berechnet, um eine geeignete Auflösung von Winkelbeugung und Augenauflösungsbedingungen sicherzustellen. Ein solches Überprüfen kann basieren auf Sparrow- oder Rayleigh-Kriterien, die von dem Systemdesign abhängen. Für das Rayleigh-Kriterium, ist MPres = Er × (60/5,5) × CAent, wobei ER zuvor bestimmt wurde, CAent die klare Apertur der Eingangspupille des Objektivs in Inch ist und MPres die maximale beugungslimitierte Auflösungsleistung ist.
  • Bei 1712 wird eine Sollwertobjektivlinsendesign-f-Anzahl berechnet mit dem gegebenen Eintrittspupillendurchmesser und sollwerteffektiver Fokallänge: f-Anzahl = EFLset/CAent, wobei EFLset und CAent wie zuvor definiert sind.
  • Bei 1714 wird eine Okulareffektivfokallänge berechnet, basierend auf der Sollwertvergrößerungsleistung und dem Sichtfeld: EFLeye = HDdisp/[MPmin × tan(HFOVwobj)], wobei HDdisp die korrespondierende Anzeigenhalb-Dimension in der Objektiv HFOVwobj definierten Dimension ist und wobei MPmin zuvor beschrieben worden ist. Eine Okular-f-Anzahl wird berechnet basierend auf der Okularpupillengröße und effektiven Fokallänge: f-Anzahl = EFLeye/CAeye, wobei EFLeye und CAeye oben definiert sind.
  • Bei 1716 wird die Objektiv- und Okular-beugungslimitierte Leistungsfähigkeit für die gegebenen f-Anzahlen bewertet, um zu ermitteln, dass die geeignete (in manchen Fällen) Ideal-Leistungsfähigkeit mit den ausgewählten Parametern erreichbar ist. Zum Beispiel unter Verwendung der Modulationstransferfunktion als eine bedeutungsvolle Systemmetrik, MTFdiffn(v/vc) = (2/Pi) × [arcos(v/vc) – (v/vc) × sqrt(1 – (v/vc)^2)], wobei v die räumliche Frequenz in Zyklen pro mm ist und vc = 1/(Wellenlänge × f-Anzahl); die Modulation bis zur Nyquist-Frequenz des Sensors sollte ein Overhead in der Durchführung für die Erfindung liefern.
  • Beugung ist ein auf physikalischen Gesetzmäßigkeiten beruhendes Phänomen, die Wellenlänge wird bestimmt durch das gewünschte Betrachtungsspektrum, Augenbetrachtungen werden bestimmt durch die anvisierte Betrachtungspopulation, die Anzeige-numerische Apertur (NA) sollte ausreichend die Eingangspupille zu dem Okular (auf der Anzeigenseite) beleuchten und die physikalischen Pixelgrößen sind Bildsensor und anzeigenspezifische Quantitäten.
  • Varianten des offenbarten Verfahrens zum Bestimmen der Objektiv- und Okularspezifikation sind auch möglich. Alle der angemessenen Beziehungen können modifiziert werden, um die Parameter zu berechnen, die in dem Verfahren oben ausgewählt wurden, wenn berechnete Werte stattdessen als ein Freiheitsgrad ausgewählt werden. Beispielsweise kann das Objektiv EFL oder die f-Anzahl ausgewählt werden für den Sollwert. Dann kann das Sichtfeld für das Objektiv berechnet werden gegeben durch die Wiederanordnung der obigen Ausdrücke. Es ist auch möglich zwischen Schritten in dem gegebenen Verfahren zu iterieren, Design zum Beschränken und Maximieren der Leistungsfähigkeit für digitales Zoom oder eine Untergruppe von verfügbarem Digitalzoom (sogar Einstellen des DZmin-Wertes, um größer zu sein als Einheit) zu verwenden. Diese Beispielsvarianten sind eindeutig gegeben in dem offenbarten Verfahren.
  • Als ein Beispiel des Verfahrens in Verwendung betrachtet man einen Graustufensensor (4000×2000, 2 μm dimensionierte Pixel) und die Mikroanzeige (1000×500, 10 μm dimensionierte Pixel). Zunächst wird ein gewünschter HFOV von 11 Metern bei 100 Metern Distanz in der horizontalen Dimension an dem Weitsichtfeld Zoom ausgewählt. Das ist ein horizontales Halbsichtfeld von 3,15 Grad. Der Vergrößerungsleistungsbereich wird als nächstes ausgewählt, um MPmin = 3 und MPmax = 12 zu sein. Das CAeye wird ausgewählt, um 6 mm zu sein und das Augenrelief ist 25 mm. Mit dem gegebenen Sensor und Anzeigenparametern wird der effektive Digitalzoom DZmax berechnet, um 4 zu sein. In diesem Fall werden alle der digitalen Zooms verwendet, es wird kein optischer Zoom benötigt, um den Bereich abzudecken, da MPmax = DZmax × MPmin = 4 × 3 = 12. Die Objektivlinse EFLmin wird direkt berechnet, um 4 mm/arctan (3,15 Grad) = 72,7 mm zu sein. EFLset = EFLmin und DZset = 1 kann in diesem Fall verwendet werden, weil die Abbildungsbedingung EFLset >= 41,3 mm ist. Da der Sollwert bei dem Einheitsdigitalzoom DZset = DZmin = 1 ist, ist die Verifizierung der Digitalzoom Anzahlenmatch des Niedrig-zu-Hoch-Vergrößerungsleistungsbereichs einfach, weil der MP-Bereich zur früheren Berechnung, MPmax = DZmax × MPmin = 4 × 3 = 12 passt. Unter Verwendung des Rayleigh-Kriteriums für den maximalen MP-Bereich wird die CAent für die Objektivlinse ausgewählt, um 14 mm zu sein, welche eine maximale mögliche beugungslimitierte Vergrößerungsleistung von MPres = 12,02 liefert. Die Sollwert-f-Anzahl des Objektivs ist dann 72,7 mm/14 mm = f/5,19. Das Okular EFL ist EFLeye = 5 mm/[3 × tan(3,15 Grad)] = 30,3 mm. Die f-Anzahl des Okular ist dann 30,1 mm/6 mm = f/5,05. Die Endkontrolle ist eine Funktion der spezifischen Produktbilderfordernisse und wird somit nur erwähnt, aber nicht gezeigt für dieses Beispiel. Diese Designparameter können eingestellt werden wie benötigt, um die Produkterfordernisse zu erfüllen.
  • Die Lasersenderlinsen sind dazu ausgestaltet, um einen Laser oder eine Laserdiode zu einer gut kollimierten Anzahl zu kollimieren, wie beispielsweise weniger als 2 Milliradian an Divergenz. Die Empfängerlinsen sind ausgestaltet mit einer Divergenz von ungefähr 20% größerem Sichtfeld, in anderen Worten 20% mehr Akzeptanzwinkel als die Senderlinsendivergenz. Weitere Betrachtungen von Empfänger und Senderdesignlayouts werden bestimmt durch Verpackung und Herstellbarkeit.
  • Während der Montage sind das Lasersendersystem, das Laserempfängersystem und das Objektivsystem sorgfältig ausgerichtet, so dass der Lasersender sowohl auf der Lawinenfotodiode als auch dem Bildsensor zentriert ist.
  • In manchen Ausführungsformen wird die Stromversorgung durch eine oder mehrere Batterien zur Verfügung gestellt. Primär können Lithiumbatterien wie beispielsweise ein CR123 oder CR2, Lithium 2 AA Zellen oder wieder aufladbare Batterien verwendet werden. Die Vorrichtung ist normalerweise in einem abgeschalteten Status und kann durch das Drücken der Reichweite- oder Feuerschaltfläche angeschaltet werden. Sobald gedrückt wird, zeigt die Vorrichtung ein anvisierendes Fadenkreuz auf einer internen oder externen Anzeige an und fokussiert das Bild des Ziels. Der Betreiber drückt dann die Reichweite oder Feuerschaltfläche, um eine Reichweite zum entfernten Objekt oder die Geschwindigkeit eines entfernten Objekts zu berechnen. Diese Entfernung wird dann auf der Anzeige angezeigt. Die Vergrößerung eines entfernten Bildes kann vergrößert oder verringert werden, indem ein oder mehrere Schaltflächen auf der Vorrichtung gedrückt werden. Darüber hinaus kann die Erfindung dazu ausgestaltet sein, das Bild des Zieles, das auf die Entfernung oder Geschwindigkeit hin durchstreift ist, aufzunehmen. Eine zusätzliche Schaltfläche oder Nutzerkontrolle kann zwischengeschaltet werden zwischen der Entfernungsmessung, Geschwindigkeitsdetektion, Standbildaufnahme oder Videoaufnahme in Abhängigkeit von der Konfiguration des Betreibers.
  • Repräsentative optische Systemausführungen werden unten mit den folgenden Definitionen ausgeführt. Die Spektren sind sichtbar für das Objektiv und das Okular; 905 nm für Sender und Empfänger. Die Sichtfelder werden in Grad angegeben (HFOV ist ein halbes Sichtfeld), Eingangsstrahlradius ist EBR, effektive fokale Länge ist EFL, AST bedeutet Apertur Stopp. Dimensionen sind in mm. In den begleitenden Zeichnungen werden die Radien von Krümmungen der optischen Oberflächen bezeichnet als R1, R2, R3 etc., Elementdicken sind bezeichnet als T1, T2, T3 etc., und Elementmaterialien bezeichnet als Schott Optical Glass, werden bezeichnet als U1, U2, U3 etc., mit der Ausnahme von Lufträumen, welche nicht mit solchen Kennzeichnungen versehen sind.
  • Beispiel 1: Objektivsystem
  • In dem Beispiel ist nach links die Szene und nach rechts ein Sensor wie in 7 gezeigt. Für dieses Beispiel HFOV = 3,57, EBR = 7,5, EFL = 55,6 und die Objektdistanz ist unendlich. Systemdaten befinden sich in Tabelle 1. Tabelle 1
    Oberfläche Radius Dicke Apertur Radius Medium
    1 26,07 3 7,31 FK5
    2 –24,92 0,77 7,32
    3 –23,5 1,5 7,17 N-F2
    4 –105,99 42,67 7,14
    5 –13,47 1,4 3,98 N-FK5
    6 –21,26 4,23 4,04
    7 9,56 2 3,95 N-LASF44
    8 9,11 2 3,55
  • Beispiel 2: Objektivsystem
  • In dem Beispiel ist nach links die Szene und nach rechts ein Sensor wie in 8 gezeigt. Für dieses Beispiel HFOV = 3,57, EBR = 7,5, EFL = 55,6 und die Objektdistanz ist unendlich. Systemdaten befinden sich in Tabelle 2. Tabelle 2
    Oberfläche Radius Dicke Apertur Radius Medium
    1 24,75 3 7,5 N-PK52A
    2 –24,75 0,62 7,5
    3 –23,56 1,5 7,5 N-KZFS4
    4 –178,82 41 7,5
    5 –11,53 2 4,5 N-LASF44
    6 –14,47 2,37 4,5
    7 9,65 4 4,5 N-FK5
    8 8,88 4 4
  • Beispiel 3: Zoom-Objektivlinse
  • In diesem Beispiel gehen die Szene nach links und ein Sensor nach rechts wie in 9 gezeigt. In einer Weit-Zoom-Konfiguration, HFOV = 3,64, EBR = 7,6, EFL = 55,0. In einer Mittel-Zoom-Konfiguration, HFOV = 2,05, EBR = 7, EFL = 70,0. In einer Zoom-Telefoto-Konfiguration, HFOV = 0,93, EBR = 7,5, EFL = 108.0. Der Stopp ist 1 mm in der Objektrichtung von der Oberfläche 6. Die Objektdistanz ist unendlich.
  • Die Weit-Zoom-Konfiguration (Konfiguration 1) wird in Tabelle 3 beschrieben, Tabelle 4 listet die Einstellung für die Mittel-Zoom-Konfiguration (Konfiguration 2) und die Telefoto-Konfiguration (Konfiguration 3). Tabelle 3
    Oberfläche Radius Dicke Apertur Radius Medium
    1 20,87 3 8 N-FK5
    2 –68,93 8,22 8
    3 –27,8 2 6,5 KZFSN5
    4 14,89 3 6,5 N-FK5
    5 –235,42 15,35 6,5
    6 Unendlich 1 4,44
    7 12,79 2,1 5,5 SF11
    8 –191,41 1,1 5,5 F5
    9 10,54 2,41 5,5
    10 –24,13 1 5 N-LAF21
    11 25,65 14,63 5
    12 110,51 2,4 6,6 N-LAK14
    13 –29,12 0,15 6,6
    14 38,33 2,8 6,6 N-LAK14
    15 –19 1,6 6,6 SF56A
    16 –166,41 34,22 6,6
    Tabelle 4
    Konfiguration Oberfläche Parameter Wert
    2 6 Dicke 2,63
    2 9 Dicke 5,04
    2 11 Dicke 10,39
    3 6 Dicke 10,27
    3 9 Dicke 6,97
    3 11 Dicke 0,79
  • Beispiel 4
  • In Beispiel 4 ist nach links die Szene und nach rechts ein Sensor wie in 10 gezeigt. Für dieses Beispiel HFOV = 4,15, EBR = 5, EFL = 48,0 und die Objektdistanz ist unendlich. Systemdaten befinden sich in Tabelle 5. Tabelle 5
    Oberfläche Radius Dicke Apertur Radius Medium
    1 2,63 2,63 2,63 2,63
    2 5,04 5,04 5,04 5,04
    3 10,39 10,39 10,39 10,39
    4 10,27 10,27 10,27 10,27
    5 6,97 6,97 6,97 6,97
    6 0,79 0,79 0,79 0,79
    7 2,63 2,63 2,63 2,63
    8 5,04 5,04 5,04 5,04
  • Beispiel 5: Okularsystem
  • In dem Beispiel gehen ein Auge nach links und eine Anzeige nach rechts wie in 11 gezeigt. Für dieses Beispiel HFOV = 17,5, EBR = 2,5, EFL = 15,25 und die Objektdistanz ist unendlich. Die Augenpupille ist 16 mm vor der Oberfläche 1. Systemdaten befinden sich in Tabelle 6. Tabelle 6
    Oberfläche Radius Dicke Apertur Radius Medium
    1 16,44 6,27 7 N-LAK14
    2 –15,46 0,61 7
    3 –11,54 1,57 7 SF57
    4 –103,27 0,6 7
    5 17,91 3,6 7 N-LAK14
    6 –20,46 5,95 7
    7 –7,83 1,57 4,5 LF5
    8 27,84 1,43 4,5
  • Beispiel 6: Okularsystem
  • In dem Beispiel gehen ein Auge nach links und eine Anzeige nach rechts wie in 12 gezeigt. Für dieses Beispiel HFOV = 14, EBR = 2,5, EFL = 19,4 und die Objektdistanz ist unendlich. Die Augenpupille ist 18,5 mm vor der Oberfläche 1. Systemdaten befinden sich in Tabelle 7. Tabelle 7
    Oberfläche Radius Dicke Apertur Radius Medium
    1 25,27 8 8 N-LAK14
    2 –17,47 1,03 8
    3 –13,36 2 8 SF57
    4 –71,87 0,7 8
    5 25,27 4,6 8 N-LAK14
    6 –25,27 8,64 8
    7 –11,92 2 5,5 LF5
    8 25,27 1,5 5,5
  • Beispiel 7: Lasersendesystem
  • In diesem Beispiel geht eine Szene nach links und ein Lasersender ist nach rechts angeordnet wie in 13 gezeigt. In diesem Beispiel ist HFOV = 0,0515, EBR = 6,00, EFL = 120 und die Objektdistanz ist unendlich. Die Systemdaten befinden sich in Tabelle 8. Tabelle 8
    Oberfläche Radius Dicke Apertur Radius Medium
    1 61 3 6,2 BK7
    2 Unendlich 117,87 6,2 AIR
  • Beispiel 8: Lasersendesystemoptiken
  • In diesem Beispiel verlaufen eine Szene nach links und ein Lasersender von rechts wie in 14 gezeigt. Für dieses Beispiel ist HFOV = 0,0515, EBR = 6,00, EFL = 120 und die Objektdistanz ist unendlich. Die Systemdaten befinden sich in Tabelle 9. Tabelle 9
    Oberfläche Radius Dicke Apertur Radius Medium
    1 11,25 2 6 N-SF5
    2 53,68 11,35 5,59
    3 –6,68 1 2,5 N-SF5
    4 Unendlich 5,73 2,5
    5 4,12 2,93 2,32 N-SF5
    6 2,82 28,31 1,62
  • Beispiel 9: Laserempfängersystemoptiken
  • In diesem Beispiel verläuft die Szene nach links, ein Detektor nach rechts und HFOV = 0,062, EBR = 10, EFL = 90,9 und die Objektdistanz ist unendlich. Systemdaten sind in der Tabelle 10 wiedergegeben. Die Oberflächen 3–4 sind konische Abschnitte und konische Konstanten sind in der Tabelle 11 aufgelistet. Tabelle 10
    Oberfläche Radius Dicke Apertur Radius Medium
    1 25,71 3 10 N-LAK14
    2 980,59 36,91 9,53
    3 0,38 1 0,9 N-SF5
    4 –0,38 1,41 0,9
    Tabelle 11
    Oberfläche Konische Konstante
    3 –3,47
    4 –3,47
  • Beispiel 10: Laserempfängersystemoptiken
  • In diesem Beispiel verläuft eine Szene nach links, ein Detektor nach rechts wie in 16 gezeigt. Für dieses Beispiel ist HFOV = 0,062, EBR = 10, EFL = 90,9 und die Objektdistanz ist unendlich. Die Systemdaten befinden sich in Tabelle 12. Tabelle 12
    Oberfläche Radius Dicke Apertur Radius Medium
    1 35,59 3,3 10,5 N-SF11
    2 376,78 5,56 10,5
    3 18,72 4 8,8 N-SF11
    4 27,21 15,9 8,8
    5 –25,57 3,3 2,5 N-SF11
    6 6,43 12,96 2,5
  • Nachdem die Prinzipien der offenbarten Technologie mit Bezug zu den dargestellten Ausführungsformen beschrieben und dargestellt wurden, wird erkannt werden, dass die dargestellten Ausführungsformen modifiziert werden können in der Anordnung und Details ohne die Prinzipien zu verlassen. Beispielweise können Elemente der dargestellten Ausführungsformen, die in Software gezeigt sind, implementiert werden in Hardware und umgekehrt. Ebenso können die Technologien von jedem Beispiel kombiniert werden mit den Technologien, die in irgendeinem oder mehreren der anderen Beispiele beschrieben wurden. Die besonderen Anordnungen oben sind zur einfachen Darstellung bereitgestellt und andere Anordnungen können verwendet werden.

Claims (20)

  1. Eine Messvorrichtung umfassend: eine Objektivlinse, die einen Eintrittspupillendurchmesser Φ definiert; und angeordnet ist, um ein Bild eines entfernten Objekts bei einem Bildsensor zu erzeugen; und eine Anzeige, die mit dem Bildsensor gekoppelt ist und dazu ausgestaltet ist, ein angezeigtes Bild des entfernten Objekts, basierend auf dem Bild, das durch die Objektivlinse erzeugt ist, zu erzeugen; und ein erstes Okular, das für den Nutzer zum Betrachten des angezeigten Bildes angeordnet ist, wobei die Vergrößerungskraft des entfernten Objekts zumindest 0,7 X für jeden Millimeter der Eingangspupille Φ beträgt.
  2. Die Messvorrichtung nach Anspruch 1, ferner umfassend einen Lasersender, der dazu ausgestaltet ist, einen Sondenstrahl auf das entfernte Objekt zu richten.
  3. Die Messvorrichtung nach Anspruch 1, ferner umfassend einen Bildprozessor, der dazu ausgestaltet ist, das Bild von dem Bildsensor zu verarbeiten, um einen ausgewählten digitalen Zoom bereitzustellen.
  4. Die Messvorrichtung nach Anspruch 1, ferner umfassend: einen optischen Sender, der dazu ausgestaltet ist, optische Strahlung zu erzeugen und zumindest einen Teil der optischen Strahlung als einen Sondenstrahl auf das entfernte Objekt zu richten; einen optischen Empfänger, der angeordnet ist, um einen reflektierten Teil des Sondenstrahls von dem entfernten Objekt zu empfangen; und ein Entfernungsmesssystem, das dazu ausgestaltet ist, eine Entfernung zum entfernten Objekt, basierend auf dem reflektierten Teil des Sondenstrahls zu berechnen.
  5. Die Messvorrichtung nach Anspruch 4, ferner umfassend: eine Kollimatorlinse, die angeordnet ist, um optische Strahlung von dem optischen Sender zu empfangen und den Sondenstrahl zu erzeugen; und eine Empfangsliste, die angeordnet ist, um den reflektierten Teil des Sondenstrahls zu empfangen und den reflektierten Teil auf den optischen Empfänger zu richten.
  6. Die Messvorrichtung nach Anspruch 4, wobei das Entfernungsmesssystem dazu ausgestaltet ist, eine Geschwindigkeit, die mit dem entfernten Objekt assoziiert ist, zu berechnen.
  7. Die Messvorrichtung nach Anspruch 4, wobei der Laserentfernungsmesser dazu ausgestaltet ist, die Abschätzung der Entfernung, basierend auf der Laufzeit zum und von dem entfernten Objekt weg, bereitzustellen.
  8. Die Messvorrichtung nach Anspruch 1, wobei die Objektivlinse angeordnet ist, um optische Strahlung von einem optischen Sender zu empfangen und einen Sondenstrahl auf das entfernte Ziel zu richten oder einen reflektierten Teil eines Sondenstrahls zu empfangen und den reflektierten Teil auf einen optischen Empfänger zu richten.
  9. Die Messvorrichtung nach Anspruch 1, wobei die Objektivlinse angeordnet ist, um optische Strahlung von einem optischen Sender zu empfangen und einen Sondenstrahl auf das entfernte Ziel zu richten und einen reflektierten Teil eines Sondenstrahls zu empfangen und den reflektierten Teil auf einen optischen Empfänger zu richten.
  10. Die Messvorrichtung nach Anspruch 4, ferner umfassend einen ballistischen Prozessor und zumindest einen Umgebungssensor, wobei der ballistische Prozessor dazu ausgestaltet ist, eine Einstellung abzuschätzen, die ausgewählt ist, um eine assoziierte Trajektorie zu dem entfernten Objekt, basierend auf einem Umgebungsparameter, der durch den zumindest einen Umgebungssensor gemeldet ist, zu erzeugen.
  11. Die Messvorrichtung nach Anspruch 10, wobei der zumindest eine Umgebungssensor ein Neigungsmesser, Barometer, Thermometer, Hygrometer, Magnetometer oder ein Gyroskop ist.
  12. Die Messvorrichtung nach Anspruch 1, ferner umfassend einen Bildstabilisator, der dazu ausgestaltet ist, das Bild des entfernten Objekts mit Bezug auf den Bildsensor zu stabilisieren.
  13. Die Messvorrichtung nach Anspruch 1, ferner umfassend einen Zielerfassungsprozessor, der dazu ausgestaltet ist, eine Distanzmessung zu dem entfernten Ziel, basierend auf Detektion des Bildes des entfernten Ziels bei dem Bildsensor, zu veranlassen.
  14. Die Messvorrichtung nach Anspruch 13, wobei der Erfassungsprozessor dazu ausgestaltet ist, die Entfernungsmessung auf die Detektion des Bildes des entfernten Ziels bei einem vorbestimmten Abschnitt des Bildsensors hin zu veranlassen.
  15. Die Messvorrichtung nach Anspruch 4, wobei die Anzeige weiter dazu ausgestaltet ist, einen Standort des Sondenstrahls bei dem entfernten Ziel anzuzeigen.
  16. Die Messvorrichtung nach Anspruch 15, wobei der Bildsensor erste und zweite Bildsensoren umfasst, wobei der erste Bildsensor dazu ausgestaltet ist, ein sichtbares Bild des entfernten Objekts zu empfangen und der zweite Bildsensor dazu ausgestaltet ist, ein alternatives Bild, das mit einem entfernten Objekt und/oder dem Sondenstrahl assoziiert ist, zu erzeugen und die Anzeige ist dazu ausgestaltet, sichtbare und infrarote Bilder zu empfangen und ein kombiniertes Bild, das sichtbare Bild oder das alternative Bild anzuzeigen.
  17. Die Messvorrichtung nach Anspruch 16, wobei das alternative Bild ein sichtbares Bild, ein infrarotes Bild, oder ein thermisches Bild ist, das durch einen sichtbaren Sensor, einen Infrarotsensor beziehungsweise einem thermischen Sensor bereitgestellt ist.
  18. Die Messvorrichtung nach Anspruch 1, ferner umfassend ein zweites Okular, das angeordnet ist für den Nutzer, um das angezeigte Bild zu betrachten, wobei die ersten und zweiten Okulare räumlich getrennt sind, um erste und zweite sichtbare Bilder an die ersten bzw. zweiten Augen des Nutzers zu liefern, wobei die ersten und zweiten sichtbaren Bilder eine gemeinsame Vergrößerung haben.
  19. Die Messvorrichtung nach Anspruch 18, wobei die ersten und zweiten sichtbaren Bilder auf dem angezeigten Bild basieren.
  20. Die Messvorrichtung nach Anspruch 19, wobei die ersten und zweiten sichtbaren Bilder mit dem angezeigten Bild auf dem Bildsensor und einem zusätzlich angezeigten Bild auf einem zusätzlichen Bildsensor assoziiert sind, um ein stereoskopisches Bild zu erzeugen.
DE102013217240.0A 2012-08-29 2013-08-29 Tragbare Entfernungsmessvorrichtung mit einem Laserentfernungsmesser, Bildsensor(en) und 1 Mikroanzeige(n) Withdrawn DE102013217240A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201261694562P 2012-08-29 2012-08-29
US61/694,562 2012-08-29

Publications (1)

Publication Number Publication Date
DE102013217240A1 true DE102013217240A1 (de) 2014-03-13

Family

ID=50153507

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013217240.0A Withdrawn DE102013217240A1 (de) 2012-08-29 2013-08-29 Tragbare Entfernungsmessvorrichtung mit einem Laserentfernungsmesser, Bildsensor(en) und 1 Mikroanzeige(n)

Country Status (2)

Country Link
US (1) US20140063261A1 (de)
DE (1) DE102013217240A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10907934B2 (en) 2017-10-11 2021-02-02 Sig Sauer, Inc. Ballistic aiming system with digital reticle
DE102019206409B4 (de) * 2018-05-04 2021-05-20 Hyundai Mobis Co., Ltd. Superweitwinkel-zoomlinsenanordnung
WO2021160195A1 (de) 2020-02-13 2021-08-19 Leica Camera Aktiengesellschaft Digitales beobachtungsgerät
US11221208B2 (en) 2014-08-05 2022-01-11 Fujifilm Corporation Distance measurement device, distance measurement method, and distance measurement program
US11454473B2 (en) 2020-01-17 2022-09-27 Sig Sauer, Inc. Telescopic sight having ballistic group storage

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5902354B2 (ja) * 2013-07-16 2016-04-13 富士フイルム株式会社 撮影装置及び3次元計測装置
US9897688B2 (en) * 2013-11-30 2018-02-20 Bae Systems Information And Electronic Systems Integration Inc. Laser detection and image fusion system and method
US10260840B2 (en) 2014-04-01 2019-04-16 Geoballistics, Llc Mobile ballistics processing and display system
US20160131867A1 (en) * 2014-11-06 2016-05-12 Ocutech, Inc. Automatic focusing optical assembly, system and method
US9854226B2 (en) * 2014-12-22 2017-12-26 Google Inc. Illuminator for camera system having three dimensional time-of-flight capture with movable mirror element
TWI562046B (en) * 2015-06-25 2016-12-11 Wistron Corp Optical touch apparatus and width detecting method thereof
US10408922B2 (en) * 2015-07-10 2019-09-10 Ams Sensors Singapore Pte. Ltd. Optoelectronic module with low- and high-power illumination modes
DE102015010919A1 (de) 2015-08-20 2017-02-23 Diehl Bgt Defence Gmbh & Co. Kg Verfahren zum Bestimmen einer Ausrichtung eines Objekts
EP3196593B1 (de) * 2016-01-21 2018-01-17 Safran Vectronix AG Stabilisierte beobachtung mit lrf-funktion
US10146103B2 (en) * 2016-03-31 2018-12-04 Laser Technology, Inc. Camera module and folded optical system for laser-based speed gun
AU2017332754B2 (en) 2016-09-22 2021-08-12 Lightforce USA, Inc., d/b/a/ Nightforce Optics, Inc. Optical targeting information projection system for weapon system aiming scopes and related systems
EP3340603B1 (de) * 2016-12-22 2018-12-19 Axis AB Fokussierung einer überwachungskamera, die eine szene überwacht
JP7118982B2 (ja) 2017-02-06 2022-08-16 シェルタード ウィングス インコーポレイテッド ドゥーイング ビジネス アズ ヴォルテクス オプティクス 組込型表示システムを有する観察光学器械
WO2018152125A1 (en) * 2017-02-14 2018-08-23 Laser Technology, Inc. Laser-based rangefinding instrument
WO2018200718A2 (en) * 2017-04-28 2018-11-01 Christopher Thomas Spotting scope with integrated laser rangefinder and related methods
USD875200S1 (en) 2018-01-03 2020-02-11 Bushnell Inc. Rangefinder display device
USD842723S1 (en) 2017-09-27 2019-03-12 Bushnell Inc. Rangefinder
USD926606S1 (en) 2017-11-01 2021-08-03 Bushnell Inc. Rangefinder
US11675180B2 (en) 2018-01-12 2023-06-13 Sheltered Wings, Inc. Viewing optic with an integrated display system
DK3755384T3 (da) 2018-02-20 2022-12-12 Freestyle Partners Llc Bærbar fjern-uvc-indretning
US11020501B1 (en) 2018-02-20 2021-06-01 Freestyle Partners, LLC Handheld ultraviolet irradiation device having distance measurement system
AU2019238211A1 (en) 2018-03-20 2020-10-08 Sheltered Wings, Inc. D/B/A Vortex Optics Viewing optic with a base having a light module
US11480781B2 (en) 2018-04-20 2022-10-25 Sheltered Wings, Inc. Viewing optic with direct active reticle targeting
WO2020019261A1 (zh) * 2018-07-26 2020-01-30 深圳市瑞尔幸电子有限公司 共光路数码成像的激光测距仪
JP2021535353A (ja) 2018-08-08 2021-12-16 シェルタード ウィングス インコーポレイテッド ドゥーイング ビジネス アズ ヴォルテクス オプティクス 観察光学機器のための表示システム
US11367990B2 (en) * 2018-08-29 2022-06-21 Luminar, Llc Lidar system operating at 1200-1400 NM
AU2019383973A1 (en) 2018-11-20 2021-06-03 Kama-Tech (Hk) Limited Handheld laser -based vehicle speed measurement device incorporating an automatic number plate recognition (ANPR) function
US20200200530A1 (en) * 2018-12-21 2020-06-25 Bushnell Inc. Integral magnet mount for golf ranging device
US11474240B2 (en) 2019-01-07 2022-10-18 Bushnell Inc. Golf rangefinder device with integral magnet mount
SG11202107807QA (en) 2019-01-18 2021-08-30 SHELTERED WINGS d/b/a VORTEX OPTICS Viewing optic with round counter system
USD944668S1 (en) * 2020-01-16 2022-03-01 Henan Bosean Electronic Technology Co. Ltd Laser range finder
KR20220130122A (ko) * 2020-01-21 2022-09-26 프리스타일 파트너스, 엘엘씨 거리 측정 시스템을 갖는 핸드헬드 자외선 조사 장치
US20210270967A1 (en) * 2020-02-28 2021-09-02 Waymo Llc Maximum Range Indication in Lidar Point Data
US20220099439A1 (en) * 2020-09-28 2022-03-31 Tung Shrim Enterprise Co., Ltd. Rangefinder with automatic opening and closing and detection
WO2022140285A1 (en) * 2020-12-21 2022-06-30 Oshkosh Corporation Range and position determination system and method
USD957496S1 (en) * 2021-07-06 2022-07-12 Dongguan Aomeijia Electronic Co., Ltd. Night vision monocular
CN115531845B (zh) * 2022-12-02 2023-03-10 东莞市森威电子有限公司 一种带热敏风速的望远镜测距仪及测距方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5191203A (en) * 1991-04-18 1993-03-02 Mckinley Optics, Inc. Stereo video endoscope objective lens system
US5221956A (en) * 1991-08-14 1993-06-22 Kustom Signals, Inc. Lidar device with combined optical sight
US7656509B2 (en) * 2006-05-24 2010-02-02 Pixeloptics, Inc. Optical rangefinder for an electro-active lens
US7738082B1 (en) * 2006-10-20 2010-06-15 Leupold & Stevens, Inc. System and method for measuring a size of a distant object
WO2010062887A2 (en) * 2008-11-26 2010-06-03 Pocket Optics Development Corporation Improved binocular viewing device
CA2773537A1 (en) * 2009-09-11 2011-11-10 Laurence Andrew Bay System and method for ballistic solutions

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11221208B2 (en) 2014-08-05 2022-01-11 Fujifilm Corporation Distance measurement device, distance measurement method, and distance measurement program
US11940265B2 (en) 2014-08-05 2024-03-26 Fujifilm Corporation Distance measurement device, distance measurement method, and distance measurement program
US10907934B2 (en) 2017-10-11 2021-02-02 Sig Sauer, Inc. Ballistic aiming system with digital reticle
US11287218B2 (en) 2017-10-11 2022-03-29 Sig Sauer, Inc. Digital reticle aiming method
US11725908B2 (en) 2017-10-11 2023-08-15 Sig Sauer, Inc. Digital reticle system
DE102019206409B4 (de) * 2018-05-04 2021-05-20 Hyundai Mobis Co., Ltd. Superweitwinkel-zoomlinsenanordnung
US11036035B2 (en) 2018-05-04 2021-06-15 Hyundai Mobis Co., Ltd. Super wide angle zoom lens
US11454473B2 (en) 2020-01-17 2022-09-27 Sig Sauer, Inc. Telescopic sight having ballistic group storage
WO2021160195A1 (de) 2020-02-13 2021-08-19 Leica Camera Aktiengesellschaft Digitales beobachtungsgerät

Also Published As

Publication number Publication date
US20140063261A1 (en) 2014-03-06

Similar Documents

Publication Publication Date Title
DE102013217240A1 (de) Tragbare Entfernungsmessvorrichtung mit einem Laserentfernungsmesser, Bildsensor(en) und 1 Mikroanzeige(n)
EP2860550B1 (de) Scanner zur Raumvermessung
DE102012003124B3 (de) Optisches Beobachtungsgerät zur Zielerfassung und Zielführung
EP2789972B1 (de) Vermessungsgerät mit verformbarem optischem Element
EP2378245B1 (de) Beobachtungsgerät mit Entfernungsmesser
EP2981787B1 (de) Vermessungsgerät mit funktion zur kalibrierung einer anzeige-bildposition eines elektronischen fadenkreuzes
US7049597B2 (en) Multi-mode optical imager
EP2591311B1 (de) Geodätisches vermessungsgerät mit automatischer hochpräziser zielpunkt-anzielfunktionalität
DE102013227101B3 (de) Optisches System zur Nachverfolgung eines Ziels
EP1744196B1 (de) Multifunktions-Beobachtungsgerät
EP2737278B1 (de) Berührungslos bedienbare vermessungsvorrichtung und steuerverfahren für eine solche
EP2824412A1 (de) Elektronisch einstellbares fernoptisches Gerät
EP2835613B1 (de) Geodätisches Vermessungsgerät mit Mikrolinsenarray
DE102012200152A1 (de) Vorrichtung und Verfahren zum Vermessen einer Kamera
EP1744195A1 (de) Tag-Nachtsichtgerät
DE202017007134U1 (de) Systeme, Schaltkreise, Komponenten, Vorrichtungen, Geräte, Baugruppen und computerausführbarer Code zum Richten einer Feuerwaffe
AT518962A1 (de) Fernoptische Vorrichtung mit einem Absehen
CN106471801A (zh) 夜视装置
DE102014112794A1 (de) System zum modularen Nachrüsten oder Ergänzen eines optischen Geräts mit einer Laserentfernungsmessung
CN106412400A (zh) 基于可见光及近红外的仿生视觉成像系统及其调焦方法
US20200322524A1 (en) Drone designed for viewing a distant scene
DE4412100C2 (de) Anordnung zur Messung der Entfernung eines Objektes und dessen Abbildung
DE10122935B4 (de) Vermessungsinstrument mit optischem Entfernungsmesser
EP1920287B1 (de) Tag-nachtsichtgerät
EP4339682A1 (de) Fernrohr mit zumindest einem sichtkanal

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee