-
Querverweis auf in Beziehung stehende Anmeldung
-
Diese Anmeldung beansprucht den Benefit der vorläufigen US-Anmeldung 61/694,562, die am 29. August 2012 eingereicht wurde, und hier durch Bezugnahme eingebunden wird.
-
Gebiet
-
Die Offenbarung bezieht sich auf tragbare Laserentfernungsmesser.
-
Hintergrund
-
Es gibt viele Vorrichtungen, die verwendet werden zum vergrößerten Betrachten, Aufnehmen und Messen der Entfernung und Geschwindigkeit von entfernten Objekten. Eine solche Vorrichtung ist ein Laserentfernungsmesser, bei dem die Entfernung zu einem entfernten Objekt dadurch gemessen wird, dass Licht von einer Quelle bei der Vorrichtung ausgestrahlt wird und die Zeitdauer bestimmt wird, die das ausgestrahlte Licht benötigt, um zu dem entfernten Objekt zu gelangen und von diesem reflektiert zu werden und an dem Ort der ausstrahlende Quelle empfangen zu werden. Typischerweise ist die Lichtquelle ein Laser, der Licht gepulst ausstrahlt und die Lichtlaufzeit wird bestimmt durch das Zählen der empfangenen Pulse. Eine andere ähnliche Vorrichtung ist eine LIDAR-Pistole, die verwendet wird, um die Geschwindigkeit von Fahrzeugen zu detektieren und ist im Wesentlichen ähnlich einem Laserentfernungsmesser, der zum Jagen und zum Golfen verwendet wird. Die LIDAR-Pistole nimmt verschiedene Entfernungsmessungen über ein sehr kurzes Zeitintervall auf, um die Geschwindigkeit des Zielobjekts zu bestimmen.
-
Handgehaltene Laserentfernungsmesser werden häufig von Jägern und Golfern zum Bestimmen von Entfernungen verwendet. Solche Laserentfernungsmesser bestehen aus einer Objektivlinse, die Licht von dem Objekt auf ein Luftbild fokussiert, welches dann durch den Nutzer mit Hilfe eines Vergrößerungsglases oder Okulars betrachtet wird. Diese Laserentfernungsmesser verwenden eines von zwei Verfahren zum Anzeigen von Informationen über das anvisierte Fadenkreuz und die Objektentfernung. Das erste Verfahren umfasst die Verwendung einer transmissiven LCD, welches das Fadenkreuz und die Entfernungsmessungsdaten auf einem LCD-Bildschirm anzeigt. Das zweite Verfahren umfasst die Verwendung von projizierten LEDs, bei denen die Information in den optischen Pfad projiziert oder eingeblendet ist.
-
LIDAR-Pistolen verwenden sogar ein noch viel einfacheres Zielverfahren, indem sie ein kleines Teleskop oder eine Frontscheibenanzeige mit einem Fadenkreuz verwenden, um die LIDAR-Pistole auf das entsprechende Ziel auszurichten. Die Geschwindigkeit des anvisierten Fahrzeugs wird dann auf einer externen direkt sichtbaren Anzeige angezeigt.
-
Die oben beschriebenen konventionellen Laserentfernungsmesser haben eine beschränkte Leistungsfähigkeit, sowohl beim Sehen von entfernten Objekten als auch beim Betrachten nützlicher Informationen. Erstens haben konventionelle Laserentfernungsmesssysteme eine niedrige Vergrößerungskraft, die nicht für unterschiedliche Bedingungen variiert werden kann; darüber hinaus haben sie keine Bildaufnahmefähigkeit. Weil die Ausgangspupille des Systems zum Betrachten notwendigerweise groß sein muss, muss der Eingangspupillendurchmesser, der annähernd dem Vorderlinsendurchmesser entspricht, gleich dem Ausgangspupillendurchmesser mal der Vergrößerungskraft sein. Somit werden die Eingangspupille und der Objektivlinsendurchmesser zunehmend größer für entferntes Betrachten von Wild, Fahrzeugen, Bäumen, Golf Pins oder anderem Terrain. Mit Bezug auf Informationen, die auf einem LCD-Bildschirm angezeigt sind, funktioniert dieser Ansatz gut in manchen Umgebungen, aber nur ungefähr 30% des Lichts wird durch die Vorrichtung übertragen. Infolgedessen ist es nicht einfach, bei schlechten Lichtverhältnissen zu lesen und die projizierte LED-Anzeige wird unsichtbar in hellen Umgebungslichtsituationen, wie beispielsweise inmitten des Tages oder in Umgebungen mit einem hohen Albedo, wie beispielsweise in Schnee.
-
Ein anderer Nachteil von konventionellen Vorrichtungen ist es, dass Jäger oder Golfer Bilder aufnehmen wollen oder Videos aufnehmen wollen, während sie die Vorrichtung verwenden. Konventionelle Laserentfernungsmessungsmonokulare und Binokulare haben keine Mittel zum Aufnehmen von Standbildern oder Videobildern.
-
LIDAR-Pistolen haben kein integriertes Verfahren zum Aufnehmen eines Bildes des anvisierten Fahrzeugs zusammen mit der Geschwindigkeit des Fahrzeugs. Manche neuere LIDAR-Pistolen verwenden eine angeschlossene Kamera, um Bilder aufzunehmen, aber die Kamera ist in der Regel weder integriert noch verwendet als Zielverfahren für den Betreiber und schafft somit eine Fehlerquelle, da die angeschlossene Kamera ein Bild eines Fahrzeugs aufnehmen kann, das nicht durch das Geschwindigkeitsdetektionssystem anvisiert war.
-
Zusammenfassung
-
Gemäß einigen Beispielen umfassen die Messvorrichtungen einen elektronischen Bildsensor und eine Objektivlinse, die ein Bild von einem entfernten Objekt auf dem elektronischen Sensor erzeugt. Ein Bildprozessor ist an den elektronischen Sensor gekoppelt und ist an eine Bildanzeige gekoppelt, um ein angezeigtes Bild zu erzeugen, das dem Bild entspricht, das durch die Objektivlinse erzeugt wurde. Ein Okular ist angeordnet, um das angezeigte Bild für einen Nutzer zu vergrößern. In typischen Bespielen sind die Nutzer unter anderem Jäger, Golfer oder andere, die die Geschwindigkeit, Entfernung oder Trajektorie des Objekts messen. Eine Lichtquelle und eine Kollimatorlinse sind angeordnet, um einen Lichtstrahl auf ein Objekt zu projizieren, dessen Entfernung und Geschwindigkeit zu messen ist. Eine empfangende Linse ist angeordnet, um Licht von der Lichtquelle, die durch das Objekt reflektiert wird, zu sammeln, und das gesammelte Licht auf einen Sensor zu richten. Ein Zeitschaltkreis ist dazu ausgestaltet, eine Zeit, die das Licht benötigt, um von der Vorrichtung zu dem Objekt zu gelangen, zu bestimmen und die Entfernung zum Objekt, die Geschwindigkeit, mit der das Objekt sich bewegt, zu berechnen. In manchen Beispielen ist eine maximale Vergrößerungskraft der Messvorrichtung größer als. 7 X des Eingangspupillendurchmessers der Objektivlinse in Millimetern. In manchen Ausführungsformen werden mehr als eine der Funktionen der Objektivlinse, Kollimatorlinse und empfangenden Linsenkomponenten kombiniert und durch nur eine einzige Komponente ausgeführt. In typischen Beispielen umfasst die Messvorrichtung ein Mikrofon, einen Umgebungslichtsensor, einen Näherungssensor, Computer oder handgehaltene Vorrichtung, und/oder Eingabe/Ausgabe-Ports. In anderen Beispielen ist ein Anker vorgesehen für einen Haltegurt und/oder ein Stativ mit Gewinde. In wieder anderen Beispielen ist ein drahtloser Empfänger dazu ausgestaltet, Vorrichtungssteuerungsdaten, Bilddaten oder Messdaten zu kommunizieren. In einem anderen Beispiel sind externe Speicherverbindungen vorgesehen, um Bilder oder Video im entfernbaren Speicher zu speichern. In manchen Beispielen ist ein Autofokussystem gekoppelt mit der Objektivlinse und ein entfernbarer Infrarotlichtfilter ist vor dem Bildsensor angeordnet, um das Betrachten von Bildern bei schlechten Lichtbedingungen oder bei Nacht zu erleichtern.
-
In wiederum anderen Alternativen ist ein Zielverfolgungs- und Identifikationssystem vorgesehen, um das Entfernungs- und/oder Geschwindigkeitsmesssystem mit einem identifizierten Ziel auf dem Bildsensor zu synchronisieren, so dass die Messvorrichtung automatisch eine Entfernungsmessung veranlasst, wenn das identifizierte Ziel durch ein Zentrum oder andere vorbestimmte Abschnitte des Bildsensors durchgeht, um die Entfernungsmessung zu unterstützen, wenn ein Nutzer instabil ist oder sich bewegt. In wiederum anderen Beispielen sind zusätzliche Bildsensoren für sichtbares Licht und Infrarotlicht vorgesehen und ein sichtbares Bild, ein infrarotes Bild und/oder ein kombiniertes Bild werden angezeigt. Gemäß anderen Beispielen ist ein zweites Okular vorgesehen für binokulares (stereoskopisches) Sehen oder biokulares Sehen. In anderen Ausführungsformen ist ein Bewegungssensor dazu ausgestaltet, festzustellen, wenn die Vorrichtung nicht mehr verwendet wird, um die Vorrichtung auszuschalten, um Energie zu sparen oder ein GPS-Empfänger und GPS-Kartensoftware zum Bestimmen des Standorts.
-
Die vorangegangenen und andere Ziele, Merkmale und Vorteile der Erfindung werden deutlicher werden aus der folgenden detaillierten Beschreibung, welche mit Bezug zu den begleitenden Figuren fortschreitet.
-
Kurze Beschreibung der Zeichnungen
-
1 bis 2 sind perspektivische Ansichten eines Laserentfernungsmessers.
-
3 ist ein Blockdiagramm eines Laserentfernungsmessers.
-
4 ist ein schematisches Diagramm eines Laserempfängers (Rx) wie in dem Blockdiagramm von 3 umfasst.
-
5 ist ein schematisches Diagramm eines Lasersenders (Tx) wie beispielsweise in dem Blockdiagramm von 3 umfasst.
-
6 ist ein Blockdiagramm eines Laserentfernungssystems.
-
7 bis 8 stellen Objektivlinsensysteme dar.
-
9 stellt ein Zoom-Objektivlinsensystem dar, das drei Zoom-Positionen zeigt.
-
10 stellt ein zusätzliches Beispiel eines Objektivlinsensystems dar.
-
11 bis 12 stellen repräsentative Okularsysteme dar.
-
13 bis 14 stellen Lasersendersystemoptiken dar.
-
15 bis 16 stellen Laserempfängersystemoptiken dar.
-
17 stellt ein repräsentatives Verfahren zum Ermitteln von Entfernungsmesseigenschaften dar.
-
Detaillierte Beschreibung
-
Wie in dieser Anmeldung und in den Ansprüchen verwendet, umfassen die Singularformen ”ein/e/es”, ”eine” und ”der/die/das” die Pluralformen, außer der Zusammenhang gibt anderes vor. Außerdem bedeutet der Begriff ”beinhaltet” ”aufweist”. Weiter schließt der Begriff ”gekoppelt” das Vorhandensein von Zwischenelementen zwischen den gekoppelten Gegenständen nicht aus.
-
Die Systeme, Vorrichtungen und Verfahren, die hier beschrieben sind, sollen nicht in irgendeiner Weise als beschränkend ausgelegt werden. Stattdessen richtet sich die vorliegende Offenbarung auf alle neuen und nicht naheliegenden Merkmale und Aspekte der verschiedenen offenbarten Ausführungsformen allein gesehen und in verschiedenen Kombinationen und Unterkombinationen miteinander. Die offenbarten Systeme, Verfahren und Vorrichtungen sind nicht auf irgendeinen spezifischen Aspekt oder ein Merkmal oder Kombinationen davon beschränkt, noch fordern die offenbarten Systeme, Verfahren und Vorrichtungen, dass irgendeines oder mehrere spezifische Vorteile vorhanden sind oder Probleme gelöst werden. Alle Theorien des Betriebs sollen die Erklärung erleichtern, aber die offenbarten Systeme, Verfahren und Vorrichtungen sind nicht auf solche Theorien des Betriebs beschränkt.
-
Obwohl die Operationen mancher der offenbarten Verfahren für eine einfache Präsentation in einer bestimmten sequenziellen Reihenfolge beschrieben sind, versteht es sich, dass diese Art der Beschreibung eine Umordnung umfasst, außer eine bestimmte Reihenfolge wird durch eine spezifische Ausdrucksweise, wie weiter unten beschrieben, gefordert. Zum Beispiel können Operationen, die als aufeinanderfolgend beschrieben sind, in manchen Fällen umgeordnet werden oder gleichzeitig ausgeführt werden. Vielmehr können die beigefügten Figuren, zum Zwecke der Einfachheit, nicht die verschiedenen Wege, in denen die offenbarten Systeme, Verfahren und Vorrichtungen zusammen mit anderen Systemen, Verfahren und Vorrichtungen verwendet werden können, zeigen. Außerdem verwendet die Beschreibung manchmal Begriffe wie ”erzeugen” und ”vorsehen”, um die offenbarten Verfahren zu beschreiben. Diese Begriffe sind hochgradige Abstraktionen der tatsächlichen Operationen, die ausgeführt werden. Die tatsächlichen Operationen, die diesen Begriffen entsprechen, werden in Abhängigkeit von der bestimmten Implementierung variieren und sind durch den Fachmann leicht erkennbar.
-
In manchen Beispielen werden Werte, Prozeduren oder Vorrichtungen als ”am niedrigsten”, ”besten”, ”minimal” oder Ähnliches bezeichnet. Es wird darauf hingewiesen, dass solche Beschreibungen darauf hinweisen sollen, dass eine Auswahl unter vielen verwendeten funktionalen Alternativen getroffen werden kann, und solche Selektionen nicht besser, kleiner oder anderweitig bevorzugter sein müssen als andere Selektionen.
-
Manche Ausführungsformen sind mit Bezug zu einer Achse oder einer optischen Achse beschrieben, entlang welcher optische Elemente, wie beispielsweise Linsen angeordnet sind. Solche Achsen werden gezeigt als Linien oder Liniensegmente, aber in anderen Beispielen können Achsen eine Vielzahl von Liniensegmenten umfassen, so dass eine optische Achse unter Verwendung von Prismen, Spiegeln oder anderen optischen Elementen gebogen oder gefaltet werden. Wie hier verwendet bezieht sich ”Linse” auf einzelne lichtbrechende Elemente (Singulett) oder Multielement-Linsensysteme.
-
Das oben beschriebene konventionelle System kann nicht angepasst werden, um als kompakter, handgehaltener Laserentfernungsmesser oder als LIDAR-Pistole mit variabler Vergrößerung und einem großen Ausgangspupillendurchrnesser verwendet zu werden, weil es zu groß wäre. Stattdessen kann die gesamte Größe signifikant reduziert werden, indem ein Bild des entfernten Objekts auf einen elektronischen Sensor, wie beispielsweise einem CCD- oder CMOS-Bildsensor, erzeugt wird, der das aufgenommene Bild elektronisch verarbeitet und das Bild elektronisch an eine kleine Anzeigevorrichtung vermittelt, die mit einer Vergrößerungsokular betrachtet wird. Die offenbarte Vorrichtung und das Verfahren können auch die anderen zuvor erwähnten Nachteile überwinden. Des Weiteren können andere Merkmale, einschließlich den Folgenden realisiert werden: Autofokus, Zoomen, Bildstabilisation und Bild- und Videoaufnahme. Die Vorrichtung kann ein oder mehrere Bildsensoren verwenden, als auch ein oder mehrere Okulare, um entweder als monokularer Laserentfernungsmesser, eine LIDAR-Pistole oder ein binokularer Laserentfernungsmesser zu funktionieren. Zusätzliche Merkmale können ein Mikrofon zum Beschriften von Bildern und Video, ein GPS-Empfänger zum Bestimmen des Standorts der Vorrichtung und des Standorts des Zielobjekts, Gyroskop(e) zur Bildstabilisation, einen Neigungsmesser zum Messen des Winkels oder der Neigung, ein Kornpass oder Magnetometer zum Bestimmen des Kurses, Umgebungssensoren, wie beispielsweise Temperatur, Druck und Feuchtigkeit, und drahtlose Sender für das Konfigurieren und Downloaden von Bildern von der Vorrichtung umfassen. Ein ballistischer Computer kann auch benutzt werden, um einen Jäger dabei zu unterstützen, die geeignete Haltestellung oder horizontale Entfernung zu einem Ziel zu bestimmen oder ein Golfcomputer, um den Nutzer zu unterstützen bei der Auswahl des Golfschlägers, basierend auf der Distanz und dem Winkel zum Grün. Da die meisten modernen Digitalbildaufnahmevorrichtungen ein IR-Schnittfilter verwenden, um die Farbsättigung eines Bildes während des Tages zu verbessern, kann die Vorrichtung auch einen entfernbaren IR-Schnittfilter verwenden, um Bildaufnahmeleistungsfähigkeit bei schlechten Lichtbedingungen oder bei Nacht zu unterstützen. Zusätzlich zu einem entfernbaren IR-Schnittfilter kann eine externe IR-LED oder IR-Laserdiode verwendet werden, um die Nachtbildaufnahmefähigkeiten zu erweitern.
-
1 ist eine perspektivische Ansicht eines Laserentfernungsmessers, der Lasersenderkollimatoroptiken 1 zum Fokussieren des ausgestrahlten Lichts, laserempfangende Optiken 3 zum Sammeln und Fokussieren des reflektierten Lichts auf einem Lichtsensor, und eine Objektivlinse 2 zum Fokussieren eines Bildes eines entfernten Objekts umfasst. Benutzersteuerfunktionen können beispielsweise bereitgestellt werden durch: eine Zoom-Vergrößerungs-Taste 4, eine Zoom-Verkleinerungs-Taste 6, eine Reichweitentaste 5, eine Menükonfiguration und Start und Stopp Bildaufnahmetaste 13, und ein Standbild oder Videomoduswählschalter 8. Ein Mikrofon 7 oder ein Umgebungssensor können durch das Gehäuse der Vorrichtung exponiert sein. Zusätzliche sichtbare Zeichen, wie beispielsweise ein Start-Aufnahme-Symbol 12, ein Stopp-Aufnahme-Symbol 11, ein Videomodussymbol 10 oder ein Standbildmodussymbol 9 können umfasst sein.
-
2 ist eine perspektivische Ansicht des Laserentfernungsmessers von 1 und zeigt ein Sichtstück oder Okular 16 zum Betrachten eines Displays, eine Augenmuschel 15 zum Abschirmen des Auges oder des justierenden Diopterfokus. Ein Umgebungslichtsensor und ein Näherungssensor 14 sind gekoppelt, um Umgebungslicht zu erfassen, so dass die Anzeigehelligkeit justiert ist, oder um die Anzeige, wenn sie nicht verwendet wird, auszuschalten. Eine drahtlose Taste 17 ist für das Konfigurieren und das Bildherunterladen bereitgestellt, und ein Ankerpunkt 19 ist dazu ausgestaltet, einen Haltegurt zu befestigen. Eine Batterie ist bereitgestellt für die Stromversorgung und umgeben von einer Batteriehülle 18. 3 zeigt ein Blockdiagramm eines Laserentfernungsmessers. Die Vorrichtung beinhaltet zumindest ein Objektivsystem 22 zum Fokussieren von Bildern entfernter Objekte auf zumindest einen Bildsensor 23. Die Vorrichtung beinhaltet ferner einen Bildsignalprozessor 27 zum Verarbeiten von Bildern und Formatieren dieser zum Speichern in einem Speicher 25 oder einer zusätzlichen Speichervorrichtung (nicht gezeigt). Die Vorrichtung beinhaltet ferner ein Autofokussteuersystem 24 und zumindest ein digitales Gyroskop 26, um die Bildstabilisation zu unterstützen. Die Vorrichtung beinhaltet weiterhin ein Laserentfernungsmesssystem 30, das den Lasersender 29 und den Laserempfänger 28 kontrolliert, um die Strecke zwischen der Vorrichtung und den entfernten Objekten zu bestimmen. Das ausgestrahlte Licht von dem Sender 29 ist durch ein Linsensystem 20 kollimiert und reflektiertes Licht ist durch eine Empfängerlinse 21 fokussiert auf einen Lichtsensor, der mit dem Laserempfänger 28 assoziiert ist.
-
Die Vorrichtung beinhaltet zumindest einen Prozessor 31 zum Steuern der gesamten Vorrichtung und ist verbunden mit einem Stromversorgungssystem 39, und kann verbunden sein mit Umgebungssensoren 37 (32–36), einem GPS-Empfänger 47, einem drahtlosen Transceiver 46 zur Konfiguration oder Herunterladen von Bildern und Video, eine Anzeigesteuervorrichtung 41, einen zusätzlichen Speicher 40 zum Speichern von Software oder Daten, einen Umgebungslicht- und Näherungssensor 45 zum Justieren der Helligkeit einer externen direkten Sichtanzeige 48 oder internen Mikroanzeige 42 oder zum Ausschalten der externen oder internen Anzeige, ein vergrößertes Okularlinsensystem 43, um Bilder und Informationen einem Nutzer anzuzeigen. Das Blockdiagramm zeigt auch Nutzerschnittstellensteuerungen 38, die umfassen können: Tasten, Hebel, Schalter, Knöpfe und andere Eingabemechanismen einschließlich Eingabe/Ausgabe-Ports wie beispielsweise USB und Speicherkartenschlitze. Ein Mikrofon 44 ist für Audioeingabe bereitgestellt.
-
Eine alternative Ausführungsform kann eine direkte Sichtanzeige verwenden, anstatt das Bild einer kleinen Anzeige zu vergrößern, Hochauflösungs-AMLCD oder AMOLED-Anzeigen aufzubauen, die auf der Außenseite der Vorrichtung befestigt sind. Durch Verwendung einer externen Direktsichtanzeige kann der Nutzer die Komplikation von Dioptrienjustierungen, die in gewöhnlicher Weise bei Okularen vorzufinden sind, vermeiden. 4 bis 5 stellen jeweils einen repräsentativen Laserempfänger und -sender dar.
-
6 ist ein vereinfachtes Blockdiagramm eines Entfernungsmessverarbeitungssystems, das einen Analog-zu-Digital-Wandler (ADC) umfasst, der mit einem Fotodetektor 18 gekoppelt ist, der einen Teil des reflektierten Sondenstrahls empfängt. Der ADC ist an ein FPGA gekoppelt, das dazu ausgestaltet ist, Laser- und Detektor-(typischerweise Lawinenfotodiode-(APD))-Vorspannung und andere Betriebskonditionen aufzubauen. Wie gezeigt ist das FPGA dazu ausgestaltet, ein Sendertriggersignal an einen Sender zu koppeln. Ein Mikrocontroller (MCU) ist mit einem Stromversorgungsverwaltungssystem und ein Kommunikationssystem gekoppelt, um Daten und Konfigurationsparameter zu senden und zu empfangen.
-
Bildaufnahme, Verarbeitung und Anzeigefunktionalität können bereitgestellt werden mit Komponenten, die ähnlich sind oder die gleichen sind wie diejenigen, die in kommerziellen Digitalvideokameras verwendet werden. Hochauflösungssensoren, wie beispielsweise der Omnivision OV16825 16 MP Bildsensor kann für die Bildaufnahme verwendet werden. Die Bildverarbeitung kann durchgeführt werden mit einem Hochgeschwindigkeitsfeld-programmierbaren Gate Array (FPGA) oder durch Verwendung eines kommerziellen Systems auf einem Chip (SOC) wie beispielsweise den Ambarella A5S Prozessor. Der SOC integriert solche Funktionen wie Video und Audiokompression, Bildverarbeitung, Farbkorrektur, Autofokuskontrolle, Speicher, Bildstabilisation mit gyroskopischer Eingabe und Displayformatierung. Sobald ein Bild verarbeitet ist, kann es auf einer Mikroanzeige angezeigt werden, wie beispielsweise dem MicroOLED MDP01B OLED Anzeige, oder angezeigt werden auf einer externen AMOLED-oder AMLCD-Anzeige, die gewöhnlich auf Smartphones vorgefunden wird. Der SOC kann auch Audioeingabe von einem Mikrofon akzeptieren, um Stimm- oder Spielgeräusche in Kombination mit der Bildaufnahme aufzunehmen.
-
Das effektive Digitalzoom ist definiert als das maximale Verhältnis, das durch Vergleichen der verwendbaren Pixel in dem Bildsensor und der Anzeige erreicht werden kann. Der effektive Digitalzoom ist speziell definiert als: Maximum[Minirnum(sh/dh, sv/dv), Minimum(sh/dv, sv/dh)], wobei die Anzahl von Pixeln für den Bildsensor in der horizontalen Dimension sh ist, sv für den Bildsensor in der vertikalen Dimension ist, dh für das Display in der horizontalen Dimension ist, und dv für die Anzeige in der vertikalen Dimension ist. Die Paarbildung kann in der Vorrichtung mechanisch rotiert werden in angemessener Weise, um die maximale Digitalzoomkondition zu treffen. Als ein numerisches Beispiel kann man den Omnivision OV10810 Bildsensor (4320 × 2432) und die MicroOLED MPD01B Mikroanzeige (854 × 480) benutzen. Folglich ist sh 4320, sv 2432, dh 854 und dv 480. Der maximale Digitalzoom ist Maximum[Minimum(4320/854, 2432/480), Minimum(4320/480, 2432/854)] oder 5,06-fache Vergrößerung. Das Objektivsystem kann zusätzlichen optischen Zoom verwenden durch Bewegen der Linsen, um den gesamten Vergrößerungsbereich des Systems zu vergrößern.
-
Das Objektiv der Vorrichtung kann manuell fokussiert werden oder unter Verwendung einer entsprechenden Vorrichtung, wie beispielsweise eines Autofokuskontrollverfahrens, wie beispielsweise einen Schwingspulenmotor, einen Schrittmotor, einen MEMS Aktuator, einen piezoelektrischen Aktuator, künstliche Muskeln Aktuator oder flüssiges Linsensystem, positioniert entlang der optischen Achse. Folglich kann der Autofokus erreicht werden durch jedes Verfahren und jede Vorrichtung, die für das Produktdesign geeignet sind, wie beispielsweise Linsenbewegung, Sensorbewegung oder ein variabler Leistungsteil wie beispielsweise eine flüssige Linse.
-
Der Laserentfernungsmesser und die Geschwindigkeitsdetektionsschaltung verwenden typischerweise einen Infrarotlaser, wie beispielsweise die Osram SPL PL90_3 gepulste Laserdiode, um ein oder mehrere kurze Lichtpulse auf das Ziel von Interesse auszusenden. Reflektiertes Licht wird dann unter Verwendung eines fotosensitiven Sensors empfangen, wie beispielsweise dem der Excelitas C30737PH-230-92 Lawinenfotodiode, um den/die reflektierten Puls(e) zu detektieren. Durch Verwendung einer Präzisionsflugzeitschaltung oder fortschrittlichen Signalverarbeitungstechniken kann die Entfernung oder die Geschwindigkeit eines entfernten Objekts berechnet werden.
-
Ein Universal-Mikrocontroller (MCU) kann verwendet werden, um die Bildverarbeitung und das Entfernungs- und Geschwindigkeitsmesssystem zu synchronisieren, um Bilder aufzunehmen, während jedes Entfernungs- oder Geschwindigkeitsdetektionsintervalls. Diese Informationen werden in dem Speicher gespeichert.
-
Der MCU wird auch verwendet, um Umgebungssensoren abzufragen, wie beispielsweise Temperatur, Druck, Feuchtigkeit, Neigungswinkel, geo-positionaler Standort und Magnetausrichtung. Diese Informationen können verwendet werden für die ballistische Berechnung oder zur Zielortidentifikation. Der MCU kann auch ein Umgebungslicht und einen Näherungssensor verwenden, um die Anzeigenhelligkeit zu kontrollieren oder um die Anzeige auszuschalten, wenn es nicht verwendet wird und kann in Kombination mit einem Bewegungssensor verwendet werden, um die gesamte Vorrichtung auszuschalten, wenn sie nicht verwendet wird.
-
Schnittstellensteuerungen, wie beispielsweise Schaltflächen, Knöpfe, Berührungsanzeigen und andere Schnittstellensteuerungen können vorgesehen sein, um die Vorrichtung zu betreiben. Die Benutzerschnittstellensteuerungen werden verwendet, um die Vergrößerung hoch oder herunter zu zoomen, das Bild zu fokussieren, das Ziel zu vermessen, die Geschwindigkeit eines Ziels zu detektieren, Bilder aufzunehmen und die Vorrichtung zu konfigurieren.
-
Systeme und Vorrichtungen können konfiguriert sein für die Verwendung als eine Universal-Standbildkamera, Camcorder, Laserentfernungsmesser oder als eine LIDAR-Pistole zur Geschwindigkeitsdetektion, abhängig von der Nutzerkonfiguration.
-
Ein repräsentatives Verfahren 1700 zur Bestimmung von passenden Systemspezifikationen für das Objektiv und dem Okular in dem System, basierend auf physikalischen Notwendigkeiten, welche Anforderungen verursachen, die eine beugungsbeschränkte Sehleistung sowohl bei der maximalen Vergrößerung als auch bei dem weites Zoom-Positions-Gesichtsfeld, ist in 17 gezeigt und unten beschrieben. Bei 1702 wird ein gewünschtes Objektiv Halbes Gesichtsfeld (HFOVobj) ausgewählt, das eine Szene betrachtet (die eine horizontale oder vertikale Ecke sein kann) und kann für jede Vergrößerungsleistungseinstellung definiert sein (das Breiteste kann bei der niedrigsten Vergrößerungsleistung sein, HFOVwobj). Ein Bereich der Vergrößerungsleistung für das Instrument kann in absoluten Begriffen ausgewählt sein (MPmin bis MPmax, jeweils weites bis nahes Sichtfeld), und eine Größe (CAeye) und eine Position der Okularpupille (wo das Auge bei Verwendung platziert ist) werden ausgewählt. Bei 1704 wird ein verwendbarer digitaler Zoombereich für einen Sensor und Anzeigenpaarung berechnet, wenn das digitale Zoom verwendet wird basierend auf einer Formel für effektives Digitalzoom. Effektiver Digitalzoom ist Maximum[Minimum(sh/dh, sv/dv), Minimum (sh/dv, sv/dh)], wobei die Anzahl von Pixeln für den Bildsensor in der horizontalen Dimension sh, sv für den Bildsensor in der vertikalen Dimension, dh für die Anzeige der horizontalen Dimension und dv für die Anzeige in der vertikalen Dimension ist. Ein digitaler Zoom-(DZ)-Bereich, der verwendet wird, wird basierend auf den ingenieurtechnischen Betrachtungen ausgewählt, wie beispielsweise Bildstabilisation und Demosaicing in der Bildverarbeitung: MP = DZe × MPmin, wobei DZe von 1 bis zum maximal verwendeten Wert DZmax reicht (weit bis telezentrischen Zooming-Modus), MP ist die Vergrößerungsleistung und MPmin ist die minimale Vergrößerungsleistung. Ein optischer Zoombereich, der benötigt wird, um den Vergrößerungsleistungsbereich abzudecken, wird bestimmt, wenn der verwendete Digitalzoombereich unzureichend ist. MPtot = MP × Zopt, wobei Zopt der optische Zoom ist und andere Parameter wie zuvor bestimmt sind. In solchen Fällen, in denen der optische Zoom benötigt wird, können die Berechnungen durchgeführt werden für zusätzliche Zoompositionen, die benötigt werden, um den vollständigen spezifizierten Vergrößerungszoombereich abzudecken.
-
Bei 1706 wird eine breite FOV effektive fokale Länge (EFLmin) berechnet, um einen ausgewählten Sensor anzupassen: EFLmin = HDsens/tan(HFOVwobj), wobei HDsens eine korrespondierende Sensorhalb-Dimension in der durch das Objektiv HFOVwobj weites Sichtfeld definierten Dimension ist. Ein Sollwert für die objektive designeffektive Fokallänge wird ausgewählt, um eine ausreichend lange effektive Fokallänge zu haben, um beugungsbegrenzte Sensorelementabbildung auf die Szene zu liefern: EFLset = DZset × EFLmin, wobei die Pixel-Abbildungsbedingung EFLset> = [sps/(Er/MPmax)] ist, wobei EFLset die Objektiv-Fokallänge für Design ist, DZset das digitale Zoomoffset ist, das benötigt wird, um die Pixelabbildungsbedingung zu erfüllen (und kann ausgewählt werden, um die Gleichheitsbedingung in der Magnitude zu übersteigen), sps ist die sensoreffektive Pixelgröße, Er ist die Auflösungsfähigkeit des Auges und MPmax ist die maximale Vergrößerungsleistung in dem Bereich.
-
Bei 1708 werden die spezifischen Digitalzoomnummern bewertet, um das Zusammenpassen der niedrigeren zu höheren Vergrößerungsleistungsbereiche zu verifizieren, die durch den Digitalzoom, basierend auf dem Sollwert der effektiven Fokallänge der Objektivlinse, bereitgestellt sind: DZmin <= DZset <= DZmax, wobei DZmin 1 ist, DZmax und DZset wie zuvor definiert sind und das Digitalzoomverhältnis proportional zu dem Verhältnis der äquivalenten digitalen EFL-Werte bei verschiedenen MP (digital äquivalent EFL EFLdigeq = DZe EFLmin, wobei EFLmin = EFLset/DZset als DZmin = 1) ist.
-
Bei 1710 wird ein minimaler Objektiv-Eintrittspupillendurchmesser berechnet, um eine geeignete Auflösung von Winkelbeugung und Augenauflösungsbedingungen sicherzustellen. Ein solches Überprüfen kann basieren auf Sparrow- oder Rayleigh-Kriterien, die von dem Systemdesign abhängen. Für das Rayleigh-Kriterium, ist MPres = Er × (60/5,5) × CAent, wobei ER zuvor bestimmt wurde, CAent die klare Apertur der Eingangspupille des Objektivs in Inch ist und MPres die maximale beugungslimitierte Auflösungsleistung ist.
-
Bei 1712 wird eine Sollwertobjektivlinsendesign-f-Anzahl berechnet mit dem gegebenen Eintrittspupillendurchmesser und sollwerteffektiver Fokallänge: f-Anzahl = EFLset/CAent, wobei EFLset und CAent wie zuvor definiert sind.
-
Bei 1714 wird eine Okulareffektivfokallänge berechnet, basierend auf der Sollwertvergrößerungsleistung und dem Sichtfeld: EFLeye = HDdisp/[MPmin × tan(HFOVwobj)], wobei HDdisp die korrespondierende Anzeigenhalb-Dimension in der Objektiv HFOVwobj definierten Dimension ist und wobei MPmin zuvor beschrieben worden ist. Eine Okular-f-Anzahl wird berechnet basierend auf der Okularpupillengröße und effektiven Fokallänge: f-Anzahl = EFLeye/CAeye, wobei EFLeye und CAeye oben definiert sind.
-
Bei 1716 wird die Objektiv- und Okular-beugungslimitierte Leistungsfähigkeit für die gegebenen f-Anzahlen bewertet, um zu ermitteln, dass die geeignete (in manchen Fällen) Ideal-Leistungsfähigkeit mit den ausgewählten Parametern erreichbar ist. Zum Beispiel unter Verwendung der Modulationstransferfunktion als eine bedeutungsvolle Systemmetrik, MTFdiffn(v/vc) = (2/Pi) × [arcos(v/vc) – (v/vc) × sqrt(1 – (v/vc)^2)], wobei v die räumliche Frequenz in Zyklen pro mm ist und vc = 1/(Wellenlänge × f-Anzahl); die Modulation bis zur Nyquist-Frequenz des Sensors sollte ein Overhead in der Durchführung für die Erfindung liefern.
-
Beugung ist ein auf physikalischen Gesetzmäßigkeiten beruhendes Phänomen, die Wellenlänge wird bestimmt durch das gewünschte Betrachtungsspektrum, Augenbetrachtungen werden bestimmt durch die anvisierte Betrachtungspopulation, die Anzeige-numerische Apertur (NA) sollte ausreichend die Eingangspupille zu dem Okular (auf der Anzeigenseite) beleuchten und die physikalischen Pixelgrößen sind Bildsensor und anzeigenspezifische Quantitäten.
-
Varianten des offenbarten Verfahrens zum Bestimmen der Objektiv- und Okularspezifikation sind auch möglich. Alle der angemessenen Beziehungen können modifiziert werden, um die Parameter zu berechnen, die in dem Verfahren oben ausgewählt wurden, wenn berechnete Werte stattdessen als ein Freiheitsgrad ausgewählt werden. Beispielsweise kann das Objektiv EFL oder die f-Anzahl ausgewählt werden für den Sollwert. Dann kann das Sichtfeld für das Objektiv berechnet werden gegeben durch die Wiederanordnung der obigen Ausdrücke. Es ist auch möglich zwischen Schritten in dem gegebenen Verfahren zu iterieren, Design zum Beschränken und Maximieren der Leistungsfähigkeit für digitales Zoom oder eine Untergruppe von verfügbarem Digitalzoom (sogar Einstellen des DZmin-Wertes, um größer zu sein als Einheit) zu verwenden. Diese Beispielsvarianten sind eindeutig gegeben in dem offenbarten Verfahren.
-
Als ein Beispiel des Verfahrens in Verwendung betrachtet man einen Graustufensensor (4000×2000, 2 μm dimensionierte Pixel) und die Mikroanzeige (1000×500, 10 μm dimensionierte Pixel). Zunächst wird ein gewünschter HFOV von 11 Metern bei 100 Metern Distanz in der horizontalen Dimension an dem Weitsichtfeld Zoom ausgewählt. Das ist ein horizontales Halbsichtfeld von 3,15 Grad. Der Vergrößerungsleistungsbereich wird als nächstes ausgewählt, um MPmin = 3 und MPmax = 12 zu sein. Das CAeye wird ausgewählt, um 6 mm zu sein und das Augenrelief ist 25 mm. Mit dem gegebenen Sensor und Anzeigenparametern wird der effektive Digitalzoom DZmax berechnet, um 4 zu sein. In diesem Fall werden alle der digitalen Zooms verwendet, es wird kein optischer Zoom benötigt, um den Bereich abzudecken, da MPmax = DZmax × MPmin = 4 × 3 = 12. Die Objektivlinse EFLmin wird direkt berechnet, um 4 mm/arctan (3,15 Grad) = 72,7 mm zu sein. EFLset = EFLmin und DZset = 1 kann in diesem Fall verwendet werden, weil die Abbildungsbedingung EFLset >= 41,3 mm ist. Da der Sollwert bei dem Einheitsdigitalzoom DZset = DZmin = 1 ist, ist die Verifizierung der Digitalzoom Anzahlenmatch des Niedrig-zu-Hoch-Vergrößerungsleistungsbereichs einfach, weil der MP-Bereich zur früheren Berechnung, MPmax = DZmax × MPmin = 4 × 3 = 12 passt. Unter Verwendung des Rayleigh-Kriteriums für den maximalen MP-Bereich wird die CAent für die Objektivlinse ausgewählt, um 14 mm zu sein, welche eine maximale mögliche beugungslimitierte Vergrößerungsleistung von MPres = 12,02 liefert. Die Sollwert-f-Anzahl des Objektivs ist dann 72,7 mm/14 mm = f/5,19. Das Okular EFL ist EFLeye = 5 mm/[3 × tan(3,15 Grad)] = 30,3 mm. Die f-Anzahl des Okular ist dann 30,1 mm/6 mm = f/5,05. Die Endkontrolle ist eine Funktion der spezifischen Produktbilderfordernisse und wird somit nur erwähnt, aber nicht gezeigt für dieses Beispiel. Diese Designparameter können eingestellt werden wie benötigt, um die Produkterfordernisse zu erfüllen.
-
Die Lasersenderlinsen sind dazu ausgestaltet, um einen Laser oder eine Laserdiode zu einer gut kollimierten Anzahl zu kollimieren, wie beispielsweise weniger als 2 Milliradian an Divergenz. Die Empfängerlinsen sind ausgestaltet mit einer Divergenz von ungefähr 20% größerem Sichtfeld, in anderen Worten 20% mehr Akzeptanzwinkel als die Senderlinsendivergenz. Weitere Betrachtungen von Empfänger und Senderdesignlayouts werden bestimmt durch Verpackung und Herstellbarkeit.
-
Während der Montage sind das Lasersendersystem, das Laserempfängersystem und das Objektivsystem sorgfältig ausgerichtet, so dass der Lasersender sowohl auf der Lawinenfotodiode als auch dem Bildsensor zentriert ist.
-
In manchen Ausführungsformen wird die Stromversorgung durch eine oder mehrere Batterien zur Verfügung gestellt. Primär können Lithiumbatterien wie beispielsweise ein CR123 oder CR2, Lithium 2 AA Zellen oder wieder aufladbare Batterien verwendet werden. Die Vorrichtung ist normalerweise in einem abgeschalteten Status und kann durch das Drücken der Reichweite- oder Feuerschaltfläche angeschaltet werden. Sobald gedrückt wird, zeigt die Vorrichtung ein anvisierendes Fadenkreuz auf einer internen oder externen Anzeige an und fokussiert das Bild des Ziels. Der Betreiber drückt dann die Reichweite oder Feuerschaltfläche, um eine Reichweite zum entfernten Objekt oder die Geschwindigkeit eines entfernten Objekts zu berechnen. Diese Entfernung wird dann auf der Anzeige angezeigt. Die Vergrößerung eines entfernten Bildes kann vergrößert oder verringert werden, indem ein oder mehrere Schaltflächen auf der Vorrichtung gedrückt werden. Darüber hinaus kann die Erfindung dazu ausgestaltet sein, das Bild des Zieles, das auf die Entfernung oder Geschwindigkeit hin durchstreift ist, aufzunehmen. Eine zusätzliche Schaltfläche oder Nutzerkontrolle kann zwischengeschaltet werden zwischen der Entfernungsmessung, Geschwindigkeitsdetektion, Standbildaufnahme oder Videoaufnahme in Abhängigkeit von der Konfiguration des Betreibers.
-
Repräsentative optische Systemausführungen werden unten mit den folgenden Definitionen ausgeführt. Die Spektren sind sichtbar für das Objektiv und das Okular; 905 nm für Sender und Empfänger. Die Sichtfelder werden in Grad angegeben (HFOV ist ein halbes Sichtfeld), Eingangsstrahlradius ist EBR, effektive fokale Länge ist EFL, AST bedeutet Apertur Stopp. Dimensionen sind in mm. In den begleitenden Zeichnungen werden die Radien von Krümmungen der optischen Oberflächen bezeichnet als R1, R2, R3 etc., Elementdicken sind bezeichnet als T1, T2, T3 etc., und Elementmaterialien bezeichnet als Schott Optical Glass, werden bezeichnet als U1, U2, U3 etc., mit der Ausnahme von Lufträumen, welche nicht mit solchen Kennzeichnungen versehen sind.
-
Beispiel 1: Objektivsystem
-
In dem Beispiel ist nach links die Szene und nach rechts ein Sensor wie in
7 gezeigt. Für dieses Beispiel HFOV = 3,57, EBR = 7,5, EFL = 55,6 und die Objektdistanz ist unendlich. Systemdaten befinden sich in Tabelle 1. Tabelle 1
Oberfläche | Radius | Dicke | Apertur Radius | Medium |
1 | 26,07 | 3 | 7,31 | FK5 |
2 | –24,92 | 0,77 | 7,32 | |
3 | –23,5 | 1,5 | 7,17 | N-F2 |
4 | –105,99 | 42,67 | 7,14 | |
5 | –13,47 | 1,4 | 3,98 | N-FK5 |
6 | –21,26 | 4,23 | 4,04 | |
7 | 9,56 | 2 | 3,95 | N-LASF44 |
8 | 9,11 | 2 | 3,55 | |
-
Beispiel 2: Objektivsystem
-
In dem Beispiel ist nach links die Szene und nach rechts ein Sensor wie in
8 gezeigt. Für dieses Beispiel HFOV = 3,57, EBR = 7,5, EFL = 55,6 und die Objektdistanz ist unendlich. Systemdaten befinden sich in Tabelle 2. Tabelle 2
Oberfläche | Radius | Dicke | Apertur Radius | Medium |
1 | 24,75 | 3 | 7,5 | N-PK52A |
2 | –24,75 | 0,62 | 7,5 | |
3 | –23,56 | 1,5 | 7,5 | N-KZFS4 |
4 | –178,82 | 41 | 7,5 | |
5 | –11,53 | 2 | 4,5 | N-LASF44 |
6 | –14,47 | 2,37 | 4,5 | |
7 | 9,65 | 4 | 4,5 | N-FK5 |
8 | 8,88 | 4 | 4 | |
-
Beispiel 3: Zoom-Objektivlinse
-
In diesem Beispiel gehen die Szene nach links und ein Sensor nach rechts wie in 9 gezeigt. In einer Weit-Zoom-Konfiguration, HFOV = 3,64, EBR = 7,6, EFL = 55,0. In einer Mittel-Zoom-Konfiguration, HFOV = 2,05, EBR = 7, EFL = 70,0. In einer Zoom-Telefoto-Konfiguration, HFOV = 0,93, EBR = 7,5, EFL = 108.0. Der Stopp ist 1 mm in der Objektrichtung von der Oberfläche 6. Die Objektdistanz ist unendlich.
-
Die Weit-Zoom-Konfiguration (Konfiguration 1) wird in Tabelle 3 beschrieben, Tabelle 4 listet die Einstellung für die Mittel-Zoom-Konfiguration (Konfiguration 2) und die Telefoto-Konfiguration (Konfiguration 3). Tabelle 3
Oberfläche | Radius | Dicke | Apertur Radius | Medium |
1 | 20,87 | 3 | 8 | N-FK5 |
2 | –68,93 | 8,22 | 8 | |
3 | –27,8 | 2 | 6,5 | KZFSN5 |
4 | 14,89 | 3 | 6,5 | N-FK5 |
5 | –235,42 | 15,35 | 6,5 | |
6 | Unendlich | 1 | 4,44 | |
7 | 12,79 | 2,1 | 5,5 | SF11 |
8 | –191,41 | 1,1 | 5,5 | F5 |
9 | 10,54 | 2,41 | 5,5 | |
10 | –24,13 | 1 | 5 | N-LAF21 |
11 | 25,65 | 14,63 | 5 | |
12 | 110,51 | 2,4 | 6,6 | N-LAK14 |
13 | –29,12 | 0,15 | 6,6 | |
14 | 38,33 | 2,8 | 6,6 | N-LAK14 |
15 | –19 | 1,6 | 6,6 | SF56A |
16 | –166,41 | 34,22 | 6,6 | |
Tabelle 4
Konfiguration | Oberfläche | Parameter | Wert |
2 | 6 | Dicke | 2,63 |
2 | 9 | Dicke | 5,04 |
2 | 11 | Dicke | 10,39 |
3 | 6 | Dicke | 10,27 |
3 | 9 | Dicke | 6,97 |
3 | 11 | Dicke | 0,79 |
-
Beispiel 4
-
In Beispiel 4 ist nach links die Szene und nach rechts ein Sensor wie in
10 gezeigt. Für dieses Beispiel HFOV = 4,15, EBR = 5, EFL = 48,0 und die Objektdistanz ist unendlich. Systemdaten befinden sich in Tabelle 5. Tabelle 5
Oberfläche | Radius | Dicke | Apertur Radius | Medium |
1 | 2,63 | 2,63 | 2,63 | 2,63 |
2 | 5,04 | 5,04 | 5,04 | 5,04 |
3 | 10,39 | 10,39 | 10,39 | 10,39 |
4 | 10,27 | 10,27 | 10,27 | 10,27 |
5 | 6,97 | 6,97 | 6,97 | 6,97 |
6 | 0,79 | 0,79 | 0,79 | 0,79 |
7 | 2,63 | 2,63 | 2,63 | 2,63 |
8 | 5,04 | 5,04 | 5,04 | 5,04 |
-
Beispiel 5: Okularsystem
-
In dem Beispiel gehen ein Auge nach links und eine Anzeige nach rechts wie in
11 gezeigt. Für dieses Beispiel HFOV = 17,5, EBR = 2,5, EFL = 15,25 und die Objektdistanz ist unendlich. Die Augenpupille ist 16 mm vor der Oberfläche 1. Systemdaten befinden sich in Tabelle 6. Tabelle 6
Oberfläche | Radius | Dicke | Apertur Radius | Medium |
1 | 16,44 | 6,27 | 7 | N-LAK14 |
2 | –15,46 | 0,61 | 7 | |
3 | –11,54 | 1,57 | 7 | SF57 |
4 | –103,27 | 0,6 | 7 | |
5 | 17,91 | 3,6 | 7 | N-LAK14 |
6 | –20,46 | 5,95 | 7 | |
7 | –7,83 | 1,57 | 4,5 | LF5 |
8 | 27,84 | 1,43 | 4,5 | |
-
Beispiel 6: Okularsystem
-
In dem Beispiel gehen ein Auge nach links und eine Anzeige nach rechts wie in
12 gezeigt. Für dieses Beispiel HFOV = 14, EBR = 2,5, EFL = 19,4 und die Objektdistanz ist unendlich. Die Augenpupille ist 18,5 mm vor der Oberfläche 1. Systemdaten befinden sich in Tabelle 7. Tabelle 7
Oberfläche | Radius | Dicke | Apertur Radius | Medium |
1 | 25,27 | 8 | 8 | N-LAK14 |
2 | –17,47 | 1,03 | 8 | |
3 | –13,36 | 2 | 8 | SF57 |
4 | –71,87 | 0,7 | 8 | |
5 | 25,27 | 4,6 | 8 | N-LAK14 |
6 | –25,27 | 8,64 | 8 | |
7 | –11,92 | 2 | 5,5 | LF5 |
8 | 25,27 | 1,5 | 5,5 | |
-
Beispiel 7: Lasersendesystem
-
In diesem Beispiel geht eine Szene nach links und ein Lasersender ist nach rechts angeordnet wie in
13 gezeigt. In diesem Beispiel ist HFOV = 0,0515, EBR = 6,00, EFL = 120 und die Objektdistanz ist unendlich. Die Systemdaten befinden sich in Tabelle 8. Tabelle 8
Oberfläche | Radius | Dicke | Apertur Radius | Medium |
1 | 61 | 3 | 6,2 | BK7 |
2 | Unendlich | 117,87 | 6,2 | AIR |
-
Beispiel 8: Lasersendesystemoptiken
-
In diesem Beispiel verlaufen eine Szene nach links und ein Lasersender von rechts wie in
14 gezeigt. Für dieses Beispiel ist HFOV = 0,0515, EBR = 6,00, EFL = 120 und die Objektdistanz ist unendlich. Die Systemdaten befinden sich in Tabelle 9. Tabelle 9
Oberfläche | Radius | Dicke | Apertur Radius | Medium |
1 | 11,25 | 2 | 6 | N-SF5 |
2 | 53,68 | 11,35 | 5,59 | |
3 | –6,68 | 1 | 2,5 | N-SF5 |
4 | Unendlich | 5,73 | 2,5 | |
5 | 4,12 | 2,93 | 2,32 | N-SF5 |
6 | 2,82 | 28,31 | 1,62 | |
-
Beispiel 9: Laserempfängersystemoptiken
-
In diesem Beispiel verläuft die Szene nach links, ein Detektor nach rechts und HFOV = 0,062, EBR = 10, EFL = 90,9 und die Objektdistanz ist unendlich. Systemdaten sind in der Tabelle 10 wiedergegeben. Die Oberflächen 3–4 sind konische Abschnitte und konische Konstanten sind in der Tabelle 11 aufgelistet. Tabelle 10
Oberfläche | Radius | Dicke | Apertur Radius | Medium |
1 | 25,71 | 3 | 10 | N-LAK14 |
2 | 980,59 | 36,91 | 9,53 | |
3 | 0,38 | 1 | 0,9 | N-SF5 |
4 | –0,38 | 1,41 | 0,9 | |
Tabelle 11
Oberfläche | Konische Konstante |
3 | –3,47 |
4 | –3,47 |
-
Beispiel 10: Laserempfängersystemoptiken
-
In diesem Beispiel verläuft eine Szene nach links, ein Detektor nach rechts wie in
16 gezeigt. Für dieses Beispiel ist HFOV = 0,062, EBR = 10, EFL = 90,9 und die Objektdistanz ist unendlich. Die Systemdaten befinden sich in Tabelle 12. Tabelle 12
Oberfläche | Radius | Dicke | Apertur Radius | Medium |
1 | 35,59 | 3,3 | 10,5 | N-SF11 |
2 | 376,78 | 5,56 | 10,5 | |
3 | 18,72 | 4 | 8,8 | N-SF11 |
4 | 27,21 | 15,9 | 8,8 | |
5 | –25,57 | 3,3 | 2,5 | N-SF11 |
6 | 6,43 | 12,96 | 2,5 | |
-
Nachdem die Prinzipien der offenbarten Technologie mit Bezug zu den dargestellten Ausführungsformen beschrieben und dargestellt wurden, wird erkannt werden, dass die dargestellten Ausführungsformen modifiziert werden können in der Anordnung und Details ohne die Prinzipien zu verlassen. Beispielweise können Elemente der dargestellten Ausführungsformen, die in Software gezeigt sind, implementiert werden in Hardware und umgekehrt. Ebenso können die Technologien von jedem Beispiel kombiniert werden mit den Technologien, die in irgendeinem oder mehreren der anderen Beispiele beschrieben wurden. Die besonderen Anordnungen oben sind zur einfachen Darstellung bereitgestellt und andere Anordnungen können verwendet werden.