EP1901023A1 - Verfahren zur Erfassung und Darstellung von Informationen bezüglich eines Zielobjekts - Google Patents

Verfahren zur Erfassung und Darstellung von Informationen bezüglich eines Zielobjekts Download PDF

Info

Publication number
EP1901023A1
EP1901023A1 EP06019451A EP06019451A EP1901023A1 EP 1901023 A1 EP1901023 A1 EP 1901023A1 EP 06019451 A EP06019451 A EP 06019451A EP 06019451 A EP06019451 A EP 06019451A EP 1901023 A1 EP1901023 A1 EP 1901023A1
Authority
EP
European Patent Office
Prior art keywords
video information
video
data stream
detection device
target detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
EP06019451A
Other languages
English (en)
French (fr)
Other versions
EP1901023B1 (de
EP1901023B8 (de
Inventor
Rudolf Koch
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Watermann Franz-Josef
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to EP20060019451 priority Critical patent/EP1901023B8/de
Publication of EP1901023A1 publication Critical patent/EP1901023A1/de
Publication of EP1901023B1 publication Critical patent/EP1901023B1/de
Application granted granted Critical
Publication of EP1901023B8 publication Critical patent/EP1901023B8/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/16Sighting devices adapted for indirect laying of fire
    • F41G3/165Sighting devices adapted for indirect laying of fire using a TV-monitor

Abstract

Um mittels einer zielerfassungseinrichtung (1a; 1b) möglichst zuverlässig eine detailreiche und rauschfreie Darstellung eines Zielobjekts (12) in Echtzeit zu erreichen wird vorgeschlagen, einen ersten und einen zweiten Videodatenstrom mittels digitaler Videosensoren (2, 3) zu erfassen wobei der erste und der zweite Videodatenstrom dem Zielobjekt (12) entsprechende Videoinformationen umfassen. Es wird dann automatisch ein Detailbereich (32) eines Einzelbilds des ersten Videodatenstroms bestimmt. Ferner werden automatisch dem Detailbereich (32) entsprechende Videoinformationen des zweiten Videodatenstroms bestimmt. Der Detailbereich (32) wird derart bestimmt, dass dieser zumindest einen Teil des zielobjekts (12) umfasst. Ein Detailbereich (32) entspricht hierbei einem darstellbaren Bereich eines Einzelbilds des jeweiligen Videodatenstroms, der stets als eine Folge von Einzelbildern betrachtet werden kann.

Description

  • Die Erfindung betrifft ein Verfahren zur Erfassung und Darstellung von Informationen bezüglich eines Zielobjekts mittels einer Zielerfassungseinrichtung in Echtzeit, bei dem ein erster Videodatenstrom mittels eines digitalen Bildsensors erfasst wird, zumindest einem vorgebbaren Bildausschnitt entsprechende Videoinformationen des ersten Videodatenstroms auf einem Bildschirm in Echtzeit dargestellt werden, die Zielerfassungseinrichtung derart ausgerichtet wird, dass das Zielobjekt von dem Bildsensor erfasst wird und dem Zielobjekt entsprechende Videoinformationen auf dem Bildschirm dargestellt werden.
  • Die Erfindung betrifft auch eine Zielerfassungseinrichtung zur Erfassung eines Zielobjekts, wobei der Zielerfassungseinrichtung mindestens ein digitaler Bildsensor zur Erfassung eines Videodatenstroms, ein Bildschirm zur Darstellung von mindestens einem vorgebbaren Bildausschnitt entsprechenden und von dem digitalen Bildsensor erfassten Videoinformationen in Echtzeit und Mittel zur Darstellung von dem Zielobjekt entsprechenden Videoinformationen auf den Bildschirm zugeordnet sind.
  • Derartige Zielerfassungseinrichtungen sind vom Markt her bekannt und werden beispielsweise bei Vermessungsarbeiten eingesetzt. Hierbei ist der Zielerfassungseinrichtung beispielsweise eine Richtungserfassungseinrichtung zugeordnet und ermöglicht damit die Angabe einer Richtung des Zielobjekts relativ zu dem aktuellen Ort der Zielerfassungseinrichtung.
  • Zielerfassungseinrichtungen werden insbesondere auch eingesetzt, um ein zielgenaues Abschießen eines Geschosses zu ermöglichen und somit eine Erhöhung der Treffsicherheit zu erreichen.
  • Insbesondere bei großen Entfernungen, beispielsweise über 1000 Metern, ist es mit den bekannten Zielerfassungseinrichtungen meist nur unzureichend möglich, relativ kleine Zielobjekte, beispielsweise von nur wenigen Zentimetern, oder entsprechend kleine Details, sicher zu erfassen und darzustellen.
  • Um eine Erhöhung der darstellbaren Details eines Zielobjekts bzw. einer Darstellung eines weit entfernten, relativ kleinen Zielobjekts zu ermöglichen, ist es bekannt, den digitalen Sensor mit einer entsprechend gestalteten optischen Linse, beispielsweise einem Teleobjektiv oder einem Zoom-Objektiv, zu versehen. Dies ermöglicht zwar grundsätzlich eine vergrößerte Darstellung von Details, jedoch haben derartige Objektive den Nachteil, dass diese eine relativ aufwendige Verstellmechanik benötigen. Ferner haben derartige Objektive ein relativ hohes Gewicht und benötigen verhältnismäßig viel Platz, was die Handhabbarkeit der Zielerfassungseinrichtung erschwert. Ferner treten bei diesen Objektiven üblicherweise in bestimmten Bereichen Verzerrungen auf und insgesamt führt dies häufig zu einer Reduzierung der verwendbaren Lichtstärke. Qualitativ hochwertige Objektive sind ferner sehr teuer in der Herstellung.
  • Um eine Erhöhung der darstellbaren Details eines Zielobjekts bzw. einer Darstellung eines weit entfernten, relativ kleinen Zielobjekts zu ermöglichen, ist es ferner bekannt, eine digitale Vergrößerung vorzusehen. Digitale Vergrößerungen haben jedoch den Nachteil, dass aufgrund der maximalen Auflösung des digitalen Sensors nicht vorhandene Informationen künstlich erzeugt werden müssen. Dies führt häufig zu unscharfen oder gar falschen Bildinformationen.
  • Außerdem sind von digitalen Bildsensoren erfasste Informationen häufig mit einem sogenannten Rauschen behaftet. Ein derartiges Rauschen sind beispielsweise das als Luminanzrauschen bezeichnete Helligkeitsrauschen oder das als Chrominanzrauschen bezeichnete Farbrauschen. Helligkeitsrauschen tritt beispielsweise auf, wenn ein unabhängiges Zufallssignal vorhanden ist, das ein Helligkeitssignal beeinflusst. Der Umfang des Rauschens ist unter anderem abhängig von der sogenannten Packungsdichte des digitalen Sensors, also der Anzahl der erfassbaren Pixel bezüglich der Sensorfläche, der Qualität der Signalverarbeitung, einer aktuellen Belichtungsdauer, der Helligkeit, der Sensortemperatur und einem eventuellen Vergrößerungsgrad.
  • In der digitalen Photographie sind Verfahren zur Reduzierung des Bildrauschens bekannt. Um hierbei jedoch zuverlässige Ergebnisse zu erhalten, sind üblicherweise aufwendige Berechnungen notwendig.
  • Um eine Erhöhung der darstellbaren Details eines Zielobjekts zu ermöglichen ist es auch bekannt, einen digitalen Bildsensor mit möglichst hoher Auflösung einzusetzen, so dass grundsätzlich eine digitale Vergrößerung eine bessere Bildqualität erreichen kann. Dies hat jedoch den Nachteil, dass derartige Sensoren üblicherweise relativ teuer sind. Ferner sind hochauflösende digitale Sensoren relativ groß und weisen dabei dennoch eine relativ hohe Packungsdichte auf, was wiederum ein relativ hohes Rauschen erzeugt.
  • Bezüglich der vorgenannten Anwendungsgebiete ist eine sogenannte Echtzeitfähigkeit besonders wichtig. Die Echtzeitfähigkeit bedeutet hierbei zunächst, dass keine zeitlichen Verzerrungen auftreten dürfen. Eine echtzeitfähige Bearbeitung von realen, zeitabhängigen Informationen muss damit derart schnell erfolgen, dass die bearbeiteten Informationen dieselbe Zeitabhängigkeit aufweisen. Ferner muss es die echtzeitfähige Bearbeitung ermöglichen, dass nur eine unwesentliche Verzögerung zwischen einem in der Realität auftretenden Ereignis und der Ausgabe diesbezüglicher, bearbeiteter Information auftritt. Die Bearbeitung muss folglich derart schnell erfolgen, dass keine (nennenswerte) Verzögerung zwischen den ursprünglichen Informationen und den bearbeiteten Informationen auftritt. Dies ist bei rein optisch basierten Systemen zur Zielerfassung natürlicherweise gegeben. Ein auf einer digitalen Datenverarbeitung basierendes System zur Zielerfassung steht jedoch vor der Herausforderung, die Datenbearbeitung derart rasch durchzuführen, dass auch hier keine Zeitverzögerung wahrnehmbar ist.
  • Insbesondere bei in Echtzeit darzustellenden Videoinformationen ist eine zuverlässige Rauschunterdrückung aufgrund des pro Zeiteinheit besonders hohen Datenaufkommens häufig nicht oder nur schwer realisierbar, selbst wenn ein besonders aufwendig gestalteter Bildbearbeitungsprozessoren eingesetzt wird. Beispielsweise muss bei der Darstellung hochauflösender Videoinformationen auch sichergestellt werden, dass die Videoinformationen in Echtzeit von dem digitalen Sensor zu dem Bildbearbeitungsprozessor und von diesem zu dem Bildschirm übermittelt werden. Allein dies setzt häufig bereits ein mehrfach-parallel ausgeführtes Bussystem voraus. Der Einsatz hochwertiger Bildbearbeitungsprozessoren hat neben den hohen Kosten ferner den Nachteil, dass diese aufgrund der hohen Leistung und der hohen, erzeugten Abwärme üblicherweise einen hohen Strombedarf haben und. Sie sind deshalb für den mobilen Einsatz meist nicht verwendbar.
  • Offenbarung der Erfindung
  • Aufgabe der Erfindung ist es daher, ein Verfahren zur Erfassung und Darstellung von Informationen bezüglich eines Zielobjekts der eingangs genannten Art derart zu verbessern, dass möglichst zuverlässig eine detailreiche und rauschfreie Darstellung des Zielobjekts in Echtzeit möglich ist.
  • Die Aufgabe wird durch ein Verfahren der eingangs genannten Art dadurch gelöst, dass ein zweiter Videodatenstrom erfasst wird, wobei der zweite Videodatenstrom ebenfalls dem Zielobjekt entsprechende Videoinformationen umfasst. Der zweite Videodatenstrom wird beispielsweise mittels eines zweiten digitalen Bildsensors erfasst. Damit wird grundsätzlich die Anzahl der zur Verfügung stehenden Informationen vergrößert. Da das Rauschen ein Zufallsprozess ist, ist durch die Verwendung eines zweiten Videodatenstroms grundsätzlich eine Reduzierung der Wahrscheinlichkeit erreichbar, dass zwei einander entsprechende Videoinformationen ein gleichartiges Rauschen aufweisen. Es steht folglich mit höherer Wahrscheinlichkeit stets eine nicht-verrauschte Videoinformation zur Verfügung.
  • Es besteht jedoch auch hier das Problem, dass die in Echtzeit zu verarbeitenden Videoinformationen eine wirkungsvolle Rauschreduzierung aufgrund der Komplexität der Berechnungen nicht zulassen. Insbesondere wird durch die Verwendung von zwei Videodatenströmen die Gesamtmenge der zu verarbeitenden Videoinformationen noch vergrößert.
  • Gemäß des erfindungsgemäßen Verfahrens wird deshalb automatisch ein Detailbereich eines Einzelbilds des ersten Videodatenstroms bestimmt. Damit wird eine Menge von ersten Videoinformationen bestimmt. Ferner wird automatisch eine zweite Menge von Videoinformationen des zweiten Videodatenstroms bestimmt, die ebenfalls dem Detailbereich entsprechen und aus einem zumindest nahezu zeitgleich erfassten Einzelbild des zweiten Videodatenstroms stammen. Der Detailbereich wird derart bestimmt, dass dieser zumindest einen Teil des Zielobjekts umfasst. Der Detailbereich entspricht hierbei einem darstellbaren Bereich eines Einzelbilds des jeweiligen Videodatenstroms, der stets als eine Folge von Einzelbildern betrachtet werden kann.
  • Um eine Echtzeitfähigkeit zu erreichen wird also vorgeschlagen, nur die Videoinformationen innerhalb des Detailbereichs der Videodatenströme einem rauschreduzierenden Verfahren zu unterwerfen, die für die Bestimmung der rauschreduzierten und in dem darstellbaren Detailbereich darzustellenden Videoinformationen benötigt werden. Das erfindungsgemäße Verfahren nutzt folglich den Umstand aus, dass eine Erhöhung des Detailreichtums einerseits und eine Unterdrückung des Rauschens andererseits nur in einem Detailbereich notwendig sind, der zumindest einen Teil des Zielobjekts umfasst. Es werden folglich lediglich in diesem Detailbereich Berechnungen zur Reduzierung des Rauschens durchgeführt.
  • Um eine besonders gute Verbesserung der in dem Detailbereich darzustellenden Videoinformationen zu erreichen, werden zumindest nahezu zeitgleich erfasste Videoinformationen von zwei Videodatenströmen verwendet. Da ein in einer Videoinformation auftretender Fehler mit deutlich geringerer Wahrscheinlichkeit auch in der entsprechenden Videoinformation eines zweiten Videodatenstroms auftritt, kann damit eine signifikante Verbesserung der Bildqualität erreicht werden.
  • Vorteilhafterweise umfasst der vorgebbare Bildausschnitt, der die auf dem Bildschirm darzustellenden Videoinformationen enthält, den Detailbereich. Innerhalb dieses Detailbereichs werden statt der ursprünglichen Videoinformationen des ersten Videodatenstroms die rauschreduzierten Videoinformationen dargestellt. Die rauschreduzierten Videoinformationen werden gemäß dieser Ausführungsform nicht in einem eigenen Bildschirmbereich dargestellt, sondern überlagern die dargestellten Videoinformationen des ersten Videodatenstroms. Dadurch wird eine besonders übersichtliche Darstellung erreicht. Das Zielobjekt betreffende Informationen innerhalb des Detailbereichs werden in einer besonders hohen Bildqualität dargestellt. Bildinformationen außerhalb des Detailbereichs, die überwiegend einer Orientierung dienen, werden lediglich mit "normaler" Qualität dargestellt.
  • Vorzugsweise wird die Bestimmung des Detailbereiches in Abhängigkeit von der Bildrate mindestens eines Videodatenstroms, der darzustellenden Bildgröße, der Auflösung des Bildschirms, der Auflösung des digitalen Sensors, einer aktuellen Vergrößerung, einer Angabe bezüglich der Leistungsfähigkeit eines digitalen Bildprozessors oder einer Anzahl der zur Verfügung stehenden Videodatenströme durchgeführt. Diese Parameter beeinflussen grundsätzlich die zu verarbeitende Datenmenge, die hierfür benötigte Bearbeitungszeit und/oder die tatsächlich zur Verfügung stehende Bearbeitungszeit, die eingehalten werden muss, um eine Bestimmung der rauschreduzierten Videoinformationen in Echtzeit zu ermöglichen.
  • Gemäß einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens erfolgt eine digital vergrößerte Darstellung der Videoinformationen, wobei der Berechnung der Vergrößerung nur die Videoinformationen zugrundegelegt werden, die die tatsächlich vergrößerten und dargestellten Videoinformationen beeinflussen. Es wird folglich vor einer Berechnung der vergrößerten Bildinformationen bestimmt, welche Informationen in einer vergrößerten Darstellung überhaupt dargestellt werden können. Wird beispielsweise das Einzelbild um den Faktor zwei vergrößert, so nimmt das vergrößerte Einzelbild eine vierfach vergrößerte Fläche ein, so dass nur ein Viertel der vergrößerten Videoinformationen dargestellt werden kann. Die Berechnung der digitalen Vergrößerung ist deshalb vorzugsweise so ausgelegt, dass hierfür nur die Videoinformationen herangezogen werden, deren vergrößertes Abbild tatsächlich dargestellt wird. Damit kann weiterhin eine Beschleunigung des Gesamtverfahrens erreicht werden.
  • Ein Rauschen in den Ausgangsdaten fällt besonders dann negativ auf, wenn eine digitale Vergrößerung dieser Bildinformationen erfolgt, da dann beispielsweise die Fehlinformationen eines verrauschten Pixels in einer vergrößerten Darstellung eine Mehrzahl von Pixeln fehlerhaft beeinflussen. Vorteilhafterweise wird deshalb eine Bestimmung der rauschreduzierten Videoinformationen nur dann durchgeführt, wenn eine digital vergrößerte Darstellung erfolgt und der Vergrößerungsfaktor einen vorgebbaren Wert überschreitet.
  • Vorzugweise wird in einer vergrößerten Darstellung eine Neubestimmung des Detailbereichs durchgeführt. Üblicherweise wird auch in einer vergrößerten Darstellung eine besonders hohe Bildqualität lediglich in einem bestimmten Bereich des Zielobjekts bzw. in einem bestimmten Bereich um das Zielobjekt gewünscht, wobei der Detailbereich in der vergrößerten Darstellung einen kleineren Ausschnitt der Realität beschreibt. Durch eine Neubestimmung des Detailbereichs wird somit erreicht, dass die Rauschreduzierung nur bezüglich der innerhalb des Detailbereichs vergrößert dargestellten Videoinformationen durchgeführt werden muss. Dies erhöht nochmals die Echtzeitfähigkeit.
  • Zur Erzeugung einer vergrößerten Darstellung kann zunächst eine Rauschreduzierung der unvergrößerten Videoinformationen und eine anschließende digitale Vergrößerung durchgeführt werden. Die Vergrößerung erfolgt hierbei auf Grundlage der rauschreduzierten Videoinformationen. Dies ermöglicht eine besonders rasche Durchführung der vergrößerten und detailreichen Darstellung.
  • Häufig wird eine nochmals verbesserte Bildqualität erreicht, wenn zunächst eine digitale Vergrößerung der Videoinformationen des ersten und des zweiten Videodatenstroms durchgeführt wird,und anschließend eine Rauschreduzierung der vergrößerten Videoinformationen.
  • Insbesondere wenn nochmals weitere Videodatenströme zur Verfügung stehen, kann eine besonders hohe Bildqualität dadurch erreicht werden, dass zunächst eine Rauschreduzierung der unvergrößerten Videoinformationen durchgeführt wird und anschließend eine digitale Vergrößerung, der sich eine nochmalige Rauschreduzierung anschließt.
  • Die Auswahl des jeweils zu verwendenden Verfahrens hängt davon ab, welche Bildqualität erreicht werden soll, wie groß der Detailbereich ist und welche Rechenkapazität zur Verfügung steht, um die Berechnungen in Echtzeit darzustellen. Insbesondere können hierbei selbstverständlich einzelne Grundoperationen, aus denen sich die Rauschreduzierung und die Vergrößerung zusammensetzt, in geeigneter Weise kombiniert werden, um eine bezüglich der Ausführungszeit optimierte Verarbeitung zu erhalten.
  • Eine besonders rasche Bestimmung der rauschreduzierten Videoinformationen wird dadurch erreicht, dass ein Mittelwert aus einem Pixel eines Einzelbildes der Videoinformationen des Detailbereiches und einem entsprechenden Pixel der zweiten Videoinformationen, die dem zweiten Videodatenstrom entstammen und zumindest nahezu zeitgleich mit den ersten Videoinformationen erfasst wurden, gebildet wird. Ein Pixel kann hierbei insbesondere bei Farbvideoinformationen mittels eines Vektors dargestellt werden, wobei unterschiedlichen Farben zugeordnete Videoinformationen mittels einer bestimmten Anzahl Bits dargestellt werden.
  • Zur Ermittlung einander entsprechender Pixel zweier Einzelbilder bzw. zweier Datenströme können als "registration" bezeichnete und aus der Bildbearbeitung bekannte Verfahren eingesetzt werden.
  • Zur Bestimmung der rauschreduzierten Videoinformationen kann besonders vorteilhaft ferner ein digitaler Filter eingesetzt werden, dem zunächst die einzelnen Videodatenströme zugeführt werden und/oder dem möglicherweise ein aus einzelnen Informationen der beiden Datenströme bestehender einzelner Datenstrom, beispielsweise nach einer Mittelwertbildung, zugeführt wird. Damit kann eine besonders hohe Qualitätssteigerung erreicht werden.
  • Eine weitere Steigerung der Bearbeitungsgeschwindigkeit zur Bestimmung der rauschreduzierten Videoinformationen kann dadurch erreicht werden, dass eine Bildarithmetik eingesetzt wird, die beispielsweise eine pixelweise Addition, Subtraktion, Multiplikation, Division, ein Blending, eine logische Operation und/oder eine Bit-shift-Operation umfasst.
  • Gemäß einer vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens wird ein Bildausschnitts des ersten Videodatenstroms in einem ersten Bereich des Bildschirms unter Berücksichtigung eines ersten Vergrößerungsfaktors und ein zweiter Bildausschnitt des zweiten Videodatenstroms in einem zweiten Bereich des Bildschirms dargestellt. Hierbei kann der zweite Videodatenstrom unter Berücksichtigung eines zweiten (von null verschiedenen) Vergrößerungsfaktors dargestellt werden. Dies erlaubt beispielsweise die Darstellung einer Übersicht und daneben die Darstellung von besonders vergrößerten Detailinformationen.
  • Jeder Videodatenstrom kann von einem separaten digitalen Sensor erfasst werden. Gemäß einer vorteilhaften Weiterbildung werden jedoch der erste Videodatenstrom und der zweite Videodatenstrom mittels desselben digitalen Bildsensors erfasst. Dies ermöglicht eine besonders kompakte Bauweise der Zielerfassungseinrichtung. Hierzu können beispielsweise aufeinanderfolgend erfasste Bilder abwechselnd dem ersten Videodatenstrom und dem zweiten Videodatenstrom zugeordnet werden. Um hierbei eine ausreichend hohe Qualität zu erreichen, ist möglicherweise eine besonders hohe Bilderfassungsrate notwendig.
  • Eine andere vorteilhafte Realisierung sieht vor, von jedem mittels des digitalen Sensors erfassten Einzelbildes bestimmte Bild- bzw. Videoinformationen zunächst dem ersten Videodatenstrom und die übrigen Bild- bzw. Videoinformationen dem zweiten Videodatenstrom zuzuordnen, wobei von einem folgenden Einzelbild dann ein Wechsel derart stattfindet, dass die bestimmten Videoinformationen dem zweiten Videodatenstrom zugeordnet werden und die übrigen Informationen dem ersten Videodatenstrom. Jedes Einzelbild eines Videodatenstroms setzt sich damit aus Halbbildern von zwei aufeinanderfolgenden Einzelbildern zusammen.
  • Gemäß einer anderen vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens wird ein weiterer Videodatenstrom erfasst und zumindest einen Bildausschnitt realisierende Videoinformationen des weiteren Videodatenstroms auf dem Bildschirm dargestellt. Der weitere Videodatenstrom wird beispielsweise mittels eines weiteren digitalen Sensors, der beispielsweise Teil einer digitalen Kamera ist, erfasst, wobei dieser vorzugsweise die Erfassung einer Sicht in eine andere Richtung, beispielsweise eine Sicht nach hinten, oder eine Übersicht, beispielsweise durch einen auf einer Erhöhung (Fahrzeug, Turm) angebrachten digitalen Sensor ermöglicht. Es kann beispielsweise auch vorgesehen sein, den weiteren VideoSensor relativ nahe an dem Zielobjekt zu platzieren. Die Übertragung des weiteren Videodatenstroms zu der Zielerfassungseinrichtung kann beispielsweise über eine Funkverbindung erfolgen.
  • Gemäß einer anderen besonders vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens wird mindestens ein weiterer Videodatenstrom erfasst, wobei der weitere Videodatenstrom ebenfalls dem angewählten Zielobjekt entsprechende Videoinformationen umfasst. Damit kann beispielsweise stets ein Übersichtsbild dargestellt werden oder die Ausfallsicherheit durch redundante Informationen erhöht werden. Dem weiteren Sensor kann ferner beispielsweise ein besonderes Objektiv zugeordnet sein. Ist dieses Objektiv als besonders hochwertiges Teleobjektiv ausgestattet, so kann damit beispielsweise ein Plausibilitätsvergleich zwischen einer optischen Vergrößerung und einer digitalen Vergrößerung durchgeführt werden. Insbesondere kann das besondere Objektiv auch als ein Weitwinkelobjektiv ausgestattet sein, so dass eine besonders übersichtliche Darstellung der Realität möglich ist. Der weitere digitale Sensor kann ferner auch zur Erfassung von Videosignalen bei ganz bestimmten Lichtverhältnissen optimiert und beispielsweise als Infrarotsensor ausgebildet sein.
  • Besonders vorteilhaft ist es hierbei jedoch, wenn der weitere Videodatenstrom ebenfalls zur Erhöhung der Bildqualität herangezogen wird. Dies kann vorteilhafterweise dadurch erreicht werden, dass zur Bestimmung der rauschreduzierten Videoinformationen in einem ersten Schritt eine Kombination von zumindest jeweils zwei der erfassten Videodatenströme zu einem kombinierten Datenstrom durchgeführt wird und in mindestens einem weiteren Schritt der kombinierte Datenstrom mit einem weiteren Videodatenstrom oder einem weiteren kombinierten Datenstrom zu einem nochmals rauschreduzierteren Datenstrom kombiniert wird. Dabei können die kombinierten Datenströme auch bereits mittels eines Rauschreduzierungsverfahrens qualitativ verbessert werden. Es kann somit eine beispielsweise als Baumstruktur darstellbare Hierarchie von erfassten und kombinierten Videodatenströme realisiert werden, um eine Erhöhung der sicher darstellbaren Details zu erreichen. Besonders vorteilhaft ist es hierbei, wenn mindestens zwei erfasste Videodatenströme parallel verarbeitet werden.
  • In einer besonders bevorzugten Weiterbildung wird die Zielerfassungseinrichtung zur Erhöhung der Treffsicherheit für das Abschießen eines Geschosses eingesetzt. Hierbei wird eine Entfernung zu dem Zielobjekt mittels einer Entfernungsmessungseinrichtung erfasst. Eine Entfernungsmessungseinrichtung ist beispielsweise Laserbasiert und ermöglicht eine Laufzeitmessung des ausgesandten und reflektierten Lichts.
  • Ferner wird mindestens ein die Ballistik des Geschosses beeinflussender Parameter ermittelt. Derartige Parameter beschreiben beispielsweise eine Windstärke, eine Windrichtung, eine Außentemperatur, einen Luftdruck, eine Luftfeuchtigkeit, eine Richtung zu dem Zielobjekt und/oder eine Eigenschaft des Geschosses, beispielsweise Größe, Gewicht, Material, Temperatur.
  • In einem weiteren Schritt wird ein Auftreffpunkt des Geschosses in Abhängigkeit von dem mindestens einen die Ballistik beeinflussenden Parameters und der erfassten Entfernung ermittelt. Auf dem Bildschirm wird dann eine Markierung derart dargestellt, dass dadurch der ermittelte Auftreffpunkt bezüglich der dargestellten Videoinformationen erkennbar ist.
  • Diese Ausführungsform ermöglicht folglich die Darstellung eines ermittelten Auftreffpunkts eines Geschosses bezüglich der dargestellten Videoinformationen, wobei die dargestellte Videoinformation zumindest in einem bestimmbaren Detailbereich eine besonders hohe Qualität aufweist. Mittels dieser Ausführungsform ist es somit möglich, mit besonders hohem Detailreichtum ein relativ weit entferntes Zielobjekt anzuwählen und den tatsächlichen Auftreffpunkt mit hoher Präzision zu bestimmen.
  • Gemäß einer bevorzugten Ausführungsform wird die Markierung zumindest annähernd in dem Zentrum des Detailbereichs und/oder des dargestellten Bildbereichs dargestellt. Dies wird beispielsweise durch eine Überlagerung von Bildinformationen erreicht. Die Markierung kann beispielsweise als ein Fadenkreuz ausgebildet sein. Diese Ausführungsform ermöglicht insbesondere auch, dass der Detailbereich im Umkehrschluss in Abhängigkeit von einer darzustellenden Markierung und damit von einem Auftreffpunkt automatisch ermittelbar ist.
  • Vorzugsweise wird eine in Abhängigkeit von einer Bewegung des digitalen Sensors, die als Verschiebung der in dem Bildbereich dargestellten Videoinformationen sichtbar ist, automatisch in Echtzeit die Markierung bezüglich der aktuell dargestellten Videoinformationen ausgerichtet. Dies ermöglicht beispielsweise eine Nachjustierung bzw. eine Korrektur der Ausrichtung der Zielerfassungseinrichtung dahingehend, dass der gewünschte Auftreffpunkt mit dem ermittelten Auftreffpunkt übereinstimmt. Eine Bewegung der Zielerfassungseinrichtung bewirkt somit automatisch eine Verschiebung der Markierung in Echtzeit. Damit ist sichergestellt, dass, falls die Zielerfassungseinrichtung einer Geschossabschussvorrichtung derart zugeordnet ist, dass die Richtung der Zielerfassungseinrichtung mit der Abschussrichtung übereinstimmt, eine Justierung der Abschussvorrichtung gleichbedeutend mit einer Nachjustierung der Zielerfassungseinrichtung ist und stets der ballistisch korrekt berechnete Auftreffpunkt eines möglicherweise abzuschießenden Geschosses mittels der als Absehen bezeichneten Markierung angezeigt wird. Dies ermöglicht ein besonders präzises Abschießen eines Geschosses. Ferner wird damit gewährleistet, dass stets auf dem Bildschirm ein detailreiches und rauscharmes Bild zumindest in einer interessierenden Umgebung des Zielobjekts darstellt wird.
  • Vorzugsweise wird die Entfernungsmessungseinrichtung automatisch derart justiert, dass stets die Entfernung zu dem durch die Markierung angezeigten aktuellen Auftreffpunkt ermittelbar ist. Dies ist besonders vorteilhaft, wenn die Entfernungsmessungseinrichtung derart mit der Zielerfassungseinrichtung verbunden ist, dass eine Bewegung der Zielerfassungseinrichtung stets eine Bewegung der Entfernungsmessungseinrichtung bewirkt. Dies ist beispielsweise der Fall, wenn die Zielerfassungseinrichtung an einem Schusswaffe befestigt ist und die Entfernungsmessungseinrichtung in Form eines laserbasierenden Laufzeitmessungssystems ebenfalls an der Schusswaffe angebracht ist. Ein Nachjustieren des der Schusswaffe bewirkt dann eine Bewegung der Zielerfassungseinrichtung und der Entfernungsmessungseinrichtung. Aufgrund der Ballistik weist die Entfernungsmessungseinrichtung dann jedoch zunächst nicht mehr in die Richtung des ausgewählten Zielobjekts, da das Laserlicht nicht den Veränderungen bezüglich der ballistischen Parameter unterworfen ist.
  • Erfindungsgemäß wird nun jedoch automatisch die Entfernungsmessungseinrichtung derart justiert, dass dennoch die Entfernung zu dem durch die Markierung angezeigten aktuellen Auftreffpunkt ermittelbar ist. Hierzu werden grundsätzlich beispielsweise dieselben Informationen verwendet, die auch für die Ansteuerung bzw. die Darstellung der Markierung auf dem Bildschirm verwendet werden. Wird folglich die Zielerfassungseinrichtung schließlich derart ausgerichtet, dass der ermittelte Auftreffpunkt des Geschosses mit dem angewählten Zielobjekt, also dem gewünschten Auftreffpunkt übereinstimmt, so kann beispielsweise nochmals eine Entfernungsmessung durchgeführt und die Berechnung der Ballistik und damit des tatsächlichen Auftreffpunkts nochmals verfeinert werden.
  • Vorteilhafterweise werden die erfassten oder auf dem Bildschirm dargestellten Videoinformationen mindestens eines Videodatenstroms zumindest teilweise abgespeichert. Dies ermöglicht beispielsweise eine Nachprüfbarkeit und möglicherweise spätere Auswertung der ermittelten Abweichungen zwischen dem ermittelten Auftreffpunkt und dem zunächst angewählten Zielobjekt.
  • Vorzugsweise wird eine Übermittlung von während der Durchführung des Verfahrens ermittelten Informationen an eine Empfängerstation durchgeführt, hierbei werden beispielsweise die ermittelte Entfernung, der ermittelte Auftreffpunkt, die aktuell dargestellte Markierung in Bezug zur aktuell dargestellten Videoinformation, die aktuell dargestellte Videoinformation, mindestens ein aktuell erfasster Videodatenstrom, mindestens ein abgespeicherter Videodatenstrom und/oder mindestens ein die Ballistik beeinflussender Parameter übermittelt. Dies ermöglicht es beispielsweise einer Leitstation, anhand derartiger Informationen weitere Entscheidungen zu treffen bzw. einen Schützen zu überwachen.
  • Vorzugweise wird die Größe mindestens eines auf dem Bildschirm dargestellten Objekts automatisch ermittelt. Hierbei kann vorgesehen sein, dass die Größe automatisch angezeigt wird. Das Objekt kann beispielsweise durch Auswahl bestimmt werden. Ebenso ist es vorstellbar, dass automatisch die Größe des Zielobjekts ermittelt wird. Dies kann beispielsweise dadurch erreicht werden, dass automatisch die Konturen des Zielobjekts ermittelt werden. Auch hierzu sind mehrere digitale Sensoren bzw. Kameras vorteilhaft, da damit besonders sicher ein Objekt automatisch erkannt werden kann.
  • Gemäß einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens wird eine aktuelle Position der Zielerfassungseinrichtung ermittelt und automatisch in Abhängigkeit von der aktuellen Position eine Position des angewählten Zielobjekts ermittelt. Die Position des angewählten Zielobjekts kann beispielsweise dadurch ermittelt werden, dass die aktuelle Position bezüglich sogenannter GPS-Daten ermittelt wird. Unter Verwendung der ermittelten Entfernung und einer Himmelsrichtung, die die Richtung von der aktuellen Position zu dem Zielobjekt beschreibt und beispielsweise mittels eines elektronischen Kompasses, der an der Zielerfassungseinrichtung befestigt ist, erfasst wird, kann die Position des Zielobjekts besonders gut bestimmt werden.
  • Die Aufgabe wird auch durch eine Zielerfassungseinrichtung der eingangs genannten Art mit den Merkmalen der Ansprüche 30 bis 39 gelöst.
  • Die Aufgabe wird ferner durch ein Computerprogramm der eingangs genannten Art dadurch gelöst, dass das Computerprogramm zur Ausführung des erfindungsgemäßen Verfahrens programmiert ist, wenn das Computerprogramm auf dem Rechengerät abläuft. Damit stellt das Computerprogramm ebenso die Erfindung dar, wie das Verfahren, zu dessen Ausführung das Computerprogramm programmiert ist. Vorzugsweise ist das Computerprogramm auf einem Speicherelement abgespeichert, das der Zielerfassungseinrichtung zugeordnet ist.
  • Kurzbeschreibungen der Zeichnungen:
  • Weitere Merkmale, Anwendungsmöglichkeiten und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen der Erfindung, die in den Zeichnungen dargestellt sind.
  • Es zeigt
  • Figur 1
    eine schematische Darstellung einer erfindungsgemäßen Zielerfassungseinrichtung gemäß einer ersten Ausführungsform;
    Figur 2
    eine schematische Darstellung einer Zielerfassungseinrichtung gemäß einer zweiten Ausführungsform;
    Figuren 3a-3c
    schematische Darstellungen möglicher Bildschirmdarstellungen bezüglich mehrerer Ausführungsformen; und
    Figur 4
    ein schematisches Ablaufdiagramm gemäß eines weiteren Ausführungsbeispiels des erfindungsgemäßen Verfahrens.
  • In Figur 1 ist eine Zielerfassungseinrichtung 1a dargestellt, die einen ersten digitalen Sensor 2 und einen zweiten digitalen Sensor 3 aufweist. Die digitalen Sensoren 2, 3 sind als digitale Videosensoren ausgeführt und können beispielsweise mittels einer digitalen Videokamera realisiert sein. Die Zielerfassungseinrichtung 1a umfasst ferner einen Mikroprozessor 4, der mit einem Speicherelement 5 über eine Signalleitung verbunden ist. Der Mikroprozessor 4 ist ferner über eine Signalleitung mit einem digitalen Bildprozessor 8 verbunden. Der digitale Bildprozessor 8 ist über Signalleitungen mit den digitalen Sensoren 2, 3 und über eine Signalleitung mit einem Bildschirm 11 verbunden.
  • In Figur 1 ist ferner ein Zielobjekt 12 dargestellt. Die Zielerfassungseinrichtung ist in der in Figur 1 dargestellten Situation derart ausgerichtet, dass das Zielobjekt 12 von den digitalen Videosensoren 2, 3 erfassbar ist. Das Zielobjekt 12 ist beispielsweise mehrere 100 oder 1000 m von der Zielerfassungseinrichtung entfernt.
  • In Figur 2 ist eine weitere Ausführungsform einer Zielerfassungseinrichtung 1b dargestellt, die zur Durchführung des erfindungsgemäßen Verfahrens geeignet ist. Der Zielerfassungseinrichtung 1b sind weitere digitale Bild- bzw. Videosensoren 13 und eine Entfernungsmessungseinrichtung 14 zugeordnet. Die Entfernungsmessungseinrichtung 14 umfasst eine Laserdiode 15 und einen Steuermotor 16, der beispielsweise als ein Nanomotor oder ein Piezomotor ausgeführt ist. Die Zielerfassungseinrichtung 1b umfasst ferner Sensoren 17, mittels derer die Ermittlung von ballistikrelevanten Parametern möglich ist.
  • Die Zielerfassungseinrichtung 1b umfasst ferner eine Datenübertragungseinrichtung 18, die beispielsweise die Übermittlung und den Empfang von Funkdaten ermöglicht. Mittels der Datenübertragungseinrichtung 18 können Daten von einer weiteren Kamera 19 erfasst werden. Ferner können Informationen an ein Waffensystem 20 und/oder an einen Leitstand 21 übermittelt werden. Die Datenübertragungseinrichtung kann selbstverständlich auch eine Kabelgebunden Datenübertragung vorsehen und/oder eine Verbindung mit einem Kommunikationsnetzwerk ermöglichen.
  • Zumindest einzelne Komponenten der Zielerfassungseinrichtung 1b sind an der Schusswaffe 22 derart befestigt, dass eine Bewegung der Schusswaffe 22 und insbesondere des Laufs der Schusswaffe 22 eine entsprechende Bewegung der digitalen Sensoren 2, 3, 13 sowie der Entfernungsmessungseinrichtung 14 bewirkt und diese somit stets in dieselbe Richtung zeigen.
  • Grundsätzlich sind eine Vielzahl verschiedener Ausführungsformen der Zielerfassungseinrichtung 1a, 1b möglich. Beispielsweise können lediglich die digitalen Bildsensoren 2, 3, 13 und die Entfernungsmessungseinrichtung 14 an der Schusswaffe 22 befestigt sein. Über entsprechende Datenleitungen kann dann eine Datenübermittlung zu dem digitalen Bildprozessor 8 bzw. dem Mikroprozessor 4 erfolgen. Der Mikroprozessor 4 und der digitale Bildprozessor 8 können beispielsweise Teil eines Computersystems sein, das beispielsweise als Notebook oder sonstiges Computersystem ausgebildet ist. Der Bildschirm 11 kann hierbei Teil des Computersystems sein.
  • Ebenso ist es vorstellbar, dass der Bildschirm 11 oder ein weiterer Bildschirm an der Schusswaffe 22 derart befestigt ist, dass ein Schütze stets alle relevanten Informationen in einer Darstellung vorfindet, die beispielsweise einem Blick durch ein Zielfernrohr ähnelt. Insbesondere kann der Schusswaffe 22 ferner ein optisches Zielfernrohr zugeordnet sein. Die Schusswaffe 22 kann in allen bekannten Ausführungsformen realisiert werden. Insbesondere kann statt der Schusswaffe auch beispielsweise eine Raketenabschussvorrichtung oder eine sonstige Abschuss bzw. Abfeuervorrichtung unterschiedlichster Arten von Munition eingesetzt werden. In Abhängigkeit von dem eingesetzten Waffensystem kann selbstverständlich auch die Ausführung der erfindungsgemäßen Zielerfassungseinrichtung gewählt werden. Hierbei können Kriterien wie eine zu erreichende Mobilität oder ein bestimmtes Einsatzgebiet berücksichtigt werden.
  • Die Zielerfassungseinrichtung 1a, 1b kann selbstverständlich auch ohne digitalen Bildprozessor 8 ausgeführt sein. Ferner kann die Zielerfassungseinrichtung 1a, 1b eine Vielzahl unterschiedlicher Speicherelemente 5, Mikroprozessoren 4, digitaler Bildprozessoren 8, Bildschirme 11, Datenübertragungsvorrichtungen 18, Sensoren 17 und digitaler Bildsensoren 2, 3, 13 umfassen. Die konkrete Anordnung kann ebenfalls insofern variieren, als die Zielerfassungseinrichtung 1a, 1b nicht notwendig als ein Gesamtmodul realisiert sein muss. Vielmehr können einzelne Komponenten beispielsweise an der Schusswaffe 22 angeordnet sein, während andere stationär oder separat ausgeführt sind. Beispielsweise kann die Berechung von einem Notebook durchgeführt werden, während lediglich zwei digitale Sensoren 2, 3 und eine Entfernungsmessungseinrichtung 14 fest mit der Schusswaffe 22 verbunden sin.
  • Ein mögliches Zusammenwirken einzelner Komponenten eines Zielerfassungssystems 1a, 1b wird im Folgenden anhand der schematischen Ablaufdiagramme, die in den Figuren 4 und 5 dargestellt sind, beschrieben. Mögliche Darstellungen der Videoinformationen auf dem Bildschirm 11 sind hierzu in den Figuren 3a, 3b und 3c dargestellt.
  • In Figur 4 ist ein möglicher Ablauf des erfindungsgemäßen Verfahrens dargestellt, wobei hier insbesondere mögliche Aktionen eines Benutzers bzw. eines Schützen berücksichtigt sind.
  • Das Verfahren beginnt in einem Schritt 100, in dem die Zielerfassungseinrichtung 1a, 1b beispielsweise aktiviert wird und Videodatenströme der digitalen Kameras und insbesondere der digitalen Sensoren 2, 3, 13 erfasst werden. Insbesondere, wenn mehr als zwei digitale Bild-oder Videosensoren 2, 3, 13 vorliegen, kann in einem Schritt 101 geprüft werden, ob zwei oder mehrere der Videodatenströme kombiniert werden sollen. Ist dies der Fall, so wird in einem Schritt 102 eine Kombination der Videodatenströme derart durchgeführt, dass damit eine Rauschreduzierung erreicht wird. Hierbei kann beispielsweise ein digitaler Filter verwendet werden. Insbesondere kann in einem vorgebbaren Detailbereich pixelweise ein Mittelwert gebildet werden. Es ist jedoch auch vorstellbar, dass vier Videodatenströme erfasst werden und zunächst ohne Bestimmung eines Detailbereichs beispielsweise die Videodatenströme von jeweils zwei Kameras zu kombinieren, so dass mindestens zwei kombinierte Videodatenströme entstehen.
  • In einem Schritt 103 werden die kombinierten bzw. die in dem Schritt 100 direkt erfassten Videodatenströme in Echtzeit derart dargestellt, dass zumindest die einem vorgegebenen Bildbereich entsprechenden Videoinformationen dargestellt werden. Ebenso ist es vorstellbar, nur die Videoinformationen eines einzigen Videodatenstroms auf dem Bildschirm 11 darzustellen.
  • Eine derartige Situation ist beispielsweise in Figur 3a dargestellt, wobei die Bildschirmdarstellung einen Bildausschnitt 30 aufweist, in dem der Videodatenstrom bzw. die dem Bildausschnitt 30 entsprechenden Videoinformationen dargestellt werden. Die in Figur 3a dargestellte Bildschirmdarstellung umfasst ferner eine Funktionsleiste 31, die anwählbare Funktionen aufweist. Beispielsweise kann durch Aktivierung eines vorgegebenen Felds eine bestimmte Vergrößerung erreicht werden. Ferner kann die Funktionsleiste 31 Text-Ausgabe oder -Eingabefelder vorsehen, die die Ausgabe bestimmter Daten bzw. die Eingabe bestimmter Daten, beispielsweise ballistischer Parameter, ermöglicht.
  • In einem Schritt 104 erfolgt eine Ausrichtung der Zielerfassungseinrichtung 1a, 1b auf das Zielobjekt 12, welches dann auf dem Bildschirm 11 angezeigt wird.
  • In einem Schritt 105 wird eine Entfernungsmessung mittels der Entfernungsmessungseinrichtung 14 durchgeführt. Die Entfernungsmessung kann beispielsweise durch den Benutzer bzw. Schützen aktiviert werden. Es ist ebenso vorstellbar, dass automatisch ständig eine Entfernungsmessung bezüglich eines beispielsweise in der Mitte des Bildschirms angeordneten Zielobjekts durchgeführt wird.
  • In einem Schritt 106 werden Ballistikparameter erfasst bzw. aus einem Speicherbereich ausgelesen. Die Ballistikparameter können beispielsweise eine aktuelle Windgeschwindigkeit, eine aktuelle Windrichtung, eine Temperatur oder Eigenschaften der Schusswaffe 22 beschreiben. Derartige Ballistikparameter können mittels geeigneter Sensoren 17 erfasst werden. Ballistikparameter können ebenso aus dem Speicherelement 5 ausgelesen werden. Hier können beispielsweise die eine Munition betreffenden Ballistikparameter oder die eine Abschussvorrichtung beschreibenden Ballistikparameter abgelegt sein.
  • In einem Schritt 107 wird der Auftreffpunkt des Geschosses in Abhängigkeit von den erfassten Ballistikparametern und der in dem Schritt 105 erfassten Entfernung berechnet. In dem Schritt 107 wird ferner eine Markierung innerhalb der auf dem Bildschirm 11 dargestellten Videoinformationen bestimmt und die Anzeige der Markierung veranlasst. Diese als Absehen bezeichnete Markierung zeigt damit bezüglich der dargestellten Videoinformationen den tatsächlichen Auftreffpunkt des Geschosses an. Insbesondere ist es hierbei möglich, dass die Markierung fix bezüglich des Bildschirms 11 ist, so dass die darzustellende Videoinformation entsprechend verschoben wird. Beispielsweise kann die Markierung als sich stets in der Mitte des Bildausschnitts befindliches Fadenkreuz dargestellt werden. Die darzustellenden Videoinformationen werden dann dahingehend verschoben, dass der tatsächliche Auftreffpunkt stets im Zentrum des Bildschirms 11 angeordnet ist.
  • In einem Schritt 108 wird die Zieleinrichtung 1a bzw. die Schusswaffe 22 und damit die Zielreinrichtung 1b derart ausgerichtet, dass die Markierung bzw. das Absehen mit dem dargestellten Zielobjekt 12 übereinstimmt. Dies bedeutet, dass nun der tatsächliche Auftreffpunkt des Geschosses mit dem gewünschten Zielobjekt 12 übereinstimmt, wenn das Geschoss bei einer aktuell ausgerichteten Schusswaffe 22 abgefeuert werden würde. Hierzu wird in Echtzeit beispielsweise die Markierung nachgeführt, so dass stets der tatsächliche Auftreffpunkt des Geschosses in Abhängigkeit von der aktuellen Ausrichtung der Zielerfassungseinrichtung 1a, 1b dargestellt wird. Oder es werden stets die darzustellenden Videoinformationen in Echtzeit derart bestimmt, dass stets bezüglich der aktuellen Ausrichtung der Zielerfassungseinrichtung 1a, 1b der aktuell tatsächliche Auftreffpunkt des Geschosses sich im Fadenkreuz und damit beispielsweise im Zentrum des Bildschirms 11 befindet.
  • In einem Schritt 110 wird geprüft, ob eine Vergrößerungsanforderung vorliegt. Eine Vergrößerungsanforderung kann beispielsweise durch Aktivieren eines entsprechenden Elements in der Funktionsleiste 31 erreicht werden. Selbstverständlich ist ebenso vorstellbar, eine Vergrößerungsanforderung durch Betätigen eines Schalters oder durch ein Sprachkommando oder sonstige Mittel abzugeben.
  • Ist dies nicht der Fall, so wird beispielsweise zu dem Schritt 108 zurückverzweigt, in dem eine weitere Ausrichtung der Zielerfassungseinrichtung 1a, 1b erfolgt. Selbstverständlich ist es ebenso vorstellbar, dass zu dem Schritt 105 zurückverzweigt wird, beispielsweise dann, wenn eine neue Entfernungsmessung durchgeführt werden soll.
  • Wird eine Vergrößerungsanforderung erwünscht, so wird in einem Schritt 111 ermittelt, ob eine Vergrößerung angefordert ist, die einen vorgebbaren Grenzwert überschreitet. Ist dies nicht der Fall, so wird in einem Schritt 112 eine Berechnung der Vergrößerung durchgeführt und in einem Schritt 115 die Darstellung der vergrößerten Videoinformation veranlasst. Hierbei wird vorzugsweise eine Vergrößerung nur bezüglich der Videoinformationen durchgeführt, die dann tatsächlich auf dem Bildschirm 11 dargestellt werden.
  • Übersteigt der Vergrößerungsfaktor jedoch den vorgebbaren Grenzwert, so wird in einem Schritt 113 ein Detailausschnitt bestimmt. Ein derartiger Detailausschnitt ist beispielsweise in Figur 3b dargestellt. Der Detailausschnitt kann hierbei fest vorgegeben sein. Der Detailausschnitt 32 kann jedoch auch dynamisch ermittelt werden. Hierbei können beispielsweise eine zur Verfügung stehende Rechenkapazität sowie eine aktuell zu berücksichtigende Anzahl von Videodateninformationen berücksichtigt werden. Der Detailausschnitt 32 wird jeweils so berechnet, dass eine Darstellung der detailverbesserten und rauschreduzierten Informationen innerhalb der Detailansicht 32 stets in Echtzeit möglich ist.
  • In einem Schritt 114 wird dann die Berechnung der rauschunterdrückten Videoinformationen durchgeführt.
  • Hierbei sind unterschiedlichste Vorgehensweisen denkbar. Die Vorgehensweise kann insbesondere in Abhängigkeit von der Anzahl der zur Verfügung stehenden Videodatenströme bestimmt werden. Beispielsweise können zunächst kombinierte Videodatenströme ermittelt werden. Hierbei kann beispielsweise von in dem Schritt 102 erzeugten kombinierten Videodatenströmen eine bezüglich des Detailausschnitts vorhandene kombinierte Videoinformation herangezogen werden.
  • Ferner ist es möglich, zunächst eine Filterung einzelner Videodatenströme vorzusehen und anschließend eine Kombination beispielsweise durch Bildung eines pixelweisen Mittelwerts. Anschließend kann erneut ein digitaler Filter zur nochmaligen Verbesserung der Qualität herangezogen werden.
  • Selbstverständlich sind eine Vielzahl weiterer bekannter digitaler Filter bzw. Rauschreduzierungsverfahren anwendbar. Grundsätzlich kann eine deutliche Qualitätssteigerung dann erreicht werden, wenn mehr als ein Videodatenstrom zur Verfügung steht und die zur Verfügung stehenden Videodatenströme sich pixelweise entsprechen. Um dies zu erreichen, kann beispielsweise ein sogenanntes "registration" durchgeführt werden. Dies stellt sicher, dass die relevanten Videoinformationen unterschiedlicher Videodatenströme pixelweise übereinstimmen.
  • Ein besonders hohe Ausführungsgeschwindigkeit des Verfahrens kann dadurch erreicht werden, dass möglichst einfache bildarithmetische Operationen, insbesondere Bit-Operationen, eingesetzt werden. Um stets eine möglichst hohe Qualität der in Echtzeit darzustellenden Videoinformationen zu erhalten, wird das Verfahren zur Rauschreduzierung dynamisch in Abhängigkeit von dem aktuellen Detailausschnitt 32 und der aktuell zur Verfügung stehenden Rechenkapazität bestimmt.
  • In einem Schritt 115 wird die Darstellung der rauschreduzierten Videoinformationen auf dem Bildschirm 11 veranlasst. Hierzu wird innerhalb des Detailausschnitts 32 für jedes Einzelbild die reduzierte Videoinformation dargestellt. Außerhalb des Detailausschnitts 32 wird die ebenfalls vergrößerte, jedoch nicht qualitätsgesteigerte und damit rauschunterdrückte Videoinformation desselben Einzelbilds dargestellt. Dies ermöglich folglich, dass innerhalb des Detailausschnitts 32 ein erhöhter Detailreichtum und gleichzeitig ein vermindertes Rauschen darstellbar ist, ohne dass die gesamte darzustellende Videoinformation derart aufwendig berechnet werden muss.
  • Vorteilhafterweise wird automatisch der Detailausschnitt 32 derart bestimmt, dass das Zielobjekt 12 und damit der tatsächliche Auftreffpunkt des Geschosses stets zumindest teilweise innerhalb des Detailausschnitts 32 angeordnet ist.
  • Von dem Schritt 115 kann dann zu unterschiedlichen Schritten verzweigt werden, beispielsweise kann in dem Schritt 104 ein neues Zielobjekt ausgewählt werden oder in dem Schritt 105 eine neue Entfernungsmessung durchgeführt werden.
  • Eine Darstellung der Videoinformationen kann insbesondere auch wie in Figur 3c dargestellt erfolgen. Hierbei sind auf dem Bildschirm 11 zwei Bildausschnitte 30 und 33 dargestellt. In dem Bildausschnitt 30 kann beispielsweise eine unvergrößerte Videoinformation eines digitalen Bildsensors 2 dargestellt werden, das eine erste Darstellung 12a des Zielobjekts 12 umfasst. In dem Bildausschnitt 33 kann eine vergrößerte Darstellung 12b des Zielobjekts 12 gezeigt werden. Hierbei kann vorgesehen sein, in dem Bildausschnitt 33 eine Rauschreduzierung vorzunehmen. Damit werden folglich gleichzeitig eine übersichtliche Darstellung und eine detailreiche und vergrößerte Darstellung auf dem Bildschirm 11 angezeigt.
  • In einer weiteren Ausführungsform kann auf dem Bildschirm 11 ein weiterer Bildausschnitt 34 vorgesehen sein, in dem beispielsweise ein Übersichtsbild von einer weiter oben angeordneten Kamera 19, einer nach hinten gerichteten Kamera 19 oder eine nahe am Zielobjekt 12 angeordneten Kamera 19 dargestellt wird. Dies kann einerseits der Sicherheit eines Schützen dienen und erhöht ferner die Orientierungsmöglichkeiten eines Bedieners der Zielerfassungseinrichtung 1a, 1b.
  • Selbstverständlich sind eine Vielzahl weiterer Ausführungsformen des erfindungsgemäßen Verfahrens denkbar. Beispielsweise können einzelne Verfahrensschritte parallel oder quasi-parallel durchgeführt werden. Ferner können Sensorwerte zu unterschiedlichen Zeitpunkten oder ereignisgesteuert erfasst werden. Das in Figur 4 dargestellte Ausführungsbeispiel dient lediglich der Erläuterung einer möglichen grundsätzlichen Wirkungsweise des erfindungsgemäßen Verfahrens.
  • Besonders vorteilhaft ist es, wenn eine dynamische Adaption des Verfahrens in Abhängigkeit von vorgebbaren Optimierungskriterien erfolgt. Beispielsweise kann in Abhängigkeit von einer erwünschten Größe des Detailausschnitts die Qualität der Rauschunterdrückung derart bestimmt werden, dass stets eine Echtzeitdarstellung möglich ist. Ferner ist es auch vorstellbar, die Echtzeitfähigkeit zu variieren. Beispielsweise kann bei einem stationär angeordneten Waffensystem, bei dem der Zielvorgang weniger zeitkritisch ist, eine Verringerung der Echtzeitfähigkeit ausreichend sein, wobei dafür eine Vergrößerung des Detailbereichs bzw. eine Verbesserung der Darstellungsqualität erreicht wird. Hierbei kann vorgesehen sein, dass einzelne Optimierungskriterien vorgegeben sind.
  • Insbesondere kann vorgesehen sein, beispielsweise für eine Feinjustierung, bestimmte Einzelbilder in dem gesamten dargestellten Bereicht rauschreduziert und qualitätsoptimiert darzustellen. Dies kann beispielsweise bei einer vermessungseinrichtung oder einem richtungsstabilen Waffensystem besonders vorteilhaft sein.

Claims (41)

  1. Verfahren zur Erfassung und Darstellung von Informationen bezüglich eines Zielobjekts (12) mittels einer Zielerfassungseinrichtung (1) in Echtzeit, bei dem ein erster Videodatenstrom mittels eines digitalen Videosensors (2, 3) erfasst wird, zumindest einem vorgebbaren Bildausschnitt (30) entsprechende Videoinformationen des ersten Videodatenstroms auf einem Bildschirm (11) in Echtzeit dargestellt werden, die Zielerfassungseinrichtung (1) derart ausgerichtet wird, dass das Zielobjekt (12) von dem Videosensor (2, 3) erfasst wird und dem Zielobjekt (12) entsprechende Videoinformationen auf dem Bildschirm (11) dargestellt werden, dadurch gekennzeichnet, dass
    - ein zweiter Videodatenstrom erfasst wird, wobei der zweite Videodatenstrom ebenfalls dem Zielobjekt (12) entsprechende Videoinformationen umfasst;
    - automatisch ein Detailbereich (32) und dem Detailbereich (32) entsprechende erste Videoinformationen des ersten Videodatenstroms bestimmt werden und automatisch dem Detailbereich (32) entsprechende zweite Videoinformationen des zweiten Videodatenstroms bestimmt werden, wobei die zweiten Videoinformationen zumindest nahezu zeitgleich mit den ersten Videoinformationen erfasst wurden und der Detailbereich (32) zumindest einen Teil des Zielobjekts (12) umfasst;
    - eine rauschreduzierten Videoinformationen in Echtzeit aus den ersten Videoinformationen und den zweiten Videoinformationen bestimmt werden; und
    - die rauschreduzierten Videoinformationen auf dem Bildschirm (12) dargestellt werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der vorgebbare Bildausschnitt (30) den Detailbereich (32) umfasst und innerhalb des Detailbereichs (32) statt der Videoinformationen des ersten Videodatenstroms oder des zweiten Videodatenstroms die rauschreduzierten Videoinformationen dargestellt werden.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Bestimmung des Detailbereichs (32) in Abhängigkeit von mindestens einem der folgenden Parameter durchgeführt wird:
    - Bildrate mindestens eines Videodatenstroms;
    - Darzustellenden Bildgröße;
    - Auflösung des Bildschirms (11);
    - Auflösung mindestens eines digitalen Videosensors (2, 3);
    - Aktuelle Vergrößerung;
    - Leistungsfähigkeit eines digitalen Bildprozessors;
    - Anzahl der zu verwendenden Videodatenströme.
  4. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass eine um einen Vergrößerungsfaktor digital vergrößerte Darstellung zumindest eines vorgebbaren Bereichs von darzustellenden Einzelbildern erfolgt, wobei der vorgebbare Bereich höchstens die Videoinformationen umfasst, die die vergrößert dargestellten Videoinformationen beeinflussen.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass eine Bestimmung der rauschreduzierten Videoinformationen nur durchgeführt wird, wenn eine digital vergrößerte Darstellung erfolgt und der Vergrößerungsfaktor einen vorgebbaren Wert überschreitet.
  6. Verfahren nach Anspruch 4 oder 5, dadurch gekennzeichnet, dass in einer digital vergrößerten Darstellung eine Neubestimmung des Detailbereichs (32) durchgeführt wird.
  7. Verfahren nach einem der Ansprüche 4 bis 6, dadurch gekennzeichnet, dass zur Erzeugung einer digital vergrößerten Darstellung eine der folgenden Verfahren zumindest bezüglich der noch unvergrößerten Videoinformationen in einem bezüglich der vergrößerten Darstellung aktuellen Detailbereich (32) durchgeführt wird:
    - Durchführung einer Rauschreduzierung der unvergrößerten Videoinformationen und anschließende digitale Vergrößerung zumindest der rauschreduzierten Videoinformationen;
    - Digitale Vergrößerung und anschließende Durchführung einer Rauschreduzierung der vergrößerten Videoinformation;
    - Durchführung einer Rauschreduzierung der unvergrößerten Videoinformationen, anschließende digitale Vergrößerung zumindest der rauschreduzierten Videoinformationen, und anschließende Durchführung einer Rauschreduzierung der vergrößerten Videoinformation.
  8. Verfahren nach einem der Ansprüche 4 bis 7, dadurch gekennzeichnet, dass eine Bestimmung der rauschreduzierten Videoinformationen nur durchgeführt wird, wenn eine mindestens zweifach digital vergrößerte Darstellung erfolgt.
  9. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass zur Bestimmung der rauschreduzierten Videoinformation ein Mittelwert aus einem Pixel eines Einzelbildes der Videoinformation des Detailbereichs (32) und einem entsprechenden Pixel der zweiten Videoinformationen gebildet wird.
  10. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass zur Bestimmung der rauschreduzierten Videoinformation ein digitaler Filter verwendet wird.
  11. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass zur Bestimmung der rauschreduzierten Videoinformation eine Bildarithmetik eingesetzt wird die mindestens eine der folgenden Operationen umfasst:
    - Addition;
    - Subtraktion;
    - Multiplikation;
    - Division;
    - Blendin;
    - Logische Operation [AND, OR, ...];
    - Bit-shift.
  12. Verfahren nach einem der Ansprüche 4 bis 11, dadurch gekennzeichnet, dass der vorgebbare Bildausschnitt (30) der Einzelbilder des ersten Videodatenstroms in einem ersten Bereich des Bildschirms unter Berücksichtigung eines ersten digitalen Vergrößerungsfaktors und ein vorgebbarer Bildausschnitt (34) der Einzelbilder des zweiten Videodatenstroms in einem zweiten Bereich des Bildschirms (11) unter Berücksichtigung eines zweiten digitalen Vergrößerungsfaktors dargestellt werden.
  13. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Einzelbilder des ersten Videodatenstroms und die Einzelbilder des zweiten Videodatenstroms mittels desselben digitalen Videosensors erfasst werden.
  14. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass mindestens ein weiterer Videodatenstrom erfasst und zumindest einen Bildausschnitt (34) realisierende Videoinformationen auf dem Bildschirm (11) dargestellt wird.
  15. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass mindestens ein weiterer Videodatenstrom erfasst wird, wobei der weitere Videodatenstroms ebenfalls dem angewählten Zielobjekt (12) entsprechende Videoinformationen umfasst.
  16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, dass der weitere Videodatenstrom ebenfalls zur Bestimmung der rauschreduzierten Videoinformationen herangezogen wird.
  17. Verfahren nach einem der Ansprüche 15 oder 16, dadurch gekennzeichnet, dass zur Bestimmung der rauschreduzierten Videoinformation ein Mittelwert aus einem Pixel eines Einzelbildes der ersten Videoinformation des Detailbereichs (32) und entsprechenden Pixeln der zweiten und weiteren Videoinformationen gebildet wird.
  18. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass zur Bestimmung der rauschreduzierten Videoinformationen in einem ersten Schritt eine Kombination von zumindest jeweils zwei der erfassten Videodatenströme zu einem kombinierten Datenstrom durchgeführt wird und in mindestens einem weiteren Schritt der kombinierte Datenstrom mit einem weiteren kombinierten Datenstrom oder einem erfassten Datenstrom zu dem rauschreduzierten Datenstrom kombiniert wird.
  19. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass mindestens zwei erfasste Videodatenströme parallel verarbeitet werden.
  20. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Zielerfassungseinrichtung (1) zur Erhöhung der Treffsicherheit für das Abschießen eines Geschosses eingesetzt wird und die folgenden Schritte durchgeführt werden:
    - Erfassen einer Entfernung zu dem angewählten Zielobjekt mittels einer Entfernungsmessungseinrichtung (14);
    - Ermittlung mindestens eines die Ballistik des Geschosses beeinflussenden Parameters;
    - Ermittlung eines Auftreffpunktes des Geschosses in Abhängigkeit von dem mindestens einen die Ballistik beeinflussenden Parameter und der erfassten Entfernung;
    - Darstellung einer Markierung (35) auf dem Bildschirm (11) derart, dass dadurch der ermittelte Auftreffpunkt bezüglich der dargestellten Videoinformation erkennbar ist.
  21. Verfahren nach Anspruch 20, dadurch gekennzeichnet, dass die Markierung (35) zumindest annähernd in dem Zentrum des Bildbereichs (30, 33) oder des Detailbereichs (32) dargestellt wird.
  22. Verfahren nach einem der Ansprüche 20 oder 21, dadurch gekennzeichnet, dass in Abhängigkeit von einer Veränderung der Ausrichtung der digitalen Videosensoren (2, 3) automatisch in Echtzeit die Markierung (35) bezüglich der aktuell dargestellten Videoinformation ausgerichtet wird.
  23. Verfahren nach einem der Ansprüche 20 bis 22, dadurch gekennzeichnet, dass die Entfernungsmessungseinrichtung automatisch derart justiert wird, dass stets die Entfernung zu dem durch die Markierung angezeigten aktuellen Auftreffpunkt ermittelbar ist.
  24. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die erfassten oder auf dem Bildschirm (11) dargestellten Videoinformationen mindestens eines Videodatenstroms zumindest teilweise abgespeichert werden.
  25. Verfahren nach einem der Ansprüche 20 bis 24, dadurch gekennzeichnet, dass eine Übermittlung von während der Durchführung des Verfahrens ermittelten Informationen an eine Empfängerstation (21, 22) erfolgt, wobei mindestens eine der folgenden Informationen übermittelt werden:
    - die ermittelte Entfernung;
    - der ermittelte Auftreffpunkt;
    - die aktuell dargestellte Markierung (35) in Bezug zur aktuell dargestellten Videoinformation;
    - die aktuell dargestellte Videoinformation;
    - mindestens ein aktuell erfasster Videodatenstrom;
    - mindestens ein abgespeicherter Videodatenstrom;
    - mindestens ein die Ballistik beeinflussender Parameter.
  26. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Größe mindestens eines auf dem Bildschirm (11) dargestellten Objekts automatisch ermittelt wird.
  27. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass automatisch die Konturen des Zielobjekts (12) ermittelt werden.
  28. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass eine aktuelle Position der Zielerfassungseinrichtung (1) ermittelt wird und automatisch eine Position des angewählten Zielobjekts (12) ermittelt wird.
  29. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die ballistischen Parameter mindestens eine der folgenden Größen beschreiben:
    - Windstärke;
    - Windrichtung;
    - Außentemperatur;
    - Luftdruck;
    - Luftfeuchtigkeit;
    - Richtung zum Zielobjekt (12);
    - Eigenschaft des Geschosses.
  30. Zielerfassungseinrichtung (1) zur Erfassung eines Zielobjekts (12), wobei der Zielerfassungseinrichtung (1) mindestens ein digitaler Videosensor (2, 3) zur Erfassung eines Videodatenstroms, ein Bildschirm (11) zur Darstellung von zumindest einem vorgebbaren Bildausschnitt (30, 33) entsprechenden und von dem digitalen Videosensor (2, 3) erfassten Videoinformationen in Echtzeit und Mittel zur Darstellung von dem Zielobjekt (12) entsprechenden Videoinformationen auf dem Bildschirm (11) zugeordnet sind, dadurch gekennzeichnet, dass der Zielerfassungseinrichtung (1) zugeordnet sind:
    - Mittel zur Erfassung eines zweiten Videodatenstroms, wobei die Videoinformationen des zweiten Datenstroms ebenfalls dem angewählten Zielobjekt (12) entsprechende Videoinformationen;
    - Mittel zur automatischen Bestimmung von einen Detailbereich (32) eines Einzelbilds des ersten Videodatenstroms realisierenden ersten Videoinformationen und Mittel zur automatischen Bestimmung von ein ein Einzelbild des zweiten Videodatenstroms realisierenden zweiten Videoinformationen bezüglich desselben Detailbereichs (32), wobei der Detailbereich (32) zumindest einen Teil des angewählten Zielobjekts umfasst;
    - Mittel zur Verknüpfung der ersten Videoinformationen mit den zweiten Videoinformationen zur Realisierung einer Rauschreduzierung;
    - Mittel zur Darstellung der rauschreduzierten Videoinformationen auf dem Bildschirm (12) in Echtzeit.
  31. Zielerfassungseinrichtung (1) nach Anspruch 30, dadurch gekennzeichnet, dass die Zielerfassungseinrichtung (1) Mittel zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 29 aufweist.
  32. Zielerfassungseinrichtung (1) nach Anspruch 30 oder 31, dadurch gekennzeichnet, dass der Zielerfassungseinrichtung (1) mindestens zwei parallel angeordnete digitale Videosensoren (2, 3) zugeordnet sind.
  33. Zielerfassungseinrichtung (1) nach einem der Ansprüche 30 bis 32, dadurch gekennzeichnet, dass der Zielerfassungseinrichtung (1) mindestens ein digitaler Bildprozessor (8) zugeordnet ist.
  34. Zielerfassungseinrichtung (1) nach einem der Ansprüche 30 bis 33, dadurch gekennzeichnet, dass der Zielerfassungseinrichtung (1) mit einem Kommunikationsnetzwerk verbindbar ist und das Kommunikationsnetzwerk als ein Funknetzwerk ausgebildet ist.
  35. Zielerfassungseinrichtung (1) nach einem der Ansprüche 30 bis 34, dadurch gekennzeichnet, dass der Zielerfassungseinrichtung (1) eine Entfernungsmessungseinrichtung (14) zugeordnet ist, wobei die Entfernungsmessungseinrichtung (14) derart mit der Zielerfassungseinrichtung (1) verbunden ist, dass eine Bewegung der Zielerfassungseinrichtung (1) eine entsprechende Bewegung der Entfernungsmessungseinrichtung (14) bewirkt.
  36. Zielerfassungseinrichtung (1) nach einem der Ansprüche 30 bis 35, dadurch gekennzeichnet, dass der Entfernungsmessungseinrichtung (14) mindestens ein durch die Zielerfassungseinrichtung (1) ansteuerbarer Stellmotor zugeordnet ist, so dass eine Korrektur der Entfernungsmessung derart möglich ist, dass stets die Entfernung zu dem durch die Markierung (35) angezeigten aktuellen Auftreffpunkt ermittelbar ist.
  37. Zielerfassungseinrichtung (1) nach Anspruch 36, dadurch gekennzeichnet, dass die Entfernungsmessungseinrichtung (14) einen Dioden-Laser umfasst und der Stellmotor auf die Position der mindestens einen Diode (15) innerhalb des Lasers einwirkt.
  38. Zielerfassungseinrichtung (1) nach einem der Ansprüche 36 oder 37, dadurch gekennzeichnet, dass der Stellmotor als ein Piezomotor oder als ein Nanomotor ausgebildet ist.
  39. Zielerfassungseinrichtung (1) nach einem der Ansprüche 30 bis 38, dadurch gekennzeichnet, dass der Zielerfassungseinrichtung (1) eine optische Notsichteinrichtung zugeordnet ist.
  40. Computerprogramm, das auf einem Rechengerät, insbesondere einem einer Zielerfassungseinrichtung (1) zugeordneten Mikroprozessor (4) und einem digitalen Videoprozessor (2, 3), ablauffähig ist, dadurch gekennzeichnet, dass das Computerprogramm zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 29 programmiert ist, wenn das Computerprogramm auf dem Rechengerät abläuft.
  41. Computerprogramm nach Anspruch 40, dadurch gekennzeichnet, dass das Computerprogramm auf einem Speicherelement (5), insbesondere auf einem dem Rechengerät zugeordneten Speicherelement (5), abgespeichert ist, wobei das Speicherelement (5) als ein random access memory (RAM), ein read only memory (ROM), ein flash-Speicher, ein optisches Speichermedium oder ein magnetisches Speichermedium ausgebildet ist.
EP20060019451 2006-09-18 2006-09-18 Verfahren zur Erfassung und Darstellung von Informationen bezüglich eines Zielobjekts Active EP1901023B8 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP20060019451 EP1901023B8 (de) 2006-09-18 2006-09-18 Verfahren zur Erfassung und Darstellung von Informationen bezüglich eines Zielobjekts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP20060019451 EP1901023B8 (de) 2006-09-18 2006-09-18 Verfahren zur Erfassung und Darstellung von Informationen bezüglich eines Zielobjekts

Publications (3)

Publication Number Publication Date
EP1901023A1 true EP1901023A1 (de) 2008-03-19
EP1901023B1 EP1901023B1 (de) 2014-11-05
EP1901023B8 EP1901023B8 (de) 2015-01-21

Family

ID=38038923

Family Applications (1)

Application Number Title Priority Date Filing Date
EP20060019451 Active EP1901023B8 (de) 2006-09-18 2006-09-18 Verfahren zur Erfassung und Darstellung von Informationen bezüglich eines Zielobjekts

Country Status (1)

Country Link
EP (1) EP1901023B8 (de)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3023553A1 (de) * 1980-06-24 1982-01-14 Wegmann & Co, 3500 Kassel Einrichtung zur ueberwachung eines kampffahrzeuges, insbesondere eines kampfpanzers
DE3023516A1 (de) * 1980-06-24 1982-01-14 Wegmann & Co, 3500 Kassel Einrichtung zur ueberwachung eines kampffahrzeuges, insbesondere eines kampfpanzers
EP0097231A2 (de) * 1982-06-19 1984-01-04 Wegmann & Co. GmbH Einrichtung zur Überwachung eines Kampffahrzeuges, insbesondere eines Kampfpanzers
DE3545831A1 (de) * 1984-12-31 1986-08-07 Precitronic Gesellschaft für Feinmechanik und Electronic mbH, 2000 Hamburg Verfahren zum ueben des zielens unter verwendung eines laserschusssimulators und eines zielseitigen retroreflektors sowie schusssimulator zur durchfuehrung dieses verfahrens
EP0256915A1 (de) 1986-07-31 1988-02-24 AEROSPATIALE Société Nationale Industrielle System zur Einstellung der relativen Winkelstellung zweier Videokameras, die auf das gleiche Objekt ausgerichtet sind, und Anwendung zur Ausrichtungssteuerung der beiden Apparate
FR2718519A1 (fr) * 1994-04-12 1995-10-13 Thomson Csf Dispositif de visée pour arme, et arme équipée.
US5806229A (en) * 1997-06-24 1998-09-15 Raytheon Ti Systems, Inc. Aiming aid for use with electronic weapon sights
WO2006097310A1 (de) 2005-03-18 2006-09-21 Rudolf Koch Zieleinrichtung für eine schusswaffe

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3023553A1 (de) * 1980-06-24 1982-01-14 Wegmann & Co, 3500 Kassel Einrichtung zur ueberwachung eines kampffahrzeuges, insbesondere eines kampfpanzers
DE3023516A1 (de) * 1980-06-24 1982-01-14 Wegmann & Co, 3500 Kassel Einrichtung zur ueberwachung eines kampffahrzeuges, insbesondere eines kampfpanzers
EP0097231A2 (de) * 1982-06-19 1984-01-04 Wegmann & Co. GmbH Einrichtung zur Überwachung eines Kampffahrzeuges, insbesondere eines Kampfpanzers
DE3545831A1 (de) * 1984-12-31 1986-08-07 Precitronic Gesellschaft für Feinmechanik und Electronic mbH, 2000 Hamburg Verfahren zum ueben des zielens unter verwendung eines laserschusssimulators und eines zielseitigen retroreflektors sowie schusssimulator zur durchfuehrung dieses verfahrens
EP0256915A1 (de) 1986-07-31 1988-02-24 AEROSPATIALE Société Nationale Industrielle System zur Einstellung der relativen Winkelstellung zweier Videokameras, die auf das gleiche Objekt ausgerichtet sind, und Anwendung zur Ausrichtungssteuerung der beiden Apparate
FR2718519A1 (fr) * 1994-04-12 1995-10-13 Thomson Csf Dispositif de visée pour arme, et arme équipée.
US5806229A (en) * 1997-06-24 1998-09-15 Raytheon Ti Systems, Inc. Aiming aid for use with electronic weapon sights
WO2006097310A1 (de) 2005-03-18 2006-09-21 Rudolf Koch Zieleinrichtung für eine schusswaffe

Also Published As

Publication number Publication date
EP1901023B1 (de) 2014-11-05
EP1901023B8 (de) 2015-01-21

Similar Documents

Publication Publication Date Title
EP0264685B1 (de) Fernsehkamera mit einem Target
DE102009050368A1 (de) Verfahren zum automatischen Kalibrieren einer virtuellen Kamera
DE112012004352B4 (de) Stereobildgebungsvorrichtung
DE102011075703A1 (de) Verfahren und Vorrichtung zur Kalibrierung einer Projektionseinrichtung eines Fahrzeugs
DE102009019399B4 (de) Verfahren zur automatischen Bestimmung wenigstens einer die Änderung der Lage eines Kraftfahrzeugs beschreibenden Zielgröße
EP1909492B1 (de) Digitale Laufbildkamera
EP1158271A1 (de) Verfahren und Vorrichtung zur Realisierung eines Informations- und Datenflusses für geodätische Geräte
DE102010062496A1 (de) Verfahren und Vorrichtung zum Verarbeiten von Bildinformationen zweier zur Bilderfassung geeigneter Sensoren eines Stereo-Sensor-Systems
DE102008018449A1 (de) Verfahren und Vorrichtung zum automatischen Fokussieren und Bildabtastsystem
EP2253932A1 (de) Luftbildkamera-System und Verfahren zum Korrigieren von Verzerrungen in einer Luftbildaufnahme
DE102006039104A1 (de) Verfahren zur Entfernungsmessung von Objekten auf von Bilddaten eines Monokamerasystems
EP2954364B1 (de) Verfahren und vorrichtung zum empfangen und verarbeiten der von einem ausgedehnten objekt kommenden optischen signale
DE102019116058A1 (de) Verfahren und vorrichtung zur objekterkennung in kamera-blindzonen
EP1901023B1 (de) Verfahren zur Erfassung und Darstellung von Informationen bezüglich eines Zielobjekts
DE102014204423B4 (de) Lichtlaufzeitkamerasystem
DE102017210415B4 (de) Verfahren zum Bereitstellen einer Bildmaske für die Abgrenzung einer Interessensregion in einem Kamerabild einer Umfeldkamera eines Kraftfahrzeugs sowie Steuervorrichtung, Umfeldkamera und Kraftfahrzeug
DE102012024650A1 (de) Verfahren zur Reduktion einer HDR-Bewegungsunschärfe bei einem HDR-Bild, HDR-Kameraeinrichtung und Kraftfahrzeug
DE3211711A1 (de) Uebungsvorrichtung fuer die schiessausbildung an lenkflugkoerpern, insbesondere an boden-boden-flugkoerperwaffen
DE10300612A1 (de) Nachtsichtsystem für Kraftfahrzeuge
DE102021116678A1 (de) Kraftfahrzeug mit einer digitalen Projektionseinheit und Verfahren zum Betreiben eines Kraftfahrzeugs
EP0499953B1 (de) Verfahren zur automatischen Kontrast- und Helligkeitsregelung für in Flugzeuge integrierte Wärmebildgeräte
DE102015217717A1 (de) Fahrzeugkamerasystem und Verfahren zum Anzeigen von Bildern auf einem Fahrzeugdisplay eines Fahrzeugs
DE102009017135A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Videodatenanalyse
DE112018007942T5 (de) Videobildaufzeichnungsvorrichtung zur Verwendung in einem Automobil und Grafikbilderkennungsvorrichtung zur Verwendung in einem Automobil
DE102015216993A1 (de) Verbessertes Verfahren zum Aufnehmen einer Szene, insbesondere bei einer kritischen Belichtungssituation

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC NL PL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL BA HR MK YU

17P Request for examination filed

Effective date: 20080905

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: WATERMANN, FRANZ-JOSEF

Owner name: KOCH, RUDOLF

RIN1 Information on inventor provided before grant (corrected)

Inventor name: KOCH, RUDOLF

Inventor name: WATERMANN, FRANZ-JOSEF

AKX Designation fees paid

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC NL PL PT RO SE SI SK TR

AXX Extension fees paid

Extension state: HR

Payment date: 20080905

Extension state: MK

Payment date: 20080905

Extension state: BA

Payment date: 20080905

Extension state: AL

Payment date: 20080905

Extension state: RS

Payment date: 20080905

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

RIN1 Information on inventor provided before grant (corrected)

Inventor name: WATERMANN, FRANZ JOSEF

INTG Intention to grant announced

Effective date: 20130621

RIN1 Information on inventor provided before grant (corrected)

Inventor name: WATERMANN, FRANZ JOSEF

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

INTG Intention to grant announced

Effective date: 20130916

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: KOCH, RUDOLF

Owner name: WATERMANN, FRANZ-JOSEF

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC NL PL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL BA HR MK RS

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: AT

Ref legal event code: REF

Ref document number: 694853

Country of ref document: AT

Kind code of ref document: T

Effective date: 20141115

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

Ref country code: DE

Ref legal event code: R083

Ref document number: 502006014053

Country of ref document: DE

RIN2 Information on inventor provided after grant (corrected)

Inventor name: WATERMANN, FRANZ JOSEF

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 502006014053

Country of ref document: DE

Effective date: 20141218

REG Reference to a national code

Ref country code: NL

Ref legal event code: T3

REG Reference to a national code

Ref country code: LT

Ref legal event code: MG4D

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150305

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150305

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150206

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

RAP2 Party data changed (patent owner data changed or rights of a patent transferred)

Owner name: WATERMANN, FRANZ-JOSEF

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 502006014053

Country of ref document: DE

REG Reference to a national code

Ref country code: GB

Ref legal event code: 732E

Free format text: REGISTERED BETWEEN 20150730 AND 20150805

REG Reference to a national code

Ref country code: DE

Ref legal event code: R082

Ref document number: 502006014053

Country of ref document: DE

Representative=s name: DREISS PATENTANWAELTE PARTG MBB, DE

Ref country code: DE

Ref legal event code: R081

Ref document number: 502006014053

Country of ref document: DE

Owner name: WATERMANN, FRANZ-JOSEF, DE

Free format text: FORMER OWNERS: KOCH, RUDOLF, 48165 MUENSTER, DE; WATERMANN, FRANZ-JOSEF, 48268 GREVEN, DE

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 10

26N No opposition filed

Effective date: 20150806

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150918

Ref country code: MC

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

REG Reference to a national code

Ref country code: CH

Ref legal event code: PL

REG Reference to a national code

Ref country code: IE

Ref legal event code: MM4A

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LI

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20150930

Ref country code: CH

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20150930

Ref country code: IE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20150918

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 11

REG Reference to a national code

Ref country code: AT

Ref legal event code: MM01

Ref document number: 694853

Country of ref document: AT

Kind code of ref document: T

Effective date: 20150918

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20150918

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

Ref country code: HU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT; INVALID AB INITIO

Effective date: 20060918

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20150930

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 12

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 13

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230525

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: NL

Payment date: 20230920

Year of fee payment: 18

Ref country code: GB

Payment date: 20230919

Year of fee payment: 18

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20230918

Year of fee payment: 18

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: IT

Payment date: 20230929

Year of fee payment: 18

Ref country code: DE

Payment date: 20231117

Year of fee payment: 18