EP1901023B1 - Verfahren zur Erfassung und Darstellung von Informationen bezüglich eines Zielobjekts - Google Patents

Verfahren zur Erfassung und Darstellung von Informationen bezüglich eines Zielobjekts Download PDF

Info

Publication number
EP1901023B1
EP1901023B1 EP20060019451 EP06019451A EP1901023B1 EP 1901023 B1 EP1901023 B1 EP 1901023B1 EP 20060019451 EP20060019451 EP 20060019451 EP 06019451 A EP06019451 A EP 06019451A EP 1901023 B1 EP1901023 B1 EP 1901023B1
Authority
EP
European Patent Office
Prior art keywords
video information
video
data stream
detection device
target detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
EP20060019451
Other languages
English (en)
French (fr)
Other versions
EP1901023A1 (de
EP1901023B8 (de
Inventor
Franz Josef Watermann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Watermann Franz-Josef
Original Assignee
Watermann Franz-Josef
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Watermann Franz-Josef filed Critical Watermann Franz-Josef
Priority to EP20060019451 priority Critical patent/EP1901023B8/de
Publication of EP1901023A1 publication Critical patent/EP1901023A1/de
Publication of EP1901023B1 publication Critical patent/EP1901023B1/de
Application granted granted Critical
Publication of EP1901023B8 publication Critical patent/EP1901023B8/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/16Sighting devices adapted for indirect laying of fire
    • F41G3/165Sighting devices adapted for indirect laying of fire using a TV-monitor

Definitions

  • the invention relates to a method for acquiring and displaying information relating to a target object by means of a target acquisition device in real time, in which a first video data stream is detected by means of a digital image sensor, at least a predetermined image section corresponding video information of the first video data stream are displayed on a screen in real time, the Target detection device is oriented such that the target object is detected by the image sensor and the target object corresponding video information is displayed on the screen.
  • the invention also relates to a target detection device for detecting a target object, wherein the target detection device corresponding to at least one digital image sensor for detecting a video data stream, a screen for displaying at least one predetermined image detail and captured by the digital image sensor video information in real time and means for displaying the target object Video information is assigned to the screen.
  • target detection devices are known from the market and are used, for example, in surveying work.
  • the target detection device is associated, for example, with a direction detection device and thus makes it possible to specify a direction of the target object relative to the current location of the target detection device.
  • Target detection devices are also used in particular to enable accurate firing of a projectile and thus to achieve an increase in the accuracy.
  • noise is, for example, the brightness noise called luminance noise, or the color noise called chrominance noise.
  • luminance noise or the color noise called chrominance noise.
  • brightness noise occurs when there is an independent random signal that affects a brightness signal.
  • the amount of noise depends inter alia on the so-called packing density of the digital sensor, that is to say the number of detectable pixels with respect to the sensor surface, the quality of the signal processing, a current exposure time, the Brightness, the sensor temperature and a possible degree of magnification.
  • WO 2006/097310 A1 Another method is in the WO 2006/097310 A1 described.
  • the WO 2006/097310 A1 was filed before the filing date of the present patent application; however, the publication was made after the filing date of the present patent application.
  • a target device and a method for acquiring and displaying information regarding a target object are described.
  • the target device has two video cameras that can simultaneously record the same target area. With this two video streams can be detected, which contain corresponding video information.
  • the images delivered by the cameras are superimposed digitally with pixel precision. This is intended to reduce digital picture noise. In addition, it should be achieved by a greater width of the field of view.
  • the real-time capability here means first that no temporal distortions may occur.
  • a real-time processing of real, time-dependent information must therefore be performed so fast that the processed information has the same time dependency.
  • the real-time capable processing must allow only an insignificant delay to occur between an event occurring in reality and the output of related edited information. The processing must therefore be done so fast that there is no (significant) delay between the original information and the processed information. This is naturally the case with purely optically based target acquisition systems.
  • a target-acquisition system based on a digital data processing system is faced with the challenge of performing data processing so quickly that no time delay is noticeable here.
  • the object of the invention is therefore to improve a method for detecting and displaying information relating to a target object of the type mentioned in such a way that as reliable as possible a detailed and noise-free representation of the target object in real time is possible.
  • the object is achieved by a method of the type mentioned in that a second video data stream is detected, wherein the second video data stream also includes video information corresponding to the target object.
  • the second video data stream is detected, for example, by means of a second digital image sensor. This basically increases the number of available information. Since the noise is a random process, the use of a second video data stream basically achieves a reduction in the probability that two video information corresponding to one another will have a similar noise. Consequently, it is more likely that non-noisy video information is always available.
  • a detail area of a frame of the first video data stream is automatically determined. This determines a lot of initial video information. Furthermore, a second set of video information of the second video data stream is automatically determined, which also correspond to the detail area and originate from a frame of the second video data stream acquired at least almost simultaneously.
  • the detail area is determined such that it comprises at least a part of the target object.
  • the detail area here corresponds to a displayable area of a frame of the respective video data stream, which can always be regarded as a sequence of individual pictures.
  • the predeterminable image section which contains the video information to be displayed on the screen, comprises the detail area.
  • the noise reduced video information is displayed.
  • the noise-reduced video information is not displayed in a separate screen area according to this embodiment, but superimpose the video information of the first video data stream shown. Thereby a particularly clear presentation is achieved.
  • Information concerning the target object within the detail area is displayed in a particularly high image quality.
  • Image information outside of the detail area, which mainly serves as an orientation, is only displayed with "normal" quality.
  • the determination of the detail area preferably depends on the frame rate of at least one video data stream, the image size to be displayed, the resolution of the screen, the resolution of the digital sensor, a current magnification, an indication of the performance of a digital image processor or a number of the available video data streams carried out.
  • These parameters fundamentally affect the amount of data to be processed, the processing time required for this purpose and / or the actually available processing time, which must be observed in order to enable determination of the noise-reduced video information in real time.
  • a digitally enlarged representation of the video information takes place, wherein the calculation of the magnification is based only on the video information that influences the actual enlarged and displayed video information. It is therefore determined before calculating the enlarged image information, which information can be displayed in an enlarged view at all. If, for example, the single image is enlarged by a factor of two, the enlarged single image takes up a quadruple magnified surface, so that only a quarter of the enlarged video information is displayed can.
  • the calculation of the digital magnification is therefore preferably designed so that only the video information whose enlarged image is actually displayed is used for this purpose. This can continue to achieve an acceleration of the overall process.
  • Noise in the output data is particularly negative when a digital enlargement of this image information takes place, because then, for example, the misinformation of a noisy pixel in an enlarged representation of a number of pixels affect incorrectly.
  • a determination of the noise-reduced video information is only performed when a digitally magnified representation occurs and the magnification factor exceeds a predetermined value.
  • a redefinition of the detail area is performed in an enlarged view.
  • a particularly high image quality is desired only in a specific region of the target object or in a specific region around the target object, wherein the detail region in the enlarged representation describes a smaller detail of the reality.
  • a noise reduction of the unenlarged video information and a subsequent digital enlargement can first be carried out.
  • the enlargement takes place here based on the noise reduced video information. This allows a particularly rapid implementation of the enlarged and detailed representation.
  • a particularly high image quality can be achieved by first performing a noise reduction of the unenlarged video information and then a digital enlargement followed by a further noise reduction.
  • a particularly rapid determination of the noise-reduced video information is achieved in that an average of one pixel of a single image of the video information of the detail area and a corresponding pixels of the second video information, which originate from the second video data stream and were detected at least almost simultaneously with the first video information is formed.
  • a pixel can be represented in particular in the case of color video information by means of a vector, wherein video information associated with different colors is represented by means of a specific number of bits.
  • registration For determining mutually corresponding pixels of two individual images or two data streams, it is possible to use methods known as "registration" which are known from image processing.
  • a digital filter can also be used to particular advantage, to which the individual video data streams are first supplied and / or possibly a single data stream consisting of individual information of the two data streams, for example after averaging.
  • a particularly high quality increase can be achieved.
  • a further increase in the processing speed for determining the noise-reduced video information can be achieved by using an image arithmetic which comprises, for example, a pixel-by-pixel addition, subtraction, multiplication, division, blending, logical operation and / or bit-shift operation.
  • the second video data stream can be displayed taking into account a second (non-zero) magnification factor. This allows, for example, the presentation of an overview and, in addition, the display of particularly enlarged detailed information.
  • Each video stream can be captured by a separate digital sensor.
  • the first video data stream and the second video data stream are detected by means of the same digital image sensor. This allows a particularly compact design of the target detection device. For this purpose, for example, successively acquired images can be assigned alternately to the first video data stream and the second video data stream. In order to achieve a sufficiently high quality, a particularly high image acquisition rate may be necessary.
  • Another advantageous realization provides for assigning each image or video information from each frame acquired by means of the digital sensor to the first video data stream and the remaining image or video information to the second video data stream, a change taking place from a following frame such that the particular video information is associated with the second video stream and the remaining information is associated with the first video stream.
  • Each frame of a video stream is thus composed of fields of two consecutive frames.
  • a further video data stream is acquired and at least one video detail of the further video data stream is displayed on the screen.
  • the further video data stream is detected, for example, by means of a further digital sensor, which is, for example, part of a digital camera, wherein the latter preferably captures a view in a different direction, for example a view to the rear, or an overview, for example by one on an increase (FIG. Vehicle, tower) attached digital sensor allows. It can also be provided, for example, to place the further video sensor relatively close to the target object.
  • the transmission of the further video data stream to the target detection device can take place for example via a radio link.
  • At least one further video data stream is detected, wherein the further video data stream likewise comprises video information corresponding to the selected target object.
  • the further sensor can also be associated, for example, with a special lens. If this lens is equipped as a particularly high-quality telephoto lens, so it can be carried out, for example, a plausibility comparison between an optical magnification and a digital magnification.
  • the special lens can also be equipped as a wide-angle lens, so that a particularly clear representation of reality is possible.
  • the further digital sensor can also be used for Detection of video signals optimized in very specific lighting conditions and be designed, for example, as an infrared sensor.
  • the further video data stream is also used to increase the image quality.
  • This can advantageously be achieved by carrying out a combination of at least two of the recorded video data streams into a combined data stream to determine the noise-reduced video information in a first step and in at least one further step combining the combined data stream with another video data stream or another combined data stream is combined to a further noise-reduced data stream.
  • the combined data streams can also already be qualitatively improved by means of a noise reduction method.
  • the target detection device is used to increase the accuracy for firing a projectile.
  • a distance to the target object is detected by means of a distance measuring device.
  • a distance measuring device is, for example, laser-based and allows a propagation time measurement of the emitted and reflected light.
  • At least one parameter influencing the ballistics of the projectile is determined.
  • Such parameters describe, for example, a wind force, a wind direction, an outside temperature, an air pressure, a humidity, a direction to the target object and / or a property of the projectile, for example size, weight, material, temperature.
  • a point of impact of the projectile is determined as a function of the at least one parameter influencing the ballistics and the detected distance.
  • a mark is then displayed on the screen in such a way that the ascertained point of impact with respect to the video information shown is thereby recognizable.
  • this embodiment makes it possible to display a determined point of impact of a projectile with respect to the video information shown, the video information shown having a particularly high quality at least in a determinable detail area.
  • this embodiment it is thus possible to select a relatively far-distant target object with particularly high levels of detail and to determine the actual impact point with high precision.
  • the marker is displayed at least approximately in the center of the detail area and / or the displayed image area. This is achieved for example by a superimposition of image information.
  • the marker may be formed, for example, as a crosshair. This embodiment also makes it possible, in particular, for the detail area to be reversed as a function of a Mark to be displayed and thus automatically determined from a point of impact.
  • the mark is automatically aligned in real time with respect to the currently displayed video information.
  • This allows, for example, a readjustment or a correction of the alignment of the target detection device to the effect that the desired impact point coincides with the determined impact point.
  • a movement of the target detection device thus automatically causes a shift of the marker in real time.
  • the distance measuring device is automatically adjusted so that the distance to the current impact point indicated by the marking can always be determined.
  • the distance measuring device is connected to the target detection device such that a Movement of the target detection device always causes a movement of the distance measuring device.
  • the target detection device is attached to a firearm and the distance measuring device in the form of a laser-based transit time measurement system is also attached to the firearm.
  • a readjustment of the firearm then causes a movement of the target detection device and the distance measuring device. Due to the ballistics, however, the distance measuring device then no longer points in the direction of the selected target object, since the laser light is not subjected to the changes in the ballistic parameters.
  • the distance measuring device is automatically adjusted in such a way that nevertheless the distance to the current impact point indicated by the marking can be determined.
  • the same information is used, which are also used for the control or the display of the mark on the screen. Consequently, if the target detection device is finally aligned in such a way that the determined impact point of the projectile coincides with the selected target object, ie the desired impact point, then, for example, another distance measurement can be carried out and the calculation of the ballistics and thus of the actual impact point can be further refined.
  • the video information recorded or displayed on the screen of at least one video data stream is at least partially stored. This allows, for example, a verifiability and possibly later evaluation of the determined deviations between the determined impact point and the initially selected target object.
  • a transmission of information determined during the execution of the method is carried out to a receiver station, in this example, the determined distance, the determined impact point, the currently displayed marker in relation to the currently displayed video information, the currently displayed video information, at least one currently detected video data stream, transmitted at least one stored video data stream and / or at least one ballistics influencing parameters.
  • a control station makes it possible, for example, a control station to make further decisions based on such information or to monitor a shooter.
  • the size of at least one object displayed on the screen is automatically determined. It can be provided that the size is displayed automatically.
  • the object can be determined, for example, by selection. It is also conceivable that the size of the target object is automatically determined. This can be achieved, for example, by automatically determining the contours of the target object.
  • a plurality of digital sensors or cameras are advantageous because it is particularly safe an object can be detected automatically.
  • a current position of the target detection device is determined and a position of the selected target object is automatically determined as a function of the current position.
  • the position of the selected target object can be determined, for example, that the current position is determined with respect to so-called GPS data.
  • the position of the target object can be determined particularly well.
  • the object is further achieved by a computer program of the type mentioned above in that the computer program is programmed to execute the method according to the invention when the computer program runs on the computing device.
  • the computer program is also the invention, as well as the method that the computer program is programmed to execute.
  • the computer program is stored on a memory element which is associated with the target detection device.
  • a target detection device 1a which has a first digital sensor 2 and a second digital sensor 3.
  • the digital sensors 2, 3 are designed as digital video sensors and can be realized for example by means of a digital video camera.
  • the target detection device 1a further comprises a microprocessor 4 which is connected to a memory element 5 via a signal line.
  • the microprocessor 4 is further connected via a signal line to a digital image processor 8.
  • the digital image processor 8 is connected via signal lines to the digital sensors 2, 3 and via a signal line to a screen 11.
  • FIG. 1 Furthermore, a target object 12 is shown.
  • the target detection device is in the in FIG. 1 illustrated situation aligned so that the Target object 12 of the digital video sensors 2, 3 can be detected.
  • the target object 12 is, for example, several 100 or 1000 m away from the target detection device.
  • FIG. 2 a further embodiment of a target detection device 1b is shown, which is suitable for carrying out the method according to the invention.
  • the target detection device 1 b is associated with further digital image or video sensors 13 and a distance measuring device 14.
  • the distance measuring device 14 comprises a laser diode 15 and a control motor 16, which is designed for example as a nanomotor or a piezo motor.
  • the target detection device 1b further comprises sensors 17, by means of which the determination of ballistic parameters is possible.
  • the target detection device 1 b further comprises a data transmission device 18, which enables, for example, the transmission and reception of radio data.
  • data can be acquired by another camera 19.
  • information can be transmitted to a weapon system 20 and / or to a control station 21.
  • the data transmission device can also provide a cable-bound data transmission and / or enable a connection to a communication network.
  • At least individual components of the target detection device 1 b are attached to the firearm 22 such that a movement of the firearm 22 and in particular of the barrel of the firearm 22 causes a corresponding movement of the digital sensors 2, 3, 13 and the distance measuring device 14 and thus always in the same direction demonstrate.
  • the target detection device 1a, 1b In principle, a multiplicity of different embodiments of the target detection device 1a, 1b are possible.
  • only the digital image sensors 2, 3, 13 and the distance measuring device 14 may be attached to the firearm 22.
  • Data transmission to the digital image processor 8 or the microprocessor 4 can then take place via corresponding data lines.
  • the microprocessor 4 and the digital image processor 8 may for example be part of a computer system, which is designed for example as a notebook or other computer system.
  • the screen 11 may be part of the computer system.
  • the screen 11 or another screen on the firearm 22 is mounted such that a shooter always finds all the relevant information in a representation that resembles, for example, a view through a telescopic sight.
  • the firearm 22 may be further associated with an optical scope.
  • the firearm 22 can be realized in all known embodiments.
  • instead of the firearm it is also possible, for example, to use a rocket launcher or another launching or firing device of the most varied types of ammunition.
  • the execution of the target detection device according to the invention can be selected.
  • criteria such as a mobility to be achieved or a specific area of application can be taken into account.
  • the target detection device 1a, 1b can also be designed without a digital image processor 8.
  • the target detection device 1a, 1b comprise a multiplicity of different memory elements 5, microprocessors 4, digital image processors 8, screens 11, data transmission devices 18, sensors 17 and digital image sensors 2, 3, 13.
  • the specific arrangement may also vary insofar as the target detection device 1a, 1b need not necessarily be realized as a total module. Rather, individual components may be arranged on the firearm 22, for example, while others are stationary or separate. For example, the calculation can be performed by a notebook while only two digital sensors 2, 3 and a distance measuring device 14 are firmly connected to the firearm 22.
  • FIGS. 4 and 5 Possible representations of the video information on the screen 11 are in the Figures 3a, 3b and 3c shown.
  • FIG. 4 is a possible sequence of the method according to the invention shown, in which case possible actions of a user or a shooter are taken into account.
  • the method begins in a step 100, in which the target detection device 1a, 1b is activated, for example, and video data streams of the digital cameras and in particular the digital sensors 2, 3, 13 are detected.
  • a step 101 it can be checked in a step 101 whether two or more of the video data streams are to be combined. Is this the
  • a step 102 a combination of the video data streams is performed such that a noise reduction is achieved.
  • a digital filter can be used.
  • a mean value can be formed pixel by pixel in a predefinable detail area.
  • four video data streams are detected and first combine without determining a detail area, for example, the video data streams of two cameras, so that at least two combined video data streams arise.
  • a step 103 the combined or the video data streams acquired directly in step 100 are displayed in real time in such a way that at least the video information corresponding to a predetermined image area is displayed. It is also conceivable to display only the video information of a single video data stream on the screen 11.
  • FIG. 3a Such a situation is for example in FIG. 3a shown, wherein the screen display has an image section 30, in which the video data stream or the image section 30 corresponding video information is displayed.
  • Screen display shown further includes a toolbar 31 having selectable functions. For example, by activating a given field, a certain magnification can be achieved.
  • the function bar 31 may provide text output or input fields which allow the output of certain data or the input of certain data, such as ballistic parameters.
  • a step 104 the target detection device 1a, 1b is aligned with the target object 12, which is then displayed on the screen 11.
  • a distance measurement is carried out by means of the distance measuring device 14.
  • the distance measurement can be activated, for example, by the user or shooter. It is also conceivable that a distance measurement is automatically carried out automatically with respect to a target object arranged, for example, in the center of the screen.
  • ballistic parameters are detected or read out of a memory area.
  • the ballistics parameters may, for example, describe a current wind speed, a current wind direction, a temperature or properties of the firearm 22. Such ballistic parameters can be detected by means of suitable sensors 17. Ballistic parameters can also be read from the memory element 5.
  • the ballistics parameters relating to an ammunition or the ballistic parameters describing a launching device can be stored.
  • the impact point of the projectile is calculated as a function of the detected ballistics parameters and the distance detected in step 105.
  • a mark is determined within the video information displayed on the screen 11, and the display of the mark is made.
  • This marking referred to as a reticle, thus indicates, with respect to the video information shown, the actual impact point of the projectile.
  • the mark is fixed with respect to the screen 11, so that the displayed Video information is moved accordingly.
  • the marker can be displayed as a crosshair always located in the middle of the image section. The video information to be displayed is then shifted so that the actual impact point is always located in the center of the screen 11.
  • a step 108 the aiming device 1a or the firearm 22 and thus the aiming device 1b are aligned in such a way that the marking or reticle coincides with the target object 12 shown.
  • the marking is tracked in real time, for example, so that the actual point of impact of the projectile is always displayed as a function of the current orientation of the target detection device 1a, 1b.
  • the video information to be displayed is always determined in real time in such a way that the currently actual point of impact of the projectile is always in the crosshairs and therefore, for example, in the center of the screen 11 with respect to the current orientation of the target acquisition device 1a, 1b.
  • a step 110 it is checked whether there is an enlargement request.
  • An enlargement request can be achieved, for example, by activating a corresponding element in the function bar 31.
  • it is also conceivable to submit an enlargement request by actuating a switch or by a voice command or other means.
  • step 108 branching back, for example, to the step 108, in which a further alignment of the target detection device 1a, 1b takes place.
  • step 105 branch back to step 105, for example, when a new distance measurement is to be performed.
  • a step 111 it is determined in a step 111 whether an enlargement is required which exceeds a predefinable limit value. If this is not the case, a calculation of the magnification is performed in a step 112 and the display of the enlarged video information is initiated in a step 115. In this case, an enlargement is preferably carried out only with regard to the video information, which is then actually displayed on the screen 11.
  • a detail section is determined in a step 113.
  • Such a detail is, for example, in FIG. 3b shown.
  • the detail can be fixed here.
  • the detail section 32 can also be determined dynamically. In this case, for example, an available computing capacity as well as a currently considered number of video data information can be taken into account.
  • the detail section 32 is in each case calculated such that a representation of the detail-improved and noise-reduced information within the detail view 32 is always possible in real time.
  • a step 114 the calculation of the noise-reduced video information is then performed.
  • the procedure can be determined in particular as a function of the number of available video data streams.
  • first combined video data streams can be determined.
  • a combined video information that is present with respect to the detail section can be used.
  • a particularly high execution speed of the method can be achieved by using the simplest possible image arithmetic operations, in particular bit operations.
  • the method for noise reduction becomes dynamic depending on the current detail section 32 and the currently available computing capacity determined.
  • a step 115 the display of the noise-reduced video information on the screen 11 is caused.
  • the reduced video information is displayed within the detail section 32 for each individual image. Outside the detail section 32, the likewise enlarged, but not quality-enhanced and thus noise-suppressed video information of the same frame is displayed. This thus makes it possible to present an increased wealth of detail and at the same time a reduced noise within the detail section 32, without the entire video information to be displayed having to be calculated in such a complex manner.
  • the detail detail 32 is automatically determined such that the target object 12 and thus the actual impact point of the projectile is always at least partially disposed within the detail section 32.
  • step 115 it is then possible to branch to different steps, for example, a new target object can be selected in step 104 or a new distance measurement can be carried out in step 105.
  • a representation of the video information can also be used as in Figure 3c shown done.
  • two image sections 30 and 33 are shown on the screen 11.
  • unenlarged video information of a digital image sensor 2 comprising a first representation 12a of the target object 12 can be displayed in the image detail 30.
  • Image section 33 an enlarged view 12b of the target object 12 can be shown.
  • a clear presentation and a detailed and enlarged display on the screen 11 are displayed.
  • a further image section 34 can be provided on the screen 11 in which, for example, an overview image is displayed of a camera 19 arranged further up, a camera 19 pointing backwards or a camera 19 arranged close to the target object 12.
  • this can serve the safety of a shooter and further increases the orientation possibilities of an operator of the target detection device 1a, 1b.
  • a dynamic adaptation of the method takes place as a function of predefinable optimization criteria. For example, depending on a desired size of the detailed detail, the quality of the noise suppression can be determined such that a real-time representation is always possible. Furthermore, it is also conceivable to vary the real-time capability. For example, at a stationarily arranged weapon system in which the targeting process is less time-critical, a reduction of the real-time capability be sufficient, for which an enlargement of the detail area or an improvement of the display quality is achieved. It can be provided that individual optimization criteria are specified.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Studio Devices (AREA)

Description

  • Die Erfindung betrifft ein Verfahren zur Erfassung und Darstellung von Informationen bezüglich eines Zielobjekts mittels einer Zielerfassungseinrichtung in Echtzeit, bei dem ein erster Videodatenstrom mittels eines digitalen Bildsensors erfasst wird, zumindest einem vorgebbaren Bildausschnitt entsprechende Videoinformationen des ersten Videodatenstroms auf einem Bildschirm in Echtzeit dargestellt werden, die Zielerfassungseinrichtung derart ausgerichtet wird, dass das Zielobjekt von dem Bildsensor erfasst wird und dem Zielobjekt entsprechende Videoinformationen auf dem Bildschirm dargestellt werden.
  • Die Erfindung betrifft auch eine Zielerfassungseinrichtung zur Erfassung eines Zielobjekts, wobei der Zielerfassungseinrichtung mindestens ein digitaler Bildsensor zur Erfassung eines Videodatenstroms, ein Bildschirm zur Darstellung von mindestens einem vorgebbaren Bildausschnitt entsprechenden und von dem digitalen Bildsensor erfassten Videoinformationen in Echtzeit und Mittel zur Darstellung von dem Zielobjekt entsprechenden Videoinformationen auf den Bildschirm zugeordnet sind.
  • Derartige Zielerfassungseinrichtungen sind vom Markt her bekannt und werden beispielsweise bei Vermessungsarbeiten eingesetzt. Hierbei ist der Zielerfassungseinrichtung beispielsweise eine Richtungserfassungseinrichtung zugeordnet und ermöglicht damit die Angabe einer Richtung des Zielobjekts relativ zu dem aktuellen Ort der Zielerfassungseinrichtung.
  • Zielerfassungseinrichtungen werden insbesondere auch eingesetzt, um ein zielgenaues Abschießen eines Geschosses zu ermöglichen und somit eine Erhöhung der Treffsicherheit zu erreichen.
  • Insbesondere bei großen Entfernungen, beispielsweise über 1000 Metern, ist es mit den bekannten Zielerfassungseinrichtungen meist nur unzureichend möglich, relativ kleine Zielobjekte, beispielsweise von nur wenigen Zentimetern, oder entsprechend kleine Details, sicher zu erfassen und darzustellen.
  • Um eine Erhöhung der darstellbaren Details eines Zielobjekts bzw. einer Darstellung eines weit entfernten, relativ kleinen Zielobjekts zu ermöglichen, ist es bekannt, den digitalen Sensor mit einer entsprechend gestalteten optischen Linse, beispielsweise einem Teleobjektiv oder einem Zoom-Objektiv, zu versehen. Dies ermöglicht zwar grundsätzlich eine vergrößerte Darstellung von Details, jedoch haben derartige Objektive den Nachteil, dass diese eine relativ aufwendige Verstellmechanik benötigen. Ferner haben derartige Objektive ein relativ hohes Gewicht und benötigen verhältnismäßig viel Platz, was die Handhabbarkeit der Zielerfassungseinrichtung erschwert. Ferner treten bei diesen Objektiven üblicherweise in bestimmten Bereichen Verzerrungen auf und insgesamt führt dies häufig zu einer Reduzierung der verwendbaren Lichtstärke. Qualitativ hochwertige Objektive sind ferner sehr teuer in der Herstellung.
  • Um eine Erhöhung der darstellbaren Details eines Zielobjekts bzw. einer Darstellung eines weit entfernten, relativ kleinen Zielobjekts zu ermöglichen, ist es ferner bekannt, eine digitale Vergrößerung vorzusehen. Digitale Vergrößerungen haben jedoch den Nachteil, dass aufgrund der maximalen Auflösung des digitalen Sensors nicht vorhandene Informationen künstlich erzeugt werden müssen. Dies führt häufig zu unscharfen oder gar falschen Bildinformationen.
  • Außerdem sind von digitalen Bildsensoren erfasste Informationen häufig mit einem sogenannten Rauschen behaftet. Ein derartiges Rauschen sind beispielsweise das als Luminanzrauschen bezeichnete Helligkeitsrauschen oder das als Chrominanzrauschen bezeichnete Farbrauschen. Helligkeitsrauschen tritt beispielsweise auf, wenn ein unabhängiges Zufallssignal vorhanden ist, das ein Helligkeitssignal beeinflusst. Der Umfang des Rauschens ist unter anderem abhängig von der sogenannten Packungsdichte des digitalen Sensors, also der Anzahl der erfassbaren Pixel bezüglich der Sensorfläche, der Qualität der Signalverarbeitung, einer aktuellen Belichtungsdauer, der Helligkeit, der Sensortemperatur und einem eventuellen Vergrößerungsgrad.
  • In der digitalen Photographie sind Verfahren zur Reduzierung des Bildrauschens bekannt. Um hierbei jedoch zuverlässige Ergebnisse zu erhalten, sind üblicherweise aufwendige Berechnungen notwendig.
  • Um eine Erhöhung der darstellbaren Details eines Zielobjekts zu ermöglichen ist es auch bekannt, einen digitalen Bildsensor mit möglichst hoher Auflösung einzusetzen, so dass grundsätzlich eine digitale Vergrößerung eine bessere Bildqualität erreichen kann. Dies hat jedoch den Nachteil, dass derartige Sensoren üblicherweise relativ teuer sind. Ferner sind hochauflösende digitale Sensoren relativ groß und weisen dabei dennoch eine relativ hohe Packungsdichte auf, was wiederum ein relativ hohes Rauschen erzeugt.
  • Ein weiteres Verfahren ist in der WO 2006/097310 A1 beschrieben. Die WO 2006/097310 A1 wurde vor dem Anmeldetag der vorliegenden Patentanmeldung angemeldet; die Veröffentlichung erfolgte jedoch nach dem Anmeldetag der vorliegenden Patentanmeldung. In der WO 2006/097310 A1 sind eine Zieleinrichtung und ein Verfahren zur Erfassung und Darstellung von Informationen bezüglich eines Zielobjekts beschrieben. Die Zieleinrichtung weist zwei Videokameras auf, die gleichzeitig dasselbe Zielgebiet aufnehmen können. Mit diesem können zwei Videodatenströme erfasst werden, die einander entsprechende Videoinformationen beinhalten. Zur
  • Steigerung der Bildqualität werden die von den Kameras gelieferten Bilder digital pixelgenau überlagert. Dadurch soll ein digitales Bildrauschen reduziert werden. Außerdem soll dadurch eine größere Breite des Sehfelds erreicht werden.
  • Aus der EP 0 256 915 A1 ist ein System zum Einstellen einer relativen Winkelposition von zwei Videokameras bekannt. Hierbei werden die beiden Videokameras derart ausgerichtet, dass diese dieselbe Bildinformation erfassen können. Dies wird dadurch erreicht, dass die Bildinformationen der beiden Videokameras abwechselnd auf einem Bildschirm ausgegeben werden. Wenn sich die beiden Bilder an derselben Position auf dem Bildschirm befinden, ist eine korrekte Ausrichtung der beiden Videokameras erreicht.
  • Bezüglich der vorgenannten Anwendungsgebiete ist eine sogenannte Echtzeitfähigkeit besonders wichtig. Die Echtzeitfähigkeit bedeutet hierbei zunächst, dass keine zeitlichen Verzerrungen auftreten dürfen. Eine echtzeitfähige Bearbeitung von realen, zeitabhängigen Informationen muss damit derart schnell erfolgen, dass die bearbeiteten Informationen dieselbe Zeitabhängigkeit aufweisen. Ferner muss es die echtzeitfähige Bearbeitung ermöglichen, dass nur eine unwesentliche Verzögerung zwischen einem in der Realität auftretenden Ereignis und der Ausgabe diesbezüglicher, bearbeiteter Information auftritt. Die Bearbeitung muss folglich derart schnell erfolgen, dass keine (nennenswerte) Verzögerung zwischen den ursprünglichen Informationen und den bearbeiteten Informationen auftritt. Dies ist bei rein optisch basierten Systemen zur Zielerfassung natürlicherweise gegeben. Ein auf einer digitalen Datenverarbeitung basierendes System zur Zielerfassung steht jedoch vor der Herausforderung, die Datenbearbeitung derart rasch durchzuführen, dass auch hier keine Zeitverzögerung wahrnehmbar ist.
  • Insbesondere bei in Echtzeit darzustellenden Videoinformationen ist eine zuverlässige Rauschunterdrückung aufgrund des pro Zeiteinheit besonders hohen Datenaufkommens häufig nicht oder nur schwer realisierbar, selbst wenn ein besonders aufwendig gestalteter Bildbearbeitungsprozessoren eingesetzt wird. Beispielsweise muss bei der Darstellung hochauflösender Videoinformationen auch sichergestellt werden, dass die Videoinformationen in Echtzeit von dem digitalen Sensor zu dem Bildbearbeitungsprozessor und von diesem zu dem Bildschirm übermittelt werden. Allein dies setzt häufig bereits ein mehrfach-parallel ausgeführtes Bussystem voraus. Der Einsatz hochwertiger Bildbearbeitungsprozessoren hat neben den hohen Kosten ferner den Nachteil, dass diese aufgrund der hohen Leistung und der hohen, erzeugten Abwärme üblicherweise einen hohen Strombedarf haben und. Sie sind deshalb für den mobilen Einsatz meist nicht verwendbar.
  • Offenbarung der Erfindung
  • Aufgabe der Erfindung ist es daher, ein Verfahren zur Erfassung und Darstellung von Informationen bezüglich eines Zielobjekts der eingangs genannten Art derart zu verbessern, dass möglichst zuverlässig eine detailreiche und rauschfreie Darstellung des Zielobjekts in Echtzeit möglich ist.
  • Die Aufgabe wird durch ein Verfahren der eingangs genannten Art dadurch gelöst, dass ein zweiter Videodatenstrom erfasst wird, wobei der zweite Videodatenstrom ebenfalls dem Zielobjekt entsprechende Videoinformationen umfasst. Der zweite Videodatenstrom wird beispielsweise mittels eines zweiten digitalen Bildsensors erfasst. Damit wird grundsätzlich die Anzahl der zur Verfügung stehenden Informationen vergrößert. Da das Rauschen ein Zufallsprozess ist, ist durch die Verwendung eines zweiten Videodatenstroms grundsätzlich eine Reduzierung der Wahrscheinlichkeit erreichbar, dass zwei einander entsprechende Videoinformationen ein gleichartiges Rauschen aufweisen. Es steht folglich mit höherer Wahrscheinlichkeit stets eine nicht-verrauschte Videoinformation zur Verfügung.
  • Es besteht jedoch auch hier das Problem, dass die in Echtzeit zu verarbeitenden Videoinformationen eine wirkungsvolle Rauschreduzierung aufgrund der Komplexität der Berechnungen nicht zulassen. Insbesondere wird durch die Verwendung von zwei Videodatenströmen die Gesamtmenge der zu verarbeitenden Videoinformationen noch vergrößert.
  • Gemäß des erfindungsgemäßen Verfahrens wird deshalb automatisch ein Detailbereich eines Einzelbilds des ersten Videodatenstroms bestimmt. Damit wird eine Menge von ersten Videoinformationen bestimmt. Ferner wird automatisch eine zweite Menge von Videoinformationen des zweiten Videodatenstroms bestimmt, die ebenfalls dem Detailbereich entsprechen und aus einem zumindest nahezu zeitgleich erfassten Einzelbild des zweiten Videodatenstroms stammen. Der Detailbereich wird derart bestimmt, dass dieser zumindest einen Teil des Zielobjekts umfasst. Der Detailbereich entspricht hierbei einem darstellbaren Bereich eines Einzelbilds des jeweiligen Videodatenstroms, der stets als eine Folge von Einzelbildern betrachtet werden kann.
  • Um eine Echtzeitfähigkeit zu erreichen wird also vorgeschlagen, nur die Videoinformationen innerhalb des Detailbereichs der Videodatenströme einem rauschreduzierenden Verfahren zu unterwerfen, die für die Bestimmung der rauschreduzierten und in dem darstellbaren Detailbereich darzustellenden Videoinformationen benötigt werden. Das erfindungsgemäße Verfahren nutzt folglich den Umstand aus, dass eine Erhöhung des Detailreichtums einerseits und eine Unterdrückung des Rauschens andererseits nur in einem Detailbereich notwendig sind, der zumindest einen Teil des Zielobjekts umfasst. Es werden folglich lediglich in diesem Detailbereich Berechnungen zur Reduzierung des Rauschens durchgeführt.
  • Um eine besonders gute Verbesserung der in dem Detailbereich darzustellenden Videoinformationen zu erreichen, werden zumindest nahezu zeitgleich erfasste Videoinformationen von zwei Videodatenströmen verwendet. Da ein in einer Videoinformation auftretender Fehler mit deutlich geringerer Wahrscheinlichkeit auch in der entsprechenden Videoinformation eines zweiten Videodatenstroms auftritt, kann damit eine signifikante Verbesserung der Bildqualität erreicht werden.
  • Vorteilhafterweise umfasst der vorgebbare Bildausschnitt, der die auf dem Bildschirm darzustellenden Videoinformationen enthält, den Detailbereich. Innerhalb dieses Detailbereichs werden statt der ursprünglichen Videoinformationen des ersten Videodatenstroms die rauschreduzierten Videoinformationen dargestellt. Die rauschreduzierten Videoinformationen werden gemäß dieser Ausführungsform nicht in einem eigenen Bildschirmbereich dargestellt, sondern überlagern die dargestellten Videoinformationen des ersten Videodatenstroms. Dadurch wird eine besonders übersichtliche Darstellung erreicht. Das Zielobjekt betreffende Informationen innerhalb des Detailbereichs werden in einer besonders hohen Bildqualität dargestellt. Bildinformationen außerhalb des Detailbereichs, die überwiegend einer Orientierung dienen, werden lediglich mit "normaler" Qualität dargestellt.
  • Vorzugsweise wird die Bestimmung des Detailbereiches in Abhängigkeit von der Bildrate mindestens eines Videodatenstroms, der darzustellenden Bildgröße, der Auflösung des Bildschirms, der Auflösung des digitalen Sensors, einer aktuellen Vergrößerung, einer Angabe bezüglich der Leistungsfähigkeit eines digitalen Bildprozessors oder einer Anzahl der zur Verfügung stehenden Videodatenströme durchgeführt. Diese Parameter beeinflussen grundsätzlich die zu verarbeitende Datenmenge, die hierfür benötigte Bearbeitungszeit und/oder die tatsächlich zur Verfügung stehende Bearbeitungszeit, die eingehalten werden muss, um eine Bestimmung der rauschreduzierten Videoinformationen in Echtzeit zu ermöglichen.
  • Gemäß einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens erfolgt eine digital vergrößerte Darstellung der Videoinformationen, wobei der Berechnung der Vergrößerung nur die Videoinformationen zugrundegelegt werden, die die tatsächlich vergrößerten und dargestellten Videoinformationen beeinflussen. Es wird folglich vor einer Berechnung der vergrößerten Bildinformationen bestimmt, welche Informationen in einer vergrößerten Darstellung überhaupt dargestellt werden können. Wird beispielsweise das Einzelbild um den Faktor zwei vergrößert, so nimmt das vergrößerte Einzelbild eine vierfach vergrößerte Fläche ein, so dass nur ein Viertel der vergrößerten Videoinformationen dargestellt werden kann. Die Berechnung der digitalen Vergrößerung ist deshalb vorzugsweise so ausgelegt, dass hierfür nur die Videoinformationen herangezogen werden, deren vergrößertes Abbild tatsächlich dargestellt wird. Damit kann weiterhin eine Beschleunigung des Gesamtverfahrens erreicht werden.
  • Ein Rauschen in den Ausgangsdaten fällt besonders dann negativ auf, wenn eine digitale Vergrößerung dieser Bildinformationen erfolgt, da dann beispielsweise die Fehlinformationen eines verrauschten Pixels in einer vergrößerten Darstellung eine Mehrzahl von Pixeln fehlerhaft beeinflussen. Vorteilhafterweise wird deshalb eine Bestimmung der rauschreduzierten Videoinformationen nur dann durchgeführt, wenn eine digital vergrößerte Darstellung erfolgt und der Vergrößerungsfaktor einen vorgebbaren Wert überschreitet.
  • Vorzugweise wird in einer vergrößerten Darstellung eine Neubestimmung des Detailbereichs durchgeführt. Üblicherweise wird auch in einer vergrößerten Darstellung eine besonders hohe Bildqualität lediglich in einem bestimmten Bereich des Zielobjekts bzw. in einem bestimmten Bereich um das Zielobjekt gewünscht, wobei der Detailbereich in der vergrößerten Darstellung einen kleineren Ausschnitt der Realität beschreibt. Durch eine Neubestimmung des Detailbereichs wird somit erreicht, dass die Rauschreduzierung nur bezüglich der innerhalb des Detailbereichs vergrößert dargestellten Videoinformationen durchgeführt werden muss. Dies erhöht nochmals die Echtzeitfähigkeit.
  • Zur Erzeugung einer vergrößerten Darstellung kann zunächst eine Rauschreduzierung der unvergrößerten Videoinformationen und eine anschließende digitale Vergrößerung durchgeführt werden. Die Vergrößerung erfolgt hierbei auf Grundlage der rauschreduzierten Videoinformationen. Dies ermöglicht eine besonders rasche Durchführung der vergrößerten und detailreichen Darstellung.
  • Häufig wird eine nochmals verbesserte Bildqualität erreicht, wenn zunächst eine digitale Vergrößerung der Videoinformationen des ersten und des zweiten Videodatenstroms durchgeführt wird,und anschließend eine Rauschreduzierung der vergrößerten Videoinformationen.
  • Insbesondere wenn nochmals weitere Videodatenströme zur Verfügung stehen, kann eine besonders hohe Bildqualität dadurch erreicht werden, dass zunächst eine Rauschreduzierung der unvergrößerten Videoinformationen durchgeführt wird und anschließend eine digitale Vergrößerung, der sich eine nochmalige Rauschreduzierung anschließt.
  • Die Auswahl des jeweils zu verwendenden Verfahrens hängt davon ab, welche Bildqualität erreicht werden soll, wie groß der Detailbereich ist und welche Rechenkapazität zur Verfügung steht, um die Berechnungen in Echtzeit darzustellen. Insbesondere können hierbei selbstverständlich einzelne Grundoperationen, aus denen sich die Rauschreduzierung und die Vergrößerung zusammensetzt, in geeigneter Weise kombiniert werden, um eine bezüglich der Ausführungszeit optimierte Verarbeitung zu erhalten.
  • Eine besonders rasche Bestimmung der rauschreduzierten Videoinformationen wird dadurch erreicht, dass ein Mittelwert aus einem Pixel eines Einzelbildes der Videoinformationen des Detailbereiches und einem entsprechenden Pixel der zweiten Videoinformationen, die dem zweiten Videodatenstrom entstammen und zumindest nahezu zeitgleich mit den ersten Videoinformationen erfasst wurden, gebildet wird. Ein Pixel kann hierbei insbesondere bei Farbvideoinformationen mittels eines Vektors dargestellt werden, wobei unterschiedlichen Farben zugeordnete Videoinformationen mittels einer bestimmten Anzahl Bits dargestellt werden.
  • Zur Ermittlung einander entsprechender Pixel zweier Einzelbilder bzw. zweier Datenströme können als "registration" bezeichnete und aus der Bildbearbeitung bekannte Verfahren eingesetzt werden.
  • Zur Bestimmung der rauschreduzierten Videoinformationen kann besonders vorteilhaft ferner ein digitaler Filter eingesetzt werden, dem zunächst die einzelnen Videodatenströme zugeführt werden und/oder dem möglicherweise ein aus einzelnen Informationen der beiden Datenströme bestehender einzelner Datenstrom, beispielsweise nach einer Mittelwertbildung, zugeführt wird. Damit kann eine besonders hohe Qualitätssteigerung erreicht werden.
  • Eine weitere Steigerung der Bearbeitungsgeschwindigkeit zur Bestimmung der rauschreduzierten Videoinformationen kann dadurch erreicht werden, dass eine Bildarithmetik eingesetzt wird, die beispielsweise eine pixelweise Addition, Subtraktion, Multiplikation, Division, ein Blending, eine logische Operation und/oder eine Bit-shift-Operation umfasst.
  • Gemäß einer vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens wird ein Bildausschnitts des ersten Videodatenstroms in einem ersten Bereich des Bildschirms unter Berücksichtigung eines ersten Vergrößerungsfaktors und ein zweiter Bildausschnitt des zweiten Videodatenstroms in einem zweiten Bereich des Bildschirms dargestellt. Hierbei kann der zweite Videodatenstrom unter Berücksichtigung eines zweiten (von null verschiedenen) Vergrößerungsfaktors dargestellt werden. Dies erlaubt beispielsweise die Darstellung einer Übersicht und daneben die Darstellung von besonders vergrößerten Detailinformationen.
  • Jeder Videodatenstrom kann von einem separaten digitalen Sensor erfasst werden. Gemäß einer vorteilhaften Weiterbildung werden jedoch der erste Videodatenstrom und der zweite Videodatenstrom mittels desselben digitalen Bildsensors erfasst. Dies ermöglicht eine besonders kompakte Bauweise der Zielerfassungseinrichtung. Hierzu können beispielsweise aufeinanderfolgend erfasste Bilder abwechselnd dem ersten Videodatenstrom und dem zweiten Videodatenstrom zugeordnet werden. Um hierbei eine ausreichend hohe Qualität zu erreichen, ist möglicherweise eine besonders hohe Bilderfassungsrate notwendig.
  • Eine andere vorteilhafte Realisierung sieht vor, von jedem mittels des digitalen Sensors erfassten Einzelbildes bestimmte Bild- bzw. Videoinformationen zunächst dem ersten Videodatenstrom und die übrigen Bild- bzw. Videoinformationen dem zweiten Videodatenstrom zuzuordnen, wobei von einem folgenden Einzelbild dann ein Wechsel derart stattfindet, dass die bestimmten Videoinformationen dem zweiten Videodatenstrom zugeordnet werden und die übrigen Informationen dem ersten Videodatenstrom. Jedes Einzelbild eines Videodatenstroms setzt sich damit aus Halbbildern von zwei aufeinanderfolgenden Einzelbildern zusammen.
  • Gemäß einer anderen vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens wird ein weiterer Videodatenstrom erfasst und zumindest einen Bildausschnitt realisierende Videoinformationen des weiteren Videodatenstroms auf dem Bildschirm dargestellt. Der weitere Videodatenstrom wird beispielsweise mittels eines weiteren digitalen Sensors, der beispielsweise Teil einer digitalen Kamera ist, erfasst, wobei dieser vorzugsweise die Erfassung einer Sicht in eine andere Richtung, beispielsweise eine Sicht nach hinten, oder eine Übersicht, beispielsweise durch einen auf einer Erhöhung (Fahrzeug, Turm) angebrachten digitalen Sensor ermöglicht. Es kann beispielsweise auch vorgesehen sein, den weiteren VideoSensor relativ nahe an dem Zielobjekt zu platzieren. Die Übertragung des weiteren Videodatenstroms zu der Zielerfassungseinrichtung kann beispielsweise über eine Funkverbindung erfolgen.
  • Gemäß einer anderen besonders vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens wird mindestens ein weiterer Videodatenstrom erfasst, wobei der weitere Videodatenstrom ebenfalls dem angewählten Zielobjekt entsprechende Videoinformationen umfasst. Damit kann beispielsweise stets ein Übersichtsbild dargestellt werden oder die Ausfallsicherheit durch redundante Informationen erhöht werden. Dem weiteren Sensor kann ferner beispielsweise ein besonderes Objektiv zugeordnet sein. Ist dieses Objektiv als besonders hochwertiges Teleobjektiv ausgestattet, so kann damit beispielsweise ein Plausibilitätsvergleich zwischen einer optischen Vergrößerung und einer digitalen Vergrößerung durchgeführt werden. Insbesondere kann das besondere Objektiv auch als ein Weitwinkelobjektiv ausgestattet sein, so dass eine besonders übersichtliche Darstellung der Realität möglich ist. Der weitere digitale Sensor kann ferner auch zur Erfassung von Videosignalen bei ganz bestimmten Lichtverhältnissen optimiert und beispielsweise als Infrarotsensor ausgebildet sein.
  • Besonders vorteilhaft ist es hierbei jedoch, wenn der weitere Videodatenstrom ebenfalls zur Erhöhung der Bildqualität herangezogen wird. Dies kann vorteilhafterweise dadurch erreicht werden, dass zur Bestimmung der rauschreduzierten Videoinformationen in einem ersten Schritt eine Kombination von zumindest jeweils zwei der erfassten Videodatenströme zu einem kombinierten Datenstrom durchgeführt wird und in mindestens einem weiteren Schritt der kombinierte Datenstrom mit einem weiteren Videodatenstrom oder einem weiteren kombinierten Datenstrom zu einem nochmals rauschreduzierteren Datenstrom kombiniert wird. Dabei können die kombinierten Datenströme auch bereits mittels eines Rauschreduzierungsverfahrens qualitativ verbessert werden. Es kann somit eine beispielsweise als Baumstruktur darstellbare Hierarchie von erfassten und kombinierten Videodatenströme realisiert werden, um eine Erhöhung der sicher darstellbaren Details zu erreichen. Besonders vorteilhaft ist es hierbei, wenn mindestens zwei erfasste Videodatenströme parallel verarbeitet werden.
  • In einer besonders bevorzugten Weiterbildung wird die Zielerfassungseinrichtung zur Erhöhung der Treffsicherheit für das Abschießen eines Geschosses eingesetzt. Hierbei wird eine Entfernung zu dem Zielobjekt mittels einer Entfernungsmessungseinrichtung erfasst. Eine Entfernungsmessungseinrichtung ist beispielsweise Laserbasiert und ermöglicht eine Laufzeitmessung des ausgesandten und reflektierten Lichts.
  • Ferner wird mindestens ein die Ballistik des Geschosses beeinflussender Parameter ermittelt. Derartige Parameter beschreiben beispielsweise eine Windstärke, eine Windrichtung, eine Außentemperatur, einen Luftdruck, eine Luftfeuchtigkeit, eine Richtung zu dem Zielobjekt und/oder eine Eigenschaft des Geschosses, beispielsweise Größe, Gewicht, Material, Temperatur.
  • In einem weiteren Schritt wird ein Auftreffpunkt des Geschosses in Abhängigkeit von dem mindestens einen die Ballistik beeinflussenden Parameters und der erfassten Entfernung ermittelt. Auf dem Bildschirm wird dann eine Markierung derart dargestellt, dass dadurch der ermittelte Auftreffpunkt bezüglich der dargestellten Videoinformationen erkennbar ist.
  • Diese Ausführungsform ermöglicht folglich die Darstellung eines ermittelten Auftreffpunkts eines Geschosses bezüglich der dargestellten Videoinformationen, wobei die dargestellte Videoinformation zumindest in einem bestimmbaren Detailbereich eine besonders hohe Qualität aufweist. Mittels dieser Ausführungsform ist es somit möglich, mit besonders hohem Detailreichtum ein relativ weit entferntes Zielobjekt anzuwählen und den tatsächlichen Auftreffpunkt mit hoher Präzision zu bestimmen.
  • Gemäß einer bevorzugten Ausführungsform wird die Markierung zumindest annähernd in dem Zentrum des Detailbereichs und/oder des dargestellten Bildbereichs dargestellt. Dies wird beispielsweise durch eine Überlagerung von Bildinformationen erreicht. Die Markierung kann beispielsweise als ein Fadenkreuz ausgebildet sein. Diese Ausführungsform ermöglicht insbesondere auch, dass der Detailbereich im Umkehrschluss in Abhängigkeit von einer darzustellenden Markierung und damit von einem Auftreffpunkt automatisch ermittelbar ist.
  • Vorzugsweise wird eine in Abhängigkeit von einer Bewegung des digitalen Sensors, die als Verschiebung der in dem Bildbereich dargestellten Videoinformationen sichtbar ist, automatisch in Echtzeit die Markierung bezüglich der aktuell dargestellten Videoinformationen ausgerichtet. Dies ermöglicht beispielsweise eine Nachjustierung bzw. eine Korrektur der Ausrichtung der Zielerfassungseinrichtung dahingehend, dass der gewünschte Auftreffpunkt mit dem ermittelten Auftreffpunkt übereinstimmt. Eine Bewegung der Zielerfassungseinrichtung bewirkt somit automatisch eine Verschiebung der Markierung in Echtzeit. Damit ist sichergestellt, dass, falls die Zielerfassungseinrichtung einer Geschossabschussvorrichtung derart zugeordnet ist, dass die Richtung der Zielerfassungseinrichtung mit der Abschussrichtung übereinstimmt, eine Justierung der Abschussvorrichtung gleichbedeutend mit einer Nachjustierung der Zielerfassungseinrichtung ist und stets der ballistisch korrekt berechnete Auftreffpunkt eines möglicherweise abzuschießenden Geschosses mittels der als Absehen bezeichneten Markierung angezeigt wird. Dies ermöglicht ein besonders präzises Abschießen eines Geschosses. Ferner wird damit gewährleistet, dass stets auf dem Bildschirm ein detailreiches und rauscharmes Bild zumindest in einer interessierenden Umgebung des Zielobjekts darstellt wird.
  • Vorzugsweise wird die Entfernungsmessungseinrichtung automatisch derart justiert, dass stets die Entfernung zu dem durch die Markierung angezeigten aktuellen Auftreffpunkt ermittelbar ist. Dies ist besonders vorteilhaft, wenn die Entfernungsmessungseinrichtung derart mit der Zielerfassungseinrichtung verbunden ist, dass eine Bewegung der Zielerfassungseinrichtung stets eine Bewegung der Entfernungsmessungseinrichtung bewirkt. Dies ist beispielsweise der Fall, wenn die Zielerfassungseinrichtung an einem Schusswaffe befestigt ist und die Entfernungsmessungseinrichtung in Form eines laserbasierenden Laufzeitmessungssystems ebenfalls an der Schusswaffe angebracht ist. Ein Nachjustieren des der Schusswaffe bewirkt dann eine Bewegung der Zielerfassungseinrichtung und der Entfernungsmessungseinrichtung. Aufgrund der Ballistik weist die Entfernungsmessungseinrichtung dann jedoch zunächst nicht mehr in die Richtung des ausgewählten Zielobjekts, da das Laserlicht nicht den Veränderungen bezüglich der ballistischen Parameter unterworfen ist.
  • Erfindungsgemäß wird nun jedoch automatisch die Entfernungsmessungseinrichtung derart justiert, dass dennoch die Entfernung zu dem durch die Markierung angezeigten aktuellen Auftreffpunkt ermittelbar ist. Hierzu werden grundsätzlich beispielsweise dieselben Informationen verwendet, die auch für die Ansteuerung bzw. die Darstellung der Markierung auf dem Bildschirm verwendet werden. Wird folglich die Zielerfassungseinrichtung schließlich derart ausgerichtet, dass der ermittelte Auftreffpunkt des Geschosses mit dem angewählten Zielobjekt, also dem gewünschten Auftreffpunkt übereinstimmt, so kann beispielsweise nochmals eine Entfernungsmessung durchgeführt und die Berechnung der Ballistik und damit des tatsächlichen Auftreffpunkts nochmals verfeinert werden.
  • Vorteilhafterweise werden die erfassten oder auf dem Bildschirm dargestellten Videoinformationen mindestens eines Videodatenstroms zumindest teilweise abgespeichert. Dies ermöglicht beispielsweise eine Nachprüfbarkeit und möglicherweise spätere Auswertung der ermittelten Abweichungen zwischen dem ermittelten Auftreffpunkt und dem zunächst angewählten Zielobjekt.
  • Vorzugsweise wird eine Übermittlung von während der Durchführung des Verfahrens ermittelten Informationen an eine Empfängerstation durchgeführt, hierbei werden beispielsweise die ermittelte Entfernung, der ermittelte Auftreffpunkt, die aktuell dargestellte Markierung in Bezug zur aktuell dargestellten Videoinformation, die aktuell dargestellte Videoinformation, mindestens ein aktuell erfasster Videodatenstrom, mindestens ein abgespeicherter Videodatenstrom und/oder mindestens ein die Ballistik beeinflussender Parameter übermittelt. Dies ermöglicht es beispielsweise einer Leitstation, anhand derartiger Informationen weitere Entscheidungen zu treffen bzw. einen Schützen zu überwachen.
  • Vorzugweise wird die Größe mindestens eines auf dem Bildschirm dargestellten Objekts automatisch ermittelt. Hierbei kann vorgesehen sein, dass die Größe automatisch angezeigt wird. Das Objekt kann beispielsweise durch Auswahl bestimmt werden. Ebenso ist es vorstellbar, dass automatisch die Größe des Zielobjekts ermittelt wird. Dies kann beispielsweise dadurch erreicht werden, dass automatisch die Konturen des Zielobjekts ermittelt werden. Auch hierzu sind mehrere digitale Sensoren bzw. Kameras vorteilhaft, da damit besonders sicher ein Objekt automatisch erkannt werden kann.
  • Gemäß einer weiteren vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens wird eine aktuelle Position der Zielerfassungseinrichtung ermittelt und automatisch in Abhängigkeit von der aktuellen Position eine Position des angewählten Zielobjekts ermittelt. Die Position des angewählten Zielobjekts kann beispielsweise dadurch ermittelt werden, dass die aktuelle Position bezüglich sogenannter GPS-Daten ermittelt wird. Unter Verwendung der ermittelten Entfernung und einer Himmelsrichtung, die die Richtung von der aktuellen Position zu dem Zielobjekt beschreibt und beispielsweise mittels eines elektronischen Kompasses, der an der Zielerfassungseinrichtung befestigt ist, erfasst wird, kann die Position des Zielobjekts besonders gut bestimmt werden.
  • Die Aufgabe wird auch durch eine Zielerfassungseinrichtung der eingangs genannten Art mit den Merkmalen der Ansprüche 30 bis 39 gelöst.
  • Die Aufgabe wird ferner durch ein Computerprogramm der eingangs genannten Art dadurch gelöst, dass das Computerprogramm zur Ausführung des erfindungsgemäßen Verfahrens programmiert ist, wenn das Computerprogramm auf dem Rechengerät abläuft. Damit stellt das Computerprogramm ebenso die Erfindung dar, wie das Verfahren, zu dessen Ausführung das Computerprogramm programmiert ist. Vorzugsweise ist das Computerprogramm auf einem Speicherelement abgespeichert, das der Zielerfassungseinrichtung zugeordnet ist.
  • Kurzbeschreibungen der Zeichnungen:
  • Weitere Merkmale, Anwendungsmöglichkeiten und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen der Erfindung, die in den Zeichnungen dargestellt sind.
  • Es zeigt
  • Figur 1
    eine schematische Darstellung einer erfindungsgemäßen Zielerfassungseinrichtung gemäß einer ersten Ausführungsform;
    Figur 2
    eine schematische Darstellung einer Zielerfassungseinrichtung gemäß einer zweiten Ausführungsform;
    Figuren 3a-3c
    schematische Darstellungen möglicher Bildschirmdarstellungen bezüglich mehrerer Ausführungsformen; und
    Figur 4
    ein schematisches Ablaufdiagramm gemäß eines weiteren Ausführungsbeispiels des erfindungsgemäßen Verfahrens.
  • In Figur 1 ist eine Zielerfassungseinrichtung 1a dargestellt, die einen ersten digitalen Sensor 2 und einen zweiten digitalen Sensor 3 aufweist. Die digitalen Sensoren 2, 3 sind als digitale Videosensoren ausgeführt und können beispielsweise mittels einer digitalen Videokamera realisiert sein. Die Zielerfassungseinrichtung 1a umfasst ferner einen Mikroprozessor 4, der mit einem Speicherelement 5 über eine Signalleitung verbunden ist. Der Mikroprozessor 4 ist ferner über eine Signalleitung mit einem digitalen Bildprozessor 8 verbunden. Der digitale Bildprozessor 8 ist über Signalleitungen mit den digitalen Sensoren 2, 3 und über eine Signalleitung mit einem Bildschirm 11 verbunden.
  • In Figur 1 ist ferner ein Zielobjekt 12 dargestellt. Die Zielerfassungseinrichtung ist in der in Figur 1 dargestellten Situation derart ausgerichtet, dass das Zielobjekt 12 von den digitalen Videosensoren 2, 3 erfassbar ist. Das Zielobjekt 12 ist beispielsweise mehrere 100 oder 1000 m von der Zielerfassungseinrichtung entfernt.
  • In Figur 2 ist eine weitere Ausführungsform einer Zielerfassungseinrichtung 1b dargestellt, die zur Durchführung des erfindungsgemäßen Verfahrens geeignet ist. Der Zielerfassungseinrichtung 1b sind weitere digitale Bild- bzw. Videosensoren 13 und eine Entfernungsmessungseinrichtung 14 zugeordnet. Die Entfernungsmessungseinrichtung 14 umfasst eine Laserdiode 15 und einen Steuermotor 16, der beispielsweise als ein Nanomotor oder ein Piezomotor ausgeführt ist. Die Zielerfassungseinrichtung 1b umfasst ferner Sensoren 17, mittels derer die Ermittlung von ballistikrelevanten Parametern möglich ist.
  • Die Zielerfassungseinrichtung 1b umfasst ferner eine Datenübertragungseinrichtung 18, die beispielsweise die Übermittlung und den Empfang von Funkdaten ermöglicht. Mittels der Datenübertragungseinrichtung 18 können Daten von einer weiteren Kamera 19 erfasst werden. Ferner können Informationen an ein Waffensystem 20 und/oder an einen Leitstand 21 übermittelt werden. Die Datenübertragungseinrichtung kann selbstverständlich auch eine Kabelgebunden Datenübertragung vorsehen und/oder eine Verbindung mit einem Kommunikationsnetzwerk ermöglichen.
  • Zumindest einzelne Komponenten der Zielerfassungseinrichtung 1b sind an der Schusswaffe 22 derart befestigt, dass eine Bewegung der Schusswaffe 22 und insbesondere des Laufs der Schusswaffe 22 eine entsprechende Bewegung der digitalen Sensoren 2, 3, 13 sowie der Entfernungsmessungseinrichtung 14 bewirkt und diese somit stets in dieselbe Richtung zeigen.
  • Grundsätzlich sind eine Vielzahl verschiedener Ausführungsformen der Zielerfassungseinrichtung 1a, 1b möglich. Beispielsweise können lediglich die digitalen Bildsensoren 2, 3, 13 und die Entfernungsmessungseinrichtung 14 an der Schusswaffe 22 befestigt sein. Über entsprechende Datenleitungen kann dann eine Datenübermittlung zu dem digitalen Bildprozessor 8 bzw. dem Mikroprozessor 4 erfolgen. Der Mikroprozessor 4 und der digitale Bildprozessor 8 können beispielsweise Teil eines Computersystems sein, das beispielsweise als Notebook oder sonstiges Computersystem ausgebildet ist. Der Bildschirm 11 kann hierbei Teil des Computersystems sein.
  • Ebenso ist es vorstellbar, dass der Bildschirm 11 oder ein weiterer Bildschirm an der Schusswaffe 22 derart befestigt ist, dass ein Schütze stets alle relevanten Informationen in einer Darstellung vorfindet, die beispielsweise einem Blick durch ein Zielfernrohr ähnelt. Insbesondere kann der Schusswaffe 22 ferner ein optisches Zielfernrohr zugeordnet sein. Die Schusswaffe 22 kann in allen bekannten Ausführungsformen realisiert werden. Insbesondere kann statt der Schusswaffe auch beispielsweise eine Raketenabschussvorrichtung oder eine sonstige Abschuss bzw. Abfeuervorrichtung unterschiedlichster Arten von Munition eingesetzt werden. In Abhängigkeit von dem eingesetzten Waffensystem kann selbstverständlich auch die Ausführung der erfindungsgemäßen Zielerfassungseinrichtung gewählt werden. Hierbei können Kriterien wie eine zu erreichende Mobilität oder ein bestimmtes Einsatzgebiet berücksichtigt werden.
  • Die Zielerfassungseinrichtung 1a, 1b kann selbstverständlich auch ohne digitalen Bildprozessor 8 ausgeführt sein. Ferner kann die Zielerfassungseinrichtung 1a, 1b eine Vielzahl unterschiedlicher Speicherelemente 5, Mikroprozessoren 4, digitaler Bildprozessoren 8, Bildschirme 11, Datenübertragungsvorrichtungen 18, Sensoren 17 und digitaler Bildsensoren 2, 3, 13 umfassen. Die konkrete Anordnung kann ebenfalls insofern variieren, als die Zielerfassungseinrichtung 1a, 1b nicht notwendig als ein Gesamtmodul realisiert sein muss. Vielmehr können einzelne Komponenten beispielsweise an der Schusswaffe 22 angeordnet sein, während andere stationär oder separat ausgeführt sind. Beispielsweise kann die Berechung von einem Notebook durchgeführt werden, während lediglich zwei digitale Sensoren 2, 3 und eine Entfernungsmessungseinrichtung 14 fest mit der Schusswaffe 22 verbunden sin.
  • Ein mögliches Zusammenwirken einzelner Komponenten eines Zielerfassungssystems 1a, 1b wird im Folgenden anhand der schematischen Ablaufdiagramme, die in den Figuren 4 und 5 dargestellt sind, beschrieben. Mögliche Darstellungen der Videoinformationen auf dem Bildschirm 11 sind hierzu in den Figuren 3a, 3b und 3c dargestellt.
  • In Figur 4 ist ein möglicher Ablauf des erfindungsgemäßen Verfahrens dargestellt, wobei hier insbesondere mögliche Aktionen eines Benutzers bzw. eines Schützen berücksichtigt sind.
  • Das Verfahren beginnt in einem Schritt 100, in dem die Zielerfassungseinrichtung 1a, 1b beispielsweise aktiviert wird und Videodatenströme der digitalen Kameras und insbesondere der digitalen Sensoren 2, 3, 13 erfasst werden. Insbesondere, wenn mehr als zwei digitale Bild-oder Videosensoren 2, 3, 13 vorliegen, kann in einem Schritt 101 geprüft werden, ob zwei oder mehrere der Videodatenströme kombiniert werden sollen. Ist dies der Fall, so wird in einem Schritt 102 eine Kombination der Videodatenströme derart durchgeführt, dass damit eine Rauschreduzierung erreicht wird. Hierbei kann beispielsweise ein digitaler Filter verwendet werden. Insbesondere kann in einem vorgebbaren Detailbereich pixelweise ein Mittelwert gebildet werden. Es ist jedoch auch vorstellbar, dass vier Videodatenströme erfasst werden und zunächst ohne Bestimmung eines Detailbereichs beispielsweise die Videodatenströme von jeweils zwei Kameras zu kombinieren, so dass mindestens zwei kombinierte Videodatenströme entstehen.
  • In einem Schritt 103 werden die kombinierten bzw. die in dem Schritt 100 direkt erfassten Videodatenströme in Echtzeit derart dargestellt, dass zumindest die einem vorgegebenen Bildbereich entsprechenden Videoinformationen dargestellt werden. Ebenso ist es vorstellbar, nur die Videoinformationen eines einzigen Videodatenstroms auf dem Bildschirm 11 darzustellen.
  • Eine derartige Situation ist beispielsweise in Figur 3a dargestellt, wobei die Bildschirmdarstellung einen Bildausschnitt 30 aufweist, in dem der Videodatenstrom bzw. die dem Bildausschnitt 30 entsprechenden Videoinformationen dargestellt werden. Die in Figur 3a dargestellte Bildschirmdarstellung umfasst ferner eine Funktionsleiste 31, die anwählbare Funktionen aufweist. Beispielsweise kann durch Aktivierung eines vorgegebenen Felds eine bestimmte Vergrößerung erreicht werden. Ferner kann die Funktionsleiste 31 Text-Ausgabe oder -Eingabefelder vorsehen, die die Ausgabe bestimmter Daten bzw. die Eingabe bestimmter Daten, beispielsweise ballistischer Parameter, ermöglicht.
  • In einem Schritt 104 erfolgt eine Ausrichtung der Zielerfassungseinrichtung 1a, 1b auf das Zielobjekt 12, welches dann auf dem Bildschirm 11 angezeigt wird.
  • In einem Schritt 105 wird eine Entfernungsmessung mittels der Entfernungsmessungseinrichtung 14 durchgeführt. Die Entfernungsmessung kann beispielsweise durch den Benutzer bzw. Schützen aktiviert werden. Es ist ebenso vorstellbar, dass automatisch ständig eine Entfernungsmessung bezüglich eines beispielsweise in der Mitte des Bildschirms angeordneten Zielobjekts durchgeführt wird.
  • In einem Schritt 106 werden Ballistikparameter erfasst bzw. aus einem Speicherbereich ausgelesen. Die Ballistikparameter können beispielsweise eine aktuelle Windgeschwindigkeit, eine aktuelle Windrichtung, eine Temperatur oder Eigenschaften der Schusswaffe 22 beschreiben. Derartige Ballistikparameter können mittels geeigneter Sensoren 17 erfasst werden. Ballistikparameter können ebenso aus dem Speicherelement 5 ausgelesen werden. Hier können beispielsweise die eine Munition betreffenden Ballistikparameter oder die eine Abschussvorrichtung beschreibenden Ballistikparameter abgelegt sein.
  • In einem Schritt 107 wird der Auftreffpunkt des Geschosses in Abhängigkeit von den erfassten Ballistikparametern und der in dem Schritt 105 erfassten Entfernung berechnet. In dem Schritt 107 wird ferner eine Markierung innerhalb der auf dem Bildschirm 11 dargestellten Videoinformationen bestimmt und die Anzeige der Markierung veranlasst. Diese als Absehen bezeichnete Markierung zeigt damit bezüglich der dargestellten Videoinformationen den tatsächlichen Auftreffpunkt des Geschosses an. Insbesondere ist es hierbei möglich, dass die Markierung fix bezüglich des Bildschirms 11 ist, so dass die darzustellende Videoinformation entsprechend verschoben wird. Beispielsweise kann die Markierung als sich stets in der Mitte des Bildausschnitts befindliches Fadenkreuz dargestellt werden. Die darzustellenden Videoinformationen werden dann dahingehend verschoben, dass der tatsächliche Auftreffpunkt stets im Zentrum des Bildschirms 11 angeordnet ist.
  • In einem Schritt 108 wird die Zieleinrichtung 1a bzw. die Schusswaffe 22 und damit die Zielreinrichtung 1b derart ausgerichtet, dass die Markierung bzw. das Absehen mit dem dargestellten Zielobjekt 12 übereinstimmt. Dies bedeutet, dass nun der tatsächliche Auftreffpunkt des Geschosses mit dem gewünschten Zielobjekt 12 übereinstimmt, wenn das Geschoss bei einer aktuell ausgerichteten Schusswaffe 22 abgefeuert werden würde. Hierzu wird in Echtzeit beispielsweise die Markierung nachgeführt, so dass stets der tatsächliche Auftreffpunkt des Geschosses in Abhängigkeit von der aktuellen Ausrichtung der Zielerfassungseinrichtung 1a, 1b dargestellt wird. Oder es werden stets die darzustellenden Videoinformationen in Echtzeit derart bestimmt, dass stets bezüglich der aktuellen Ausrichtung der Zielerfassungseinrichtung 1a, 1b der aktuell tatsächliche Auftreffpunkt des Geschosses sich im Fadenkreuz und damit beispielsweise im Zentrum des Bildschirms 11 befindet.
  • In einem Schritt 110 wird geprüft, ob eine Vergrößerungsanforderung vorliegt. Eine Vergrößerungsanforderung kann beispielsweise durch Aktivieren eines entsprechenden Elements in der Funktionsleiste 31 erreicht werden. Selbstverständlich ist ebenso vorstellbar, eine Vergrößerungsanforderung durch Betätigen eines Schalters oder durch ein Sprachkommando oder sonstige Mittel abzugeben.
  • Ist dies nicht der Fall, so wird beispielsweise zu dem Schritt 108 zurückverzweigt, in dem eine weitere Ausrichtung der Zielerfassungseinrichtung 1a, 1b erfolgt. Selbstverständlich ist es ebenso vorstellbar, dass zu dem Schritt 105 zurückverzweigt wird, beispielsweise dann, wenn eine neue Entfernungsmessung durchgeführt werden soll.
  • Wird eine Vergrößerungsanforderung erwünscht, so wird in einem Schritt 111 ermittelt, ob eine Vergrößerung angefordert ist, die einen vorgebbaren Grenzwert überschreitet. Ist dies nicht der Fall, so wird in einem Schritt 112 eine Berechnung der Vergrößerung durchgeführt und in einem Schritt 115 die Darstellung der vergrößerten Videoinformation veranlasst. Hierbei wird vorzugsweise eine Vergrößerung nur bezüglich der Videoinformationen durchgeführt, die dann tatsächlich auf dem Bildschirm 11 dargestellt werden.
  • Übersteigt der Vergrößerungsfaktor jedoch den vorgebbaren Grenzwert, so wird in einem Schritt 113 ein Detailausschnitt bestimmt. Ein derartiger Detailausschnitt ist beispielsweise in Figur 3b dargestellt. Der Detailausschnitt kann hierbei fest vorgegeben sein. Der Detailausschnitt 32 kann jedoch auch dynamisch ermittelt werden. Hierbei können beispielsweise eine zur Verfügung stehende Rechenkapazität sowie eine aktuell zu berücksichtigende Anzahl von Videodateninformationen berücksichtigt werden. Der Detailausschnitt 32 wird jeweils so berechnet, dass eine Darstellung der detailverbesserten und rauschreduzierten Informationen innerhalb der Detailansicht 32 stets in Echtzeit möglich ist.
  • In einem Schritt 114 wird dann die Berechnung der rauschunterdrückten Videoinformationen durchgeführt.
  • Hierbei sind unterschiedlichste Vorgehensweisen denkbar. Die Vorgehensweise kann insbesondere in Abhängigkeit von der Anzahl der zur Verfügung stehenden Videodatenströme bestimmt werden. Beispielsweise können zunächst kombinierte Videodatenströme ermittelt werden. Hierbei kann beispielsweise von in dem Schritt 102 erzeugten kombinierten Videodatenströmen eine bezüglich des Detailausschnitts vorhandene kombinierte Videoinformation herangezogen werden.
  • Ferner ist es möglich, zunächst eine Filterung einzelner Videodatenströme vorzusehen und anschließend eine Kombination beispielsweise durch Bildung eines pixelweisen Mittelwerts. Anschließend kann erneut ein digitaler Filter zur nochmaligen Verbesserung der Qualität herangezogen werden.
  • Selbstverständlich sind eine Vielzahl weiterer bekannter digitaler Filter bzw. Rauschreduzierungsverfahren anwendbar. Grundsätzlich kann eine deutliche Qualitätssteigerung dann erreicht werden, wenn mehr als ein Videodatenstrom zur Verfügung steht und die zur Verfügung stehenden Videodatenströme sich pixelweise entsprechen. Um dies zu erreichen, kann beispielsweise ein sogenanntes "registration" durchgeführt werden. Dies stellt sicher, dass die relevanten Videoinformationen unterschiedlicher Videodatenströme pixelweise übereinstimmen.
  • Ein besonders hohe Ausführungsgeschwindigkeit des Verfahrens kann dadurch erreicht werden, dass möglichst einfache bildarithmetische Operationen, insbesondere Bit-Operationen, eingesetzt werden. Um stets eine möglichst hohe Qualität der in Echtzeit darzustellenden Videoinformationen zu erhalten, wird das Verfahren zur Rauschreduzierung dynamisch in Abhängigkeit von dem aktuellen Detailausschnitt 32 und der aktuell zur Verfügung stehenden Rechenkapazität bestimmt.
  • In einem Schritt 115 wird die Darstellung der rauschreduzierten Videoinformationen auf dem Bildschirm 11 veranlasst. Hierzu wird innerhalb des Detailausschnitts 32 für jedes Einzelbild die reduzierte Videoinformation dargestellt. Außerhalb des Detailausschnitts 32 wird die ebenfalls vergrößerte, jedoch nicht qualitätsgesteigerte und damit rauschunterdrückte Videoinformation desselben Einzelbilds dargestellt. Dies ermöglich folglich, dass innerhalb des Detailausschnitts 32 ein erhöhter Detailreichtum und gleichzeitig ein vermindertes Rauschen darstellbar ist, ohne dass die gesamte darzustellende Videoinformation derart aufwendig berechnet werden muss.
  • Vorteilhafterweise wird automatisch der Detailausschnitt 32 derart bestimmt, dass das Zielobjekt 12 und damit der tatsächliche Auftreffpunkt des Geschosses stets zumindest teilweise innerhalb des Detailausschnitts 32 angeordnet ist.
  • Von dem Schritt 115 kann dann zu unterschiedlichen Schritten verzweigt werden, beispielsweise kann in dem Schritt 104 ein neues Zielobjekt ausgewählt werden oder in dem Schritt 105 eine neue Entfernungsmessung durchgeführt werden.
  • Eine Darstellung der Videoinformationen kann insbesondere auch wie in Figur 3c dargestellt erfolgen. Hierbei sind auf dem Bildschirm 11 zwei Bildausschnitte 30 und 33 dargestellt. In dem Bildausschnitt 30 kann beispielsweise eine unvergrößerte Videoinformation eines digitalen Bildsensors 2 dargestellt werden, das eine erste Darstellung 12a des Zielobjekts 12 umfasst. In dem Bildausschnitt 33 kann eine vergrößerte Darstellung 12b des Zielobjekts 12 gezeigt werden. Hierbei kann vorgesehen sein, in dem Bildausschnitt 33 eine Rauschreduzierung vorzunehmen. Damit werden folglich gleichzeitig eine übersichtliche Darstellung und eine detailreiche und vergrößerte Darstellung auf dem Bildschirm 11 angezeigt.
  • In einer weiteren Ausführungsform kann auf dem Bildschirm 11 ein weiterer Bildausschnitt 34 vorgesehen sein, in dem beispielsweise ein Übersichtsbild von einer weiter oben angeordneten Kamera 19, einer nach hinten gerichteten Kamera 19 oder eine nahe am Zielobjekt 12 angeordneten Kamera 19 dargestellt wird. Dies kann einerseits der Sicherheit eines Schützen dienen und erhöht ferner die Orientierungsmöglichkeiten eines Bedieners der Zielerfassungseinrichtung 1a, 1b.
  • Selbstverständlich sind eine Vielzahl weiterer Ausführungsformen des erfindungsgemäßen Verfahrens denkbar. Beispielsweise können einzelne Verfahrensschritte parallel oder quasi-parallel durchgeführt werden. Ferner können Sensorwerte zu unterschiedlichen Zeitpunkten oder ereignisgesteuert erfasst werden. Das in Figur 4 dargestellte Ausführungsbeispiel dient lediglich der Erläuterung einer möglichen grundsätzlichen Wirkungsweise des erfindungsgemäßen Verfahrens.
  • Besonders vorteilhaft ist es, wenn eine dynamische Adaption des Verfahrens in Abhängigkeit von vorgebbaren Optimierungskriterien erfolgt. Beispielsweise kann in Abhängigkeit von einer erwünschten Größe des Detailausschnitts die Qualität der Rauschunterdrückung derart bestimmt werden, dass stets eine Echtzeitdarstellung möglich ist. Ferner ist es auch vorstellbar, die Echtzeitfähigkeit zu variieren. Beispielsweise kann bei einem stationär angeordneten Waffensystem, bei dem der Zielvorgang weniger zeitkritisch ist, eine Verringerung der Echtzeitfähigkeit ausreichend sein, wobei dafür eine Vergrößerung des Detailbereichs bzw. eine Verbesserung der Darstellungsqualität erreicht wird. Hierbei kann vorgesehen sein, dass einzelne Optimierungskriterien vorgegeben sind.
  • Insbesondere kann vorgesehen sein, beispielsweise für eine Feinjustierung, bestimmte Einzelbilder in dem gesamten dargestellten Bereicht rauschreduziert und qualitätsoptimiert darzustellen. Dies kann beispielsweise bei einer vermessungseinrichtung oder einem richtungsstabilen Waffensystem besonders vorteilhaft sein.

Claims (40)

  1. Verfahren zur Erfassung und Darstellung von Informationen bezüglich eines Zielobjekts (12) mittels einer Zielerfassungseinrichtung (1) in Echtzeit, bei dem
    - ein erster Videodatenstrom mittels eines ersten digitalen Videosensors (2) erfasst wird,
    - zumindest einem vorgebbaren Bildausschnitt (30) entsprechende Videoinformationen des ersten Videodatenstroms auf einem Bildschirm (11) in Echtzeit dargestellt werden,
    - die Zielerfassungseinrichtung (1) derart ausgerichtet wird, dass das Zielobjekt (12) von dem Videosensor (2, 3) erfasst wird
    - dem Zielobjekt (12) entsprechende
    Videoinformationen auf dem Bildschirm (11) dargestellt werden und
    - ein zweiter Videodatenstrom mittels eines zweiten Videosensors (3) erfasst wird, wobei der zweite Videodatenstrom ebenfalls dem Zielobjekt (12) entsprechende Videoinformationen umfasst;
    dadurch gekennzeichnet, dass
    - automatisch ein Detailbereich (32) und dem Detailbereich (32) entsprechende erste Videoinformationen des ersten Videodatenstroms bestimmt werden und automatisch dem Detailbereich (32) entsprechende zweite Videoinformationen des zweiten Videodatenstroms bestimmt werden, wobei die zweiten Videoinformationen zumindest nahezu zeitgleich mit den ersten Videoinformationen erfasst wurden und der Detailbereich (32) zumindest einen Teil des Zielobjekts (12) umfasst;
    - mittels eines rauschreduzierenden Verfahrens rauschreduzierte Videoinformationen in Echtzeit aus einer Verknüpfung der ersten Videoinformationen des Detailbereichs (32) und der zweiten Videoinformationen des Detailbereichs (32 bestimmt werden; und
    - in dem Detailbereich (32) statt der ersten Videoinformationen oder der zweiten Videoinformationen die rauschreduzierten Videoinformationen dargestellt werden;
    wobei die automatische Bestimmung des Detailbereichs (32) in Abhängigkeit von mindestens einem der folgenden Parameter durchgeführt wird:
    - Bildrate mindestens eines Videodatenstroms;
    - Darzustellenden Bildgröße;
    - Auflösung des Bildschirms (11);
    - Auflösung mindestens eines digitalen Videosensors (2, 3);
    - Aktuelle Vergrößerung;
    - Leistungsfähigkeit eines digitalen Bildprozessors;
    - Anzahl der zu verwendenden Videodatenströme.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der vorgebbare Bildausschnitt (30) den Detailbereich (32) umfasst.
  3. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass eine um einen Vergrößerungsfaktor digital vergrößerte Darstellung zumindest eines vorgebbaren Bereichs von darzustellenden Einzelbildern erfolgt, wobei der vorgebbare Bereich höchstens die videoinformationen umfasst, die die vergrößert dargestellten Videoinformationen beeinflussen.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass eine Bestimmung der rauschreduzierten videoinformationen nur durchgeführt wird, wenn eine digital vergrößerte Darstellung erfolgt und der Vergrößerungsfaktor einen vorgebbaren Wert überschreitet.
  5. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass in einer digital vergrößerten Darstellung eine Neubestimmung des Detailbereichs (32) durchgeführt wird.
  6. Verfahren nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass zur Erzeugung einer digital vergrößerten Darstellung eine der folgenden verfahren zumindest bezüglich der noch unvergrößerten Videoinformationen in einem bezüglich der vergrößerten Darstellung aktuellen Detailbereich (32) durchgeführt wird:
    - Durchführung einer Rauschreduzierung der unvergrößerten Videoinformationen und anschließende digitale Vergrößerung zumindest der rauschreduzierten videoinformationen;
    - Digitale Vergrößerung und anschließende Durchführung einer Rauschreduzierung der vergrößerten Videoinformation;
    - Durchführung einer Rauschreduzierung der unvergrößerten Videoinformationen, anschließende digitale Vergrößerung zumindest der rauschreduzierten Videoinformationen, und anschließende Durchführung einer Rauschreduzierung der vergrößerten Videoinformation.
  7. Verfahren nach einem der Ansprüche 3 bis 6, dadurch gekennzeichnet, dass eine Bestimmung der rauschreduzierten Videoinformationen nur durchgeführt wird, wenn eine mindestens zweifach digital vergrößerte Darstellung erfolgt.
  8. Verfahren nach einem der vorangehenden Ansprüche,
    dadurch gekennzeichnet, dass zur Bestimmung der rauschreduzierten Videoinformation ein Mittelwert aus einem Pixel eines Einzelbildes der Videoinformation
    des Detailbereichs (32) und einem entsprechenden Pixel der zweiten Videoinformationen gebildet wird.
  9. Verfahren nach einem der vorangehenden Ansprüche,
    dadurch gekennzeichnet, dass zur Bestimmung der rauschreduzierten Videoinformation ein digitaler Filter verwendet wird.
  10. Verfahren nach einem der vorangehenden Ansprüche,
    dadurch gekennzeichnet, dass zur Bestimmung der rauschreduzierten Videoinformation eine Bildarithmetik eingesetzt wird die mindestens eine der folgenden Operationen umfasst:
    - Addition;
    Subtraktion;
    - Multiplikation;
    - Division;
    - Blending;
    - Logische Operation;
    - Bit-shift.
  11. Verfahren nach einem der Ansprüche 3 bis 10, dadurch gekennzeichnet, dass der vorgebbare Bildausschnitt (30) der Einzelbilder des ersten Videodatenstroms in einem ersten Bereich des Bildschirms unter Berücksichtigung eines ersten digitalen Vergrößerungsfaktors und ein vorgebbarer
    Bildausschnitt (34) der Einzelbilder des zweiten Videodatenstroms in einem zweiten Bereich des Bildschirms (11) unter Berücksichtigung eines zweiten digitalen Vergrößerungsfaktors dargestellt werden.
  12. Verfahren nach einem der vorangehenden Ansprüche,
    dadurch gekennzeichnet, dass die Einzelbilder des ersten Videodatenstroms und die Einzelbilder des zweiten Videodatenstroms mittels desselben digitalen Videosensors erfasst werden.
  13. Verfahren nach einem der vorangehenden Ansprüche,
    dadurch gekennzeichnet, dass mindestens ein weiterer Videodatenstrom erfasst wird und zumindest einen
    Bildausschnitt (34) realisierende Videoinformationen auf dem Bildschirm (11) dargestellt werden.
  14. Verfahren nach einem der vorangehenden Ansprüche,
    dadurch gekennzeichnet, dass mindestens ein weiterer
    Videodatenstrom erfasst wird, wobei der weitere Videodatenstroms ebenfalls dem angewählten Zielobjekt (12) entsprechende Videoinformationen umfasst.
  15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, dass der weitere Videodatenstrom ebenfalls zur Bestimmung der rauschreduzierten Videoinformationen herangezogen wird.
  16. Verfahren nach einem der Ansprüche 14 oder 15, dadurch gekennzeichnet, dass zur Bestimmung der rauschreduzierten Videoinformation ein Mittelwert aus einem Pixel eines Einzelbildes der ersten Videoinformation des Detailbereichs (32) und entsprechenden Pixeln der zweiten und weiteren Videoinformationen gebildet wird.
  17. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass zur Bestimmung der rauschreduzierten Videoinformationen in einem ersten Schritt eine Kombination von zumindest jeweils zwei der erfassten Videodatenströme zu einem kombinierten Datenstrom durchgeführt wird und in mindestens einem weiteren Schritt der kombinierte Datenstrom mit einem weiteren kombinierten Datenstrom oder einem erfassten Datenstrom zu dem rauschreduzierten Datenstrom kombiniert wird.
  18. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass mindestens zwei erfasste Videodatenströme parallel verarbeitet werden.
  19. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Zielerfassungseinrichtung (1) zur Erhöhung der Treffsicherheit für das Abschießen eines Geschosses eingesetzt wird und die folgenden Schritte durchgeführt werden:
    - Erfassen einer Entfernung zu dem angewählten Zielobjekt mittels einer Entfernungsmessungseinrichtung (14);
    - Ermittlung mindestens eines die Ballistik des Geschosses beeinflussenden Parameters;
    - Ermittlung eines Auftreffpunktes des Geschosses in Abhängigkeit von dem mindestens einen die Ballistik beeinflussenden Parameter und der erfassten Entfernung;
    - Darstellung einer Markierung auf dem Bildschirm (11) derart, dass dadurch der ermittelte Auftreffpunkt bezüglich der dargestellten Videoinformation erkennbar ist.
  20. Verfahren nach Anspruch 19, dadurch gekennzeichnet, dass die Markierung zumindest annähernd in dem Zentrum des Bildbereichs (30, 33) oder des Detailbereichs (32) dargestellt wird.
  21. Verfahren nach einem der Ansprüche 19 oder 20, dadurch gekennzeichnet, dass in Abhängigkeit von einer Veränderung der Ausrichtung der digitalen Videosensoren (2, 3) automatisch in Echtzeit die Markerung bezüglich der aktuell dargestellten Videoinformation ausgerichtet wird.
  22. Verfahren nach einem der Ansprüche 19 bis 21, dadurch gekennzeichnet, dass die Entfernungsmessungseinrichtung automatisch derart justiert wird, dass stets die Entfernung zu dem durch die Markierung angezeigten aktuellen Auftreffpunkt ermittelbar ist.
  23. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die erfassten oder auf dem Bildschirm (11) dargestellten Videoinformationen mindestens eines Videodatenstroms zumindest teilweise abgespeichert werden.
  24. Verfahren nach einem der Ansprüche 19 bis 23, dadurch gekennzeichnet, dass eine Übermittlung von während der
    Durchführung des Verfahrens ermittelten Informationen an eine Empfängerstation (21, 22) erfolgt, wobei mindestens eine der folgenden Informationen übermittelt werden:
    - die ermittelte Entfernung;
    - der ermittelte Auftreffpunkt;
    - die aktuell dargestellte Markierung in Bezug zur aktuell dargestellten Videoinformation;
    - die aktuell dargestellte Videoinformation;
    - mindestens ein aktuell erfasster Videodatenstrom;
    - mindestens ein abgespeicherter Videodatenstrom;
    - mindestens ein die Ballistik beeinflussender Parameter.
  25. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Größe mindestens eines auf dem Bildschirm (11) dargestellten Objekts automatisch ermittelt wird.
  26. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass automatisch die Konturen des Zielobjekts (12) ermittelt werden.
  27. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass eine aktuelle Position der Zielerfassungseinrichtung (1) ermittelt wird und automatisch eine Position des angewählten Zielobjekts (12) ermittelt wird.
  28. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die ballistischen Parameter mindestens eine der folgenden Größen beschreiben:
    - Windstärke;
    - Windrichtung;
    - Außentemperatur;
    - Luftdruck;
    - Luftfeuchtigkeit;
    - Richtung zum Zielobjekt (12);
    - Eigenschaft des Geschosses.
  29. Zielerfassungseinrichtung (1) zur Erfassung eines Zielobjekts (12), wobei der Zielerfassungseinrichtung (1) zugeordnet sind:
    - mindestens ein digitaler Videosensor (2) zur Erfassung eines ersten Videodatenstroms;
    - ein Bildschirm (11) zur Darstellung von zumindest einem vorgebbaren Bildausschnitt (30, 33) entsprechenden und von dem digitalen Videosensor (2, 3) erfassten Videoinformationen in Echtzeit;
    - Mittel zur Darstellung von dem Zielobjekt (12) entsprechenden Videoinformationen auf dem Bildschirm (11); und
    - ein zweiter digitaler Videosensor (3) zur Erfassung eines zweiten Videodatenstroms, wobei die Videoinformationen des zweiten Videodatenstroms ebenfalls dem angewählten Zielobjekt (12) entsprechende Videoinformationen umfassen;
    dadurch gekennzeichnet, dass der Zielerfassungseinrichtung (1) ferner zugeordnet sind:
    - Mittel zur automatischen Bestimmung eines ersten Detailbereichs (32), wobei der Detailbereich (32) zumindest einen Teil des angewählten Zielobjekts umfasst;
    - Mittel zur automatischen Bestimmung von den Detailbereich (32) eines Einzelbilds des ersten Videodatenstroms realisierenden ersten Videoinformationen und Mittel zur automatischen Bestimmung von ein Einzelbild des zweiten Videodatenstroms realisierenden zweiten Videoinformationen bezüglich desselben Detailbereichs (32);
    - Mittel zur Durchführung eines rauschreduzierenden Verfahrens zur Bestimmung von rauschreduzierten Videoinformationen in Echtzeit durch Verknüpfung der ersten Videoinformationen mit den zweiten Videoinformationen;
    - Mittel zur Darstellung der rauschreduzierten Videoinformationen in dem Bildausschnitt (30) statt der ersten Videoinformationen oder der zweiten Videoinformationen;
    wobei die Mittel zur automatischen Bestimmung des Detailbereichs derart ausgebildet sind, dass die automatische Bestimmung des Detailbereichs (32) in Abhängigkeit von mindestens einem der folgenden Parameter durchführbar ist:
    - Bildrate mindestens eines Videodatenstroms;
    - Darzustellenden Bildgröße;
    - Auflösung des Bildschirms (11);
    - Auflösung mindestens eines digitalen Videosensors (2, 3);
    - Aktuelle Vergrößerung;
    - Leistungsfähigkeit eines digitalen
    Bildprozessors;
    - Anzahl der zu verwendenden Videodatenströme.
  30. Zielerfassungseinrichtung (1) nach Anspruch 29,
    dadurch gekennzeichnet, dass die Zielerfassungseinrichtung (1) Mittel zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 28 aufweist.
  31. Zielerfassungseinrichtung (1) nach Anspruch 29 oder 30, dadurch gekennzeichnet, dass der Zielerfassungseinrichtung (1) mindestens zwei parallel angeordnete digitale Videosensoren (2, 3) zugeordnet sind.
  32. Zielerfassuhgseinrichtung (1) nach einem der Ansprüche 29 bis 31, dadurch gekennzeichnet, dass der Zielerfassungseinrichtung (1) mindestens ein digitaler Bildprozessor (8) zugeordnet ist.
  33. Zielerfassungseinrichtung (1) nach einem der Ansprüche 29 bis 32, dadurch gekennzeichnet, dass der Zielerfassungseinrichtung (1) mit einem Kommunikationsnetzwerk verbindbar ist und das Kommunikationsnetzwerk als ein Funknetzwerk ausgebildet ist.
  34. Zielerfassungseinrichtung (1) nach einem der Ansprüche 29 bis 33, dadurch gekennzeichnet, dass der Zielerfassungseinrichtung (1) eine
    Entfernungsmessungseinrichtung (14) zugeordnet ist, wobei die Entfernungsmessungseinrichtung (14) derart mit der Zielerfassungseinrichtung (1) verbunden ist, dass.eine Bewegung der Zielerfassungseinrichtung (1) eine entsprechende Bewegung der Entfernungsmessungseinrichtung (14) bewirkt.
  35. Zielerfassungseinrichtung (1) nach einem der Ansprüche 29 bis 34, dadurch gekennzeichnet, dass der Entfernungsmessungseinrichtung (14) mindestens ein durch die Zielerfassungseinrichtung (1) ansteuerbarer Stellmotor zugeordnet ist, so dass eine Korrektur der Entfernungsmessung derart möglich ist, dass stets die Entfernung zu dem durch die Markierung angezeigten aktuellen Auftreffpunkt ermittelbar ist.
  36. Zielerfassungseinrichtung (1) nach Anspruch 35, dadurch gekennzeichnet, dass die Entfernungsmessungseinrichtung (14) einen Dioden-Laser umfasst und der Stellmotor auf die Position der mindestens einen Diode (15) innerhalb des Lasers einwirkt.
  37. Zielerfassungseinrichtung (1) nach einem der Ansprüche 35 oder 36, dadurch gekennzeichnet, dass der Stellmotor als ein Piezomotor oder als ein Nanomotor ausgebildet ist.
  38. Zielerfassungseinrichtung (1) nach einem der Ansprüche 29 bis 37, dadurch gekennzeichnet, dass der Zielerfassungseinrichtung (1) eine optische Notsichteinrichtung zugeordnet ist.
  39. Computerprogramm, das auf einem Rechengerät, insbesondere einem einer Zielerfassungseinrichtung (1) zugeordneten Mikroprozessor (4) und einem digitalen Videoprozessor (2, 3), ablauffähig ist, dadurch gekennzeichnet, dass das Computerprogramm zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 28 programmiert ist, wenn das Computerprogramm auf dem Rechengerät abläuft.
  40. Computerprogramm nach Anspruch 39, dadurch gekennzeichnet, dass das Computerprogramm auf einem Speicherelement (5), insbesondere auf einem dem Rechengerät zugeordneten Speicherelement (5), abgespeichert ist, wobei das Speicherelement (5) als ein random access memory (RAM), ein read only memory (ROM), ein flash-Speicher, ein optisches Speichermedium oder ein magnetisches Speichermedium ausgebildet ist.
EP20060019451 2006-09-18 2006-09-18 Verfahren zur Erfassung und Darstellung von Informationen bezüglich eines Zielobjekts Active EP1901023B8 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP20060019451 EP1901023B8 (de) 2006-09-18 2006-09-18 Verfahren zur Erfassung und Darstellung von Informationen bezüglich eines Zielobjekts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP20060019451 EP1901023B8 (de) 2006-09-18 2006-09-18 Verfahren zur Erfassung und Darstellung von Informationen bezüglich eines Zielobjekts

Publications (3)

Publication Number Publication Date
EP1901023A1 EP1901023A1 (de) 2008-03-19
EP1901023B1 true EP1901023B1 (de) 2014-11-05
EP1901023B8 EP1901023B8 (de) 2015-01-21

Family

ID=38038923

Family Applications (1)

Application Number Title Priority Date Filing Date
EP20060019451 Active EP1901023B8 (de) 2006-09-18 2006-09-18 Verfahren zur Erfassung und Darstellung von Informationen bezüglich eines Zielobjekts

Country Status (1)

Country Link
EP (1) EP1901023B8 (de)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3023553A1 (de) * 1980-06-24 1982-01-14 Wegmann & Co, 3500 Kassel Einrichtung zur ueberwachung eines kampffahrzeuges, insbesondere eines kampfpanzers
DE3023516A1 (de) * 1980-06-24 1982-01-14 Wegmann & Co, 3500 Kassel Einrichtung zur ueberwachung eines kampffahrzeuges, insbesondere eines kampfpanzers
DE3222970A1 (de) * 1982-06-19 1983-12-22 Wegmann & Co GmbH, 3500 Kassel Einrichtung zur ueberwachung eines kampffahrzeuges, insbesondere eines kampfpanzers
DE3545831A1 (de) * 1984-12-31 1986-08-07 Precitronic Gesellschaft für Feinmechanik und Electronic mbH, 2000 Hamburg Verfahren zum ueben des zielens unter verwendung eines laserschusssimulators und eines zielseitigen retroreflektors sowie schusssimulator zur durchfuehrung dieses verfahrens
FR2602389B1 (fr) 1986-07-31 1988-12-02 Aerospatiale Systeme pour ajuster les positions angulaires relatives de deux cameras video dirigees vers un meme objet et son application au reglage de l'orientation de deux appareils
FR2718519B1 (fr) * 1994-04-12 1996-04-26 Thomson Csf Dispositif de visée pour arme, et arme équipée.
US5806229A (en) * 1997-06-24 1998-09-15 Raytheon Ti Systems, Inc. Aiming aid for use with electronic weapon sights
DE102005013117A1 (de) 2005-03-18 2006-10-05 Rudolf Koch Gewehr mit einer Zieleinrichtung

Also Published As

Publication number Publication date
EP1901023A1 (de) 2008-03-19
EP1901023B8 (de) 2015-01-21

Similar Documents

Publication Publication Date Title
EP1909492B1 (de) Digitale Laufbildkamera
DE112012004352B4 (de) Stereobildgebungsvorrichtung
DE102011075703A1 (de) Verfahren und Vorrichtung zur Kalibrierung einer Projektionseinrichtung eines Fahrzeugs
DE102009019399B4 (de) Verfahren zur automatischen Bestimmung wenigstens einer die Änderung der Lage eines Kraftfahrzeugs beschreibenden Zielgröße
DE102010062496A1 (de) Verfahren und Vorrichtung zum Verarbeiten von Bildinformationen zweier zur Bilderfassung geeigneter Sensoren eines Stereo-Sensor-Systems
EP2253932A1 (de) Luftbildkamera-System und Verfahren zum Korrigieren von Verzerrungen in einer Luftbildaufnahme
DE102008018449A1 (de) Verfahren und Vorrichtung zum automatischen Fokussieren und Bildabtastsystem
DE202016007867U1 (de) Steuerung des Sichtlinienwinkels einer Bildverarbeitungsplattform
CH661132A5 (de) Vorrichtung zur simulation des freien ausblicks mittels eines optischen geraetes.
DE102017207438B4 (de) Verfahren, Vorrichtung und deren Verwendung zur Ermittlung des Knickwinkels eines Gespanns
EP2954364B1 (de) Verfahren und vorrichtung zum empfangen und verarbeiten der von einem ausgedehnten objekt kommenden optischen signale
EP1901023B1 (de) Verfahren zur Erfassung und Darstellung von Informationen bezüglich eines Zielobjekts
DE19638968A1 (de) Verfahren und Vorrichtung zur Bekämpfung anfliegender Flugkörper
DE102014204423B4 (de) Lichtlaufzeitkamerasystem
DE102017210415B4 (de) Verfahren zum Bereitstellen einer Bildmaske für die Abgrenzung einer Interessensregion in einem Kamerabild einer Umfeldkamera eines Kraftfahrzeugs sowie Steuervorrichtung, Umfeldkamera und Kraftfahrzeug
DE3211711A1 (de) Uebungsvorrichtung fuer die schiessausbildung an lenkflugkoerpern, insbesondere an boden-boden-flugkoerperwaffen
DE10300612A1 (de) Nachtsichtsystem für Kraftfahrzeuge
DE102012024650A1 (de) Verfahren zur Reduktion einer HDR-Bewegungsunschärfe bei einem HDR-Bild, HDR-Kameraeinrichtung und Kraftfahrzeug
EP0499953B1 (de) Verfahren zur automatischen Kontrast- und Helligkeitsregelung für in Flugzeuge integrierte Wärmebildgeräte
DE102015217717A1 (de) Fahrzeugkamerasystem und Verfahren zum Anzeigen von Bildern auf einem Fahrzeugdisplay eines Fahrzeugs
DE102009017135A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Videodatenanalyse
DE102004014967B4 (de) Variolinsensystem und Verfahren zu dessen Schärfenjustierung
DE102019006717A1 (de) Laserwaffensystem und Verfahren zur Bestrahlung eines Ziels
DE112018007942T5 (de) Videobildaufzeichnungsvorrichtung zur Verwendung in einem Automobil und Grafikbilderkennungsvorrichtung zur Verwendung in einem Automobil
DE19736305C2 (de) Einrichtung zur Zielentdeckung für ein Flugkörpersystem

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC NL PL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL BA HR MK YU

17P Request for examination filed

Effective date: 20080905

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: WATERMANN, FRANZ-JOSEF

Owner name: KOCH, RUDOLF

RIN1 Information on inventor provided before grant (corrected)

Inventor name: KOCH, RUDOLF

Inventor name: WATERMANN, FRANZ-JOSEF

AKX Designation fees paid

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC NL PL PT RO SE SI SK TR

AXX Extension fees paid

Extension state: HR

Payment date: 20080905

Extension state: MK

Payment date: 20080905

Extension state: BA

Payment date: 20080905

Extension state: AL

Payment date: 20080905

Extension state: RS

Payment date: 20080905

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

RIN1 Information on inventor provided before grant (corrected)

Inventor name: WATERMANN, FRANZ JOSEF

INTG Intention to grant announced

Effective date: 20130621

RIN1 Information on inventor provided before grant (corrected)

Inventor name: WATERMANN, FRANZ JOSEF

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

INTG Intention to grant announced

Effective date: 20130916

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: KOCH, RUDOLF

Owner name: WATERMANN, FRANZ-JOSEF

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC NL PL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL BA HR MK RS

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: AT

Ref legal event code: REF

Ref document number: 694853

Country of ref document: AT

Kind code of ref document: T

Effective date: 20141115

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

Ref country code: DE

Ref legal event code: R083

Ref document number: 502006014053

Country of ref document: DE

RIN2 Information on inventor provided after grant (corrected)

Inventor name: WATERMANN, FRANZ JOSEF

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 502006014053

Country of ref document: DE

Effective date: 20141218

REG Reference to a national code

Ref country code: NL

Ref legal event code: T3

REG Reference to a national code

Ref country code: LT

Ref legal event code: MG4D

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150305

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150305

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150206

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

RAP2 Party data changed (patent owner data changed or rights of a patent transferred)

Owner name: WATERMANN, FRANZ-JOSEF

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 502006014053

Country of ref document: DE

REG Reference to a national code

Ref country code: GB

Ref legal event code: 732E

Free format text: REGISTERED BETWEEN 20150730 AND 20150805

REG Reference to a national code

Ref country code: DE

Ref legal event code: R082

Ref document number: 502006014053

Country of ref document: DE

Representative=s name: DREISS PATENTANWAELTE PARTG MBB, DE

Ref country code: DE

Ref legal event code: R081

Ref document number: 502006014053

Country of ref document: DE

Owner name: WATERMANN, FRANZ-JOSEF, DE

Free format text: FORMER OWNERS: KOCH, RUDOLF, 48165 MUENSTER, DE; WATERMANN, FRANZ-JOSEF, 48268 GREVEN, DE

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 10

26N No opposition filed

Effective date: 20150806

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150918

Ref country code: MC

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

REG Reference to a national code

Ref country code: CH

Ref legal event code: PL

REG Reference to a national code

Ref country code: IE

Ref legal event code: MM4A

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LI

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20150930

Ref country code: CH

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20150930

Ref country code: IE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20150918

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 11

REG Reference to a national code

Ref country code: AT

Ref legal event code: MM01

Ref document number: 694853

Country of ref document: AT

Kind code of ref document: T

Effective date: 20150918

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20150918

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

Ref country code: HU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT; INVALID AB INITIO

Effective date: 20060918

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20150930

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20141105

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 12

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 13

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230525

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: NL

Payment date: 20230920

Year of fee payment: 18

Ref country code: GB

Payment date: 20230919

Year of fee payment: 18

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20230918

Year of fee payment: 18

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: IT

Payment date: 20230929

Year of fee payment: 18

Ref country code: DE

Payment date: 20231117

Year of fee payment: 18