WO2011067249A1 - Verfahren und vorrichtung zur anpassung von bildinformationen eines optischen systems - Google Patents

Verfahren und vorrichtung zur anpassung von bildinformationen eines optischen systems Download PDF

Info

Publication number
WO2011067249A1
WO2011067249A1 PCT/EP2010/068524 EP2010068524W WO2011067249A1 WO 2011067249 A1 WO2011067249 A1 WO 2011067249A1 EP 2010068524 W EP2010068524 W EP 2010068524W WO 2011067249 A1 WO2011067249 A1 WO 2011067249A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
optical system
standard image
standard
information
Prior art date
Application number
PCT/EP2010/068524
Other languages
English (en)
French (fr)
Inventor
Karsten Muehlmann
Alexander Wuerz-Wessel
Klaus-Guenther Fleischer
Marcus Lorei
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Priority to EP10788289A priority Critical patent/EP2507765A1/de
Priority to CN2010800546843A priority patent/CN102640183A/zh
Publication of WO2011067249A1 publication Critical patent/WO2011067249A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • the present invention relates to a method for adapting image information of an optical system and to a corresponding device and a corresponding computer program product.
  • the measurement programs applied to the image must be completely modified to accommodate the new features of the optical system, such as the optical system.
  • Image resolution pixel / degree, aperture angle, ...), contrast properties of the image, effects of camera control, etc. catch.
  • Certain algorithms can be parameterized depending on the image. However, this requires that the current image is analyzed in the arithmetic units and stored in the memory, so that subsequent processing steps can be parameterized on the image. This creates memory bandwidth and memory requirements that must be realized in the system and incur costs.
  • DE 102 02 163 A1 discloses a method and an apparatus for image processing as well as a night vision system for motor vehicles, in which a sensitive in the near infrared standard camera delivers images on one opposite the lower resolution camera display means are displayed.
  • Image processing can improve the raw images of the sensor by means of image sharpening methods and / or contrast enhancement methods, so that a display on a display means is made possible for viewing by a viewer.
  • the present invention provides a method for adapting image information of an optical system to at least one postprocessing algorithm, furthermore a device which uses this method, and finally a corresponding computer program product according to the independent patent claims.
  • Advantageous embodiments emerge from the respective subclaims and the following description.
  • the invention is based on the provision of a separation between an optical system and the subsequent image-based measuring programs.
  • an image abstraction layer a so-called image abstraction layer (IAL)
  • IAL image abstraction layer
  • Abstraction Layer is a "standard image" that is realized largely independent of the optical system
  • Image but it can also be several images that are derived from the original image. Further, the images may not only be images in the classical sense, but may also represent image-based maps of preprocessing levels.
  • Output data of the optical system are intensity values as a data stream, whereby the data stream can be evaluated as stream or in combination with the image width as image.
  • the image can be processed before being processed by the IAL
  • Algorithm be stored in memory.
  • the pixel stream can be direct be evaluated. Depending on the severity, this represents the interface between the optical system (imager) and the IAL.
  • the output data of the IAL are again pixel streams or images which can be stored in the memory or processed directly afterwards. This is application and timing dependent.
  • the IAL can be implemented both in hardware and in software. Since the methods are used depending on the application, programmable logic, for example in the form of an FPGA, is suitable for a hardware implementation. When implemented in software, this usually takes place on freely programmable microcontrollers.
  • One of the norm images may be a reconstruction of the lens aberrations.
  • data are obtained by measuring the optical system, which describe the optical errors of the lens system.
  • correction rules for the original image for example in the form of pixel shifts, can be calculated with the aid of the models of the optical errors. If implemented properly, these pixel shifts can be realized in the FPGA.
  • the pixel shift creates an image that has structurings that do not originate in the observed scene but in the pixel shift. Therefore, after the shift, a smoothing of the image is calculated, e.g. a bilinear interpolation.
  • the original image is first stored in memory and then the pixel shift in the FPGA is calculated.
  • the result of the pixel shift is then further processed directly in the FPGA as pixel stream in the smoothing and then stored in memory.
  • This standard image differs from the original image due to lens aberration effects.
  • With appropriate design of the method can be abstracted here from the lens aberrations, resulting in an advantage of the IAL.
  • Another standard image may be one with evaluated color information.
  • a pattern of color filters can be applied to the imager, depending on the application, the pattern may be different. Patterns such as red intensity intensity intensity (no filter), so-called R3I, red-green-blue intensity (RGBl), cyan intensity intensity intensity (C3I), or the like can be displayed on a 2x2 pixel area , be used.
  • the pattern can be used to derive information on the "rottenness" of the pixel, ie we compare white locally with red and evaluate red relative to white.
  • the method differs depending on the imager pattern used, but the result is Depending on the pattern used, a more or less large image area is evaluated by one pixel and a measure of redness is generated, which results are stored as an image in the memory.
  • the postprocessing algorithms can then Accessing this image for red classification, eg an algorithm for detecting traffic signs (speed limits with red border), can classify pixel-white the boundary pixels of the detected sign on the basis of the red image.
  • suitable further methods can be combined.
  • the methods of image formation can e.g. a dead pixel correction, which is corrected by interpolation from surrounding pixels (pixels), or a fixed-pattem noise correction, which is corrected by adjusting the color values based on tabulated correction values.
  • the suitable methods may be, for example, the lens error, the
  • the aim of the combination is to produce the standard image in certain narrow quality measures and to determine the quality measures.
  • Exemplary quality measures include histograms of the gray value distribution, frequency analyzes of the image, changes in the frequency spectrum over time, etc.
  • the length of the edge segments can be used as a measure of quality.
  • An edge standard image is e.g. the basis for a track application in the vehicle sector. Gradients per pixel are calculated and weighted in the image. The decay rating is used to categorize the gradients.
  • the categorized gradients per pixel are concatenated into edges, with the categorization of the gradients deciding on the chaining or discontinuation of the chain formation.
  • the middle Length of the chains and the distribution of chain lengths around the mean used as CD measure.
  • the threshold values for the following image are then set. This image abstraction ensures that the subsequent spur algorithm can calculate with consistent quality and compensation of the edge information in the image.
  • the quality measures can then be used to parameterize the subsequent algorithms, as explained for example with reference to the embodiment of the edge image.
  • optical system As a whole. This in turn can be used to increase system availability e.g. to monitor in the context of a security concept.
  • the adjustment of the edge image is for a certain duration or permanently at the stop, i. the average length of the chains can not be adjusted, then this is due to an impairment of the optical system, e.g. To close a contamination of the field of view or a failure of the imager.
  • This type of blindness detection can be part of a security concept and build on the edge image.
  • the measuring programs "track detection” and "traffic sign recognition in the dark” can be cited. Traffic sign recognition requires images with as little motion blur as possible in order to classify the signs, since otherwise, for example, numbers in traffic signs be identified. Since on the functional side the availability of the function over the speed range of the vehicle can not be limited, this leads to the requirement of short exposure times. On the other hand, the track recognition relies on contrast, which is ultimately implemented by long exposure times. Ultimately, however, the long exposure time is not a requirement of lane measurement.
  • filters for determining the standard image which, as in the example, illustrate track and traffic sign recognition, e.g. also with short exposure times contrast-enhancing effect, analogous to the procedure with Night Vision, however not for the optimized view of the picture by humans, but adapted to the requirements of the measuring programs or post-processing algorithms.
  • the Image Abstraction Layer can also contain multiple images and / or display image-based maps of filter results.
  • the traffic image, the edge image for a lane measurement and the lens error correction for traffic signs and lane measurement can be used.
  • a system can be scaled in its performance by selection and combination of optics and imagers without the need to fundamentally reorient the image processing system components. Furthermore, functions with possibly very different requirements for the design of system components can be combined with each other.
  • the present invention provides a method for matching image information of an optical system to quality measurement requirements, at least one post-processing algorithm, comprising the steps of: receiving image information via a receiving interface, the image information comprising intensity values provided by the optical system; and determining at least one standard image from the image information using a combination of at least one image generation method and a method for image correction and / or a method for image evaluation, so that the at least one standard image meets the quality requirements of the at least one post-processing algorithm.
  • the optical system may include an image capture device or camera, or may be an imager.
  • the optical system may be a video-based system of a vehicle.
  • the optical system can detect a surrounding area of the vehicle and provide corresponding image information about the surrounding area via the receiving cut parts for further processing to the method according to the invention.
  • the image information may include one or more raw images.
  • the raw image (s) may be provided by the optical system, such as an imager or imager.
  • the intensity values may relate to a brightness of an image relating to the image information and may be related to color channels.
  • the image information can be changed or adapted to meet the quality requirements.
  • a raw image that does not meet the quality requirements can be used to produce the standard image that meets the quality requirements.
  • certain image parameters or image properties can be adapted.
  • the at least one post-processing algorithm that meets the quality requirements may be an algorithm implemented by a driver assistance system. For example, it may be an algorithm for traffic sign recognition or lane recognition.
  • the standard image based on the image information of the optical system may represent an input of the postprocessing algorithm.
  • the standard image can be provided via an output interface to the postprocessing algorithm, or to a device that implements the postprocessing algorithm.
  • the postprocessing algorithm sets the predetermined quality requirements.
  • the predetermined quality measure requirements may be specific to one or a group of post-processing algorithms.
  • the methods can be designed to determine the standard image independently of the optical system and thus independently of the image information so that the standard image has a quality measure that meets the quality requirements.
  • the quality measure requirements define a scope for acceptable quality measures.
  • the quality measure requirements can represent limits for image parameters. Such image parameters can refer to the edge length of edge segments, the gray value distribution or the frequency spectrum.
  • the at least one post-processing algorithm can be designed to perform traffic sign recognition and / or track detection based on the standard image.
  • the at least one method of image generation may comprise a pixel interpolation and / or a color value adjustment.
  • properties of the imager can be taken into account both in the static and in the dynamic range. For example, a temperature-dependent
  • the method for image correction can be designed to correct an error of a lens system of the optical system. Based on the image information, a lens aberration corrected standard image can be determined. In this way, image interference caused by lens aberration can be eliminated before the standard image is post processed by the postprocessing algorithm.
  • the method for image evaluation can be designed to evaluate a color information or a structure profile of the image information.
  • the color information may be relevant for traffic sign recognition, for example. Der Strukturverlauf can represent an edge course, which can be relevant for a track recognition.
  • the method for image evaluation can thus be designed to determine values of a color measure for different image regions based on the image information in order to determine the standard image based on the values of the color measurement.
  • An image area can represent a region around a pixel.
  • the color measure can be determined, for example, for the color red.
  • the method for image evaluation may be designed to determine an edge information based on the image information and an edge standard image based on the edge information.
  • the edge standard image or edge image represents a map.
  • data is stored which, for example, contains edge information with associated predecessors and successors, e.g. the horizontal distance of the next pixel in the line above or below.
  • This represents an image-based or image-point-oriented map whose data does not correspond to the intensity data of an image.
  • the quality measure requirements may make demands on an edge length of edge segments of the edge standard image.
  • the quality measure requirements may include histograms of a gray value distribution of the standard image, frequency analyzes of the standard image, and / or changes in the frequency spectrum of the standard image over time.
  • the knowledge of the exact quality measure can be used in different ways.
  • the quality measure can be used to monitor the optical system. Additionally or alternatively, the quality measure can be used to parameterize the at least one postprocessing algorithm.
  • the method according to the invention may comprise a step of evaluating at least one standard image in order to monitor a functionality of the optical system.
  • a first standard image may be determined that satisfies the quality measurement requirements of a first postprocessing algorithm and that determines a second standard image that meets the quality measurement requirements of a second postprocessing algorithm.
  • the determination of the first and the second standard image can be carried out in parallel or in succession become.
  • the different standard images can be determined, for example, with respect to the lens aberration correction, the edge image or the red image.
  • the lens aberration correction and the red image can be calculated in parallel because the red image on the original image must be calculated. Otherwise, lens aberration correction and, above all, the interpolation for smoothing the color information, e.g. Red and white at R3I, inseparably mixed.
  • the red image must then subsequently be shifted in accordance with the lens aberration correction rules, otherwise the image positions will no longer match.
  • the edge information is then subsequently calculated on the lens error corrected image. This ensures that the respective position data in the standard images of the IAL are physically identical in origin.
  • the present invention further provides a device which is designed to carry out or implement the steps of the method according to the invention. Also by this embodiment of the invention in the form of a device, the object underlying the invention can be solved quickly and efficiently.
  • Also of advantage is a computer program product with program code, which is stored on a machine-readable carrier such as a semiconductor memory, a hard disk memory or an optical memory and is used to carry out the method according to one of the embodiments described above, when the program is executed on a device.
  • a machine-readable carrier such as a semiconductor memory, a hard disk memory or an optical memory
  • Fig. 1 is a block diagram of an embodiment of the present invention.
  • Fig. 2 is a flowchart of another embodiment of the present invention.
  • the same or similar reference numerals are used for the elements shown in the various figures and similar acting, wherein a repeated description of these elements is omitted.
  • FIG. 1 shows a schematic representation of an optical system 101, a postprocessing algorithm 103 and a device 105 for adapting image information of the optical system 101 to the postprocessing algorithm 103, according to an exemplary embodiment of the present invention.
  • the device 105 can be embodied as a control device and configured to perform or implement the method according to the invention for adjusting image information.
  • the device 105 may provide a standard image as a defined interface between the optical system 101 and the post-processing algorithm 105.
  • the device 105 may include a receiving interface for receiving image information of the optical system 101. Based on the image information, the device 105 can be designed to determine a standard image. For this purpose, the device 105 may be designed to carry out a combination of image generation methods and further suitable methods in order to determine the standard image from the image information such that the standard image fulfills predetermined quality measurement requirements of the at least one postprocessing algorithm 105.
  • the device 105 can have an output section via which the standard image can be provided to the postprocessing algorithm 105.
  • the device 105 may represent an image abstraction layer disposed between the optical system 101 and the post-processing algorithm 105. 2 shows a flow chart of a method for adapting image information of an optical system to at least one post-processing algorithm, according to an embodiment of the present invention.
  • a first step 201 image information is received via a reception interface.
  • the image information may be provided by the optical system 101 shown in FIG. 1, for example.
  • a standard image is determined from the image information. The determination may be carried out, for example, in the device 105 shown in FIG. 1.
  • the processing algorithms can be designed so as to be parameterizable and robust, so that they can cope with strongly fluctuating input signals, for example images of very different optical systems and imagers.
  • the input signal can be processed so that it only fluctuates very little after processing depending on the optical system. Then the processing algorithms, e.g. for lane detection, be specified within narrower limits.
  • the inventive approach can be used in a video ASSP.
  • the standard image can be used to ensure that, with hardware-defined post-processing algorithms, it can be ensured that the system still works with a series of possibly even unknown optics-imager combinations.
  • a defined interface is created by the standard image, through which the parameterability of the algorithms is no longer required. This is advantageous, since such parameterability in the hardware has to be paid in part directly with chip area. This problem can be solved by the defined interface
  • a standard image can be created by processing a raw image, which separates the optical system from the processing system.
  • image access is not standardized so that, no matter in what coding the raw image is present (for example, JPEG, GIF, BMP, ...) can always be accessed by a plugin the same, but there is a processing of the raw image instead.

Abstract

Es wird ein Verfahren zur Anpassung von Bildinformationen eines optischen Systems (101) an Qualitätsmaßanforderungen mindestens einen nachverarbeitenden Algorithmus (103) vorgeschlagen, das einen Schritt des Empfangens einer Bildinformation über eine Empfangsschnittstelle aufweist, wobei die Bildinformation von dem optischen System bereitgestellte Intensitätswerte umfasst. Es folgt ein Bestimmen (205) mindestens eines Normbildes aus der Bildinformation unter Einsatz einer Kombination aus mindestens einer Methode der Bilderzeugung und einer Methode zur Bildkorrektur oder Bildauswertung, so dass das mindestens eine Normbild die Qualitätsmaßanforderungen des mindestens einen nachverarbeitenden Algorithmus erfüllt.

Description

Beschreibung Titel
Verfahren und Vorrichtung zur Anpassung von Bildinformationen eines optischen Systems
Stand der Technik
Die vorliegende Erfindung bezieht sich auf ein Verfahren zur Anpassung von Bildinformationen eines optischen Systems sowie auf eine entsprechende Vorrichtung und ein entsprechendes Computerprogrammprodukt.
Beim Auswechseln der Optik oder des Bildwandlers (Imagers) eines optischen Systems, müssen die auf das Bild aufsetzende Messprogramme von Grund auf angepasst werden, um die neuen Eigenschaften des optischen System, wie z.B. Bildauflösung (Pixel/Grad, Öffnungswinkel, ...), Kontrasteigenschaften des Bildes, Auswirkungen der Kameraregelung, etc. aufzufangen. Gewissen Algorithmen können bildabhängig parametriert werden. Dies erfordert aber, dass das aktuelle Bild in den Recheneinheiten analysiert und im Speicher abgelegt wird, damit nachfolgend Verarbeitungsschritte auf das Bild parametriert werden können. Dies erzeugt Speicherbandbreiten- und Speicheranforderungen, die im System realisiert werden müssen und Kosten verursachen.
Eigenschaften des Bildwandlers sowohl im statischen (z.B. Dead Pixel) als auch im dynamischen Bereich (z.B. temperaturabhängige Korrektur des Fixed Pattern Noise) werden derzeit durch geeignete Maßnahmen angepasst. Dies geschieht jedoch auf Basis einer Analyse der Hardware des optischen Systems und vernachlässigt wesentlich die Aspekte und Anforderungen der Messprogramme.
Die DE 102 02 163 A1 offenbart ein Verfahren und eine Vorrichtung zur Bildverarbeitung sowie ein Nachtsichtsystem für Kraftfahrzeuge, bei dem eine im nahen Infrarot empfindliche Standardkamera Bilder liefert, die auf einem gegenüber der Kamera geringere Auflösung aufweisenden Anzeigemittel angezeigt werden. Eine Bildverarbeitung kann die Rohbilder des Sensors mittels Bildschärfungsver- fahren und/oder Kontrastverstärkungsverfahren verbessern, so dass eine Anzeige auf einem Anzeigemittel zur Betrachtung durch einen Betrachter ermöglicht wird.
Algorithmen wie Night Vision verbessern das Bild im Hinblick auf eine konkrete Anwendung, hier die Betrachtung des Bildes durch den Menschen. Offenbarung der Erfindung
Vor diesem Hintergrund wird mit der vorliegenden Erfindung ein Verfahren zur Anpassung von Bildinformationen eines optischen Systems an mindestens einen nachverarbeitenden Algorithmus, weiterhin eine Vorrichtung, die dieses Verfah- ren verwendet sowie schließlich ein entsprechendes Computerprogrammprodukt gemäß den unabhängigen Patentansprüchen vorgestellt. Vorteilhafte Ausgestaltungen ergeben sich aus den jeweiligen Unteransprüchen und der nachfolgenden Beschreibung. Die Erfindung basiert auf der Schaffung einer Trennung zwischen einem optischen System und den nachfolgenden bildbasierten Messprogrammen.
Erfindungsgemäß wird in einem System eine Bild-Abstraktions-Schicht, ein sogenannter Image Abstraction Layer (IAL) eingeführt, der das optische System und die nachverarbeitenden Algorithmen trennt. In diesem Sinne stellt der Image
Abstraction Layer ein„Normbild" dar, das weitestgehend unabhängig vom optischen System realisiert wird. Dabei ist unter dem Normbild nicht nur ein
Bild zu verstehen, sondern es können auch mehrere Bilder sein, die aus dem Originalbild abgeleitet sind. Ferner können die Bilder nicht nur Bilder im klassi- sehen Sinne sein, sondern können auch bildbasierte Karten von Vorverarbeitungsstufen darstellen.
Ausgangsdaten des optischen Systems sind Intensitätswerte als Datenstrom, wobei der Datenstrom als Strom oder in Kombination mit der Bildbreite als Bild ausgewertet werden kann. Das Bild kann vor Prozessierung durch den IAL-
Algorithmus im Speicher abgelegt werden. Alternativ kann der Pixelstrom direkt ausgewertet werden. Je nach Ausprägung stellt dies die Schnittstelle zwischen optischen System (Imager) und IAL dar. Die Ausgangsdaten des IAL sind wiederum Pixelströme oder Bilder, die im Speicher abgelegt oder direkt nachfolgend bearbeitet werden können. Dies ist anwendungs- und timingabhängig.
Der IAL kann sowohl in Hardware wie auch in Software realisiert werden. Da die Methoden in Abhängigkeit von der Anwendung eingesetzt werden, bietet sich für eine Hardware-Umsetzung programmierbare Logik, beispielsweise in Form eines FPGA an. Bei der Umsetzung in Software findet diese üblicherweise auf frei programmierbaren Mikrokontrollern statt.
Eines der Normbilder kann eine Rekonstruktion der Linsenfehler sein. Dabei werden durch Vermessung des optischen Systems Daten gewonnen, die die optischen Fehler des Linsensystems beschreiben. Aus diesen lassen sich mit Hilfe der Modelle der optischen Fehler Korrekturvorschriften für das Originalbild, beispielsweise in Form von Pixelverschiebungen, berechnen. Bei geeigneter Implementierung lassen sich diese Pixelverschiebungen im FPGA realisieren. Durch die Pixelverschiebung entsteht ein Bild, welches Strukturierungen aufweist, die ihren Ursprung nicht in der beobachteten Szene haben, sondern in der Pixelverschiebung. Deshalb wird nach der Verschiebung eine Glättung des Bildes gerechnet, z.B. eine bilineare Interpolation. In diesem konkreten Fall wird das Originalbild zunächst im Speicher abgelegt und dann die Pixelverschiebung im FPGA gerechnet. Das Ergebnis der Pixelverschiebung wird dann direkt im FPGA als Pixelstrom in der Glättung weiterverarbeitet und dann im Speicher abgelegt. Diese Normbild unterscheidet sich vom Originalbild durch die Linsenfehlereffekte. Bei entsprechender Auslegung des Verfahrens kann hier von den Linsenfehlern abstrahiert werden, wodurch sich ein Vorteil des IAL ergibt.
Ein weiteres Normbild kann eines mit ausgewerteter Farbinformation sein. Zur Aufnahme von Farbinformation kann auf dem Imager ein Muster (Pattern) von Farbfiltern aufgebracht werden, je nach Anwendung kann das Muster unterschiedlich ausgeprägt sein. Es können auf einem 2x2 Bildpixelbereich Muster wie Rot-Intensität-Intensität-Intensität (kein Filter), sog. R3I, ein Rot-Grün-Blau- Intensität (RGBl), ein Cyan-Intensität-Intensität-Intensität (C3I), oder ähnliche, verwendet werden. Auf Basis eines lokalen Weißabgleichs lassen sich aus dem Muster z.B. Information zur„Rotheit" des Bildpunktes ableiten, d.h. es wir lokal Weiß mit Rot verglichen und Rot relativ zu Weiß bewertet. Je nach eingesetztem Imager-Pattern ist das Verfahren unterschiedlich. Das Ergebnis ist jedoch vom optischen System unabhängig, wodurch sich ein Vorteil des IAL ergibt. Im konkreten Fall wird je nach eingesetztem Pattern ein mehr oder minder großer Bildbereich um einen Bildpunkt ausgewertet und ein Rotheitsmaß generiert. Diese Ergebnisdaten werden als Bild im Speicher abgelegt. Die nachverarbeitenden Algorithmen können dann auf dieses Bild zur Rotklassifikation zugreifen, z.B. ein Algorithmus zur De- tektion von Verkehrszeichen (Geschwindigkeitsbegrenzungen mit rotem Rand), kann pixelweiße die Randpixel des detektierten Schildes auf Basis des Rotheitsbildes klassifizieren.
Zur erfindungsgemäßen Realisierung können neben Methoden der Bilderzeu- gung geeignete weitere Methoden kombiniert werden. Die Methoden der Bilderzeugung können z.B. eine Dead Pixel Correction, bei der eine Korrektur durch Interpolation aus umliegenden Bildpunkten (Pixeln) erfolgt, oder eine Fixed- Pattem-Noise Correction, bei der eine Korrektur durch Anpassung der Farbwerte auf Basis von tabellarisch abgelegten Korrekturwerten erfolgt, umfassen. Die ge- eigneten Methoden können sich dabei beispielsweise auf den Linsenfehler, das
Rotheitsbild oder das Kantenbild beziehen.
Ziel der Kombination ist dabei das Normbild in gewissen engen Qualitätsmaßen zu erzeugen und die Qualitätsmaße zu bestimmen. Beispielhafte Qualitätsmaße sind dabei etwa Histogramme der Grauwertverteilung, Frequenzuntersuchungen des Bildes, Änderungen des Frequenzspektrums über die Zeit, etc.
Bei einem Kantennormbild kann die Länge der Kantensegmente als Qualiätsmaß herangezogen werden. Ein Kantennormbild ist z.B. die Grundlage für eine Spur- anwendung im Fahrzeugbereich. Im Bild werden Gradienten pro Bildpunkt berechnet und beschwellwertet. Die Beschwellwertung dient dazu, die Gradienten zu kategorisieren.
Nachfolgend werden die Kategorisierten Gradienten pro Bildpunkt zu Kanten verkettet, wobei die Kategorisierung der Gradienten über die Verkettung bzw. den Abbruch der Kettenbildung entscheidet. Nachfolgend werden die mittlere Länge der Ketten und die Verteilung der Kettenlängen um den Mittelwert als CD- Maß herangezogen. Auf Basis dieser Maße werden dann die Schwellwerte für das folgende Bild eingestellt. Über diese Bildabstraktion ist sichergestellt, dass der nachfolgende Spuralgorithmus mit einer gleichbleibenden Qualität und Ausregelung der Kanteninformation im Bild rechnen kann.
Die Qualitätsmaße können anschließend zur Parametrierung der nachfolgenden Algorithmen eingesetzt werden, wie es beispielsweise anhand der Ausführungsform des Kantenbilds erläutert ist.
Darüber hinaus ist auf Basis der Qualitätsmaße auch eine Überwachung des optischen Systems als ganzen möglich. Dies kann wiederum dazu verwendet werden die Systemverfügbarkeit z.B. im Rahmen eines Sicherheitskonzeptes zu überwachen.
Wenn die Ausregelung des Kantenbildes über eine bestimmte Dauer oder dauerhaft am Anschlag ist, d.h. die mittlere Länge der Ketten nicht eingeregelt werden kann, dann lässt dies auf eine Beeinträchtigung des optischen Systems, z.B. eine Verschmutzung des Sichtbereichs oder einen Ausfall des Imagers schließen. Diese Art Blindheitserkennung kann Teil eines Sicherheitskonzeptes sein und auf dem Kantenbild aufbauen.
Darüber hinaus können zur Bestimmung des Normbildes Methoden eingesetzt werden, die das Bild korrigieren, wie z.B. Linsenfehlerkorrekturen, eine Rück- rechnung nicht-linearer Kennlinien zum Ausgleich von Kameraregelungsartefakten und/oder eine Umsetzung von Farbbildern in Grauwertbilder.
Unterschiedliche Funktionen oder nachverarbeitende Algorithmen haben unterschiedliche Anforderungen an das Bild, welche ggf. zu Konflikten in der Auslegung von Systemkomponenten führen können. Je nach Anforderungsunterschied kann damit die Kombinierbarkeit von Funktionen stark beeinträchtigt sein. Zumindest muss dann in einigen oder allen Funktionen Performance-Einbußen hingenommen werden. Beispielhaft können die Messprogramme„Spurdetektion" und„Verkehrszeichenerkennung bei Dunkelheit" angeführt werden. Die Verkehrszeichenerkennung benötigt zur Klassifikation der Zeichen Bilder mit möglichst wenig Bewegungsunschärfe, da sonst z.B. Ziffern in Verkehrszeichen un- kenntlich werden. Da auf funktionaler Seite die Verfügbarkeit der Funktion über den Geschwindigkeitsbereich des Fahrzeugs nicht limitiert werden kann, führt dies zur Anforderung kurzer Belichtungszeiten. Die Spurerkennung hingegen ist auf Kontrast angewiesen, was letztendlich durch lange Belichtungszeiten umgesetzt. Letztendlich ist aber die lange Belichtungszeit keine Anforderung der Spurvermessung.
Um solch unterschiedlichen Anforderungen gerecht zu werden, können letztendlich zur Bestimmung des Normbildes Filter zum Einsatz kommen, die wie am Beispiel Spur- und Verkehrszeichenerkennung verdeutlicht, z.B. auch bei kurzen Belichtungszeiten kontrastverbessernd wirkend, analog zum Vorgehen bei Night Vision, allerdings nicht zur optimierten Ansicht des Bild durch den Menschen, sondern angepasst auf die Anforderungen der Messprogramme oder nachverarbeitenden Algorithmen.
Wenn ggf. die Anforderungen der zu kombinierenden Funktionen unterschiedlich sind, kann der Image Abstraction Layer auch mehrere Bilder beinhalten und/oder bildbasierte Karten von Filterergebnissen darstellen. Beispielsweise kann das Rotheitsbild für Verkehrszeichen, das Kantenbild für eine Spurvermessung und die Linsenfehlerkorrektur für Verkehrszeichen und Spurvermessung eingesetzt werden.
Vorteilhafterweise kann durch eine Realisierung des erfindungsgemäßen Ansatzes, ein System durch Auswahl und Kombination von Optiken und Bildgebern in seiner Leistungsfähigkeit skaliert werden, ohne dass die bildverarbeitenden Systemkomponenten jeweils grundlegend neu ausgerichtet werden müssen. Ferner können Funktionen mit ggf. sehr unterschiedlichen Anforderungen an die Auslegung von Systemkomponenten miteinander kombiniert werden.
Die vorliegende Erfindung schafft ein Verfahren zur Anpassung von Bildinformationen eines optischen Systems an Qualitätsmaßanforderungen mindestens einen nachverarbeitenden Algorithmus, das die folgenden Schritte umfasst: Empfangen einer Bildinformation über eine Empfangsschnittstelle, wobei die Bildinformation von dem optischen System bereitgestellte Intensitätswerte umfasst; und Bestimmen mindestens eines Normbildes aus der Bildinformation unter Einsatz einer Kombination aus mindestens einer Methode der Bilderzeugung und einer Methode zur Bildkorrektur und/oder einer Methode zur Bildauswertung, so dass das mindestens eine Normbild die Qualitätsmaßanforderungen des mindestens einen nachverarbeitenden Algorithmus erfüllt. Das optische System kann eine Bilderfassungsvorrichtung oder Kamera aufweisen oder einen Bildgeber darstellen. Beispielsweise kann es sich bei dem optischen System um ein videobasiertes System eines Fahrzeugs handeln. Das optische System kann einen Umgebungsbereich des Fahrzeugs erfassen und entsprechende Bildinformationen über den Umgebungsbereich über die Empfangs- schnittsteile zur Weiterverarbeitung an das erfindungsgemäße Verfahren bereitstellen. Die Bildinformationen können ein oder mehrere Rohbilder umfassen. Das oder die Rohbilder können von dem optischen System, beispielsweise von einem Imager oder Bildwandler bereitgestellt werden. Die Intensitätswerte können eine Helligkeit eines die Bildinformation betreffenden Bildes betreffen und gegebenen- falls auf Farbkanäle bezogen sein. Mittels der eingesetzten Methoden der Bilderzeugung, der Bildkorrektur oder der Bildauswertung können die Bildinformationen so verändert oder angepasst werden, dass sie den Qualitätsanforderungen genügen. Es kann also beispielsweise aus einem Rohbild, das die Qualitätsanforderungen nicht erfüllt, das Normbild erzeugt werden, das die Qualitätsanforde- rungen erfüllt. Dazu können bestimmte Bildparameter oder Bildeigenschaften angepasst werden. Bei dem mindestens einen nachverarbeitenden Algorithmus, der die die Qualitätsanforderungen erfüllt, kann es sich um einen Algorithmus handeln, der von einem Fahrerassistenzsystem umgesetzt wird. Beispielsweise kann es sich um einen Algorithmus zur Verkehrszeichenerkennung oder Fahr- spurerkennung handeln. Das Normbild, das auf den Bildinformationen des optischen Systems basiert, kann eine Eingangsgröße des nachverarbeitenden Algorithmus darstellen. Dazu kann das Normbild über eine Ausgangsschnittstelle an den nachverarbeitenden Algorithmus, oder an eine Vorrichtung, die den nachverarbeitenden Algorithmus umsetzt, bereitgestellt werden. Um das Normbild weiterzuverarbeiten können, werden vom nachverarbeitenden Algorithmus die vorbestimmten Qualitätsmaßanforderungen gestellt. Die vorbestimmten Qualitätsmaßanforderungen können speziell auf einen oder auf eine Gruppe nachverarbeitender Algorithmen abgestimmt sein. Die Methoden können ausgebildet sein, um das Normbild unabhängig vom optischen System und somit unabhängig von den Bildinformationen so zu bestimmen, dass das Normbild ein Qualitätsmaß aufweist, das die Qualitätsmaßanforderungen erfüllen. Beispielsweise kön- nen die Qualitätsmaßanforderungen einen Gültigkeitsbereich für zulässige Qualitätsmaße definieren. Die Qualitätsmaßanforderungen können Grenzwerte für Bildparameter darstellen. Solche Bildparameter können sich auf die Kantenlänge von Kantensegmenten, die Grauwertverteilung oder das Frequenzspektrum be- ziehen.
Beispielsweise kann der mindestens eine nachverarbeitende Algorithmus ausgebildet sein, um basierend auf dem Normbild eine Verkehrszeichenerkennung und/oder eine Spurdetektion durchzuführen. Dadurch, dass über die Kombination der Methoden gewährleistet wird, das das Normbild unabhängig von dem eingesetzten optischen System die Qualitätsmaßanforderungen des mindestens einen nachverarbeitenden Algorithmus erfüllt, kann das Normbild ohne weitere Nachbearbeitung oder Anpassung von dem mindestens einen nachverarbeitenden Algorithmus weiterverarbeitet werden. Auch ist keine Anpassung des nachverarbei- tenden Algorithmus an das aktuell eingesetzte optische System erforderlich.
Die mindestens eine Methode der Bilderzeugung kann eine Bildpunktinterpolation und/oder eine Farbwerteanpassung umfassen. Dadurch können beispielsweise Eigenschaften des Bildgebers sowohl im statischen als auch im dynamischen Bereich berücksichtigt werden. Beispielsweise kann eine temperaturabhängige
Korrektur von festgelegten periodischen Störungen (Fixed Pattern Noise) durchgeführt werden.
Die Methode zur Bildkorrektur kann ausgebildet sein, um einen Fehler eines Lin- sensystems des optischen Systems zu korrigieren. Basierend auf der Bildinformation kann ein linsenfehlerkorrigiert.es Normbild bestimmt werden. Auf diese Weise können durch Linsenfehler hervorgerufene Bildstörungen eliminiert werden, bevor das Normbild von dem nachverarbeitenden Algorithmus nachverarbeitet wird.
Die Methode zur Bildauswertung kann ausgebildet sein, um eine Farbinformation oder einen Strukturverlauf der Bildinformation auszuwerten. Die Farbinformation kann beispielweise für eine Verkehrszeichenerkennung relevant sein. Der Der Strukturverlauf kann einen Kantenverlauf repräsentieren, der für eine Spurerken- nung relevant sein kann. Gemäß einer Ausführungsform kann die Methode zur Bildauswertung somit ausgebildet sein, um für unterschiedliche Bildbereiche basierend auf der Bildinformation Werte eines Farbmaßes zu ermitteln um das Normbild basierend auf den Werten des Farbmaßes zu bestimmen. Ein Bildbereich kann eine Region um einen Bildpunkt darstellen. Das Farbmaß kann beispielsweise für die Farbe Rot bestimmt werden.
Alternativ oder zusätzlich kann die Methode zur Bildauswertung ausgebildet sein, um basierend auf der Bildinformation eine Kanteninformation und basierend auf der Kanteninformation ein Kantennormbild zu bestimmen. Das Kantennormbild oder Kantenbild stellt eine Karte dar. Darin sind Daten abgelegt, die beispielsweise Kanteninformationen mit verbundenen Vorgängern und Nachfolgern, z.B. der horizontale Abstand des nächsten Bildpunktes in der Zeile darüber oder darunter, umfassen. Diese stellt eine bildbasierte oder bildpunktkoordinatenorientier- te Karte dar, deren Daten nicht den Intensitätsdaten eines Bildes entsprechen. In diesem Fall können die Qualitätsmaßanforderungen Anforderungen an eine Kantenlänge von Kantensegmenten des Kantennormbilds stellen.
Generell können die Qualitätsmaßanforderungen Histogramme einer Grauwertverteilung des Normbildes, Frequenzuntersuchungen des Normbildes, und/oder Änderungen des Frequenzspektrums des Normbildes über die Zeit umfassen. Die Kenntnis des exakten Qualitätsmaßes kann auf unterschiedliche Art und Weise genutzt werden. Beispielsweise kann das Qualitätsmaß verwendet werden, um das optische System zu überwachen. Zusätzlich oder alternativ kann das Qualitätsmaß verwendet werden, um den mindestens einen nachverarbeitenden Algorithmus zu parametrieren.
Gemäß einer Ausführungsform kann das erfindungsgemäße Verfahren einen Schritt des Auswertens mindestens eines Normbildes umfassen, um eine Funktionalität des optischen Systems zu überwachen.
Im Schritt des Bestimmens kann ein erstes Normbildbestimmt werden, das die Qualitätsmaßanforderungen eines ersten nachverarbeitenden Algorithmus erfüllt und ein zweites Normbild bestimmt werden, das die Qualitätsmaßanforderungen eines zweiten nachverarbeitenden Algorithmus erfüllt. Die Bestimmung des ersten und des zweiten Normbildes kann parallel oder nacheinander ausgeführt werden. Durch die Bestimmung unterschiedlicher Normbilder können unterschiedliche Anforderungen unterschiedlicher nachverarbeitender Algorithmen berücksichtigt werden.
Die unterschiedlichen Normbilder können beispielsweise in Bezug auf die Linsenfeh lerkorrektur, das Kantenbild oder das Rotheitsbild bestimmt werden. Die Linsenfeh lerkorrektur und das Rotheitsbild können parallel berechnet werden, da das Rotheitsbild auf dem Originalbild berechnet werden muss. Ansonsten wird durch die Linsenfehlerkorrektur und vor allem die Interpolation zur Glättung die Farbinformation z.B. Rot und Weiß bei R3I, untrennbar vermischt. Das Rotheitsbild muss dann nachfolgend entsprechend der Verschiebungsvorschriften für die Linsenfehlerkorrektur verschoben, da sonst die Bildpositionen nicht mehr übereinstimmen. Die Kanteninformation wird dann nachfolgend auf dem linsenfehler- korrigierten Bild berechnet. So ist sichergestellt, dass die jeweiligen Positionsangaben in den Normbilder des IAL physikalisch im Ursprung übereinstimmen.
Die vorliegende Erfindung schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte des erfindungsgemäßen Verfahrens durchzuführen bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
Von Vorteil ist auch ein Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert ist und zur Durchführung des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, wenn das Programm auf einer Vorrichtung ausgeführt wird.
Die Erfindung wird nachstehend anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:
Fig. 1 ein Blockschaltbild eines Ausführungsbeispiels der vorliegenden Erfindung; und
Fig. 2 ein Ablaufdiagramm eines weiteren Ausführungsbeispiels der vorliegenden Erfindung. In der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwen- det, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
Fig. 1 zeigt eine schematische Darstellung eines optischen Systems 101 , eines nachverarbeitenden Algorithmus 103 und eine Einrichtung 105 zur Anpassung von Bildinformationen des optischen Systems 101 an den nachverarbeitenden Algorithmus 103, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
Die Einrichtung 105 kann als Steuergerät ausgeführt sein, und ausgebildet sein, um das erfindungsgemäße Verfahren zur Anpassung von Bildinformationen durchzuführen oder umzusetzen. Insbesondere kann die Einrichtung 105 ein Normbild als definierte Schnittstelle zwischen dem optischen System 101 und dem nachverarbeitenden Algorithmus 105 bereitstellen.
Die Einrichtung 105 kann eine Empfangsschnittstelle zum Empfangen einer Bildinformation des optischen Systems 101 aufweisen. Basierend auf der Bildinformation kann die Einrichtung 105 ausgebildet sein, um ein Normbildes zu be- stimmen. Dazu kann die Einrichtung 105 ausgebildet sein, um eine Kombination aus Methoden der Bilderzeugung und weiteren geeigneten Methoden auszuführen, um das Normbild so aus der Bildinformation zu bestimmen, das das Normbild vorbestimmte Qualitätsmaßanforderungen des mindestens einen nachverarbeitenden Algorithmus 105 erfüllt. Die Einrichtung 105 kann eine Ausgabe- schnittsteile aufweisen, über die das Normbild an den nachverarbeitenden Algorithmus 105 bereitgestellt werden kann. Somit kann die Einrichtung 105 ein Image Abstraction Layer darstellen, das zwischen dem optischen System 101 und dem nachverarbeitenden Algorithmus 105 angeordnet ist. Fig. 2 zeigt ein Ablaufdiagramm eines Verfahrens zur Anpassung von Bildinformationen eines optischen Systems an mindestens einen nachverarbeitenden Algorithmus, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
In einem ersten Schritt 201 erfolgt ein Empfangen einer Bildinformation über eine Empfangsschnittstelle. Die Bildinformation kann beispielsweise von dem in Fig. 1 gezeigten optischen System 101 bereitgestellt werden. In einem zweiten Schritt 205 erfolgt ein Bestimmen eines Normbildes aus der Bildinformation. Die Bestimmung kann beispielsweise in der in Fig. 1 gezeigten Einrichtung 105 ausgeführt werden.
Um beispielsweise auf ein Auswechseln der Optik oder des Bildgebers angemessen reagieren zu können, können grundsätzlich zwei Wege gewählt werden. Zum einen können die verarbeitenden Algorithmen so parameterbar und robust ausgelegt sein, dass sie mit stark schwankenden Eingangssignalen, beispielsweise Bildern von sehr unterschiedlichen optischen Systemen und Bildgebern zurechtkommen. Zum anderen kann das Eingangssignal dahingehend bearbeitet werden, dass es nach der Bearbeitung in Abhängigkeit vom optischen System nur noch sehr wenig schwankt. Dann können die verarbeitenden Algorithmen, z.B. zur Spurerkennung, in engeren Grenzen festgelegt werden.
Erfindungsgemäß wird die Variante der Bearbeitung des Eingangssignals umgesetzt. Der erfindungsgemäße Ansatz kann bei einem Video-ASSP eingesetzt werden. Durch das Normbild kann dabei gewährleistet werden, dass bei in Hardware festgelegten nachverarbeitenden Algorithmen sicherstellen werden kann, dass das System mit einer Reihen ggf. sogar unbekannten Optiken- Bildgebern-Kombinationen immer noch funktioniert. Durch den erfindungsgemäßen Ansatz wird durch das Normbild eine definierte Schnittstelle geschaffen, durch die die Parametrierbarkeit der Algorithmen nicht mehr erforderlich ist. Dies ist vorteilhaft, da eine solche Parametrierbarkeit in der Hardware teilweise direkt mit Chipfläche bezahlt werden muss. Dieses Problem kann durch die definierte Schnittstelle gelöst werden
Erfindungsgemäß kann durch eine Bearbeitung eines Rohbilds ein Normbild erstellt werden, das das optische System vom verarbeitenden System trennt. Es wird also nicht der Bildzugriff standardisiert, so dass, egal in welcher Kodierung das Rohbild vorliegt (z.B. JPEG, GIF, BMP, ...) durch ein Plugin immer gleich zugegriffen werden kann, sonder es findet eine Verarbeitung des Rohbilds statt.
Durch die erfindungsgemäße Schnittstelle können unterschiedliche Kameras und unterschiedliche Algorithmen beliebig kombiniert werden. Die beschriebenen und in den Figuren gezeigten Ausführungsbeispiele sind nur beispielhaft gewählt. Unterschiedliche Ausführungsbeispiele können vollständig oder in Bezug auf einzelne Merkmale miteinander kombiniert werden. Auch kann ein Ausführungsbeispiel durch Merkmale eines weiteren Ausführungsbeispiels ergänzt werden. Ferner können erfindungsgemäße Verfahrensschritte wiederholt sowie in einer anderen als in der beschriebenen Reihenfolge ausgeführt werden. Umfasst ein Ausführungsbeispiel eine„und/oder" Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so kann dies so gelesen werden, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.

Claims

Ansprüche
1 . Verfahren zur Anpassung von Bildinformationen eines optischen Systems (101 ) an Qualitätsmaßanforderungen mindestens einen nachverarbeitenden Algorithmus (103), das die folgenden Schritte umfasst:
Empfangen (201 ) einer Bildinformation über eine Empfangsschnittstelle, wobei die Bildinformation von dem optischen System bereitgestellte Intensitätswerte umfasst; und
Bestimmen (205) mindestens eines Normbildes aus der Bildinformation unter Einsatz einer Kombination aus mindestens einer Methode der Bilderzeugung und einer Methode zur Bildkorrektur und/oder einer Methode zur Bildauswertung, so dass das mindestens eine Normbild die Qualitätsmaßanforderungen des mindestens einen nachverarbeitenden Algorithmus erfüllt.
2. Verfahren gemäß Anspruch 1 , bei dem der mindestens eine nachverarbeitende Algorithmus (103) ausgebildet ist, um basierend auf dem mindestens einen Normbild eine Verkehrszeichenerkennung und/oder eine Spurdetekti- on durchzuführen.
3. Verfahren gemäß einem der vorangegangenen Ansprüche, bei dem die mindestens eine Methode der Bilderzeugung eine Bildpunktinterpolation und/oder eine Farbwerteanpassung umfasst.
4. Verfahren gemäß einem der vorangegangenen Ansprüche, bei dem die Methode zur Bildkorrektur ausgebildet ist, um einen Fehler eines Linsensystems des optischen Systems zu korrigieren, um basierend auf der Bildinformation ein linsenfehlerkorrigiert.es Normbild zu bestimmen.
5. Verfahren gemäß einem der vorangegangenen Ansprüche, bei dem die Methode zur Bildauswertung ausgebildet ist, um eine Farbinformation oder einen Strukturverlauf der Bildinformation auszuwerten.
6. Verfahren gemäß einem der vorangegangenen Ansprüche, bei dem die Methode zur Bildauswertung ausgebildet ist, um für unterschiedliche Bildbereiche basierend auf der Bildinformation Werte eines Farbmaßes zu ermitteln um das Normbild basierend auf den Werten des Farbmaßes zu bestimmen.
7. Verfahren gemäß einem der vorangegangenen Ansprüche, bei dem die Methode zur Bildauswertung ausgebildet ist, um basierend auf der Bildinformation eine Kanteninformation und basierend auf der Kanteninformation ein Kantennormbild zu bestimmen.
8. Verfahren gemäß Anspruch 7, bei dem die Qualitätsmaßanforderungen Anforderungen an eine Kantenlänge von Kantensegmenten des Kantennormbilds stellen.
9. Verfahren gemäß einem der vorangegangenen Ansprüche, bei dem die Qualitätsmaßanforderungen Histogramme einer Grauwertverteilung des Normbildes, Frequenzuntersuchungen des Normbildes, und/oder Änderungen des Frequenzspektrums des Normbildes über die Zeit umfassen.
10. Verfahren gemäß einem der vorangegangenen Ansprüche, mit einem Schritt des Auswertens mindestens eines Normbildes, um eine Funktionalität des optischen Systems zu überwachen.
1 1 . Verfahren gemäß einem der vorangegangenen Ansprüche, bei dem im
Schritt des Bestimmens ein erstes Normbildbestimmt wird, das die Qualitätsmaßanforderungen eines ersten nachverarbeitenden Algorithmus erfüllt und ein zweites Normbild bestimmt wird, das die Qualitätsmaßanforderungen eines zweiten nachverarbeitenden Algorithmus erfüllt.
12. Vorrichtung (105), die ausgebildet ist, um die Schritte eines Verfahrens gemäß einem der Ansprüche 1 bis 1 1 durchzuführen.
13. Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger gespeichert ist, zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 1 1 , wenn das Programm auf einer Vorrichtung ausgeführt wird.
PCT/EP2010/068524 2009-12-03 2010-11-30 Verfahren und vorrichtung zur anpassung von bildinformationen eines optischen systems WO2011067249A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP10788289A EP2507765A1 (de) 2009-12-03 2010-11-30 Verfahren und vorrichtung zur anpassung von bildinformationen eines optischen systems
CN2010800546843A CN102640183A (zh) 2009-12-03 2010-11-30 用于匹配光学系统的图像信息的方法和装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102009047437.4 2009-12-03
DE102009047437A DE102009047437A1 (de) 2009-12-03 2009-12-03 Verfahren und Vorrichtung zur Anpassung von Bildinformationen eines optischen Systems

Publications (1)

Publication Number Publication Date
WO2011067249A1 true WO2011067249A1 (de) 2011-06-09

Family

ID=43415812

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2010/068524 WO2011067249A1 (de) 2009-12-03 2010-11-30 Verfahren und vorrichtung zur anpassung von bildinformationen eines optischen systems

Country Status (4)

Country Link
EP (1) EP2507765A1 (de)
CN (1) CN102640183A (de)
DE (1) DE102009047437A1 (de)
WO (1) WO2011067249A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012108861A1 (de) * 2012-09-20 2014-05-28 Continental Teves Ag & Co. Ohg Verfahren zur Kalibrierung einer farbauflösenden Fahrzeugkamera
DE102012108860A1 (de) * 2012-09-20 2014-03-20 Conti Temic Microelectronic Gmbh Verfahren zur Durchführung eines automatischen Farbabgleichs einer fahrzeuggebundenen Farbkamera

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020018119A1 (en) * 2000-07-12 2002-02-14 Masaru Kogure Vehicle front-view monitoring system
US6531707B1 (en) * 2000-12-29 2003-03-11 Cognex Corporation Machine vision method for the inspection of a material for defects
DE10202163A1 (de) 2002-01-22 2003-07-31 Bosch Gmbh Robert Verfahren und Vorrichtung zur Bildverarbeitung sowie Nachtsichtsystem für Kraftfahrzeuge
US6744910B1 (en) * 1999-06-25 2004-06-01 Cross Match Technologies, Inc. Hand-held fingerprint scanner with on-board image normalization data storage
US20070280534A1 (en) * 2006-06-05 2007-12-06 Benjamin Perkins Foss Method for capturing and presenting test using video image capture for optical character recognition

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6744910B1 (en) * 1999-06-25 2004-06-01 Cross Match Technologies, Inc. Hand-held fingerprint scanner with on-board image normalization data storage
US20020018119A1 (en) * 2000-07-12 2002-02-14 Masaru Kogure Vehicle front-view monitoring system
US6531707B1 (en) * 2000-12-29 2003-03-11 Cognex Corporation Machine vision method for the inspection of a material for defects
DE10202163A1 (de) 2002-01-22 2003-07-31 Bosch Gmbh Robert Verfahren und Vorrichtung zur Bildverarbeitung sowie Nachtsichtsystem für Kraftfahrzeuge
US20070280534A1 (en) * 2006-06-05 2007-12-06 Benjamin Perkins Foss Method for capturing and presenting test using video image capture for optical character recognition

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PING KUANG ET AL: "A Road Lane Recognition Algorithm Based on Color Features in AGV Vision Systems", COMMUNICATIONS, CIRCUITS AND SYSTEMS PROCEEDINGS, 2006 INTERNATIONAL C ONFERENCE ON, IEEE, PI, 1 June 2006 (2006-06-01), pages 475 - 479, XP031010475, ISBN: 978-0-7803-9584-8 *

Also Published As

Publication number Publication date
EP2507765A1 (de) 2012-10-10
DE102009047437A1 (de) 2011-06-09
CN102640183A (zh) 2012-08-15

Similar Documents

Publication Publication Date Title
DE102011106050B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild zur Detektion eines freien Pfads
DE10314071B3 (de) Verfahren zur qualitativen Beurteilung eines Materials mit mindestens einem Erkennungsmerkmal
EP3291172B1 (de) Verfahren zur ermittlung von ergebnisbilddaten
DE102009050368A1 (de) Verfahren zum automatischen Kalibrieren einer virtuellen Kamera
DE102014117102B4 (de) Spurwechselwarnsystem und Verfahren zum Steuern des Spurwechselwarnsystems
DE10202163A1 (de) Verfahren und Vorrichtung zur Bildverarbeitung sowie Nachtsichtsystem für Kraftfahrzeuge
DE102011086512A1 (de) Verfahren zur Nebeldetektion
DE102018205561A1 (de) Vorrichtung zur Klassifizierung von Signalen
EP3537383A1 (de) Schwingungsüberwachung eines objekts mittels videokamera
WO2011067249A1 (de) Verfahren und vorrichtung zur anpassung von bildinformationen eines optischen systems
DE102019204602B4 (de) Verfahren und Vorrichtung zur Maskierung von in einem Bild enthaltenen Objekten
DE102017208994A1 (de) Verfahren zur Ermittlung von Ergebnisbilddaten
DE102011005780A1 (de) Verfahren und Vorrichtung zur Bestimmung einer Entfernung zwischen einem Fahrzeug und einem Objekt
EP2539851B1 (de) Verfahren und vorrichtung zur analyse eines bildes einer bilderfassungseinrichtung für ein fahrzeug
EP3384461A1 (de) Verfahren und vorrichtung zur bildkorrektur
WO2018224444A1 (de) Verfahren und vorrichtung zur bildkorrektur
DE102014209863A1 (de) Verfahren und Vorrichtung zum Betreiben einer Stereokamera für ein Fahrzeug sowie Stereokamera für ein Fahrzeug
DE102020215415A1 (de) Verfahren und Vorrichtung zum Detektieren einer Störpflanzenabbildung in einem Kamerarohbild und Bildverarbeitungseinrichtung
DE102018101014B3 (de) Verfahren zum Detektieren charakteristischer Merkmale eines Lichtmusters in einem mittels einer Fahrzeugkamera erfassten Abbild davon
DE102018113281A1 (de) Verfahren zur Bildharmonisierung, Computerprogrammprodukt, Kamerasystem und Kraftfahrzeug
DE102017114611A1 (de) Verfahren zum Erzeugen zumindest eines fusionierten perspektivischen Bildes eines Kraftfahrzeugs und eines Umgebungsbereiches des Kraftfahrzeugs, Kamerasystem sowie Kraftfahrzeug
EP2149107A1 (de) Verfahren und vorrichtung zur verkehrszeichenerkennung
DE102018212179A1 (de) Bildverarbeitungsvorrichtung und verfahren zur bildverarbeitung
DE102015122415A1 (de) Verfahren zum Erkennen einer bandbegrenzenden Fehlfunktion einer Kamera, Kamerasystem und Kraftfahrzeug
DE102023002809A1 (de) Verfahren zur Verbesserung der Bildqualität eines Multikamerasystems

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080054684.3

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10788289

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010788289

Country of ref document: EP