DE19539642A1 - Visualisation method for monitoring system in vehicle - Google Patents

Visualisation method for monitoring system in vehicle

Info

Publication number
DE19539642A1
DE19539642A1 DE19539642A DE19539642A DE19539642A1 DE 19539642 A1 DE19539642 A1 DE 19539642A1 DE 19539642 A DE19539642 A DE 19539642A DE 19539642 A DE19539642 A DE 19539642A DE 19539642 A1 DE19539642 A1 DE 19539642A1
Authority
DE
Germany
Prior art keywords
image
transformation
pixel
screen
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19539642A
Other languages
German (de)
Inventor
Gerhard Dipl Ing Kuenzel
Michael Dipl Ing Friedrich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daimler Benz AG
Original Assignee
Daimler Benz AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler Benz AG filed Critical Daimler Benz AG
Priority to DE19539642A priority Critical patent/DE19539642A1/en
Publication of DE19539642A1 publication Critical patent/DE19539642A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/101Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using cameras with adjustable capturing direction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8066Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic

Abstract

The method involves visualising a not directly visible space particularly in a vehicle (10). An image of the space is picked-up by a video camera (1) and transferred to a screen connected through a data line (2). The method uses a camera lens with an extremely wide-angle objective, and a semiconductor image sensor with pixels arranged in columns and rows. An allocation function associates pixel values describing luminance or chrominance on the actual image plain. The allocation function is implemented in semiconductor logic, and is performed in real time, based on the necessary correction due to the geometric distortion of the image by the wide-angle lens.

Description

Die Erfindung betrifft ein Verfahren zur Visualisierung eines nicht unmittelbar einsehbaren Überwachungsraumes insbesondere bei einem Fahrzeug nach der Gattung des An­ spruchs 1. Des weiteren betrifft die Erfindung eine Vor­ richtung zur Visualisierung eines nicht unmittelbar ein­ sehbaren Überwachungsraumes.The invention relates to a method for visualization a surveillance room that is not immediately visible especially in the case of a vehicle of the genus An saying 1. Furthermore, the invention relates to a front direction to visualize a not immediately visible surveillance room.

Das Problem der Visualisierung eines nicht unmittelbar einsehbaren Überwachungsraumes ist mannigfaltig bekannt. Ein gängiges Beispiel ist die Uneinsehbarkeit des Rück­ raumes von Fahrzeugen beim Einparken, was zur Entwick­ lung aktiver Wahrnehmungssysteme auf der Basis von In­ frarotlicht und/oder Ultraschall führte.The problem of visualizing a not immediate Visible surveillance room is widely known. A common example is the invisibility of the back space of vehicles when parking, which leads to development development of active perception systems based on In led infrared light and / or ultrasound.

Eine Alternative stellen Videokameras dar, die auch schon an Nutzfahrzeugen Verwendung finden, vgl. Abbil­ dung in FZ ACE Lenkrad 5/91 auf S. 60. Aber auch bei Personenkraftfahrzeugen wäre der Einsatz solcher Kameras wünschenswert, weil der immer knapper werdende Parkraum beispielsweise in Städten zentimetergenaues Fahren er­ fordert.An alternative are video cameras that also already used on commercial vehicles, cf. Fig in FZ ACE steering wheel 5/91 on p. 60. But also in Passenger vehicles would use such cameras desirable because of the increasingly scarce parking space For example, driving in cities with centimeter precision  demands.

Im Falle eines Personenkraftwagens beispielsweise machen die abgerundeten und eingezogenen Heckgeometrien moderner Fahrzeugdesigns hierfür Weitwinkelobjektive erforderlich. Diese haben jedoch den Nachteil, daß sie dem Fahrzeugführer ab einem gewissen Objektwinkel ein nur schwer interpretier­ bares Bild liefern. Außerdem können sie tote Blickwinkel nicht vollständig beseitigen.In the case of a passenger car, for example the rounded and retracted rear geometries are more modern Vehicle designs require wide angle lenses for this. However, these have the disadvantage that they are the driver from a certain object angle a difficult to interpret deliver a clear picture. They can also have blind spots do not completely eliminate.

Bezüglich der vorgenannten Problematik bei einem Fahrzeug ist ein Lösungsansatz aus der FR 2 673 499 A1 bekannt. Dort werden innerhalb der Fahrzeughüllkontur - nämlich hinter Verglasungen im Bereich der rechten und linken Rücklichter - um eine vertikale Achse motorisch konti­ nuierlich schwenkbare Fernsehkameras eingesetzt, um so positionsabhängig Teilbilder des durch Verschwenkung der Kameras insgesamt einsehbaren Rückraumes auf einem Fern­ sehbildschirmen im Bereich der Armaturentafel darzustel­ len. Auf diese Weise können Kameraobjektive mit relativ geringem Blickwinkel eingesetzt werden. Dafür muß jedoch ein sehr hoher mechanischer und steuerungstechnischer Auf­ wand zur Verschwenkung der Kameras sowie der Umstand in Kauf genommen werden, daß die Kameras über fortschrei­ tender Verschmutzung besagter Verglasung immer wieder "erblinden". Auch ist der Gesamtraumbedarf beider Kame­ ras einschließlich der Mittel zu ihrer Verschwenkung in­ nerhalb der Fahrzeughülle nicht unerheblich.With regard to the aforementioned problems in a vehicle A solution is known from FR 2 673 499 A1. There are inside the vehicle envelope contour - namely behind glazing in the area of the right and left Taillights - motorized around a vertical axis Nuably swiveling television cameras used, so position-dependent drawing files by swiveling the Cameras with a total visible rear area on a distance to display visual screens in the area of the dashboard len. This way, camera lenses can be used with relative low viewing angle. For that, however a very high mechanical and control technology wall for pivoting the cameras as well as the circumstance in Be bought that the cameras scream over soiling of said glazing again and again "go blind". The total space requirement of both came ras including the means for pivoting them into not insignificant within the vehicle shell.

Eine ähnliche Lösung, gerichtet auf ein Fahrzeug, die nur mit einer einzigen Videokamera arbeitet, offenbart die vorlaufende Anmeldung P 43 36 288.5. Dort wird zur Rückraumbeobachtung eine Videokamera mit relativ gerin­ gem Blickwinkel fuzzylogic-fokusgesteuert Hindernissen nachgeschwenkt.A similar solution aimed at a vehicle that only works with a single video camera the preliminary application P 43 36 288.5. There becomes Back room observation a video camera with relatively little Obstacles in terms of fuzzylogic focus  pivoted.

Dem gegenüber ist es Aufgabe der Erfindung, sowohl ein Verfahren zur Visualisierung eines nicht unmittelbar ein­ sehbaren Überwachungsraumes insbesondere bei einem Fahr­ zeug sowie eine Vorrichtung zur Visualisierung eines nicht unmittelbar einsehbaren Überwachungsraumes vorzuschlagen, welche die vorgenannten Nachteile gleichermaßen ausräumen.In contrast, it is an object of the invention, both a Process for visualizing a not immediately visible surveillance room especially when driving stuff and a device for visualizing a not to propose an immediately visible surveillance room, which equally overcome the aforementioned disadvantages.

Die erste Aufgabe wird durch ein gattungsgemäßes Ver­ fahren mit den kennzeichnenden Merkmalen gemäß Anspruch 1 gelöst.The first task is through a generic Ver drive with the characteristic features according to claim 1 solved.

Dieses Verfahren erlaubt, nur eine einzige Video-Kamera in fixer Arbeitsposition mit nur einem Objektiv in Ver­ bindung mit nur einem wenig Platz beanspruchenden Bild­ schirm zu verwenden.This procedure allows only a single video camera in a fixed working position with only one lens in ver binding with a picture that takes up little space use umbrella.

Dazu sieht das Verfahren die Verwendung eines Kameraobjek­ tivs bislang unüblich großem Objektwinkel vor. Zugleich trägt das Verfahren der Tatsache Rechnung, daß Weitwin­ kelobjektive mit einem Objektwinkel von z. B. 160° den er­ faßten Objektraum auf die Bildebene eines Sensorchips verzeichnet abbilden.For this purpose, the method sees the use of a camera object tivs previously unusually large object angle. At the same time the procedure takes into account the fact that Weitwin Kel lenses with an object angle of z. B. 160 ° he captured object space on the image plane of a sensor chip map recorded.

Verzeichnet heißt dabei, daß gemäß der optischen Physik eines solchen Objektivs auf der Bildebene die Bildpunkte in radialer und tangentialer Richtung verän­ dert sind, da Lichtbündel beim Durchtritt durch das Objek­ tiv bezüglich ihrer Ausbreitungsrichtungen Ablenkungen erfahren. Weiterhin hat jeder Lichtbündel-Bildpunkt seine eigene Bildhöhe in der Bildebene. M.a.W. ist der Abbildungsmaßstab abhängig von der Bildhöhe. Dabei ist unter der Bildhöhe der Abstand des Lichtbündel-Bild­ punktes in der Bildebene von dem in der Bildebene lie­ genden Koordinatenursprung zu verstehen. Im vorliegen­ den Falle werden nur Objektive verwendet, die in hohem Maße rotationssymmetrisch sind, so daß die tangentiale Verzeichnung gegenüber der Auflösung des Bildsensors in der Bildebene vernachlässigbar klein ist. Infolge­ dessen werden die Bildpunkte in der Bildebene maßgeb­ lich in radialer Richtung entsprechend der Verzeich­ nungskurve nichtlinear verschoben, wodurch das Bild in der Bildebene auf dem Bildsensor eine Verzeichnung aufweist und deshalb für eine schnelle kognitive In­ formation eines Beobachters ungeeignet ist.Listed here means that according to the optical Physics of such a lens on the image plane Change pixels in the radial and tangential direction are different because light beams pass through the object tiv with respect to their directions of propagation Experienced. Furthermore, each light beam pixel has his own image height in the image plane. M.a.W. is the Image scale depending on the image height. It is below the image height is the distance of the light beam image point in the image plane from that in the image plane  understand the origin of the coordinates. In the present In the case only lenses are used that are in high Dimensions are rotationally symmetrical, so that the tangential Distortion compared to the resolution of the image sensor is negligibly small in the image plane. As a result the image points in the image plane are decisive Lich in the radial direction according to the index voltage curve is shifted non-linearly, causing the image distortion in the image plane on the image sensor and therefore for a quick cognitive in formation of an observer is unsuitable.

Verfahrensgemäß wird durch interpolationslose Pixelan­ dersverteilung eine Koordinaten-Bildtransformation des auf dem Bildsensor einer Kamera real erzeugten Objekt­ bildes in ein von einem Beobachter kognitiv besser wahrnehmbares Darstellungsbild auf einem Bildschirm bewirkt.According to the method, interpolation-free pixels are used distribution a coordinate-image transformation of the object actually created on the image sensor of a camera image in a cognitively better by an observer perceptible display image on a screen causes.

Diese Transformation geschieht im Zuge der Signalüber­ tragung und Datenformatwandlung zwischen Kamera und Bildschirm. Verfahrensgemäß wird in der Video-Kamera neben einem Objektiv mit besagt großem Objektwinkel als Bildsensor ein Halbleiter-Bildsensor mit einer ersten definierten, in Zeilen und Spalten definiert angeordne­ ten Anzahl von Pixeln (Bildfeldparameter des Sensors) und als Bildschirm ein solcher mit einer zweiten defi­ nierten, in Zeilen und Spalten definiert angeordneten Anzahl von Pixeln (Bildfeldparameter des Bildschirms) verwendet. Entsprechend der Objektraumabbildung in der Real-Bildebene auf dem Bildsensor wird jedem Pixel aus besagter ersten Zahl von Sensor-Pixeln ein die Hellig­ keit oder Helligkeit, Farbsättigung und Farbart wie auch immer (z. B. in Form von RGB-Werten) beschreiben­ der Wert FV und in der Darstellungsbildebene auf dem Bildschirm jedem Pixel aus besagter zweiten Zahl von Bildschirm-Pixeln ein entsprechender Wert FM zugeord­ net. Dann wird der Wert FM eines jeden auf den Bild­ schirm aktuell zu schreibenden Pixels vom Wert FV des­ jenigen Sensor-Pixels abgeleitet, auf welches das Bild­ schirm-Pixel vermöge einer geometrischen Zuordnungs­ transformation zeigt, wobei diese Zuordnungstransfor­ mation in Echtzeit vermittels einer gemäß der Trans­ formationsvorschrift festverdrahteten Halbleiterlogik geschieht und die Bildtransformation auf der Basis der Bildfeldparameter sowohl des Bildsensors als auch des Bildschirmes wenigstens eine Kategorie der objektivbe­ dingt spezifischen geometrisch-optischen Verzeichnung des realen Objektraumbildes (auf dem Bildsensor) von der gewünschten Objektraumdarstellung (auf dem Bild­ schirm) durch Veränderung der Zuordnung von Sensor- Pixeln zu Bildschirm-Pixeln korrigiert.This transformation takes place in the course of signal transmission and data format conversion between camera and screen. According to the method, in the video camera, in addition to a lens with said large object angle, the image sensor is a semiconductor image sensor with a first defined number of pixels (image field parameters of the sensor), which is defined in rows and columns, and a screen with a second one defined as a screen , number of pixels (image field parameters of the screen) arranged in a defined manner in rows and columns. Corresponding to the object space mapping in the real image plane on the image sensor, each pixel from said first number of sensor pixels will describe the brightness or brightness, color saturation and color type however (e.g. in the form of RGB values) F V and in the display image plane on the screen each pixel from said second number of screen pixels is assigned a corresponding value F M. Then the value F M of each pixel currently to be written on the screen is derived from the value F V of that sensor pixel to which the screen pixel points due to a geometric mapping transformation, this mapping transformation in real time by means of a the transformation rule is hard-wired semiconductor logic and the image transformation on the basis of the image field parameters of both the image sensor and the screen requires at least one category of the object-specific geometrical-optical distortion of the real object space image (on the image sensor) from the desired object space representation (on the screen) corrected by changing the assignment of sensor pixels to screen pixels.

Dieses Verfahren ist durch Verfahrensschritte gemäß den Merkmalen der abhängigen Ansprüche 2 bis 8 vorteilhaft fortbildbar. So können mit verschiedenen Verfahrens­ schritten entsprechend verschiedene Arten bzw. Progres­ sionsstufen der Koordinaten-Bildtransformation bis hin zur Quasi-Synthese von Vertikal- und Horizontalbildern verwirklicht werden. Dabei ist von Vorteil, daß im Falle mehrerer Transformationsschritte diese in einer kürzest­ möglichen Zeit ausführbar sind, weil sie nicht nachein­ ander, sondern gleichzeitig in der Art einer Total Re­ sponse pro Bildinhalt ausgeführt werden.This process is characterized by process steps according to the Features of the dependent claims 2 to 8 advantageous trainable. So with different procedures accordingly different types or progresses levels of coordinate image transformation up to for the quasi-synthesis of vertical and horizontal images be realized. It is advantageous that in the case several transformation steps in the shortest possible time possible time are executable because they do not follow each other different, but at the same time in the manner of a total re sponse per image content.

Auf der Basis wenigstens eines elektronisch erzeugten und nur in dieser Form existierenden koordinatentrans­ formierten Bildes leistet das erfindungsgemäße Verfah­ ren die Visualisierung eines nicht unmittelbar einseh­ baren Überwachungsraumes in eine insbesondere für einen Fahrzeugführer kognitiv leicht und anstrengungslos ver­ arbeitbare Darstellungsform.Based on at least one electronically generated and only in this form existing coordinate transfer the image according to the invention performs  the visualization of a not immediately visible baren surveillance room in one for one Driver cognitively light and effortless ver workable form of presentation.

Deshalb kann das Verfahren gemäß Anspruch 10 besonders vorteilhaft bei einem Personen-Kraftfahrzeug Verwendung finden. Dabei erlaubt das Verfahren die optische Erfas­ sung z. B. der den rückwärtigen Fahrraum abgrenzenden Hecklinien eines Personenkraftwagens ohne toten Winkel hinsichtlich Verdeckungen von Objekten durch den Heck­ stoßfänger.Therefore, the method according to claim 10 can be special advantageous in a passenger motor vehicle use Find. The method allows optical detection solution z. B. the delimiting the rear driving space Rear lines of a passenger car with no blind spot in terms of obscuring objects through the stern bumpers.

Die zweite Aufgabe wird durch eine Vorrichtung gemäß dem nebengeordneten Anspruch 11 gelöst.The second task is accomplished by a device according to the independent claim 11 solved.

Funktional stützt sich die Vorrichtung im wesentlichen auf eine als ASIC verwirklichte Halbleiterschaltung (vorzugsweise mit zwei Funktionsbereichen oder aber aus zwei weniger komplexen ASICs assembliert) und eine einzige Videokamera in fixer Betriebsposition. Daraus ergeben sich die Vorteile, daß die Vorrichtung ohne reaktionsbeeinträchtigenden Zeitversatz arbeitet, d. h. einem Beobachter eine Echtzeitbeurteilung erlaubt und ihre Bildsignalverarbeitungseinrichtung als wesent­ licher Bestandteil kostengünstig und mit geringen Ab­ messungen massenproduzierbar ist. Des weiteren ermög­ licht sie die Darstellung eines sehr robusten Gesamt­ systems ohne betriebsbewegliche Teile und eine platz­ sparende Integration insbesondere des Sichtteils z. B. im Bereich von ohnehin schon mit Anzeigen und Bedien­ elementen überfrachteten Armaturentafeln.The device is essentially functionally based to a semiconductor circuit implemented as an ASIC (preferably with two functional areas or assembled from two less complex ASICs) and a single video camera in a fixed operating position. This has the advantages that the device works without a time delay that affects the reaction, d. H. allows an observer real-time assessment and its image signal processing device as essential Licher component inexpensively and with low ab measurements can be mass produced. Furthermore possible light the representation of a very robust overall systems without moving parts and a space saving integration especially of the visible part z. B. in the area already with displays and controls elements overloaded dashboards.

Vorteilhafte Weiterbildungen der Vorrichtung sind gemäß Lehre der abhängigen Ansprüche 12 bis 20 mög­ lich.Advantageous further developments of the device are  according to the teaching of dependent claims 12 to 20 possible Lich.

Die Vorrichtung kann z. B. Mittel zur Sicherstellung einer definierten Fixposition der Kamera während ihres Betriebes umfassen. Beispielsweise kann die Kamera mittels einer Ausfahrmechanik von einer fixen Ruhe­ position in eine fixe Betriebsposition gebracht wer­ den, wo sie dann während ihres Betriebs verharrt. Bei einem Fahrzeug kann sie Mittel umfassen, die letzteres z. B. beim Einlegen des Rückwärtsganges selbsttätig bewirken.The device can e.g. B. Means of Guarantee a defined fixed position of the camera during its Operation include. For example, the camera by means of an extension mechanism from a fixed rest position in a fixed operating position the one where it then remains during its operation. In a vehicle, it may include means that the latter z. B. when engaging reverse gear effect automatically.

Je ein Ausführungsbeispiel der Vorrichtung und des Verfahrens sind in der Figurenzeichnung veranschau­ licht, die nachfolgend erläutert wird. Dabei soll die Veranschaulichung am praktischen Beispiel eines Per­ sonenkraftfahrzeugs keine Beschränkung der Erfindung bedeuten, da diese - bei entsprechender konstruktiver Anpassung an den jeweiligen Anwendungsfall - auch auf anderen Gebieten anwendbar ist.One embodiment of the device and the Procedures are illustrated in the figure drawing light, which is explained below. Thereby the Illustration using the practical example of a per no limitation of the invention mean since these - with appropriate constructive Adaptation to the respective application - also is applicable in other areas.

Es zeigen:Show it:

Fig. 1 eine schematische Illustration der Anord­ nung einer erfindungsgemäßen Vorrichtung bei einem Personenkraftfahrzeug zwecks Ein­ sicht des Fahrzeugrückraumes; Figure 1 is a schematic illustration of the Anord voltage of a device according to the invention in a passenger vehicle for the purpose of a view of the vehicle rear space.

Fig. 2 eine schematische Illustration der fixen Betriebsposition der Video-Kamera bei der Vorrichtung gemäß Fig. 1; FIG. 2 shows a schematic illustration of the fixed operating position of the video camera in the device according to FIG. 1;

Fig. 3 eine Illustration des damit verfahrensgemäß einsehbaren Rückraumes am Beispiel eines Per­ sonenkraftfahrzeugs; Fig. 3 is an illustration of the method according to thus visible rear area by the example of a sonen motor vehicle;

Fig. 4 ein schematisches Funktions-Blockschaltbild der elektronischen Bestandteile der Vorrich­ tung; Fig. 4 is a schematic functional block diagram of the electronic components of the device;

Fig. 5 eine schematische Illustration zum erfin­ dungsgemäßen Visualisierungsverfahren; Fig. 5 is a schematic illustration to the invention for visualizing OF INVENTION method;

Fig. 6 die Illustration des ersten Schrittes des Visualisierungsverfahrens zur Streckenent­ zerrung;6 shows the distortion illustration of the first step of the method of visualization Streckenent.

Fig. 7 die Illustration des zweiten Schrittes des Visualisierungsverfahrens zur Generation eines winkelentzerrten Basisbildes; Fig. 7 is an illustration of the second step of the visualization method for generation of a winkelentzerrten base image;

Fig. 8 die Illustration des dritten Schrittes des Visualisierungsverfahrens zur Generation aus dem Basisbild eines perspektivisch korrigierten Bildes. Fig. 8, the illustration of the third step of the visualization method of generation from a perspective corrected image of the basic image.

Gemäß Fig. 1 ist am Heck eines Fahrzeugs 10 bei­ spielsweise in einer aus fahr- bzw. ausschwenkbaren Einheit 1.1 eine Videokamera 1 integriert. Dabei verdeutlicht die dargestellte Konfiguration die fixe Betriebsposition II der Videokamera, wobei diese bei­ spielhaft unter einem Anstellwinkel Φ zur Vertikalen von 45° nach unten in den Rückraum hinter dem Fahr­ zeug schaut.Referring to FIG. 1 of a vehicle 10 at is integrated into a play of drive or swing unit 1.1, a video camera 1 at the rear. The configuration shown illustrates the fixed operating position II of the video camera, which looks at play at an angle of attack Φ to the vertical of 45 ° down into the rear area behind the vehicle.

Die Kamera ist über ein Datenkabel 2 mit einer Bild­ signalverarbeitungseinrichtung 3 verbunden, welche ein logisches Echtzeit-Bildtransformationsmodul 4 enthält. Die Bildsignalverarbeitungseinrichtung 3 steuert einen Bildschirm 5 an. Des weiteren kann die Bildsignalverar­ beitungseinrichtung 3 über eine Leitung 6 mit einem nicht gezeigten, z. B. das Einlegen des Rückwärtsganges erkennenden Schalter oder Sensor z. B. am Getriebe des Fahrzeugs in Verbindung stehen. Dadurch kann z. B. beim Einlegen des Rückwärtsganges die Bildsignalverarbei­ tungseinrichtung 3 eingeschaltet und ein selbsttätiges Verbringen der Videokamera in ihre Betriebsposition II angesteuert werden. Ebenso kann die Einschaltung des Bildschirms 5 dadurch ausgelöst werden.The camera is connected via a data cable 2 to an image signal processing device 3 which contains a logical real-time image transformation module 4 . The image signal processing device 3 controls a screen 5 . Furthermore, the image signal processing device 3 via a line 6 with a not shown, for. B. the engagement of the reverse gear detecting switch or sensor z. B. are connected to the transmission of the vehicle. This can, for. B. when engaging the reverse gear, the image signal processing device 3 is switched on and an automatic movement of the video camera into its operating position II can be controlled. The switching on of the screen 5 can also be triggered thereby.

In Fig. 2 ist die Position der Videokamera 1 in Bezug auf das Fahrzeug 10 sowohl in einer Ruheposi­ tion I als auch in ihrer Betriebsposition II veran­ schaulicht. Demnach besteht in der Betriebsposition II ein Anstellwinkel Φ von beispielsweise 45° zwischen der Senkrechten 11 und der optischen Achse 12 der Video-Kamera 1. Die ausfahr- bzw. ausschwenkbare Einheit 1.1 und das Datenkabel 2 sind nur symbolisch angedeutet. Eine fahrzeugtaugliche Vorrichtung kann im Rahmen der Erfindung jedenfalls alle Mittel mit­ umfassen, welche die Videokamera bei Nichtgebrauch in eine geschützte Ruhelage und zwecks Gebrauch die­ selbe in eine definierte Betriebslage verbringen.In Fig. 2, the position of the video camera 1 in relation to the vehicle 10 is illustrated both in a resting position I and in its operating position II. Accordingly, in the operating position II there is an angle of attack Φ of, for example, 45 ° between the vertical 11 and the optical axis 12 of the video camera 1 . The extendable or swiveling unit 1.1 and the data cable 2 are only indicated symbolically. A vehicle-compatible device can in any case include all means within the scope of the invention which the video camera spend in a protected idle position when not in use and in a defined operating position for use.

Ohne Beschränkung der Allgemeinheit kann die Video- Kamera im Beispielfalle eines Kraftfahrzeugs auch in einer fixen Position montiert sein, und es können z. B. Mittel vorgesehen sein, die eine bewegliche Ob­ jektivabdeckung so steuern und betätigen, daß sie nur im Betriebsfalle das Objektiv freigibt. Entspre­ chend kann dann z. B. beim Einlegen des Rückwärtsgan­ ges die Bildsignalverarbeitungseinrichtung 3 einge­ schaltet und die Freigabe des Objektivs der Video- Kamera bewirkt werden.Without restricting generality, the video camera can also be mounted in a fixed position in the example of a motor vehicle, and z. B. Means may be provided to control and actuate a movable lens cover so that it releases the lens only in the event of an operation. Accordingly, z. B. when inserting the Rückgangsgan ges the image signal processing device 3 is turned on and the release of the lens of the video camera can be effected.

Gemäß Fig. 3 ist beispielhaft der mit einem Objektiv mit Objektwinkel Θ = 160° einsehbare Rückraum hinter der Rückfront 13 eines Personenkraftfahrzeugs als Raumkörper 14 veranschaulicht, der eine gewisse Brei­ te B, eine Raumtiefe T, fahrzeugseitig eine Höhe H1 und fahrzeugabseitig eine Höhe H2 aufweist; dabei ist der Fall H1 = H2 veranschaulicht. Aufgrund des großen Objektwinkels der Kamera und deren Verbrin­ gung in eine aus der Fahrzeughüllkontur herausver­ lagerte Betriebsposition II bleibt nur ein außer­ ordentlich kleiner, durch Schraffur kenntlich ge­ machter Teil 15 des Raumkörpers 14 nicht einsehbar.According to Fig. 3 with a lens with object angle Θ = viewable rear space 160 ° by way of example illustrates behind the rear face 13 of a passenger car as a chamber body 14 having a certain pulp te B, a room depth T, the vehicle side has a height H1 and fahrzeugabseitig a height H2 ; the case H1 = H2 is illustrated. Due to the large object angle of the camera and its supply in a storage position out of the vehicle envelope contour II, only an extraordinarily small, marked by hatching ge made part 15 of the body 14 is not visible.

Gemäß Fig. 4 umfaßt die Elektronik der Vorrichtung im wesentlichen die Videokamera 1 vorzugsweise mit einem Farbbild-Aufnahme-Sensor 1.2, einem Analog-Digi­ talwandler 1.3 mit nachgeschaltetem Parallel-Seriell- Wandler 1.4 mit beispielsweise Twisted-Pair oder Glas­ faserausgang, des weiteren die Datenleitung 2, ausge­ führt beispielsweise als Twisted-Pair oder in Glasfa­ ser-Technologie, sowie die Bildsignalverarbeitungs­ einrichtung 3, die den Bildschirm 5 ansteuert.According to FIG. 4, the electronics of the device substantially comprises the video camera 1 preferably with a color image pickup sensor 1.2, an analog-Digi talwandler 1.3 with a downstream parallel-serial converter 1.4 with, for example, twisted pair or glass fiber output, further, the Data line 2 leads out, for example, as a twisted pair or in glass fiber technology, and the image signal processing device 3 which controls the screen 5 .

Je nach Ausführung können die Teile 1.3 und 1.4 funk­ tional und körperlich integriert zusammengefaßt sein.Depending on the version, parts 1.3 and 1.4 can be combined functionally and physically integrated.

Die Bildsignalverarbeitungseinrichtung 3 umfaßt einen entsprechenden Seriell/Parallel-Wandler 3.1 mit ent­ sprechendem Twisted-Pair oder Glasfasereingang, der hier beispielhaft zwei kaskadierte ASICs 4.1 und 4.2 ansteuert. The image signal processing device 3 comprises a corresponding serial / parallel converter 3.1 with a corresponding twisted pair or glass fiber input, which here controls two cascaded ASICs 4.1 and 4.2, for example.

Diese beiden ASICs können je nach angewandter Techno­ logie auch auf einem Chip realisiert sein und sind die wesentlichen Bestandteile des Echtzeit-Bildtransforma­ tionsmoduls 4. Die Bildsignalverarbeitungseinrichtung 3 umfaßt des weiteren ein RAM 4.3 und einen Mikrocom­ puter 4.4. Mikrocomputer und RAM stehen untereinander und mit dem Transformationsmodul 4 in Verbindung. Das ASIC 4.2 weist einen digitalen RGB Video-Ausgang auf, der den Bildschirm 5 in an sich bekannter Weise an­ steuert.Depending on the technology used, these two ASICs can also be implemented on a chip and are the essential components of the real-time image transformation module 4 . The image signal processing device 3 further comprises a RAM 4.3 and a Mikrocom computer 4.4 . The microcomputer and RAM are connected to one another and to the transformation module 4 . The ASIC 4.2 has a digital RGB video output which controls the screen 5 in a manner known per se.

Die Funktion der Vorrichtung ist folgende. Das auf den CCD-Sensor 1.2 fallende Bild des dreidimensionalen Rück­ raumes gemäß dem Rückraumkörper 14 wird in diesem Sensor in ein zweidimensionales Ladungsbild gewandelt, welches beispielsweise 50 mal pro Sekunde halbbildweise ausgele­ sen wird. Das so gewonnene Bildsignal steht in der Regel analog zur Verfügung und wird dann in ein serielles Daten­ signal gewandelt. Dazu nimmt der Wandler 1.3 zunächst eine Analog/Digital-Wandlung vor, und der Parallel-Se­ riell-Wandler 1.4 wandelt das so erhaltene parallele Digitalsignal in einen seriellen Datenstrom, der in Form eines schnellen digitalen Zweidrahtsignals oder per Licht an die Bildsignalverarbeitungseinrichtung 3 übertragen und dort im Seriell/Parallel-Wandler 3.1 wieder in einen parallelen Datenstrom zurückverwandelt wird.The function of the device is as follows. The image of the three-dimensional rear space falling on the CCD sensor 1.2 according to the rear space body 14 is converted into a two-dimensional charge image in this sensor, which is emitted, for example, 50 times per second in a half-frame manner. The image signal obtained in this way is generally available in analog form and is then converted into a serial data signal. For this purpose, the converter 1.3 first performs an analog / digital conversion, and the parallel-serial converter 1.4 converts the parallel digital signal thus obtained into a serial data stream, which is transmitted in the form of a fast digital two-wire signal or by light to the image signal processing device 3 and there is converted back into a parallel data stream in the serial / parallel converter 3.1 .

Unter Nutzung des RAM 4.3 als Bildspeicher zwischen zwei aufeinanderfolgenden (Halb-)Bildern werden unter Timing-Kontrolle durch den Mikrorechner 4.4. die so anfallenden parallelen "Bildworte" in das ASIC 4.1 geladen und dann einer beispielsweise den weiter un­ ten ausgeführten Verfahrensregeln gehorchenden inkre­ mentellen Umsortierung zwecks Veränderung der Bild­ geometrie unterworfen.Using the RAM 4.3 as image memory between two consecutive (half) images under timing control by the microcomputer 4.4 . the resulting parallel "picture words" are loaded into the ASIC 4.1 and then subjected to an incremental re-sorting, for example in accordance with the procedural rules outlined below, for the purpose of changing the picture geometry.

Dabei ist die Regel dieser Umsortierung genau auf die unerwünschte Verzeichnung des Kameraobjektivs im Sinne einer Abbildungsverzeichnungs- und Perspektivkorrektur abgestimmt. Dabei kann unter besonderen Bedingungen auch ein Rechteckverhältnis von Pixelzellen des Bildschirmes mitberücksichtigt werden. Im diesbezüglich wirksamen ASIC- Bereich können auch wenigstens zwei verschiedenen Koor­ dinaten-Bildtransformationsarten bzw. -stufen entspre­ chende und dementsprechend unterschiedliche Umsortie­ rungen bewirkende "Verdrahtungsschemen" selektiv akti­ vierbar verwirklicht sein und es können dann in Abhäng­ igkeit von einem Selektionssignal jeweils verschiedene Umsortierweisen aktiv geschaltet werden.The rule of this resort is exactly on the unwanted distortion of the camera lens in the sense an image distortion and perspective correction Voted. It can also under special conditions a rectangular ratio of pixel cells of the screen be taken into account. In this regard, the ASIC The area can also have at least two different Koor dinate image transformation types or levels correspond appropriate and correspondingly different range "Wiring schemes" causing selective activation be realizable and it can then be dependent different from a selection signal Reordering can be activated.

Wesentlich dabei ist, daß der Mikrorechner dabei bevorzugt eine reine Steuerungsfunktion ohne eigene Direktbeteiligung an der Signalbearbeitung des Bild­ inhaltes verwirklichen kann.It is essential that the microcomputer is there prefers a pure control function without its own Direct participation in the signal processing of the picture can realize content.

Beispielsweise werden so fünfzig Bildschirm-Farb- Halbbilder mit 564 Pixel horizontaler und 224 Pixel vertikaler Bildweite je Sekunde erzeugt. Zugleich taktet der Mikrorechner 4.4 die im ASIC 4.1 so er­ zeugten Bildworte aus dem ASIC 4.1 durch das ASIC 4.2, letztwelches so beschaffen ist, daß es diese Bildworte in ein digitales RGB-Video-Ausgangssignal wandelt, welches somit unmittelbar einem entspre­ chend ansteuerbaren Bildschirm 5 zuführbar ist.For example, fifty screen color fields with 564 pixels horizontal and 224 pixels vertical image width per second are generated in this way. At the same time clocks the microcomputer 4.4 which he testified image words is adapted from the ASIC 4.1 by the ASIC 4.2 latter which as in the ASIC 4.1 that it converts this image words into a digital RGB video output signal, which thus directly a accordingly controllable screen 5 is feedable.

Diese Konfiguration und Wirkungsweise des Echtzeit- Bildtransformationsmoduls 4 ermöglicht die Transfor­ mation eines jeden Bildpunktes in sehr kurzer Zeit, beispielsweise binnen maximal 150 Nanosekunden, da die Transformation nicht wie üblich über einen Mik­ rorechner zustande kommt, sondern durch die den je­ weiligen Bildabweichungen des verwendeten Objektivs vom gewohnten Seheindruck entsprechende Festverdrah­ tung bzw. -programmierung von ASICs.This configuration and mode of operation of the real-time image transformation module 4 enables the transformation of each pixel in a very short time, for example within a maximum of 150 nanoseconds, since the transformation does not come about as usual via a microcomputer, but rather due to the respective image deviations of the lens used Fixed wiring or programming of ASICs from the usual visual impression.

Der nachfolgend detaillierteren Beschreibung des Ver­ fahrens am Beispiel der Rückraumvisualisierung bei einem Kraftfahrzeug wird zunächst die Fig. 5 zur Veranschaulichung der eingangs erwähnten Abweichung von einer optisch wirklichkeitsgetreuen Abbildung vorangestellt. Im folgenden wird generell jedem ein­ zelnen Pixel eines Bildes - ob real vorhanden oder fiktiv - ein Datensatz F etwa in der Art eines Vek­ tors zugeordnet, welcher die Helligkeit, die Farb­ sättigung und die Farbart des jeweiligen Pixels ein­ deutig beschreibt, im folgenden vereinfacht der "F- Wert" am Pixelort genannt. Damit läßt sich das jewei­ lige Bild verstehen als Menge aller F mit gemäß Größe, Form und (Richtungs-)Auflösung des jeweiligen Bildes durchlaufenden Koordinaten.The following more detailed description of the method using the example of the rear area visualization in a motor vehicle is first preceded by FIG. 5 to illustrate the deviation from an optically realistic image mentioned at the beginning. In the following, each individual pixel of an image - whether real or fictional - is assigned a data record F, for example in the manner of a vector, which clearly describes the brightness, the color saturation and the color type of the respective pixel, in the following simplifies it Called "F value" at the pixel location. The respective picture can thus be understood as a set of all F with coordinates running through according to the size, shape and (directional) resolution of the respective picture.

Dem gemäß wird jedem einzelnen Pixel des durch das Weitwinkelobjektiv 1.5 in der Real-Bildebene - d. h. auf der Oberfläche 1.2.1 des Bildsensors 1.2 der Ka­ mera 1 - real verzeichnet erzeugten Bildes ein ent­ sprechender Datensatz FV zugeordnet, welcher Hellig­ keit, Farbsättigung und Farbart des Pixels eindeutig beschreibt, im folgenden bezogen als "FV-Wert" am Pixelort (y, z) auf der Oberfläche 1.2.1 des Bild­ sensors 1.2. Damit läßt sich also das reale, ver­ zeichnet erzeugte Bild beschreiben als Menge aller FV mit durchlaufenden Pixelkoordinaten y und z.According to each individual pixel of the real image plane generated by the wide-angle lens 1.5 in the real image plane - ie on the surface 1.2.1 of the image sensor 1.2 of the camera 1 - a correspondingly recorded data record F V is assigned, which brightness, color saturation and Describes the color type of the pixel clearly, referred to below as the "F V value" at the pixel location (y, z) on the surface 1.2.1 of the image sensor 1.2 . So that the real, ver recorded image can be described as a set of all F V with continuous pixel coordinates y and z.

Dieses reale, verzeichnete Bild wird mit DELTA bezeich­ net. Bezüglich dieser weitwinkligen Abbildung gilt nun die eingangs erwähnte Unzulänglichkeit, daß in der Bildebene die Bildpunkte in radialer und tangentialer Richtung verändert sind, da Lichtbündel beim Durchtritt durch das Objektiv bezüglich ihrer Ausbreitungsrichtun­ gen Ablenkungen erfahren. Weiterhin hat jeder Licht­ bündel-Bildpunkt seine eigene Bildhöhe in der Bild­ ebene. M.a.W. ist der Abbildungsmaßstab abhängig von der Bildhöhe. Dabei ist unter der Bildhöhe der Ab­ stand des Lichtbündel-Bildpunktes in der Bildebene von dem in der Bildebene liegenden Koordinatenursprung zu verstehen. Da im vorliegenden Falle nur Objektive verwendet werden, die in hohem Maße rotationssymme­ trisch sind, fällt die tangentiale Verzeichnung gegen­ über der Auflösung des Bildsensors in der Bildebene vernachlässigbar klein aus. Infolgedessen werden die Bildpunkte in der Bildebene maßgeblich in radialer Richtung entsprechend der Verzeichnungskurve des Objek­ tivs nichtlinear verschoben wodurch das Bild DELTA auf dem Bildsensor eine Verzeichnung aufweist und deshalb für eine schnelle kognitive Information eines Beob­ achters ungeeignet ist.This real, recorded picture is called DELTA net. With regard to this wide-angle illustration, the following now applies the inadequacy mentioned at the beginning that in the Image plane the pixels in radial and tangential Direction are changed because light beams pass through through the lens with respect to their direction of propagation experienced distractions. Furthermore everyone has light bundle pixel its own image height in the image level. M.a.W. the image scale depends on the image height. The Ab is below the picture height the light beam image point in the image plane from the coordinate origin lying in the image plane to understand. Because in the present case only lenses used, which are highly rotationally symmetrical trical, the tangential distortion is counter above the resolution of the image sensor in the image plane negligibly small. As a result, the Pixels in the image plane largely in radial Direction according to the distortion curve of the object tivs shifted non-linearly causing the image to DELTA the image sensor has a distortion and therefore for quick cognitive information of an observer aft is unsuitable.

Ausgehend von dieser realen, optisch unbrauchbaren Abbildung veranschaulicht Fig. 6 den ersten Teil­ schritt des Verfahrens, nämlich den der "elektroni­ schen Streckenentzerrung" zwecks Gewinnung eines nicht real, sondern nur elektronisch existierenden streckenentzerrten Bildes.Starting from this real, optically unusable figure, FIG. 6 illustrates the first part of the process, namely that of "electronic route equalization" for the purpose of obtaining a non-real, but only electronically existing, route-corrected image.

Dieser erste Teilschritt ist äquivalent mit bzw. bewirkt der/die "Synthese" eines einzigen Projek­ tionszentrums der Zentralprojektion für alle Geraden durch Objekt- und Bildpunkt.This first sub-step is equivalent to or  causes the "synthesis" of a single project center projection for all straight lines through object and image point.

Demgemäß entspricht der untere Teil der Fig. 6 den in Zusammenhang mit Fig. 5 bereits erläuterten Ab­ bildungsverhältnissen in der Kamera. Der obere Teil der Fig. 6 veranschaulicht das durch den ersten Teilschritt des Verfahrens erzielte Resultat.Accordingly, the lower part of FIG. 6 corresponds to the image conditions already explained in connection with FIG. 5 in the camera. The upper part of FIG. 6 illustrates the result achieved by the first sub-step of the method.

Demnach wird mittels einer Streckenentzerrfunktion E, die vorzugsweise zwei Einzelfunktionen E₁ und E₂ für zwei Koordinatenrichtungen umfaßt, aus dem verzeich­ neten Sensorbild DELTA ein verzeichnungsfreies Bild E gebildet, welches genau dem Bild eines theoretisch ver­ zeichnungsfreien Objektivs mit Objektwinkel Θ z. B. 160° entspricht, dem wiederum - vice versa - für das Bild E die Existenz eines einzigen Projektionszentrums 1.10 für alle Geraden 1.9′ aus dem Objektraum mittels ent­ spricht.Accordingly, a distortion-free image E is formed by means of a distance equalization function E, which preferably comprises two individual functions E 1 and E 2 for two coordinate directions, from the recorded sensor image DELTA, which exactly corresponds to the image of a theoretically distortion-free lens with object angle Θ z. B. 160 °, which in turn - vice versa - speaks for image E the existence of a single projection center 1.10 for all straight lines 1.9 'from the object space by means of ent.

Der "F-Wert" (Helligkeit; Helligkeit, Farbsättigung, Farbart; RGB-Werte) eines Bildpunktes in der Bildebene des streckenentzerrten Bildes E mit den Koordinaten (y′, z′) wird mit FE (y′, z′) bezeichnet. Damit läßt sich also das streckenentzerrte Bild E beschreiben als Gesamtmenge aller FE mit Pixelkoordinaten y′ und z′.The "F value"(brightness; brightness, color saturation, color type; RGB values) of a pixel in the image plane of the rectified image E with the coordinates (y ′, z ′) is denoted by F E (y ′, z ′) . Thus, the rectified image E can be described as the total set of all F E with pixel coordinates y 'and z'.

Vom Bild E aus gesehen - d. h. in Rückwärtsrichtung - gibt die zweiachsige TransformationSeen from image E - ie in the reverse direction - there is the two-axis transformation

E = E₁, E₂ (2)E = E₁, E₂ (2)

den Zusammenhang der Koordinaten einander entsprechender F-Werte in den Bildern DELTA und E an gemäß der Trans­ formationsvorschriftthe relationship between the coordinates of mutually corresponding F values in the images DELTA and E in accordance with the transformation regulation

y = E₁(y′, z′; k₁, . . . kn),
z = E₂(y′, z′; k₁, . . . kn) (2.1)
y = E₁ (y ′, z ′; k₁,... k n ),
z = E₂ (y ′, z ′; k₁,... k n ) (2.1)

In E sind alle Parameter k₁, . . . kn der realen Sensor­ strecke Objektiv - Bildsensor - Digitalisierer bis einschließlich 1.3 wie z. B.In E all parameters k₁,. . . k n the real sensor range lens - image sensor - digitizer up to and including 1.3 such as B.

  • - Radiale und tangentiale Verzeichnung des Objektivs;- Radial and tangential distortion of the lens;
  • - Durchstoßpunkt der optischen Achse des Objektivs durch die Real-Bildebene des Bildsensors;- Point of penetration of the optical axis of the lens through the real image plane of the image sensor;
  • - Neigung der optischen Achse des Objektivs bezüg­ lich der Real-Bildebene des Bildsensors;- Inclination of the optical axis of the lens Lich the real image plane of the image sensor;
  • - Zeilen-Abtastraster des Digitalisierers,- line scanning grid of the digitizer,
  • - und dergleichen- and the same

über individuelle mathematische Funktionen für E₁ und E₂ verknüpft. Mittels optischer Kalibrationsverfahren können die Parameter k₁, . . . kn der Sensorstrecke er­ mittelt werden. Die die Physik des Objektivs beschrei­ benden Funktionen E₁ und E₂ sind eineindeutig und stetig differenzierbar. Sie können gleichwohl auch im Hinblick auf die definierte Sensor-Pixelordnung als nur an diskreten Stellen definierte Funktionen vorliegen, etwa vergleichbar mit einer Tabelle.linked via individual mathematical functions for E₁ and E₂. The parameters k 1,. . . k n of the sensor path can be determined. The physics of the lens descriptive functions E₁ and E₂ are unambiguous and continuously differentiable. With regard to the defined sensor pixel order, they can nevertheless also be present as functions defined only at discrete locations, for example comparable to a table.

Dabei ist also die geometrische Verknüpfung des strecken­ entzerrten Bildes E mit dem ursprünglich verzerrten Real- Bild DELTA auf dem Bildsensor gegeben durch:The geometric link between the stretched image E and the originally distorted real image DELTA on the image sensor is given by:

(zeigt auf)
FE(y′, z′) - - - E₁, E₂ → FV (y, z), oder (2.2)
(points to)
F E (y ′, z ′) - - - E₁, E₂ → F V (y, z), or (2.2)

Die unmittelbare Darstellung des streckenentzerrten Bildes E kann bei Objektiven mit Objektwinkeln Θ von z. B. kleiner 160° durchaus interessant sein. Im ande­ ren Falle existiert das resultierende Bild E dann als solches nicht wirklich optisch, sondern nur rein elek­ tronisch.The direct representation of the rectified image E can be achieved with lenses with object angles Θ of z. B. less than 160 ° can be quite interesting. In the other case, the resulting image E does not really exist as such, but only purely electronically.

Die Zeigefunktion von FE auf FV bedeutet insoweit, daß auf einem (in diesem Transformationsschritt) realen oder fiktiven Bildschirm für das Bild E ein lückenloses Pixel­ raster aus jeweils horizontal aneinander anschließenden und dadurch Zeilen bildenden Bildpunkten bzw. aus ver­ tikal aufeinanderfolgenden Zeilen geschrieben wird und dabei jeweils als F-Wert des E-Pixels derjenige Wert verwendet wird, den der in der Bildebene des verzerr­ ten Real-Bildes DELTA über die Transformation E₁, E₂ festliegende DELTA-Quellpunkt aufweist. Dies bedeutet letztlich, daß es bereits auf einem realen oder fiktiven Bildschirm bereits für das Bild E keine "ausgelassenen Pixel" geben kann, indem die Transformation letztlich das regelmäßige "Pixelraster" des Bildes E auf einem solchen Bildschirm aus einer der Streckenentzerrungs­ transformation gehorchenden Auswahl von Bildpunkten des Real-Bildes DELTA auf dem Bildsensor 1.2 assemb­ liert, letztwelche dort folglich nicht zwangsläufig benachbart bzw. lückenlos aufeinanderfolgend anein­ ander anschließen (müssen).The pointing function from F E to F V means that on a (in this transformation step) real or fictional screen for the image E, a gapless pixel grid is written from pixels that are horizontally adjacent to one another and thereby form lines, or from vertically successive lines and in each case the F value of the E pixel used is that value which has the DELTA source point which is fixed in the image plane of the distorted real image DELTA via the transformation E 1, E 2. Ultimately, this means that even on a real or fictitious screen, there can already be no "omitted pixels" for the image E , since the transformation ultimately results in the regular "pixel grid" of the image E on such a screen from a selection of the route equalization transformation Pixels of the real image DELTA are assembled on the image sensor 1.2, so the latter do not necessarily have to be adjacent to one another or have to be connected in succession.

Im Ergebnis ist diese Koordinaten-Bildtransformation geradentreu.The result is this coordinate image transformation straightforward.

Allerdings entspricht bei einem Weitwinkelobjektiv mit einem Objektwinkel Θ von z. B. 160° oder noch größer der visuelle Seheindruck des streckenentzerrten Bildes E noch nicht menschlichen Sehgewohnheiten. So treten plakative Effekte und insbesondere eine grobe Rasterung in den Randzonen auf. Des weiteren werden Objekte, die an verschiedenen Tiefenpositionen im Objektraum stehen, bei so großen Objektwinkeln im streckenentzerrten Bild E mit falschen Größenverhältnissen zueinander wiederge­ geben. Aus diesem Grund ist das streckenentzerrte Bild E bei Objektiven mit sehr großen Objektwinkeln Θ von z. B. 160° oder noch größer als Informationsbild auf einem Bildschirm für einen Fahrzeugführer weniger geeignet.However, for a wide-angle lens with an object angle Θ of z. B. 160 ° or even greater the visual visual impression of the rectified image E not yet human viewing habits. This gives rise to striking effects and, in particular, a rough grid in the peripheral zones. Furthermore, objects that are at different depth positions in the object space are reproduced with such large object angles in the distance-rectified image E with incorrect size ratios to one another. For this reason, the rectified image E for lenses with very large object angles Θ of z. B. 160 ° or even less suitable as an information image on a screen for a vehicle driver.

Wie in Fig. 7 illustriert, kann mittels einer weiteren Transformation W, die wiederum zwei richtungsabhängige Komponenten W₁ und W₂ umfaßt, aus dem zuvor streckenent­ zerrten Bild E ein weiter winkelentzerrtes Basisbild W erzeugt werden;As illustrated in FIG. 7, a further transformation W, which in turn comprises two direction-dependent components W 1 and W 2, can be used to generate a further angle-corrected basic image W from the previously stretched image E ;

W = W₁, W₂ (3)W = W₁, W₂ (3)

Dabei ist der "F-Wert" (Helligkeit; Helligkeit, Farbsät­ tigung, Farbart; RGB-Werte) eines Bildpunktes in der Bil­ debene des winkelentzerrten Bildes W mit den Koordinaten (α, β) als FW (α, β) bezeichnet.The "F value"(brightness; brightness, color saturation, color type; RGB values) of a pixel in the image plane of the angle-corrected image W with the coordinates (α, β) is designated as F W (α, β).

Das winkelentzerrte Bild W läßt sich somit beschreiben als Gesamtmenge aller FW mit Pixelkoordinaten α und β. Es be­ sitzt ein rechtwinkliges Koordinatensystem mit den Achsen α und β und jeder F-Wert des Bildes W mit den Koordinaten (α, β) zeigt über die TransformationsvorschriftThe angle-corrected image W can thus be described as the total of all F W with pixel coordinates α and β. There is a right-angled coordinate system with the axes α and β and each F-value of the image W with the coordinates (α, β) shows the transformation rule

y′ = W₁(α, β) = f * tan(α)
z′ = W₂(α, β) = f * tan(β) (3.1.1)
y ′ = W₁ (α, β) = f * tan (α)
z ′ = W₂ (α, β) = f * tan (β) (3.1.1)

mit f = Bildweite
auf den Koordinatenort (y′, z′) des F-Wertes des entspre­ chenden Bildpunktes FE (y′, z′) im streckenentzerrten Bild E bzw. über die Koordinaten-Bildtransformationsvorschrift
with f = image width
to the coordinate location (y ′, z ′) of the F value of the corresponding pixel F E (y ′, z ′) in the rectified image E or via the coordinate image transformation rule

y = E₁[W₁(α, β), W₂(α, β); k₁, . . . kn)
z = E₂[W₁(α, β), W₂(α, β); k₁, . . . kn] (3.1.2.)
y = E₁ [W₁ (α, β), W₂ (α, β); k₁,. . . k n )
z = E₂ [W₁ (α, β), W₂ (α, β); k₁,. . . k n ] (3.1.2.)

auf den Koordinatenort (y, z) des F-Wertes des entspre­ chenden Bildpunktes FV (y, z) im ursprünglich verzeich­ neten Real-Bild DELTA.to the coordinate location (y, z) of the F value of the corresponding pixel F V (y, z) in the originally recorded real image DELTA.

Insgesamt kann die bis dahin durchgeführte Transforma­ tion also wie folgt beschrieben werden:Overall, the transforma carried out up to that point tion can be described as follows:

Die vorstehende Gesamttransformation G₁, G₂ ist im all­ gemeinen nicht geradentreu. Allerdings leistet sie fol­ gendes:The above total transformation G₁, G₂ is in all mean not straightforward. However, she does fol gendes:

  • - Alle Objektraumgeraden, die senkrecht bzw. waag­ recht in einer Objektraumebene, welche parallel zur y/z-Ebene ist, verlaufen, werden geradentreu senkrecht und waagrecht abgebildet. Die Menge die­ ser Objektraumgeraden wird mit GSW bezeichnet.- All object space lines that run vertically or horizontally in an object space plane that is parallel to the y / z plane are mapped vertically and horizontally true to the straight line. The amount of this straight line of object space is designated G SW .
  • - Weiterhin werden auch diejenigen Objektraumgeraden geradentreu abgebildet, die in den Ebenen verlaufen, welche die einzelnen Geraden, die die Menge GSW bilden, mit dem Projektionszentrum 1.10 aufspan­ nen;- Furthermore, those straight lines of the object space are mapped in a straight line that run in the planes that span the individual straight lines that form the set G SW with the projection center 1.10 ;
  • - Das Bild W entspricht den menschlichen Sehgewohn­ heiten. Es eignet sich zur Darstellung auf einem Bildschirm zur Visualisierung eines nicht unmittel­ bar einsehbaren Raumes, beispielsweise eines Fahr­ zeugrückraumes für einen Fahrzeugführer. Bei einem PKW kann damit gemäß Fig. 3 der zum versetzt Rück­ wärtseinparken benötigte Freiraum vom Stoßfänger an relativ gut überwacht werden.- The image W corresponds to human viewing habits. It is suitable for display on a screen for the visualization of a space that is not immediately visible, for example a vehicle rear space for a vehicle driver. In the case of a car, the free space required for staggered rear parking can thus be monitored relatively well from the bumper as shown in FIG. 3.

Ausgehend von diesem Transformationsschritt mit dem Re­ sultat eines winkelentzerrten Bildes W ist durch einen, in Fig. 8 veranschaulichten Verfahrensschritt noch ein elektronisch perspektivisch korrigiertes Bild K gewinnbar, das - alternativ - ein Vertikalbild (senkrechte Blick­ richtung) oder ein Horizontalbild (waagrechte Blickrich­ tung) sein kann. Unter der Perspektive wird dabei die Blickrichtung des Objektivs verstanden. Starting from this transformation step with the result of an angle-corrected image W , an electronically perspective-corrected image K can be obtained by a method step illustrated in FIG. 8, which - alternatively - a vertical image (vertical viewing direction) or a horizontal image (horizontal viewing direction) can be. The perspective is understood as the viewing direction of the lens.

Für diese Transformation gilt analogThe same applies to this transformation

K = K₁, K₂ (4)K = K₁, K₂ (4)

Der "F-Wert" (Helligkeit; Helligkeit, Farbsättigung, Farbart; RGB-Werte) eines Bildpunktes des damit erhal­ tenen perspektivisch korrigierten Winkelentzerrungsbil­ des K mit den Koordinaten (α′, β′) wird mit FK (α′, β′) bezeichnet. Damit läßt sich das perspektivisch korri­ gierte winkelentzerrte Bild K beschreiben als Gesamt­ menge aller FK mit Pixelkoordinaten α′ und β′.The "F value"(brightness; brightness, color saturation, color type; RGB values) of a pixel of the perspective-corrected angular equalization image of the K with the coordinates (α ′, β ′) thus obtained is given by F K (α ′, β ′ ) designated. The perspective-corrected angle-corrected image K can thus be described as the total amount of all F K with pixel coordinates α ′ and β ′.

Vom Bild K aus gesehen - d. h. in Rückwärtsrichtung - gibt die Transformation K = K₁, K₂ den Zusammenhang der Koordinaten desselben F-Wertes in den Bildern W und K an.Seen from the image K - ie in the reverse direction - the transformation K = K₁, K₂ indicates the relationship of the coordinates of the same F value in the images W and K.

Das Bild K besitzt ein rechtwinkliges Koordinatensystem mit den Achsen α′ und β, und jeder F-Wert von K mit den Koordinaten (α′, β′) zeigt vermöge der Transformations­ vorschriftThe image K has a right-angled coordinate system with the axes α ′ and β, and each F-value of K with the coordinates (α ′, β ′) shows by virtue of the transformation rule

auf den Koordinatenort (α, β) des F-Wertes von FW (α, β) im Bild W bzw. über die Koordinaten-Bildtransformations­ vorschriftregulation on the coordinate location (α, β) of the F value of F W (α, β) in the image W or via the coordinate image transformation

y = E₁[W₁[K₁(α′, β′), K₂(α′, β′)],
W₂[K₁(α′, β′), K₂(α′, β′)]; k₁, . . . kn],
z = E₂[W₁[K₁(α′, β′), K₂(α′, β′)],
W₂[K₁(α′, β′), K₂(α′, β′)]; k₁, . . . kn] (4.1.2)
y = E₁ [W₁ [K₁ (α ′, β ′), K₂ (α ′, β ′)],
W₂ [K₁ (α ′, β ′), K₂ (α ′, β ′)]; k₁,. . . k n ],
z = E₂ [W₁ [K₁ (α ′, β ′), K₂ (α ′, β ′)],
W₂ [K₁ (α ′, β ′), K₂ (α ′, β ′)]; k₁,. . . k n ] (4.1.2)

auf den Koordinatenort (y, z) des F-Wertes des entspre­ chenden Bildpunktes FV (y, z) im ursprünglich verzeich­ neten Real-Bild DELTA.to the coordinate location (y, z) of the F value of the corresponding pixel F V (y, z) in the originally recorded real image DELTA.

Insgesamt kann somit die Gesamtheit aller Transforma­ tionsschritte bis hierher wie folgt beschrieben werden:Overall, the entirety of all Transforma can steps up to here are described as follows:

Die Transformation K = K₁, K₂ macht innerhalb der Gesamttransformation G₁, G₂ gemäß (4.2) letztlich den Effekt eines "elektronischen Schwenks" der Kamera samt Bildsensor um eine Achse durch das Projektionszentrum orthogonal zur Aufspannebene des in Fig. 2 veranschau­ lichten Anstellwinkels Φ. Im Ausführungsbeispiel gemäß Fig. 2 ist die Video-Kamera beispielhaft im Heckdeckel eines PKW fix betriebspositioniert, wobei ihre optische Achse zur Vertikalen den Anstellwinkel Φ aufweist, der beispielhaft 45° beträgt.The transformation K = K₁, K₂ makes within the overall transformation G₁, G₂ according to (4.2) ultimately the effect of an "electronic pan" of the camera including the image sensor about an axis through the projection center orthogonal to the clamping plane of the angle of attack illustrated in FIG. 2 Φ. In the exemplary embodiment according to FIG. 2, the video camera is, for example, in a fixed operating position in the rear cover of a car, its optical axis having the angle of attack Φ, which is 45 ° by way of example.

Im Hinblick auf Fig. 7 und Fig. 8 bewirkt die Trans­ formation (4)-(4.1.1) bei unverändert fester Kamera mit Anstellwinkel Φ eine Drehung des Bildes K in Bezug auf das Bild W um eine Achse durch das Projektionszentrum 1.10 orthogonal zur Aufspannebene des aus Fig. 2 er­ sichtlichen Anstellwinkels Φ so, daß die neue fiktive optische Achse des Bildes K senkrecht nach unten weist mit der Folge, daß sich die fiktive Ebene des Bildes K dann horizontal erstreckt. W wird in Rückwärtsrichtung aus K erzeugt. .. 8 effected with regard to Figures 7 and the Trans formation (4) - (4.1.1) with an unchanged fixed camera angle Φ with a rotation of the image K in relation to the image W orthogonal to an axis through the center of projection to 1.10 Clamping plane of the angle of incidence sicht visible from FIG. 2 such that the new fictitious optical axis of the image K points vertically downward, with the result that the fictitious plane of the image K then extends horizontally. W is generated from K in the reverse direction.

Die Winkelentzerrung gemäß dem Verfahrensschritt (3)- (3.1.1)/(3.1.2)-(3.2.)-(3.3) angewandt auf dieses fiktive Bild W ergibt also in der Gesamttransformation ein Verti­ kalbild mit fiktiver optischer Achse vertikal nach unten. D.h., obwohl die Kamera und ihr Bildsensor gar nicht mit Blickrichtung senkrecht nach unten positioniert sind, er­ laubt es das Verfahren, aus dem in der y/z-Koordinaten­ ebene real erhaltenen Bild ein Vertikalbild synthetisch aufzubereiten, indem vor der Transformation gemäß (3)- (3.1.1)/(3.1.2)-(3.2.)-(3.3) die Winkel α und β der Transformation K = K₁, K₂ gemäß (4)-(4.1.1) unterwor­ fen werden.The angle equalization according to process step (3) - (3.1.1) / (3.1.2) - (3.2.) - (3.3) applied to this fictitious image W thus results in a vertical image with a fictitious optical axis vertically downwards in the overall transformation . That is, although the camera and its image sensor are not positioned vertically downwards at all, it allows the process to synthetically prepare a vertical image from the image actually obtained in the y / z coordinates by prior to the transformation according to (3) - (3.1.1) / (3.1.2) - (3.2.) - (3.3) the angles α and β of the transformation K = K₁, K₂ according to (4) - (4.1.1) are subjected.

Die Gesamttransformation G₁, G₂ gemäß (4)-(4.1.1)/ (4.1.2)-(4.2)-(4.3) ist im allgemeinen nicht geraden­ treu. Sie leistet jedoch insgesamt folgendes:The total transformation G₁, G₂ according to (4) - (4.1.1) / (4.1.2) - (4.2) - (4.3) is generally not a straight line  faithful. Overall, however, it does the following:

  • - Alle Geraden des Objektraumes, welche im Hinblick auf die Fig. 2 und 3 beispielhaft auf ebenem Fahrzeuguntergrund oder in Parallelebenen dazu parallel bzw. senkrecht zur Längsrichtung des Fahrzeugs verlaufen, werden geradentreu senk­ recht und waagrecht abgebildet. Die Menge die­ ser Objektraumgeraden wird mit GSW bezeichnet.- All straight lines of the object space, which run with reference to FIGS. 2 and 3, for example on a flat vehicle surface or in parallel planes parallel or perpendicular to the longitudinal direction of the vehicle, are depicted true to the vertical and horizontal. The amount of this straight line of object space is designated G SW .
  • - Weiterhin werden auch diejenigen Objektraumge­ raden geradentreu abgebildet, die in den Ebenen verlaufen, welche die einzelnen Geraden, die die Menge GSW bilden, mit dem Projektionszentrum 1.10 aufspannen.- Furthermore, those object space lines are also shown true to the straight line that run in the planes that span the individual straight lines that form the set G SW with the projection center 1.10 .
  • - Das Bild K vermittelt auf einem Bildschirm auf elektronischem Wege die parallaxenfreie Sehper­ spektive "Blick senkrecht nach unten" beispiels­ weise in einen Fahrzeugrückraum für einen Fahr­ zeugführer beim Ausführungsbeispiel gemäß Fig. 1 bis 3.- The image K conveys on a screen electronically the parallax-free viewer spotting "view vertically down" example, in a vehicle rear space for a vehicle driver in the embodiment according to FIGS . 1 to 3.
  • - Da das Bild W in der Art eines Panoramabildes eine kognitiv gute Raumübersicht, jedoch weni­ ger gute Abstandsübersicht zu Hindernissen bie­ tet, ist im Rahmen des Visualisierungsverfah­ rens bzw. bei einer dieses durchführenden Vor­ richtung optional vorgesehen, bei Näherung an/ von Hindernisse/n zwischen dem Panoramabild W und dem parallaxenfreien Vertikalbild K umzu­ schalten.- Since the image W offers a cognitively good spatial overview in the manner of a panoramic image, but less good overview of the distances to obstacles, is optionally provided as part of the visualization process or in the case of a device performing this, when approaching / from obstacles to switch between the panoramic image W and the parallax-free vertical image K.
  • - Durch eine spezielle nichtlineare Skalierung der Koordinatenachse β′ erhält man ein variiertes Bild K, welches bezüglich der Abstände auf dem Fahrbahn­ untergrund in Längsrichtung des Fahrzeugs bzw. in der Aufspannrichtung des Winkels Φ Abstandstreue aufweist. Dies ist folglich eine weitere Fort­ bildung der Gesamttransformation G₁, G₂ gemäß (4)-(4.1.1)/(4.1.2)-(4.3)- By a special non-linear scaling of the coordinate axis β ', a varied image K is obtained , which has distance fidelity with respect to the distances on the road surface in the longitudinal direction of the vehicle or in the clamping direction of the angle Φ. This is therefore a further training of the overall transformation G₁, G₂ according to (4) - (4.1.1) / (4.1.2) - (4.3)

Die alternative Darstellung eines entsprechend winkelent­ zerrten und perspektivisch korrigierten Horizontalbildes ist ebenfalls möglich.The alternative representation of a correspondingly angular distorted and perspective corrected horizontal image is also possible.

Dazu wird der Wert FK eines jeden Pixels (α′, β′) des per­ spektivisch winkelentzerrten (Horizontal-)Bildes K vom Wert FW desjenigen Pixels (α, β) des (perspektivisch nicht korri­ gierten) Bildes W abgeleitet, auf welches das Pixel (α′, β′) vermöge der TransformationFor this purpose, the value F K of each pixel (α ′, β ′) of the (horizontal) image K corrected by perspective is derived from the value F W of that pixel (α, β) of the (perspective non-corrected) image W to which the pixel (α ′, β ′) by the transformation

K = K₁, K₂ (5)K = K₁, K₂ (5)

gemäß der Transformationsvorschriftaccording to the transformation regulation

zeigt.shows.

Der Wert FK kann auch von dem F-Wert des entsprechenden Bildpunktes FV (y, z) im ursprünglich verzeichneten Real- Bild DELTA abgeleitet werden, auf welches das Pixel (α′, β′) vermöge der Koordinaten-BildtransformationThe value F K can also be derived from the F value of the corresponding pixel F V (y, z) in the real image DELTA originally recorded, to which the pixel (α ′, β ′) by the coordinate image transformation

y = E₁[W₁[K₁(α′, β′), K₂(α′, β′)],
W₂[K₁(α′, β′), K₂(α′, β′)]; k₁, . . . kn],
z = E₂[W₁[K₁(α′, β′), K₂(α′, β′)],
W₂[K₁(α′, β′), K₂(α′, β′)]; k₁, . . . kn] (5.1.2)
y = E₁ [W₁ [K₁ (α ′, β ′), K₂ (α ′, β ′)],
W₂ [K₁ (α ′, β ′), K₂ (α ′, β ′)]; k₁,. . . k n ],
z = E₂ [W₁ [K₁ (α ′, β ′), K₂ (α ′, β ′)],
W₂ [K₁ (α ′, β ′), K₂ (α ′, β ′)]; k₁,. . . k n ] (5.1.2)

zeigt gemäßshows according to

Daraus ist ersichtlich, daß sich bei einer Arbeitspo­ sitionierung der Videokamera mit Blickrichtungswinkel 45° schräg nach unten besonders einfache Verhältnisse bezüglich der alternativen Ableitung der beiden Bil­ der K ergeben.From this it can be seen that in a work positioning of the video camera with a viewing angle of 45 ° downwards, particularly simple conditions with regard to the alternative derivation of the two images of the K result.

Im Hinblick auf Fig. 7 und Fig. 8 bewirkt eine solche Transformation (5)-(5.1.1) bei unverändert fester Kamera mit Anstellwinkel Φ folglich eine Drehung der Ebene des Bildes K um eine Achse durch das Projektionszentrum 1.10 orthogonal zur Aufspannebene des in Fig. 2 veranschau­ lichten Anstellwinkels Φ so, daß die neue fiktive optische Achse des Bildes K waagerecht vom Fahrzeug weg (nach hin­ ten) zeigt mit der Folge, daß sich die fiktive Ebene des Bildes K dann vertikal erstreckt. W wird in Rückwärts­ richtung aus K erzeugt.With regard to FIG. 7 and FIG. 8, such a transformation (5) - (5.1.1) results in a rotation of the plane of the image K about an axis through the projection center 1.10 orthogonal to the clamping plane of the in FIG Fig. 2 illustrated clear angle of attack Φ so that the new fictitious optical axis of the image K horizontally away from the vehicle (towards th) shows with the result that the fictitious plane of the image K then extends vertically. W is generated from K in the reverse direction.

Die Winkelentzerrung gemäß dem Verfahrensschritt (3)- (3.1.1)/(3.1.2)-(3.2.)-(3.3) angewandt auf ein solches fiktives Bild W liefert ein Horizontalbild mit fiktiver optischer Achse waagerecht vom Fahrzeug weg. Obwohl die Kamera und ihr Bildsensor gar nicht mit Blickrichtung waagerecht vom Fahrzeug weg positioniert sind, erlaubt das Verfahren auf der Basis des in der Y/z-Koordinaten­ ebene real empfangenen Bildes ein Horizontalbild auf einem Monitor darzustellen, indem vor der Transformation gemäß (3)-(3.1.1)/(3.1.2)-(3.2.)-(3.3) die Winkel α und β der Transformation K = K₁, K₂ gemäß (5)-(5.1.1) unterworfen werden.The angle equalization according to process step (3) - (3.1.1) / (3.1.2) - (3.2.) - (3.3) applied to such fictional image W provides a horizontal image with a fictional one optical axis horizontally away from the vehicle. Although the Camera and its image sensor not at all with viewing direction are positioned horizontally away from the vehicle the method based on that in the y / z coordinates a real image received a horizontal image on a Display monitor by according to the transformation (3) - (3.1.1) / (3.1.2) - (3.2.) - (3.3) the angles α and β of the Transformation K = K₁, K₂ according to (5) - (5.1.1) subjected will.

Die vorerwähnten Teiltransformationen stellen selbst­ verständlich keinerlei Beschränkung der Erfindung, son­ dern ausgewählte Schrittbeispiele dafür dar, wie eine erfindungsgemäß allgemeine Koordinaten-Bildtransforma­ tionThe aforementioned partial transformations themselves understandable no limitation of the invention, son selected step examples for how a general coordinate image transform according to the invention tion

A = A₁, A₂ (1)A = A₁, A₂ (1)

mit achsorthogonalen Transformationskomponentenwith orthogonal transformation components

y = A₁(a′, b′) und
z = A₂(a′, b′) (1.1)
y = A₁ (a ′, b ′) and
z = A₂ (a ′, b ′) (1.1)

als "Über-Alles-Schritt" der Reallokationas an "over-all step" of the real location

(zeigt auf)
FM(a′, b′) - - - A₁, A₂ → FV(y,z) (1.2)
FM(a′ , b′) = FV [A₁(a′, b′), A₂(a′, b′)] (1.3)
(points to)
F M (a ′, b ′) - - - A₁, A₂ → F V (y, z) (1.2)
F M (a ′, b ′) = F V [A₁ (a ′, b ′), A₂ (a ′, b ′)] (1.3)

im Detail gestaltet werden kann, wobei in dieser all­ gemeinen Beschreibung des Verfahrens FM dem "F-Wert" (wenigstens Helligkeit in einem Schwarz/Weiß-System, bevorzugt aber auch Farbsättigung und Farbart oder RGB-Wert) eines Bildpunktes in der a′/b′-Bildebene auf dem Bildschirm und FV dem "F-Wert" (wenigstens Helligkeit in einem Schwarz/Weiß-System, bevorzugt aber auch Farbsättigung und Farbart oder RGB-Wert) eines Bildpunktes in der y/z-DELTA-Ebene auf dem Sen­ sorchip der Kamera entspricht und die Transformatio­ nen A₁ und A₂ angeben, von welchen Koordinaten (y, z) auf dem Bildsensor in der Kamera der aktuell bei den Koordinaten (a′, b′) auf dem Bildschirm zu schreibende F-Wert "abzuleiten¹′ ist. Die unter (2.3), (3.3) und (4.3) angegebenen Gesamttransformationen G₁, G₂ sind also beispielhafte Spezial- bzw. Sonderfälle der vor­ genannten allgemeinen Transformation A₁, A₂.can be designed in detail, whereby in this general description of the method F M the "F value" (at least brightness in a black / white system, but preferably also color saturation and color type or RGB value) of a pixel in the a ' / b'-image plane on the screen and F V the "F value" (at least brightness in a black / white system, but preferably also color saturation and color type or RGB value) of a pixel in the y / z DELTA plane on the sensor chip corresponds to the camera and the transformations N₁ and A₂ indicate which coordinates (y, z) on the image sensor in the camera the F-value to be written on the screen at the coordinates (a ′, b ′) on the screen The overall transformations G₁, G₂ indicated under (2.3), (3.3) and (4.3) are exemplary special cases of the general transformation A₁, A₂ mentioned above.

Eine solche festzuverdrahtende Allokationstransfor­ mation wird in der Regel außer der spezifischen un­ erwünschten Abbildungsverzeichnung auch die Bildfeld­ parameter des Bildsensors und des Bildschirmes (Bild­ seitenverhältnisse bzw. horizontale und vertikale In­ frame Nutzpixelzahl) miteinschließen und in der Praxis vorteilhaft so ausgelegt werden, daß sie wenigstens eine Kategorie der Mehrzahl von objektivbedingt spe­ zifischen geometrisch-optischen Verzeichnungen des real erhältlichen Objektraumbildes von der gewünschten Ob­ jektraumdarstellung optimal korrigiert, wobei die Kate­ gorien bei verschiedenstufigen Korrektionen auch wech­ seln können.Such an allocation transform to be hardwired mation is usually beyond the specific un desired image distortion also the image field parameters of the image sensor and the screen (image aspect ratios or horizontal and vertical in frame number of useful pixels) and in practice advantageously be designed so that they at least a category of the majority of objective-specific specific geometric-optical distortions of the real  available object room image of the desired Ob display space optimally corrected, the Kate with different levels of corrections can choose.

In jedem Falle bleibt der immanente Verfahrensvorteil wirksam, daß die Kompensation von Abbildungsunzuläng­ lichkeiten durch Pixelreallokation sog. "unbestimmte Pixel" auf dem Bildschirm und alle damit auftretenden Folgeprobleme vermeidet und somit kein Aufwand für elektronischen Mittel zur Füllung oder Interpolation "wertloser" Pixel getrieben werden muß.In any case, the inherent procedural advantage remains effective that the compensation of mapping insufficient possibilities by pixel reallocation so-called "indefinite Pixels "on the screen and all that occurs Avoids consequential problems and therefore no effort for electronic means of filling or interpolation "worthless" pixels must be driven.

Es versteht sich von selbst, daß der Gegenstand der Erfindung weder bezüglich des Verfahrens noch bezüg­ lich der Vorrichtung verlassen wird, wenn beispiels­ weise eine vereinfachte Schwarz/Weiß-Übertragungs­ technik zum Einsatz gelangt und sich die F-Werte in diesem Falle dann auf Helligkeitspegelwerte reduzieren.It goes without saying that the subject of Invention neither in terms of the method nor related Lich leaves the device if, for example a simplified black and white transmission technology and the F-values in this case then to brightness level values to reduce.

Das Verfahren öffnet damit einen Weg, Vorrichtungen zur Visualisierung eines nicht unmittelbar einseh­ barer Überwachungsraumes mit in Echtzeit arbeiten­ den Bildsignalverarbeitungseinrichtungen mit gerin­ gem Aufwand schnell arbeitend, klein bauend und preisgünstig zu realisieren. Entsprechende Vorrich­ tungen eignen sich z. B. auch für die Einsicht von Passways in Passenger-Terminals, von tieferliegen­ den Durchtritträumen bei einem POS-Terminals, etc., wo im Einzelfall freilich andere Bildentzerrungen als bei einem Fahrzeug notwendig oder zweckmäßig sein können.The method thus opens a path to devices to visualize a not immediately visible barer surveillance room with work in real time the image signal processing devices with gerin working quickly, small in size and effort inexpensive to implement. Corresponding Vorrich are suitable for. B. also for the inspection of Passways in passenger terminals, from lower lying the entrance rooms at a POS terminal, etc., where in other cases, of course, other image rectifications than necessary or appropriate for a vehicle could be.

Claims (20)

1. Verfahren zur Visualisierung eines nicht unmittel­ bar einsehbaren Überwachungsraumes insbesondere bei einem Fahrzeug, bei welchem Verfahren eine dem Überwachungsraum zugeordnete Videokamera und, davon abgesetzt, ein in einem Beobachtungsraum angeordneter Bildschirm zur Anwendung gelangt, wobei zwischen Videokamera und Bildschirm eine Signalübertragung erfolgt und der Überwachungsraum ver­ mittels des Objektivs der Videokamera auf einem Bild­ sensor optisch abgebildet wird,
dadurch gekennzeichnet,
  • - daß in der Kamera als Objektiv ein Extrem-Weitwin­ kelobjektiv und als Bildsensor ein Halbleiter-Bildsen­ sor mit einer ersten definierten, in Zeilen und Spal­ ten definiert angeordneten Anzahl von Pixeln (Bildfeld­ parameter des Sensors) und als Bildschirm ein solcher mit einer zweiten definierten, in Zeilen und Spalten definiert angeordneten Anzahl von Pixeln (Bildfeldpa­ rameter des Bildschirms) verwendet wird;
  • - daß entsprechend der Objektraumabbildung DELTA in der Real-Bildebene auf dem Bildsensor jedem DELTA- Pixel (y, z) entsprechend der ersten Zahl von Sensor- Pixeln ein wenigstens die Helligkeit, vorzugsweise aber auch die Farbart, Helligkeit und Farbsättigung oder RGB-Werte beschreibender Wert FV und in der Dar­ stellungsbildebene auf dem Bildschirm jedem Schirmbild- Pixel (a′,b′) aus besagter zweiten Zahl von Pixeln ein entsprechender Wert FM zugeordnet wird,
  • - daß der Wert FM eines jeden aktuell zu schreiben­ den Schirmbild-Pixels vom Wert FV desjenigen Sensor- Pixels abgeleitet wird, auf welches das Schirmbild- Pixel vermöge der Transformation A = A₁, A₂mit der Transformationsvorschrifty = A₁(a′, b′) und
    z = A₂(a′, b′)zeigt gemäßFM(a′, b′) - - - A₁, A₂ → FV(y,z) ,
    FM(a′, b′) = FV[A₁(a′, b′), A₂(a′, b′)], und
  • - daß diese Zuordnung in Echtzeit vermittels einer gemäß der Transformationsvorschrift festverdrahteten Halbleiterlogik geschieht und die Bildtransformation auf der Basis der Bildfeldparameter sowohl des Bild­ sensors als auch des Bildschirmes wenigstens eine Kate­ gorie der objektivbedingt spezifischen geometrisch­ optischen Verzeichnung des realen Objektraumbildes (auf dem Bildsensor) von der gewünschten Objektraumdarstel­ lung (auf dem Bildschirm) durch Veränderung der Zuord­ nung von Sensor-Pixeln zu Bildschirm-Pixeln korrigiert.
1. A method for visualizing a surveillance space that cannot be viewed directly, in particular in a vehicle, in which method a video camera assigned to the surveillance space and, separated from it, a screen arranged in an observation space is used, a signal transmission taking place between the video camera and the screen and the surveillance space ver is optically imaged on an image sensor using the lens of the video camera,
characterized,
  • - That in the camera as an lens an extreme Weitwin lens and as an image sensor a semiconductor sensor with a first defined, defined in rows and columns th number of pixels (image field parameters of the sensor) and as a screen such with a second defined , number of pixels (image field parameters of the screen) defined in rows and columns is used;
  • - That, according to the object space mapping DELTA in the real image plane on the image sensor, each DELTA pixel (y, z) corresponding to the first number of sensor pixels describes at least the brightness, but preferably also the color type, brightness and color saturation or RGB values Value F V and a corresponding value F M is assigned to each screen image pixel (a ′, b ′) from said second number of pixels in the display image plane on the screen,
  • - That the value F M of each screen image pixel currently to be derived is derived from the value F V of the sensor pixel to which the screen image pixel by transformation A = A₁, A₂ with the transformation rule = A₁ (a ′, b ′ ) and
    z = A₂ (a ′, b ′) according to F M (a ′, b ′) - - - A₁, A₂ → F V (y, z),
    F M (a ′, b ′) = F V [A₁ (a ′, b ′), A₂ (a ′, b ′)], and
  • - That this assignment takes place in real time by means of a semiconductor logic which is hard-wired according to the transformation specification and the image transformation on the basis of the image field parameters of both the image sensor and the screen has at least one category of object-specific geometrical optical distortion of the real object space image (on the image sensor) of the corrected the desired object space representation (on the screen) by changing the assignment of sensor pixels to screen pixels.
2. Verfahren nach Anspruch 1,
dadurch gekennzeichnet,
  • - daß die vorgenannte Bildtransformation wenigstens einen Streckenentzerrungsschritt umfaßt dergestalt, daß der Wert FE eines jeden Pixels (y′, z′) des streckenent­ zerrten Bildes E vom Wert FV desjenigen DELTA-Pixels (y, z) abgeleitet wird, auf welches das E-Pixel vermöge der Transformation E = E₁, E₂gemäß der Transformationsvorschrifty = E₁(y′, z′; k₁, . . . kn),
    z = E₂(y′, z′; k₁, . . . kn)zeigt gemäßFE(y′, z′) - - - E₁, E₂ → FV (y, z),wobei mit k₁, . . . kn als Parameter der realen Sensorstrecke Objektiv - Bildsensor - Digitalisierer (1.5, 1.2, 1.3) und E₁ und E₂ als eineindeutig und stetig differenzier­ baren Objektivbeschreibungsfunktionen, die im Hinblick auf die definierte Sensor-Pixelordnung wenigstens an entsprechenden diskreten Stellen definiert sind bzw. wertmäßig vorliegen
2. The method according to claim 1,
characterized,
  • - That the aforementioned image transformation comprises at least one line rectification step such that the value F E of each pixel (y ', z') of the line rectified image E is derived from the value F V of that DELTA pixel (y, z) to which the E pixels by the transformation E = E₁, E₂ according to the transformation rule y = E₁ (y ′, z ′; k₁,... K n ),
    z = E₂ (y ′, z ′; k₁,... k n ) according to F E (y ′, z ′) - - - E₁, E₂ → F V (y, z), where with k₁,. . . k n as parameters of the real sensor path lens - image sensor - digitizer ( 1.5 , 1.2 , 1.3 ) and E₁ and E₂ as unambiguously and continuously differentiable lens description functions, which are defined in terms of the defined sensor pixel order at least at corresponding discrete locations or value available
3. Verfahren nach Anspruch 2,
dadurch gekennzeichnet,
  • - daß die Bildtransformation des weiteren wenigstens einen Winkelentzerrungsschritt umfaßt dergestalt, daß der Wert FW eines jeden Pixels (α, β) eines winkel­ entzerrten Bildes W vom Wert FV desjenigen DELTA-Pixels (y, z) abgeleitet wird, auf welches das Pixel des Bildes W vermöge der Koordinaten- Bildtransformation mit der Teiltransformation W = W₁, W₂gemäß der Koordinaten-Bialdtransformationsvorschrifty = E₁[W₁(α, β), W₂(α, β); k₁, . . . kn]
    z = E₂[W₁(α, β), W₂(α, β); k₁, . . . kn]zeigt gemäßFW(α, β) - - - W₁, W₂ → FE(y′, z′) - - - E₁, E₂ → FV(y, z),
    wobei
3. The method according to claim 2,
characterized,
  • - That the image transformation further comprises at least one angular equalization step such that the value F W of each pixel (α, β) of an angularly equalized image W is derived from the value F V of the DELTA pixel (y, z) to which the pixel the image W by the coordinate image transformation with the partial transformation W = W₁, W₂ according to the coordinate biald transformation rule = E₁ [W₁ (α, β), W₂ (α, β); k₁,. . . k n ]
    z = E₂ [W₁ (α, β), W₂ (α, β); k₁,. . . k n ] shows according to F W (α, β) - - - W₁, W₂ → F E (y ′, z ′) - - - E₁, E₂ → F V (y, z),
    in which
4. Verfahren gemäß Anspruch 3,
dadurch gekennzeichnet,
  • - daß die Videokamera gegenüber der Vertikalen unter einem Anstellwinkel Φ fest betrieben wird und die Bild­ transformation einen Schritt zur perspektivischen Trans­ formation in ein Vertikalbild umfaßt dergestalt, daß der Wert FK eines jeden Pixels (α′, β′) des perspektivisch korrigierten (Vertikal-)Bildes K vom Wert FW desjenigen Pixels (α, β) des (perspektivisch nicht korrigierten Bil­ des W abgeleitet wird, auf welches das Pixel (α′, β′) vermöge der Transformation K = K₁, K₂gemäß der Transformationsvorschrift zeigt, oder vom F-Wert desjenigen Bildpunktes FV(y, z) im ursprünglich verzeichneten Real-Bild DELTA abgeleitet wird, auf welches das Pixel (α′, β′) vermöge der Koordi­ naten-Bildtransformationy = E₁[W₁[K₁(α′, β′), K₂(α′, β′)],
    W₂[K₁(α′, β′), K₂(α′, β′)]; k₁, . . . kn],
    z = E₂[W₁[K₁(α′, β′), K₂(α′, β′)],
    W₂[K₁(α′, β′), K₂(α′, β′)]; k₁, . . . kn]zeigt gemäß
4. The method according to claim 3,
characterized,
  • - That the video camera is operated with respect to the vertical at an angle of incidence Φ and the image transformation includes a step for perspective transformation into a vertical image such that the value F K of each pixel (α ', β') of the perspective corrected (vertical -) Image K is derived from the value F W of that pixel (α, β) of the (perspective non-corrected image of the W to which the pixel (α ', β') by the transformation K = K₁, K₂ according to the transformation rule shows, or is derived from the F value of that pixel F V (y, z) in the originally recorded real image DELTA to which the pixel (α ′, β ′) by virtue of the coordinate image transformation = E₁ [W₁ [K₁ ( α ′, β ′), K₂ (α ′, β ′)],
    W₂ [K₁ (α ′, β ′), K₂ (α ′, β ′)]; k₁,. . . k n ],
    z = E₂ [W₁ [K₁ (α ′, β ′), K₂ (α ′, β ′)],
    W₂ [K₁ (α ′, β ′), K₂ (α ′, β ′)]; k₁,. . . k n ] shows according to
5. Verfahren gemäß Anspruch 3,
dadurch gekennzeichnet,
  • - daß die Videokamera gegenüber der Vertikalen unter einem Blickwinkel Φ betrieben wird und die Bildtransfor­ mation einen Schritt zur perspektivischen Transformation in ein Horizontalbild umfaßt dergestalt, daß der Wert FK eines jeden Pixels (α′, β′) des perspektivisch korrigierten (Horizontal-)Bildes K vom Wert FW desjenigen Pixels (α, β) des (perspektivisch nicht korrigierten Bildes W abgeleitet wird, auf welches das Pixel (α′, β′) vermöge der Trans­ formation K = K₁, K₂gemäß der Transformationsvorschrift zeigt, oder vom F-Wert desjenigen Bildpunktes FV(y, z) im ursprünglich verzeichneten Real-Bild DELTA abgeleitet wird, auf welches das Pixel (a′, b′) vermöge der Koordi­ naten-Bildtransformationy = E₁[W₁[K₁(α′, β′), K₂(α′, β′)],
    W₂[K₁(α′, β′), K₂(α′, β′)]; k₁, . . . kn],
    z = E₂[W₁[K₁(α′, β′), K₂(α′, β′)],
    W₂[K₁(α′, β′), K₂(α′, β′)]; k₁, . . . kn]zeigt gemäß
5. The method according to claim 3,
characterized,
  • - That the video camera is operated with respect to the vertical at an angle Φ and the image transformation includes a step for perspective transformation into a horizontal image such that the value F K of each pixel (α ′, β ′) of the perspective-corrected (horizontal) Image K is derived from the value F W of that pixel (α, β) of the (perspective non-corrected image W on which the pixel (α ′, β ′) by the transformation K = K₁, K₂ according to the transformation regulation shows, or is derived from the F-value of that pixel F V (y, z) in the originally recorded real image DELTA to which the pixel (a ′, b ′) by virtue of the coordinate image transformationy = E₁ [W₁ [K₁ ( α ′, β ′), K₂ (α ′, β ′)],
    W₂ [K₁ (α ′, β ′), K₂ (α ′, β ′)]; k₁,. . . k n ],
    z = E₂ [W₁ [K₁ (α ′, β ′), K₂ (α ′, β ′)],
    W₂ [K₁ (α ′, β ′), K₂ (α ′, β ′)]; k₁,. . . k n ] shows according to
6. Verfahren nach Anspruch 3,
dadurch gekennzeichnet,
  • - daß das Bild W zur Darstellung gelangt.
6. The method according to claim 3,
characterized,
  • - That the image W is displayed.
7. Verfahren nach Anspruch 3,
dadurch gekennzeichnet,
  • - daß das Bild W nur fiktiv als (elektronisches) Zwischenbild existiert und als solches vor einer Dar­ stellung auf dem Bildschirm in wenigstens einem wei­ teren Verfahrensschritt weiterbearbeitet wird.
7. The method according to claim 3,
characterized,
  • - That the image W only exists fictitiously as an (electronic) intermediate image and as such is further processed before being displayed on the screen in at least one further process step.
8. Verfahren nach Anspruch 4,
dadurch gekennzeichnet,
  • - daß die Ausführung der Transformation K optional vorgesehen und aus dem bildschirmnahen Beobachtungsraum wahlfrei aufrufbar ist.
8. The method according to claim 4,
characterized,
  • - That the execution of the transformation K is optionally provided and can be called up optionally from the observation room near the screen.
9. Verfahren nach Anspruch 5,
dadurch gekennzeichnet,
  • - daß die Ausführung der Transformation K optional vorgesehen und aus dem bildschirmnahen Beobachtungsraum wahlfrei aufrufbar ist.
9. The method according to claim 5,
characterized,
  • - That the execution of the transformation K is optionally provided and can be called up optionally from the observation room near the screen.
10. Verwendung des Verfahrens nach Anspruch 1 bei einem Fahrzeug.10. Use of the method according to claim 1 with a vehicle. 11. Vorrichtung zur Visualisierung eines nicht unmit­ telbar einsehbaren Überwachungsraumes, mit einer dem Überwachungsraum zugeordneten Videokamera und davon abgesetzt einem in einem Beobachtungsraum angeordne­ ten Bildschirm, wobei zwischen Videokamera und Bild­ schirm eine Signalübertragungsstrecke angeordnet ist und der Überwachungsraum vermittels des Objektivs der Videokamera auf einem Bildsensor optisch abgebildet wird,
dadurch gekennzeichnet,
  • - daß die Videokamera eine Einrichtung zur digita­ lisierten Übertragung der Bildinformation über die Signalübertragungsstrecke umfaßt und eine gegenüber der Vertikalen um einen Anstellwinkel Φ geneigte Orientierung ihrer optischen Achse (Blickrichtung) hat,
  • - daß es sich bei dem Objektiv der Videokamera um ein solches von extremer Weitwinkligkeit handelt und als Bildsensor ein Halbleiter-Bildsensor mit einer ersten definierten, in Zeilen und Spalten definiert angeordneten Anzahl von Pixeln (Bildfeldparameter des Sensors) und als Bildschirm ein solcher mit einer zwei­ ten definierten, in Zeilen und Spalten definiert ange­ ordneten Anzahl von Pixeln (Bildfeldparameter des Bild­ schirms) vorgesehen ist,
  • - daß in der Signalübertragungsstrecke zwischen Videokamera und Bildschirm eine Bildsignalverarbei­ tungseinrichtung vorgesehen ist, welche einen Mikro­ rechner und einen RAM-Bereich und damit verbunden wenigstens eine anwendungsspezifische Halbleiter­ schaltkreisfunktion (ASIC) umfaßt, innerhalb welcher unter Zeitablaufsteuerung durch den Mikrorechner eine geometrische Entzerrung des auf dem Bildsensor erzeug­ ten Objektraumbildes in ein einer gewünschten Darstel­ lungsform näher kommendes Schirmbild durch eine pixel­ weise inkrementelle, auf die Abbildungseigenschaften des Objektiv abgestimmt festverdrahtete Veränderung der Zuordnung von auf dem Bildsensor und dem Bildschirm einander entsprechenden Pixeln im Sinne einer Umsor­ tierung möglich ist.
11. Device for the visualization of a non-immediately visible surveillance room, with a video camera assigned to the surveillance room and detached therefrom a screen arranged in an observation room, a signal transmission path being arranged between the video camera and screen and the surveillance room by means of the lens of the video camera on an image sensor is optically mapped,
characterized,
  • - That the video camera includes a device for digitized transmission of the image information over the signal transmission path and an orientation of its optical axis (viewing direction) inclined relative to the vertical by an angle of attack,,
  • - That the lens of the video camera is one of extreme wide-angledness and the image sensor is a semiconductor image sensor with a first defined number of pixels (image field parameters of the sensor) arranged in rows and columns and as a screen one with two number of pixels defined (defined in rows and columns) (image field parameters of the screen) is provided,
  • - That an image signal processing device is provided in the signal transmission path between the video camera and the screen, which includes a microcomputer and a RAM area and associated at least one application-specific semiconductor circuit function (ASIC) within which, under time control by the microcomputer, a geometric equalization of the on Image sensor generated object space image in a screen image closer to a desired representation by a pixel-wise incremental, hard-wired to the imaging properties of the lens hard-wired change in the assignment of corresponding pixels on the image sensor and the screen in the sense of a re-sorting is possible.
12. Vorrichtung nach Anspruch 11,
dadurch gekennzeichnet,
  • - daß in dem RAM-Bereich zum Zwecke der inkremen­ tellen Umsortierung von Pixeln wenigstens ein Teil eines vollen Sensorbildes, beispielsweise ein Halb­ bild, zwischenspeicherbar ist.
12. The device according to claim 11,
characterized,
  • - That in the RAM area for the purpose of incremental re-sorting of pixels at least part of a full sensor image, for example a half image, can be buffered.
13. Vorrichtung nach Anspruch 11,
dadurch gekennzeichnet,
  • - daß sie zwei funktionell voneinander getrennte anwendungsspezifische Halbleiterschaltkreisfunktio­ nen (ASIC-Bereiche 4.1 und 4.2) umfaßt, wobei die eine die besagte Umsortierung und die andere die Generation eines digitalen RGB-Video-Ausgangssig­ nals für den Bildschirm leistet.
13. The apparatus of claim 11,
characterized,
  • - That it comprises two functionally separate application-specific semiconductor circuit functions (ASIC areas 4.1 and 4.2 ), one of which the said resorting and the other the generation of a digital RGB video output signal for the screen.
14. Vorrichtung gemäß Anspruch 11,
dadurch gekennzeichnet,
  • - daß in dem eine Umsortierung leistenden ASIC- Bereich wenigstens zwei verschiedenen Transformations­ stufen entsprechende und dementsprechend unterschiedli­ che Umsortierungen bewirkende "Verdrahtungsschemen" selektiv aktivierbar verwirklicht sind und in Abhän­ gigkeit von einem Selektionssignal jeweils eines davon wirksam ist.
14. The apparatus according to claim 11,
characterized,
  • - That in the re-sorting ASIC area at least two different transformation stages corresponding and accordingly different re-sorting effecting "wiring schemes" are selectively activated and depending on a selection signal one of them is effective.
15. Vorrichtung nach Anspruch 11,
dadurch gekennzeichnet,
  • - daß der Mikrorechner ausschließlich Steuer­ funktionen und keine Verarbeitungsfunktion bezüg­ lich Bildinhalt und -geometrie erfüllt.
15. The apparatus according to claim 11,
characterized,
  • - That the microcomputer only fulfills control functions and no processing function bezüg Lich image content and geometry.
16. Vorrichtung nach Anspruch 11,
dadurch gekennzeichnet,
  • - daß sie Mittel umfaßt, welche bei Nichtgebrauch wenigstens das Objektiv der Videokamera abdecken und zwecks Gebrauch der letzteren in eine definierte Ar­ beitsposition verbringbar sind.
16. The apparatus of claim 11,
characterized,
  • - That it includes means which at least cover the lens of the video camera when not in use and are usable for the use of the latter in a defined position Ar.
17. Vorrichtung nach Anspruch 11,
dadurch gekennzeichnet,
  • - daß sie Mittel umfaßt, welche bei Nichtgebrauch die Videokamera in eine geschützte Ruhelage und zwecks Gebrauch dieselbe in eine definierte Betriebslage ver­ bringen.
17. The apparatus of claim 11,
characterized,
  • - That it includes means which, when not in use, bring the video camera into a protected rest position and for the same use bring it into a defined operating position.
18. Vorrichtung gemäß Anspruch 17,
dadurch gekennzeichnet,
  • - daß die Videokamera wenigstens schwenkbar ange­ ordnet ist derart, daß sie im Ruhezustand innerhalb der Hüllkontur desjenigen Objektes liegt, in welchem der Beobachtungsraum sich befindet.
18. The apparatus according to claim 17,
characterized,
  • - That the video camera is at least pivotally arranged such that it is in the rest state within the envelope of the object in which the observation room is located.
19. Vorrichtung gemäß Anspruch 18,
dadurch gekennzeichnet,
  • - daß es sich bei dem Objekt um ein Fahrzeug handelt.
19. The device according to claim 18,
characterized,
  • - That the object is a vehicle.
20. Vorrichtung gemäß Anspruch 19,
dadurch gekennzeichnet,
  • - daß sie im Heck des Fahrzeugs angeordnet ist und Mittel umfaßt, welche eine selbsttätige Verbringung der Videokamera in ihre Gebrauchslage bei Einlegen des Rück­ wärtsganges bewirken.
20. The device according to claim 19,
characterized,
  • - That it is arranged in the rear of the vehicle and comprises means which cause the video camera to be automatically moved into its position of use when the reverse gear is engaged.
DE19539642A 1995-10-25 1995-10-25 Visualisation method for monitoring system in vehicle Withdrawn DE19539642A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19539642A DE19539642A1 (en) 1995-10-25 1995-10-25 Visualisation method for monitoring system in vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19539642A DE19539642A1 (en) 1995-10-25 1995-10-25 Visualisation method for monitoring system in vehicle

Publications (1)

Publication Number Publication Date
DE19539642A1 true DE19539642A1 (en) 1996-11-14

Family

ID=7775693

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19539642A Withdrawn DE19539642A1 (en) 1995-10-25 1995-10-25 Visualisation method for monitoring system in vehicle

Country Status (1)

Country Link
DE (1) DE19539642A1 (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19736880C1 (en) * 1997-08-26 1999-05-06 Jurca Optoelektronik Gmbh Electronic spectacles as viewing aid
DE19845567A1 (en) * 1998-10-02 2000-04-06 Volkswagen Ag Visualization method for area behind vehicle involves superimposing predicted vehicle path on image of rearward view using auxiliary lines or characters depending on steering angle
DE19925584A1 (en) * 1999-06-04 2000-12-21 Bosch Gmbh Robert Route visualization method and device
WO2001037028A1 (en) * 1999-11-15 2001-05-25 Equal Reverse Thoughts Limited Method of improved image depth perception
DE10221513A1 (en) * 2002-05-14 2003-12-04 Ce Sys Gmbh Ilmenau Process for displaying images with a changed width-height ratio
DE10243620A1 (en) * 2002-09-19 2004-04-01 Valeo Schalter Und Sensoren Gmbh Process for image processing of the optical signals detected by a system for the environment detection of a vehicle and system for environment detection of a vehicle
US6819231B2 (en) 2002-02-05 2004-11-16 Donnelly Hohe Gmbh & Co. Kg Parking and/or maneuvering assistance device
DE10360754A1 (en) * 2003-12-23 2005-07-28 Hella Kgaa Hueck & Co. Image acquisition and display system for motor vehicle, has objective with specified, progressively varying imaging scale, whereby largest imaging scale lies in range from that of normal objective to that of teleobjective
DE10083445B4 (en) * 1999-09-30 2005-09-22 Kabushiki Kaisha Toyota Jidoshokki, Kariya Vehicle reverse monitoring device with a display controller for transforming an input image
DE19961389B4 (en) * 1999-12-20 2005-10-06 Werner Wallrafen Protective closure for cameras
DE19806261B4 (en) * 1997-02-14 2006-05-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for the controlled representation of cavity surfaces
DE102005027750A1 (en) * 2005-06-16 2006-12-21 Dr.Ing.H.C. F. Porsche Ag Motor vehicle, in particular passenger cars
DE10059786B4 (en) * 2000-12-01 2007-04-26 Volkswagen Ag Monitoring device for vehicles
DE19749583B4 (en) * 1997-11-10 2007-05-24 Volkswagen Ag Method and device for monitoring or monitoring an object space from a motor vehicle
WO2012107238A1 (en) 2011-02-11 2012-08-16 Mekra Lang Gmbh & Co. Kg Monitoring the close vicinity around a commercial vehicle
DE10037222B4 (en) * 2000-07-31 2013-09-19 Volkswagen Ag Camera device for motor vehicles
US8953011B2 (en) 2011-02-08 2015-02-10 Mekra Lang Gmbh & Co. Kg Display device for visually-depicting fields of view of a commercial vehicle
DE102008031784B4 (en) * 2007-07-16 2016-05-12 Trw Automotive U.S. Llc Method and apparatus for distortion correction and image enhancement of a vehicle rearview system
DE10296593B4 (en) * 2001-03-28 2017-02-02 Panasonic Intellectual Property Management Co., Ltd. Driving support device
US9667922B2 (en) 2013-02-08 2017-05-30 Mekra Lang Gmbh & Co. Kg Viewing system for vehicles, in particular commercial vehicles
US9707891B2 (en) 2012-08-03 2017-07-18 Mekra Lang Gmbh & Co. Kg Mirror replacement system for a vehicle

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0111909A2 (en) * 1982-12-22 1984-06-27 Hitachi, Ltd. Picture processing apparatus
FR2673499A1 (en) * 1991-03-01 1992-09-04 Renault Device for a rear-view by camera for a motor vehicle
DE4336288C1 (en) * 1993-10-25 1995-03-30 Daimler Benz Ag Device for monitoring the rear or front space of a parking motor vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0111909A2 (en) * 1982-12-22 1984-06-27 Hitachi, Ltd. Picture processing apparatus
FR2673499A1 (en) * 1991-03-01 1992-09-04 Renault Device for a rear-view by camera for a motor vehicle
DE4336288C1 (en) * 1993-10-25 1995-03-30 Daimler Benz Ag Device for monitoring the rear or front space of a parking motor vehicle

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Patent Abstracts of Japan, 1994, 06284424, JP 6-284424 A *

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19806261B4 (en) * 1997-02-14 2006-05-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for the controlled representation of cavity surfaces
DE19736880C1 (en) * 1997-08-26 1999-05-06 Jurca Optoelektronik Gmbh Electronic spectacles as viewing aid
DE19749583B4 (en) * 1997-11-10 2007-05-24 Volkswagen Ag Method and device for monitoring or monitoring an object space from a motor vehicle
DE19845567A1 (en) * 1998-10-02 2000-04-06 Volkswagen Ag Visualization method for area behind vehicle involves superimposing predicted vehicle path on image of rearward view using auxiliary lines or characters depending on steering angle
DE19925584A1 (en) * 1999-06-04 2000-12-21 Bosch Gmbh Robert Route visualization method and device
US6564122B1 (en) 1999-06-04 2003-05-13 Robert Bosch Gmbh Method and device for visualizing a driving path
DE10083445B4 (en) * 1999-09-30 2005-09-22 Kabushiki Kaisha Toyota Jidoshokki, Kariya Vehicle reverse monitoring device with a display controller for transforming an input image
WO2001037028A1 (en) * 1999-11-15 2001-05-25 Equal Reverse Thoughts Limited Method of improved image depth perception
DE19961389B4 (en) * 1999-12-20 2005-10-06 Werner Wallrafen Protective closure for cameras
DE10037222B4 (en) * 2000-07-31 2013-09-19 Volkswagen Ag Camera device for motor vehicles
DE10059786B4 (en) * 2000-12-01 2007-04-26 Volkswagen Ag Monitoring device for vehicles
DE10296593B4 (en) * 2001-03-28 2017-02-02 Panasonic Intellectual Property Management Co., Ltd. Driving support device
US6819231B2 (en) 2002-02-05 2004-11-16 Donnelly Hohe Gmbh & Co. Kg Parking and/or maneuvering assistance device
DE10221513B4 (en) * 2002-05-14 2004-03-11 Ce-Sys Gmbh Ilmenau Process for displaying images with a changed width-height ratio
DE10221513A1 (en) * 2002-05-14 2003-12-04 Ce Sys Gmbh Ilmenau Process for displaying images with a changed width-height ratio
DE10243620A1 (en) * 2002-09-19 2004-04-01 Valeo Schalter Und Sensoren Gmbh Process for image processing of the optical signals detected by a system for the environment detection of a vehicle and system for environment detection of a vehicle
DE10360754A1 (en) * 2003-12-23 2005-07-28 Hella Kgaa Hueck & Co. Image acquisition and display system for motor vehicle, has objective with specified, progressively varying imaging scale, whereby largest imaging scale lies in range from that of normal objective to that of teleobjective
DE102005027750A1 (en) * 2005-06-16 2006-12-21 Dr.Ing.H.C. F. Porsche Ag Motor vehicle, in particular passenger cars
DE102008031784B4 (en) * 2007-07-16 2016-05-12 Trw Automotive U.S. Llc Method and apparatus for distortion correction and image enhancement of a vehicle rearview system
US8953011B2 (en) 2011-02-08 2015-02-10 Mekra Lang Gmbh & Co. Kg Display device for visually-depicting fields of view of a commercial vehicle
US9232195B2 (en) 2011-02-11 2016-01-05 Mekra Lang Gmbh & Co. Kg Monitoring of the close proximity around a commercial vehicle
WO2012107238A1 (en) 2011-02-11 2012-08-16 Mekra Lang Gmbh & Co. Kg Monitoring the close vicinity around a commercial vehicle
DE102011011048A1 (en) * 2011-02-11 2012-08-16 Mekra Lang Gmbh & Co. Kg Monitoring the proximity around a commercial vehicle
DE102011011048B4 (en) * 2011-02-11 2021-06-24 Mekra Lang Gmbh & Co. Kg Monitoring of the close range around a commercial vehicle
DE102011011048B9 (en) 2011-02-11 2021-10-07 Mekra Lang Gmbh & Co. Kg Monitoring of the close range around a commercial vehicle
US9707891B2 (en) 2012-08-03 2017-07-18 Mekra Lang Gmbh & Co. Kg Mirror replacement system for a vehicle
US10011229B2 (en) 2012-08-03 2018-07-03 Mekra Lang Gmbh & Co. Kg Mirror replacement system for a vehicle
US9667922B2 (en) 2013-02-08 2017-05-30 Mekra Lang Gmbh & Co. Kg Viewing system for vehicles, in particular commercial vehicles
USRE48017E1 (en) 2013-02-08 2020-05-26 Mekra Lang Gmbh & Co. Kg Viewing system for vehicles, in particular commercial vehicles

Similar Documents

Publication Publication Date Title
DE102017130566B4 (en) Vision system for capturing a vehicle environment and a mirror replacement system for a vehicle with a vision system
DE19539642A1 (en) Visualisation method for monitoring system in vehicle
DE19741896C2 (en) Device for the visual representation of areas around a motor vehicle
DE102004043257B4 (en) Camera unit and device for monitoring the vehicle environment
DE19923964C2 (en) Environment monitoring device for a vehicle
DE102008031784B4 (en) Method and apparatus for distortion correction and image enhancement of a vehicle rearview system
DE102006007493B4 (en) Device for viewing the periphery of a vehicle
DE102008062121A1 (en) A vehicle unit having a vehicle corridor display function, a method for displaying a predicted vehicle trajectory, and a system for generating vehicle corridor marks
DE10292327T5 (en) Vehicle environment image processing device and recording medium
WO2014094941A1 (en) Motor vehicle having a camera monitoring system
WO2016162245A1 (en) Method for displaying an area surrounding a vehicle
EP3053133A1 (en) Method and apparatus for displaying the surroundings of a vehicle, and driver assistance system
DE102012203491A1 (en) Electronic rearview mirror system for viewing rear region behind motor car by vehicle driver, has computer evaluating image of rear region to determine portion of mirror image picture, and electronic display displaying evaluated image
DE102014114565A1 (en) BIRD'S EYE VIEW VIEW IMAGE GENERATION DEVICE
WO2011039129A1 (en) Method and apparatus for the combined visual display of video and distance data for a traffic situation
DE102019120636A1 (en) PERIPHERAL DISPLAY DEVICE FOR A VEHICLE
DE102018100194B3 (en) Mirror replacement system and method for displaying image and / or video data of the environment of a motor vehicle
DE102013220477A1 (en) Method for correcting a pictorial representation of a vehicle environment
EP1886274A1 (en) Integrated circuit with warping calculation unit
DE10221513B4 (en) Process for displaying images with a changed width-height ratio
DE102010042248A1 (en) Method and device for visualizing an environment of a vehicle
DE102004036746A1 (en) Device for visualizing a vehicle environment
DE10246652B4 (en) Method for operating a display system in a vehicle
DE10136651A1 (en) Method and device for capturing and displaying images
DE102006036769B3 (en) Airplane real time-aerial view-monitoring device, has cameras with fields of view adjusted by one camera by compensator such that format of resultant image is switched between strip receiver and point or sport receiver

Legal Events

Date Code Title Description
OAV Publication of unexamined application with consent of applicant
OP8 Request for examination as to paragraph 44 patent law
8130 Withdrawal