DE19539642A1 - Verfahren zur Visualisierung eines nicht unmittelbar einsehbaren Überwachungsraumes insbesondere bei einem Fahrzeug, und Vorrichtung zur Visualisierung eines nicht unmittelbar einsehbaren Überwachungsraumes - Google Patents

Verfahren zur Visualisierung eines nicht unmittelbar einsehbaren Überwachungsraumes insbesondere bei einem Fahrzeug, und Vorrichtung zur Visualisierung eines nicht unmittelbar einsehbaren Überwachungsraumes

Info

Publication number
DE19539642A1
DE19539642A1 DE19539642A DE19539642A DE19539642A1 DE 19539642 A1 DE19539642 A1 DE 19539642A1 DE 19539642 A DE19539642 A DE 19539642A DE 19539642 A DE19539642 A DE 19539642A DE 19539642 A1 DE19539642 A1 DE 19539642A1
Authority
DE
Germany
Prior art keywords
image
transformation
pixel
screen
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19539642A
Other languages
English (en)
Inventor
Gerhard Dipl Ing Kuenzel
Michael Dipl Ing Friedrich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daimler Benz AG
Original Assignee
Daimler Benz AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler Benz AG filed Critical Daimler Benz AG
Priority to DE19539642A priority Critical patent/DE19539642A1/de
Publication of DE19539642A1 publication Critical patent/DE19539642A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/101Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using cameras with adjustable capturing direction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8066Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

Die Erfindung betrifft ein Verfahren zur Visualisierung eines nicht unmittelbar einsehbaren Überwachungsraumes insbesondere bei einem Fahrzeug nach der Gattung des An­ spruchs 1. Des weiteren betrifft die Erfindung eine Vor­ richtung zur Visualisierung eines nicht unmittelbar ein­ sehbaren Überwachungsraumes.
Das Problem der Visualisierung eines nicht unmittelbar einsehbaren Überwachungsraumes ist mannigfaltig bekannt. Ein gängiges Beispiel ist die Uneinsehbarkeit des Rück­ raumes von Fahrzeugen beim Einparken, was zur Entwick­ lung aktiver Wahrnehmungssysteme auf der Basis von In­ frarotlicht und/oder Ultraschall führte.
Eine Alternative stellen Videokameras dar, die auch schon an Nutzfahrzeugen Verwendung finden, vgl. Abbil­ dung in FZ ACE Lenkrad 5/91 auf S. 60. Aber auch bei Personenkraftfahrzeugen wäre der Einsatz solcher Kameras wünschenswert, weil der immer knapper werdende Parkraum beispielsweise in Städten zentimetergenaues Fahren er­ fordert.
Im Falle eines Personenkraftwagens beispielsweise machen die abgerundeten und eingezogenen Heckgeometrien moderner Fahrzeugdesigns hierfür Weitwinkelobjektive erforderlich. Diese haben jedoch den Nachteil, daß sie dem Fahrzeugführer ab einem gewissen Objektwinkel ein nur schwer interpretier­ bares Bild liefern. Außerdem können sie tote Blickwinkel nicht vollständig beseitigen.
Bezüglich der vorgenannten Problematik bei einem Fahrzeug ist ein Lösungsansatz aus der FR 2 673 499 A1 bekannt. Dort werden innerhalb der Fahrzeughüllkontur - nämlich hinter Verglasungen im Bereich der rechten und linken Rücklichter - um eine vertikale Achse motorisch konti­ nuierlich schwenkbare Fernsehkameras eingesetzt, um so positionsabhängig Teilbilder des durch Verschwenkung der Kameras insgesamt einsehbaren Rückraumes auf einem Fern­ sehbildschirmen im Bereich der Armaturentafel darzustel­ len. Auf diese Weise können Kameraobjektive mit relativ geringem Blickwinkel eingesetzt werden. Dafür muß jedoch ein sehr hoher mechanischer und steuerungstechnischer Auf­ wand zur Verschwenkung der Kameras sowie der Umstand in Kauf genommen werden, daß die Kameras über fortschrei­ tender Verschmutzung besagter Verglasung immer wieder "erblinden". Auch ist der Gesamtraumbedarf beider Kame­ ras einschließlich der Mittel zu ihrer Verschwenkung in­ nerhalb der Fahrzeughülle nicht unerheblich.
Eine ähnliche Lösung, gerichtet auf ein Fahrzeug, die nur mit einer einzigen Videokamera arbeitet, offenbart die vorlaufende Anmeldung P 43 36 288.5. Dort wird zur Rückraumbeobachtung eine Videokamera mit relativ gerin­ gem Blickwinkel fuzzylogic-fokusgesteuert Hindernissen nachgeschwenkt.
Dem gegenüber ist es Aufgabe der Erfindung, sowohl ein Verfahren zur Visualisierung eines nicht unmittelbar ein­ sehbaren Überwachungsraumes insbesondere bei einem Fahr­ zeug sowie eine Vorrichtung zur Visualisierung eines nicht unmittelbar einsehbaren Überwachungsraumes vorzuschlagen, welche die vorgenannten Nachteile gleichermaßen ausräumen.
Die erste Aufgabe wird durch ein gattungsgemäßes Ver­ fahren mit den kennzeichnenden Merkmalen gemäß Anspruch 1 gelöst.
Dieses Verfahren erlaubt, nur eine einzige Video-Kamera in fixer Arbeitsposition mit nur einem Objektiv in Ver­ bindung mit nur einem wenig Platz beanspruchenden Bild­ schirm zu verwenden.
Dazu sieht das Verfahren die Verwendung eines Kameraobjek­ tivs bislang unüblich großem Objektwinkel vor. Zugleich trägt das Verfahren der Tatsache Rechnung, daß Weitwin­ kelobjektive mit einem Objektwinkel von z. B. 160° den er­ faßten Objektraum auf die Bildebene eines Sensorchips verzeichnet abbilden.
Verzeichnet heißt dabei, daß gemäß der optischen Physik eines solchen Objektivs auf der Bildebene die Bildpunkte in radialer und tangentialer Richtung verän­ dert sind, da Lichtbündel beim Durchtritt durch das Objek­ tiv bezüglich ihrer Ausbreitungsrichtungen Ablenkungen erfahren. Weiterhin hat jeder Lichtbündel-Bildpunkt seine eigene Bildhöhe in der Bildebene. M.a.W. ist der Abbildungsmaßstab abhängig von der Bildhöhe. Dabei ist unter der Bildhöhe der Abstand des Lichtbündel-Bild­ punktes in der Bildebene von dem in der Bildebene lie­ genden Koordinatenursprung zu verstehen. Im vorliegen­ den Falle werden nur Objektive verwendet, die in hohem Maße rotationssymmetrisch sind, so daß die tangentiale Verzeichnung gegenüber der Auflösung des Bildsensors in der Bildebene vernachlässigbar klein ist. Infolge­ dessen werden die Bildpunkte in der Bildebene maßgeb­ lich in radialer Richtung entsprechend der Verzeich­ nungskurve nichtlinear verschoben, wodurch das Bild in der Bildebene auf dem Bildsensor eine Verzeichnung aufweist und deshalb für eine schnelle kognitive In­ formation eines Beobachters ungeeignet ist.
Verfahrensgemäß wird durch interpolationslose Pixelan­ dersverteilung eine Koordinaten-Bildtransformation des auf dem Bildsensor einer Kamera real erzeugten Objekt­ bildes in ein von einem Beobachter kognitiv besser wahrnehmbares Darstellungsbild auf einem Bildschirm bewirkt.
Diese Transformation geschieht im Zuge der Signalüber­ tragung und Datenformatwandlung zwischen Kamera und Bildschirm. Verfahrensgemäß wird in der Video-Kamera neben einem Objektiv mit besagt großem Objektwinkel als Bildsensor ein Halbleiter-Bildsensor mit einer ersten definierten, in Zeilen und Spalten definiert angeordne­ ten Anzahl von Pixeln (Bildfeldparameter des Sensors) und als Bildschirm ein solcher mit einer zweiten defi­ nierten, in Zeilen und Spalten definiert angeordneten Anzahl von Pixeln (Bildfeldparameter des Bildschirms) verwendet. Entsprechend der Objektraumabbildung in der Real-Bildebene auf dem Bildsensor wird jedem Pixel aus besagter ersten Zahl von Sensor-Pixeln ein die Hellig­ keit oder Helligkeit, Farbsättigung und Farbart wie auch immer (z. B. in Form von RGB-Werten) beschreiben­ der Wert FV und in der Darstellungsbildebene auf dem Bildschirm jedem Pixel aus besagter zweiten Zahl von Bildschirm-Pixeln ein entsprechender Wert FM zugeord­ net. Dann wird der Wert FM eines jeden auf den Bild­ schirm aktuell zu schreibenden Pixels vom Wert FV des­ jenigen Sensor-Pixels abgeleitet, auf welches das Bild­ schirm-Pixel vermöge einer geometrischen Zuordnungs­ transformation zeigt, wobei diese Zuordnungstransfor­ mation in Echtzeit vermittels einer gemäß der Trans­ formationsvorschrift festverdrahteten Halbleiterlogik geschieht und die Bildtransformation auf der Basis der Bildfeldparameter sowohl des Bildsensors als auch des Bildschirmes wenigstens eine Kategorie der objektivbe­ dingt spezifischen geometrisch-optischen Verzeichnung des realen Objektraumbildes (auf dem Bildsensor) von der gewünschten Objektraumdarstellung (auf dem Bild­ schirm) durch Veränderung der Zuordnung von Sensor- Pixeln zu Bildschirm-Pixeln korrigiert.
Dieses Verfahren ist durch Verfahrensschritte gemäß den Merkmalen der abhängigen Ansprüche 2 bis 8 vorteilhaft fortbildbar. So können mit verschiedenen Verfahrens­ schritten entsprechend verschiedene Arten bzw. Progres­ sionsstufen der Koordinaten-Bildtransformation bis hin zur Quasi-Synthese von Vertikal- und Horizontalbildern verwirklicht werden. Dabei ist von Vorteil, daß im Falle mehrerer Transformationsschritte diese in einer kürzest­ möglichen Zeit ausführbar sind, weil sie nicht nachein­ ander, sondern gleichzeitig in der Art einer Total Re­ sponse pro Bildinhalt ausgeführt werden.
Auf der Basis wenigstens eines elektronisch erzeugten und nur in dieser Form existierenden koordinatentrans­ formierten Bildes leistet das erfindungsgemäße Verfah­ ren die Visualisierung eines nicht unmittelbar einseh­ baren Überwachungsraumes in eine insbesondere für einen Fahrzeugführer kognitiv leicht und anstrengungslos ver­ arbeitbare Darstellungsform.
Deshalb kann das Verfahren gemäß Anspruch 10 besonders vorteilhaft bei einem Personen-Kraftfahrzeug Verwendung finden. Dabei erlaubt das Verfahren die optische Erfas­ sung z. B. der den rückwärtigen Fahrraum abgrenzenden Hecklinien eines Personenkraftwagens ohne toten Winkel hinsichtlich Verdeckungen von Objekten durch den Heck­ stoßfänger.
Die zweite Aufgabe wird durch eine Vorrichtung gemäß dem nebengeordneten Anspruch 11 gelöst.
Funktional stützt sich die Vorrichtung im wesentlichen auf eine als ASIC verwirklichte Halbleiterschaltung (vorzugsweise mit zwei Funktionsbereichen oder aber aus zwei weniger komplexen ASICs assembliert) und eine einzige Videokamera in fixer Betriebsposition. Daraus ergeben sich die Vorteile, daß die Vorrichtung ohne reaktionsbeeinträchtigenden Zeitversatz arbeitet, d. h. einem Beobachter eine Echtzeitbeurteilung erlaubt und ihre Bildsignalverarbeitungseinrichtung als wesent­ licher Bestandteil kostengünstig und mit geringen Ab­ messungen massenproduzierbar ist. Des weiteren ermög­ licht sie die Darstellung eines sehr robusten Gesamt­ systems ohne betriebsbewegliche Teile und eine platz­ sparende Integration insbesondere des Sichtteils z. B. im Bereich von ohnehin schon mit Anzeigen und Bedien­ elementen überfrachteten Armaturentafeln.
Vorteilhafte Weiterbildungen der Vorrichtung sind gemäß Lehre der abhängigen Ansprüche 12 bis 20 mög­ lich.
Die Vorrichtung kann z. B. Mittel zur Sicherstellung einer definierten Fixposition der Kamera während ihres Betriebes umfassen. Beispielsweise kann die Kamera mittels einer Ausfahrmechanik von einer fixen Ruhe­ position in eine fixe Betriebsposition gebracht wer­ den, wo sie dann während ihres Betriebs verharrt. Bei einem Fahrzeug kann sie Mittel umfassen, die letzteres z. B. beim Einlegen des Rückwärtsganges selbsttätig bewirken.
Je ein Ausführungsbeispiel der Vorrichtung und des Verfahrens sind in der Figurenzeichnung veranschau­ licht, die nachfolgend erläutert wird. Dabei soll die Veranschaulichung am praktischen Beispiel eines Per­ sonenkraftfahrzeugs keine Beschränkung der Erfindung bedeuten, da diese - bei entsprechender konstruktiver Anpassung an den jeweiligen Anwendungsfall - auch auf anderen Gebieten anwendbar ist.
Es zeigen:
Fig. 1 eine schematische Illustration der Anord­ nung einer erfindungsgemäßen Vorrichtung bei einem Personenkraftfahrzeug zwecks Ein­ sicht des Fahrzeugrückraumes;
Fig. 2 eine schematische Illustration der fixen Betriebsposition der Video-Kamera bei der Vorrichtung gemäß Fig. 1;
Fig. 3 eine Illustration des damit verfahrensgemäß einsehbaren Rückraumes am Beispiel eines Per­ sonenkraftfahrzeugs;
Fig. 4 ein schematisches Funktions-Blockschaltbild der elektronischen Bestandteile der Vorrich­ tung;
Fig. 5 eine schematische Illustration zum erfin­ dungsgemäßen Visualisierungsverfahren;
Fig. 6 die Illustration des ersten Schrittes des Visualisierungsverfahrens zur Streckenent­ zerrung;
Fig. 7 die Illustration des zweiten Schrittes des Visualisierungsverfahrens zur Generation eines winkelentzerrten Basisbildes;
Fig. 8 die Illustration des dritten Schrittes des Visualisierungsverfahrens zur Generation aus dem Basisbild eines perspektivisch korrigierten Bildes.
Gemäß Fig. 1 ist am Heck eines Fahrzeugs 10 bei­ spielsweise in einer aus fahr- bzw. ausschwenkbaren Einheit 1.1 eine Videokamera 1 integriert. Dabei verdeutlicht die dargestellte Konfiguration die fixe Betriebsposition II der Videokamera, wobei diese bei­ spielhaft unter einem Anstellwinkel Φ zur Vertikalen von 45° nach unten in den Rückraum hinter dem Fahr­ zeug schaut.
Die Kamera ist über ein Datenkabel 2 mit einer Bild­ signalverarbeitungseinrichtung 3 verbunden, welche ein logisches Echtzeit-Bildtransformationsmodul 4 enthält. Die Bildsignalverarbeitungseinrichtung 3 steuert einen Bildschirm 5 an. Des weiteren kann die Bildsignalverar­ beitungseinrichtung 3 über eine Leitung 6 mit einem nicht gezeigten, z. B. das Einlegen des Rückwärtsganges erkennenden Schalter oder Sensor z. B. am Getriebe des Fahrzeugs in Verbindung stehen. Dadurch kann z. B. beim Einlegen des Rückwärtsganges die Bildsignalverarbei­ tungseinrichtung 3 eingeschaltet und ein selbsttätiges Verbringen der Videokamera in ihre Betriebsposition II angesteuert werden. Ebenso kann die Einschaltung des Bildschirms 5 dadurch ausgelöst werden.
In Fig. 2 ist die Position der Videokamera 1 in Bezug auf das Fahrzeug 10 sowohl in einer Ruheposi­ tion I als auch in ihrer Betriebsposition II veran­ schaulicht. Demnach besteht in der Betriebsposition II ein Anstellwinkel Φ von beispielsweise 45° zwischen der Senkrechten 11 und der optischen Achse 12 der Video-Kamera 1. Die ausfahr- bzw. ausschwenkbare Einheit 1.1 und das Datenkabel 2 sind nur symbolisch angedeutet. Eine fahrzeugtaugliche Vorrichtung kann im Rahmen der Erfindung jedenfalls alle Mittel mit­ umfassen, welche die Videokamera bei Nichtgebrauch in eine geschützte Ruhelage und zwecks Gebrauch die­ selbe in eine definierte Betriebslage verbringen.
Ohne Beschränkung der Allgemeinheit kann die Video- Kamera im Beispielfalle eines Kraftfahrzeugs auch in einer fixen Position montiert sein, und es können z. B. Mittel vorgesehen sein, die eine bewegliche Ob­ jektivabdeckung so steuern und betätigen, daß sie nur im Betriebsfalle das Objektiv freigibt. Entspre­ chend kann dann z. B. beim Einlegen des Rückwärtsgan­ ges die Bildsignalverarbeitungseinrichtung 3 einge­ schaltet und die Freigabe des Objektivs der Video- Kamera bewirkt werden.
Gemäß Fig. 3 ist beispielhaft der mit einem Objektiv mit Objektwinkel Θ = 160° einsehbare Rückraum hinter der Rückfront 13 eines Personenkraftfahrzeugs als Raumkörper 14 veranschaulicht, der eine gewisse Brei­ te B, eine Raumtiefe T, fahrzeugseitig eine Höhe H1 und fahrzeugabseitig eine Höhe H2 aufweist; dabei ist der Fall H1 = H2 veranschaulicht. Aufgrund des großen Objektwinkels der Kamera und deren Verbrin­ gung in eine aus der Fahrzeughüllkontur herausver­ lagerte Betriebsposition II bleibt nur ein außer­ ordentlich kleiner, durch Schraffur kenntlich ge­ machter Teil 15 des Raumkörpers 14 nicht einsehbar.
Gemäß Fig. 4 umfaßt die Elektronik der Vorrichtung im wesentlichen die Videokamera 1 vorzugsweise mit einem Farbbild-Aufnahme-Sensor 1.2, einem Analog-Digi­ talwandler 1.3 mit nachgeschaltetem Parallel-Seriell- Wandler 1.4 mit beispielsweise Twisted-Pair oder Glas­ faserausgang, des weiteren die Datenleitung 2, ausge­ führt beispielsweise als Twisted-Pair oder in Glasfa­ ser-Technologie, sowie die Bildsignalverarbeitungs­ einrichtung 3, die den Bildschirm 5 ansteuert.
Je nach Ausführung können die Teile 1.3 und 1.4 funk­ tional und körperlich integriert zusammengefaßt sein.
Die Bildsignalverarbeitungseinrichtung 3 umfaßt einen entsprechenden Seriell/Parallel-Wandler 3.1 mit ent­ sprechendem Twisted-Pair oder Glasfasereingang, der hier beispielhaft zwei kaskadierte ASICs 4.1 und 4.2 ansteuert.
Diese beiden ASICs können je nach angewandter Techno­ logie auch auf einem Chip realisiert sein und sind die wesentlichen Bestandteile des Echtzeit-Bildtransforma­ tionsmoduls 4. Die Bildsignalverarbeitungseinrichtung 3 umfaßt des weiteren ein RAM 4.3 und einen Mikrocom­ puter 4.4. Mikrocomputer und RAM stehen untereinander und mit dem Transformationsmodul 4 in Verbindung. Das ASIC 4.2 weist einen digitalen RGB Video-Ausgang auf, der den Bildschirm 5 in an sich bekannter Weise an­ steuert.
Die Funktion der Vorrichtung ist folgende. Das auf den CCD-Sensor 1.2 fallende Bild des dreidimensionalen Rück­ raumes gemäß dem Rückraumkörper 14 wird in diesem Sensor in ein zweidimensionales Ladungsbild gewandelt, welches beispielsweise 50 mal pro Sekunde halbbildweise ausgele­ sen wird. Das so gewonnene Bildsignal steht in der Regel analog zur Verfügung und wird dann in ein serielles Daten­ signal gewandelt. Dazu nimmt der Wandler 1.3 zunächst eine Analog/Digital-Wandlung vor, und der Parallel-Se­ riell-Wandler 1.4 wandelt das so erhaltene parallele Digitalsignal in einen seriellen Datenstrom, der in Form eines schnellen digitalen Zweidrahtsignals oder per Licht an die Bildsignalverarbeitungseinrichtung 3 übertragen und dort im Seriell/Parallel-Wandler 3.1 wieder in einen parallelen Datenstrom zurückverwandelt wird.
Unter Nutzung des RAM 4.3 als Bildspeicher zwischen zwei aufeinanderfolgenden (Halb-)Bildern werden unter Timing-Kontrolle durch den Mikrorechner 4.4. die so anfallenden parallelen "Bildworte" in das ASIC 4.1 geladen und dann einer beispielsweise den weiter un­ ten ausgeführten Verfahrensregeln gehorchenden inkre­ mentellen Umsortierung zwecks Veränderung der Bild­ geometrie unterworfen.
Dabei ist die Regel dieser Umsortierung genau auf die unerwünschte Verzeichnung des Kameraobjektivs im Sinne einer Abbildungsverzeichnungs- und Perspektivkorrektur abgestimmt. Dabei kann unter besonderen Bedingungen auch ein Rechteckverhältnis von Pixelzellen des Bildschirmes mitberücksichtigt werden. Im diesbezüglich wirksamen ASIC- Bereich können auch wenigstens zwei verschiedenen Koor­ dinaten-Bildtransformationsarten bzw. -stufen entspre­ chende und dementsprechend unterschiedliche Umsortie­ rungen bewirkende "Verdrahtungsschemen" selektiv akti­ vierbar verwirklicht sein und es können dann in Abhäng­ igkeit von einem Selektionssignal jeweils verschiedene Umsortierweisen aktiv geschaltet werden.
Wesentlich dabei ist, daß der Mikrorechner dabei bevorzugt eine reine Steuerungsfunktion ohne eigene Direktbeteiligung an der Signalbearbeitung des Bild­ inhaltes verwirklichen kann.
Beispielsweise werden so fünfzig Bildschirm-Farb- Halbbilder mit 564 Pixel horizontaler und 224 Pixel vertikaler Bildweite je Sekunde erzeugt. Zugleich taktet der Mikrorechner 4.4 die im ASIC 4.1 so er­ zeugten Bildworte aus dem ASIC 4.1 durch das ASIC 4.2, letztwelches so beschaffen ist, daß es diese Bildworte in ein digitales RGB-Video-Ausgangssignal wandelt, welches somit unmittelbar einem entspre­ chend ansteuerbaren Bildschirm 5 zuführbar ist.
Diese Konfiguration und Wirkungsweise des Echtzeit- Bildtransformationsmoduls 4 ermöglicht die Transfor­ mation eines jeden Bildpunktes in sehr kurzer Zeit, beispielsweise binnen maximal 150 Nanosekunden, da die Transformation nicht wie üblich über einen Mik­ rorechner zustande kommt, sondern durch die den je­ weiligen Bildabweichungen des verwendeten Objektivs vom gewohnten Seheindruck entsprechende Festverdrah­ tung bzw. -programmierung von ASICs.
Der nachfolgend detaillierteren Beschreibung des Ver­ fahrens am Beispiel der Rückraumvisualisierung bei einem Kraftfahrzeug wird zunächst die Fig. 5 zur Veranschaulichung der eingangs erwähnten Abweichung von einer optisch wirklichkeitsgetreuen Abbildung vorangestellt. Im folgenden wird generell jedem ein­ zelnen Pixel eines Bildes - ob real vorhanden oder fiktiv - ein Datensatz F etwa in der Art eines Vek­ tors zugeordnet, welcher die Helligkeit, die Farb­ sättigung und die Farbart des jeweiligen Pixels ein­ deutig beschreibt, im folgenden vereinfacht der "F- Wert" am Pixelort genannt. Damit läßt sich das jewei­ lige Bild verstehen als Menge aller F mit gemäß Größe, Form und (Richtungs-)Auflösung des jeweiligen Bildes durchlaufenden Koordinaten.
Dem gemäß wird jedem einzelnen Pixel des durch das Weitwinkelobjektiv 1.5 in der Real-Bildebene - d. h. auf der Oberfläche 1.2.1 des Bildsensors 1.2 der Ka­ mera 1 - real verzeichnet erzeugten Bildes ein ent­ sprechender Datensatz FV zugeordnet, welcher Hellig­ keit, Farbsättigung und Farbart des Pixels eindeutig beschreibt, im folgenden bezogen als "FV-Wert" am Pixelort (y, z) auf der Oberfläche 1.2.1 des Bild­ sensors 1.2. Damit läßt sich also das reale, ver­ zeichnet erzeugte Bild beschreiben als Menge aller FV mit durchlaufenden Pixelkoordinaten y und z.
Dieses reale, verzeichnete Bild wird mit DELTA bezeich­ net. Bezüglich dieser weitwinkligen Abbildung gilt nun die eingangs erwähnte Unzulänglichkeit, daß in der Bildebene die Bildpunkte in radialer und tangentialer Richtung verändert sind, da Lichtbündel beim Durchtritt durch das Objektiv bezüglich ihrer Ausbreitungsrichtun­ gen Ablenkungen erfahren. Weiterhin hat jeder Licht­ bündel-Bildpunkt seine eigene Bildhöhe in der Bild­ ebene. M.a.W. ist der Abbildungsmaßstab abhängig von der Bildhöhe. Dabei ist unter der Bildhöhe der Ab­ stand des Lichtbündel-Bildpunktes in der Bildebene von dem in der Bildebene liegenden Koordinatenursprung zu verstehen. Da im vorliegenden Falle nur Objektive verwendet werden, die in hohem Maße rotationssymme­ trisch sind, fällt die tangentiale Verzeichnung gegen­ über der Auflösung des Bildsensors in der Bildebene vernachlässigbar klein aus. Infolgedessen werden die Bildpunkte in der Bildebene maßgeblich in radialer Richtung entsprechend der Verzeichnungskurve des Objek­ tivs nichtlinear verschoben wodurch das Bild DELTA auf dem Bildsensor eine Verzeichnung aufweist und deshalb für eine schnelle kognitive Information eines Beob­ achters ungeeignet ist.
Ausgehend von dieser realen, optisch unbrauchbaren Abbildung veranschaulicht Fig. 6 den ersten Teil­ schritt des Verfahrens, nämlich den der "elektroni­ schen Streckenentzerrung" zwecks Gewinnung eines nicht real, sondern nur elektronisch existierenden streckenentzerrten Bildes.
Dieser erste Teilschritt ist äquivalent mit bzw. bewirkt der/die "Synthese" eines einzigen Projek­ tionszentrums der Zentralprojektion für alle Geraden durch Objekt- und Bildpunkt.
Demgemäß entspricht der untere Teil der Fig. 6 den in Zusammenhang mit Fig. 5 bereits erläuterten Ab­ bildungsverhältnissen in der Kamera. Der obere Teil der Fig. 6 veranschaulicht das durch den ersten Teilschritt des Verfahrens erzielte Resultat.
Demnach wird mittels einer Streckenentzerrfunktion E, die vorzugsweise zwei Einzelfunktionen E₁ und E₂ für zwei Koordinatenrichtungen umfaßt, aus dem verzeich­ neten Sensorbild DELTA ein verzeichnungsfreies Bild E gebildet, welches genau dem Bild eines theoretisch ver­ zeichnungsfreien Objektivs mit Objektwinkel Θ z. B. 160° entspricht, dem wiederum - vice versa - für das Bild E die Existenz eines einzigen Projektionszentrums 1.10 für alle Geraden 1.9′ aus dem Objektraum mittels ent­ spricht.
Der "F-Wert" (Helligkeit; Helligkeit, Farbsättigung, Farbart; RGB-Werte) eines Bildpunktes in der Bildebene des streckenentzerrten Bildes E mit den Koordinaten (y′, z′) wird mit FE (y′, z′) bezeichnet. Damit läßt sich also das streckenentzerrte Bild E beschreiben als Gesamtmenge aller FE mit Pixelkoordinaten y′ und z′.
Vom Bild E aus gesehen - d. h. in Rückwärtsrichtung - gibt die zweiachsige Transformation
E = E₁, E₂ (2)
den Zusammenhang der Koordinaten einander entsprechender F-Werte in den Bildern DELTA und E an gemäß der Trans­ formationsvorschrift
y = E₁(y′, z′; k₁, . . . kn),
z = E₂(y′, z′; k₁, . . . kn) (2.1)
In E sind alle Parameter k₁, . . . kn der realen Sensor­ strecke Objektiv - Bildsensor - Digitalisierer bis einschließlich 1.3 wie z. B.
  • - Radiale und tangentiale Verzeichnung des Objektivs;
  • - Durchstoßpunkt der optischen Achse des Objektivs durch die Real-Bildebene des Bildsensors;
  • - Neigung der optischen Achse des Objektivs bezüg­ lich der Real-Bildebene des Bildsensors;
  • - Zeilen-Abtastraster des Digitalisierers,
  • - und dergleichen
über individuelle mathematische Funktionen für E₁ und E₂ verknüpft. Mittels optischer Kalibrationsverfahren können die Parameter k₁, . . . kn der Sensorstrecke er­ mittelt werden. Die die Physik des Objektivs beschrei­ benden Funktionen E₁ und E₂ sind eineindeutig und stetig differenzierbar. Sie können gleichwohl auch im Hinblick auf die definierte Sensor-Pixelordnung als nur an diskreten Stellen definierte Funktionen vorliegen, etwa vergleichbar mit einer Tabelle.
Dabei ist also die geometrische Verknüpfung des strecken­ entzerrten Bildes E mit dem ursprünglich verzerrten Real- Bild DELTA auf dem Bildsensor gegeben durch:
(zeigt auf)
FE(y′, z′) - - - E₁, E₂ → FV (y, z), oder (2.2)
Die unmittelbare Darstellung des streckenentzerrten Bildes E kann bei Objektiven mit Objektwinkeln Θ von z. B. kleiner 160° durchaus interessant sein. Im ande­ ren Falle existiert das resultierende Bild E dann als solches nicht wirklich optisch, sondern nur rein elek­ tronisch.
Die Zeigefunktion von FE auf FV bedeutet insoweit, daß auf einem (in diesem Transformationsschritt) realen oder fiktiven Bildschirm für das Bild E ein lückenloses Pixel­ raster aus jeweils horizontal aneinander anschließenden und dadurch Zeilen bildenden Bildpunkten bzw. aus ver­ tikal aufeinanderfolgenden Zeilen geschrieben wird und dabei jeweils als F-Wert des E-Pixels derjenige Wert verwendet wird, den der in der Bildebene des verzerr­ ten Real-Bildes DELTA über die Transformation E₁, E₂ festliegende DELTA-Quellpunkt aufweist. Dies bedeutet letztlich, daß es bereits auf einem realen oder fiktiven Bildschirm bereits für das Bild E keine "ausgelassenen Pixel" geben kann, indem die Transformation letztlich das regelmäßige "Pixelraster" des Bildes E auf einem solchen Bildschirm aus einer der Streckenentzerrungs­ transformation gehorchenden Auswahl von Bildpunkten des Real-Bildes DELTA auf dem Bildsensor 1.2 assemb­ liert, letztwelche dort folglich nicht zwangsläufig benachbart bzw. lückenlos aufeinanderfolgend anein­ ander anschließen (müssen).
Im Ergebnis ist diese Koordinaten-Bildtransformation geradentreu.
Allerdings entspricht bei einem Weitwinkelobjektiv mit einem Objektwinkel Θ von z. B. 160° oder noch größer der visuelle Seheindruck des streckenentzerrten Bildes E noch nicht menschlichen Sehgewohnheiten. So treten plakative Effekte und insbesondere eine grobe Rasterung in den Randzonen auf. Des weiteren werden Objekte, die an verschiedenen Tiefenpositionen im Objektraum stehen, bei so großen Objektwinkeln im streckenentzerrten Bild E mit falschen Größenverhältnissen zueinander wiederge­ geben. Aus diesem Grund ist das streckenentzerrte Bild E bei Objektiven mit sehr großen Objektwinkeln Θ von z. B. 160° oder noch größer als Informationsbild auf einem Bildschirm für einen Fahrzeugführer weniger geeignet.
Wie in Fig. 7 illustriert, kann mittels einer weiteren Transformation W, die wiederum zwei richtungsabhängige Komponenten W₁ und W₂ umfaßt, aus dem zuvor streckenent­ zerrten Bild E ein weiter winkelentzerrtes Basisbild W erzeugt werden;
W = W₁, W₂ (3)
Dabei ist der "F-Wert" (Helligkeit; Helligkeit, Farbsät­ tigung, Farbart; RGB-Werte) eines Bildpunktes in der Bil­ debene des winkelentzerrten Bildes W mit den Koordinaten (α, β) als FW (α, β) bezeichnet.
Das winkelentzerrte Bild W läßt sich somit beschreiben als Gesamtmenge aller FW mit Pixelkoordinaten α und β. Es be­ sitzt ein rechtwinkliges Koordinatensystem mit den Achsen α und β und jeder F-Wert des Bildes W mit den Koordinaten (α, β) zeigt über die Transformationsvorschrift
y′ = W₁(α, β) = f * tan(α)
z′ = W₂(α, β) = f * tan(β) (3.1.1)
mit f = Bildweite
auf den Koordinatenort (y′, z′) des F-Wertes des entspre­ chenden Bildpunktes FE (y′, z′) im streckenentzerrten Bild E bzw. über die Koordinaten-Bildtransformationsvorschrift
y = E₁[W₁(α, β), W₂(α, β); k₁, . . . kn)
z = E₂[W₁(α, β), W₂(α, β); k₁, . . . kn] (3.1.2.)
auf den Koordinatenort (y, z) des F-Wertes des entspre­ chenden Bildpunktes FV (y, z) im ursprünglich verzeich­ neten Real-Bild DELTA.
Insgesamt kann die bis dahin durchgeführte Transforma­ tion also wie folgt beschrieben werden:
Die vorstehende Gesamttransformation G₁, G₂ ist im all­ gemeinen nicht geradentreu. Allerdings leistet sie fol­ gendes:
  • - Alle Objektraumgeraden, die senkrecht bzw. waag­ recht in einer Objektraumebene, welche parallel zur y/z-Ebene ist, verlaufen, werden geradentreu senkrecht und waagrecht abgebildet. Die Menge die­ ser Objektraumgeraden wird mit GSW bezeichnet.
  • - Weiterhin werden auch diejenigen Objektraumgeraden geradentreu abgebildet, die in den Ebenen verlaufen, welche die einzelnen Geraden, die die Menge GSW bilden, mit dem Projektionszentrum 1.10 aufspan­ nen;
  • - Das Bild W entspricht den menschlichen Sehgewohn­ heiten. Es eignet sich zur Darstellung auf einem Bildschirm zur Visualisierung eines nicht unmittel­ bar einsehbaren Raumes, beispielsweise eines Fahr­ zeugrückraumes für einen Fahrzeugführer. Bei einem PKW kann damit gemäß Fig. 3 der zum versetzt Rück­ wärtseinparken benötigte Freiraum vom Stoßfänger an relativ gut überwacht werden.
Ausgehend von diesem Transformationsschritt mit dem Re­ sultat eines winkelentzerrten Bildes W ist durch einen, in Fig. 8 veranschaulichten Verfahrensschritt noch ein elektronisch perspektivisch korrigiertes Bild K gewinnbar, das - alternativ - ein Vertikalbild (senkrechte Blick­ richtung) oder ein Horizontalbild (waagrechte Blickrich­ tung) sein kann. Unter der Perspektive wird dabei die Blickrichtung des Objektivs verstanden.
Für diese Transformation gilt analog
K = K₁, K₂ (4)
Der "F-Wert" (Helligkeit; Helligkeit, Farbsättigung, Farbart; RGB-Werte) eines Bildpunktes des damit erhal­ tenen perspektivisch korrigierten Winkelentzerrungsbil­ des K mit den Koordinaten (α′, β′) wird mit FK (α′, β′) bezeichnet. Damit läßt sich das perspektivisch korri­ gierte winkelentzerrte Bild K beschreiben als Gesamt­ menge aller FK mit Pixelkoordinaten α′ und β′.
Vom Bild K aus gesehen - d. h. in Rückwärtsrichtung - gibt die Transformation K = K₁, K₂ den Zusammenhang der Koordinaten desselben F-Wertes in den Bildern W und K an.
Das Bild K besitzt ein rechtwinkliges Koordinatensystem mit den Achsen α′ und β, und jeder F-Wert von K mit den Koordinaten (α′, β′) zeigt vermöge der Transformations­ vorschrift
auf den Koordinatenort (α, β) des F-Wertes von FW (α, β) im Bild W bzw. über die Koordinaten-Bildtransformations­ vorschrift
y = E₁[W₁[K₁(α′, β′), K₂(α′, β′)],
W₂[K₁(α′, β′), K₂(α′, β′)]; k₁, . . . kn],
z = E₂[W₁[K₁(α′, β′), K₂(α′, β′)],
W₂[K₁(α′, β′), K₂(α′, β′)]; k₁, . . . kn] (4.1.2)
auf den Koordinatenort (y, z) des F-Wertes des entspre­ chenden Bildpunktes FV (y, z) im ursprünglich verzeich­ neten Real-Bild DELTA.
Insgesamt kann somit die Gesamtheit aller Transforma­ tionsschritte bis hierher wie folgt beschrieben werden:
Die Transformation K = K₁, K₂ macht innerhalb der Gesamttransformation G₁, G₂ gemäß (4.2) letztlich den Effekt eines "elektronischen Schwenks" der Kamera samt Bildsensor um eine Achse durch das Projektionszentrum orthogonal zur Aufspannebene des in Fig. 2 veranschau­ lichten Anstellwinkels Φ. Im Ausführungsbeispiel gemäß Fig. 2 ist die Video-Kamera beispielhaft im Heckdeckel eines PKW fix betriebspositioniert, wobei ihre optische Achse zur Vertikalen den Anstellwinkel Φ aufweist, der beispielhaft 45° beträgt.
Im Hinblick auf Fig. 7 und Fig. 8 bewirkt die Trans­ formation (4)-(4.1.1) bei unverändert fester Kamera mit Anstellwinkel Φ eine Drehung des Bildes K in Bezug auf das Bild W um eine Achse durch das Projektionszentrum 1.10 orthogonal zur Aufspannebene des aus Fig. 2 er­ sichtlichen Anstellwinkels Φ so, daß die neue fiktive optische Achse des Bildes K senkrecht nach unten weist mit der Folge, daß sich die fiktive Ebene des Bildes K dann horizontal erstreckt. W wird in Rückwärtsrichtung aus K erzeugt.
Die Winkelentzerrung gemäß dem Verfahrensschritt (3)- (3.1.1)/(3.1.2)-(3.2.)-(3.3) angewandt auf dieses fiktive Bild W ergibt also in der Gesamttransformation ein Verti­ kalbild mit fiktiver optischer Achse vertikal nach unten. D.h., obwohl die Kamera und ihr Bildsensor gar nicht mit Blickrichtung senkrecht nach unten positioniert sind, er­ laubt es das Verfahren, aus dem in der y/z-Koordinaten­ ebene real erhaltenen Bild ein Vertikalbild synthetisch aufzubereiten, indem vor der Transformation gemäß (3)- (3.1.1)/(3.1.2)-(3.2.)-(3.3) die Winkel α und β der Transformation K = K₁, K₂ gemäß (4)-(4.1.1) unterwor­ fen werden.
Die Gesamttransformation G₁, G₂ gemäß (4)-(4.1.1)/ (4.1.2)-(4.2)-(4.3) ist im allgemeinen nicht geraden­ treu. Sie leistet jedoch insgesamt folgendes:
  • - Alle Geraden des Objektraumes, welche im Hinblick auf die Fig. 2 und 3 beispielhaft auf ebenem Fahrzeuguntergrund oder in Parallelebenen dazu parallel bzw. senkrecht zur Längsrichtung des Fahrzeugs verlaufen, werden geradentreu senk­ recht und waagrecht abgebildet. Die Menge die­ ser Objektraumgeraden wird mit GSW bezeichnet.
  • - Weiterhin werden auch diejenigen Objektraumge­ raden geradentreu abgebildet, die in den Ebenen verlaufen, welche die einzelnen Geraden, die die Menge GSW bilden, mit dem Projektionszentrum 1.10 aufspannen.
  • - Das Bild K vermittelt auf einem Bildschirm auf elektronischem Wege die parallaxenfreie Sehper­ spektive "Blick senkrecht nach unten" beispiels­ weise in einen Fahrzeugrückraum für einen Fahr­ zeugführer beim Ausführungsbeispiel gemäß Fig. 1 bis 3.
  • - Da das Bild W in der Art eines Panoramabildes eine kognitiv gute Raumübersicht, jedoch weni­ ger gute Abstandsübersicht zu Hindernissen bie­ tet, ist im Rahmen des Visualisierungsverfah­ rens bzw. bei einer dieses durchführenden Vor­ richtung optional vorgesehen, bei Näherung an/ von Hindernisse/n zwischen dem Panoramabild W und dem parallaxenfreien Vertikalbild K umzu­ schalten.
  • - Durch eine spezielle nichtlineare Skalierung der Koordinatenachse β′ erhält man ein variiertes Bild K, welches bezüglich der Abstände auf dem Fahrbahn­ untergrund in Längsrichtung des Fahrzeugs bzw. in der Aufspannrichtung des Winkels Φ Abstandstreue aufweist. Dies ist folglich eine weitere Fort­ bildung der Gesamttransformation G₁, G₂ gemäß (4)-(4.1.1)/(4.1.2)-(4.3)
Die alternative Darstellung eines entsprechend winkelent­ zerrten und perspektivisch korrigierten Horizontalbildes ist ebenfalls möglich.
Dazu wird der Wert FK eines jeden Pixels (α′, β′) des per­ spektivisch winkelentzerrten (Horizontal-)Bildes K vom Wert FW desjenigen Pixels (α, β) des (perspektivisch nicht korri­ gierten) Bildes W abgeleitet, auf welches das Pixel (α′, β′) vermöge der Transformation
K = K₁, K₂ (5)
gemäß der Transformationsvorschrift
zeigt.
Der Wert FK kann auch von dem F-Wert des entsprechenden Bildpunktes FV (y, z) im ursprünglich verzeichneten Real- Bild DELTA abgeleitet werden, auf welches das Pixel (α′, β′) vermöge der Koordinaten-Bildtransformation
y = E₁[W₁[K₁(α′, β′), K₂(α′, β′)],
W₂[K₁(α′, β′), K₂(α′, β′)]; k₁, . . . kn],
z = E₂[W₁[K₁(α′, β′), K₂(α′, β′)],
W₂[K₁(α′, β′), K₂(α′, β′)]; k₁, . . . kn] (5.1.2)
zeigt gemäß
Daraus ist ersichtlich, daß sich bei einer Arbeitspo­ sitionierung der Videokamera mit Blickrichtungswinkel 45° schräg nach unten besonders einfache Verhältnisse bezüglich der alternativen Ableitung der beiden Bil­ der K ergeben.
Im Hinblick auf Fig. 7 und Fig. 8 bewirkt eine solche Transformation (5)-(5.1.1) bei unverändert fester Kamera mit Anstellwinkel Φ folglich eine Drehung der Ebene des Bildes K um eine Achse durch das Projektionszentrum 1.10 orthogonal zur Aufspannebene des in Fig. 2 veranschau­ lichten Anstellwinkels Φ so, daß die neue fiktive optische Achse des Bildes K waagerecht vom Fahrzeug weg (nach hin­ ten) zeigt mit der Folge, daß sich die fiktive Ebene des Bildes K dann vertikal erstreckt. W wird in Rückwärts­ richtung aus K erzeugt.
Die Winkelentzerrung gemäß dem Verfahrensschritt (3)- (3.1.1)/(3.1.2)-(3.2.)-(3.3) angewandt auf ein solches fiktives Bild W liefert ein Horizontalbild mit fiktiver optischer Achse waagerecht vom Fahrzeug weg. Obwohl die Kamera und ihr Bildsensor gar nicht mit Blickrichtung waagerecht vom Fahrzeug weg positioniert sind, erlaubt das Verfahren auf der Basis des in der Y/z-Koordinaten­ ebene real empfangenen Bildes ein Horizontalbild auf einem Monitor darzustellen, indem vor der Transformation gemäß (3)-(3.1.1)/(3.1.2)-(3.2.)-(3.3) die Winkel α und β der Transformation K = K₁, K₂ gemäß (5)-(5.1.1) unterworfen werden.
Die vorerwähnten Teiltransformationen stellen selbst­ verständlich keinerlei Beschränkung der Erfindung, son­ dern ausgewählte Schrittbeispiele dafür dar, wie eine erfindungsgemäß allgemeine Koordinaten-Bildtransforma­ tion
A = A₁, A₂ (1)
mit achsorthogonalen Transformationskomponenten
y = A₁(a′, b′) und
z = A₂(a′, b′) (1.1)
als "Über-Alles-Schritt" der Reallokation
(zeigt auf)
FM(a′, b′) - - - A₁, A₂ → FV(y,z) (1.2)
FM(a′ , b′) = FV [A₁(a′, b′), A₂(a′, b′)] (1.3)
im Detail gestaltet werden kann, wobei in dieser all­ gemeinen Beschreibung des Verfahrens FM dem "F-Wert" (wenigstens Helligkeit in einem Schwarz/Weiß-System, bevorzugt aber auch Farbsättigung und Farbart oder RGB-Wert) eines Bildpunktes in der a′/b′-Bildebene auf dem Bildschirm und FV dem "F-Wert" (wenigstens Helligkeit in einem Schwarz/Weiß-System, bevorzugt aber auch Farbsättigung und Farbart oder RGB-Wert) eines Bildpunktes in der y/z-DELTA-Ebene auf dem Sen­ sorchip der Kamera entspricht und die Transformatio­ nen A₁ und A₂ angeben, von welchen Koordinaten (y, z) auf dem Bildsensor in der Kamera der aktuell bei den Koordinaten (a′, b′) auf dem Bildschirm zu schreibende F-Wert "abzuleiten¹′ ist. Die unter (2.3), (3.3) und (4.3) angegebenen Gesamttransformationen G₁, G₂ sind also beispielhafte Spezial- bzw. Sonderfälle der vor­ genannten allgemeinen Transformation A₁, A₂.
Eine solche festzuverdrahtende Allokationstransfor­ mation wird in der Regel außer der spezifischen un­ erwünschten Abbildungsverzeichnung auch die Bildfeld­ parameter des Bildsensors und des Bildschirmes (Bild­ seitenverhältnisse bzw. horizontale und vertikale In­ frame Nutzpixelzahl) miteinschließen und in der Praxis vorteilhaft so ausgelegt werden, daß sie wenigstens eine Kategorie der Mehrzahl von objektivbedingt spe­ zifischen geometrisch-optischen Verzeichnungen des real erhältlichen Objektraumbildes von der gewünschten Ob­ jektraumdarstellung optimal korrigiert, wobei die Kate­ gorien bei verschiedenstufigen Korrektionen auch wech­ seln können.
In jedem Falle bleibt der immanente Verfahrensvorteil wirksam, daß die Kompensation von Abbildungsunzuläng­ lichkeiten durch Pixelreallokation sog. "unbestimmte Pixel" auf dem Bildschirm und alle damit auftretenden Folgeprobleme vermeidet und somit kein Aufwand für elektronischen Mittel zur Füllung oder Interpolation "wertloser" Pixel getrieben werden muß.
Es versteht sich von selbst, daß der Gegenstand der Erfindung weder bezüglich des Verfahrens noch bezüg­ lich der Vorrichtung verlassen wird, wenn beispiels­ weise eine vereinfachte Schwarz/Weiß-Übertragungs­ technik zum Einsatz gelangt und sich die F-Werte in diesem Falle dann auf Helligkeitspegelwerte reduzieren.
Das Verfahren öffnet damit einen Weg, Vorrichtungen zur Visualisierung eines nicht unmittelbar einseh­ barer Überwachungsraumes mit in Echtzeit arbeiten­ den Bildsignalverarbeitungseinrichtungen mit gerin­ gem Aufwand schnell arbeitend, klein bauend und preisgünstig zu realisieren. Entsprechende Vorrich­ tungen eignen sich z. B. auch für die Einsicht von Passways in Passenger-Terminals, von tieferliegen­ den Durchtritträumen bei einem POS-Terminals, etc., wo im Einzelfall freilich andere Bildentzerrungen als bei einem Fahrzeug notwendig oder zweckmäßig sein können.

Claims (20)

1. Verfahren zur Visualisierung eines nicht unmittel­ bar einsehbaren Überwachungsraumes insbesondere bei einem Fahrzeug, bei welchem Verfahren eine dem Überwachungsraum zugeordnete Videokamera und, davon abgesetzt, ein in einem Beobachtungsraum angeordneter Bildschirm zur Anwendung gelangt, wobei zwischen Videokamera und Bildschirm eine Signalübertragung erfolgt und der Überwachungsraum ver­ mittels des Objektivs der Videokamera auf einem Bild­ sensor optisch abgebildet wird,
dadurch gekennzeichnet,
  • - daß in der Kamera als Objektiv ein Extrem-Weitwin­ kelobjektiv und als Bildsensor ein Halbleiter-Bildsen­ sor mit einer ersten definierten, in Zeilen und Spal­ ten definiert angeordneten Anzahl von Pixeln (Bildfeld­ parameter des Sensors) und als Bildschirm ein solcher mit einer zweiten definierten, in Zeilen und Spalten definiert angeordneten Anzahl von Pixeln (Bildfeldpa­ rameter des Bildschirms) verwendet wird;
  • - daß entsprechend der Objektraumabbildung DELTA in der Real-Bildebene auf dem Bildsensor jedem DELTA- Pixel (y, z) entsprechend der ersten Zahl von Sensor- Pixeln ein wenigstens die Helligkeit, vorzugsweise aber auch die Farbart, Helligkeit und Farbsättigung oder RGB-Werte beschreibender Wert FV und in der Dar­ stellungsbildebene auf dem Bildschirm jedem Schirmbild- Pixel (a′,b′) aus besagter zweiten Zahl von Pixeln ein entsprechender Wert FM zugeordnet wird,
  • - daß der Wert FM eines jeden aktuell zu schreiben­ den Schirmbild-Pixels vom Wert FV desjenigen Sensor- Pixels abgeleitet wird, auf welches das Schirmbild- Pixel vermöge der Transformation A = A₁, A₂mit der Transformationsvorschrifty = A₁(a′, b′) und
    z = A₂(a′, b′)zeigt gemäßFM(a′, b′) - - - A₁, A₂ → FV(y,z) ,
    FM(a′, b′) = FV[A₁(a′, b′), A₂(a′, b′)], und
  • - daß diese Zuordnung in Echtzeit vermittels einer gemäß der Transformationsvorschrift festverdrahteten Halbleiterlogik geschieht und die Bildtransformation auf der Basis der Bildfeldparameter sowohl des Bild­ sensors als auch des Bildschirmes wenigstens eine Kate­ gorie der objektivbedingt spezifischen geometrisch­ optischen Verzeichnung des realen Objektraumbildes (auf dem Bildsensor) von der gewünschten Objektraumdarstel­ lung (auf dem Bildschirm) durch Veränderung der Zuord­ nung von Sensor-Pixeln zu Bildschirm-Pixeln korrigiert.
2. Verfahren nach Anspruch 1,
dadurch gekennzeichnet,
  • - daß die vorgenannte Bildtransformation wenigstens einen Streckenentzerrungsschritt umfaßt dergestalt, daß der Wert FE eines jeden Pixels (y′, z′) des streckenent­ zerrten Bildes E vom Wert FV desjenigen DELTA-Pixels (y, z) abgeleitet wird, auf welches das E-Pixel vermöge der Transformation E = E₁, E₂gemäß der Transformationsvorschrifty = E₁(y′, z′; k₁, . . . kn),
    z = E₂(y′, z′; k₁, . . . kn)zeigt gemäßFE(y′, z′) - - - E₁, E₂ → FV (y, z),wobei mit k₁, . . . kn als Parameter der realen Sensorstrecke Objektiv - Bildsensor - Digitalisierer (1.5, 1.2, 1.3) und E₁ und E₂ als eineindeutig und stetig differenzier­ baren Objektivbeschreibungsfunktionen, die im Hinblick auf die definierte Sensor-Pixelordnung wenigstens an entsprechenden diskreten Stellen definiert sind bzw. wertmäßig vorliegen
3. Verfahren nach Anspruch 2,
dadurch gekennzeichnet,
  • - daß die Bildtransformation des weiteren wenigstens einen Winkelentzerrungsschritt umfaßt dergestalt, daß der Wert FW eines jeden Pixels (α, β) eines winkel­ entzerrten Bildes W vom Wert FV desjenigen DELTA-Pixels (y, z) abgeleitet wird, auf welches das Pixel des Bildes W vermöge der Koordinaten- Bildtransformation mit der Teiltransformation W = W₁, W₂gemäß der Koordinaten-Bialdtransformationsvorschrifty = E₁[W₁(α, β), W₂(α, β); k₁, . . . kn]
    z = E₂[W₁(α, β), W₂(α, β); k₁, . . . kn]zeigt gemäßFW(α, β) - - - W₁, W₂ → FE(y′, z′) - - - E₁, E₂ → FV(y, z),
    wobei
4. Verfahren gemäß Anspruch 3,
dadurch gekennzeichnet,
  • - daß die Videokamera gegenüber der Vertikalen unter einem Anstellwinkel Φ fest betrieben wird und die Bild­ transformation einen Schritt zur perspektivischen Trans­ formation in ein Vertikalbild umfaßt dergestalt, daß der Wert FK eines jeden Pixels (α′, β′) des perspektivisch korrigierten (Vertikal-)Bildes K vom Wert FW desjenigen Pixels (α, β) des (perspektivisch nicht korrigierten Bil­ des W abgeleitet wird, auf welches das Pixel (α′, β′) vermöge der Transformation K = K₁, K₂gemäß der Transformationsvorschrift zeigt, oder vom F-Wert desjenigen Bildpunktes FV(y, z) im ursprünglich verzeichneten Real-Bild DELTA abgeleitet wird, auf welches das Pixel (α′, β′) vermöge der Koordi­ naten-Bildtransformationy = E₁[W₁[K₁(α′, β′), K₂(α′, β′)],
    W₂[K₁(α′, β′), K₂(α′, β′)]; k₁, . . . kn],
    z = E₂[W₁[K₁(α′, β′), K₂(α′, β′)],
    W₂[K₁(α′, β′), K₂(α′, β′)]; k₁, . . . kn]zeigt gemäß
5. Verfahren gemäß Anspruch 3,
dadurch gekennzeichnet,
  • - daß die Videokamera gegenüber der Vertikalen unter einem Blickwinkel Φ betrieben wird und die Bildtransfor­ mation einen Schritt zur perspektivischen Transformation in ein Horizontalbild umfaßt dergestalt, daß der Wert FK eines jeden Pixels (α′, β′) des perspektivisch korrigierten (Horizontal-)Bildes K vom Wert FW desjenigen Pixels (α, β) des (perspektivisch nicht korrigierten Bildes W abgeleitet wird, auf welches das Pixel (α′, β′) vermöge der Trans­ formation K = K₁, K₂gemäß der Transformationsvorschrift zeigt, oder vom F-Wert desjenigen Bildpunktes FV(y, z) im ursprünglich verzeichneten Real-Bild DELTA abgeleitet wird, auf welches das Pixel (a′, b′) vermöge der Koordi­ naten-Bildtransformationy = E₁[W₁[K₁(α′, β′), K₂(α′, β′)],
    W₂[K₁(α′, β′), K₂(α′, β′)]; k₁, . . . kn],
    z = E₂[W₁[K₁(α′, β′), K₂(α′, β′)],
    W₂[K₁(α′, β′), K₂(α′, β′)]; k₁, . . . kn]zeigt gemäß
6. Verfahren nach Anspruch 3,
dadurch gekennzeichnet,
  • - daß das Bild W zur Darstellung gelangt.
7. Verfahren nach Anspruch 3,
dadurch gekennzeichnet,
  • - daß das Bild W nur fiktiv als (elektronisches) Zwischenbild existiert und als solches vor einer Dar­ stellung auf dem Bildschirm in wenigstens einem wei­ teren Verfahrensschritt weiterbearbeitet wird.
8. Verfahren nach Anspruch 4,
dadurch gekennzeichnet,
  • - daß die Ausführung der Transformation K optional vorgesehen und aus dem bildschirmnahen Beobachtungsraum wahlfrei aufrufbar ist.
9. Verfahren nach Anspruch 5,
dadurch gekennzeichnet,
  • - daß die Ausführung der Transformation K optional vorgesehen und aus dem bildschirmnahen Beobachtungsraum wahlfrei aufrufbar ist.
10. Verwendung des Verfahrens nach Anspruch 1 bei einem Fahrzeug.
11. Vorrichtung zur Visualisierung eines nicht unmit­ telbar einsehbaren Überwachungsraumes, mit einer dem Überwachungsraum zugeordneten Videokamera und davon abgesetzt einem in einem Beobachtungsraum angeordne­ ten Bildschirm, wobei zwischen Videokamera und Bild­ schirm eine Signalübertragungsstrecke angeordnet ist und der Überwachungsraum vermittels des Objektivs der Videokamera auf einem Bildsensor optisch abgebildet wird,
dadurch gekennzeichnet,
  • - daß die Videokamera eine Einrichtung zur digita­ lisierten Übertragung der Bildinformation über die Signalübertragungsstrecke umfaßt und eine gegenüber der Vertikalen um einen Anstellwinkel Φ geneigte Orientierung ihrer optischen Achse (Blickrichtung) hat,
  • - daß es sich bei dem Objektiv der Videokamera um ein solches von extremer Weitwinkligkeit handelt und als Bildsensor ein Halbleiter-Bildsensor mit einer ersten definierten, in Zeilen und Spalten definiert angeordneten Anzahl von Pixeln (Bildfeldparameter des Sensors) und als Bildschirm ein solcher mit einer zwei­ ten definierten, in Zeilen und Spalten definiert ange­ ordneten Anzahl von Pixeln (Bildfeldparameter des Bild­ schirms) vorgesehen ist,
  • - daß in der Signalübertragungsstrecke zwischen Videokamera und Bildschirm eine Bildsignalverarbei­ tungseinrichtung vorgesehen ist, welche einen Mikro­ rechner und einen RAM-Bereich und damit verbunden wenigstens eine anwendungsspezifische Halbleiter­ schaltkreisfunktion (ASIC) umfaßt, innerhalb welcher unter Zeitablaufsteuerung durch den Mikrorechner eine geometrische Entzerrung des auf dem Bildsensor erzeug­ ten Objektraumbildes in ein einer gewünschten Darstel­ lungsform näher kommendes Schirmbild durch eine pixel­ weise inkrementelle, auf die Abbildungseigenschaften des Objektiv abgestimmt festverdrahtete Veränderung der Zuordnung von auf dem Bildsensor und dem Bildschirm einander entsprechenden Pixeln im Sinne einer Umsor­ tierung möglich ist.
12. Vorrichtung nach Anspruch 11,
dadurch gekennzeichnet,
  • - daß in dem RAM-Bereich zum Zwecke der inkremen­ tellen Umsortierung von Pixeln wenigstens ein Teil eines vollen Sensorbildes, beispielsweise ein Halb­ bild, zwischenspeicherbar ist.
13. Vorrichtung nach Anspruch 11,
dadurch gekennzeichnet,
  • - daß sie zwei funktionell voneinander getrennte anwendungsspezifische Halbleiterschaltkreisfunktio­ nen (ASIC-Bereiche 4.1 und 4.2) umfaßt, wobei die eine die besagte Umsortierung und die andere die Generation eines digitalen RGB-Video-Ausgangssig­ nals für den Bildschirm leistet.
14. Vorrichtung gemäß Anspruch 11,
dadurch gekennzeichnet,
  • - daß in dem eine Umsortierung leistenden ASIC- Bereich wenigstens zwei verschiedenen Transformations­ stufen entsprechende und dementsprechend unterschiedli­ che Umsortierungen bewirkende "Verdrahtungsschemen" selektiv aktivierbar verwirklicht sind und in Abhän­ gigkeit von einem Selektionssignal jeweils eines davon wirksam ist.
15. Vorrichtung nach Anspruch 11,
dadurch gekennzeichnet,
  • - daß der Mikrorechner ausschließlich Steuer­ funktionen und keine Verarbeitungsfunktion bezüg­ lich Bildinhalt und -geometrie erfüllt.
16. Vorrichtung nach Anspruch 11,
dadurch gekennzeichnet,
  • - daß sie Mittel umfaßt, welche bei Nichtgebrauch wenigstens das Objektiv der Videokamera abdecken und zwecks Gebrauch der letzteren in eine definierte Ar­ beitsposition verbringbar sind.
17. Vorrichtung nach Anspruch 11,
dadurch gekennzeichnet,
  • - daß sie Mittel umfaßt, welche bei Nichtgebrauch die Videokamera in eine geschützte Ruhelage und zwecks Gebrauch dieselbe in eine definierte Betriebslage ver­ bringen.
18. Vorrichtung gemäß Anspruch 17,
dadurch gekennzeichnet,
  • - daß die Videokamera wenigstens schwenkbar ange­ ordnet ist derart, daß sie im Ruhezustand innerhalb der Hüllkontur desjenigen Objektes liegt, in welchem der Beobachtungsraum sich befindet.
19. Vorrichtung gemäß Anspruch 18,
dadurch gekennzeichnet,
  • - daß es sich bei dem Objekt um ein Fahrzeug handelt.
20. Vorrichtung gemäß Anspruch 19,
dadurch gekennzeichnet,
  • - daß sie im Heck des Fahrzeugs angeordnet ist und Mittel umfaßt, welche eine selbsttätige Verbringung der Videokamera in ihre Gebrauchslage bei Einlegen des Rück­ wärtsganges bewirken.
DE19539642A 1995-10-25 1995-10-25 Verfahren zur Visualisierung eines nicht unmittelbar einsehbaren Überwachungsraumes insbesondere bei einem Fahrzeug, und Vorrichtung zur Visualisierung eines nicht unmittelbar einsehbaren Überwachungsraumes Withdrawn DE19539642A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19539642A DE19539642A1 (de) 1995-10-25 1995-10-25 Verfahren zur Visualisierung eines nicht unmittelbar einsehbaren Überwachungsraumes insbesondere bei einem Fahrzeug, und Vorrichtung zur Visualisierung eines nicht unmittelbar einsehbaren Überwachungsraumes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19539642A DE19539642A1 (de) 1995-10-25 1995-10-25 Verfahren zur Visualisierung eines nicht unmittelbar einsehbaren Überwachungsraumes insbesondere bei einem Fahrzeug, und Vorrichtung zur Visualisierung eines nicht unmittelbar einsehbaren Überwachungsraumes

Publications (1)

Publication Number Publication Date
DE19539642A1 true DE19539642A1 (de) 1996-11-14

Family

ID=7775693

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19539642A Withdrawn DE19539642A1 (de) 1995-10-25 1995-10-25 Verfahren zur Visualisierung eines nicht unmittelbar einsehbaren Überwachungsraumes insbesondere bei einem Fahrzeug, und Vorrichtung zur Visualisierung eines nicht unmittelbar einsehbaren Überwachungsraumes

Country Status (1)

Country Link
DE (1) DE19539642A1 (de)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19736880C1 (de) * 1997-08-26 1999-05-06 Jurca Optoelektronik Gmbh Elektronische Brille
DE19845567A1 (de) * 1998-10-02 2000-04-06 Volkswagen Ag Verfahren zur Visualisierung des Rückraumes bei einem Kraftfahrzeug
DE19925584A1 (de) * 1999-06-04 2000-12-21 Bosch Gmbh Robert Verfahren zur Fahrwegvisualisierung und Vorrichtung
WO2001037028A1 (en) * 1999-11-15 2001-05-25 Equal Reverse Thoughts Limited Method of improved image depth perception
DE10221513A1 (de) * 2002-05-14 2003-12-04 Ce Sys Gmbh Ilmenau Verfahren zur Darstellung von Bildern mit verändertem Breite-Höhe-Verhältnis
DE10243620A1 (de) * 2002-09-19 2004-04-01 Valeo Schalter Und Sensoren Gmbh Verfahren zur Bildverarbeitung der von einem System zur Umfelderfassung eines Fahrzeuges erfassten optischen Signale und System zur Umfelderfassung eines Fahrzeuges
US6819231B2 (en) 2002-02-05 2004-11-16 Donnelly Hohe Gmbh & Co. Kg Parking and/or maneuvering assistance device
DE10360754A1 (de) * 2003-12-23 2005-07-28 Hella Kgaa Hueck & Co. System zur Bilderfassung und -darstellung
DE10083445B4 (de) * 1999-09-30 2005-09-22 Kabushiki Kaisha Toyota Jidoshokki, Kariya Fahrzeug-Rückwärts-Überwachungsvorrichtung mit einer Anzeigesteuereinrichtung zur Transformation eines Eingabebildes
DE19961389B4 (de) * 1999-12-20 2005-10-06 Werner Wallrafen Schutzverschluss für Kameras
DE19806261B4 (de) * 1997-02-14 2006-05-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur gesteuerten Darstellung von Hohlraum-Oberflächen
DE102005027750A1 (de) * 2005-06-16 2006-12-21 Dr.Ing.H.C. F. Porsche Ag Kraftfahrzeug, insbesondere Personenkraftwagen
DE10059786B4 (de) * 2000-12-01 2007-04-26 Volkswagen Ag Überwachungseinrichtung für Fahrzeuge
DE19749583B4 (de) * 1997-11-10 2007-05-24 Volkswagen Ag Verfahren und Einrichtung zur Beobachtung bzw. Überwachung eines Objektraumes von einem Kraftfahrzeug aus
DE102011011048A1 (de) * 2011-02-11 2012-08-16 Mekra Lang Gmbh & Co. Kg Überwachung des Nahbereichs rund um ein Nutzfahrzeug
DE10037222B4 (de) * 2000-07-31 2013-09-19 Volkswagen Ag Kameraeinrichtung für Kraftfahrzeuge
US8953011B2 (en) 2011-02-08 2015-02-10 Mekra Lang Gmbh & Co. Kg Display device for visually-depicting fields of view of a commercial vehicle
DE102008031784B4 (de) * 2007-07-16 2016-05-12 Trw Automotive U.S. Llc Verfahren und Vorrichtung zur Verzerrungskorrektur und Bildverbesserung eines Fahrzeugrückblicksystems
DE10296593B4 (de) * 2001-03-28 2017-02-02 Panasonic Intellectual Property Management Co., Ltd. Fahrunterstützungsvorrichtung
US9667922B2 (en) 2013-02-08 2017-05-30 Mekra Lang Gmbh & Co. Kg Viewing system for vehicles, in particular commercial vehicles
US9707891B2 (en) 2012-08-03 2017-07-18 Mekra Lang Gmbh & Co. Kg Mirror replacement system for a vehicle

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0111909A2 (de) * 1982-12-22 1984-06-27 Hitachi, Ltd. Bildverarbeitungsgerät
FR2673499A1 (fr) * 1991-03-01 1992-09-04 Renault Dispositif de retrovision par camera pour vehicule automobile.
DE4336288C1 (de) * 1993-10-25 1995-03-30 Daimler Benz Ag Einrichtung zur Überwachung des Rück- bzw. Frontraumes eines einparkenden Kraftfahrzeugs

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0111909A2 (de) * 1982-12-22 1984-06-27 Hitachi, Ltd. Bildverarbeitungsgerät
FR2673499A1 (fr) * 1991-03-01 1992-09-04 Renault Dispositif de retrovision par camera pour vehicule automobile.
DE4336288C1 (de) * 1993-10-25 1995-03-30 Daimler Benz Ag Einrichtung zur Überwachung des Rück- bzw. Frontraumes eines einparkenden Kraftfahrzeugs

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Patent Abstracts of Japan, 1994, 06284424, JP 6-284424 A *

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19806261B4 (de) * 1997-02-14 2006-05-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur gesteuerten Darstellung von Hohlraum-Oberflächen
DE19736880C1 (de) * 1997-08-26 1999-05-06 Jurca Optoelektronik Gmbh Elektronische Brille
DE19749583B4 (de) * 1997-11-10 2007-05-24 Volkswagen Ag Verfahren und Einrichtung zur Beobachtung bzw. Überwachung eines Objektraumes von einem Kraftfahrzeug aus
DE19845567A1 (de) * 1998-10-02 2000-04-06 Volkswagen Ag Verfahren zur Visualisierung des Rückraumes bei einem Kraftfahrzeug
DE19925584A1 (de) * 1999-06-04 2000-12-21 Bosch Gmbh Robert Verfahren zur Fahrwegvisualisierung und Vorrichtung
US6564122B1 (en) 1999-06-04 2003-05-13 Robert Bosch Gmbh Method and device for visualizing a driving path
DE10083445B4 (de) * 1999-09-30 2005-09-22 Kabushiki Kaisha Toyota Jidoshokki, Kariya Fahrzeug-Rückwärts-Überwachungsvorrichtung mit einer Anzeigesteuereinrichtung zur Transformation eines Eingabebildes
WO2001037028A1 (en) * 1999-11-15 2001-05-25 Equal Reverse Thoughts Limited Method of improved image depth perception
DE19961389B4 (de) * 1999-12-20 2005-10-06 Werner Wallrafen Schutzverschluss für Kameras
DE10037222B4 (de) * 2000-07-31 2013-09-19 Volkswagen Ag Kameraeinrichtung für Kraftfahrzeuge
DE10059786B4 (de) * 2000-12-01 2007-04-26 Volkswagen Ag Überwachungseinrichtung für Fahrzeuge
DE10296593B4 (de) * 2001-03-28 2017-02-02 Panasonic Intellectual Property Management Co., Ltd. Fahrunterstützungsvorrichtung
US6819231B2 (en) 2002-02-05 2004-11-16 Donnelly Hohe Gmbh & Co. Kg Parking and/or maneuvering assistance device
DE10221513B4 (de) * 2002-05-14 2004-03-11 Ce-Sys Gmbh Ilmenau Verfahren zur Darstellung von Bildern mit verändertem Breite-Höhe-Verhältnis
DE10221513A1 (de) * 2002-05-14 2003-12-04 Ce Sys Gmbh Ilmenau Verfahren zur Darstellung von Bildern mit verändertem Breite-Höhe-Verhältnis
DE10243620A1 (de) * 2002-09-19 2004-04-01 Valeo Schalter Und Sensoren Gmbh Verfahren zur Bildverarbeitung der von einem System zur Umfelderfassung eines Fahrzeuges erfassten optischen Signale und System zur Umfelderfassung eines Fahrzeuges
DE10360754A1 (de) * 2003-12-23 2005-07-28 Hella Kgaa Hueck & Co. System zur Bilderfassung und -darstellung
DE102005027750A1 (de) * 2005-06-16 2006-12-21 Dr.Ing.H.C. F. Porsche Ag Kraftfahrzeug, insbesondere Personenkraftwagen
DE102008031784B4 (de) * 2007-07-16 2016-05-12 Trw Automotive U.S. Llc Verfahren und Vorrichtung zur Verzerrungskorrektur und Bildverbesserung eines Fahrzeugrückblicksystems
US8953011B2 (en) 2011-02-08 2015-02-10 Mekra Lang Gmbh & Co. Kg Display device for visually-depicting fields of view of a commercial vehicle
US9232195B2 (en) 2011-02-11 2016-01-05 Mekra Lang Gmbh & Co. Kg Monitoring of the close proximity around a commercial vehicle
DE102011011048A1 (de) * 2011-02-11 2012-08-16 Mekra Lang Gmbh & Co. Kg Überwachung des Nahbereichs rund um ein Nutzfahrzeug
WO2012107238A1 (de) 2011-02-11 2012-08-16 Mekra Lang Gmbh & Co. Kg Überwachung des nahbereichs rund um ein nutzfahrzeug
DE102011011048B4 (de) * 2011-02-11 2021-06-24 Mekra Lang Gmbh & Co. Kg Überwachung des Nahbereichs rund um ein Nutzfahrzeug
DE102011011048B9 (de) 2011-02-11 2021-10-07 Mekra Lang Gmbh & Co. Kg Überwachung des Nahbereichs rund um ein Nutzfahrzeug
US9707891B2 (en) 2012-08-03 2017-07-18 Mekra Lang Gmbh & Co. Kg Mirror replacement system for a vehicle
US10011229B2 (en) 2012-08-03 2018-07-03 Mekra Lang Gmbh & Co. Kg Mirror replacement system for a vehicle
US9667922B2 (en) 2013-02-08 2017-05-30 Mekra Lang Gmbh & Co. Kg Viewing system for vehicles, in particular commercial vehicles
USRE48017E1 (en) 2013-02-08 2020-05-26 Mekra Lang Gmbh & Co. Kg Viewing system for vehicles, in particular commercial vehicles

Similar Documents

Publication Publication Date Title
DE102017130566B4 (de) Sichtsystem zur Erfassung einer Fahrzeugumgebung und Spiegelersatzsystem für ein Fahrzeug mit einem Sichtsystem
DE19539642A1 (de) Verfahren zur Visualisierung eines nicht unmittelbar einsehbaren Überwachungsraumes insbesondere bei einem Fahrzeug, und Vorrichtung zur Visualisierung eines nicht unmittelbar einsehbaren Überwachungsraumes
DE19741896C2 (de) Vorrichtung zur bildlichen Darstellung von Bereichen der Umgebung eines Kraftfahrzeugs
DE102004043257B4 (de) Kameraeinheit und Vorrichtung zur Überwachung der Fahrzeugumgebung
DE19923964C2 (de) Umgebungs-Überwachungsgerät für ein Fahrzeug
DE102006007493B4 (de) Vorrichtung zum Sehen der Peripherie eines Fahrzeuges
DE102017123452A1 (de) Verfahren zum Erzeugen eines ein Kraftfahrzeug und einen Umgebungsbereich des Kraftfahrzeugs in einer vorbestimmten Zielansicht zeigenden Ausgangsbildes, Kamerasystem sowie Kraftfahrzeug
DE102008062121A1 (de) Kameraeinheit mit Fahrkorridor-Anzeigefunktion für ein Fahrzeug, Verfahren zur Anzeige einer vorausberechneten Fahrzeugtrajektorie und System zur Generierung von Fahrkorridormarkierungen
DE102008031784A1 (de) Verfahren und Vorrichtung zur Verzerrungskorrektur und Bildverbesserung eines Fahrzeugrückblicksystems
DE10292327T5 (de) Fahrzeugumgebungsbildverarbeitungsvorrichtung und Aufzeichnungsmedium
EP2934947A1 (de) Kraftfahrzeug mit kamera-monitor-system
WO2016162245A1 (de) Verfahren zur darstellung einer fahrzeugumgebung eines fahrzeuges
DE102009045233A1 (de) Verfahren und Vorrichtung zur kombinierten visuellen Anzeige von Video- und Abstandsdaten einer Verkehrssituation
DE102012203491A1 (de) Elektronisches Rückspiegel-System
DE102014114565A1 (de) Vogelperspektiveansichtsbildgenerierungsvorrichtung
DE102019120636A1 (de) Periphere anzeigevorrichtung für ein fahrzeug
DE102018100194B3 (de) Spiegelersatzsystem sowie Verfahren zur Darstellung von Bild- und/oder Videodaten der Umgebung eines Kraftfahrzeugs
DE102013220477A1 (de) Verfahren zur Korrektur einer bildlichen Darstellung einer Fahrzeugumgebung
WO2006128862A1 (de) Integrierte schaltung mit warping-berechnungseinheit
DE10221513B4 (de) Verfahren zur Darstellung von Bildern mit verändertem Breite-Höhe-Verhältnis
DE102010042248A1 (de) Verfahren und Vorrichtung zur optischen Darstellung einer Umgebung eines Fahrzeugs
DE102004036746A1 (de) Vorrichtung zur bildlichen Darstellung einer Fahrzeugumgebung
DE10136651A1 (de) Verfahren und Vorrichtung zum Erfassen und Darstellen von Bildern
DE102006036769B3 (de) Einrichtung insbesondere zum Echtzeit-Luftbild-Überwachen aus Flugzeugen
WO2020061604A1 (de) Verfahren zur fokuseinstellung einer filmkamera

Legal Events

Date Code Title Description
OAV Publication of unexamined application with consent of applicant
OP8 Request for examination as to paragraph 44 patent law
8130 Withdrawal