DE102011088332A1 - Verfahren zur Verbesserung der Objektdetektion bei Multikamerasystemen - Google Patents

Verfahren zur Verbesserung der Objektdetektion bei Multikamerasystemen Download PDF

Info

Publication number
DE102011088332A1
DE102011088332A1 DE102011088332A DE102011088332A DE102011088332A1 DE 102011088332 A1 DE102011088332 A1 DE 102011088332A1 DE 102011088332 A DE102011088332 A DE 102011088332A DE 102011088332 A DE102011088332 A DE 102011088332A DE 102011088332 A1 DE102011088332 A1 DE 102011088332A1
Authority
DE
Germany
Prior art keywords
vehicle
raised
interface
viewing areas
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102011088332A
Other languages
English (en)
Other versions
DE102011088332B4 (de
Inventor
Tobias Ehlgen
Leo Vepa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102011088332.0A priority Critical patent/DE102011088332B4/de
Priority to CN201280061379.6A priority patent/CN103999122A/zh
Priority to PCT/EP2012/072963 priority patent/WO2013087362A1/de
Priority to EP12794902.2A priority patent/EP2791895A1/de
Priority to IN3173DEN2014 priority patent/IN2014DN03173A/en
Publication of DE102011088332A1 publication Critical patent/DE102011088332A1/de
Application granted granted Critical
Publication of DE102011088332B4 publication Critical patent/DE102011088332B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

Die Erfindung bezieht sich auf ein Verfahren zur Wiedergabe von erhabenen Objekten (68), die sich in einem kritischen Bereich (78) befinden oder auf diesen zubewegen. Der kritische Bereich (78) befindet sich an Nahtstellen (52, 54, 56, 58) zusammengefügt aus von mehreren Einzelkameras (28, 32, 36, 40) erfasster Sichtbereiche (30, 34, 38, 42). Es werden die nachfolgenden Verfahrensschritte durchlaufen: Es erfolgt die Erfassung von Sichtbereichen (30, 34, 38, 42) mit jeweils einer Einzelkamera (28, 32, 36, 40) an einem Fahrzeug (10). Anschließend erfolgt das Zusammenfügen der Sichtbereiche (30, 34, 38, 42) entlang von Nahtstellen (52, 54, 56, 58) zu einer transformierten Vogelperspektiv-Ansicht (24). Schließlich erfolgt das Verschieben mindestens einer Nahtstelle (52, 54, 56, 58) zwischen angrenzenden Sichtbereichen (30, 34, 38, 42) bei Detektion mindestens eines sich innerhalb des kritischen Bereichs (78) an mindestens einer Nahtstelle (52, 54, 56, 58) befindenden oder sich auf diesen zubewegenden erhabenen Objekts (68).

Description

  • Stand der Technik
  • Die Erfindung bezieht sich auf ein Verfahren zur Verbesserung der Objektdetektion bei Multikamerasystemen, insbesondere auf eine automatische Verschiebung von Nahtstellen bei Objektdetektion in Überlappungsbereichen von Bildern eines Multikamerasystems, eine Vorrichtung zur Implementierung des Verfahrens sowie auf ein Computerprogramm zur Ausführung des Verfahrens auf einer Computereinrichtung.
  • DE 10 2009 036 200 A1 offenbart ein Verfahren zur Überwachung der Umgebung eines Fahrzeugs. Die Umgebung und in dieser befindliche Objekte, insbesondere erhabene Objekte, werden mittels Bilderfassungseinheiten in einzelnen Bildern erfasst und aus den einzelnen Bildern wird ein Gesamtbild in der Vogelperspektive erzeugt. Bei der Erzeugung des Gesamtbildes werden Grenzlinien in den Überlappungsbereichen zwischen den einzelnen Bildern definiert. Um in den Überlappungsbereichen der Einzelbilder befindliche Objekte vollständig auf dem Gesamtbild darstellen zu können, wird eine Grenzlinie in Abhängigkeit von der ermittelten Position der Objekte in dem besagten Bild vorgesehen. Diese Grenzlinie ist derart variabel vorgegeben, so dass sie abseits der Objekte verläuft. Es werden Trennlinien zwischen den Einzelbildern festgelegt, wobei die Trennlinie derart ausgebildet ist, dass erhabene Objekte im Überlappungsbereich dargestellt werden können.
  • DE 10 2006 003 538 B3 offenbart ein Verfahren zum Zusammenfügen mehrerer Bildaufnahmen zu einem Gesamtbild in der Vogelperspektive. Insbesondere werden bewegte Objekte zuverlässig dargestellt. Die Bildaufnahmen werden aus unterschiedlichen Positionen erfasst und weisen einen Überlappungsbereich auf. Die Bildaufnahmen werden in die Vogelperspektive transformiert, was im Rahmen einer Bild-Daten-Verarbeitung erfolgt, und Bildausschnitte der transformierten Bildaufnahmen werden zu einem Gesamtbild aus der Vogelperspektive zusammengefügt. Der Übergang zwischen zwei benachbarten Bildausschnitten erfolgt entlang einer geraden oder kurvigen Grenzlinie, welche asymmetrisch zwischen den Bildausschnitten im Gesamtbild verläuft.
  • KR 2010 0113 959 A offenbart ein Verfahren zur Überwachung der Umgebung eines Fahrzeuges, wobei sich die Bildbereiche mehrerer Kameras teilweise überlagern. In einem Bildverarbeitungssystem werden die Einzelbilder zu einem Gesamtbild zusammengesetzt, in dem das Fahrzeug und seine Umgebung aus der Vogelperspektive dargestellt sind. Um die Umgebung möglichst vollständig abzubilden, sind die Kameras derart angeordnet und ausgerichtet, dass sich deren jeweils abgebildete Bereiche teilweise überlagern. Demnach setzt sich das Gesamtbild in dem gesamten abgebildeten Überlagerungsbereich aus Teilbereichen der Einzelbilder der beiden Kameras zusammen. Abwechselnd ist jeweils ein Teilbereich des Einzelbildes der ersten Kamera zu einem Teilbereich des Einzelbildes der zweiten Kamera angeordnet.
  • DE 10 2008 029 181 A1 offenbart eine Vorrichtung, um dem Fahrer die Umgebung zu visualisieren und Hindernisse in der Fahrzeugumgebung darzustellen. Wenn ein Hindernis von einem anderen Detektionselement als der Kamera erfasst wird, ändert die Bildverarbeitungseinheit die Richtung und die Steigung der virtuellen Ansicht abhängig vom Hindernis.
  • Heute bei vielen Fahrzeugen eingebaute Multikamerasysteme, beispielsweise eine Frontkamera, mindestens eine Seitenkamera im Außenspiegel sowie eine Heckkamera umfassend, berechnen aus Bildern eine Ansicht von oben auf das Fahrzeug aus der Vogelperspektive und geben die Fahrzeugumgebung wieder (Bird’s Eye View, Top View oder Area View). Dadurch wird dem Fahrer ermöglicht, durch einen einzigen Blick auf eine Anzeigeeinheit, beispielsweise ein Display in einer Mittelkonsole, die gesamte nähere Fahrzeugumgebung zu sehen. Somit kann der Fahrer aufgrund der Vogelperspektive auch tote Winkel überblicken.
  • Um ein möglichst vollständiges Bild der Fahrzeugumgebung zu erhalten, sind die Kameras an unterschiedlichen Positionen montiert. Die Frontkamera befindet sich meistens im Frontend oder im Bereich der Windschutzscheibe, die Heckkamera entweder oberhalb der Heckscheibe oder in Höhe der Kofferraumklappe, während sich Seitenkameras meistens mit einer vertikal auf die Fahrbahn gerichteten Orientierung in den Außenspiegeln auf Fahrer- und Beifahrerseite des Fahrzeugs befinden. Dabei haben einige dieser Kameras einen gemeinsamen Sichtbereich, der im Folgenden als Überlappungsbereich bezeichnet wird. In gängigen Systemen werden die Bilder, welche diese Kameras liefern, durch eine perspektivische Transformation (auch Homographie genannt) auf eine Ebene abgebildet. Um die auf die Ebene transformierten Bilder zu einem gemeinsamen Bild zusammenzufügen, werden die Bilder „zusammengenäht“, was in der Fachsprache auch als „Stitching“ bezeichnet wird. In den Überlappungsbereichen einzelner nebeneinander liegender Bilder liegen Bilddaten vor, die von mehreren Kameras aufgenommen wurden. Derartige Überlappungsbereiche zweier nebeneinander liegender Bilder bzw. deren Bilddaten definieren. Nahtstellen (Stitching Stellen). Hierbei wird heutzutage jedem Kamerabild ein Bildbereich innerhalb der Vogelperspektive zugewiesen, d.h. einer Darstellung der Fahrzeugumgebung und des Fahrzeugs von oben her. Bei gängigen Systemen wird eine festimplementierte und nicht änderbare Nahtstelle (Stitching Stelle) innerhalb des Überlappungsbereichs der Bilder definiert. Da die Nahtstelle in der Regel im Bezug auf die Ebene optimiert ist, entsteht für erhabene Objekte nahe der Nahtstelle ein blinder Keil, in dem diese erhabenen Objekte nicht mehr bzw. kaum noch zu erkennen sind. Die Bilder, die von den einzelnen im Fahrzeug verbauten Kameras aufgenommen werden, können nicht entlang der Kameragrundlinien zusammengenäht werden, da die üblicherweise vorgesehenen Einbaupositionen der Kameras am Fahrzeug dieses nicht zulassen.
  • Darstellung der Erfindung
  • Erfindungsgemäß wird vorgeschlagen, die einzelnen sich zwischen den Kameras ergebenden Überlappungsbereiche, in denen sich auch die Zusammenfügungsstellen (Stitching Stellen) der Einzelbilder befinden, so zu modifizieren, dass aufgrund des Vorhandenseins eines erhabenen Objektes, die Zusammenfügungsstelle (Stitching Stelle) innerhalb der Überlappungsbereichs verschoben wird, derart, dass das mindestens eine detektierte erhabene Objekt immer sichtbar bleibt. Dem erfindungsgemäß vorgeschlagenen Verfahren folgend, ist sichergestellt, dass bei Detektion eines erhabenen Objektes innerhalb eines Überlappungsbereiches oder bei Detektion eines erhabenen Objektes in der Nähe einer Zusammenfügungsstelle (Stitching Stelle) die Visualisierung des mindestens einen detektierten erhabenen Objektes in diesem Bereich Priorität vor der Ausbildung korrekt verlaufender Überlappungsbereiche genießt. Durch das erfindungsgemäß vorgeschlagene Verfahren ist nunmehr der signifikante Nachteil bei aus dem Stand der Technik bekannten Verfahren ausgeschlossen, dass in Überlappungsbereichen oder in deren Nähe empfindliche erhabene Objekte einfach verschluckt werden und für den Fahrer trotz ihres Vorhandenseins nicht visualisierbar sind.
  • Die Detektion des mindestens einen erhabenen Objekts, sei es im Überlappungsbereich zweier Einzelbilder, sei es in der Nähe einer Zusammenfügungsstelle (Stitching Stelle) kann durch Sensoriken, wie z.B. Ultraschall, Laserscanner, Radar oder Lidar-Applikationen und dergleichen heutzutage zuverlässig entdeckt werden.
  • Für den Fall, dass sich mehrere erhabene Objekte innerhalb des Überlappungsbereiches zweier Einzelbilder bzw. in der Nähe einer Zusammenfügungsstelle (Stitching Stelle) von Einzelbildern befinden, wird die Zusammenfügungsstelle (Stitching Stelle) so verschoben, dass das relevanteste Objekt sich nicht innerhalb eines nicht darstellbaren Bereichs befindet, sondern sichergestellt ist, dass die Zusammenfügungsstelle (Stitching Stelle) bei Detektion mindestens eines erhabenen Objektes dieses mindestens eine erhabene Objekt einschließt, d.h. dieses im Visualisierungsbereich liegt. Im vorstehenden Zusammenhang ist unter dem Ausdruck „Relevantestes Objekt“ jenes mindestens eine erhabene Objekt zu verstehen, welches innerhalb des Überlappungsbereiches oder welches sich im Bereich einer Zusammenfügungsstelle (Stitching Stelle) am nächsten zum Fahrzeug befindet und/oder mindestens ein erhabenes Objekt, was sich mit der höchsten Geschwindigkeit bewegt.
  • Vorteile der Erfindung
  • Durch das erfindungsgemäß vorgeschlagene Verfahren wird sichergestellt, dass detektierte erhabene Objekte, die in den besagten Bereichen, d.h. entweder im Überlappungsbereich zweier Einzelbilder bzw. die sich in der Nähe einer Zusammenfügungsstelle (Stitching Stelle) befinden, nicht in einem blinden Bereich verschwinden. Dadurch kann einerseits eine Überwindung der Nachteile der aus dem Stand dem Technik bekannten Lösungen erreicht werden, des Weiteren wird dem Fahrer eines derart ausgerüsteten Fahrzeugs eine erheblich verbesserte Rundumsicht geboten, in der alle Objekte ständig sichtbar sind und bleiben. Dies führt nicht zuletzt zu einem erheblichen Zugewinn an Sicherheit.
  • Durch die erfindungsgemäß vorgeschlagene Lösung besteht des Weiteren die Möglichkeit, das detektierte Objekt bei der Darstellung auf einem Display innerhalb des Fahrzeugs einzufärben, um die Aufmerksamkeit des Fahrers zu erregen. Ferner ist sichergestellt, dass der Fahrer des Fahrzeugs das Objekt jederzeit sieht, da dieses nicht innerhalb eines Nahtstellenbereiches verschwindet, insbesondere nicht in einem Übergangsbereich zweier benachbarter Sichtbereiche der Kameras. Des Weiteren besteht durch die erfindungsgemäß vorgeschlagene Lösung die Möglichkeit, erhabene Objekte wesentlich natürlicher darzustellen, was einen deutlichen Vorteil hinsichtlich der Wahrnehmung durch den Fahrer ergibt.
  • Kurze Beschreibung der Zeichnungen
  • Anhand der Zeichnung wird die Erfindung nachstehend eingehender beschrieben.
  • Es zeigt:
  • 1 Einzelbilder, die von im Fahrzeug montierten Kameras aufgenommen werden,
  • 2 ein aus Einzelbildern berechnetes Bild des Fahrzeugs aus der Vogelperspektive,
  • 3 die Sichtbereiche an verschiedenen Positionen im Fahrzeug angeordneter Kameras sowie die sich aus den Einzelsichtbereichen der Kameras ergebenden Überlappungsbereiche,
  • 4 fest definierte Zusammenfügungsstellen (Stitching Stellen) für ein Bild auf das Fahrzeug aus der Vogelperspektive,
  • 5 eine sich vor einem Fahrzeug (hier dargestellt als Sattelschlepper) befindliche Person,
  • 6 eine sich im Bereich einer Zusammenfügungsstelle (Stitching Stelle) befindliche Person, in diesem Fall mittig vor dem Fahrzeug und damit nicht mehr eindeutig sichtbar,
  • 7 einen sich ergebenden blinden Keil entlang der in 6 angedeuteten Zusammenfügungsstelle (Stitching Stelle),
  • 8 ein detektiertes, sich einer Zusammenfügungsstelle (Stitching Stelle) näherndes erhabenes Objekt und
  • 9 eine Verschiebung der Zusammenfügungsstelle (Stitching Stelle) innerhalb des Überlappungsbereiches zur Sichtbarmachung des detektierten, mindestens einen erhabenen Objektes für den Fahrer des Fahrzeugs.
  • Ausführungsvarianten
  • Der Darstellung gemäß 1 ist ein Fahrzeug zu entnehmen, welches vier einzelne Kameras aufweist. Hierzu ist anzumerken, dass das Fahrzeug auch mehr oder weniger Kameras aufweisen kann, solange diese mindestens einen gemeinsamen Überlappungsbereich haben.
  • Gemäß der Darstellung in 1 ist ein Fahrzeug 10 mit einem 4-Kamera-System 12 ausgerüstet. Das 4-Kamera-System 12 umfasst eine Kamera, welche ein Bild eines Frontbildbereichs 14 aufnimmt, des Weiteren eine Kamera, die einen Heckbildbereich 16 aufnimmt. Der Frontbildbereich 14 und der Heckbildbereich 16 des Fahrzeugs 10 sind in Bezug auf eine Fahrtrichtung 18 identifiziert. Des Weiteren umfasst das 4-Kamera-System 12 des Fahrzeugs 10 eine Seitenkamera, welche einen linken Bildbereich 20 aufnimmt sowie eine weitere Seitenkamera, die beispielsweise in einem Außenspiegel des Fahrzeugs 10 montiert ist, die einen rechten Bildbereich 22 neben dem Fahrzeug 10 aufnimmt.
  • Der Darstellung gemäß 2 ist zu entnehmen, dass die gemäß 1 aufgenommenen Frontbildbereiche, Heckbildbereiche und linke sowie rechte Bildbereiche 14, 16 20 und 22 zu einer Vogelperspektiv-Ansicht 24 transformiert werden. Die sich aus der Vogelperspektiv-Ansicht 24 ergebende Perspektive von oberhalb des Fahrzeugs 10 ist in 2 dargestellt.
  • Der Darstellung gemäß 3 ist zu entnehmen, dass das Fahrzeug 10 eine Frontkamera 28 umfasst. Die Frontkamera 28 des Fahrzeugs 10 nimmt einen Sichtbereich 30 auf, der sich im Wesentlichen vor dem Fahrzeug 10 befindet. Darüber hinaus weist das Fahrzeug 10 eine Heckkamera 32 auf, deren Sichtbereich 34 sich im Wesentlichen hinter dem Fahrzeug 10 erstreckt. Darüber hinaus umfasst das Fahrzeug 10 eine rechte Seitenkamera 36, deren Sichtbereich 38 sich auf der rechten Seite des Fahrzeugs 10 befindet. Des Weiteren umfasst das Fahrzeug 10 eine linke Seitenkamera 40, deren Sichtbereich mit Bezugszeichen 42 identifiziert ist und der sich im Wesentlichen auf der linken Seite des Fahrzeugs 10 befindet.
  • Die beiden Seitenkameras 36 bzw. 40 können beispielsweise in den Außenspiegeln des Fahrzeugs 10 angeordnet sein.
  • Wie aus der Darstellung gemäß 3 hervorgeht, ergeben sich aufgrund der Überlappung der einzelnen Sichtbereiche 30, 34, 38 und 42 miteinander, jeweils Überlappungsbereiche 44, 46, 48 und 50.
  • Es ergibt sich ein erster Überlappungsbereich 44, resultierend aus einer Überlappung des Sichtbereiches 30 der Frontkamera 28 mit dem vorderen Teil des Sichtbereiches 38 der rechten Seitenkamer 36. Analog dazu stellt sich ein zweiter Überlappungsbereich 46 ein, der sich aus der Überlappung des Sichtbereichs 30 der Frontkamera 28 mit dem Sichtbereich 42 der linken Seitenkamera 40 des Fahrzeugs 10 ergibt. Ferner kommt es zur Bildung eines dritten Überlappungsbereichs 48, der sich aus der Überlappung des Sichtbereichs 42 der linken Seitenkamera 40 des Fahrzeugs mit dem Frontsichtbereich 30 der Frontkamera 28 ergibt. Ein vierter Überlappungsbereich 50 wird dadurch gebildet, dass sich der hintere Teil des Sichtbereichs 42 der linken Seitenkamera 40 mit dem Sichtbereich 34 der Heckkamera 32 überlappt.
  • Aufgrund dieser Überlappungsbereiche 44, 46, 48 und 50 besteht das Erfordernis, in einer Bird’s-Eye-Perspektive auf das Fahrzeug 10 einzelne, wie im Zusammenhang mit 4 noch näher beschrieben werden wird, Nahtstellen der Einzelbilder zum Zusammenfügen der Einzelbilder zu schaffen.
  • 4 sind die einzelnen Zusammenfügungsstellen (Stitching Stellen) zu entnehmen, entlang derer bei einer Draufsicht auf das Fahrzeug 10 die Einzelbilder zusammengefügt werden. Aus der Lage der Nahtstellen 52, 54, 56, 58, welche eine erste, eine zweite, eine dritte und eine vierte Nahtstelle definieren, ergibt sich, dass die Nahtstellen 52, 54, 56, 58 bei einem Vergleich mit 3, den einzelnen Überlappungsbereichen 44, 46, 48, 50 entsprechen. Somit erfolgt gemäß 4 eine Modifikation des Sichtbereiches 30 der Frontkamera 28 sowie des ersten Überlappungsbereichs 44 sowie des zweiten Überlappungsbereiches 46 in Gestalt der ersten Nahtstelle 52 auf der rechten Seite des Fahrzeugs 10 gesehen in Fahrtrichtung sowie der zweiten Nahtstelle 54 auf der linken Seite des Fahrzeugs 10 gesehen in Fahrtrichtung.
  • Ein Vergleich zwischen den Darstellungen gemäß 3 und 4 zeigt, dass sich der Sichtbereich 30 der Frontkamera 28 zum ersten modifizierten Sichtbereich 60 transformiert wird, der im Vergleich zum Sichtbereich 30 der Frontkamera 28 ein trapezförmiges Aussehen aufweist. Gleiches ergibt sich aus der Transformation des zweiten Überlappungsbereiches 46 und des dritten Überlappungsbereichs 48 (vgl. Darstellung gemäß 3), die zu einem zweiten modifizierten Sichtbereich 62 auf der linken Seite des Fahrzeugs 10 werden. Der zweite modifizierte Sichtbereich 62 ist durch die zweite Nahtstelle 54 und durch die dritte Nahtstelle 56 begrenzt. Ein sich hinter dem Fahrzeug 10 befindender dritter modifizierter Sichtbereich 64 wird durch die dritte Nahtstelle 56 und die vierte Nahtstelle 58 begrenzt, die zu dem dritten modifizierten Sichtbereich 64 auf der Rückseite des Fahrzeugs 10 führen. Schließlich entsteht ein vierter modifizierter Sichtbereich 66 auf der rechten Seite des Fahrzeugs 10, gemäß der Darstellung in 4, der durch die vierte Nahtstelle 58 und die erste Nahtstelle 52 begrenzt ist. Dabei entspricht die erste Nahtstelle 52 dem ersten Überlappungsbereich 44 an der rechten vorderen Seite des Fahrzeugs 10 und die vierte Nahtstelle 58 dem vierten Überlappungsbereich 50 an der rechten hinteren Seite des Fahrzeugs 10 – gesehen in Fahrtrichtung.
  • Der Figurensequenz der 5, 6 und 7 sind die Darstellungsverhältnisse vor einem Fahrzeug – hier ein Sattelschlepper – bei Ausbildung eines blinden Keils an der Fahrzeugvorderseite zu entnehmen.
  • 5 zeigt, dass sich vor einem Fahrzeug 10, hier die Zugmaschine eines Sattelschleppers, dessen Fahrzeugmitte mit Bezugszeichen 70 bezeichnet ist, ein erhabenes Objekt 68 in Gestalt einer Person befindet. Die Verzerrung in vertikale Richtung der ein erhabenes Objekt 68 darstellenden Person resultiert aus der Vertikalverzerrung, die bei der Bildtransformation durchlaufen wird, um zu einer Vogelperspektiv-Darstellung des Fahrzeugs 10 zu gelangen.
  • Wie aus 6 ersichtlich, befindet sich das hier als Punkt dargestellte erhabene Objekt 68 an einer zentralen Nahtstelle 72 zwischen den Sichtbereichen an der Frontseite des Fahrzeugs 10. Die zentrale Nahtstelle 72 korrespondiert zur Fahrzeugmitte 70. Die zentrale Nahtstelle 72 (Stitching Stelle) befindet sich direkt vor dem Fahrzeug 10, so dass dort befindliche erhabene Objekte 68 für den Fahrer des Fahrzeugs 10 nicht mehr eindeutig sichtbar sind.
  • In der Darstellung gemäß 7 ist der für den Fahrer aufgrund der Bildverarbeitung in Bezug auf die zentrale Nahtstelle 72 sich ergebende blinde Keil durch Bezugszeichen 74 bezeichnet. Dieser blinde Keil 74 befindet sich vor der Fahrzeugfront 76 des Fahrzeugs 10, hier ausgebildet als Sattelschlepper. Das mindestens eine erhabene Objekt 68 wird gemäß der Darstellung in 7 in einem schräg verlaufenden Schnitt verzerrt dargestellt. Diese verzerrte Darstellung innerhalb des blinden Keils 74, was in 7 nur unvollkommen dargestellt werden kann – führt zu einer ungünstigen Wiedergabe des erhabenen Objektes 68, sei es als verzerrter Punkt 68 in 6, sei als verzerrt dargestellte Person 68 wie in 5 zu sehen. Der blinde Keil 74, wie in 7 dargestellt, ergibt sich aufgrund des Umstandes, dass bei dem Fahrzeug 10 gemäß der 5, 6 und 7 Kameras in den Außenspiegeln des Fahrzeugs angeordnet sind, die zur zentralen Nahtstelle 72 (Stitching Stelle) einen sich in Richtung der Fahrzeugfront 76 des Fahrzeugs erstreckenden Sichtbereich erfassen, wodurch der unmittelbar vor der Fahrzeugfront 76 liegende Bereich eben jenen blinden Keil 74 bildet. Dies ist in 7 angedeutet.
  • Der Darstellung gemäß 8 ist in Anlehnung an 4 zu entnehmen, dass sich um das Fahrzeug 10 herum die modifizierten Sichtbereiche 60, 62, 64 und 66 befinden. Analog zur Darstellung gemäß 4 ist der erste modifizierte Sichtbereich 60 durch die erste und die zweite Nahtstelle (Stitching Stelle) 52, 54 begrenzt, während der auf der linken Seite des Fahrzeugs liegende zweite modifizierte Sichtbereich 62 durch die zweite Nahtstelle 54 und die dritte Nahtstelle 56 begrenzt ist. Des Weiteren ist der Darstellung gemäß 8 zu entnehmen, dass der dritte modifizierte Sichtbereich 64 von der zweiten Nahtstelle 54 und der dritten Nahtstelle 56 begrenzt ist. Der auf der rechten Seite des Fahrzeugs 10 befindliche vierte modifizierte Sichtbereich 66 ist durch die vierte Nahtstelle 58 und die erste Nahtstelle 52 begrenzt.
  • Aus der Draufsicht gemäß 8 ergibt sich, dass sich innerhalb des ersten modifizierten Sichtbereichs 60 vor dem Fahrzeug 10 liegend, ein erhabenes Objekt 68 von in Fahrtrichtung des Fahrzeugs 10 gesehen, der linken Seite, d.h. ausgehend von der zweiten Nahtstelle 54, von links nach rechts vor dem Fahrzeug 10 in Richtung auf die erste Nahtstelle 52 bewegt. Aus der Darstellung gemäß 8 geht des Weiteren hervor, dass hier – in 8 gestrichelt eingezeichnet – um die erste Nahtstelle 52 herum ein kritischer Bereich 78 definiert ist. Das erhabene Objekt 68, welches sich in Bewegungsrichtung 80 von links nach rechts vor dem Fahrzeug 10 bewegt, bewegt sich auf diesen kritischen Bereich 78 der ersten Nahtstelle 52 zu. Mit Bezugszeichen 82 ist ein Öffnungswinkel dieses kritischen Bereichs 78 bezeichnet, der in Darstellung gemäß 8 in der Größenordnung von 10°–20°, so z.B. 15°, liegt.
  • Aus der Darstellung gemäß 9 geht hervor, dass sich das mindestens eine erhabene Objekt 68 in Bewegungsrichtung 80 bis an die erste Nahtstelle 52 heran bewegt hat, und dass eine Verschiebung 84 der ersten Nahtstelle 52 in Richtung auf den vierten modifizierten Sichtbereich 66 erfolgt ist. Wie 9 zeigt, sind der erste modifizierte Sichtbereich 60 und der vierte modifizierte Sichtbereich 66 durch die Verschiebung 84 der ersten Nahtstelle 52 betroffen. In der Darstellung des mindestens einen erhabenen Objekts 68 ist der erste modifizierte Sichtbereich 60 vor dem Fahrzeug 10 vergrößert, wohingegen der rechts neben dem Fahrzeug 10 liegende, vierte modifizierte Sichtbereich 66 verkleinert ist. Dies ist der Sichtbarmachung des mindestens einen erhabenen Objekts 68 an der ersten Nahstelle 52, deren ursprüngliche Lage in 9 gestrichelt eingezeichnet ist, geschuldet.
  • Die in 9 dargestellte Verschiebung 84 der ersten Nahtstelle 52 aufgrund der Annäherung des mindestens einen erhabenen Objekts 68 an die erste Nahtstelle 52 kann in analoger Weise auch bei einer dementsprechenden Bewegungsrichtung 80 des mindestens einen erhabenen Objekts 68 zu einer Verschiebung der zweiten Nahtstelle 54 bzw. der dritten Nahtstelle 56 und schließlich der vierten, hinter dem Fahrzeug 10 liegenden Nahtstelle 58 führen.
  • Bei dem in den 8 und 9 darstellten erhabenen Objekt 68 kann es sich um ein solches handeln, welches sich sehr schnell bewegt oder welches sich in der größten Nähe zum Fahrzeug 10 befindet. Dies ist in vorstehendem Zusammenhang unter einem relevanten Objekt zu verstehen.
  • Aus der in 8 und 9 dargestellten Vogelperspektive des Fahrzeugs 10 geht hervor, dass im Rahmen der Bildverarbeitung die Modifikation der einzelnen Sichtbereiche 60, 62, 64 und 66 abhängig vom Auftreten des mindestens einen sich in Bewegungsrichtung 80 bewegenden erhabenen Objekts 68 zur jeweiligen Verschiebung der die modifizierten Sichtbereiche 60, 62, 64 und 66 verbindenden Nahtstellen 52, 54, 56, 58 führt.
  • Die Erfindung betrifft weiterhin ein Computerprogramm, gemäß dem eines der vorstehend beschriebenen Verfahren durchgeführt werden kann, wenn das Computerprogramm auf einer programmierbaren Computereinrichtung ausgeführt wird. Bei dem Computerprogramm kann es sich beispielsweise um ein Modul zur Implementierung eines Fahrassistenzsystems oder eines Subsystems hiervon in einem Fahrzeug handeln, oder um eine Applikation für Fahrassistenzfunktionen, welche auf einem Smartphone ausführbar ist. Das Computerprogramm kann auf einem maschinenlesbaren Speichermedium gespeichert werden, etwa auf einem permanenten oder wiederbeschreibbaren Speichermedium oder in Zuordnung zu einer Computereinrichtung oder auf einer entfernbaren CD-Rom, DVD oder einem USB-Stick. Zusätzlich oder alternativ kann das Computerprogramm auf einer Computereinrichtung, wie etwa auf einem Server zum Herunterladen bereitgestellt werden, zum Beispiel über ein Datennetzwerk, wie etwa das Internet oder einer Kommunikationsverbindung, wie etwa eine Telefonleitung oder eine drahtlose Verbindung.
  • Durch die vorstehend insbesondere anhand der 3 bis 9 beschriebene Lösung kann die bei gängigen Systemen fest implementierte und nicht änderbare Lage der Nahtstellen 52, 54, 56 und 58 verschoben und entsprechend der Darstellungserfordernisse modifiziert werden. Durch die erfindungsgemäß vorgeschlagene Lösung wird in vorteilhafter Weise der blinde Keil 74 vermieden, in dem erhabene Objekte 68 nicht mehr bzw. kaum noch zu erkennen sind. Aufgrund der Modifikation des blinden Keils 74 vor dem Fahrzeug 10 werden dort befindliche erhabene Objekte 68 nicht kurzfristig im blinden Keil 74 – wie in 7 dargestellt – verschwinden, sondern die Nahtstellen 52, 54, 56, 58 werden objektabhängig verschoben. Durch die erfindungsgemäß vorgeschlagene Lösung kann bei einem mit mehreren Kameras ausgerüsteten Fahrzeug erreicht werden, dass im Bereich von Nahtstellen 52, 54, 56 und 58 vorhandene erhabene Objekte 68 in verbesserter realistischerer Darstellung wiedergegeben werden können und es kann in vorteilhafter Weise erreicht werden, dass diese erhabenen Objekte 68 auch stets sichtbar sind, wenngleich sie auch möglicherweise durch Kameras in einem geringeren Auflösungsvermögen detektiert werden. Dem Sicherheitsaspekt, dass die erhabenen Objekte 68 in jedem Fall für den Fahrer stets erkennbar sind, wiegt den Nachteil einer möglicherweise qualitativ geringer wertigen Darstellung mit geringerem Auflösungsvermögen bei weitem auf.
  • Die Erfindung ist nicht auf die hier beschriebenen Ausführungsbeispiele und die darin hervorgehobenen Aspekte beschränkt. Vielmehr ist innerhalb des durch die anhängigen Ansprüche angegebenen Bereiches eine Vielzahl von Abwandlungen möglich, die im Rahmen fachmännischen Handelns liegen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102009036200 A1 [0002]
    • DE 102006003538 B3 [0003]
    • KR 20100113959 A [0004]
    • DE 102008029181 A1 [0005]

Claims (9)

  1. Verfahren zur Wiedergabe von erhabenen Objekten (68), die sich im Bereich von Nahtstellen (52, 54, 56, 58) zusammengefügt aus von mehreren Kameras (28, 32, 36, 40) erfasster Sichtbereiche (30 34, 38, 42) befinden, mit nachfolgenden Verfahrensschritten: a) Erfassung von Sichtbereichen (30, 34, 38, 42) mit jeweils einer Kamera (28, 32, 36, 40) an einem Fahrzeug (10), b) Zusammenfügen der Sichtbereiche (30, 34, 38, 42) an Nahtstellen (52, 54, 56, 58) zu einer transformierten Vogelperspektiv-Ansicht (24), c) Verschieben mindestens einer Nahtstelle (52, 54, 56, 58) zwischen angrenzenden Sichtbereichen (30, 34, 38, 42) bei Detektion mindestens eines sich im Bereich mindestens einer Nahtstelle (52, 54, 56, 58) befindenden oder sich auf diesen zubewegenden erhabenen Objekts (68).
  2. Verfahren gemäß Anspruch 1, dadurch gekennzeichnet, dass das mindestens eine erhabene Objekt (68) durch eine externe Sensorik oder Bildverarbeitungsalgorithmen detektiert wird.
  3. Verfahren gemäß dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass das mindestens eine erhabene Objekt (68) durch Ultraschall, Laserradar, Radar oder Lidar detektiert wird.
  4. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die mindestens eine Nahtstelle (52, 54, 56, 58) innerhalb mindestens eines Überlappungsbereichs (44, 56, 48, 50) von einander überlappenden Sichtbereichen (30, 34, 38, 42) verschoben wird.
  5. Verfahren gemäß einem oder mehrerer der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei mehreren sich im mindestens einen Überlappungsbereich (44, 46, 48, 50) befindender oder sich auf diesen zubewegender erhabener Objekte (68), die mindestens eine Nahtstelle (52, 54, 56, 58) derart verschoben wird, dass das relevanteste der erhabenen Objekte (68) detektiert wird.
  6. Verfahren gemäß dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass das relevanteste erhabene Objekt (68) das dem Fahrzeug (10) nächste Objekt ist.
  7. Verfahren gemäß den beiden vorhergehenden Ansprüchen, dadurch gekennzeichnet, dass das relevanteste erhabene Objekt (68) das beweglichste Objekt in der Nähe des Fahrzeugs (10) ist.
  8. Computerprogramm zur Implementierung des Verfahrens gemäß einem der Ansprüche 1 bis 7 auf einer computerprogrammierbaren Einrichtung.
  9. Fahrassistenzsystem für ein Fahrzeug (10) zur Wiedergabe von erhabenen Objekten (68), die sich im Bereich von Nahtstellen (52, 54, 56, 58) zusammengefügter von mehreren Kameras (28, 32, 36, 40) erfasster Sichtbereiche (30, 34, 38, 42) befinden mit – Kameras (28, 32, 36, 40), die mehrere Sichtbereiche (30, 34, 38, 42) erfassen, – einer Komponente für das Zusammenfügen der Sichtbereiche (30, 34, 38, 42) entlang von Nahtstellen (52, 54, 56, 58) zu einer transformierten Vogelperspektiv-Ansicht (24), – einer Komponente zum Verschieben der mindestens einen Nahtstelle (52, 54, 56, 58) zwischen angrenzenden Sichtbereichen (30, 34, 38, 42) bei Detektion mindestens eines sich in einem kritischen Bereich (78) an mindestens einer Nahtstelle (52, 54, 56, 58) befindenden oder sich auf diesen zubewegenden erhabenen Objekts (68).
DE102011088332.0A 2011-12-13 2011-12-13 Verfahren zur Verbesserung der Objektdetektion bei Multikamerasystemen Active DE102011088332B4 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102011088332.0A DE102011088332B4 (de) 2011-12-13 2011-12-13 Verfahren zur Verbesserung der Objektdetektion bei Multikamerasystemen
CN201280061379.6A CN103999122A (zh) 2011-12-13 2012-11-19 用于改进多摄像机系统中的对象探测的方法
PCT/EP2012/072963 WO2013087362A1 (de) 2011-12-13 2012-11-19 Verfahren zur verbesserung der objektdetektion bei multikamerasystemen
EP12794902.2A EP2791895A1 (de) 2011-12-13 2012-11-19 Verfahren zur verbesserung der objektdetektion bei multikamerasystemen
IN3173DEN2014 IN2014DN03173A (de) 2011-12-13 2012-11-19

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011088332.0A DE102011088332B4 (de) 2011-12-13 2011-12-13 Verfahren zur Verbesserung der Objektdetektion bei Multikamerasystemen

Publications (2)

Publication Number Publication Date
DE102011088332A1 true DE102011088332A1 (de) 2013-06-13
DE102011088332B4 DE102011088332B4 (de) 2021-09-02

Family

ID=47278778

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011088332.0A Active DE102011088332B4 (de) 2011-12-13 2011-12-13 Verfahren zur Verbesserung der Objektdetektion bei Multikamerasystemen

Country Status (5)

Country Link
EP (1) EP2791895A1 (de)
CN (1) CN103999122A (de)
DE (1) DE102011088332B4 (de)
IN (1) IN2014DN03173A (de)
WO (1) WO2013087362A1 (de)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013217081A1 (de) 2013-08-27 2015-03-19 Volkswagen Aktiengesellschaft Vorrichtung und Verfahren zur Positionserkennung
EP2851870A1 (de) * 2013-09-20 2015-03-25 Application Solutions (Electronics and Vision) Limited Verfahren zur Kalkulation der Selbstbewegung eines Gegenstandes
EP3009983A1 (de) * 2014-10-13 2016-04-20 Conti Temic microelectronic GmbH Vorrichtung und Verfahren zur Hindernisdetektion
WO2016142079A1 (de) * 2015-03-10 2016-09-15 Robert Bosch Gmbh Verfahren zum zusammensetzen von zwei bildern einer fahrzeugumgebung eines fahrzeuges und entsprechende vorrichtung
DE102015010009A1 (de) 2015-08-05 2017-02-09 Wirtgen Gmbh Selbstfahrende Baumaschine und Verfahren zur Anzeige der Umgebung einer selbstfahrenden Baumaschine
DE102015010011A1 (de) 2015-08-05 2017-02-09 Wirtgen Gmbh Selbstfahrende Baumaschine und Verfahren zur Anzeige der Umgebung einer selbstfahrenden Baumaschine
DE102016117518A1 (de) 2016-09-16 2018-03-22 Connaught Electronics Ltd. Angepasstes Zusammenfügen von Einzelbildern zu einem Gesamtbild in einem Kamerasystem für ein Kraftfahrzeug
EP3157786B1 (de) 2014-06-20 2019-03-06 KNORR-BREMSE Systeme für Nutzfahrzeuge GmbH Fahrzeug mit umfeldüberwachungseinrichtung sowie verfahren zum betreiben einer solchen überwachungseinrichtung
DE102020127278A1 (de) 2020-01-16 2021-07-22 Hyundai Mobis Co., Ltd. Around-View-Synthese-System und -Verfahren
DE112019007225B4 (de) 2019-04-18 2023-12-07 Mitsubishi Electric Corporation Fahrzeugumgebungsbilderzeugungsvorrichtung, Fahrzeugumgebungsanzeigesystem und Fahrzeugumgebungsanzeigeverfahren

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6493143B2 (ja) * 2015-10-15 2019-04-03 株式会社デンソー 表示制御装置及び表示制御プログラム
US20170297488A1 (en) * 2016-04-19 2017-10-19 GM Global Technology Operations LLC Surround view camera system for object detection and tracking
JP6551336B2 (ja) * 2016-08-12 2019-07-31 株式会社デンソー 周辺監査装置
CN107009968B (zh) * 2017-03-28 2020-08-28 驭势科技(北京)有限公司 车载激光雷达控制方法、装置及车载设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006003538B3 (de) 2006-01-24 2007-07-19 Daimlerchrysler Ag Verfahren zum Zusammenfügen mehrerer Bildaufnahmen zu einem Gesamtbild in der Vogelperspektive
DE102008029181A1 (de) 2008-06-19 2009-02-19 Daimler Ag Verfahren zur Überwachung der Umgebung eines Fahrzeugs
DE102009036200A1 (de) 2009-08-05 2010-05-06 Daimler Ag Verfahren zur Überwachung einer Umgebung eines Fahrzeugs
KR20100113959A (ko) 2009-04-14 2010-10-22 현대자동차일본기술연구소 차량 주위 화상 표시 시스템

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4883977B2 (ja) 2005-10-05 2012-02-22 アルパイン株式会社 車両用画像表示装置
CN101035269A (zh) * 2007-02-14 2007-09-12 周竟 汽车多用途监控及定位器
CN100559420C (zh) * 2007-03-29 2009-11-11 汤一平 基于计算机视觉的停车诱导系统
CN101304515A (zh) * 2007-05-11 2008-11-12 徐世刚 全景式倒车引导系统
CN101420599A (zh) * 2008-11-20 2009-04-29 符巨章 车辆全景监控系统
JP5503660B2 (ja) * 2009-09-24 2014-05-28 パナソニック株式会社 運転支援表示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006003538B3 (de) 2006-01-24 2007-07-19 Daimlerchrysler Ag Verfahren zum Zusammenfügen mehrerer Bildaufnahmen zu einem Gesamtbild in der Vogelperspektive
DE102008029181A1 (de) 2008-06-19 2009-02-19 Daimler Ag Verfahren zur Überwachung der Umgebung eines Fahrzeugs
KR20100113959A (ko) 2009-04-14 2010-10-22 현대자동차일본기술연구소 차량 주위 화상 표시 시스템
DE102009036200A1 (de) 2009-08-05 2010-05-06 Daimler Ag Verfahren zur Überwachung einer Umgebung eines Fahrzeugs

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013217081A1 (de) 2013-08-27 2015-03-19 Volkswagen Aktiengesellschaft Vorrichtung und Verfahren zur Positionserkennung
EP2851870A1 (de) * 2013-09-20 2015-03-25 Application Solutions (Electronics and Vision) Limited Verfahren zur Kalkulation der Selbstbewegung eines Gegenstandes
US9158977B2 (en) 2013-09-20 2015-10-13 Application Solutions (Electronics and Vision) Ltd. Method for estimating ego motion of an object
EP3157786B1 (de) 2014-06-20 2019-03-06 KNORR-BREMSE Systeme für Nutzfahrzeuge GmbH Fahrzeug mit umfeldüberwachungseinrichtung sowie verfahren zum betreiben einer solchen überwachungseinrichtung
DE102014108684B4 (de) 2014-06-20 2024-02-22 Knorr-Bremse Systeme für Nutzfahrzeuge GmbH Fahrzeug mit Umfeldüberwachungseinrichtung sowie Verfahren zum Betreiben einer solchen Überwachungseinrichtung
US10710506B2 (en) 2014-06-20 2020-07-14 Knorr-Bremse Systeme Fuer Nutzfahrzeuge Gmbh Vehicle with surroundings-monitoring device and method for operating such a monitoring device
EP3009983A1 (de) * 2014-10-13 2016-04-20 Conti Temic microelectronic GmbH Vorrichtung und Verfahren zur Hindernisdetektion
WO2016058893A1 (en) * 2014-10-13 2016-04-21 Conti Temic Microelectronic Gmbh Obstacle detection apparatus and method
US10417507B2 (en) 2014-10-13 2019-09-17 Conti Temic Microelectronic Gmbh Freespace detection apparatus and freespace detection method
WO2016142079A1 (de) * 2015-03-10 2016-09-15 Robert Bosch Gmbh Verfahren zum zusammensetzen von zwei bildern einer fahrzeugumgebung eines fahrzeuges und entsprechende vorrichtung
DE102015010009A1 (de) 2015-08-05 2017-02-09 Wirtgen Gmbh Selbstfahrende Baumaschine und Verfahren zur Anzeige der Umgebung einer selbstfahrenden Baumaschine
EP3135823A1 (de) 2015-08-05 2017-03-01 Wirtgen GmbH Selbstfahrende baumaschine und verfahren zur anzeige der umgebung einer selbstfahrenden baumaschine
DE102015010011A1 (de) 2015-08-05 2017-02-09 Wirtgen Gmbh Selbstfahrende Baumaschine und Verfahren zur Anzeige der Umgebung einer selbstfahrenden Baumaschine
US10378162B2 (en) 2015-08-05 2019-08-13 Wirtgen Gmbh Automotive construction machine and method for displaying the surroundings of an automotive construction machine
US10377311B2 (en) 2015-08-05 2019-08-13 Wirtgen Gmbh Automotive construction machine and method for displaying the surroundings of an automotive construction machine
EP3135822A1 (de) 2015-08-05 2017-03-01 Wirtgen GmbH Selbstfahrende baumaschine und verfahren zur anzeige der umgebung einer selbstfahrenden baumaschine
DE102015010011B4 (de) * 2015-08-05 2020-03-19 Wirtgen Gmbh Selbstfahrende Baumaschine und Verfahren zur Anzeige der Umgebung einer selbstfahrenden Baumaschine
US10086761B2 (en) 2015-08-05 2018-10-02 Wirtgen Gmbh Automotive construction machine and method for displaying the surroundings of an automotive construction machine
DE102016117518A1 (de) 2016-09-16 2018-03-22 Connaught Electronics Ltd. Angepasstes Zusammenfügen von Einzelbildern zu einem Gesamtbild in einem Kamerasystem für ein Kraftfahrzeug
DE112019007225B4 (de) 2019-04-18 2023-12-07 Mitsubishi Electric Corporation Fahrzeugumgebungsbilderzeugungsvorrichtung, Fahrzeugumgebungsanzeigesystem und Fahrzeugumgebungsanzeigeverfahren
US11926263B2 (en) 2019-04-18 2024-03-12 Mitsubishi Electric Corporation Vehicle surrounding area image generation device, vehicle surrounding area display system, and vehicle surrounding area display method
DE102020127278A1 (de) 2020-01-16 2021-07-22 Hyundai Mobis Co., Ltd. Around-View-Synthese-System und -Verfahren
DE102020127278B4 (de) 2020-01-16 2022-02-10 Hyundai Mobis Co., Ltd. Around-View-Synthese-System und -Verfahren
US11625847B2 (en) 2020-01-16 2023-04-11 Hyundai Mobis Co., Ltd. Around view synthesis system and method

Also Published As

Publication number Publication date
DE102011088332B4 (de) 2021-09-02
WO2013087362A1 (de) 2013-06-20
CN103999122A (zh) 2014-08-20
EP2791895A1 (de) 2014-10-22
IN2014DN03173A (de) 2015-05-22

Similar Documents

Publication Publication Date Title
DE102011088332B4 (de) Verfahren zur Verbesserung der Objektdetektion bei Multikamerasystemen
EP2623374B1 (de) Sichtsystem für Nutzfahrzeuge zur Darstellung von gesetzlich vorgeschriebenen Sichtfeldern eines Hauptspiegels und eines Weitwinkelspiegels
DE102012025322B4 (de) Kraftfahrzeug mit Kamera-Monitor-System
DE102017100004A1 (de) Verfahren zum Bereitstellen von zumindest einer Information aus einem Umgebungsbereich eines Kraftfahrzeugs, Anzeigesystem für ein Kraftfahrzeug, Fahrerassistenzsystem für ein Kraftfahrzeug sowie Kraftfahrzeug
DE102011079913A1 (de) Sichtunterstützungssystem für einen Fahrer und Fahrzeug mit einem solchen System
DE102008046214A1 (de) Verfahren und Vorrichtung zur Überwachung einer Umgebung eines Fahrzeuges
EP2559236A1 (de) Verfahren zum anzeigen eines bildes auf einer anzeigeeinrichtung in einem fahrzeug, fahrerassistenzsystem und fahrzeug
EP2888715B1 (de) Verfahren und vorrichtung zum betreiben eines fahrzeugs
DE102010051204A1 (de) Verfahren zum Darstellen eines Hindernisses und Abbildungsvorrichtung
DE102008035428B4 (de) Verfahren und Vorrichtung zur Überwachung einer Umgebung eines Fahrzeuges
EP2500216A1 (de) Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem
DE102011010860A1 (de) Verfahren und Fahrerassistenzsystem zum Anzeigen von Bildern in einem Kraftfahrzeug sowie Kraftfahrzeug
DE102016114689A1 (de) Verfahren zum Unterstützen des Fahrers eines Kraftfahrzeugs beim Rangieren des Kraftfahrzeugs mit einem Anhänger, Fahrerassistenzsystem sowie Gespann
EP2996327B1 (de) Surround-view-system für fahrzeuge mit anbaugeräten
DE102006037600A1 (de) Verfahren zur auflösungsabhängigen Darstellung der Umgebung eines Kraftfahrzeugs
DE102015208343B4 (de) Verfahren zum Erzeugen eines Gesamtbildes einer Fahrzeugumgebung eines Fahrzeuges und entsprechende Vorrichtung
EP3106349B1 (de) Sichtsystem für ein nutzfahrzeug zur darstellung von gesetzlich vorgeschriebenen sichtfeldern eines hauptspiegels und eines weitwinkelspiegels
EP3833576B1 (de) Kameraüberwachungssystem
DE102016117518A1 (de) Angepasstes Zusammenfügen von Einzelbildern zu einem Gesamtbild in einem Kamerasystem für ein Kraftfahrzeug
DE102019133948A1 (de) Verfahren zur Fahrerassistenz für eine Kombination aus einem Kraftfahrzeug und einem Anhänger
WO2018188700A1 (de) Surround-view-system für ein fahrzeug
DE102013020949A1 (de) Verbessertes Alpha-Blending von Bildern eines Kamerasystems eines Kraftfahrzeugs
DE102015208345A1 (de) Fortbewegungsmittel, Fahrerassistenzsystem und Verfahren zur Anzeige eines aus einem ersten und einem zweiten Sensorsignal eines Fahrerassistenzsystems gefügten Bildes
DE102020122908A1 (de) Verfahren zum Anzeigen einer Umgebung eines Fahrzeuges auf einer Anzeigeeinrichtung, Verarbeitungseinheit und Fahrzeug
DE112021004648T5 (de) Anzeigesteuervorrichtung, Fahrzeug und Anzeigesteuerverfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: B60R0001100000

Ipc: B60R0001000000

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final