DE102015007391A1 - Verfahren zum Betrieb eines kamerabasierten Fahrzeugsystems - Google Patents

Verfahren zum Betrieb eines kamerabasierten Fahrzeugsystems Download PDF

Info

Publication number
DE102015007391A1
DE102015007391A1 DE102015007391.5A DE102015007391A DE102015007391A1 DE 102015007391 A1 DE102015007391 A1 DE 102015007391A1 DE 102015007391 A DE102015007391 A DE 102015007391A DE 102015007391 A1 DE102015007391 A1 DE 102015007391A1
Authority
DE
Germany
Prior art keywords
vehicle
pattern
camera
image
image area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102015007391.5A
Other languages
English (en)
Inventor
Jens Pollmer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102015007391.5A priority Critical patent/DE102015007391A1/de
Priority to EP16001285.2A priority patent/EP3103683B1/de
Publication of DE102015007391A1 publication Critical patent/DE102015007391A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/402Image calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Verfahren zum Betrieb eines kamerabasierten Fahrzeugsystems, umfassend eine Kamera (4), die im Fahrzeuginneren zur Aufnahme des Fahrzeugvorfelds oder des Fahrzeugrückfelds angeordnet ist, sowie eine die Kamerabilder verarbeitende Steuerungseinrichtung (3), wobei zur Bestimmung eines in wenigstens einem Kamerabild (7) gegebenen informationsrelevanten Bildbereichs (9) seitens der Steuerungseinrichtung (3) ein in dem Kamerabild gezeigter, einen Teil des Fahrzeugs (1) zeigenden Bildbereich (10) im Kamerabild (7) selbst ermittelt wird, welcher Bildbereich (10) im Rahmen der Verarbeitung nachfolgend aufgenommener Kamerabilder (7) außer Betracht bleibt.

Description

  • Die Erfindung betrifft ein Verfahren zum Betrieb eines kamerabasierten Fahrzeugsystems, umfassend eine Kamera, die im Fahrzeuginneren zur Aufnahme des Fahrzeugvorfelds oder des Fahrzeugrückfelds angeordnet ist, sowie eine die Kamerabilder verarbeitende Steuerungseinrichtung.
  • Moderne Kraftfahrzeuge verfügen über eine Reihe von Fahrzeugsystemen, die dem Fahrer assistieren sollen oder die für den Betrieb des Kraftfahrzeugs relevant sind. Manche dieser Fahrzeugsysteme sind kamerabasiert, das heißt, dass ihre Funktion darauf beruht, dass über eine Kamera Bilder der Fahrzeugumgebung aufgenommen werden, die seitens einer Steuerungseinrichtung analysiert werden, um gestützt auf die analysierten Informationen entsprechende Informationen oder Mitteilungen an den Fahrer auszugeben, Eingriffe in die Fahrzeuglängs- oder Querführung vorzunehmen etc.
  • Häufig wird eine solche Kamera z. B. im Bereich des Innenspiegels an der Frontscheibe verbaut, wobei die Kamera nach vorne gerichtet ist, um das Fahrzeugvorfeld aufzunehmen. Mitunter sind aber auch Fahrzeuge im Bereich der Fahrzeugrückseite verbaut, beispielsweise bei SUVs oder Transportern, um das das Fahrzeugrückfeld aufzunehmen. Mitunter sind auch seitlich angeordnete Kameras vorgesehen, die das seitliche Umfeld aufnehmen. Die Kameras können sowohl im Inneren des Fahrzeugs als auch außen angebracht sein. Häufig befindet sich dabei im Sichtbereich der Kamera ein Teil des Kraftfahrzeugs, beispielsweise bei einer Frontkamera zumeist die Motorhaube des Fahrzeugs, bei einer Heckkamera beispielsweise die untere Stoßstange oder dergleichen. Um Wechselwirkungen und Einflüsse eines im Kamerabild sichtbaren Fahrzeugteils, also beispielsweise der Motorhaube, auf die Bildauswertung und damit die Informationsgewinnung zu vermeiden, wird in heutigen Fahrzeugsystemen die Lage der Motorhaube vorab definiert.
  • Sie wird aus Konstruktionsdaten des Kraftfahrzeugs und dem bekannten Positionsort der Kamera bestimmt und einmalig definiert. Diese Maße sind jedoch toleranzbehaftet, so dass ein Sicherheitspuffer im System vorgehalten werden muss, um sicherzugehen, dass diese Toleranzen nicht dazu führen, dass ein kleiner Teil der Motorhaube doch wieder im verarbeiteten Bildbereich erscheint. Es wird also quasi mehr aus dem aufgenommenen Kamerabild „ausgeschnitten”, um die Motorhaube oder ein anderes Fahrzeugteil aus der Bildverarbeitung auszunehmen, als nötig, was die Systemperformance einschränkt.
  • Der Erfindung liegt das Problem zugrunde, ein Verfahren anzugeben, das demgegenüber verbessert ist und das es ermöglicht, die Systemperformance zu verbessern.
  • Zur Lösung dieses Problems ist bei einem Verfahren der eingangs genannten Art erfindungsgemäß vorgesehen, dass zur Bestimmung eines in wenigstens einem Kamerabild gegebenen informationsrelevanten Bildbereichs seitens der Steuerungseinrichtung ein in dem Kamerabild gezeigter, einen Teil des Fahrzeugs zeigender Bildbereich im Kamerabild selbst ermittelt wird, welcher Bildbereich im Rahmen der Verarbeitung nachfolgend aufgenommener Kamerabilder außer Betracht bleibt.
  • Die Erfindung sieht vor, den aus dem Gesamtbild „auszuschneidenden” Bildbereich, in dem der Fahrzeugteil gezeigt ist, in einem oder mehreren aktuell aufgenommenen Kamerabild selbst zu ermitteln. Dies ermöglich es, den nicht zu berücksichtigenden Bildbereich exakt so zu bemessen, wie er sich tatsächlich im jeweiligen Kamerabild darstellt. Denn die Ist-Darstellung zeigt die reale konstruktive Situation, so dass exakt der Bildbereich unterdrückt werden kann, in dem das Fahrzeugteil gezeigt ist, nicht aber ein zusätzlicher, aus Toleranzgründen berücksichtigter Bildbereich.
  • Hieraus resultiert, dass der informationsrelevante Bildbereich genau dem Bildbereich entspricht, der tatsächlich Informationen enthält, die seitens der Steuerungseinrichtung erfasst respektive ausgewertet werden können. Da dieser informationsrelevante Bildbereich nicht aus Sicherheitsgründen respektive Toleranzgründen prophylaktisch beschnitten ist, steht folglich ein größerer Bildbereich zur Auswertung zur Verfügung, so dass die Systemperformance verbessert werden kann.
  • In Weiterbildung der Erfindung kann vorgesehen sein, dass die Ermittlung des einen Teil des Fahrzeugs zeigenden Bildbereichs anhand eines in dem oder den hierzu verarbeitenden Kamerabildern gezeigten Musters oder Objekt, das im informationsrelevanten Bildbereich sichtbar und in dem einen Teil des Fahrzeugs zeigenden Bildbereich verdeckt ist, erfolgt, welches Muster oder Objekt seitens der Steuerungseinrichtung ermittelt wird. Die Steuerungseinrichtung verarbeitet das oder die Kamerabilder unter Verwendung eines entsprechenden Algorithmus, der ein Muster oder ein Objekt erfasst, das im informationsrelevanten Bereich sichtbar ist. Dieses Objekt verläuft bis zur Trennlinie respektive Kante, in der der informationsrelevante Bildbereich in den anderen, das Fahrzeugteil zeigenden Bildbereich übergeht, das heißt, dass das Muster oder das Objekt dann nach dem Übergang von dem Fahrzeugteil verdeckt ist. Die Steuerungseinrichtung ist nun in der Lage, ein solches Muster oder ein solches Objekt zu erfassen und so einen Punkt oder Bereich zu detektieren, an dem der eine Bildbereich in den anderen übergeht. Anhand der Geometrie des Fahrzeugteils, also beispielsweise der Motorhaube, die in ihren Konstruktionsdaten steuerungseinrichtungsseitig bekannt ist, kann nun der genaue Verlauf der Kante erfasst werden, so dass der Übergangsbereich exakt definiert werden kann. Alternativ zur Ermittlung auf Basis der Geometriedaten des Fahrzeugteils ist es auch denkbar, dass die Steuerungseinrichtung über einen geeigneten Kantendetektionsalgorithmus oder dergleichen den Verlauf der Kante respektive des Bildbereichsübergangs ermitteln kann.
  • Das Muster oder das Objekt kann entweder am Fahrzeug selbst angeordnet sein, beispielsweise in dem es auf die Motorhaube aufgebracht oder gelegt wird respektive im Kantenbereich angebracht wird. Die Steuerungseinrichtung ermittelt nun mit dem geeigneten Analysealgorithmus dieses Muster oder Objekt und kann aus den gewonnenen Informationen die Trennlinie der Bildbereiche respektive den Verlauf der Fahrzeugteilkante bestimmen.
  • Alternativ zur Anordnung des Musters oder des Objekts am Fahrzeug selbst ist es auch denkbar, dass sich das Muster oder Objekt vor dem Fahrzeug befindet. Das Fahrzeug wird in eine entsprechend zu definierende Position vor diesem Muster oder Objekt gebracht, wonach die Steuerungseinrichtung das oder die Kamerabilder wiederum analysiert und zunächst das Muster oder Objekt im Bild ermittelt, und anschließend den Punkt oder Bereich, in dem das Muster oder Objekt beim Bildbereichsübergang „verschwindet”. Das heißt, dass das Fahrzeugteil im Bild dort beginnt, wo es nicht mehr gelingt, das Muster oder Objekt zu erkennen.
  • Während der Aufnahme des oder der Kamerabilder kann das Muster oder Objekt und das Fahrzeug positionsfest sein, das heißt, dass beide statisch sind. Sie bewegen sich also nicht relativ zueinander. Alternativ ist es denkbar, dass sich das Muster oder Objekt relativ zum Fahrzeug oder das Fahrzeug relativ zum Muster oder Objekt bewegt. Ein Element bewegt sich also, während das andere Element positionsfest ist. Hier werden folglich eine Reihe von Kamerabildern aufgenommen, die das sich – unabhängig davon, welches Element sich bewegt – relativ zum Fahrzeug bewegende Muster oder Objekt zeigen. Es handelt sich in diesem Fall also um ein dynamisches Verfahren.
  • Bei einem sich relativ zum Fahrzeug bewegenden Muster oder Objekt kann das Muster oder Objekt im Wesentlichen horizontal bewegt werden. Das heißt, dass es, beispielsweise über eine Linearführung auf dem Boden geführt, relativ zum Fahrzeug, bevorzugt natürlich in der Fahrzeuglängsachse, bewegt wird. Es kann hierbei sogar unter das Fahrzeug geführt werden. Alternativ zu einer quasi horizontalen Bewegung kann das Muster oder Objekt auch auf- und/oder abbewegt, oder horizontal quer entlang des Fahrzeugs bewegt werden. Hierbei wird das Muster oder Objekt beispielsweise vertikal oder seitlich an einer Führung entlang bewegt, so dass es zwangsläufig im Laufe der Bewegung, beispielsweise von oben kommend, vom Fahrzeugteil verdeckt wird. Die jeweilige Bewegung ist in den Kamerabildern gezeigt, so dass der Ort, wo das Muster oder Objekt quasi hinter dem Fahrzeugteil „verschwindet”, exakt erfasst werden kann. Auch eine horizontale, quer entlang der Fahrerseite erfolgende Bewegung ist denkbar, auch dabei ändert sich der in den nacheinander aufgenommen Bildern sichtbare Teil des Musters oder Objekts.
  • Bewegt sich das Fahrzeug relativ zum Muster oder Objekt, so kann das Muster oder Objekt wiederum am Boden liegend positioniert sein, während das Fahrzeug das Muster oder Objekt überfährt, so dass sichergestellt ist, das es zwingend verschwindet.
  • Das Muster oder Objekt kann beispielsweise ein Referenzmuster sein, beispielsweise in Form eines Schachbrettmusters, das auf eine Fläche gedruckt ist, oder eine einfache schwarz/weiß-Fläche mit einer definierten Kante. Alternativ kann das Referenzmuster auch als Lichtsäule ausgeführt sein oder ähnliches. In jedem Fall handelt es sich um ein extra für diesen Zweck vorgesehenes und entsprechend positioniertes Muster oder Objekt.
  • Alternativ dazu kann es sich bei dem Muster oder Objekt auch um ein natürliches, im Fahrzeugvorfeld oder Fahrzeugrückfeld befindliches Muster oder Objekt handeln, das seitens der Steuerungseinrichtung bestimmt wird. Als ein solches Muster wird bevorzugt ein solches bestimmt, dass eine im Bild sichtbare Kantenstruktur aufweist. Denkbar ist beispielsweise eine vertikale Säule, ein Balken, ein Möbel oder dergleichen, wie sie beispielsweise in einer Werkstatt oder ähnlichem, wo zu Einrichtungszwecken die Bildbereichsermittlung respektive Kalibrierung vorgenommen wird. Diese Alternative ist von Vorteil, als keine speziellen Muster oder Objekte vorgehalten werden müssen.
  • Die Erkennung der Haube oder einer anderen Sicht verdeckenden Einheit kann auch über eine zeitliche Betrachtung der Bilder erfolgen, also einem Vergleich mehrerer zeitlich nacheinander bzw. zu verschiedenen Zeitpunkten aufgenommener Bilder der selben verbauten Kamera gegeneinander – der Bereich mit z. B. der Motorhaube unterscheidet sich weniger als andere Bereiche.
  • Neben dem Verfahren selbst betrifft die Erfindung ferner ein Kraftfahrzeug, umfassend eine Kamera mit zugeordneter Steuerungseinrichtung, welches Kraftfahrzeug zur Durchführung des erfindungsgemäßen Verfahrens ausgebildet ist.
  • Weitere Vorteile und Einzelheiten der Erfindung ergeben sich aus den im Folgenden beschriebenen Ausführungsbeispielen sowie anhand der Zeichnungen:
  • 1 eine Prinzipdarstellung eines erfindungsgemäßen Kraftfahrzeugs,
  • 2 eine Prinzipdarstellung eines Kamerabilds mit darin gezeigtem Referenzmuster,
  • 3 eine Prinzipdarstellung eines Verfahrensausführung mit vertikal beweglichem Referenzmuster,
  • 4 eine Prinzipdarstellung einer Verfahrensausführung mit horizontal beweglichem Referenzmuster und
  • 5 eine Prinzipdarstellung einer Verfahrensausführung mit statischem Referenzmuster.
  • 1 zeigt ein erfindungsgemäßes Kraftfahrzeug 1, umfassend ein Fahrzeugsystem 2, beispielsweise in Form eines Fahrerassistenzsystems oder ähnlichem, mit einer Steuerungseinrichtung 3, einer das Fahrzeugvorfeld aufnehmenden Kamera 4 sowie exemplarisch mehreren über die Steuerungseinrichtung 3 bedienten Gerätschaften 5, bei denen es sich um ein Anzeigeelement, ein Stellelement oder sonstige Bauteile oder Baugruppen im Fahrzeug handeln kann, die über das Fahrzeugsystem angesteuert respektive betrieben werden.
  • Die Kamera 4 nimmt wie beschrieben das Fahrzeugvorfeld auf. Im Erfassungsbereich der Kamera befindet sich auch ein Teil der Motorhaube 6. Der Bildbereich, der die Motorhaube 6 zeigt, kann zwangsläufig keine informationsrelevanten Inhalte aufweisen. Es ist daher zu ermitteln, wo genau die Grenze zwischen dem Bildbereich, der informationsrelevante Informationen beinhaltet, und dem Bildbereich, der das Fahrzeugteil, hier die Motorhaube 6 zeigt, verläuft.
  • 2 zeigt exemplarisch ein Kamerabild 7, das über die Kamera 4 aufgenommen wird. Wie 1 zeigt, ist am Fahrzeug 1 ein Referenzmuster 8 im Bereich der Fahrzeugfront angeordnet, das sich bis unter die Motorhaube 6 erstreckt. In 2 ist das Referenzmuster 8 daher teilweise gezeigt, der gestrichelte Bereich des Referenzmusters 8 ist über die Motorhaube 6 verdeckt. Es sind folglich zwei Bildbereiche gegeben, nämlich der obere Bildbereich 9 enthaltend analyserelevante Information sowie der untere Bildbereich 10, der letztlich die Motorhaube 6 zeigt.
  • Die Steuerungseinrichtung 3 ist nun in der Lage, die Grenzlinie 11, wo der eine Bildbereich 9 in den anderen Bildbereich 10 übergeht, zu ermitteln. Dies geschieht durch Analyse des Kamerabildes 7 zur Erfassung des Referenzmusters 8, das hier schachbrettartig in Schwarz-Weiß-Felder unterteilt ist. Die Steuerungseinrichtung 3 ermittelt nun genau den Bereich 12, in dem die regelmäßige Struktur, nämlich das Referenzmuster 8, vom oberen Bildbereich 9 kommend quasi verschwindet. An bzw. ab genau an diesem Bildbereich 12 wird das Referenzmuster 8 folglich durch die Motorhaube 6 verdeckt.
  • Ist die Bildzeile oder der Bildpunkt bekannt, wo genau dieser Übergangsbereich 12 ist, kann die Steuerungseinrichtung nun den restlichen Verlauf der Motorhaubenkante, also der Linie 11 ermitteln. Dies kann entweder dadurch geschehen, dass auch bekannte Geometriedaten der Motorhaube zurückgegriffen wird, die seitens der Steuerungseinrichtung 3 vorliegen. Denn die Motorhaube 6 hat einen definierten, charakteristischen Verlauf. Aus diesem definierten Verlauf kann nun der gesamte Verlauf der Linie 11, beginnend ab dem Bereich 12, ermittelt werden. Alternativ ist es denkbar, den Verlauf der Linie 11, die ja eine scharfe, optische Trennung der Bildbereiche 9 und 10 definiert, über einen entsprechenden Kantendetektionsalgorithmus wiederum durch Bildanalyse zu ermitteln. Schließlich könnte, wenn die Grenzlinie aufgrund der Geometrie der Motorhaube 6 quasi geradlinig ist, einfach die ermittelte Bildzeile des Bereichs 12 als Trennungslinie der Bildbereiche 9 und 10 verwendet werden
  • Unabhängig davon kann die Steuerungseinrichtung 3 nun den informationsrelevanten Bildbereich 9 definieren, so dass im Rahmen einer nachfolgenden Verarbeitung des Bildinhalts des Bildbereichs 9 nur aus diesem die Informationen gewonnen werden können, die nachfolgend zur Ansteuerung der Gerätschaften 5 verwendet werden. Eine Beeinflussung der Bildanalyse durch den Bildbereich 10 ist ausgeschlossen, da dieser Bildbereich im Rahmen der Verarbeitung berücksichtigt bleibt. Es wird folglich nahezu der maximale relevante Bildbereich 9 der Analyse zugrunde gelegt, so dass größt mögliche Informationstiefe erfasst werden kann. Gleichzeitig wird die Analyse des Bildbereichs 6 vermieden, was zeitaufwendig und unnötig ist, da darin keine relevanten Informationen enthalten sind.
  • 3 zeigt in Form einer Prinzipdarstellung eine Alternative zur festen Anordnung des Referenzmusters 8 an der Fahrzeugfront, wie in 1 gezeigt. Bei dieser Ausgestaltung ist das Referenzmuster 8, wie durch den Pfeil P1 gezeigt, längs einer Führung vertikal auf- und abbewegbar. Die Kamera 4 kann das Referenzmuster so lange erfassen, bis es quasi von der Fahrzeugfront, hier wiederum der Motorhaube 6, verdeckt ist, was dann der Fall ist, wenn das Referenzmuster bis unter die Linie 13 abgesenkt ist. Die Steuerungseinrichtung 3 nimmt nun eine Vielzahl von Bildern der Kamera 4, die während der Absenkbewegung aufgenommen wurden, zur Analyse heran und ermittelt so wiederum den entsprechenden Übergangsbereich 12, um die Bildbereiche 9 und 10 exakt zu definieren.
  • Bei der Ausgestaltung nach 4 ist wiederum ein Referenzmuster 8 vorgesehen, das hier jedoch horizontal beweglich ist, wie durch den Pfeil P2 dargestellt. Es befindet sich vor dem Kraftfahrzeug 1. Das Referenzmuster 8 wird längs des Pfeils P2 in Richtung des Kraftfahrzeugs 1 geschoben und passiert die dargestellte Linie 13, verschwindet also mit zunehmender Annäherungsbewegung. Die Steuerungseinrichtung 3 analysiert wiederum eine Vielzahl von Kamerabildern und erfasst auf diese Weise den exakten Bewegungsweg des Referenzmusters 3 und damit auch den Übergangsbereich 12, basierend worauf sodann die Bildbereiche 9 und 10 definiert werden.
  • Bei der Ausführungsform gemäß 5 ist schließlich ein Referenzmuster 8 gezeigt, das statisch ist, sich also nicht relativ zum Fahrzeug bewegt, welches ebenfalls positionsfest ist. Das Referenzmuster 8 ist hier als Stange oder Stab ausgeführt. Er weist einen ersten Abschnitt 8a auf, der, da statisch, permanent im Bild der Kamera 4 sichtbar ist. Der zweite, untere Bereich 8b ist von der Motorhaube 6 abgedeckt, ist also im Bild nicht sichtbar. Die Bereiche 8a und 8b sind über die Linie 13 getrennt.
  • Die Steuerungseinrichtung 3 umfasst nun im Kamerabild das Referenzmuster 8 und damit den Bereich 8a und kann so exakt die Bildbereiche 9 und 10 definieren und voneinander unterscheiden.
  • Die Ausführungsform gemäß 5 entspricht im Wesentlichen der Ausführungsform gemäß 1, lediglich mit dem Unterschied, dass das Referenzmuster 8 nicht, wie bei 1, am Fahrzeug selbst befestigt ist, sondern positionsfest vor dem Fahrzeug angeordnet ist.
  • Anstelle der Bewegung des Referenzmusters 8 ist es natürlich auch möglich, dass das Kraftfahrzeug 1 relativ zum positionsfesten Referenzmuster zu bewegen.
  • Die vorgenommene Bestimmung der Lage der Linie 11, also die Definition des Bildbereichs 9 und 10 kann einmalig werkseitig erfolgen, wenn das System einmalig eingerichtet respektive kalibriert wird. Es ist aber auch möglich, diese Kalibrierung regelmäßig bei Werkstattbesuchen vorzunehmen.

Claims (11)

  1. Verfahren zum Betrieb eines kamerabasierten Fahrzeugsystems, umfassend eine Kamera (4), die im oder am Fahrzeug zur Aufnahme des Fahrzeugumfelds angeordnet ist, sowie eine die Kamerabilder verarbeitende Steuerungseinrichtung (3), dadurch gekennzeichnet, dass zur Bestimmung eines in wenigstens einem Kamerabild (7) gegebenen informationsrelevanten Bildbereichs (9) seitens der Steuerungseinrichtung (3) ein in dem Kamerabild gezeigter, einen Teil des Fahrzeugs (1) zeigenden Bildbereich (10) im Kamerabild (7) selbst ermittelt wird, welcher Bildbereich (10) im Rahmen der Verarbeitung nachfolgend aufgenommener Kamerabilder (7) außer Betracht bleibt.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Ermittlung des einen Teil des Fahrzeugs (1) zeigenden Bildbereichs (10) anhand eines in dem oder den zu verarbeitenden Kamerabildern (7) gezeigten Musters oder Objekts (8) das im informationsrelevanten Bildbereich (9) sichtbar und im des Teil des Fahrzeugs (1) zeigenden Bildbereich (10) verdeckt ist, erfolgt, welches Muster oder Objekt (8) seitens der Steuerungseinrichtung (3) ermittelt wird.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass das Muster oder Objekt (8) am Fahrzeug (1) angeordnet ist, oder sich vor dem Fahrzeug (1) befindet.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass während der Aufnahme der Kamerabilder (7) das Muster oder Objekt (8) und das Fahrzeug (1) positionsfest sind, oder dass sich das Muster oder Objekt (8) relativ zum Fahrzeug (1) oder das Fahrzeug (1) relativ zum Muster oder Objekt (8) bewegt.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass bei sich relativ zum Fahrzeug (1) bewegendem Muster oder Objekt (8) das Muster oder Objekt (8) im Wesentlichen horizontal bewegt und gegebenenfalls unter das Fahrzeug (1) geführt wird, oder dass das Muster oder Objekt (8) auf- und/oder abbewegt wird.
  6. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass bei sich relativ zum Muster oder Objekt (8) zu bewegendem Fahrzeug (1) das Fahrzeug (1) das Muster oder Objekt (8) überfährt.
  7. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Muster oder Objekt ein Referenzmuster (8) ist.
  8. Verfahren nach einen der Ansprüche 1–6, dadurch gekennzeichnet, dass das Muster oder Objekt ein natürliches, im Fahrzeugvorfeld oder Fahrzeugrückfeld befindliches Muster oder Objekt ist, das seitens der Steuerungseinrichtung (3) bestimmt wird.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass als Muster oder Objekt ein solches bestimmt wird, das eine im Bild sichtbare Kantenstruktur aufweist.
  10. Verfahren nach Anspruch 1, dadurch gekennzeichnet, das der im Kamerabild gezeigte Teil des Kraftfahrzeugs durch einen Vergleich zeitlich nacheinander aufgenommener Bilder ermittelt wird.
  11. Kraftfahrzeug, umfassend eine Kamera (4) mit zugeordneter Steuerungseinrichtung (3), ausgebildet zur Durchführung des Verfahrens nach einen der vorangehenden Ansprüche.
DE102015007391.5A 2015-06-10 2015-06-10 Verfahren zum Betrieb eines kamerabasierten Fahrzeugsystems Withdrawn DE102015007391A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102015007391.5A DE102015007391A1 (de) 2015-06-10 2015-06-10 Verfahren zum Betrieb eines kamerabasierten Fahrzeugsystems
EP16001285.2A EP3103683B1 (de) 2015-06-10 2016-06-08 Verfahren zum betrieb eines kamerabasierten fahrzeugsystems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015007391.5A DE102015007391A1 (de) 2015-06-10 2015-06-10 Verfahren zum Betrieb eines kamerabasierten Fahrzeugsystems

Publications (1)

Publication Number Publication Date
DE102015007391A1 true DE102015007391A1 (de) 2016-12-15

Family

ID=56116179

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015007391.5A Withdrawn DE102015007391A1 (de) 2015-06-10 2015-06-10 Verfahren zum Betrieb eines kamerabasierten Fahrzeugsystems

Country Status (2)

Country Link
EP (1) EP3103683B1 (de)
DE (1) DE102015007391A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017220492A1 (de) 2017-11-16 2019-05-16 Audi Ag Verfahren und Vorrichtung zum Verifizieren von Sensordaten in einer Umgebung eines Fahrzeuges

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005003254A1 (de) * 2005-01-24 2006-08-10 Sick Ag Optoelektronischer Sensor und Konfigurationsverfahren
DE102009059797A1 (de) * 2009-12-21 2011-06-22 Krauss-Maffei Wegmann GmbH & Co. KG, 80997 Optischer Marker sowie Objekterfassungsvorrichtung
DE102012103495A1 (de) * 2012-03-29 2013-10-02 Sick Ag Optoelektronische Vorrichtung zur Vermessung von Struktur- oder Objektgrößen und Verfahren zur Kalibrierung
DE102012214283A1 (de) * 2012-08-10 2014-02-13 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Unterstützung einer Zielaufnahmebereichseinstellung einer bildgebenden Vorrichtung

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3287117B2 (ja) * 1994-07-05 2002-05-27 株式会社日立製作所 撮像装置を用いた車両用の環境認識装置
JP4325705B2 (ja) * 2007-06-15 2009-09-02 株式会社デンソー 表示システム及びプログラム
US9961259B2 (en) * 2013-09-19 2018-05-01 Fujitsu Ten Limited Image generation device, image display system, image generation method and image display method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005003254A1 (de) * 2005-01-24 2006-08-10 Sick Ag Optoelektronischer Sensor und Konfigurationsverfahren
DE102009059797A1 (de) * 2009-12-21 2011-06-22 Krauss-Maffei Wegmann GmbH & Co. KG, 80997 Optischer Marker sowie Objekterfassungsvorrichtung
DE102012103495A1 (de) * 2012-03-29 2013-10-02 Sick Ag Optoelektronische Vorrichtung zur Vermessung von Struktur- oder Objektgrößen und Verfahren zur Kalibrierung
DE102012214283A1 (de) * 2012-08-10 2014-02-13 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Unterstützung einer Zielaufnahmebereichseinstellung einer bildgebenden Vorrichtung

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017220492A1 (de) 2017-11-16 2019-05-16 Audi Ag Verfahren und Vorrichtung zum Verifizieren von Sensordaten in einer Umgebung eines Fahrzeuges
DE102017220492B4 (de) 2017-11-16 2019-08-14 Audi Ag Verfahren und Vorrichtung zum Verifizieren von Sensordaten in einer Umgebung eines Fahrzeuges

Also Published As

Publication number Publication date
EP3103683B1 (de) 2018-08-15
EP3103683A1 (de) 2016-12-14

Similar Documents

Publication Publication Date Title
EP1018839B2 (de) Verfahren und Einrichtung zur Einsichtnahme des rückwärtigen Beobachtungsraumes bei Kraftfahrzeugen
EP2753533B1 (de) Bestimmung der stellung von bauelementen eines fahrzeugs
EP3177474B1 (de) Verfahren zum erzeugen einer umgebungskarte sowie fahrerassistenzsystem
WO2007033870A1 (de) Verfahren und fahrerassistenzsystem zur sensorbasierten anfahrtsteuerung eines kraftfahrzeugs
DE112014005160T5 (de) Verfahren zum Erkennen eines verdeckten Zustands einer Kamera, Kamerasystem und Kraftfahrzeug
DE102006060893A1 (de) Vorrichtung und Verfahren zum Bestimmen eines Freiraums vor einem Fahrzeug
WO2008081026A1 (de) Berührungsloses einklemmschutz-system
DE102013021616A1 (de) Kraftfahrzeug und Verfahren zur Überprüfung einer Kalibrierung einer Kamera
EP3084385B1 (de) Verfahren und vorrichtung zum bestimmen einer leuchtweitenausrichtung eines scheinwerfers
EP2856755B1 (de) Vorrichtung und verfahren zur aufnahme von bildern eines fahrzeugunterbodens
DE102016010373A1 (de) Verfahren und Vorrichtung zur Erkennung des Öffnungszustands eines Garagentores
DE102013005489A1 (de) Verfahren und Vorrichtung zur automatischen Fehlerstellenerkennung bei biegeschlaffen Körpern
DE102013012778A1 (de) Verfahren zum Detektieren eines sich bewegenden Fußgängers anhand von charakteristischen Merkmalen und optischen Flussvektoren eines Bilds, Kamerasystem und Kraftfahrzeug
EP3103683B1 (de) Verfahren zum betrieb eines kamerabasierten fahrzeugsystems
DE102015217049B4 (de) Vorrichtung und Verfahren zur Prüfung eines optischen Sensors für ein Fahrzeug
EP3069934B1 (de) Verfahren zum erzeugen eines gesamtbildes einer fahrzeugumgebung eines fahrzeuges und entsprechende vorrichtung
DE102014118035B4 (de) Verfahren zum Erkennen einer Abschattung einer Sensoreinrichtung eines Kraftfahrzeugs durch ein Objekt, Recheneinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102013105506A1 (de) Leuchtsystem für ein Kraftfahrzeug sowie Verfahren zur Justage einer Lichteinheit eines derartigen Leuchtsystems
DE102020215651A1 (de) Fahrzeugsichtsystem
DE102016212730A1 (de) Fahrzeugkameravorrichtung mit Bildauswertungselektronik
EP3219894B1 (de) Verfahren und vorrichtung zur bewegungssteuerung einer verschlusseinrichtung eines fahrzeugs und fahrzeug
DE102015112389A1 (de) Verfahren zum Erfassen zumindest eines Objekts auf einer Straße in einem Umgebungsbereich eines Kraftfahrzeugs, Kamerasystem sowie Kraftfahrzeug
DE102015116958A1 (de) Verfahren zum Erfassen eines Umgebungsbereichs, Fahrerassistenzsystem und Kraftfahrzeug
DE102012016865A1 (de) Verbessertes Alpha-Blending von Bildern eines Kamerasystems eines Kraftfahrzeugs
DE102018130229A1 (de) Verfahren und Vorrichtung zur Objektextraktion aus eine dreidimensionale Szene darstellenden Szenenbilddaten

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee