DE102012204541A1 - Verfahren und Vorrichtung zur Bildverarbeitung von Bilddaten - Google Patents

Verfahren und Vorrichtung zur Bildverarbeitung von Bilddaten Download PDF

Info

Publication number
DE102012204541A1
DE102012204541A1 DE102012204541A DE102012204541A DE102012204541A1 DE 102012204541 A1 DE102012204541 A1 DE 102012204541A1 DE 102012204541 A DE102012204541 A DE 102012204541A DE 102012204541 A DE102012204541 A DE 102012204541A DE 102012204541 A1 DE102012204541 A1 DE 102012204541A1
Authority
DE
Germany
Prior art keywords
vehicle
environment model
image data
dimensional environment
pic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102012204541A
Other languages
English (en)
Other versions
DE102012204541B4 (de
Inventor
Guenter Bauer
Thomas Reicher
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102012204541.4A priority Critical patent/DE102012204541B4/de
Priority to PCT/EP2013/055141 priority patent/WO2013139661A1/de
Publication of DE102012204541A1 publication Critical patent/DE102012204541A1/de
Priority to US14/491,295 priority patent/US9521400B2/en
Application granted granted Critical
Publication of DE102012204541B4 publication Critical patent/DE102012204541B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Bilddaten jeweiliger Bilder (P_i) werden von mehreren Kameras erfasst, die an einem Fahrzeug angeordnet sind. Eine Geometrie eines dreidimensionalen Umgebungsmodells wird bereitgestellt, das einen ebenen Bodenbereich aufweist, der in einer Standebene des Fahrzeugs (1) liegt, und das eine Oberfläche (OF) aufweist, die eine Bodenoberfläche (BOF) des ebenen Bodenbereichs aufweist und die einen Umgebungsraum (UR) eingrenzt, der auch das Fahrzeug umfasst. Die Bilddaten (PIC_RAW) der jeweiligen Bilder (P_i) der verschiedenen Kameras werden auf die Oberfläche (OF) des dreidimensionalen Umgebungsmodells projiziert als Umgebungsmodell-Bilddaten (PIC_UMG). Zu signalisierende Bilddaten (PIC_SIG) eines zu signalisierenden Bildes aus Sicht einer virtuellen Kamera auf die Oberfläche (OF) des dreidimensionalen Umgebungsmodells werden ermittelt. Dies erfolgt bei einer Sicht, die zumindest einen Teil des Fahrzeugs einschließt, in dem Sinne, dass ein vorgegebenes Stellvertreterobjekt (SVO) des Fahrzeugs in das dreidimensionale Umgebungsmodell eingebettet wird und zumindest ein Teilbereich des Stellvertreterobjekts (SVO) in der Weise transparent dargestellt wird, dass die Sicht durch den Teilbereich auf einen jeweiligen Teiloberflächenbereich der Oberfläche (OF) des dreidimensionalen Umgebungsmodells ermöglicht ist.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bildverarbeitung von Bilddaten jeweiliger Bilder, die von mehreren Kameras erfasst werden, die an einem Fahrzeug angeordnet sind.
  • Fahrzeuge werden zunehmend mit mehreren Kameras ausgestattet, die außen, also an der Peripherie des Fahrzeugs, angebracht sind. So kann eine derartige Kamera beispielsweise an einem Außenspiegel eines Fahrzeugs angeordnet sein. Derartige Kameras können den Fahrzeugführer unterstützen bei der Wahrnehmung des Außenbereichs des Fahrzeugs.
  • Dadurch kann der Fahrzeugführer beispielsweise unterstützt werden bei Ein- und Ausparkvorgängen. Ferner kann er beispielsweise auch bei dem Passieren enger oder unübersichtlicher Passagen unterstützt werden.
  • Die Aufgabe, die der Erfindung zugrunde liegt, ist ein Verfahren und eine Vorrichtung zu schaffen, das beziehungsweise die dazu beiträgt, dass ein zu signalisierendes Bild eine eingängige Sicht repräsentiert für einen Fahrzeugführer eines Fahrzeugs.
  • Die Aufgabe wird gelöst durch die Merkmale der unabhängigen Patentansprüche. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen gekennzeichnet.
  • Die Erfindung zeichnet sich aus durch ein Verfahren und eine korrespondierende Vorrichtung zur Bildverarbeitung von Bilddaten jeweiliger Bilder, die von mehreren Kameras erfasst werden, die an einem Fahrzeug angeordnet sind. Eine Geometrie eines dreidimensionalen Umgebungsmodells wird bereit gestellt, das einen ebenen Bodenbereich aufweist, der in einer Standebene des Fahrzeugs liegt und das eine Oberfläche aufweist, die eine Bodenoberfläche des ebenen Bodenbereichs aufweist und die einen Umgebungsraum eingrenzt, der auch das Fahrzeug umfasst. Die Oberfläche grenzt den Umgebungsraum so dreidimensional ein.
  • Die Bilddaten der jeweiligen Bilder der verschiedenen Kameras werden auf die Oberfläche des dreidimensionalen Umgebungsmodells projiziert als Umgebungsmodell-Bilddaten. Insofern wird die durch die verschiedenen Kameras erfasste Umgebung des Fahrzeugs in Form der Umgebungsmodell-Bilddaten auf die Oberfläche des dreidimensionalen Umgebungsmodells projiziert.
  • Zu signalisierende Bilddaten eines zu signalisierenden Bildes aus Sicht einer virtuellen Kamera auf die Oberfläche des dreidimensionalen Umgebungsmodells werden ermittelt abhängig von einer vorgegebenen Position der virtuellen Kamera und Umgebungsmodell-Bilddaten.
  • Dies erfolgt bei einer Sicht, die zumindest einen Teil des Fahrzeugs einschließt, in dem Sinne, dass ein vorgegebenes Stellvertreterobjekt des Fahrzeugs in das dreidimensionale Umgebungsmodell eingebettet wird und zumindest ein Teilbereich des Stellvertreterobjekts in der Weise transparent dargestellt wird, dass die Sicht durch den Teilbereich auf einen jeweiligen Teiloberflächenbereich der Oberfläche des dreidimensionalen Umgebungsmodells ermöglicht ist.
  • Die Sicht der virtuellen Kamera ist insbesondere bezogen auf ihre virtuelle Kameraoptik. Bilddaten repräsentieren jeweils einen Bildpunkt, der auch als Pixel bezeichnet werden kann.
  • Das Stellvertreterobjekt ist insbesondere ein dreidimensionales Stellvertreterobjekt und der Teilbereich des Stellvertreterobjekts ist beispielsweise eine Außenhaut des Fahrzeugs, wie beispielsweise eine Motorhaube und/oder ein Kühlergrill und/oder ein Kotflügel und/oder eine Fahrzeugtür.
  • Auf diese Weise wird ein Beitrag geleistet, dem Fahrzeugführer ein umfassendes Bild der Fahrzeugumgebung zu präsentieren, insbesondere von Stellen, die aus seiner Gesichtsposition nicht direkt einsehbar sind, weil Teile der Fahrzeugkarosserie im Blickfeld stehen. Darüber hinaus kann so vermieden werden, dass eine Sicht von außerhalb des Fahrzeugs für diesen Zweck eingesetzt werden muss und zwar eine virtuelle Sicht, da diese für den Fahrzeugführer gegebenenfalls verwirrend sein kann, weil eine entsprechend verdrehte Sichtposition erforderlich ist zu diesem Zweck.
  • Gemäß einer vorteilhaften Ausgestaltung erfolgt das Ermitteln der zu signalisierenden Bilddaten bei der Sicht, die zumindest einen Teil des Fahrzeugs einschließt, in dem Sinne, dass eine Kontur des Stellvertreterobjekts erkennbar ist. Auf diese Weise wird ein Beitrag geleistet, dass zum einen störende Elemente im Hinblick auf eine Sicht auf den jeweiligen Teiloberflächenbereich der Oberfläche des dreidimensionalen Umgebungsmodells möglich ist, aber zum anderen auch eine sehr gute Orientierung für den Fahrzeugführer durch die gleichzeitig erkennbare Kontur des Fahrzeugs.
  • Auf diese Weise kann eine besonders kundenwertige Darstellung erfolgen.
  • In diesem Zusammenhang ist es vorteilhaft, wenn der Teilbereich des Stellvertreterobjekts teiltransparent dargestellt wird und/oder der Teilbereich des Stellvertreterobjekts überlagert mit einem Drahtgittermodell dargestellt wird.
  • Gemäß einer weiteren vorteilhaften Ausgestaltung wird die Position der virtuellen Kamera in einem vorgegebenen Bereich um eine reguläre Gesichtsposition des Fahrzeugführers vorgegeben. Auf diese Weise kann automatisiert eine für den Fahrzeugführer sehr eingängige Sicht eingestellt werden.
  • Ausführungsbeispiele der Erfindung sind im Folgenden anhand der schematischen Zeichnungen näher erläutert. Es zeigen:
  • 1 ein Fahrzeug mit einer Steuervorrichtung,
  • 2 ein Ablaufdiagramm eines Programms, das in der Steuervorrichtung abgearbeitet wird,
  • 3 eine Darstellung des Fahrzeugs bezogen auf ein dreidimensionales Umgebungsmodell,
  • 4 eine Darstellung einer Sicht mit einem intransparent dargestellten Stellvertreterobjekt und
  • 5 eine Sicht mit einem teilweise transparent dargestellten Stellvertreterobjekt.
  • Elemente gleicher Konstruktion oder Funktion sind figurenübergreifend mit den gleichen Bezugszeichen gekennzeichnet.
  • Ein Fahrzeug 1 (1) weist verschiedene Kameras auf. Die jeweilige Kamera ist dazu ausgebildet und angeordnet zumindest einen Teil einer Umgebung des Fahrzeugs zu erfassen. Die jeweilige Kamera kann beispielsweise in einem Außenspiegel 2, 3 des Fahrzeugs 1 als erste Kamera 4 oder dritte Kamera 7 angeordnet sein. Sie kann jedoch beispielsweise auch im Heckbereich des Fahrzeugs 1 als zweite Kamera 5 angeordnet sein oder beispielsweise in einem Frontbereich des Fahrzeugs 1, so zum Beispiel im Bereich des Kühlergrills, als vierte Kamera 9 angeordnet sein. Durch eine geeignete Anordnung der Kameras, also insbesondere der ersten bis vierten Kamera 4, 5, 7, 9 kann die gesamte Umgebung des Fahrzeugs 1, also insbesondere eine Rundumsicht, erfasst werden.
  • Das Fahrzeug 1 weist ferner eine Steuervorrichtung 11 auf, die mit den verschiedenen Kameras derart signaltechnisch gekoppelt ist, dass sie Bilddaten PIC_RAW von durch die jeweilige Kamera erfassten Bildern P_i empfangen kann. Darüber hinaus kann die Steuervorrichtung 11 auch noch mit weiteren Sensoren, die dem Fahrzeug 1 zugeordnet sind, signaltechnisch gekoppelt sein. Derartige Sensoren können beispielsweise ein Abstandssensor sein, der beispielsweise ultraschallbasiert ist.
  • Die Steuervorrichtung 11 weist einen Daten- und Programmspeicher auf und weist ferner eine Recheneinheit auf, in der Programme während des Betriebs des Fahrzeugs 1 abgearbeitet werden, die insbesondere in dem Daten- und Programmspeicher gespeichert sind. Darüber hinaus weist die Steuervorrichtung 11 bevorzugt eine Ausgabeschnittstelle auf, über die sie signaltechnisch gekoppelt ist, beispielsweise mit einer optischen Ausgabeeinheit. Auf diese Weise kann ein zu signalisierendes Bild mittels zu signalisierender Bilddaten PIC_SIG signalisiert werden und zwar insbesondere einem Fahrzeugführer.
  • Die Steuervorrichtung 11 kann auch als Vorrichtung zur Bildverarbeitung bezeichnet werden.
  • Das Fahrzeug 1 weist ferner auf einen ersten und zweiten Frontscheinwerfer 13, 14, die an der Fahrzeugfront angeordnet sind. Darüber hinaus ist in der 4 ein Fahrersitz 17 hinsichtlich seiner Kontur skizziert und ebenso eine Kopfstütze 19. Darüber hinaus ist ein Kopf 21 des Fahrzeugführers dargestellt und eine reguläre Gesichtsposition 23 des Fahrzeugführers markiert. Eine Ebene 25 der regulären Gesichtsposition 23 ist mittels einer strichpunktierten Linie dargestellt und weist als Normalenvektor einen Vektor auf, dessen Ausrichtung entsprechend einer Längsachse Y des Fahrzeugs 1 ist. Darüber hinaus bezeichnet X eine Querachse des Fahrzeugs 1 und Z eine Hochachse des Fahrzeugs 1. Ferner ist in der 1 noch eine virtuelle Kamera 27 dargestellt, auf die näher weiter unten eingegangen wird.
  • Ein Programm zur Bildverarbeitung, das in der Steuervorrichtung 11 abgearbeitet wird, wird in einem Schritt S1 (siehe 2) gestartet, in dem gegebenenfalls Variablen initialisiert werden können.
  • In einem Schritt S3 werden Bilddaten PIC_RAW der jeweiligen Bilder, die von den verschiedenen Kameras erfasst wurden, bereitgestellt. Es werden somit die Bilddaten PIC_RAW eines Bildes P_i, das von der ersten Kamera 4 erfasst wurde, eines Bildes P_i, das von der zweiten Kamera 5 erfasst wurde, eines Bildes P_i, das von der dritten Kamera 7 erfasst wurde und eines Bildes P_i, das von der vierten Kamera 9 erfasst wurde, zur weiteren Verarbeitung in den nachfolgenden Schritten bereitgestellt.
  • In einem Schritt S5 wird eine Geometrie eines dreidimensionalen Umgebungsmodells bereitgestellt, das einen ebenen Bodenbereich aufweist, der in einer Standebene des Fahrzeugs 1 liegt. Das Umgebungsmodell weist eine Oberfläche OF auf, die eine Bodenoberfläche BOF und eine gekrümmte Oberfläche KROF aufweist. Die Oberfläche OF grenzt einen Umgebungsraum UR ein. Die Platzierung des Umgebungsmodells erfolgt jeweils relativ zu einem Bezugskoordinatensystem des Fahrzeugs 1.
  • In der 3 ist beispielhaft das Fahrzeug 1 und das dreidimensionale Umgebungsmodell in einer Schnittdarstellung dargestellt und zwar mit der Bodenoberfläche BOF und der gekrümmten Oberfläche KROF.
  • In einem Schritt S7 (2) werden die Bilddaten PIC_RAW der jeweiligen Bilder P_i der verschiedenen Kameras auf die Oberfläche OF des dreidimensionalen Umgebungsmodells projiziert als Umgebungsmodell-Bilddaten PIC_UMG. Es werden somit die Bilddaten PIC_RAW jeweils eines Bildes P_i der ersten Kamera 4, der zweiten Kamera 5, der dritten Kamera 7 und der vierten Kamera 9 auf die Oberfläche OF projiziert. Auf diese Weise wird somit die mittels der Kameras des Fahrzeugs 1 erfasste Umgebung auf die Oberfläche OF des dreidimensionalen Umgebungsmodells abgebildet.
  • In einem Schritt S9 wird eine Position POS der virtuellen Kamera 27 und eine Sichtrichtung der virtuellen Kamera 27 bezüglich einer Mittelachse der Kameraoptik bereitgestellt. Diese können beispielsweise durch den Fahrzeugführer vorgegeben werden und zwar auch im Sinne einer Auswahl verschiedener angebotener Positionen und/oder von einer anderen Einheit innerhalb der Steuervorrichtung 11 ermittelt werden.
  • In einem Schritt S11 wird ein Stellvertreterobjekt SVO des Fahrzeugs 1 bereitgestellt und in das dreidimensionale Umgebungsmodell eingebettet, insbesondere als dreidimensionales Stellvertreterobjekt SVO. Grundsätzlich ist dies so zu verstehen, dass entsprechende Daten bezüglich des Stellvertreterobjekts in der Art eingebettet werden, dass sich virtuell das Stellvertreterobjekt SVO in der Weise in dem Umgebungsraum UR befindet, wie das Fahrzeug 1 gemäß der 3.
  • In einem Schritt S13 werden zu signalisierende Bilddaten PIC_SIG eines zu signalisierenden Bildes aus Sicht der virtuellen Kamera 27 auf die Oberfläche OF des dreidimensionalen Umgebungsmodells ermittelt und zwar unter Berücksichtigung, ob die Sicht zumindest einen Teil des Fahrzeugs 1 und somit des vorgegebenen Stellvertreterobjekts SVO des Fahrzeugs 1 einschließt. Dies kann einfach unter Berücksichtigung des in dem Schritt S11 in das dreidimensionale Umgebungsmodell eingebetteten Stellvertreterobjekts SVO ermittelt werden.
  • Das Ermitteln der zu signalisierenden Bilddaten PIC_SIG erfolgt abhängig von der vorgegebenen Position POS der virtuellen Kamera 27, Umgebungsmodell-Bilddaten PIC_UMG und dem Stellvertreterobjekt SVO. Die zu signalisierenden Bilddaten PIC_SIG werden insofern auch abhängig von der Sichtrichtung der virtuellen Kamera 27 ermittelt.
  • Falls die Sicht zumindest einen Teil des Fahrzeugs 1 einschließt, erfolgt dies in dem Sinne, dass das vorgegebene Stellvertreterobjekt SVO des Fahrzeugs 1 bezüglich zumindest eines Teilbereichs in der Weise transparent dargestellt wird, dass die Sicht durch den Teilbereich auf einen jeweiligen Teiloberflächenbereich der Oberfläche OF des dreidimensionalen Umgebungsmodells ermöglicht ist.
  • In diesem Zusammenhang wird beispielsweise das Stellvertreterobjekt SVO bei dem zu signalisierenden Bild derart dargestellt, dass seine Kontur erkennbar ist. Dies kann beispielsweise dadurch erfolgt, dass der Teilbereich des Stellvertreterobjekts SVO teiltransparent dargestellt wird und/oder überlagert mit einem Drahtgittermodell dargestellt wird. Auf diese Weise ist eine gute Orientierung der räumlichen Gegebenheiten für den Fahrzeugführer bei dem zu signalisierenden Bild möglich.
  • Anhand der 4 und 5 ist dies exemplarisch dargestellt. So ist in der 4 eine entsprechende Sicht dargestellt, bei dem das Stellvertreterobjekt SVO intransparent dargestellt ist. Insofern ist auf den durch das Stellvertreterobjekt verdeckten Bereich des Bodens keine Sicht möglich. In der 5 ist dann das Stellvertreterobjekt SVO derart dargestellt, dass der Teilbereich des Stellvertreterobjekts SVO in der Weise transparent dargestellt ist, dass die Sicht durch den Teilbereich auf den jeweiligen Teiloberflächenbereich der Oberfläche OF des dreidimensionalen Umgebungsmodells ermöglicht ist. Es ist so ersichtlich, dass auf diese Weise eine Sicht auf den Boden möglich ist, der in der 4 durch das Stellvertreterobjekt verdeckt ist. Gleichzeitig ist die Kontur des Fahrzeugs 1 sichtbar, so dass auch eine gute Orientierung für den Fahrzeugführer möglich ist. In diesem Fall sind auch einzelne Bereiche teiltransparent dargestellt.
  • Die in dem Schritt S13 ermittelten zu signalisierenden Bilddaten PIC_SIG können anschließend mittels der optischen Ausgabeeinheit signalisiert werden.
  • Im Anschluss an die Bearbeitung des Schrittes S13 wird die Bearbeitung erneut, gegebenenfalls nach einer vorgegebenen Wartezeitdauer, in dem Schritt S3 fortgesetzt.
  • Die Position POS der virtuellen Kamera 27 wird beispielsweise in einem vorgegebenen Bereich um die reguläre Gesichtsposition 23 des Fahrzeugführers vorgegeben.
  • Auf diese Weise kann eine für den Fahrzeugführer besonders intuitive Sicht realisiert werden. Diese kann beispielsweise in Richtung der Fahrzeuglängsachse Y in Richtung auf die Fahrzeugfront oder auch auf eine der Seiten gerichtet sein.
  • Bezugszeichenliste
  • 1
    Fahrzeug
    2, 3
    Außenspiegel
    4, 5, 7, 9
    Kamera
    11
    Steuervorrichtung
    13, 15
    erster, zweiter Frontscheinwerfer
    17
    Fahrersitz
    19
    Kopfstütze
    21
    Kopf Fahrzeugführer
    23
    reguläre Gesichtsposition des Fahrzeugführers
    25
    Ebene der regulären Gesichtsposition
    27
    virtuelle Kamera
    X
    Querachse des Fahrzeugs
    Y
    Längsachse des Fahrzeugs
    Z
    Hochachse des Fahrzeugs
    P_i
    Bild
    PIC_RAW
    Bilddaten
    PIC_SIG
    zu signalisierende Bilddaten
    OF
    Oberfläche
    BOF
    Bodenoberfläche
    KROF
    gekrümmten Oberfläche
    UR
    Umgebungsraum
    OB
    Objekt
    PIC_UMG
    Umgebungsmodell-Bilddaten
    POS
    Position der virtuellen Kamera
    MIR
    Spiegelbildmodus
    SVO
    Stellvertreterobjekt

Claims (6)

  1. Verfahren zur Bildverarbeitung von Bilddaten (PIC_RAW) jeweiliger Bilder (P_i), die von mehreren Kameras erfasst werden, die an einem Fahrzeug (1) angeordnet sind, bei dem – eine Geometrie eines dreidimensionalen Umgebungsmodells bereitgestellt wird, das einen ebenen Bodenbereich aufweist, der in einer Standebene des Fahrzeugs (1) liegt, und das eine Oberfläche (OF) aufweist, die eine Bodenoberfläche (BOF) des ebenen Bodenbereichs aufweist und die einen Umgebungsraum (UR) eingrenzt, der das Fahrzeug (1) umfasst, – die Bilddaten (PIC_RAW) der jeweiligen Bilder (P_i) der verschiedenen Kameras auf die Oberfläche (OF) des dreidimensionalen Umgebungsmodells projiziert werden als Umgebungsmodell-Bilddaten (PIC_UMG) und – zu signalisierende Bilddaten (PIC_SIG) eines zu signalisierenden Bildes aus Sicht einer virtuellen Kamera (27) auf die Oberfläche (OF) des dreidimensionalen Umgebungsmodells ermittelt werden, wobei dies bei einer Sicht, die zumindest einen Teil des Fahrzeugs einschließt, in dem Sinne erfolgt, dass ein vorgegebenes Stellvertreterobjekt (SVO) des Fahrzeugs (1) in das dreidimensionale Umgebungsmodell eingebettet wird und zumindest ein Teilbereich des Stellvertreterobjekts (SVO) in der Weise transparent dargestellt wird, dass die Sicht durch den Teilbereich auf einen jeweiligen Teiloberflächenbereich der Oberfläche (OF) des dreidimensionalen Umgebungsmodells ermöglicht ist.
  2. Verfahren nach Anspruch 1, bei dem das Ermitteln der zu signalisierenden Bilddaten (PIC_SIG) bei der Sicht, die zumindest einen Teil des Fahrzeugs (1) einschließt, in dem Sinne erfolgt, dass eine Kontur des Stellvertreterobjekts (SVO) erkennbar ist.
  3. Verfahren nach einem der vorstehenden Ansprüche, bei dem der Teilbereich des Stellvertreterobjekts (SVO) teiltransparent dargestellt wird.
  4. Verfahren nach einem der vorstehenden Ansprüche, bei dem der Teilbereich des Stellvertreterobjekts (SVO) überlagert mit einem Drahtgittermodell dargestellt wird.
  5. Verfahren nach einem der vorstehenden Ansprüche, bei dem die Position (POS) der virtuellen Kamera (27) sich in einem vorgegebenen Bereich um eine reguläre Gesichtsposition (23) des Fahrzeugführers vorgegeben wird.
  6. Vorrichtung zur Bildverarbeitung von Bilddaten (PIC_RAW) jeweiliger Bilder (P_i), die von mehreren Kameras erfasst werden, die an einem Fahrzeug (1) angeordnet sind, wobei die Vorrichtung dazu ausgebildet ist – eine Geometrie eines dreidimensionalen Umgebungsmodells bereit zu stellen, das einen ebenen Bodenbereich aufweist, der in einer Standebene des Fahrzeugs (1) liegt, und das eine Oberfläche (OF) aufweist, die eine Bodenoberfläche (BOF) des ebenen Bodenbereichs aufweist und die einen Umgebungsraum (UR) eingrenzt, der das Fahrzeug (1) umfasst, – die Bilddaten (PIC_RAW) der jeweiligen Bilder (P_i) der verschiedenen Kameras auf die Oberfläche (OF) des dreidimensionalen Umgebungsmodells zu projizieren als Umgebungsmodell-Bilddaten (PIC_UMG) und – zu signalisierende Bilddaten (PIC_SIG) eines zu signalisierenden Bildes aus Sicht einer virtuellen Kamera (27) auf die Oberfläche (OF) des dreidimensionalen Umgebungsmodells zu ermitteln, wobei dies bei einer Sicht, die zumindest einen Teil des Fahrzeugs (1) einschließt, in dem Sinne erfolgt, dass ein vorgegebenes Stellvertreterobjekt (SVO) des Fahrzeugs (1) in das dreidimensionale Umgebungsmodell eingebettet wird und zumindest ein Teilbereich des Stellvertreterobjekts (SVO) in der Weise transparent dargestellt wird, dass die Sicht durch den Teilbereich auf einen jeweiligen Teiloberflächenbereich der Oberfläche (OF) des dreidimensionalen Umgebungsmodells ermöglicht ist.
DE102012204541.4A 2012-03-21 2012-03-21 Verfahren und Vorrichtung zur Bildverarbeitung von Bilddaten Active DE102012204541B4 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102012204541.4A DE102012204541B4 (de) 2012-03-21 2012-03-21 Verfahren und Vorrichtung zur Bildverarbeitung von Bilddaten
PCT/EP2013/055141 WO2013139661A1 (de) 2012-03-21 2013-03-13 Verfahren und vorrichtung zur bildverarbeitung von bilddaten
US14/491,295 US9521400B2 (en) 2012-03-21 2014-09-19 Method and device for processing images from image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102012204541.4A DE102012204541B4 (de) 2012-03-21 2012-03-21 Verfahren und Vorrichtung zur Bildverarbeitung von Bilddaten

Publications (2)

Publication Number Publication Date
DE102012204541A1 true DE102012204541A1 (de) 2013-09-26
DE102012204541B4 DE102012204541B4 (de) 2024-01-25

Family

ID=47884326

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012204541.4A Active DE102012204541B4 (de) 2012-03-21 2012-03-21 Verfahren und Vorrichtung zur Bildverarbeitung von Bilddaten

Country Status (3)

Country Link
US (1) US9521400B2 (de)
DE (1) DE102012204541B4 (de)
WO (1) WO2013139661A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2535536B (en) 2015-02-23 2020-01-01 Jaguar Land Rover Ltd Apparatus and method for displaying information
CN106710004A (zh) * 2016-11-25 2017-05-24 中国科学院深圳先进技术研究院 透视物体内部结构的透视方法及系统
JP7140487B2 (ja) * 2017-10-25 2022-09-21 キヤノン株式会社 情報処理装置、表示制御方法、及び、プログラム
US20180095475A1 (en) * 2017-11-22 2018-04-05 GM Global Technology Operations LLC Systems and methods for visual position estimation in autonomous vehicles
CN108062515B (zh) * 2017-12-04 2022-01-18 北京中科慧眼科技有限公司 基于双目视觉的障碍物检测方法、系统及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10136649B4 (de) * 2001-07-20 2007-02-08 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Objekterkennung von sich bewegenden Kraftfahrzeugen
DE102008034594A1 (de) * 2008-07-25 2010-01-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Information eines Insassen eines Fahrzeuges

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006084385A1 (en) * 2005-02-11 2006-08-17 Macdonald Dettwiler & Associates Inc. 3d imaging system
JP5439890B2 (ja) * 2009-03-25 2014-03-12 富士通株式会社 画像処理方法、画像処理装置及びプログラム
US20120008828A1 (en) * 2010-04-13 2012-01-12 Brian David Yanoff Target-linked radiation imaging system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10136649B4 (de) * 2001-07-20 2007-02-08 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Objekterkennung von sich bewegenden Kraftfahrzeugen
DE102008034594A1 (de) * 2008-07-25 2010-01-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Information eines Insassen eines Fahrzeuges

Also Published As

Publication number Publication date
WO2013139661A1 (de) 2013-09-26
US9521400B2 (en) 2016-12-13
US20150002640A1 (en) 2015-01-01
DE102012204541B4 (de) 2024-01-25

Similar Documents

Publication Publication Date Title
DE102018101542B4 (de) Bordanzeigevorrichtung, Steuerverfahren für Bordanzeigevorrichtung und Steuerprogramm für Bordanzeigevorrichtung
DE102008031784B4 (de) Verfahren und Vorrichtung zur Verzerrungskorrektur und Bildverbesserung eines Fahrzeugrückblicksystems
EP3328686B1 (de) Verfahren und vorrichtung zum anzeigen einer umgebungsszene eines fahrzeuggespanns
DE102012219810B4 (de) Verfahren und Vorrichtung zur Bildverarbeitung von Bilddaten
EP2559236B1 (de) Verfahren zum anzeigen eines bildes auf einer anzeigeeinrichtung in einem fahrzeug, fahrerassistenzsystem und fahrzeug
DE102011079913A1 (de) Sichtunterstützungssystem für einen Fahrer und Fahrzeug mit einem solchen System
DE102018201027B4 (de) Kamera-Monitor-System sowie Verfahren und Vorrichtung zum Betreiben eines Kamera-Monitor-Systems für ein Kraftfahrzeug
DE102010055583B4 (de) Kraftfahrzeug mit einer Kamera und Verfahren zum Betreiben eines Kamerasystems in einem Kraftfahrzeug
WO2016162245A1 (de) Verfahren zur darstellung einer fahrzeugumgebung eines fahrzeuges
DE102012204541A1 (de) Verfahren und Vorrichtung zur Bildverarbeitung von Bilddaten
EP2888715B1 (de) Verfahren und vorrichtung zum betreiben eines fahrzeugs
DE102008019732A1 (de) Verfahren und Vorrichtung zur Ansteuerung eines elektronischen Außenspiegels
DE102015202863A1 (de) Verfahren und Vorrichtung zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges
DE102017217870B4 (de) Verfahren zum Zusammenfügen von Teilbildern zu einem Abbild eines zusammenhängenden Umgebungsbereiches eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
DE102015209764A1 (de) Extrinsische Kalibrierung einer Bilderfassungseinrichtung eines Fahrzeugs
DE102013020950A1 (de) Verfahren zum Betreiben eines Rückansichtskamerasystems eines Kraftfahrzeugs, Rückansichtskamerasystem und Kraftfahrzeug
DE102016114689A1 (de) Verfahren zum Unterstützen des Fahrers eines Kraftfahrzeugs beim Rangieren des Kraftfahrzeugs mit einem Anhänger, Fahrerassistenzsystem sowie Gespann
DE102018123159A1 (de) Anpassung von rückspiegelanzeigen eines fahrzeugs
DE102016122756A1 (de) Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Abstellen des Kraftfahrzeugs auf einer Parkfläche, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102012219735A1 (de) Verfahren und Vorrichtung zur Bildverarbeitung von Bilddaten
DE102012200762A1 (de) Verfahren und Fahrerassistenzsystem zur Signalisierung einer Verkehrssituation in einem Umfeld eines Fahrzeuges
EP3292535B1 (de) Verfahren zum erzeugen eines gesamtbildes einer fahrzeugumgebung eines fahrzeuges und entsprechende vorrichtung
EP3162635B1 (de) Kamerabasiertes anzeigesystem
DE102012203523A1 (de) Verfahren und Vorrichtung zur Bildverarbeitung von Bilddaten
DE102017206175A1 (de) Surround-View-System für ein Fahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: B60R0001000000

Ipc: B60R0001220000

R016 Response to examination communication
R018 Grant decision by examination section/examining division