DE102020215651A1 - Fahrzeugsichtsystem - Google Patents

Fahrzeugsichtsystem Download PDF

Info

Publication number
DE102020215651A1
DE102020215651A1 DE102020215651.4A DE102020215651A DE102020215651A1 DE 102020215651 A1 DE102020215651 A1 DE 102020215651A1 DE 102020215651 A DE102020215651 A DE 102020215651A DE 102020215651 A1 DE102020215651 A1 DE 102020215651A1
Authority
DE
Germany
Prior art keywords
image
interest
live image
region
ideally aligned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020215651.4A
Other languages
English (en)
Inventor
James Oldiges
Venkat Adusumalli
SriHarsha Yeluri
Robert Berg
Santanu Panja
Radha Sivaraman
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Publication of DE102020215651A1 publication Critical patent/DE102020215651A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

Verfahren zum Verarbeiten eines Bildes innerhalb eines Fahrzeuginnenraums mit einer Kamera, das das Erfassen eines Live-Bildes des Fahrzeuginnenraums einschließt. Das Live-Bild wird mit einem ideal ausgerichteten Bild des Fahrzeuginnenraums verglichen, das eine zugehörige interessierende Region aufweist, um eine Homographiematrix zu erzeugen. Die Homographiematrix wird auf die interessierende Region angewendet, um eine kalibrierte interessierende Region zu erzeugen, die auf das Live-Bild projiziert wird, um darin ein Objekt zu erkennen.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung bezieht sich allgemein auf Fahrzeugassistenzsysteme, und speziell auf ein Sichtsystem für einen Fahrzeuginnenraum.
  • STAND DER TECHNIK
  • Aktuelle Fahrerassistenzsysteme (ADAS - Advanced Driver Assistance System - fortgeschrittenes Fahrerassistenzsystem) bieten eine Reihe von Überwachungsfunktionen in Fahrzeugen. Insbesondere kann das ADAS die Umgebung innerhalb des Fahrzeugs überwachen und den Fahrer des Fahrzeugs über den Zustand des Fahrzeugs informieren. Zu diesem Zweck kann das ADAS Bilder des Fahrzeuginnenraums aufnehmen und die Bilder digital verarbeiten, um Informationen zu extrahieren. Das Fahrzeug kann als Antwort auf die extrahierten Informationen eine oder mehrere Funktionen ausführen.
  • KURZDARSTELLUNG
  • In einem Beispiel schließt ein Verfahren zum Verarbeiten eines Bildes innerhalb eines Fahrzeuginnenraums mit einer Kamera das Erfassen eines Live-Bildes des Fahrzeuginnenraums ein. Das Live-Bild wird mit einem ideal ausgerichteten Bild des Fahrzeuginnenraums verglichen, das eine zugehörige interessierende Region aufweist, um eine Homographiematrix zu erzeugen. Die Homographiematrix wird auf die interessierende Region angewendet, um eine kalibrierte interessierende Region zu erzeugen, die auf das Live-Bild projiziert wird, um darin ein Objekt zu erkennen.
  • In einem anderen Beispiel schließt ein Verfahren zum Verarbeiten eines Bildes innerhalb eines Fahrzeuginnenraums mit einer Kamera das Erfassen eines Live-Bildes des Fahrzeuginnenraums ein. Das Live-Bild wird mit einem ideal ausgerichteten Bild des Fahrzeuginnenraums verglichen, das eine zugehörige interessierende Region aufweist, indem Schlüsselpunkte zwischen jedem Live-Bild und dem ideal ausgerichteten Bild erzeugt und verglichen werden. Basierend auf dem Vergleich zwischen dem Live-Bild und dem ideal ausgerichteten Bild wird eine Homographiematrix erzeugt. Die interessierende Region wird durch Anwenden der Homographiematrix transformiert, um eine kalibrierte interessierende Region zu erzeugen, die auf das Live-Bild projiziert wird, um ein darin befindliches Objekt zu erkennen und außerhalb der kalibrierten interessierenden Region erkannte Objekte zu ignorieren.
  • In einem anderen Beispiel umfasst ein Verfahren zum Einstellen einer Kamera innerhalb eines Fahrzeuginnenraums das Erfassen eines Live-Bildes des Fahrzeuginnenraums und das Vergleichen des Live-Bildes mit einem ideal ausgerichteten Bild des Fahrzeuginnenraums, um eine Homographiematrix zu erzeugen. Die Unterschiede zwischen dem Live-Bild und dem ideal ausgerichteten Bild werden in mindestens einem Freiheitsgrad aus der Homographiematrix bestimmt. Die Position und/oder Orientierung der Kamera wird/werden basierend auf dem mindestens einen Freiheitsgradunterschied eingestellt.
  • Weitere Objekte und Vorteile und ein besseres Verständnis der Erfindung werden aus der folgenden detaillierten Beschreibung und den begleitenden Zeichnungen ersichtlich sein.
  • Figurenliste
    • 1A ist eine Draufsicht auf ein Fahrzeug einschließlich eines beispielhaften Sichtsystems nach der vorliegenden Erfindung.
    • 1B ist eine Schnittansicht entlang der Linie 1B-1B des Fahrzeugs aus 1A.
    • 2A ist eine schematische Veranschaulichung eines ideal ausgerichteten Bildes des Fahrzeuginnenraums.
    • 2B veranschaulicht schematisch ein weiteres Beispiel für ein ideal ausgerichtetes Bild.
    • 3 ist eine schematische Veranschaulichung eines Live-Bildes des Fahrzeuginnenraums.
    • 4 ist ein Vergleich zwischen dem ideal ausgerichteten Bild und dem Live-Bild unter Verwendung erzeugter Schlüsselpunkte.
    • 5 ist eine schematische Veranschaulichung eines kalibrierten Live-Bildes mit einer ideal ausgerichteten interessierenden Region.
    • 6 ist eine schematische Veranschaulichung des Live-Bildes mit einer kalibrierten interessierenden Region.
  • DETAILLIERTE BESCHREIBUNG
  • Die vorliegende Erfindung bezieht sich allgemein auf Fahrzeugassistenzsysteme, und speziell auf ein Sichtsystem für einen Fahrzeuginnenraum. 1A-1B veranschaulichen ein Fahrzeug 20 mit einem beispielhaften Fahrzeugassistenzsystem in Form eines Sichtsystems 10 zum Erfassen und Verarbeiten von Bildern innerhalb des Fahrzeugs. Das Fahrzeug 20 erstreckt sich entlang einer Mittellinie 22 von einem ersten oder vorderen Ende 24 bis zu einem zweiten oder hinteren Ende 26. Das Fahrzeug 20 erstreckt sich zu einer linken Seite 28 und einer rechten Seite 30 auf gegenüberliegenden Seiten der Mittellinie 22. Vordere und hintere Türen 36, 38 sind auf beiden Seiten 28, 30 vorgesehen. Das Fahrzeug 20 enthält ein Dach 32, das mit den vorderen und hinteren Türen 36, 38 auf jeder Seite 28, 30 zusammenwirkt, um eine Passagierkabine oder einen Innenraum 40 zu definieren.
  • Die Vorderseite 24 des Fahrzeugs 20 enthält ein Armaturenbrett 42, das zum Innenraum 40 gewandt ist. Aus dem Armaturenbrett 42 ragt ein Lenkrad 44 heraus. Alternativ kann das Lenkrad 44 weggelassen werden (nicht abgebildet), wenn das Fahrzeug 20 ein autonomes Fahrzeug ist. Unabhängig davon befindet sich eine Windschutzscheibe oder Frontscheibe 50 zwischen dem Armaturenbrett 42 und dem Dach 32. Ein Rückspiegel 52 ist mit dem Innenraum der Windschutzscheibe 50 verbunden.
  • Eine Heckscheibe 56 am hinteren Ende 26 des Fahrzeugs 20 hilft beim Schließen des Innenraums 40.
  • Die Sitze 60 sind im Innenraum 40 zum Empfangen eines oder mehrerer Insassen 70 positioniert. In einem Beispiel können die Sitze 60 in den vorderen und hinteren Reihen 62 bzw. 64 nach vorn gerichtet angeordnet werden. In einer autonomen Fahrzeugkonfiguration (nicht abgebildet) kann die vordere Reihe 62 nach hinten gewandt sein. Eine Mittelkonsole 66 ist zwischen den Sitzen 60 in der vorderen Reihe 62 positioniert.
  • Das Sichtsystem 10 schließt mindestens eine Kamera 90 ein, die innerhalb des Fahrzeugs 20 positioniert ist, um Bilder des Innenraums 40 zu erfassen. Wie gezeigt, ist eine Kamera 90 mit dem Rückspiegel 52 verbunden, obwohl andere Stellen, z. B. das Dach 32, die Heckscheibe 56 usw., in Betracht gezogen werden. In jedem Fall weist die Kamera 90 ein Sichtfeld 92 auf, das sich nach hinten durch den Innenraum 40 über einen großen Prozentsatz davon erstreckt, z. B. den Raum zwischen den Türen 36, 38 und von der Windschutzscheibe 50 bis zur Heckscheibe 56. Die Kamera 90 erzeugt Signale, die für die aufgenommenen Bilder kennzeichnend sind, und sendet die Signale an einen Regler 100. Der Regler 100 wiederum verarbeitet die Signale zur späteren Anwendung.
  • Wie in 2A gezeigt, wird bei der Herstellung des Fahrzeuginnenraums 20 eine Schablone oder ein ideal ausgerichtetes Bild 108 des Innenraums 40 erstellt, um bei der Kalibrierung der Kamera 90 zu helfen, sobald die Kamera installiert ist und regelmäßig danach. Das ideal ausgerichtete Bild 108 spiegelt eine ideale Position der Kamera 90 wider, die mit dem Innenraum 40 in einer vorgeschriebenen Weise ausgerichtet ist, um ein gewünschtes Sichtfeld 92 herzustellen. Zu diesem Zweck wird die Kamera 90 für jede Marke und jedes Modell von Fahrzeug 20 so positioniert, dass ihre Live-Bilder, d.h. die während des Fahrzeuggebrauchs aufgenommenen Bilder, der ideal ausgerichteten, gewünschten Orientierung im Innenraum 40 einschließlich einer gewünschten Stelle, Tiefe und Begrenzung am ehesten entsprechen. Das ideal ausgerichtete Bild 108 nimmt Abschnitte des Innenraums 40 auf, in denen es wünschenswert ist, Objekte, z. B. Sitze 60, Insassen 70, Haustiere oder persönliche Gegenstände, während des Betriebs des Fahrzeugs 20 zu überwachen/zu erkennen.
  • Das ideal ausgerichtete Bild 108 wird durch eine Begrenzung 110 definiert. Die Begrenzung 110 weist eine obere Begrenzung 110T, eine untere Begrenzung 110B und ein Paar Seitenbegrenzungen 110L, 110R auf. Allerdings ist die gezeigte Begrenzung 110 rechteckig, obwohl andere Formen für die Begrenzung, z. B. dreieckig, kreisförmig usw., in Betracht gezogen werden. Da die Kamera 90 im Fahrzeug 20 nach hinten gewandt ist, befindet sich die Seitenbegrenzung 110L auf der linken Seite des Bildes 108, aber auf der rechten Seite 30 des Fahrzeugs 20. In ähnlicher Weise befindet sich die Seitenbegrenzung 110R auf der rechten Seite des Bildes 108 auf der linken Seite 28 des Fahrzeugs 20. Das ideal ausgerichtete Bild 108 wird von einem globalen Koordinatensystem 112 überlagert, das x-, y- und z-Achsen aufweist.
  • Der Regler 100 kann das ideal ausgerichtete Bild 108 in eine oder mehrere interessierende Regionen 114 (abgekürzt „ROI“ in den Figuren) und/oder eine oder mehrere nicht interessierende Regionen 116 (in den Figuren mit „außerhalb der ROI“ gekennzeichnet) unterteilen. In dem gezeigten Beispiel markieren die Grenzlinien 115 die interessierende Region 114 in der Mitte und die nicht interessierenden Regionen 116 auf beiden Seiten davon. Die Grenzlinien 115 verlaufen zwischen den Grenzpunkten 111, die in diesem Beispiel die Begrenzung 110 schneiden. Die interessierende Region 114 liegt zwischen den Begrenzungen 110T, 110B, 115. Die linke (wie in 2 dargestellt) nicht interessierende Region 116 liegt zwischen den Begrenzungen 110T, 110B, 110L, 115. Die rechte nicht interessierende Region 116 liegt zwischen den Begrenzungen 110T, 110B, 110R, 115.
  • In dem in 2A gezeigten Beispiel kann die interessierende Region 114 der Bereich einschließlich der Reihen 62, 64 der Sitze 60 sein. Die interessierende Region 114 kann mit Bereichen im Innenraum 40 zusammenfallen, wo sich logischerweise ein bestimmtes Objekt oder bestimmte Objekte befinden. Zum Beispiel ist es logisch, dass die Insassen 70 auf den Sitzen 60 in den Reihen 62, 64 platziert werden, und somit erstreckt sich die gezeigte interessierende Region 114 im Allgemeinen auf die seitliche Ausdehnung der Reihen. Mit anderen Worten ist die gezeigte interessierende Region 114 speziell für Insassen 70 dimensioniert und geformt - sozusagen eine insassenspezifische interessierende Region.
  • Es wird geschätzt, dass verschiedene interessierende Objekte, z. B. Haustiere, Laptop, usw., eine spezifisch dimensionierte und geformte interessierende Region aufweisen können, die vordefiniert, wo es logisch ist, dass sich dieses spezielle Objekt im Fahrzeug befindet 20. Diese verschiedenen interessierenden Regionen weisen vorbestimmte, bekannte Stellen innerhalb des ideal ausgerichteten Bildes 108 auf. Die verschiedenen interessierenden Regionen können sich gegenseitig überlappen, je nachdem, welche interessierende Objekte jeder Region zugeordnet sind.
  • In diesem Sinne veranschaulicht 2B verschiedene interessierende Regionen in dem ideal ausgerichteten Bild 108 für verschiedene interessierende Objekte, nämlich die interessierende Region 114a für ein Haustier in der hinteren Reihe 64, die interessierende Region 114b für einen Insassen auf dem Fahrersitz 60 und die interessierende Region 114c für einen Laptop. Jede interessierende Region 114a-114c ist zwischen den zugehörigen Grenzpunkten 111 begrenzt. In jedem Fall ist die interessierende Region 114-114c die Umkehrung der nicht interessierenden Region(en) 116, so dass die Regionen zusammen das gesamte ideal ausgerichtete Bild 108 bilden. Mit anderen Worten gilt/gelten überall im ideal ausgerichteten Bild 108, das nicht durch die interessierende Region 114-114c begrenzt ist, die nicht interessierende(n) Region(en) 116.
  • Um auf das in 2A gezeigte Beispiel zurückzukommen, sind die nicht interessierenden Regionen 116 die Bereiche seitlich außerhalb der Reihen 62, 64 und angrenzend an die Türen 36, 38. Die nicht interessierenden Regionen 116 fallen mit Bereichen im Innenraum 40 zusammen, in denen es unlogisch ist, dass sich die Objekte (hier Insassen 70) aufhalten. Es ist zum Beispiel unlogisch, dass ein Insasse 70 an der Innenseite des Daches 32 positioniert ist.
  • Während des Betriebs des Fahrzeugs 20 erfasst die Kamera 90 Bilder des Innenraums 40 und sendet Signale an den Regler 100, die die Bilder anzeigen. Der Regler 100 führt als Antwort auf die empfangenen Signale eine oder mehrere Operationen an dem Bild aus und erkennt dann interessierende Objekte im Innenraum 40. Die während des Betriebs des Fahrzeugs 20 aufgenommenen Bilder werden hier als „Live-Bilder“ bezeichnet. Ein Beispiel für ein Live-Bild 118, das aufgenommen wurde, ist in 3 gezeigt.
  • Das gezeigte Live-Bild 118 ist durch eine Begrenzung 120 definiert. Die Begrenzung 120 schließt eine obere Begrenzung 120T, eine untere Begrenzung 120B und ein Paar Seitenbegrenzungen 120L, 120R ein. Da die Kamera 90 im Fahrzeug 20 nach hinten gewandt ist, befindet sich die Seitenbegrenzung 120L auf der linken Seite des Live-Bildes 118, aber auf der rechten Seite 30 des Fahrzeugs 20. In ähnlicher Weise befindet sich die Seitenbegrenzung 120R rechts im Live-Bild 118 auf der linken Seite 28 des Fahrzeugs 20.
  • Das Live-Bild 118 ist aus der Perspektive der Kamera 90 einem lokalen Koordinatensystem 122 mit x-, y- und z-Achse überlagert oder zugeordnet. Dennoch kann das Live-Bild 118 aus verschiedenen Gründen auf eine Abweichung der Position/Orientierung der Kamera 90 im Vergleich zur Position/Orientierung der Kamera, die das ideal ausgerichtete Bild 108 erzeugt hat, hinweisen. Erstens kann die Kamera 90 unsachgemäß oder anderweitig in einer Orientierung installiert werden, die ein Sichtfeld 92 aufnimmt, das von dem Sichtfeld abweicht, das von der Kamera erzeugt wird, die das ideal ausgerichtete Bild 108 aufnimmt. Zweitens kann die Position der Kamera 90 nach der Installation aufgrund von Vibrationen, z. B. durch Straßenbedingungen und/oder Stöße auf den Rückspiegel 52, beeinträchtigt werden. In jedem Fall dürfen die Koordinatensysteme 112, 122 nicht identisch sein, und daher ist es wünschenswert, die Kamera 90 zu kalibrieren, um jeweilige Orientierungsunterschiede zwischen der Position der Kamera, die die Live-Bilder 118 aufnimmt, und der Idealposition der Kamera, die das ideal ausgerichtete Bild 108 aufnimmt, zu berücksichtigen.
  • In einem Beispiel verwendet der Regler 100 eine oder mehrere Bildabgleichstechniken, wie z. B. Erkennungen von Oriented FAST and rotated BRIEF (ORB)-Merkmalen, um Schlüsselpunkte in jedem Bild 108, 118 zu erzeugen. Der Regler 100 erzeugt dann eine Homographiematrix aus übereinstimmenden Schlüsselpunktpaaren und verwendet diese Homographiematrix zusammen mit bekannten intrinsischen Eigenschaften der Kamera 90, um Abweichungen der Kameraposition/-orientierung über acht Freiheitsgrade hinweg zu identifizieren und dem Regler 100 zu helfen, die Kamera zu kalibrieren. Dadurch kann das Sichtsystem letztendlich Objekte innerhalb der Live-Bilder 118 besser erkennen und daraufhin Entscheidungen treffen.
  • Ein Beispiel für die Umsetzung dieses Prozesses ist in 4 veranschaulicht. Das ideal ausgerichtete Bild 108 und das Live-Bild 118 werden zu Veranschaulichungszwecken nebeneinander platziert. Der Regler 100 identifiziert Schlüsselpunkte - veranschaulichte Schlüsselpunkte sind als □, □, □, □ - innerhalb jedes Bildes 108, 118 gekennzeichnet. Die Schlüsselpunkte sind bestimmte Stellen in den Bildern 108, 118, die miteinander verglichen werden sollen und die in jedem Bild demselben/derselben exakten Punkt/ Ort/Stelle entsprechen. Die Merkmale können z. B. Ecken, Stichlinien usw. sein. Obwohl nur vier Schlüsselpunkte spezifisch identifiziert werden, wird geschätzt, dass sich das Sichtsystem 10 auf Hunderte oder Tausende von Schlüsselpunkten stützen kann.
  • In jedem Fall werden die Schlüsselpunkte identifiziert und ihre Stellen zwischen Bild 108, 118 kartiert. Der Regler 100 berechnet die Homographiematrix basierend auf der Schlüsselpunktübereinstimmungen im Live-Bild 118 mit dem ideal ausgerichteten Bild 108. Mit zusätzlichen Informationen über die intrinsischen Kameraeigenschaften wird die Homographiematrix dann zerlegt, um alle Translationen (x-, y- und z-Achse), Rotationen (Gieren, Stampfen und Rollen) sowie die Schärfe und den Maßstab der Kamera 90, die das Live-Bild 118 aufnimmt, im Vergleich zur idealen Kamera, die das ideal ausgerichtete Bild 108 aufnimmt, zu identifizieren. Die Zersetzung der Homographiematrix quantifiziert daher die Fehlausrichtung zwischen der Kamera 90, die das Live-Bild 118 aufnimmt, und der idealen Kamera, die das ideal ausgerichtete Bild 108 über acht Freiheitsgrade aufnimmt.
  • Jedem Freiheitsgrad kann ein Fehlausrichtungsschwellenwertbereich zugeordnet werden. In einem Fall kann der Schwellenwertbereich verwendet werden, um festzustellen, welche Abweichungen des Live-Bild 118 Freiheitsgrades vernachlässigbar sind und welche als groß genug erachtet werden, um eine physische Korrektur der Position und/oder Orientierung der Kamera 90 zu rechtfertigen. Mit anderen Worten können Abweichungen in einem oder mehreren bestimmten Freiheitsgraden zwischen den Bildern 108, 118 klein genug sein, um zu rechtfertigen, dass sie ignoriert werden - es erfolgt keine Korrektur dieses Freiheitsgrades. Der Schwellenwertbereich kann für jeden Freiheitsgrad symmetrisch oder asymmetrisch sein.
  • Wenn z. B. der Schwellenwertbereich für die Rotation um die x-Achse +/- 0,05° beträgt,
    würde eine berechnete x-Achsen-Rotationsabweichung im Live-Bild 118 vom ideal ausgerichteten Bild 108 innerhalb des Schwellenwertbereichs bei dem physikalischen Einstellen der Kamera 90 nicht berücksichtigt werden. Andererseits würden Rotationsabweichungen um die x-Achse außerhalb des entsprechenden Schwellenwertbereichs eine schwere Fehlausrichtung darstellen und eine Neukalibrierung oder physische Neupositionierung der Kamera 90 erfordern. Die Schwellenwertbereiche fungieren daher als Pass-/Fehlerfilter für Abweichungen in jedem Freiheitsgrad.
  • Die Homographiematrixinformationen können im Regler 100 gespeichert und verwendet werden, um jedes Live-Bild 118, das von der Kamera 90 aufgenommen wurde, zu kalibrieren. Dadurch kann das Sichtsystem 10 besser auf diese Live-Bilder reagieren, z. B. besser Veränderungen im Innenraum 40 feststellen. Zu diesem Zweck kann das Sichtsystem 10 die Homographiematrix verwenden, um das gesamte Live-Bild 118 zu transformieren und ein kalibriertes oder eingestelltes Live-Bild 119, wie in 5 gezeigt, zu erzeugen. Wenn dies geschieht, kann das kalibrierte Live-Bild 119 relativ zur Begrenzung 120 des Live-Bildes 118 gedreht oder schräg gestellt werden. Die interessierende Region 114 wird dann - über die Grenzpunkte 111 - auf das kalibrierte Live-Bild 119 projiziert. Mit anderen Worten wird die unkalibrierte interessierende Region 114 auf das kalibrierte Live-Bild 119 projiziert. Diese Transformation des Live-Bildes 118 kann jedoch umfangreiche Berechnungen durch den Regler 100 erfordern.
  • Der Regler 100 kann jedoch alternativ nur die interessierende Region 114 transformieren oder kalibrieren und die kalibrierte interessierende Region 134 auf das unkalibrierte Live-Bild 118 projizieren, um ein kalibriertes Bild 128 zu erzeugen, das in 6 dargestellt ist. Mit anderen Worten kann die interessierende Region 114 über die in der Homographiematrix gespeicherten Translations-, Rotations- und/oder Scher- /Scale-Daten transformiert und auf das nicht transformierte Live-Bild 118 projiziert oder kartiert werden, um das kalibrierte Bild 128 zu bilden.
  • Genauer gesagt werden die Grenzpunkte 111 der interessierenden Region 114 mit Transformationen unter Verwendung der erzeugten Homographiematrix kalibriert, um entsprechende Grenzpunkte 131 im kalibrierten Bild 128 zu erzeugen. Es wird jedoch geschätzt, dass sich einer oder mehrere der Grenzpunkte 131 außerhalb der Begrenzung 120 befinden könnten, wenn sie auf das Live-Bild 118 projiziert werden. In diesem Fall hilft der Schnittpunkt der Linien, die die Grenzpunkte mit der Begrenzung 120 verbinden, die kalibrierte interessierende Region 134 (nicht gezeigt) zu definieren. Unabhängig davon richtet sich die neu kalibrierte interessierende Region 134 auf dem Live-Bild 118 (im kalibrierten Bild 128) aus, während die ursprüngliche interessierende Region 114 auf dem ideal ausgerichteten Bild 108 ausgerichtet ist. Diese Kalibrierung legt die interessierende Region 114 so fest, dass Bildtransformationen nicht auf das gesamte Live-Bild 118 angewendet werden müssen, wodurch die Verarbeitungszeit und die benötigte Leistung reduziert werden.
  • Zu diesem Zweck ist das Kalibrieren der wenigen Grenzpunkte 111, die die interessierende Region 114 definieren, unter Verwendung der Homographiematrix wesentlich einfacher, schneller und effizienter als das Transformieren oder Kalibrieren des gesamten Live-Bildes 118, wie es in 5 durchgeführt wurde. Die Kalibrierung der interessierenden Region 114 stellt sicher, dass jede Fehlausrichtung der Kamera 90 von der idealen Position, wenn überhaupt, nur minimale negative Beeinträchtigung der Genauigkeit aufweist, mit der das Sichtsystem 10 Objekte im Innenraum 40 erkennt. Das Sichtsystem 10 kann die Kalibrierung der interessierenden Region 114 durchführen - wobei jedes Mal eine neue Homographiematrix basierend auf einem neuen Live-Bild erzeugt wird - in vorbestimmten Zeitintervallen oder Ereignissen, z. B. beim Anfahren des Fahrzeugs 20 oder in Intervallen von fünf Sekunden.
  • Die kalibrierte interessierende Region 134 kann verwendet werden, um Objekte im Innenraum 40 zu erkennen. Der Regler 100 analysiert das kalibrierte Bild 128 oder die kalibrierte interessierende Region 134 und bestimmt, welche Objekte sich darin befinden, wenn überhaupt. In dem gezeigten Beispiel erkennt der Regler 100 die Insassen 70 innerhalb der kalibrierten interessierenden Region 134. Es wird jedoch geschätzt, dass der Regler 100 alle alternativen oder zusätzlichen interessierenden Regionen 114a-114c kalibrieren kann, um die zugehörige kalibrierte interessierende Region zu bilden und das spezielle Objekt von Interesse darin zu erkennen (nicht abgebildet).
  • Der Regler 100 kann beim Analysieren des kalibrierten Bildes 128 Objekte erkennen, die sich außerhalb der kalibrierten interessierenden Region 134 schneiden oder kreuzen und daher sowohl innerhalb als auch außerhalb der kalibrierten interessierenden Region vorhanden sind. In diesem Fall kann sich der Regler 100 auf einen Schwellenprozentsatz verlassen, der bestimmt, ob das erkannte Objekt ignoriert wird. Genauer gesagt kann der Regler 100 ein erkanntes Objekt, das z. B. eine Überlappung von mindestens 75% mit der kalibrierten interessierenden Region 134 aufweist, bestätigen oder „passieren“. Folglich wird ein erkanntes Objekt, das weniger als die Überlappung des Schwellenprozentsatzes mit der kalibrierten interessierenden Region 134 aufweist, ignoriert oder „ausgesetzt“. Nur erkannte Objekte, die dieses Kriterium erfüllen, werden für die weitere Verarbeitung oder Aktion in Betracht gezogen.
  • Das Sichtsystem 10 kann eine oder mehrere Operationen als Reaktion auf das Erkennen und/oder Identifizieren von Objekten innerhalb des kalibrierten Bildes 128 durchführen. Dies kann, ist aber nicht darauf beschränkt, das Auslösen eines oder mehrerer Airbags einschließen, basierend darauf, wo sich die Insassen im Innenraum 40 befinden, oder das Alarmieren des Fahrers, wenn ein Haustier oder Kind nicht in einer normalen Position in der hinteren Reihe 64 von Sitzen 60 ist, usw.
  • Das hier gezeigte und beschriebene Sichtsystem ist vorteilhaft, da es dazu beiträgt, falsch positive und falsch negative Ergebnisse bei der Objekterkennung zu reduzieren. In vielen aktuellen Sichtsystemen identifiziert das System das, was es für ein Objekt hält, aber die Inspektion durch den Menschen ergibt einen falsch positiven Hinweis. Beispielsweise kann ein aktuelles Sichtsystem ein Objekt erkennen, das nicht vorhanden ist und/oder ein Objekt an Stellen erkennen, die widersinnig sind, z. B. ein Laptop oder ein Mobiltelefon auf dem Dach des Fahrzeugs. Das hier beschriebene Sichtsystem reduziert jedoch die Wahrscheinlichkeit falsch-positiver Ergebnisse, indem es die interessierenden Regionen kalibriert und die Auswertung auf Stellen in dem Bild reduziert, an denen nur logische Objekte gefunden werden können.
  • Darüber hinaus hilft das Sichtsystem der vorliegenden Erfindung, durch Ausrichten oder Einstellen des Live-Bildes auf das ideal ausgerichtete Bild, sicherzustellen, dass die Stellungsdaten der erkannten Objekte genau sind, so dass fundiertere Entscheidungen bezüglich der Objekterkennung und ihrer Durchführbarkeit getroffen werden können.
  • Was oben beschrieben wurde, sind Beispiele für die vorliegende Erfindung. Natürlich ist es nicht möglich, jede denkbare Kombination von Komponenten oder Methodiken zum Zwecke des Beschreibens der vorliegenden Erfindung zu beschreiben, aber ein gewöhnlicher Fachmann wird erkennen, dass viele weitere Kombinationen und Permutationen der vorliegenden Erfindung möglich sind. Dementsprechend soll die vorliegende Erfindung alle derartigen Änderungen, Modifikationen und Variationen umfassen, die in den Geist und den Anwendungsbereich der beigefügten Ansprüche fallen.

Claims (14)

  1. Verfahren zum Verarbeiten eines Bildes innerhalb eines Fahrzeuginnenraums mit einer Kamera, das Folgendes umfasst: Erfassen eines Live-Bildes des Fahrzeuginnenraums; Vergleichen des Live-Bildes mit einem ideal ausgerichteten Bild des Fahrzeuginnenraums, das eine zugehörige interessierende Region aufweist, um eine Homographiematrix zu erzeugen; und Transformieren der interessierenden Region durch Anwenden der Homographiematrix darauf, um eine kalibrierte interessierende Region zu erzeugen, die auf das Live-Bild projiziert wird, um darin ein Objekt zu erkennen.
  2. Verfahren nach Anspruch 1, das ferner das Bestimmen von Unterschieden zwischen dem Live-Bild und dem ideal ausgerichteten Bild in mindestens einem Freiheitsgrad von der Homographiematrix umfasst.
  3. Verfahren nach einem der vorherigen Ansprüche, wobei der Schritt des Vergleichens des Live-Bildes mit dem ideal ausgerichteten Bild einen Bildabgleich des Live-Bildes mit dem ideal ausgerichteten Bild umfasst, wobei insbesondere der Bildabgleich die Erkennung von Oriented FAST and rotated BRIEF-Merkmalen umfasst.
  4. Verfahren nach einem der vorherigen Ansprüche, das ferner das Ignorieren des Objekts, wenn sich das Objekt außerhalb der kalibrierten interessierenden Region befindet, umfasst.
  5. Verfahren nach einem der vorherigen Ansprüche, das ferner das Ignorieren des Objekts, wenn sich weniger als ein vorbestimmter Prozentsatz eines erkannten Objekts mit der kalibrierten interessierenden Region überlappt, umfasst.
  6. Verfahren nach einem der vorherigen Ansprüche, wobei das Vergleichen des Live-Bildes mit dem ideal ausgerichteten Bild das Erzeugen und Vergleichen von Schlüsselpunkten zwischen jedem des Live-Bildes und des ideal ausgerichteten Bildes umfasst.
  7. Verfahren nach einem der vorherigen Ansprüche, wobei die Homographiematrix Unterschiede zwischen einem Sichtfeld der Kamera, die das ideal ausgerichtete Bild aufnimmt, und einem Sichtfeld der Kamera, die das Live-Bild erfasst, widerspiegelt.
  8. Verfahren zum Verarbeiten eines Bildes innerhalb eines Fahrzeuginnenraums mit einer Kamera, das Folgendes umfasst: Erfassen eines Live-Bildes des Fahrzeuginnenraums; Vergleichen des Live-Bildes mit einem ideal ausgerichteten Bild des Fahrzeuginnenraums, das eine zugehörige interessierende Region aufweist, durch Erzeugen und Vergleichen von Schlüsselpunkten zwischen jedem Live-Bild und dem ideal ausgerichteten Bild; Erzeugen einer Homographiematrix, basierend auf dem Vergleich zwischen dem Live-Bild und dem ideal ausgerichteten Bild; und Transformieren der interessierenden Region durch Anwenden der Homographiematrix darauf, um eine kalibrierte interessierende Region zu erzeugen, die auf das Live-Bild projiziert wird, um ein darin befindliches Objekt zu erkennen und außerhalb der kalibrierten interessierenden Region erkannte Objekte zu ignorieren.
  9. Verfahren nach Anspruch 8, das ferner das Bestimmen von Unterschieden zwischen dem Live-Bild und dem ideal ausgerichteten Bild in mindestens einem Freiheitsgrad von der Homographiematrix umfasst, und/oder das ferner das Ignorieren des Objekts, wenn sich weniger als ein vorbestimmter Prozentsatz eines erkannten Objekts mit der kalibrierten interessierenden Region überlappt, umfasst.
  10. Verfahren nach einem der Ansprüche 8 oder 9, wobei die Homographiematrix Unterschiede zwischen einem Sichtfeld der Kamera, die das ideal ausgerichtete Bild erfasst, und einem Sichtfeld der Kamera, die das Live-Bild erfasst, widerspiegelt.
  11. Verfahren zum Einstellen einer Kamera innerhalb eines Fahrzeuginnenraums, das Folgendes umfasst: Erfassen eines Live-Bildes des Fahrzeuginnenraums; Vergleichen des Live-Bildes mit einem ideal ausgerichteten Bild des Fahrzeuginnenraums, um eine Homographiematrix zu erzeugen; Bestimmen der Unterschiede zwischen dem Live-Bild und dem ideal ausgerichteten Bild in mindestens einem Freiheitsgrad von der Homographiematrix; und Einstellen von mindestens einer der Position und Orientierung der Kamera, basierend auf dem mindestens einen Freiheitsgradunterschied.
  12. Verfahren nach einem der vorherigen Ansprüche, wobei der mindestens eine Freiheitsgradunterschied die Translation und/oder die Rotation des Live-Bildes relativ zum ideal ausgerichteten Bild umfasst.
  13. Verfahren nach Anspruch 11 oder 12, wobei der Schritt des Vergleichens des Live-Bildes mit dem ideal ausgerichteten Bild einen Bildabgleich des Live-Bildes mit dem ideal ausgerichteten Bild umfasst.
  14. Verfahren nach einem der Ansprüche 11 bis 13, wobei jeder der mindestens einen Freiheitsgradunterschiede einen zugehörigen Schwellenwertbereich aufweist, wobei die mindestens eine Position und Orientierung der Kamera nur dann eingestellt wird, wenn der Freiheitsgradunterschied außerhalb des zugehörigen Schwellenwertbereichs liegt.
DE102020215651.4A 2019-12-19 2020-12-10 Fahrzeugsichtsystem Pending DE102020215651A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/720,053 US11928789B2 (en) 2019-12-19 2019-12-19 Vehicle vision system
US16/720,053 2019-12-19

Publications (1)

Publication Number Publication Date
DE102020215651A1 true DE102020215651A1 (de) 2021-06-24

Family

ID=76206416

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020215651.4A Pending DE102020215651A1 (de) 2019-12-19 2020-12-10 Fahrzeugsichtsystem

Country Status (3)

Country Link
US (2) US11928789B2 (de)
CN (1) CN113011240A (de)
DE (1) DE102020215651A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11538192B1 (en) * 2021-08-10 2022-12-27 Fotonation Limited Method for calibrating a vehicle cabin camera

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7734061B2 (en) 1995-06-07 2010-06-08 Automotive Technologies International, Inc. Optical occupant sensing techniques
US6266442B1 (en) 1998-10-23 2001-07-24 Facet Technology Corp. Method and apparatus for identifying objects depicted in a videostream
US6792339B2 (en) 2002-02-19 2004-09-14 International Business Machines Corporation Artificial passenger with condition sensors
US9210312B2 (en) * 2004-06-02 2015-12-08 Bosch Security Systems, Inc. Virtual mask for use in autotracking video camera images
US7356425B2 (en) 2005-03-14 2008-04-08 Ge Security, Inc. Method and system for camera autocalibration
ATE497679T1 (de) 2007-02-19 2011-02-15 Axis Ab Verfahren zur korrektur von hardware- fehlausrichtungen bei einer kamera
EP2164043A1 (de) 2008-09-12 2010-03-17 March Networks Corporation Videokamera-Kalibrierung und Perspektivberechnung
EP3100206B1 (de) 2014-01-30 2020-09-09 Mobileye Vision Technologies Ltd. Systeme und verfahren zur detektion des endes einer fahrspur
US20160272114A1 (en) 2014-06-24 2016-09-22 David Larry Medina (macss system) medina alert child safety system
US10115029B1 (en) 2015-10-13 2018-10-30 Ambarella, Inc. Automobile video camera for the detection of children, people or pets left in a vehicle
US10946716B2 (en) 2016-02-21 2021-03-16 Eric Ireri Vehicle temperature sensor systems
WO2018000038A1 (en) 2016-06-29 2018-01-04 Seeing Machines Limited System and method for identifying a camera pose of a forward facing camera in a vehicle
US9847004B1 (en) 2016-09-02 2017-12-19 Atieva, Inc. Vehicle child detection and response system
BR112019019060B1 (pt) * 2017-03-17 2021-01-19 Unity IPR ApS método e sistema para colisão de câmera automatizada e preservação de composição
US10252688B2 (en) 2017-03-22 2019-04-09 Ford Global Technologies, Llc Monitoring a vehicle cabin
US10636276B2 (en) 2017-08-17 2020-04-28 Manish Desai Cabin activity detection device
JP6954164B2 (ja) 2018-02-09 2021-10-27 トヨタ自動車株式会社 車内状況報知システム
US10540554B2 (en) 2018-03-29 2020-01-21 Toyota Jidosha Kabushiki Kaisha Real-time detection of traffic situation
KR102267184B1 (ko) * 2019-08-20 2021-06-21 엘지전자 주식회사 물건 낙하 감지 장치 및 방법
US11109152B2 (en) 2019-10-28 2021-08-31 Ambarella International Lp Optimize the audio capture during conference call in cars

Also Published As

Publication number Publication date
CN113011240A (zh) 2021-06-22
US20240078632A1 (en) 2024-03-07
US11928789B2 (en) 2024-03-12
US20210192257A1 (en) 2021-06-24

Similar Documents

Publication Publication Date Title
DE102010004165B4 (de) Verfahren und Systeme zum Kalibrieren von Fahrzeugsichtsystemen
DE102013008451B4 (de) Fahrzeugeinparksteuerungssystem und Fahrzeugeinparksteuerungsverfahren, das dieses verwendet
DE102012223730B4 (de) Vorrichtung und verfahren zum einstellen einer parkposition auf basis eines av-bildes
EP3157786B1 (de) Fahrzeug mit umfeldüberwachungseinrichtung sowie verfahren zum betreiben einer solchen überwachungseinrichtung
DE102018101542A1 (de) Bordanzeigevorrichtung, Steuerverfahren für Bordanzeigevorrichtung und Steuerprogramm für Bordanzeigevorrichtung
DE102018100406A1 (de) Bildanzeigevorrichtung
DE102014116199B4 (de) Bildverzerrungs-Kompensationsvorrichtung und Betriebsverfahren dafür
DE102016220075A1 (de) Kraftfahrzeug und Verfahren zur 360°-Umfelderfassung
DE102010030044A1 (de) Wiederherstellvorrichtung für durch Wettereinflüsse verschlechterte Bilder und Fahrerunterstützungssystem hiermit
WO2007033870A1 (de) Verfahren und fahrerassistenzsystem zur sensorbasierten anfahrtsteuerung eines kraftfahrzeugs
DE10158415A1 (de) Verfahren zur Überwachung des Innenraums eines Fahrzeugs, sowie ein Fahrzeug mit mindestens einer Kamera im Fahrzeuginnenraum
EP2888715B1 (de) Verfahren und vorrichtung zum betreiben eines fahrzeugs
DE102013211876A1 (de) Verfahren zum Überprüfen der Einstellung eines Scheinwerfers in einem Kraftfahrzeug
DE102017223160A1 (de) Verfahren zum Erkennen von zumindest einem an einem Kraftfahrzeug anliegenden Objekt sowie Steuervorrichtung und Kraftfahrzeug
DE102013103953B4 (de) Spurerkennung bei voller Fahrt unter Verwendung mehrerer Kameras
DE102008046545A1 (de) Verfahren und Vorrichtung zur Kalibrierung einer Anordnung zur Überwachung einer Umgebung eines Fahrzeugs
DE102020215651A1 (de) Fahrzeugsichtsystem
DE102014201409B4 (de) Parkplatz - trackinggerät und verfahren desselben
DE102018206751A1 (de) Konturerkennung eines fahrzeugs anhand von messdaten einer umfeldsensorik
DE102008041761A1 (de) Verfahren und Vorrichtung zur Ermittlung eines relativen Gierwinkels
EP3073446A1 (de) Verfahren zum darstellen einer fahrzeugumgebung eines fahrzeuges
WO2002050770A1 (de) Verfahren und vorrichtung zum kompensieren einer dejustage einer bilderzeugungsvorrichtung
DE102017210415B4 (de) Verfahren zum Bereitstellen einer Bildmaske für die Abgrenzung einer Interessensregion in einem Kamerabild einer Umfeldkamera eines Kraftfahrzeugs sowie Steuervorrichtung, Umfeldkamera und Kraftfahrzeug
DE102021101593B3 (de) Verfahren zum Betrieb von Umfeldsensoren in einem Kraftfahrzeug und Kraftfahrzeug
DE112017007812T5 (de) Fahrzeugperipheriebildanzeigevorrichtung und Fahrzeugperipheriebildanzeigeverfahren

Legal Events

Date Code Title Description
R163 Identified publications notified
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R082 Change of representative

Representative=s name: EGE LEE & ROIDER PATENTANWAELTE PARTGMBB, DE