DE102020106524A1 - Photometrische stereo-objektdetektion für in einem autonomen fahrzeug vergessene artikel - Google Patents

Photometrische stereo-objektdetektion für in einem autonomen fahrzeug vergessene artikel Download PDF

Info

Publication number
DE102020106524A1
DE102020106524A1 DE102020106524.8A DE102020106524A DE102020106524A1 DE 102020106524 A1 DE102020106524 A1 DE 102020106524A1 DE 102020106524 A DE102020106524 A DE 102020106524A DE 102020106524 A1 DE102020106524 A1 DE 102020106524A1
Authority
DE
Germany
Prior art keywords
vehicle
images
map
normal
target area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020106524.8A
Other languages
English (en)
Inventor
David M. Herman
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102020106524A1 publication Critical patent/DE102020106524A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30112Baggage; Luggage; Suitcase
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

Diese Offenbarung stellt photometrische Stereo-Objektdetektion für in einem Fahrzeug vergessene Artikel bereit. Vergessene Artikel, die durch einen Benutzer, der ein autonomes Fahrzeug verlässt, durch Aufnehmen von Bildern, einschließlich einer Vielzahl von verschieden beleuchteten Bildern eines Zielbereichs einer Fahrgastkabine des Fahrzeugs automatisch detektiert. Eine Vielzahl von Normalenvektoren sind für wiederholte Pixel, die den Zielbereich in einem Normalenextraktor auf Grundlage der Bilder darstellen, bestimmt. Eine normalengetriebene Karte ist in einem ersten Array gespeichert, als Reaktion auf die Vielzahl von Normalenvektoren. Eine Grundlinienkarte ist in einem zweiten Array gespeichert, das aus Grundlinienbildern des Zielbereichs in einem nominellen sauberen Zustand zusammengesetzt ist. Unterschiede zwischen der normalengetriebenen Karte und der Grundlinienkarte, die ein Objekt angeben, das nicht in dem sauberen Zustand vorhanden ist, sind in einer Vergleichseinheit detektiert. Schwer zu detektierende Objekte können mit einer einzigen festen Kamera gefunden werden.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft im Allgemeinen das Inspizieren einer Fahrgastkabine eines autonomen Fahrzeugs auf vergessene Objekte und insbesondere die Bildverarbeitung zum Detektieren unerwarteter Objekte ohne teure oder komplizierte Ausrüstung.
  • ALLGEMEINER STAND DER TECHNIK
  • Es werden autonome Fahrzeuge verfügbar, die eine Reihe von Sensoren und Steuerlogiken beinhalten, die eine fahrerlose Navigation mit Identifizierung und Vermeidung von Hindernissen entlang einer Route ermöglichen. Eine Anwendung autonomer Fahrzeuge ist die Verwendung als Taxis, die einen Fahrgast bei Bedarf abholen können.
  • Fahrgäste lassen oft Gegenstände in Fahrzeugen zurück. Während dies in der Regel kein Problem ist, wenn ein Passagier einen Gegenstand in seinem eigenen Auto zurücklässt, kann das Zurücklassen eines Gegenstands in einem Ride-Sharing-Fahrzeug, einem Ride-Hailing-Fahrzeug oder einem Taxi unpraktisch sein. Das Problem wird durch autonome Fahrzeuge verschärft, da kein Fahrer bestätigen kann, dass ein vorheriger Fahrgast seine persönlichen Gegenstände mitgenommen hat, als der Fahrgast aus dem Fahrzeug ausgestiegen ist. Darüber hinaus kann sich in einem Szenario eines autonomen Taxis ein nachfolgender Fahrgast beschweren, wenn das autonome Fahrzeug mit Gegenständen übersät ist, die einem früheren Fahrgast gehören.
  • Eine Vielzahl von Objekten kann in einem Fahrzeug zurückgelassen werden (wie etwa Müll, Laptops, Rucksäcke, Geldbörsen und Mobiltelefone). Zum Detektieren derartiger Objekte können nach innen gewandte Kameras verwendet werden, um den Innenraum vor und nach der Benutzung des Fahrzeugs durch einen Fahrgast abzubilden. Bekannte Verfahren zur Objekterkennung unter Verwendung eines einzelnen Bilds können jedoch nicht ausreichend genau und zuverlässig sein, wie etwa wenn die Farbe/Reflektivität des Fahrzeuginnenraums und des vergessenen Objekts ähnlich sind. Zum Beispiel kann ein schwarzer Laptop auf einem schwarzen Ledersitz zurückgelassen werden. Es ist wahrscheinlich, dass die Objekterkennung mit einem einzelnen Bild den Laptop nicht erkennt. Um Objekte unter derartigen Umständen zu detektieren, wurden teurere Hardwarelösungen in Betracht gezogen, um die visuell ähnlichen Objekte zu detektieren, wie etwa Verwenden von mehreren überlappenden Kameraansichten oder Verwenden von Laufzeitkameras (time of flight -TOF-Kameras), um die subtilen Änderungen der 3D-Form zu detektieren. Während diese Lösungen technisch machbar sein können, würden sie teurere Hardware und/oder zusätzliche Hardware erfordern. Es wäre sehr wünschenswert, eine Objektdetektion unter Verwendung kostengünstiger Hardware mit wenigen hinzugefügten Komponenten, einschließlich Kameras oder Lichtquellen, für Bildgebungszwecke bereitzustellen (z. B. indem die Objektbeleuchtung auf Änderungen der Umgebungslichtbedingungen wie etwa der Richtung der Außenbeleuchtung beruht).
  • KURZDARSTELLUNG DER ERFINDUNG
  • In einem Aspekt der Erfindung detektiert ein autonomes Fahrzeug automatisch einen vergessenen Artikel, der von einem Benutzer zurückgelassen wird, der das Fahrzeug verlässt. Eine Kamera nimmt Bilddaten auf, die mehrere Bilder einer Vielzahl von verschieden beleuchteten Bildern eines Zielbereichs innerhalb einer Fahrgastkabine des Fahrzeugs beinhaltet. Ein normaler Extraktor empfängt die Bilder, um eine Vielzahl von Normalenvektoren für jeweilige Pixel zu bestimmen, die den Zielbereich darstellen. Ein erstes Array speichert eine normalengetriebene Karte als Reaktion auf die Vielzahl von Normalenvektoren. Ein zweites Array speichert eine Grundlinienkarte, die aus Grundlinienbildern des Zielbereichs in einem nominellen sauberen Zustand zusammengesetzt ist. Eine Vergleichseinrichtung ist an die Arrays gekoppelt, um Unterschiede zwischen der normalengetriebenen Karte und der Grundlinienkarte zu detektieren, die ein Objekt angeben, das nicht in dem sauberen Zustand vorhanden ist.
  • Wie hierin verwendet, bezieht sich „normalengetrieben“ auf jede Bildverarbeitung, die auf photometrischen Stereotechniken beruht, die Objektbildeigenschaften wie Oberflächennormalen, Oberflächen-Albedo, Reflexionsgrad, Oberflächenrauheit, Oberflächentiefe (d. h. Abstand) von der Kamera und Objektvoxelbelegung extrahieren kann.
  • Figurenliste
    • 1 ist ein Diagramm, das ein autonomes Fahrzeug einer Art zeigt, die in einer Ride-Sharing-Anwendung verwendet werden soll.
    • 2 ist ein Blockdiagramm eines autonomen Fahrzeugs und eines Ride-Sharing-Systems im Detail.
    • 3 ist ein Diagramm, das ein autonomes Fahrzeug zeigt, das einen Artikel enthält, der von einem Benutzer vergessen wurde und der automatisch als ein 3D-Objekt detektiert werden muss, das von einem sauberen Zustand der Fahrgastkabine unterscheidbar ist.
    • 4 ist ein Ablaufdiagram, das ein bevorzugtes Verfahren der Erfindung zeigt.
    • 5 ist ein Blockdiagramm einer Fahrzeugvorrichtung, die zum Durchführen des Verfahrens aus 4 angepasst ist.
    • 6 ist ein schematisches Diagramm, das eine Anordnung von Beleuchtungsquellen, einer Kamera und Umgebungslichtsensoren zum Erlangen der verschiedenen Beleuchtungsbedingungen gemäß einer Ausführungsform der Erfindung zeigt.
    • 7 ist eine perspektivische Ansicht, die die verschiedene Beleuchtung eines zu detektierenden Objekts zeigt.
    • 8 ist ein Diagramm, das Flächennormalen einer flachen Fahrzeugfläche zeigt.
    • 9 ist ein Diagramm, das Flächennormalen eines vergessenen Objekts zeigt, das auf der Fläche aus 8 verbleibt.
    • 10 ist ein Diagramm, das Flächennormalen eines flachen, dünnen Objekts zeigt, das auf einer flachen Fläche liegt.
    • 11 zeigt ein Array (oder einen Abschnitt eines Arrays) zum Speichern einer Karte gemäß einer bevorzugten Ausführungsform, wobei jede Zelle des Arrays vielfältige mehrdimensionale normalengetriebene Werte enthalten kann.
  • DETAILLIERTE BESCHREIBUNG BEVORZUGTER AUSFÜHRUNGSFORMEN
  • Unter Bezugnahme auf 1 weist ein autonomes Fahrzeug 10 eine Fahrgastkabine 11 mit Fahrgastsitzen 12 auf. Ein Fahrzeugantriebsstrang 13 treibt die Fahrt des Fahrzeugs 10 an und steuert sie. Ein autonomes Fahrzeug-(autonomous vehicle - AV- )Steuersystem 14 ist mit dem Antriebsstrang 13 und einer Benutzerschnittstelle 15 verbunden. Das AV-System 14 kann ferner eine Schnittstelle mit einem entfernten Systemverwalter oder einer Zuteilungssteuerung (nicht gezeigt) bilden. Durch die Interaktion mit der Zuteilungssteuerung und der Benutzerschnittstelle 15 kann ein Benutzer Zugang zum Fahrzeug 10 erlangen, ein/e Ziel/auszuführende Route bestimmen, eine Zahlung für die Nutzung eingeben und andere Funktionen durchführen. Sobald eine Fahrt beendet ist und der Benutzer das Fahrzeug 10 verlässt oder dieses verlassen hat, ist es erwünscht, die Sitze 12, die Böden, die Konsole und andere Bereiche der Kabine 11 einschließlich eines Laderaums nach Gegenständen abzusuchen, die vom Benutzer in das Fahrzeug 10 gebracht wurden und die nicht entfernt werden, wenn der Benutzer das Fahrzeug verlässt.
  • Ein autonomes Fahrzeugsystem ist detaillierter in 2 gezeigt. Eine AV-Steuerung 20 ist gezeigt, um eine autonome Navigation und Kollisionsvermeidung durchzuführen und vergessene Objekte zu detektieren und reagierende Maßnahmen zu ergreifen, wenn ein derartiges Objekt wie hierin beschrieben entdeckt wird. Die Steuerung 20 ist an verschiedene Innenzubehörteile 21 und Außensensoren 22 gekoppelt. Zum Beispiel beinhalten die Außensensoren 22 eine oder mehrere Kameras, die Bildströme bereitstellen, und ein oder mehrere Mikrofone, die Audioströme für die Steuerung 20 bereitstellen. Außensensoren 22 können ferner Sensoren wie etwa RADAR (Radio Detection and Ranging), LIDAR (Light Detection and Ranging), SONAR (Sound Navigation und Ranging) und dergleichen beinhalten.
  • Die Steuerung 20 beinhaltet ein autonomes Betriebsmodul 23, das teilweise unter Verwendung von Ausgaben von Außensensoren 22 arbeitet. Zu einem Modul für den autonomen Betrieb 23 können ein Hindernisidentifikationsmodul, ein Kollisionsvorhersagemodul und ein Entscheidungsmodul gehören. Das Hindernisidentifikationsmodul analysiert die Sensorausgänge und identifiziert mögliche Hindernisse. Das Kollisionsvorhersagemodul sagt vorher, welche Hindernisbilder wahrscheinlich mit einem gegenwärtigen Kurs oder gegenwärtig beabsichtigten Weg des Fahrzeugs 10 übereinstimmen könnten. Das Kollisionsvorhersagemodul kann die Wahrscheinlichkeit einer Kollision mit durch das Hindernisidentifikationsmodul identifizierten Objekten beurteilen. Das Entscheidungsmodul kann eine Entscheidung treffen, zu stoppen, zu beschleunigen, zu drehen usw., um Hindernisse zu vermeiden, wie fachbekannt.
  • Das Entscheidungsmodul kann die Bewegungsbahn des Fahrzeugs durch Betätigen ein oder mehrerer Betätigungselemente 24 steuern, die die Richtung und die Geschwindigkeit des Fahrzeugs 10 steuern. Zum Beispiel können die Betätigungselemente 24 ein Lenkbetätigungselement, ein Gaspedalbetätigungselement und ein Bremsbetätigungselement beinhalten. Somit kann das Autonomiebetriebsmodul 23 eine autonome Navigation zu einem bestimmten Ort, ein autonomes Parken und andere im Stand der Technik bekannte automatisierte Fahraktivitäten durchführen.
  • Das Autonomiebetriebsmodul 23 kann ferner ein Innenmodul 25 beinhalten, das einen Zustand der Fahrgastzelle und der Laderäume des Fahrzeugs 10 gemäß den hierin offenbarten Verfahren bewertet. Das Innenmodul 25 empfängt Eingangssignale von einer oder mehrerer Kameras innerhalb des Innenzubehörs 21, z. B. einer Kamera für sichtbares Licht wie einer Standbild- oder Videokamera oder anderer Bildsensoren wie Infrarotkameras und Sonar. Jede Kamera kann einen bestimmten Zielbereich oder ein bestimmtes Sichtfeld innerhalb der Fahrgastkabine oder der Laderäume aufweisen. Wie in 3 gezeigt, sind die Kameras 26 und 27 in der Kabine 11 positioniert und ausgerichtet, um Sitzplätze und andere Flächen zu betrachten, auf denen ein vergessenes Objekt 28 vorhanden sein kann.
  • Wie in 2 gezeigt, kann die Steuerung 20 mittels eines Netzwerks 31, das eine beliebige drahtgebundene oder drahtlose Netzwerkverbindung, einschließlich einer Mobilfunkdatennetzwerkverbindung, beinhalten kann, in Datenkommunikation mit einem Server 30 stehen. Die hier offenbarten Verfahren können durch den Server 30, die Steuerung 20 oder eine Kombination der beiden umgesetzt sein.
  • Das Serversystem 30 kann eine Datenbank 32 hosten oder auf diese zugreifen. Die Datenbank 32 kann Fahrtdaten beinhalten, die für jede von dem autonomen Fahrzeug 10 durchgeführte Fahrt aufgenommen wurden (d. h. für jedes Ereignis, bei dem das Fahrzeug 10 zu einem Abholort navigiert, um einen oder mehrere Fahrgäste abzuholen, und die Fahrgäste dann an einem Zielort abzusetzen). Die Fahrtdaten können eine Bewertung des Innenraums beinhalten um die Bereitschaft für einen nächsten Benutzer sicherzustellen und/oder um Kosten anzusetzen oder eine Benachrichtigung oder Zurechtweisung zu erteilen, falls der vorherige Benutzer persönliche Gegenstände oder Müll zurücklässt.
  • Um eine geeignete Antwort je nach der spezifischen Identität des oder der vergessenen Objekte auszuwählen, kann die Datenbank 32 ein maschinelles Lernmodell beinhalten, das zum Identifizieren und Klassifizieren von Objekten unter Verwendung eines neuronalen Netzwerks, eines Entscheidungsbaums, eines Clusters, eines Bayes'schen Netzwerks oder einer anderen Art des maschinellen Lernmodells trainiert ist.
  • Im Stand der Technik wurde die Objektdetektion und -klassifizierung unter Verwendung einer oder mehrerer Kameras durchgeführt, um Bilder zu erlangen, die ein erkennbares Objekt beinhalten können. Die Detektion kann für einige Arten von Objekten recht einfach sein, wie etwa für große Objekte, deren Farbe sich deutlich vom Hintergrund unterscheidet. Bei vielen Arten von Objekten, die in der Fahrgastkabine vorhanden sein können, können jedoch bekannte Detektionsverfahren auf Grundlage der Bildinspektion häufig erfolglos sein (wie etwa ein dünnes Objekt mit Kontrast zu der Umgebung wie ein Tablet oder ein Mobiltelefon). Zum Beispiel können Stereokameradisparitätsmessungen (d. h. unter Verwendung von zwei getrennten Kameras) in derartigen Fällen aufgrund des Fehlens von Merkmalspunkten, um Abgleiche zwischen den beiden Bildern durchzuführen, verrauscht sein. Um eine erhöhte Fähigkeit zum Detektieren derartiger Objekte bereitzustellen, verwendet die Erfindung photometrische Techniken, wie nachstehend beschrieben. Vorzugsweise kann eine feststehende Kamera verwendet werden, um eine Reihe von Bildern bereitzustellen, die mit unterschiedlichen Beleuchtungseigenschaften aufgenommen wurden, wobei die Bilder auf eine Weise verarbeitet sind, die tiefenbezogene Informationen freigibt, die als Grundlage für die Detektion von Objekten dienen, die ansonsten schwer zu detektieren sind. Zum Erlangen der verschieden beleuchteten Bilder ist die Steuerung 20 an ein Beleuchtungssystem 33 im Zubehör 21 gekoppelt, das eine Vielzahl von Lichtquellen an verschiedenen Stellen innerhalb der Fahrgastkabine aufweist. Wie nachstehend ausführlicher beschrieben, analysiert die Steuerung 20 das Umgebungslicht, das die Fahrgastkabine beleuchtet, und wählt dann mehrere Beleuchtungskonfigurationen zum Aufnehmen der zu verarbeitenden Bilder unter Verwendung photometrischer Techniken aus.
  • Innenzubehör 21 beinhaltet ein Mensch-Maschine-Schnittstelle (human machine interface - HMI) 34, die eine grafische Anzeigetafel, Audiolautsprecher, und/oder Innen- und Außenbeleuchtung zum Bereitstellen von Nachrichten (z. B. Text, synthetisierte Sprache oder blinkende Lichter) beinhalten kann, um einen Benutzer über ein vergessenes Objekt zu informieren. Ein drahtloser Sendeempfänger 35 kann auch bereitgestellt sein, um dem Benutzer nach dem Verlassen des Fahrzeugs 10 Nachrichten zuzustellen.
  • Ein bevorzugtes Verfahren der Erfindung ist in 4 gezeigt. Wenn ein Benutzer (d. h. ein Fahrzeuginsasse) das Fahrzeug zu verlassen beginnt oder verlassen hat, kann in Schritt 40 eine Erstdurchlauf-Objektdetektion durchgeführt werden. Das Erstdurchlauf-Detektion kann ein bekanntes Verfahren verwenden, das weniger robust, aber schneller durchzuführen ist, um nach leicht erkennbaren Objekten zu suchen. Zum Beispiel kann ein großer Rucksack oder Koffer mit einer stark kontrastierenden Farbe oder einem starken Reflexionsvermögen detektiert werden, ohne dass eine spezielle Bildgebungssequenz erforderlich ist. In einigen Ausführungsformen kann, wann immer ein einzelnes Objekt detektiert wird, eine weitere Detektion übersprungen werden, da die Notwendigkeit, den Benutzer zu warnen, bereits identifiziert wurde. In Schritt 41 wird eine Prüfung durchgeführt, um zu bestimmen, ob ein zusätzliches Scannen erforderlich ist. Wenn die Erstdurchlauf-Detektion bereits vergessene Objekte anzeigt und kein weiteres Scannen erwünscht ist, ist das Verfahren abgeschlossen. Wenn in der Erstdurchlauf-Detektion keine Objekte detektiert sind oder es zusätzliche Zielbereiche innerhalb der Fahrgastkabine gibt, für die keine Objekte detektiert wurden, und gewünscht wird, festzustellen, ob zusätzliche Objekte vorhanden sind, geht das Verfahren zu Schritt 42 weiter.
  • In Schritt 42 wird eine photometrische Stereobildanalyse eingeleitet, indem die Beleuchtungsvorrichtungen, die den Zielbereich bzw. die Zielbereiche beleuchten, auf eine Weise gesteuert werden, die eine verschiedene Beleuchtung für jeweilige Bilder innerhalb einer Reihe von Bildern erzeugt, wie sie für die photometrische Stereoflächenbewertung verwendet werden. Das verschieden beleuchteten Bilder werden gemäß Reflexionsmodellen verarbeitet, die Oberflächeneigenschaften von Objekten aus Transformationen von Bildintensitäten abschätzen, die sich aus Beleuchtungsänderungen ergeben, z. B. aus der Bestimmung der Richtung von Flächennormalen an entsprechenden Pixeln innerhalb der Bildserie. In Schritt 42 werden auch Bildeigenschaften wie die Beleuchtungszeit oder andere Parameter für die Bilder gesteuert. In Schritt 43 werden mehrere Bilder der Zielbereiche aufgenommen, für die zusätzliches Scannen erforderlich ist, wobei jedes Bild eine entsprechende Beleuchtungskonfiguration verwendet. Unter Verwendung der photometrischen Stereobildanalyse wird eine „normalengetriebene“ Karte in Schritt 44 erzeugt. Die normalengetriebene Karte kann aus tatsächlichen Flächennormalen oder Albedos bestehen oder kann auf einer weiteren Verarbeitung beruhen, um i) die Tiefe (d. h. den Abstand) von der Abbildungskamera zu dem Objekt bei jedem Pixel in dem Bild, oder ii) einen dreidimensionalen Voxelbelegungsplan zu bestimmen.
  • Konkreter kann eine erste Ausführungsform der normalengetriebenen Karte Vektorwerte beinhalten, die jeweilige Orientierungen von Flächennormalenvektoren angeben, die für jedes Pixel innerhalb des Zielbereichs berechnet werden. Jeder normale Vektor kann aus numerischen Werten bestehen, die den Vektor definieren, oder kann aus anderen mehrdimensionalen Werten wie Farbton und Helligkeit für die Darstellung von einem dreidimensionalen Objekt bestehen. In einer zweiten Ausführungsform kann die normalengetriebene Karte aus Tiefenwerten für jedes Pixel bestehen, wobei Unterschiede zwischen Tiefenwerten an verschiedenen Orten einen Umriss eines vergessenen Objekts identifizieren. In einer anderen Ausführungsform kann die normalengetriebene Karte aus einem dreidimensionalen Datensatz bestehen, wobei jedes Element im Datensatz aus Voxelbelegungswerten besteht. Jedes Voxel kann zwei numerische Werte aufweisen, die entweder jeweils das Vorhandensein oder das Fehlen eines Objekts am entsprechenden Voxel identifizieren.
  • Die Steuerung ist mit einer Grundlinienkarte vorprogrammiert, die aus Bildern zusammengestellt wurde, die zu einem Zeitpunkt gesammelt wurden, an dem sich die Fahrgastkabine in einem sauberen Zustand (d. h. ohne Fremdkörper) befand, unter Verwendung derselben Art von normalengetriebener Karte, die während des Fahrzeugbetriebs gesammelt werden soll. Der abgeleitete normalengetriebene Karte wird in Schritt 45 mit der Grundlinienkarte verglichen, um alle vergessenen Objekte zu detektieren, die vorhanden sein können. In Schritt 46 werden alle detektierten Objekte gemäß einer Vielzahl von vorbestimmten Objektklassifizierungen klassifiziert. Zum Beispiel, unter Verwendung der Form, Tiefe oder anderer Oberflächeneigenschaften eines detektierten Objekts, weist ein Klassifizierer, der auf die detektierten Unterschiede zwischen der normalengetriebenen und Grundlinienkarte reagiert, dem Objekt eine der vorbestimmten Objektklassifizierungen zu. Auf Grundlage der zugewiesenen Klassifizierung wird in Schritt 47 eine vorbestimmte Handlung ausgewählt, um den Benutzer zu benachrichtigen oder auf andere Weise Korrekturmaßnahmen zu ergreifen, wie zum Beispiel das Fahrzeug zu einer Reinigungsstation zu bewegen.
  • Typischerweise erfordern die photometrischen Standardansätze drei verschieden beleuchtete Bilder. Auf Grundlage von bekannten photometrischen Stereoansätzen kann die Flächennormale bestimmt werden. Bei niedrigeren Umgebungsbeleuchtungsniveaus kann die Innenraumbeleuchtung für jedes Bild in einer Reihe individuell gesteuert werden, um alle Innenraumobjekte während jedes von einer oder mehreren Kameras aufgenommenen Bilds verschieden zu beleuchten.
    Bei mäßigen Lichtverhältnissen mit einer oder mehreren vorherrschenden Lichtquellen (z. B. Dämmerung oder Morgendämmerung, wenn das Umgebungslicht eher von einer einzigen Quelle als von der gesamten Himmelskuppel ausgeht). Zur Ermittlung der Umgebungslichtverhältnisse setzt das Fahrzeug vielfältige Sensoren wie Fotodetektoren und Kameras ein. Zum Beispiel können Außen- und/oder Innenbilder aufgenommen werden, um die äußeren Beleuchtungsbedingungen zu verstehen, wodurch ein Beleuchtungsursprung zum Berechnen der photometrischen Stereolösung für die Flächennormalen bestimmt wird. Der Sonnenstandort kann auch mithilfe eines Navigationssystems (GPS) bestimmt werden, um den Standort und die Ausrichtung des Fahrzeugs zusammen mit einer Sonnen-Ephemeride zu bestimmen. Bekannte Verfahren für die photometrischen Stereoberechnungen beinhalten Yu et al., Outdoor Photometrie Stereo, Computational Photography (ICCP), 2013 IEEE International Conference, 2013, und eine Technik, die mehrfarbige Lichtquellen verwendet, in Christensen et al, Three-dimensional Shape From Color Photometrie Stereo, International Journal of Computer Vision, 13.2 (1994): 213-227. Das Innere der Fahrgastkabine kann Schatten ausgesetzt sein, die auf ein Objekt fallen und die photometrischen Stereoberechnungen beeinflussen können. Die Bewertung der Flächennormalen in Gegenwart von Schatten kann wie bei Chandraker et al. ShadowCuts: Photometrie Stereo With Shadows, Computer Vision and Pattern Recognition, CVPR'07, IEEE Conference, 2007, beschrieben, ausgeführt werden. Zusätzliche Details in Bezug auf die Verwendung von photometrischem Stereo sind in Ackermann et al, A Survey ofPhotometrie Stereo Techniques, Foundations and Trends in Computer Graphics and Vision, 9.3-4 (2015), pp. 149-254, und in Basri et al, Photometrie Stereo with General, Unknown Lighting, International Journal of Computer Vision 72.3, (2007), pp 239-257, offenbart.
  • Normalengetriebene Karten für den nominellen Zustand und den Zustand nach dem Fahrgast werden verglichen, um etwaige Unstimmigkeiten festzustellen. Wie vorstehend erwähnt, können die Flächennormalenkarten wahlweise in eine Tiefenkarte oder eine Voxelbelegungskarte umgewandelt werden. Unabhängig von der spezifischen Darstellung werden die beiden Karten verglichen, um signifikante Unterschiede über einem nominellen Rauschpegel zu bestimmen, der dem jeweiligen photometrischen Ansatz eigen ist. Zum Beispiel kann ein Tiefenkartenvergleich einen Fehler von ±3 mm Standardabweichung pro Pixel aufweisen. Daher würde das Vorhandensein mehrerer Pixel, die >10 mm höher als das umgebende Material und/oder die nominelle Tiefenkarte sind, ein Objekt an diesem Ort angeben. Die Oberflächennormale, Tiefenkarte oder Voxeldarstellungsdiskrepanz (z. B. eine Gruppe von Pixeln mit einer höheren als der nominellen Flächenhöhe aufgrund eines Objekts auf dem/der Sitz/Boden/Verkleidung der Kabine) kann verwendet werden, um das Objekt anhand von Abmessungen oder Flächennormalen zu klassifizieren. Zum Beispiel kann ein Buch ungefähr rechteckig sein und eine 3D-Größe innerhalb eines bestimmten Bereichs haben. In einem anderen Fall wäre eine Wasserflaschentiefenkarte oder -flächennormalenkarte, wenn sie auf dem Boden der Kabine sitzt, ziemlich eindeutig und leicht zu klassifizieren. Die Klassifizierungsverfahren, die verwendet werden können, beinhalten ein Template-Matching-Verfahren, eine Kaskade schwacher Computervisionsklassifizierer, wenn die Karte mithilfe einer Lookup-Tabelle in ein Bild konvertiert wird, oder ein Klassifizierer, der auf einem neuronalen Netzwerk beruht.
  • Nach der Detektion und Klassifizierung können die vom Fahrzeug ergriffenen Korrekturmaßnahmen auf einer bestimmten Geschäftslogik beruhen. Wenn zum Beispiel ein großes Objekt in der Kabine zurückgelassen wird, wie etwa ein Rucksack, kann der frühere Fahrgast über ein verlorenes Objekt informiert werden, um ein Treffen zwischen dem ursprünglichen Fahrzeug und dem vorherigen Fahrer zu planen. In anderen Fällen, wenn Müll (z. B. eine Wasserflasche) in der Kabine gelassen wird, kann der Benutzer gewarnt oder mit einem Bußgeld belegt werden, weil er Müll im Fahrzeug gelassen hat. Die Erfindung könnte auch während des Fahrzeugbetriebs verwendet werden, um einen Benutzer über Artikel zu warnen, die während des Ausstiegs entfernt werden müssen.
  • 5 zeigt eine bevorzugte Steuerungsarchitektur gemäß der Erfindung, wobei ein Beleuchtungsanalysator 50 Umgebungslichtbedingungen detektiert und mehrere Beleuchtungskonfigurationen bestimmt, die von Lichtquellen in der Fahrgastkabine zu erzeugen sind, um mehrere verschieden beleuchtete Zielbilder abzuleiten, die in eine photometrische Stereoanalyse eingegeben werden können. Die Quantifizierung der Umgebungslichtbedingungen wird als Reaktion auf Bilddaten 53 von einer Kamera 52 und Daten von anderen Sensoren wie etwa Außenkameras und/oder Fotodetektoren bestimmt. Auf Grundlage der ausgewählten Beleuchtungskonfigurationen befiehlt der Analysator 50 den Innenraumbeleuchtungen 51, sich selektiv in Abstimmung mit an die Kamera 52 gesendeten Signalen ein- und auszuschalten oder die mehreren verschieden beleuchteten Bilder eines Zielbereichs innerhalb eines Sichtfelds der Kamera 52 aufzunehmen. Durch die Aufnahme mehrerer Bilder mit unterschiedlichen Beleuchtungseigenschaften, können tiefenbezogenen Informationen unter Verwendung von nur einer festen Kamera abgerufen werden. Somit wird die Objektdetektion ohne zusätzliche Hardware verbessert.
  • Die detektierten Bilddaten, die die Vielzahl von verschieden beleuchteten Bildern des Zielbereichs beinhalten, werden einem normalen Extraktor 54 zugeführt, der die bekannten Verfahren auf Grundlage der Variabilität des Reflexionsvermögens an jedem Pixel anwendet, das ein dreidimensionales Objekt abdeckt, um übereinstimmende Normalenvektoren, die die Flächennormalen an jedem Pixel in den Bildern quantifizieren, zu bestimmen. Die Normalenvektoren werden einem Kartengenerator 55 zugeführt, der vorzugsweise ein Array zum Speichern von einer normalengetriebenen Karte als zweidimensionale oder dreidimensionale Matrix beinhaltet. Das Array beinhaltet entsprechende Vektorwerte, Tiefenwerte oder Voxelbelegungswerte, wie vorstehend beschrieben. Eine Grundlinienkarte 56 beinhaltet gleichermaßen ein Array zum Speichern der Grundlinienkarte, die zuvor aus den Grundlinienbildern des Zielbereichs in einem nominellen sauberen Zustand zusammengesetzt ist. Die Karten von den Arrays werden in einem Komparator 57 verglichen, der Unterschiede zwischen den Karten detektiert, um alle Objekte freizulegen, die nicht im sauberen Zustand vorhanden waren. Die detektierten Unterschiede werden von dem Komparator 57 einem Klassifizierer 58 bereitgestellt, der im Voraus dazu trainiert wurde, auf die Formen zu reagieren, die durch die detektierten Unterschiede angezeigt werden. Der Klassifizierer 58 ordnet jedem vergessenen Objekt, das durch die detektierten Unterschiede freigelegt wird, eine von mehreren vorbestimmten Objektklassifizierungen zu. Die zugewiesene Objektklassifizierung wird einer Interventions-/Antwortlogik 59 zum Umsetzen von Regeln bereitgestellt, die aus vorbestimmten Handlungen auswählen, die mit den verschiedenen Objektklassifikationen korrelieren. Die Antwortlogik 59 kann mit autonomen Fahrzeugsteuerungen interagieren, um das Fahrzeug zu einer Reinigungsstation zu navigieren. Alternativ kann die Antwortlogik 59 mit einer HMI (wie etwa einem Anzeigefeld, Fahrzeuglichtern oder einer Hupe) interagieren, um einen Benutzer über das Vorhandensein des vergessenen Objekts zu benachrichtigen. Alternativ kann die Antwortlogik 59 mit einer drahtlosen Kommunikationsverbindung interagieren, um eine Fernbenachrichtigung bereitzustellen, nachdem der Benutzer die Umgebung des Fahrzeugs verlassen hat.
  • 6 zeigt Aspekte der in der Erfindung verwendeten Objektbeleuchtung detaillierter. Ein Fahrzeug 60 beinhaltet eine feststehende Kamera 61 zum Bereitstellen von Inspektionsbildern, die zum Detektieren von Objekten zu einem geeigneten Zeitpunkt verwendet werden sollen. Die Beleuchtungsvorrichtungen 62, 63 und 64 sind an verschiedenen Stellen in der Fahrgastkabine angeordnet, wie etwa an unterschiedlichen Stellen auf dem Dach der Fahrgastkabine, an den Dachsäulen oder an anderen Innenverkleidungsflächen des Fahrzeugs (z. B. Türen, Armaturenbrett, oder Sitze). Ein Objekt 65 innerhalb der Fahrgastkabine kann somit aus verschiedenen Winkeln wählbar beleuchtet werden, sodass die Vielzahl von verschieden beleuchteten Bildern unter Verwendung der Kamera 61 erlangt werden können. Die Fähigkeit der verschiedenen Beleuchtungsvorrichtungen, ein Objekt unterschiedlich zu beleuchten, hängt teilweise von der Umgebungsbeleuchtung ab. Somit können die Kamera 61 und andere Sensoren wie etwa ein Fotodetektor 66 und eine Außenkamera 67 verwendet werden, um die Umgebungslichtbedingungen zu ermitteln, sodass die tatsächliche Beleuchtung des Objekts 65 während der Aktivierung jeder ausgewählten Beleuchtungskonfiguration genauer bekannt sein kann (d. h. die Summe der Umgebungsbeleuchtung und des Zusatzlichts von Beleuchtungseinrichtungen 62-64). Insbesondere kann ein geringer Sonnenwinkel detektiert werden, um die Richtwirkung des Umgebungslichts zu beurteilen. Wie in 7 gezeigt, liefert das einfallende Sonnenlicht eine gerichtete Beleuchtung des Objekts 65 auf einem Fahrzeugsitz, wenn sich die Sonne 68 in einem niedrigen Winkel befindet. Folglich können die ausgewählten Beleuchtungsbedingungen mindestens eine Konfiguration beinhalten, die sich verstärkt auf die Lichtquelle 64 oder andere Quellen stützt, die eine zum einfallenden Sonnenlicht komplementäre Beleuchtung liefern.
  • Die 8-10 zeigen Beispiele für Flächennormalen für Pixel in einem Zielbereich mit unterschiedlichen Objekten. 11 zeigt eine bevorzugte Art eines Arrays 80 zum Speichern der normalengetriebenen Karte als Reaktion auf die von dem Normalenextraktor bestimmten Normalenvektoren und zum Speichern der Grundlinienkarte. Für eine zweidimensionale Darstellung einer Karte definiert das Array 80 ein rechteckiges Gitter von Zellen entlang der senkrechten x- und y-Richtung bei einer Bildgröße von n mal m Pixel. Jede Zelle entspricht einem jeweiligen Bildpixel und speichert einen entsprechenden Vektorwert oder einen Tiefenwert. Für eine dreidimensionale Darstellung würde das Array 80 zusätzliche Zellen in der z-Richtung zum Speichern aller Voxelbelegungswerte beinhalten. In jedem Fall werden die Werte in jeder Zelle durch die Flächennormalenvektoren gesteuert, die unter Verwendung von photometrischem Stereo abgeleitet wurden. 8 zeigt eine flache, leere Fläche 70 im Zielbereich mit mehreren Flächennormalen 71, die zum Erzeugen der Grundlinienkarte verwendet werden. Während einer Inspektion nach vergessenen Objekten befindet sich eine Wasserflasche 72 auf der Fläche 70, wie in 9 gezeigt. Flächennormalen 73, die aus Bildern abgeleitet sind, die die Flasche 72 abbilden, weisen Ausrichtungen auf, die sich radikal von Normalen 71 der Grundlinienkarte unterscheiden. Ferner sind die spezifischen Ausrichtungen zwischen den Vektorwerten oder die resultierenden Tiefenwerte in der normalengetriebenen Karten ausreichend eindeutig, um eine Klassifizierung des Objekts als Wasserflasche zu ermöglichen. In 10 befindet sich ein flaches, dünnes Objekt 75 wie etwa ein Mobiltelefon oder Tablet auf der Fläche 70. Einige Flächennormalen 76 für die darunterliegende Fläche und eine obere Fläche des Objekts 75 weisen eine ähnliche Ausrichtung auf. Normale Vektoren 77 entlang sichtbarer Kanten des Objekts 75 sind jedoch deutlich unterschiedlich und ermöglichen eine zuverlässige Detektion des flachen, dünnen Objekts.
  • Gemäß einer Ausführungsform der vorliegenden Erfindung wird die Nachricht drahtlos an eine tragbare Vorrichtung des Benutzers übertragen.
  • Gemäß einer Ausführungsform der vorliegenden Erfindung wird die Nachricht als vom Fahrzeug erzeugtes sichtbares oder hörbares Signal übertragen.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung ferner gekennzeichnet durch den Schritt des Auswählens einer vorbestimmten Interventionshandlung gemäß der zugewiesenen Objektklassifizierung.
  • Gemäß einer Ausführungsform der vorliegenden Erfindung besteht die ausgewählte Handlung aus dem Senden einer Nachricht an den Benutzer, die das Vorhandensein des detektierten Objekts angibt.
  • Gemäß einer Ausführungsform der vorliegenden Erfindung besteht die übertragene Nachricht aus einem von dem Fahrzeug erzeugten sichtbaren oder hörbaren Signal.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • Yu et al., Outdoor Photometrie Stereo, Computational Photography (ICCP), 2013 IEEE International Conference, 2013 [0021]
    • Christensen et al, Three-dimensional Shape From Color Photometrie Stereo, International Journal of Computer Vision, 13.2 (1994): 213-227 [0021]
    • Computer Vision and Pattern Recognition, CVPR'07, IEEE Conference, 2007 [0021]
    • Ackermann et al, A Survey ofPhotometrie Stereo Techniques, Foundations and Trends in Computer Graphics and Vision, 9.3-4 (2015), pp. 149-254 [0021]
    • Basri et al, Photometrie Stereo with General, Unknown Lighting, International Journal of Computer Vision 72.3, (2007), pp 239-257 [0021]

Claims (15)

  1. Autonomes Fahrzeug zum automatischen Detektieren eines vergessenen Artikels, der durch einen Benutzer zurückgelassen wurde, der aus dem Fahrzeug aussteigt, das Folgendes umfasst: eine Kamera, die Bilddaten aufnimmt, einschließlich einer Vielzahl von verschieden beleuchteten Bildern eines Zielbereichs einer Fahrgastkabine des Fahrzeugs; einen Normalenextraktor, der die Bilder empfängt, um eine Vielzahl von Normalenvektoren für wiederholte Pixel zu bestimmen, die den Zielbereich darstellen; ein erstes Array, das eine normalengetriebene Karte als Reaktion auf die Vielzahl von Normalenvektoren speichert; ein zweites Array, das eine Grundlinienkarte speichert, die aus Grundlinienbildern des Zielbereichs in einem nominellen sauberen Zustand zusammengesetzt ist; und eine Vergleichseinrichtung, die an die Arrays gekoppelt ist, um Unterschiede zwischen der normalengetriebenen Karte und der Grundlinienkarte zu detektieren, die ein Objekt angeben, das nicht in dem sauberen Zustand vorhanden ist.
  2. Fahrzeug nach Anspruch 1, wobei die Arrays aus Vektorwerten bestehen, die jeweilige Ausrichtungen der jeweiligen Normalenvektoren angeben.
  3. Fahrzeug nach Anspruch 1, wobei die Arrays aus Tiefenwerten bestehen und wobei das Fahrzeug ferner einen Kartengenerator umfasst, der die Vielzahl von Normalenvektoren empfängt, um jeweilige Tiefenwerte für jedes jeweilige Pixel zu bestimmen.
  4. Fahrzeug nach Anspruch 1, wobei die Arrays aus Voxelbelegungswerten bestehen und wobei das Fahrzeug ferner einen Kartengenerator umfasst, der die Vielzahl von Normalenvektoren umfasst, um die entsprechenden Voxelbelegungswerte für einen dreidimensionalen Bereich, einschließlich des Zielbereichs, zu bestimmen.
  5. Fahrzeug nach Anspruch 1, das ferner Folgendes umfasst: eine Vielzahl von Lichtquellen an verschiedenen Stellen in der Kabine; und einen Beleuchtungsanalysator, der auf Umgebungsbeleuchtung reagiert, die die Kabine beleuchtet, um eine Vielzahl von Beleuchtungskonfigurationen auszuwählen, die jeweils von den Lichtquellen während des Aufnehmens von jedem der jeweiligen verschieden beleuchteten Bilder erzeugt werden.
  6. Fahrzeug nach Anspruch 1, das ferner einen Klassifizierer umfasst, der auf die detektierten Unterschiede reagiert, um dem Objekt eine einer Vielzahl von vorbestimmten Objektklassifizierungen zuzuweisen.
  7. Fahrzeug nach Anspruch 6, das ferner eine Interventionslogik umfasst, die eine vorbestimmte Handlung gemäß der zugewiesenen Objektklassifizierung auswählt.
  8. Fahrzeug nach Anspruch 7, wobei die vorbestimmte Handlung aus Übertragen einer Nachricht an den Benutzer besteht, die die Anwesenheit des detektierten Objekts angibt.
  9. Fahrzeug nach Anspruch 7, wobei die vorbestimmte Handlung darin besteht, das Fahrzeug autonom zu einer Reinigungsstation zu fahren.
  10. Verfahren zum automatischen Detektieren eines vergessenen Artikels, der durch einen Benutzer zurückgelassen wurde, der aus einem autonomen Fahrzeug aussteigt, das die folgenden Schritte umfasst: Aufnehmen von Bildern, einschließlich einer Vielzahl von verschieden beleuchteten Bildern eines Zielbereichs einer Fahrgastkabine des Fahrzeugs; Bestimmen einer Vielzahl von Normalenvektoren für wiederholte Pixel, die den Zielbereich in einem Normalenextraktor auf Grundlage der Bilder darstellen; Speichern einer normalengetriebenen Karte in einem ersten Array als Reaktion auf die Vielzahl von Normalenvektoren; Speichern einer Grundlinienkarte in einem zweiten Array, die aus Grundlinienbildern des Zielbereichs in einem nominellen sauberen Zustand zusammengesetzt ist; und Detektieren von Unterschieden zwischen der normalengetriebenen Karte und der Grundlinienkarte, die ein Objekt angeben, das nicht in dem sauberen Zustand vorhanden ist.
  11. Verfahren nach Anspruch 10, wobei die Karten aus Vektorwerten bestehen, die jeweilige Ausrichtungen der jeweiligen Normalenvektoren angeben.
  12. Verfahren nach Anspruch 10, wobei die Karten aus Tiefenwerten bestehen und wobei das Verfahren ferner den Schritt des Erzeugens der jeweiligen Tiefenwerte für jedes jeweilige Pixel als Reaktion auf die Vielzahl von Normalenvektoren umfasst.
  13. Verfahren nach Anspruch 10, wobei die Karten aus Voxelbelegungswerten für einen dreidimensionalen Bereich, einschließlich des Zielbereichs, bestehen und wobei das Verfahren ferner den Schritt des Erzeugens der Voxelbelegungswerte als Reaktion auf die Vielzahl von Normalenvektoren umfasst.
  14. Verfahren nach Anspruch 10, das ferner die folgenden Schritte umfasst: Analysieren der Umgebungsbeleuchtung der Kabine, um eine Vielzahl von Beleuchtungskonfigurationen zum Aufnehmen von jedem der jeweiligen verschieden beleuchteten Bilder auszuwählen; und Aktivieren einer Vielzahl von Lichtquellen an verschiedenen Stellen in der Kabine, um die ausgewählten Beleuchtungskonfigurationen zu erzeugen.
  15. Verfahren nach Anspruch 10, das ferner den Schritt des Zuweisens einer von einer Vielzahl von vorbestimmten Objektklassifizierungen an das Objekt in einem Klassifizierer als Reaktion auf die detektierten Unterschiede umfasst.
DE102020106524.8A 2019-03-12 2020-03-10 Photometrische stereo-objektdetektion für in einem autonomen fahrzeug vergessene artikel Pending DE102020106524A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/299,510 2019-03-12
US16/299,510 US11100347B2 (en) 2019-03-12 2019-03-12 Photometric stereo object detection for articles left in an autonomous vehicle

Publications (1)

Publication Number Publication Date
DE102020106524A1 true DE102020106524A1 (de) 2020-09-17

Family

ID=72241115

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020106524.8A Pending DE102020106524A1 (de) 2019-03-12 2020-03-10 Photometrische stereo-objektdetektion für in einem autonomen fahrzeug vergessene artikel

Country Status (3)

Country Link
US (1) US11100347B2 (de)
CN (1) CN111695401A (de)
DE (1) DE102020106524A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020210768A1 (de) 2020-08-25 2022-03-03 Brose Fahrzeugteile Se & Co. Kommanditgesellschaft, Bamberg Verfahren zum Betrieb eines einen Innenraum aufweisenden Kraftfahrzeugs
DE102022111941B3 (de) 2022-05-12 2023-11-16 Cariad Se Verfahren und System zum Erzeugen von Bildern in einem Kraftfahrzeug

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10414344B1 (en) * 2016-09-01 2019-09-17 Apple Inc. Securable storage compartments
US11493348B2 (en) 2017-06-23 2022-11-08 Direct Current Capital LLC Methods for executing autonomous rideshare requests
US11106927B2 (en) * 2017-12-27 2021-08-31 Direct Current Capital LLC Method for monitoring an interior state of an autonomous vehicle
JP7145112B2 (ja) * 2019-03-25 2022-09-30 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
KR102374211B1 (ko) * 2019-10-28 2022-03-15 주식회사 에스오에스랩 객체 인식 방법 및 이를 수행하는 객체 인식 장치
JP2022155335A (ja) * 2021-03-30 2022-10-13 パナソニックIpマネジメント株式会社 インキャビンモニタリングシステムおよび車室内検知方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030082550A (ko) 2000-12-07 2003-10-22 지멘스 악티엔게젤샤프트 차량 내 대상을 감지하기 위한 장치 및 방법
EP1786654B1 (de) 2004-09-06 2009-10-21 Bayerische Motorenwerke Aktiengesellschaft Vorrichtung zur erfassung eines objekts auf einem fahrzeugsitz
JP4438753B2 (ja) 2006-01-27 2010-03-24 株式会社日立製作所 車両内状態検知システム,車両内状態検知装置および方法
US9616773B2 (en) 2015-05-11 2017-04-11 Uber Technologies, Inc. Detecting objects within a vehicle in connection with a service
US9996944B2 (en) * 2016-07-06 2018-06-12 Qualcomm Incorporated Systems and methods for mapping an environment
US10479328B2 (en) 2016-11-04 2019-11-19 Ford Global Technologies, Llc System and methods for assessing the interior of an autonomous vehicle
US20200160075A1 (en) 2017-05-05 2020-05-21 Ford Global Technologies, Llc Vehicle lost object prevention
US11106927B2 (en) * 2017-12-27 2021-08-31 Direct Current Capital LLC Method for monitoring an interior state of an autonomous vehicle
WO2019185359A1 (en) * 2018-03-29 2019-10-03 Robert Bosch Gmbh Method and system for vision-based vehicle interior environment sensing guided by vehicle prior information

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020210768A1 (de) 2020-08-25 2022-03-03 Brose Fahrzeugteile Se & Co. Kommanditgesellschaft, Bamberg Verfahren zum Betrieb eines einen Innenraum aufweisenden Kraftfahrzeugs
DE102022111941B3 (de) 2022-05-12 2023-11-16 Cariad Se Verfahren und System zum Erzeugen von Bildern in einem Kraftfahrzeug

Also Published As

Publication number Publication date
CN111695401A (zh) 2020-09-22
US11100347B2 (en) 2021-08-24
US20200293799A1 (en) 2020-09-17

Similar Documents

Publication Publication Date Title
DE102020106524A1 (de) Photometrische stereo-objektdetektion für in einem autonomen fahrzeug vergessene artikel
DE102018121019A1 (de) Erweitern von realen sensoraufzeichnungen mit simulierten sensordaten
DE102018129295A1 (de) Systeme und Verfahren zum Abbilden von Fahrbahnstörobjekten in autonomen Fahrzeugen
DE102018114609A1 (de) Fahrzeugsauberkeitserkennungssyteme und -verfahren
DE60126382T2 (de) Verfahren und Gerät zur Erkennung von Gegenständen
DE112018000899T5 (de) Gemeinsame 3D-Objekterfassung und Ausrichtungsabschätzung über multimodale Fusion
DE112019000049T5 (de) Für autonomes fahren geeignete objekterfassung und erfassungssicherheit
DE112017007713T5 (de) Systeme und Verfahren zur Fahrzeugbelegungsverwaltung
DE102019104217A1 (de) Bereitstellen von Informationsreicher Kartensemantik an Navigations-Metrik-Karten
DE102018121791A1 (de) Systeme und Verfahren zur Bestimmung des Vorhandenseins von Verkehrssteuerungspersonal und Verkehrsleitschildern
DE102018206208A1 (de) Verfahren, Vorrichtung, Erzeugnis und Computerprogramm zum Betreiben eines technischen Systems
DE102019122760A1 (de) Selbstfahrende mobile roboter, die mensch-roboter-interaktionen verwenden
DE112017007735T5 (de) System und -verfahren zur fahrzeugüberprüfung
DE112018003986T5 (de) Steuervorrichtung, steuerverfahren, programm und mobileinheit
DE102018203405A1 (de) Visuelles Surround-View-System zur Überwachung des Fahrzeuginneren
DE112019001659T5 (de) Steuervorrichtung, steuerverfahren und programm
DE102010005290A1 (de) Vereinigungsmodul für mehrere Objekte für ein Kollisionsvorbereitungssystem
DE102018212655A1 (de) Erkennung der Bewegungsabsicht eines Fußgängers aus Kamerabildern
DE102018123467A1 (de) Verfahren und systeme zur radar-lokalisierung in autonomen fahrzeugen
DE102018123112A1 (de) Bildverarbeitungsvorrichtung und Programm
DE102018133441A1 (de) Verfahren und System zum Bestimmen von Landmarken in einer Umgebung eines Fahrzeugs
US20230316783A1 (en) Computer-implemented method for analysing the interior of a vehicle
DE112021006101T5 (de) Systeme und Verfahren zur Objektdetektion mit LiDAR-Dekorrelation
DE102022109108A1 (de) System zum bereitstellen von zugang zu einem fahrzeug
DE102022108984A1 (de) System für ein fahrzeug mit verschlussplatten

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000