DE102018109413A1 - Flecken- und abfallerkennungssysteme und -verfahren - Google Patents

Flecken- und abfallerkennungssysteme und -verfahren Download PDF

Info

Publication number
DE102018109413A1
DE102018109413A1 DE102018109413.2A DE102018109413A DE102018109413A1 DE 102018109413 A1 DE102018109413 A1 DE 102018109413A1 DE 102018109413 A DE102018109413 A DE 102018109413A DE 102018109413 A1 DE102018109413 A1 DE 102018109413A1
Authority
DE
Germany
Prior art keywords
image
contour
vehicle
stain
vehicle interior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102018109413.2A
Other languages
English (en)
Inventor
Shant Tokatyan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102018109413A1 publication Critical patent/DE102018109413A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60SSERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
    • B60S1/00Cleaning of vehicles
    • B60S1/62Other vehicle fittings for cleaning
    • B60S1/64Other vehicle fittings for cleaning for cleaning vehicle interiors, e.g. built-in vacuum cleaners
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Business, Economics & Management (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Beschrieben werden beispielhafte Flecken- und Abfallerkennungssysteme und -verfahren. In einer Umsetzung empfängt ein Verfahren ein sauberes Bild eines Fahrzeuginnenraums und ein zweites Bild des Fahrzeuginnenraums, nachdem ein Fahrgast das Fahrzeug besetzt hat. Das Verfahren quantisiert das saubere Bild und das zweite Bild, um das Rauschen zu reduzieren und Unterschiede zwischen dem sauberen Bild und dem zweiten Bild zu identifizieren. Zusätzlich dazu identifiziert das Verfahren mindestens einer Kontur in den identifizierten Unterschieden und klassifiziert einen durch die Kontur definierten Bereich als eines von einem Fleck, Schmutz, Abfall oder einem anderen Element.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft Fahrzeugsysteme und insbesondere Systeme und Verfahren, die Flecken und Abfall innerhalb eines Fahrzeugs erkennen.
  • ALLGEMEINER STAND DER TECHNIK
  • Automobile und andere Fahrzeuge stellen einen erheblichen Teil des Transports für gewerbliche, behördliche und private Einrichtungen bereit. Fahrzeuge, wie etwa autonome Fahrzeuge, fahren auf Fahrbahnen, Parkplätzen und anderen Flächen, wenn sie Fahrgäste oder Objekte von einem Ort zu einem anderen transportieren. Eine beispielhafte Anwendung autonomer Fahrzeuge ist der Betrieb als Taxi oder Shuttledienst, das bzw. der einen oder mehrere Fahrgäste als Reaktion auf eine Transportanforderung abholt. Beim Betrieb als Taxi oder Shuttledienst fährt das autonome Fahrzeug zu einer Abholstelle, sodass ein den Dienst anfordernder Fahrgast in das Fahrzeug einsteigen kann.
  • Figurenliste
  • Nicht einschränkende und nicht erschöpfende Ausführungsformen der vorliegenden Offenbarung werden in Bezug auf die folgenden Figuren beschrieben, wobei sich in den verschiedenen Figuren gleiche Bezugszeichen auf gleiche Teile beziehen, sofern nicht anderweitig angegeben.
    • 1 ist ein Blockdiagramm, das eine Ausführungsform eines Fahrzeugsteuersystems veranschaulicht, das ein Flecken- und Abfallerkennungssystem beinhaltet.
    • 2 ist ein Blockdiagramm, das eine Ausführungsform eines Flecken- und Abfallerkennungssystems veranschaulicht.
    • 3 veranschaulicht eine Ausführungsform eines Fahrzeugs mit mehreren Innenkameras.
    • 4A und 4B veranschaulichen eine Ausführungsform eines Verfahrens zum Erkennen von Flecken und Abfall in einem Fahrzeug.
    • 5A - 5C veranschaulichen Ausführungsformen von beispielhaften Bildern, die zum Erkennen von Flecken in einem Fahrzeug verwendet werden.
    • 6A - 6C veranschaulichen Ausführungsformen von beispielhaften Bildern, die zum Erkennen von Abfall in einem Fahrzeug verwendet werden.
  • DETAILLIERTE BESCHREIBUNG
  • In der folgenden Offenbarung wird auf die beigefügten Zeichnungen Bezug genommen, die einen Teil hiervon bilden und in denen spezifische Umsetzungen, in denen die Offenbarung durchgeführt werden kann, zur Veranschaulichung dargestellt werden. Es versteht sich, dass andere Umsetzungen verwendet werden können und strukturelle Änderungen vorgenommen werden können, ohne vom Schutzumfang der vorliegenden Offenbarung abzuweichen. Bezugnahmen in der Beschreibung auf „eine Ausführungsform“, „ein Ausführungsbeispiel“ usw. geben an, dass die beschriebene Ausführungsform ein(e) bestimmte(s) Merkmal, Struktur oder Eigenschaft beinhalten kann, doch es muss nicht unbedingt jede Ausführungsform diese(s) bestimmte Merkmal, Struktur oder Eigenschaft beinhalten. Darüber hinaus beziehen sich derartige Formulierungen nicht unbedingt auf dieselbe Ausführungsform. Ferner sei darauf hingewiesen, dass, wenn ein(e) bestimmte(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit einer Ausführungsform beschrieben wird, es im Bereich des Fachwissens des Fachmanns liegt, ein(e) derartige(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit anderen Ausführungsformen zu bewirken, ob dies nun ausdrücklich beschrieben ist oder nicht.
  • Umsetzungen der hier offenbarten Systeme, Vorrichtungen und Verfahren können einen Spezial- oder Universalcomputer umfassen oder verwenden, der Computerhardware beinhaltet, wie etwa zum Beispiel einen oder mehrere Prozessoren und einen oder mehrere Systemspeicher, wie hier erörtert. Umsetzungen innerhalb des Umfangs der vorliegenden Offenbarung können zudem physische Datenträger und andere computerlesbare Medien zum Transportieren oder Speichern von computerausführbaren Anweisungen und/oder Datenstrukturen einschließen. Bei derartigen computerlesbaren Medien kann es sich um beliebige verfügbare Medien handeln, auf die durch ein Universal- oder Spezialcomputersystem zugegriffen werden kann. Bei computerlesbaren Medien, auf denen computerausführbare Anweisungen gespeichert werden, handelt es sich um Computerspeichermedien (-vorrichtungen). Bei computerlesbaren Medien, die computerausführbare Anweisungen transportieren, handelt es sich um Übertragungsmedien. Daher können Umsetzungen der Offenbarung beispielsweise und nicht einschränkend mindestens zwei deutlich unterschiedliche Arten von computerlesbaren Medien umfassen: Computerspeichermedien (-vorrichtungen) und Übertragungsmedien.
  • Computerspeichermedien (-vorrichtungen) beinhalten RAM, ROM, EEPROM, CD-ROM, Festkörperlaufwerke (solid state drives - SSDs) (z. B. basierend auf RAM), Flash-Speicher, Phasenänderungsspeicher (phase-change memory - PCM), andere Speicherarten, andere optische Plattenspeicher, Magnetplattenspeicher oder andere magnetische Speichervorrichtungen oder ein beliebiges anderes Medium, das verwendet werden kann, um die gewünschten Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu speichern, und auf das durch einen Universal- oder Spezialcomputer zugegriffen werden kann.
  • Eine Umsetzung der hierin offenbarten Vorrichtungen, Systeme und Verfahren kann über ein Computernetzwerk kommunizieren. Ein „Netzwerk“ ist als eine oder mehrere Datenverbindungen definiert, die den Transport elektronischer Daten zwischen Computersystemen und/oder Modulen und/oder anderen elektronischen Vorrichtungen ermöglichen. Wenn Informationen über ein Netzwerk oder eine andere (entweder festverdrahtete, drahtlose oder eine Kombination aus festverdrahteter oder drahtloser) Kommunikationsverbindung an einen Computer übertragen oder diesem bereitgestellt werden, sieht der Computer die Verbindung ordnungsgemäß als Übertragungsmedium an. Übertragungsmedien können ein Netzwerk und/oder Datenverbindungen beinhalten, die verwendet werden können, um gewünschte Programmcodemittel in der Form von computerausführbaren Anweisungen oder Datenstrukturen zu übertragen und auf die durch einen Universal- oder Spezialcomputer zugegriffen werden kann. Kombinationen aus dem Vorstehenden sollten ebenfalls im Schutzumfang computerlesbarer Medien enthalten sein.
  • Computerausführbare Anweisungen umfassen zum Beispiel Anweisungen und Daten, die bei Ausführung an einem Prozessor einen Universalcomputer, Spezialcomputer oder eine Spezialverarbeitungsvorrichtung dazu veranlassen, eine bestimmte Funktion oder Gruppe von Funktionen durchzuführen. Die computerausführbaren Anweisungen können zum Beispiel Binärdateien, Zwischenformatanweisungen, wie etwa Assemblersprache, oder auch Quellcode sein. Obwohl der Gegenstand in für Strukturmerkmale und/oder methodische Handlungen spezifischer Sprache beschrieben ist, versteht es sich, dass der in den beigefügten Patentansprüchen definierte Gegenstand nicht notwendigerweise auf die hierin beschriebenen Merkmale oder Handlungen beschränkt ist. Die beschriebenen Merkmale und Handlungen sind vielmehr als beispielhafte Formen der Umsetzung der Patentansprüche offenbart.
  • Für den Fachmann versteht es sich, dass die Offenbarung in Netzwerkcomputerumgebungen mithilfe vieler Arten von Computersystemkonfigurationen angewendet werden kann, die einen Armaturenbrett-Fahrzeugcomputer, PCs, Desktop-Computer, Laptops, Nachrichtenprozessoren, Handgeräte, Multiprozessorsysteme, Unterhaltungselektronik auf Mikroprozessorbasis oder programmierbare Unterhaltungselektronik, Netzwerk-PCs, Minicomputer, Großcomputer, Mobiltelefone, PDAs, Tablets, Pager, Router, Switches, verschiedene Speichervorrichtungen und dergleichen beinhalten. Die Offenbarung kann zudem in Umgebungen mit verteilten Systemen angewendet werden, in denen sowohl lokale Computersysteme als auch entfernte Computersysteme, die durch ein Netzwerk (entweder durch festverdrahtete Datenverbindungen, drahtlose Datenverbindungen oder durch eine Kombination aus festverdrahteten und drahtlosen Datenverbindungen) verbunden sind, Aufgaben ausführen. In einer Umgebung mit verteilten Systemen können sich Programmmodule sowohl in lokalen Speichervorrichtungen als auch in Fernspeichervorrichtungen befinden.
  • Ferner können die hier beschriebenen Funktionen gegebenenfalls in einem oder mehreren des Folgenden ausgeführt werden: Hardware, Software, Firmware, digitalen Komponenten oder analogen Komponenten. Ein oder mehrere anwendungsspezifische integrierte Schaltkreise (application specific integrated circuits - ASICs) können zum Beispiel derart programmiert sein, dass sie eines bzw. einen oder mehrere der hierin beschriebenen Systeme und Vorgänge ausführen. Bestimmte Begriffe werden in der gesamten Beschreibung und den Patentansprüchen verwendet, um auf bestimmte Systemkomponenten Bezug zu nehmen. Der Fachmann wird verstehen, dass auf Komponenten durch unterschiedliche Bezeichnungen Bezug genommen werden kann. In dieser Schrift soll nicht zwischen Komponenten unterschieden werden, die sich dem Namen nach unterscheiden, nicht jedoch von der Funktion her.
  • Es ist anzumerken, dass die hierin erörterten Sensorausführungsformen Computerhardware, -software, -firmware oder eine beliebige Kombination davon umfassen können, um zumindest einen Teil ihrer Funktionen durchzuführen. Ein Sensor kann zum Beispiel Computercode beinhalten, der dazu konfiguriert ist, in einem oder mehreren Prozessoren ausgeführt zu werden, und kann eine Hardware-Logikschaltung/elektrische Schaltung beinhalten, die durch den Computercode gesteuert wird. Diese beispielhaften Vorrichtungen sind hier zum Zwecke der Veranschaulichung bereitgestellt und sollen nicht einschränkend sein. Ausführungsformen der vorliegenden Offenbarung können in weiteren Arten von Vorrichtungen umgesetzt werden, wie es dem einschlägigen Fachmann bekannt ist.
  • Zumindest einige Ausführungsformen der Offenbarung werden Computerprogrammprodukten zugeführt, die eine derartige Logik (z. B. in Form von Software) umfassen, die auf einem beliebigen computernutzbaren Medium gespeichert ist. Derartige Software veranlasst bei Ausführung in einer oder mehreren Datenverarbeitungsvorrichtungen eine Vorrichtung dazu, wie hierin beschrieben zu arbeiten.
  • 1 ist ein Blockdiagramm, das eine Ausführungsform eines Fahrzeugsteuersystems 100 innerhalb eines Fahrzeugs veranschaulicht, das ein Flecken- und Abfallerkennungssystem 104 beinhaltet. Ein automatisiertes Fahr-/Assistenzsystem 102 kann verwendet werden, um den Betrieb eines Fahrzeugs zu automatisieren oder zu steuern oder einen menschlichen Fahrer zu unterstützen. Beispielsweise kann das automatisierte Fahr-/Assistenzsystem 102 eines oder mehrere von der Bremsung, der Lenkung, der Spannung des Sicherheitsgurts, der Beschleunigung, den Leuchten, den Warnmeldungen, den Fahrerbenachrichtigungen, dem Radio, den Fahrzeugschlössern oder beliebigen anderen Hilfssystemen des Fahrzeugs steuern. In einem weiteren Beispiel ist das automatisierte Fahr-/Assistenzsystem 102 unter Umständen nicht in der Lage, jegliche Steuerung des Fahrens (z. B. der Lenkung, Beschleunigung oder Bremsung) bereitzustellen, kann jedoch Benachrichtigungen und Warnmeldungen bereitstellen, um einen menschlichen Fahrer darin zu unterstützen, sicher zu fahren. Das Fahrzeugsteuersystem 100 beinhaltet ein Flecken- und Abfallerkennungssystem 104, das mit verschiedenen Komponenten in dem Fahrzeugsteuersystem interagiert, um potentielle (oder wahrscheinliche) Hindernisse, die sich nahe dem Fahrzeug (z. B. auf dem Weg des Fahrzeugs) befinden, zu erkennen und darauf zu reagieren. In einer Ausführungsform erkennt das Flecken- und Abfallerkennungssystem 104 Flecken, Schmutz, Abfall und andere Elemente innerhalb des Fahrzeugs. Obwohl das Flecken- und Abfallerkennungssystem 104 in 1 als eine separate Komponente dargestellt ist, kann das Flecken- und Abfallerkennungssystem 104 in alternativen Ausführungsformen in das automatisierte Fahr-/Assistenzsystem 102 oder eine beliebige andere Fahrzeugkomponente integriert sein.
  • Das Fahrzeugsteuersystem 100 beinhaltet außerdem ein/e oder mehrere Sensorsysteme/-vorrichtungen zum Erfassen eines Vorhandenseins nahegelegener Objekte (oder Hindernisse) oder zum Bestimmen eines Standorts eines Stammfahrzeugs (z. B. eines Fahrzeugs, welches das Fahrzeugsteuersystem 100 beinhaltet). Das Fahrzeugsteuersystem 100 kann zum Beispiel ein oder mehrere Radarsysteme 106, ein oder mehrere LIDAR-Systeme 108, ein oder mehrere Kamerasysteme 110, ein globales Positionsbestimmungssystem (global positioning system - GPS) 112 und/oder Ultraschallsysteme 114 beinhalten. Das eine oder die mehreren Kamerasysteme 110 kann bzw. können eine nach hinten gerichtete Kamera, die an dem Fahrzeug (z. B. einem hinteren Abschnitt des Fahrzeugs) angebracht ist, eine nach vorn gerichtete Kamera und eine zur Seite gerichtete Kamera beinhalten. Die Kamerasysteme 110 können außerdem eine oder mehrere Innenkameras beinhalten, die Bilder von Fahrgästen und anderen Objekten innerhalb des Fahrzeugs aufnehmen. Das Fahrzeugsteuersystem 100 kann einen Datenspeicher 116 zum Speichern relevanter oder nützlicher Daten zur Navigation und Sicherheit beinhalten, wie etwa Kartendaten, Fahrverlauf oder sonstige Daten. Das Fahrzeugsteuersystem 100 kann zudem einen Sendeempfänger 118 zur drahtlosen Kommunikation mit einem mobilen oder drahtlosen Netzwerk, anderen Fahrzeugen, Infrastruktur oder einem beliebigen anderen Kommunikationssystem beinhalten.
  • Das Fahrzeugsteuersystem 100 kann Fahrzeugsteueraktoren 120 beinhalten, um verschiedene Aspekte des Fahrens des Fahrzeugs zu steuern, wie etwa Elektromotoren, Schalter oder andere Aktoren, um die Bremsung, Beschleunigung, Lenkung, Spannung des Sicherheitsgurts, Türschlösser oder dergleichen zu steuern. Das Fahrzeugsteuersystem 100 kann außerdem eine(n) oder mehrere Anzeigen 122, Lautsprecher 124 oder andere Vorrichtungen beinhalten, sodass einem menschlichen Fahrer oder Fahrgast Benachrichtigungen bereitgestellt werden können. Eine Anzeige 122 kann eine Frontanzeige, eine Anzeige oder eine Angabe am Armaturenbrett, einen Anzeigebildschirm oder eine beliebige andere visuelle Angabe beinhalten, die von einem Fahrer oder Fahrgast eines Fahrzeugs gesehen werden kann. Die Lautsprecher 124 können einen oder mehrere Lautsprecher eines Soundsystems eines Fahrzeugs beinhalten oder können einen für die Fahrer- oder Fahrgastbenachrichtigung vorgesehenen Lautsprecher beinhalten.
  • Es versteht sich, dass die Ausführungsform aus 1 lediglich als Beispiel dient. Andere Ausführungsformen können weniger oder zusätzliche Komponenten beinhalten, ohne vom Schutzumfang der Offenbarung abzuweichen. Des Weiteren können veranschaulichte Komponenten ohne Einschränkung kombiniert oder in andere Komponenten eingeschlossen werden.
  • In einer Ausführungsform ist das automatisierte Fahr-/Assistenzsystem 102 dazu konfiguriert, das Fahren oder Navigieren eines Stammfahrzeugs zu steuern. Das automatisierte Fahr-/Assistenzsystem 102 kann zum Beispiel die Fahrzeugsteueraktoren 120 steuern, um einen Weg auf einer Straße, einem Parkplatz, einer Einfahrt oder an einem anderen Ort zu fahren. Zum Beispiel kann das automatisierte Fahr-/Assistenzsystem 102 einen Weg basierend auf durch eine beliebige der Komponenten 106 - 118 bereitgestellten Informationen oder Wahrnehmungsdaten bestimmen. Ein Weg kann zudem basierend auf einer Route bestimmt werden, die das Fahrzeug manövriert, um eine potentielle Kollision mit einem anderen Fahrzeug oder Objekt zu vermeiden oder abzuschwächen. Die Sensorsysteme/-vorrichtungen 106 -110 und 114 können verwendet werden, um Echtzeitsensordaten zu erhalten, sodass das automatisierte Fahr-/Assistenzsystem 102 in Echtzeit einen Fahrer unterstützen oder ein Fahrzeug fahren kann.
  • 2 ist ein Blockdiagramm, das eine Ausführungsform eines Flecken- und Abfallerkennungssystems 104 veranschaulicht. Wie in 2 gezeigt, beinhaltet das Flecken- und Abfallerkennungssystem 104 einen Kommunikationsmanager 202, einen Prozessor 204 und einen Speicher 206. Der Kommunikationsmanager 202 ermöglicht dem Flecken- und Abfallerkennungssystem 104, mit anderen Systemen, wie etwa einem automatisierten Fahr-/Assistenzsystem 102, zu kommunizieren. Der Prozessor 204 führt verschiedene Anweisungen aus, um die Funktionalität umzusetzen, die durch das Flecken- und Abfallerkennungssystem 104, wie hier erörtert, bereitgestellt wird. Der Speicher 206 speichert diese Anweisungen sowie andere Daten, die durch den Prozessor 204 und andere Module und Komponenten verwendet werden, die in dem Flecken- und Abfallerkennungssystem 104 enthalten sind.
  • Zusätzlich dazu beinhaltet das Flecken- und Abfallerkennungssystem 104 ein Bildverarbeitungsmodul 208, das Bilddaten von einem oder mehreren Kamerasystemen 110 empfängt. In einigen Ausführungsformen beinhaltet das Bildverarbeitungsmodul 208 einen Bildverwaltungsalgorithmus oder -prozess, der ein oder mehrere saubere Bilder verwaltet, das bzw. die den Fahrzeuginnenraum darstellt bzw. darstellen, wenn er sauber ist (z. B. kein(e) Flecken, Schmutz, Abfall oder andere Elemente in dem Fahrzeug). Zusätzlich dazu kann das Bildverarbeitungsmodul 208 ein oder mehrere zusätzliche Bilder verwalten, das bzw. die aufgenommen werden, nachdem ein Fahrgast aus dem Fahrzeug ausgestiegen ist. Wie hier erörtert, werden diese zusätzlichen Bilder mit den sauberen Bildern verglichen, um zu bestimmen, ob der Fahrzeuginnenraum einen Fleck, Abfall oder ein anderes Element infolge des Reisens des Fahrgastes in dem Fahrzeug aufweist.
  • Ein Bildquantisierungsmodul 210 ist in der Lage, sowohl die sauberen Bilder als auch die zusätzlichen Bilder zu quantisieren, um das Rauschen in den Bildern zu reduzieren. Beim Quantisieren der Bilder reduziert das Bildquantisierungsmodul 210 die Farbspektren der Bilder auf drei Graustufen, was das Reduzieren des Rauschens in den Bildern unterstützt. In einigen Ausführungsformen wird die Quantisierung auch als „n-farbige Graustufenerzeugung“ bezeichnet. Das Bildquantisierungsmodul 210 kann zum Beispiel die Techniken umsetzen, die in der US-Anmeldung Nr. 15/360.856 , eingereicht am 23.11.2016, mit dem Titel „Detection of lane-splitting motorcycles“, die hiermit vollständig hierin aufgenommen ist, offenbart werden.
  • Das Flecken- und Abfallerkennungssystem 104 beinhaltet zudem ein Bildsubtraktionsmodul 212, das die zusätzlichen Bilder von den sauberen Bildern subtrahiert, um Differenzen zwischen den Fotos zu identifizieren. Diese Differenzen können Flecken, Schmutz, Abfall oder andere Elemente darstellen, die von dem vorherigen Fahrgast zurückgelassen wurden. Das Bildsubtraktionsmodul 212 kann zum Beispiel die Techniken umsetzen, die in der US-Anmeldung Nr. 15/360.856 , eingereicht am 23.11.2016, mit dem Titel „Detection of lane-splitting motorcycles“, die hiermit vollständig hierin aufgenommen ist, offenbart werden.
  • Ein Konturidentifikationsmodul 214 identifiziert eine oder mehrere Konturen in den Differenzen zwischen den sauberen Bildern und den zusätzlichen Bildern, wie sie durch das Bildsubtraktionsmodul 212 identifiziert wurden. Diese Konturen beinhalten zum Beispiel die Umrisse von Flecken, Schmutz, Abfallstücken oder anderen Elementen, wie etwa Elementen, die von dem vorherigen Fahrgast zurückgelassen wurden. Das Konturidentifikationsmodul 214 definiert zudem einen Begrenzungsrahmen um jede Kontur. Der Begrenzungsrahmen ermöglicht einem Benutzer oder Rechensystem, die identifizierten Konturen einfach zu identifizieren. Zusätzlich dazu kann das Flecken- und Abfallerkennungssystem 104 basierend auf der Platzierung und dem Winkel der Kamera, die jedes Bild aufgenommen hat, den Begrenzungsrahmen einer bestimmten Position in dem Fahrzeug zuordnen.
  • Ein Abfall-/Fleckenklassifizierungsmodul 216 erkennt die Positionen und Arten von Flecken, Schmutz, Abfall und anderen Elementen in dem Fahrzeug. Zum Beispiel analysiert das Abfall-/Fleckenklassifizierungsmodul 216 die identifizierten Konturen, die das Vorhandensein eines neuen Objekts angeben. Das neue Objekt wird klassifiziert, indem die Form der Kontur sowie die Weichheit der Konturkanten analysiert werden. Wenn die Kontur zum Beispiel im Wesentlichen rund ist und weiche Kanten aufweist, handelt es sich wahrscheinlich um einen Fleck. Wenn alternativ dazu die Kontur eine unregelmäßige Form und/oder scharfe/gezackte Kanten aufweist, handelt es sich eher um ein Abfallstück oder ein anderes Element, das durch den vorherigen Fahrgast in dem Fahrzeug zurückgelassen wurde.
  • In einigen Ausführungsformen greift das Abfall-/Fleckenklassifizierungsmodul 216 auf eine Datenquelle (z. B. eine Datenbank oder eine Lookup-Tabelle) zu, die Informationen enthält, welche den zuvor klassifizierten Konturen zugeordnet sind, wie etwa die Form- und Kantenmerkmale jeder Kontur und die daraus resultierende Klassifizierung jeder Kontur. Diese Informationen, die den zuvor klassifizierten Konturen zugeordnet sind, können durch das Abfall-/Fleckenklassifizierungsmodul 216 verwendet werden, um zukünftige Konturen zu analysieren und zu klassifizieren, wie etwa Identifizieren einer zuvor klassifizierten Kontur in der Datenquelle, die eine hohe Übereinstimmung mit einer aktuell zu klassifizierenden Kontur aufweist. Eine hohe Übereinstimmung ermöglicht dem Abfall-/Fleckenklassifizierungsmodul 216, Vermutung hinsichtlich der Klassifizierung der Kontur anzustellen.
  • Ein Fahrzeugwartungsmanager 218 verwaltet die Reinigung und Wartung des Fahrzeugs. Wenn zum Beispiel ein Fleck, Schmutz, Abfall oder ein anderes Element in dem Fahrzeug erkannt wird, nachdem ein Fahrgast aus dem Fahrzeug ausgestiegen ist, kann der Fahrzeugwartungsmanager 218 bestimmen, ob das Fahrzeug außer Dienst gestellt werden muss, bevor der nächste Fahrgast angenommen wird. Wenn eine Reinigung erforderlich ist, kann der Fahrzeugwartungsmanager 218 das automatisierte Fahr-/Assistenzsystem 102 anweisen, das Fahrzeug zu der nächstgelegenen Reinigungs- oder Serviceeinrichtung zu fahren.
  • 3 veranschaulicht eine Ausführungsform eines Fahrzeugs 300 mit mehreren Innenkameras. Wie in 3 gezeigt, weist das Fahrzeug 300 vier Innenkameras 302, 304, 306 und 308 auf. In einigen Ausführungsformen sind die Kameras 302 - 308 in dem Fahrzeug 300 derart positioniert und ausgerichtet, dass sich alle Flächen der Sitze (z. B. die Sitzflächen und die Sitzrückenlehnen) im Sichtfeld mindestens einer Kamera 302-308 befinden. Andere Bereiche des Innenraums des Fahrzeugs 300 können sich ebenfalls in dem Sichtfeld von einer oder mehreren Kameras 302 - 308 befinden. In der Konfiguration des Fahrzeugs 300 sind die Kameras 302 und 304 positioniert und ausgerichtet, um Bilder der Flächen der Vordersitze des Fahrzeugs aufzunehmen. In ähnlicher Weise sind die Kameras 306 und 308 positioniert und ausgerichtet, um Bilder der Flächen der Rücksitze des Fahrzeugs aufzunehmen. Obwohl in 3 vier Innenkameras 302-308 gezeigt sind, kann das Fahrzeug 300 in alternativen Ausführungsformen eine beliebige Anzahl von Innenkameras an verschiedenen Positionen und mit unterschiedlichen Winkeln aufweisen.
  • 4A und 4B veranschaulichen eine Ausführungsform eines Verfahrens 400 zum Erkennen von Flecken und Abfall in einem Fahrzeug. Zu Anfang empfängt ein Flecken- und Abfallerkennungssystem 402 ein oder mehrere saubere Bilder eines Fahrzeuginnenraums. Diese sauberen Bilder können als „Referenzbilder“ angesehen werden und stellen einen sauberen Fahrzeuginnenraum dar. In einigen Ausführungsformen sollte der Innenraum den sauberen Bildern im Wesentlichen ähnlich sein, bevor ein zu transportierender Fahrgast abgeholt wird. Als Reaktion auf eine Transportanforderung (oder -anweisung) holt das Fahrzeug einen Fahrgast ab 404 und transportiert den Fahrgast zu einem Zielort. Am Zielort steigt der Fahrgast aus dem Fahrzeug aus 406.
  • Nachdem der Fahrgast aus dem Fahrzeug ausgestiegen ist 406, empfängt 408 das Flecken- und Abfallerkennungssystem ein oder mehrere Bilder des aktuellen Fahrzeuginnenraums (d. h. „aktuelle Bilder“). In einigen Ausführungsformen ist die Position und Stellung, von der aus das aktuelle Bild aufgenommen wird, im Wesentlichen der Position und Stellung ähnlich, von der aus die sauberen Bilder aufgenommen wurden. Das Flecken- und Abfallerkennungssystem quantisiert 410 die sauberen Bilder und die aktuellen Bilder, um das Rauschen zu reduzieren. Das Verfahren 400 wird fortgesetzt, indem das Flecken- und Abfallerkennungssystem die aktuellen Bilder von den sauberen Bildern subtrahiert 412. In einigen Ausführungsformen subtrahiert 412 das Flecken- und Abfallerkennungssystem jedes aktuelle Bild von einem entsprechenden sauberen Bild (z. B. den sauberen Bildern des gleichen Abschnitts des Fahrzeuginnenraums).
  • Das Flecken- und Abfallerkennungssystem identifiziert 414 anschließend Differenzen zwischen den aktuellen Bildern und den sauberen Bildern. Wie hier erörtert, können diese Differenzen Flecken, Schmutz, Abfall oder andere Elemente darstellen, die von dem vorherigen Fahrgast zurückgelassen wurden. Das Flecken- und Abfallerkennungssystem identifiziert 416 Konturen in den identifizierten Differenzen. Die Konturen können zum Beispiel den Umriss von Flecken, Schmutz, Abfallstücken oder anderen Elementen darstellen.
  • Während das Verfahren 400 fortgesetzt wird, ordnet 418 das Flecken- und Abfallerkennungssystem jeder identifizierten Kontur einen Begrenzungsrahmen zu. Wie vorstehend angemerkt, ermöglicht der Begrenzungsrahmen einem Benutzer oder Rechensystem, die identifizierten Konturen einfach zu identifizieren. Dazu kann das Flecken- und Abfallerkennungssystem basierend auf der Platzierung und dem Winkel der Kamera, die jedes Bild aufgenommen hat, den Begrenzungsrahmen einer bestimmten Position in dem Fahrzeug zuordnen. Somit kann der Begrenzungsrahmen das Reinigungspersonal oder das Selbstreinigungssystem bei der Lokalisierung des spezifischen Fleckes, Schmutzes, Abfallstücks oder anderer Elemente unterstützen.
  • Das Flecken- und Abfallerkennungssystem klassifiziert 420 einen durch die Kontur definierten Bereich als Fleck, Schmutz, Abfall oder ein anderes Element. Wie hier erörtert, kann der durch eine Kontur definierte Bereich klassifiziert werden, indem die Form der Kontur sowie die Weichheit der Konturkanten analysiert werden. Wenn die Kontur zum Beispiel im Wesentlichen rund ist und weiche Kanten aufweist, handelt es sich wahrscheinlich um einen Fleck. Wenn jedoch die Kontur eine unregelmäßige Form und/oder scharfe/gezackte Kanten aufweist, handelt es sich eher um ein Abfallstück oder ein anderes Element, das durch den vorherigen Fahrgast in dem Fahrzeug zurückgelassen wurde. Wie vorstehend angemerkt, kann das Abfall-/Fleckenklassifizierungsmodul 216 in einigen Ausführungsformen auf eine Datenquelle zugreifen, die Informationen enthält, welche den zuvor klassifizierten Konturen zugeordnet sind. Diese Informationen sind hilfreich, wenn Konturen analysiert und klassifiziert werden, wie etwa Identifizieren einer zuvor klassifizierten Kontur in der Datenquelle, die eine hohe Übereinstimmung mit einer aktuell zu klassifizierenden Kontur aufweist.
  • Das Flecken- und Abfall erkennungssystem bestimmt 422, ob der Fahrzeuginnenraum gereinigt werden muss, bevor der nächste Fahrgast angenommen wird. Wenn das Flecken- und Abfallerkennungssystem zum Beispiel ein(en) von dem vorherigen Fahrgast zurückgelassenen beträchtlichen Fleck oder Abfallstück identifiziert, muss das Fahrzeug möglicherweise gereinigt werden, bevor ein anderer Fahrgast angenommen wird. Wenn das Fahrzeug gereinigt werden muss, kann die Bestimmung 422 zudem die Art der benötigten Reinigung beinhalten. Ein kleines Abfallstück zum Beispiel kann einfach durch einen Roboter, ein automatisiertes Reinigungssystem oder einen einzelnen in der Nähe des Fahrzeugs befindlichen Benutzer entfernt werden. Wenn jedoch ein beträchtlicher Fleck oder eine große Schmutzmenge erkannt wird, ist möglicherweise eine gründlichere Reinigung des Fahrzeugs in einem Fahrzeugservicecenter oder durch einen mobilen Reinigungsservice erforderlich. Wenn keine Reinigung erforderlich ist, wartet das Fahrzeug auf Anweisungen 432, einen neuen Fahrgast als Reaktion auf eine neue Transportanforderung abzuholen.
  • Wenn eine Reinigung erforderlich ist 424, kann das Fahrzeug außer Dienst gestellt werden 426, während ein Reinigungsdienst organisiert und die Reinigung des Fahrzeuginnenraums durchgeführt wird. Wenn die Fahrzeugreinigung abgeschlossen ist 428, kann das Fahrzeug wieder für den Dienst freigegeben werden 430 und ist für die Annahme von neuen Transportanforderungen verfügbar. Das Fahrzeug wartet dann auf Anweisungen 432, einen neuen Fahrgast als Reaktion auf eine neue Transportanforderung abzuholen.
  • Die 5A - 5C veranschaulichen Ausführungsformen von beispielhaften Bildern, die zum Erkennen von Flecken in einem Fahrzeug verwendet werden. 5A zum Beispiel veranschaulicht ein sauberes Bild einer Fläche eines Sitzes mit einer sauberen Serviette. 5B veranschaulicht die gleiche Fläche des Sitzes und die gleiche Serviette, jedoch weist die Serviette einen Fleck auf. Wie hier erörtert, ist 5B ein „zweites Bild“, nachdem ein Fahrgast aus dem Fahrzeug ausgestiegen ist. 5C veranschaulicht das Ergebnis der hier erörterten Bildverarbeitung, welche die Differenzen zwischen dem sauberen Bild und dem zweiten Bild identifiziert. Wie in 5C gezeigt, identifiziert die dichte Konzentration weißer Pixel den Fleck auf der Serviette.
  • Die 6A - 6C veranschaulichen Ausführungsformen von beispielhaften Bildern, die zum Erkennen von Abfall in einem Fahrzeug verwendet werden. 6A zum Beispiel veranschaulicht ein sauberes Bild einer Fläche eines Sitzes. 6B veranschaulicht die gleiche Fläche des Sitzes, wobei sich jedoch zwei Abfallstücke auf der Fläche des Sitzes befinden. Wie hier erörtert, ist 6B ein „zweites Bild“, nachdem ein Fahrgast aus dem Fahrzeug ausgestiegen ist. 6C veranschaulicht das Ergebnis der hier erörterten Bildverarbeitung, welche die Differenzen zwischen dem sauberen Bild und dem zweiten Bild identifiziert. Wie in 6C gezeigt, identifizieren die zwei Bereiche mit der dichten Konzentration weißer Pixel die zwei Abfallstücke.
  • Während hierin verschiedene Ausführungsformen der vorliegenden Offenbarung beschrieben werden, versteht es sich, dass diese lediglich als Beispiele und nicht als Einschränkung dienen. Für den entsprechenden Fachmann ist ersichtlich, dass verschiedene Änderungen in Form und Detail daran vorgenommen werden können, ohne vom Geist und Schutzumfang der Offenbarung abzuweichen. Daher sollen die Breite und der Schutzumfang der vorliegenden Offenbarung nicht durch eines der beschriebenen Ausführungsbeispiele eingeschränkt werden, sondern sollen lediglich gemäß den folgenden Patentansprüchen und ihren Äquivalenten definiert sein. Die Beschreibung wird hierin zu Veranschaulichungs- und Beschreibungszwecken dargelegt. Sie erhebt keinerlei Anspruch auf Vollständigkeit und soll die Offenbarung nicht auf die konkrete offenbarte Form beschränken. Viele Modifikationen und Variationen sind in Anbetracht der offenbarten Lehren möglich. Ferner ist anzumerken, dass eine beliebige oder alle der hierin erörterten alternativen Umsetzungen in einer beliebigen gewünschten Kombination genutzt werden können, um zusätzliche Hybridumsetzungen der Offenbarung zu bilden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 15360856 [0020, 0021]

Claims (15)

  1. Verfahren, umfassend: Empfangen eines sauberen Bildes eines Fahrzeuginnenraums; Empfangen eines zweiten Bildes des Fahrzeuginnenraums, nachdem ein Fahrgast das Fahrzeug besetzt hat; Quantisieren des sauberen Bildes und des zweiten Bildes, um das Rauschen zu reduzieren; Identifizieren von Differenzen zwischen dem sauberen Bild und dem zweiten Bild; Identifizieren mindestens einer Kontur in den identifizierten Unterschieden; und Klassifizieren eines durch die Kontur definierten Bereichs als Fleck, Schmutz, Abfall oder ein anderes Element.
  2. Verfahren nach Anspruch 1, ferner umfassend Zuordnen eines Begrenzungsrahmens zu der identifizierten Kontur.
  3. Verfahren nach Anspruch 1, wobei das Klassifizieren des durch die Kontur definierten Bereichs das Bestimmen einer Form der Kontur oder das Bestimmen einer Weichheit der Kanten der Kontur.
  4. Verfahren nach Anspruch 1, ferner umfassend Bestimmen, ob der Fahrzeuginnenraum gereinigt werden muss, basierend auf der Klassifizierung des durch die Kontur definierten Bereichs.
  5. Verfahren nach Anspruch 4, ferner umfassend als Reaktion auf das Bestimmen, dass der Fahrzeuginnenraum gereinigt werden muss: Außer-Dienst-stellen des Fahrzeugs; und Organisieren der Reinigung des Fahrzeuginnenraums.
  6. Verfahren nach Anspruch 4, ferner umfassend Warten auf Anweisungen, einen neuen Fahrgast abzuholen, wenn der Fahrzeuginnenraum nicht gereinigt werden muss.
  7. Verfahren, das Folgendes umfasst: Empfangen eines sauberen Bildes eines Fahrzeuginnenraums; Empfangen eines zweiten Bildes des Fahrzeuginnenraums, nachdem ein Fahrgast das Fahrzeug besetzt hat; Quantisieren des sauberen Bildes und des zweiten Bildes durch ein Flecken- und Abfall erkennungssystem; Identifizieren von Unterschieden zwischen dem sauberen Bild und dem zweiten Bild durch ein Flecken- und Abfallerkennungssystem; Identifizieren einer Kontur in den identifizierten Differenzen durch das Flecken- und Abfall erkennungssystem; Analysieren einer Form der Kontur durch das Flecken- und Abfallerkennungssystem; und Klassifizieren eines durch die Kontur definierten Bereichs durch das Flecken- und Abfallerkennungssystem als eines von einem Fleck, Schmutz, Abfall oder ein anderes Element, basierend auf der Form der Kontur.
  8. Verfahren nach Anspruch 1 oder 7, wobei das Identifizieren von Differenzen zwischen dem sauberen Bild und dem zweiten Bild das Subtrahieren des zweiten Bildes von dem sauberen Bild beinhaltet.
  9. Verfahren nach Anspruch 7, wobei das Klassifizieren des durch die Kontur definierten Bereichs ferner auf einer Weichheit der Kanten der Kontur basiert.
  10. Verfahren nach Anspruch 7, ferner umfassend: umfassend Bestimmen, ob der Fahrzeuginnenraum gereinigt werden muss, basierend auf der Klassifizierung des durch die Kontur definierten Bereichs; und als Reaktion auf das Bestimmen, dass der Fahrzeuginnenraum gereinigt werden muss: Außer-Dienst-stellen des Fahrzeugs; und Organisieren der Reinigung des Fahrzeuginnenraums, bevor ein anderer Fahrgast angenommen wird.
  11. Verfahren nach Anspruch 1 oder 7, wobei das Quantisieren des sauberen Bildes und des zweiten Bildes das Reduzieren der Farbspektren des sauberen Bildes und des zweiten Bildes auf mehrere Graustufen beinhaltet.
  12. Vorrichtung, die Folgendes umfasst: einen Kommunikationsmanager, der dazu konfiguriert ist, ein sauberes Bild eines Fahrzeuginnenraums zu empfangen, und dazu konfiguriert ist, ein zweites Bild des Fahrzeuginnenraums zu empfangen, nachdem ein Fahrgast das Fahrzeug besetzt hat; ein Bildquantisierungsmodul, das dazu konfiguriert ist, das saubere Bild und das zweite Bild zu quantisieren; ein Bildverarbeitungsmodul, das dazu konfiguriert ist, Differenzen zwischen dem sauberen Bild und dem zweiten Bild zu identifizieren; ein Konturidentifikationsmodul, das dazu konfiguriert ist, mindestens einer Kontur in den identifizierten Unterschieden zu identifizieren; und ein Klassifizierungsmodul, das dazu konfiguriert ist, einen durch die Kontur definierten Bereich als eines von einem Fleck, Schmutz, Abfall oder einem anderen Element zu klassifizieren.
  13. Vorrichtung nach Anspruch 12, ferner umfassend einen Fahrzeugwartungsmanager, der dazu konfiguriert ist, zu bestimmen, ob der Fahrzeuginnenraum gereinigt werden muss, basierend auf der Klassifizierung des durch die Kontur definierten Bereichs.
  14. Vorrichtung nach Anspruch 12, wobei das Quantisierungsmodul die Farbspektren des sauberen Bildes und des zweiten Bildes auf mehrere Graustufen reduziert.
  15. Vorrichtung nach Anspruch 12, wobei die Vorrichtung an ein automatisiertes Fahrsystem in dem Fahrzeug gekoppelt ist.
DE102018109413.2A 2017-04-21 2018-04-19 Flecken- und abfallerkennungssysteme und -verfahren Withdrawn DE102018109413A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/494,158 US10509974B2 (en) 2017-04-21 2017-04-21 Stain and trash detection systems and methods
US15/494,158 2017-04-21

Publications (1)

Publication Number Publication Date
DE102018109413A1 true DE102018109413A1 (de) 2018-10-25

Family

ID=62236047

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018109413.2A Withdrawn DE102018109413A1 (de) 2017-04-21 2018-04-19 Flecken- und abfallerkennungssysteme und -verfahren

Country Status (5)

Country Link
US (1) US10509974B2 (de)
CN (1) CN108734100A (de)
DE (1) DE102018109413A1 (de)
GB (1) GB2564197A (de)
RU (1) RU2018112429A (de)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019032097A1 (en) * 2017-08-08 2019-02-14 Ford Global Technologies, Llc VEHICLE INSPECTION SYSTEMS AND METHODS
US20190095714A1 (en) * 2017-09-28 2019-03-28 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America Vehicle interior lidar detection systems
JP2019087045A (ja) * 2017-11-07 2019-06-06 トヨタ自動車株式会社 ドライバレス輸送システム
CN109598303A (zh) * 2018-12-03 2019-04-09 江西洪都航空工业集团有限责任公司 一种基于城市场景的垃圾检测方法
CN109558858A (zh) * 2018-12-11 2019-04-02 北京首汽智行科技有限公司 基于深度学习的车内卫生自动识别方法及系统
CN110110704A (zh) * 2019-05-21 2019-08-09 北京首汽智行科技有限公司 一种车辆卫生监控方法及系统
DE102019208871A1 (de) * 2019-06-18 2020-12-24 Thyssenkrupp Ag Einrichtung und Verfahren zur Ermittlung des Innenraumzustandes eines Fahrzeugs
CN110784685B (zh) * 2019-10-23 2021-06-29 上海能塔智能科技有限公司 车辆清洁状况的监控方法及装置、存储介质、终端
US11334985B2 (en) * 2019-10-25 2022-05-17 Robert Bosch Gmbh System and method for shared vehicle cleanliness detection
CN112784647A (zh) * 2019-11-10 2021-05-11 杨娟 智能运行环境维护系统及方法
JP7169965B2 (ja) * 2019-12-24 2022-11-11 本田技研工業株式会社 車両管理システム、及び車両管理方法
CN113581134B (zh) * 2020-04-30 2024-02-27 比亚迪股份有限公司 车辆及其清洁方法、装置以及存储介质和车载控制器
KR20210149476A (ko) * 2020-06-02 2021-12-09 현대자동차주식회사 자동차 및 그를 위한 실내 청결 관리 방법
KR20220006895A (ko) * 2020-07-09 2022-01-18 현대자동차주식회사 자동차 및 그를 위한 실내 청결 관리 방법
KR20220014681A (ko) * 2020-07-29 2022-02-07 현대자동차주식회사 자동차 및 그를 위한 실내 청결 관리 방법
CN112257623B (zh) * 2020-10-28 2022-08-23 长沙立中汽车设计开发股份有限公司 一种路面清洁度判定和自动清扫方法及自动清扫环卫装置
US11820338B2 (en) 2021-02-10 2023-11-21 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle cleaning and feedback system using adjustable ground truth
US11475755B2 (en) 2021-03-02 2022-10-18 Gm Cruise Holdings Llc Forgotten mobile device detection and management
US11970142B2 (en) * 2021-04-20 2024-04-30 Toyota Motor North America, Inc. Systems for expelling debris
CN113863404B (zh) * 2021-10-20 2023-03-10 江苏徐工工程机械研究院有限公司 一种挖掘机除尘脱粘控制系统、控制方法及挖掘机
DE102021212796A1 (de) 2021-11-15 2023-05-17 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Ermitteln eines Zustandes eines Innenraumes eines Fahrzeugs
CN114821283B (zh) * 2022-06-29 2022-09-09 山东施卫普环保科技有限公司 一种基于视觉感知的清扫车垃圾清扫方法及系统
EP4390857A1 (de) * 2022-12-22 2024-06-26 Ningbo Geely Automobile Research & Development Co. Ltd. Fahrzeugsystem und verfahren zur bestimmung von anomalien im inneren eines fahrzeugs

Family Cites Families (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9290146B2 (en) 1992-05-05 2016-03-22 Intelligent Technologies International, Inc. Optical monitoring of vehicle interiors
US7596242B2 (en) * 1995-06-07 2009-09-29 Automotive Technologies International, Inc. Image processing for vehicular applications
JPH06273255A (ja) 1993-03-22 1994-09-30 Mitsubishi Heavy Ind Ltd 漏油検知方法及び装置
US5640468A (en) 1994-04-28 1997-06-17 Hsu; Shin-Yi Method for identifying objects and features in an image
JPH0973529A (ja) 1995-07-05 1997-03-18 Suzuki Motor Corp 二輪車監視装置
US5768413A (en) * 1995-10-04 1998-06-16 Arch Development Corp. Method and apparatus for segmenting images using stochastically deformable contours
US6005958A (en) 1997-04-23 1999-12-21 Automotive Systems Laboratory, Inc. Occupant type and position detection system
JP2000020686A (ja) 1998-06-30 2000-01-21 Yazaki Corp 車両用後側方監視装置
US6184781B1 (en) 1999-02-02 2001-02-06 Intel Corporation Rear looking vision system
JP3760068B2 (ja) 1999-12-02 2006-03-29 本田技研工業株式会社 画像認識装置
US7027621B1 (en) 2001-03-15 2006-04-11 Mikos, Ltd. Method and apparatus for operator condition monitoring and assessment
US7813559B2 (en) 2001-11-13 2010-10-12 Cyberoptics Corporation Image analysis for pick and place machines with in situ component placement inspection
DE10301468B4 (de) 2002-01-18 2010-08-05 Honda Giken Kogyo K.K. Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs
JP3756452B2 (ja) 2002-01-18 2006-03-15 本田技研工業株式会社 赤外線画像処理装置
US6781676B2 (en) 2002-03-22 2004-08-24 Trw Inc. Structured lighting detection of vehicle occupant type and position
SE0201529D0 (sv) 2002-05-21 2002-05-21 Flir Systems Ab Method and apparatus for IR camera inspections
KR100477656B1 (ko) * 2002-07-27 2005-03-22 삼성전자주식회사 디지털 화질 개선 방법 및 장치
US7027054B1 (en) 2002-08-14 2006-04-11 Avaworks, Incorporated Do-it-yourself photo realistic talking head creation system and method
DE10305861A1 (de) 2003-02-13 2004-08-26 Adam Opel Ag Vorrichtung eines Kraftfahrzeuges zur räumlichen Erfassung einer Szene innerhalb und/oder außerhalb des Kraftfahrzeuges
EP1639332A2 (de) 2003-06-11 2006-03-29 Furry Brothers, LLC Systeme und verfahren zur durchführung von untersuchungen und zur erkennung chemischer lecks unter verwendung eines infrarot-kamerasystems
JP3832455B2 (ja) 2003-07-31 2006-10-11 日産自動車株式会社 車輌周囲表示装置
US20050131625A1 (en) 2003-11-19 2005-06-16 Birger Alexander B. Schoolchildren transportation management systems, methods and computer program products
JP4351919B2 (ja) 2004-01-21 2009-10-28 株式会社ケンウッド 送りバス用管理装置、出迎え管理装置、送りバス用管理方法及び出迎え管理方法
KR101078474B1 (ko) * 2006-06-08 2011-10-31 후지쯔 가부시끼가이샤 오염 검출 장치
JP5178085B2 (ja) 2007-08-07 2013-04-10 株式会社村上開明堂 撮像装置付きバックミラー
US8124931B2 (en) 2007-08-10 2012-02-28 Schlumberger Technology Corporation Method and apparatus for oil spill detection
KR101023207B1 (ko) * 2007-09-05 2011-03-18 한국전자통신연구원 영상 객체 추출 장치 및 그 방법
DE102008009190A1 (de) 2008-02-15 2009-08-27 Siemens Aktiengesellschaft Verfahren zur automatischen Bestimmung der Ruhephase des Herzens
US7762704B2 (en) 2008-11-19 2010-07-27 Bryter Technologies LLC Optimized distribution of light extraction from an edge lit light source
JP5509801B2 (ja) 2009-11-13 2014-06-04 三菱電機株式会社 エレベータシステム
JP5680667B2 (ja) 2009-12-02 2015-03-04 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited 運転者の覚醒状態の特定システム及び方法
US8959163B1 (en) 2010-08-04 2015-02-17 Open Invention Network, Llc Method and apparatus of organizing and delivering data to intended recipients
US8611598B2 (en) 2011-07-26 2013-12-17 Harman International (China) Holdings Co., Ltd. Vehicle obstacle detection system
EP2578464B1 (de) 2011-10-06 2014-03-19 Honda Research Institute Europe GmbH Warnsystem auf Videobasis für ein Fahrzeug
CN202448860U (zh) 2011-12-21 2012-09-26 浙江吉利汽车研究院有限公司 一种出租车行李遗忘提醒装置
CN202422205U (zh) 2012-02-29 2012-09-05 李德明 移动助学公交管理系统
US9128185B2 (en) 2012-03-15 2015-09-08 GM Global Technology Operations LLC Methods and apparatus of fusing radar/camera object data and LiDAR scan points
DE102012007559A1 (de) 2012-04-14 2012-11-08 Daimler Ag Verfahren und Vorrichtung zur Dichtheitsprüfung eines Fahrzeugs
KR101326943B1 (ko) 2012-06-29 2013-11-11 엘지이노텍 주식회사 추월차량 경고 시스템 및 추월차량 경고 방법
MX2015000035A (es) 2012-07-04 2015-08-05 Repsol Sa Sistema integrado de deteccion temprana de hidrocarburos en un medio acuoso.
JP5891306B2 (ja) 2012-08-07 2016-03-22 株式会社日立製作所 自律走行装置の利用支援ツール、運用管理センタ、運用システム及び自律走行装置
CN202871022U (zh) 2012-08-08 2013-04-10 厦门雅迅网络股份有限公司 一种基于gps和人脸识别的校车全自动监控系统
US8965102B2 (en) 2012-11-09 2015-02-24 Taiwan Semiconductor Manufacturing Company, Ltd. System and method for defect analysis of a substrate
US20140163329A1 (en) 2012-12-11 2014-06-12 Elwha Llc Unobtrusive Active Eye Interrogation with Gaze Attractor
US9101297B2 (en) 2012-12-11 2015-08-11 Elwha Llc Time-based unobtrusive active eye interrogation
DE102013001332B4 (de) * 2013-01-26 2017-08-10 Audi Ag Verfahren zur Erfassung des Verschmutzungsgrades eines Fahrzeugs
US9488982B2 (en) 2013-02-03 2016-11-08 Michael H Gurin Systems for a shared vehicle
CN203224912U (zh) 2013-02-28 2013-10-02 湖南科技学院 基于物联网的校车安全监控系统
US9751534B2 (en) 2013-03-15 2017-09-05 Honda Motor Co., Ltd. System and method for responding to driver state
JP6343769B2 (ja) 2013-08-23 2018-06-20 中嶋 公栄 忘れ物防止システム、旅客自動車の乗務員に対する情報提供方法、コンピュータプログラム
JP5818857B2 (ja) * 2013-10-24 2015-11-18 キヤノン株式会社 情報処理装置およびその制御方法
CN104601937A (zh) 2013-10-31 2015-05-06 大连易维立方技术有限公司 校车远程安全监控系统
CN104597857A (zh) 2013-10-31 2015-05-06 大连易维立方技术有限公司 校车远程安全监控方法
US9814410B2 (en) 2014-05-06 2017-11-14 Stryker Corporation Person support apparatus with position monitoring
BR112016029038B1 (pt) 2014-06-11 2023-02-28 Veridium Ip Limited Sistema e método para facilitar acesso de usuário a veículos com base em informações biométricas
US20160078576A1 (en) 2014-09-17 2016-03-17 Fortress Systems International, Inc. Cloud-based vehicle monitoring systems and methods
US10133927B2 (en) * 2014-11-14 2018-11-20 Sony Corporation Method and system for processing video content
CN114723741A (zh) * 2015-04-23 2022-07-08 Bd科斯特公司 用于自动计数微生物菌落的方法和系统
KR101646134B1 (ko) 2015-05-06 2016-08-05 현대자동차 주식회사 자율주행차량 및 그 제어 방법
US9616773B2 (en) 2015-05-11 2017-04-11 Uber Technologies, Inc. Detecting objects within a vehicle in connection with a service
KR102096334B1 (ko) 2015-06-03 2020-04-02 클리어모션, 아이엔씨. 차체 모션 및 승객 경험을 제어하기 위한 방법 및 시스템
US10150448B2 (en) 2015-09-18 2018-12-11 Ford Global Technologies. Llc Autonomous vehicle unauthorized passenger or object detection
US20170091559A1 (en) 2015-09-29 2017-03-30 Valeo North America, Inc. Camera monitor system for a vehicle
US10040432B2 (en) 2016-01-26 2018-08-07 GM Global Technology Operations LLC Systems and methods for promoting cleanliness of a vehicle
US20170267251A1 (en) 2016-03-15 2017-09-21 Palo Alto Research Center Incorporated System And Method For Providing Context-Specific Vehicular Driver Interactions
KR101777518B1 (ko) 2016-04-07 2017-09-11 엘지전자 주식회사 인테리어 카메라 장치, 이를 포함하는 차량 운전 보조장치 및 이를 포함하는 차량
US20170291539A1 (en) 2016-04-07 2017-10-12 General Motors Llc Systems and methods for detecting objects within a vehicle
US9720416B1 (en) 2016-04-18 2017-08-01 Ford Global Technologies, Llc Vehicle security system
US20170330044A1 (en) 2016-05-10 2017-11-16 GM Global Technology Operations LLC Thermal monitoring in autonomous-driving vehicles
CN106022386B (zh) * 2016-05-26 2019-04-30 北京新长征天高智机科技有限公司 一种计算机识别与人工交互结合的生活垃圾目标识别系统
JP6792351B2 (ja) 2016-06-01 2020-11-25 キヤノン株式会社 符号化装置、撮像装置、符号化方法、及びプログラム
US9760827B1 (en) 2016-07-22 2017-09-12 Alpine Electronics of Silicon Valley, Inc. Neural network applications in resource constrained environments
CN106248700B (zh) * 2016-08-22 2019-11-05 江苏大学 一种基于ct的苗钵根系结构形态检测方法
US10479328B2 (en) 2016-11-04 2019-11-19 Ford Global Technologies, Llc System and methods for assessing the interior of an autonomous vehicle
KR101717613B1 (ko) 2016-12-27 2017-03-17 주식회사한맥아이피에스 에지 정보 기반의 객체 추적 알고리즘을 통한 이동 차량 탐지 시스템 및 방법

Also Published As

Publication number Publication date
GB2564197A (en) 2019-01-09
US10509974B2 (en) 2019-12-17
RU2018112429A (ru) 2019-10-08
CN108734100A (zh) 2018-11-02
US20180307926A1 (en) 2018-10-25
GB201806470D0 (en) 2018-06-06

Similar Documents

Publication Publication Date Title
DE102018109413A1 (de) Flecken- und abfallerkennungssysteme und -verfahren
DE102018111256A1 (de) Flecken- und abfallerkennungssysteme und -verfahren für fahrzeuge
DE102018114609A1 (de) Fahrzeugsauberkeitserkennungssyteme und -verfahren
DE102017105903A1 (de) Fussgängerdetektion und Bewegungsvorhersage mit nach hinten gerichteter Kamera
DE112017007713T5 (de) Systeme und Verfahren zur Fahrzeugbelegungsverwaltung
DE102019112002A1 (de) Systeme und verfahren zur automatischen detektion von anhängereigenschaften
DE112017007735T5 (de) System und -verfahren zur fahrzeugüberprüfung
DE102018101125A1 (de) Rekurrentes tiefes neuronales Faltungsnetzwerk zur Detektion von Objekten
DE60126382T2 (de) Verfahren und Gerät zur Erkennung von Gegenständen
DE102017107626A1 (de) Detektion verfügbarer parkstellflächen
DE102018132509A1 (de) Ein Fahrzeug und ein Verfahren zur fahrzeugübergreifenden Zusammenarbeit zur Erfassung von physischer äußerlicher Beschädigung
DE102017116213A1 (de) Fahrspurerkennung mit rückfahrkamera
DE102019104217A1 (de) Bereitstellen von Informationsreicher Kartensemantik an Navigations-Metrik-Karten
DE102017100199A1 (de) FUßGÄNGERERKENNUNG MIT AUFFÄLLIGKEITSKARTEN
DE102018105417A1 (de) Fahrzeugortung unter verwendung von kameras
DE102017115318A1 (de) Heads-Up-Anzeige zum Beobachten von Fahrzeugwahrnehmungsaktivität
DE102019117616A1 (de) Handhabung von mitfahrdiensten bei autonomen fahrzeugen
DE102017123180A1 (de) Rückwertige Hinderniserkennung und Abstandsschätzung
DE102017113572A1 (de) Spurerkennungssysteme und -verfahren
DE102018100154A1 (de) System und verfahren zur vermeidung von interferenz mit einem bus
DE112018000335T5 (de) Systeme und verfahren für einen berechnungsrahmen zur visuellen warnung des fahrers unter verwendung einer "fully convolutional"-architektur
DE102019124152A1 (de) Kupplungsunterstützungssystem
DE102018101366A1 (de) Fahrzeuge in schlechten lichtverhältnissen
DE102017113186A1 (de) Objekterkennung auf Fahrzeugaussenoberfläche
DE102017115199A1 (de) Fahrzeug mit park assist

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee