DE102018102285A1 - System und verfahren zum beurteilen des innenraums eines autonomen fahrzeugs - Google Patents

System und verfahren zum beurteilen des innenraums eines autonomen fahrzeugs Download PDF

Info

Publication number
DE102018102285A1
DE102018102285A1 DE102018102285.9A DE102018102285A DE102018102285A1 DE 102018102285 A1 DE102018102285 A1 DE 102018102285A1 DE 102018102285 A DE102018102285 A DE 102018102285A DE 102018102285 A1 DE102018102285 A1 DE 102018102285A1
Authority
DE
Germany
Prior art keywords
output
threshold
vehicle
anomaly
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018102285.9A
Other languages
English (en)
Inventor
Bruno Sielly Jales Costa
Madeline J Goh
Jinesh J. Jain
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102018102285A1 publication Critical patent/DE102018102285A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/006Indicating maintenance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60SSERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
    • B60S3/00Vehicle cleaning apparatus not integral with vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60SSERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
    • B60S5/00Servicing, maintaining, repairing, or refitting of vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • B60W10/06Conjoint control of vehicle sub-units of different type or different function including control of propulsion units including control of combustion engines
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0953Predicting travel path or likelihood of collision the prediction being responsive to vehicle dynamic parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/202Dispatching vehicles on the basis of a location, e.g. taxi dispatching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/06Combustion engines, Gas turbines
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/0875Registering performance data using magnetic data carriers
    • G07C5/0891Video recorder in combination with video camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Automation & Control Theory (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Business, Economics & Management (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Ein autonomes Fahrzeug beinhaltet Innenraumsensoren, die eine IR-Kamera und eine Kamera für sichtbares Licht beinhalten. Bilder eines Innenraums des Fahrzeugs werden unter Verwendung der Kameras sowohl bevor als auch nachdem der Fahrgast in dem Fahrzeug mitfährt aufgenommen. Die IR-Bilder von vorher und nachher werden subtrahiert, um ein Differenzbild zu erhalten. Pixel über einer Schwellenintensität werden zu einem Cluster zusammengefasst. Cluster, die eine Größe über einem Schwellenwert aufweisen, werden als Anomalien bestimmt. Teile von Bildern von der Kamera für sichtbares Licht, die den Anomalien entsprechen, werden an einen Verteiler gesendet, der das Fahrzeug dann für das Abholen eines weiteren Fahrgastes freigeben oder dieses an eine Reinigungsstation schicken kann. Anomalien können auf Grundlage einer Kombination aus den IR-Bildern und den Bildern sichtbaren Lichts identifiziert werden.

Description

  • ALLGEMEINER STAND DER TECHNIK
  • GEBIET DER ERFINDUNG
  • Diese Offenbarung betrifft ein Sensorsystem und Verfahren für ein autonomes Fahrzeug.
  • ALLGEMEINER STAND DER TECHNIK
  • Autonome Fahrzeuge sind Gegenstand vieler Forschungs- und Entwicklungsbemühungen. Solche Fahrzeuge beinhalten einen Satz von Sensoren und Steuerlogik, welche die Identifizierung und Umfahrung von Hindernissen und die Navigation zu einem Ziel ermöglichen. Eine Anwendung von autonomen Fahrzeugen ist die Verwendung als Taxis, die auf Anfrage einen Fahrgast abholen können.
  • Das hierin offenbarte System und Verfahren stellt einen Ansatz zum Bereitstellen von autonomen Taxidiensten bereit.
  • Figurenliste
  • Damit die Vorteile der Erfindung ohne Weiteres verstanden werden, erfolgt durch Bezugnahme auf konkrete Ausführungsformen, die in den beigefügten Zeichnungen veranschaulicht sind, eine genauere Beschreibung der vorstehend kurz beschriebenen Erfindung. Unter der Kenntnisnahme, dass diese Zeichnungen lediglich typische Ausführungsformen der Erfindung darstellen und daher nicht als den Umfang beschränkend aufzufassen sind, wird die Erfindung mit zusätzlicher Genauigkeit und Ausführlichkeit durch die Verwendung der beigefügten Zeichnungen beschrieben und erläutert, in denen Folgendes gilt:
    • 1A ist ein schematisches Blockdiagramm eines Systems zum Umsetzen von Ausführungsformen der Erfindung;
    • 1B ist ein schematisches Blockdiagramm eines Fahrzeugs, das Innenraumsensoren zum Umsetzen von Ausführungsformen der Erfindung beinhaltet;
    • 2 ist ein schematisches Blockdiagramm einer beispielhaften Rechenvorrichtung, die zum Umsetzen von Verfahren gemäß den Ausführungsformen der Erfindung geeignet ist;
    • 3 ist ein Prozessablaufdiagramm eines Verfahrens zum Bewerten eines Zustands eines autonomen Taxis gemäß einer Ausführungsform der vorliegenden Erfindung; und
    • 4A bis 4D sind Bilder, welche die Identifizierung von Anomalien in dem Innenraum eines Fahrzeugs gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulichen.
  • DETAILLIERTE BESCHREIBUNG
  • Unter Bezugnahme auf 1A und 1B kann ein Fahrzeug 100 (siehe 1B) eine Steuerung 102 aufnehmen. Das Fahrzeug 100 kann ein beliebiges im Fach bekanntes Fahrzeug beinhalten. Das Fahrzeug 100 kann alle der Strukturen und Merkmale eines beliebigen im Fach bekannten Fahrzeugs aufweisen, einschließlich Rädern, eines an die Räder gekoppelten Antriebsstrangs, eines an den Antriebsstrang gekoppelten Motors, eines Lenksystems, eines Bremssystems und anderer in ein Fahrzeug zu integrierender Systeme, die im Fach bekannt sind.
  • Wie hier ausführlicher erörtert, kann die Steuerung 102 autonome Navigation und Kollisionsvermeidung durchführen. Die Steuerung 102 kann eine oder mehrere Ausgaben von einem oder mehreren Außensensoren 104 empfangen. Zum Beispiel können eine oder mehrere Kameras 106a an dem Fahrzeug 100 angebracht sein und empfangene Bildströme an die Steuerung 102 ausgeben. Die Steuerung 102 kann ein oder mehrere Audioströme von einem oder mehreren Mikrofonen 106b empfangen. Zum Beispiel können die einen oder mehrere Mikrofone 106b oder Mikrofonarrays 106b an dem Fahrzeug 100 angebracht sein und von der Steuerung 102 empfangene Audioströme ausgeben. Die Mikrofone 106b können Richtmikrofone mit einer Empfindlichkeit, die mit dem Winkel variiert, beinhalten.
  • Die Außensensoren 104 können Sensoren wie etwa einen RADAR(Radio Detection and Ranging)-Sensor 106c, einen LIDAR(Light Detection and Ranging)-Sensor 106d, einen SONAR(Sound Navigation and Ranging)-Sensor 106e und dergleichen beinhalten.
  • Die Steuerung 102 kann ein autonomes Betriebsmodul 108 ausführen, das die Ausgaben der Außensensoren 104 empfängt. Das autonome Betriebsmodul 108 kann ein Hindernisidentifikationsmodul 110a, ein Kollisionsvorhersagemodul 110b und ein Entscheidungsmodul 110c beinhalten. Das Hindernisidentifikationsmodul 110a analysiert die Ausgaben der Außensensoren und identifiziert mögliche Hindernisse, einschließlich Menschen, Tiere, Fahrzeuge, Gebäude, Bordsteine und andere Objekte und Strukturen. Insbesondere kann das Hindernisidentifikationsmodul 110a Fahrzeugbilder in den Sensorausgaben identifizieren.
  • Das Kollisionsvorhersagemodul 110b sagt vorher, welche Hindernisbilder auf Grundlage von seinem gegenwärtigen Kurs oder gegenwärtig beabsichtigten Weg wahrscheinlich mit dem Fahrzeug 100 kollidieren werden. Das Kollisionsvorhersagemodul 110b kann die Wahrscheinlichkeit einer Kollision mit Objekten, die durch das Hindernisidentifikationsmodul 110a identifiziert wurden, bewerten. Das Entscheidungsmodul 110c kann eine Entscheidung treffen, um anzuhalten, zu beschleunigen, eine Kurve zu fahren usw., um Hindernisse zu umfahren. Die Weise, auf die das Kollisionsvorhersagemodul 110b mögliche Kollisionen vorhersagt, und die Weise, auf die das Entscheidungsmodul 110c Maßnahmen ergreift, um mögliche Kollisionen zu verhindern, können gemäß einem beliebigen auf dem Fachgebiet autonomer Fahrzeuge bekannten Verfahren oder System sein.
  • Das Entscheidungsmodul 110c kann den Kurs des Fahrzeugs durch Betätigen von einem oder mehreren Aktoren 112, welche die Richtung und Geschwindigkeit des Fahrzeugs 100 steuern, steuern. Zum Beispiel können die Aktoren 112 einen Lenkaktor 114a, einen Beschleunigungsaktor 114b und einen Bremsaktor 114c beinhalten. Die Konfiguration der Aktoren 114a-114c kann gemäß einer beliebigen Umsetzung solcher im Fachgebiet autonomer Fahrzeuge bekannten Aktoren erfolgen.
  • In hierin offenbarten Ausführungsformen kann das autonome Betriebsmodul 108 autonome Navigation zu einem spezifizierten Ort, autonomes Parken und andere im Fach bekannte automatisierte Fahraktivitäten durchführen.
  • Das autonome Betriebsmodul 108 kann ferner ein Innenraummodul 110d beinhalten, das einen Zustand des Innenraums des Fahrzeugs 100 gemäß den hierin offenbarten Verfahren bewertet. Das Innenraummodul 110d kann Ausgaben von einem oder mehreren Innenraumsensoren 116 bewerten. Die Innenraumsensoren 116 können eine oder mehrere Kameras 118a beinhalten, d. h. eine Kamera für sichtbares Licht, wie etwa eine Standbild- oder Videokamera. Die Innenraumsensoren 116 können außerdem eine oder mehrere Infrarot(IR)-Kameras 118b beinhalten. Die Innenraumsensoren 116 können einen beliebigen im Fach bekannten Sensor beinhalten, wie etwa einen elektrochemischen Sensor, Feuchtigkeitssensor oder ein elektronisches Thermometer. Das Innenraummodul 110d kann zum Beispiel die Techniken umsetzen, die in US-Anmeldung Nr. 15/343,726 , eingereicht am 4. November 2016, mit dem Titel „A System and Methods for Assessing the Interior of an Autonomous Vehicle“, die hiermit vollständig hierin aufgenommen ist, offenbart werden.
  • Wie in 1B gezeigt, können eine oder mehrere Kameras 118a in dem Fahrzeug positioniert und ausgerichtet sein, um alle Sitzoberflächen (Sitzflächen und Sitzrückenlehnen) im Blickfeld von zumindest einer der Kameras 118a zu haben. Andere Bereiche des Innenraums des Fahrzeugs können sich ebenfalls in dem Blickfeld von zumindest einer der Kameras 118a befinden.
  • Eine oder mehrere IR-Kameras 118b können in dem Fahrzeug positioniert und ausgerichtet sein, um alle Sitzoberflächen (Sitzflächen und Sitzrückenlehnen) im Blickfeld von zumindest einer der IR-Kameras 118b zu haben. Andere Bereiche des Innenraums des Fahrzeugs können sich ebenfalls in dem Blickfeld von zumindest einer der IR-Kameras 118b befinden.
  • Die Steuerung 102 kann in Datenkommunikation mit einem Server 120 stehen, wie etwa mithilfe eines Netzwerks 122, das eine beliebige verdrahtete oder drahtlose Netzwerkverbindung beinhalten kann, einschließlich einer Verbindung eines Mobilfunk-Datennetzes. Die hierin offenbarten Verfahren können durch den Server 120, die Steuerung 102 oder eine Kombination aus den beiden umgesetzt werden.
  • 2 ist ein Blockdiagramm, das eine beispielhafte Rechenvorrichtung 200 veranschaulicht. Die Rechenvorrichtung 200 kann dazu verwendet werden, verschiedene Vorgänge auszuführen, wie etwa die hierin erörterten. Die Steuerung 102 und das Serversystem 120 können einige oder alle der Attribute der Rechenvorrichtung 200 aufweisen.
  • Die Rechenvorrichtung 200 beinhaltet einen oder mehrere Prozessor(en) 202, eine oder mehrere Speichervorrichtung(en) 204, eine oder mehrere Schnittstelle(n) 206, eine oder mehrere Massenspeichervorrichtung(en) 208, eine oder mehrere Ein-/Ausgabe-(E/A-)Vorrichtung(en) 210 und eine Anzeigevorrichtung 230, die alle an einen Bus 212 gekoppelt sind. Der/Die Prozessor(en) 202 beinhaltet/beinhalten eine(n) oder mehrere Prozessoren oder Steuerungen, der/die in der/den Speichervorrichtung(en) 204 und/oder der/den Massenspeichervorrichtung(en) 208 gespeicherte Anweisungen ausführen. Der/Die Prozessor(en) 202 kann/können zudem verschiedene Arten von computerlesbaren Medien beinhalten, wie etwa Cache-Speicher.
  • Die Speichervorrichtung(en) 204 beinhaltet/beinhalten verschiedene computerlesbare Medien, wie etwa flüchtigen Speicher (z. B. Direktzugriffsspeicher (Random Access Memory - RAM) 214) und/oder nichtflüchtigen Speicher (z. B. Festwertspeicher (Read-Only Memory - ROM) 216). Die Speichervorrichtung(en) 204 kann/können zudem wiederbeschreibbaren ROM beinhalten, wie etwa Flash-Speicher.
  • Die Massenspeichervorrichtung(en) 208 beinhaltet/beinhalten verschiedene computerlesbare Medien, wie etwa Magnetbänder, Magnetplatten, optische Platten, Festkörperspeicher (z. B. Flash-Speicher) und so weiter. Wie in 2 gezeigt, ist eine besondere Massenspeichervorrichtung ein Festplattenlaufwerk 224. Zudem können verschiedene Laufwerke in der/den Massenspeichervorrichtung(en) 208 enthalten sein, um ein Auslesen aus und/oder Schreiben auf die verschiedenen computerlesbaren Medien zu ermöglichen. Die Massenspeichervorrichtung(en) 208 beinhaltet/beinhalten entfernbare Medien 226 und/oder nichtentfernbare Medien.
  • Die E/A-Vorrichtung(en) 210 beinhaltet/beinhalten verschiedene Vorrichtungen, die es ermöglichen, dass Daten und/oder andere Informationen in die Rechenvorrichtung 200 eingegeben oder daraus abgerufen werden. (Eine) Beispielhafte E/A-Vorrichtung(en) 210 beinhaltet/beinhalten Cursorsteuervorrichtungen, Tastaturen, Tastenfelder, Mikrofone, Monitore oder andere Anzeigevorrichtungen, Lautsprecher, Drucker, Netzwerkschnittstellenkarten, Modems, Linsen, CCDs oder andere Bilderfassungsvorrichtungen und dergleichen.
  • Die Anzeigevorrichtung 230 beinhaltet eine beliebige Art von Vorrichtung, die dazu in der Lage ist, einem oder mehreren Benutzern der Rechenvorrichtung 200 Informationen anzuzeigen. Zu Beispielen für eine Anzeigevorrichtung 230 gehören ein Monitor, ein Anzeigeendgerät, eine Videoprojektionsvorrichtung und dergleichen.
  • Die Schnittstelle(n) 206 beinhaltet/beinhalten verschiedene Schnittstellen, die es der Rechenvorrichtung 200 ermöglichen, mit anderen Systemen, Vorrichtungen oder Rechenumgebungen zu interagieren. Zu (einer) beispielhaften Schnittstelle(n) 206 gehören eine beliebige Anzahl von unterschiedlichen Netzwerkschnittstellen 220, wie etwa Schnittstellen mit lokalen Netzwerken (Local Area Networks - LANs), Großraumnetzwerken (Wide Area Networks - WANs), drahtlosen Netzwerken und dem Internet. Zu (einer) andere(n) Schnittstelle(n) gehören eine Benutzerschnittstelle 218 und eine Peripherievorrichtungsschnittstelle 222. Die Schnittstelle(n) 206 kann/können ebenso eine oder mehrere Peripherieschnittstellen beinhalten, wie beispielsweise Schnittstellen für Drucker, Zeigevorrichtungen (Mäuse, Touchpad usw.), Tastaturen und dergleichen.
  • Der Bus 212 ermöglicht dem/den Prozessor(en) 202, der/den Speichervorrichtung(en) 204, der/den Schnittstelle(n) 206, der/den Massenspeichervorrichtung(en) 208, der/den E/A-Vorrichtung(en) 210 und der Anzeigevorrichtung 230, miteinander sowie mit anderen Vorrichtungen oder Komponenten, die an den Bus 212 gekoppelt sind, zu kommunizieren. Der Bus 212 stellt eine oder mehrere von mehreren Arten von Busstrukturen dar, wie etwa einen Systembus, PCI-Bus, IEEE-1394-Bus, USB-Bus und so weiter.
  • Zum Zwecke der Veranschaulichung sind Programme und andere ausführbare Programmkomponenten hierin als getrennte Blöcke gezeigt, auch wenn es sich versteht, dass sich derartige Programme und Komponenten zu verschiedenen Zeitpunkten in unterschiedlichen Speicherkomponenten der Rechenvorrichtung 200 befinden können, und werden durch den/die Prozessor(en) 202 ausgeführt. Alternativ können die hierin beschriebenen Systeme und Vorgänge in Hardware oder einer Kombination aus Hardware, Software und/oder Firmware umgesetzt sein. Ein oder mehrere anwendungsspezifische integrierte Schaltkreise (Application Specific Integrated Circuits - ASICs) können zum Beispiel programmiert sein, um eines oder mehrere der hierin beschriebenen Systeme und Verfahren durchzuführen.
  • Unter Bezugnahme auf 3 kann das veranschaulichte Verfahren 300 verwendet werden, um Daten von den Innenraumsensoren 116 zu erhalten, um den Zustand des Innenraums des Fahrzeugs 100 zu bewerten. Das Verfahren 300 kann durch die Steuerung 102 oder das Serversystem 120 durchgeführt werden oder unter diesen Vorrichtungen aufgeteilt werden.
  • Das Verfahren 300 kann Empfangen 302 von einem oder mehreren ersten Bildern des Innenraums des Fahrzeugs unter Verwendung von einer oder mehreren Kameras 118a, einer oder mehreren IR-Kameras 118b oder sowohl von den einen oder mehreren Kameras 118a als auch den einen oder mehreren IR-Kameras 118b beinhalten.
  • Schritt 302 kann direkt vor dem Abholen von einem oder mehreren Fahrgästen bei einer Fahrt erfolgen, z. B. an einem Abholort, bevor die einen oder mehreren Fahrgäste in das Fahrzeug einsteigen, vor Abfahrt von einem Entsendebereich, an einer Reinigungsstation nach der Reinigung oder Inspektion oder nach dem Absetzen von Fahrgästen von einer vorhergehenden Fahrt.
  • Die einen oder mehreren Bilder aus Schritt 302 können durch die Steuerung 102 gespeichert werden und können zusätzlich oder alternativ an das Serversystem 120 übertragen werden, was diese in einem Fahrtendatenverzeichnis speichern kann.
  • Die Steuerung 100 kann dann einen oder mehrere Fahrgäste abholen 304, autonom zu einem Ziel navigieren und die einen oder mehreren Fahrgäste an dem Ziel absetzen 306.
  • Das Verfahren 300 kann dann Empfangen 308 von einem oder mehreren letzten Bildern des Innenraums des Fahrzeugs unter Verwendung von der einen oder mehreren Kameras 118a, der einen oder mehreren IR-Kameras 118b oder sowohl von der einen oder mehreren Kameras 118a als auch den einen oder mehreren IR-Kameras 118b beinhalten. Schritt 308 kann direkt nach dem Absetzen 306 der einen oder mehreren Fahrgäste erfolgen. Zum Beispiel als Reaktion auf das Erfassen des Schließens von einer oder mehreren Türen des Fahrzeugs 100 nach dem Anhalten an dem Ziel. Die bei Schritt 308 empfangenen Bilder können durch die Steuerung 102 lokal gespeichert oder können zusätzlich oder alternativ an das Serversystem 120 übertragen werden.
  • Das Verfahren 300 kann dann Durchführen 310 einer Hintergrundsubtraktion beinhalten, z. B. Subtrahieren eines ersten Bildes eines Bereichs von einem letzten Bild desselben Bereichs. Zum Beispiel kann das Verfahren 300 in Bezug auf einen Rücksitz eines Fahrzeugs durchgeführt werden, wie in dem Bild sichtbaren Lichts aus 4A gezeigt. In 4B ist ein erstes IR-Bild gezeigt und in 4C ist ein letztes IR-Bild gezeigt, das eine Verschüttung aufweist. Da eine Verschüttung heiß, z. B. verschütteter Kaffee, oder kalt sein kann, z. B. ein kaltes Getränk oder eine Flüssigkeit, die aufgrund von Verdunstung abgekühlt ist, sind Verschüttungen im Allgemeinen auf den IR-Bildern besonders sichtbar. 4D veranschaulicht ein Differenzbild aus dem Subtrahieren der Pixelwerte des Bildes 4B von den entsprechenden Pixelwerten des Bildes 4C; d. h. der Pixel an einer gegebenen Position in dem ersten Bild können von dem Pixel in dieser Position in dem letzten Bild subtrahiert werden, um eine Differenz zu erhalten, die den Pixelwert in dieser Position in dem Differenzbild darstellt.
  • Das Verfahren 300 kann Anwenden 312 von einem oder mehreren Schwellenwerten oder Anwendung von anderen Bildverarbeitungstechniken beinhalten, um Anomalien in dem Differenzbild hervorzuheben. Zum Beispiel können Pixel in dem Differenzbild, die eine Intensität unter einem Schwellenwert aufweisen, entfernt werden. Wenn zum Beispiel eine Pixelintensität zwischen 0 und 255 liegt, können Intensitäten über 40 in dem Differenzbild beibehalten und weiter bewertet werden. Die übrigen Pixel können dann in Cluster zusammenhängender Pixel gruppiert werden. Der Bereich, der durch jedes Cluster eingenommen wird, kann dann bewertet werden. Cluster, die in einem Bereich unter einem Größenschwellenwert enthalten sind, können aus der weiteren Berücksichtigung entfernt werden. Cluster, die in einem Bereich über dem Größenschwellenwert enthalten sind, können weiterverarbeitet oder als Anomalien identifiziert werden, bei denen es sich um eine verschüttete Flüssigkeit handeln kann. In einigen Ausführungsformen handelt es sich bei dem Größenschwellenwert um einen relativen Größenschwellenwert, d. h. Cluster, die geringer als ein Anteil oder eine Funktion der Größe des Clusters in dem Bild sind, können als unter dem Größenschwellenwert liegend bestimmt werden. Es können andere im Fach bekannte Verarbeitungstechniken durchgeführt werden, wie etwa Retinex-Verarbeitung oder dergleichen.
  • In einigen Ausführungsformen kann die Anomalieerfassung aus Schritt 314 Verarbeiten sowohl von Bildern sichtbaren Lichts als auch IR-Bildern beinhalten. Ein IR-Differenzbild kann zum Beispiel als eine Differenz von ersten und letzten (d. h. vor und nach der Fahrgastfahrt aufgenommenen) IR-Bildern berechnet werden. Ein Differenzbild sichtbaren Lichts kann als eine Differenz von ersten und letzten Bildern sichtbaren Lichts berechnet werden. Beide dieser Differenzbilder können analysiert werden, um zu bestimmen, ob eine Anomalie vorhanden ist. Zum Beispiel kann Schwellenwertbildung, Clustering und Bewerten von Clustergrößen für das Differenzbild sichtbaren Lichts auf dieselbe Weise wie vorangehend beschrieben durchgeführt werden. Dementsprechend kann die Wahrscheinlichkeit ansteigen, dass eine Anomalie bestimmt wird, wenn Anomalien sowohl in dem IR-Differenzbild als auch dem Differenzbild sichtbaren Lichts aufgefunden werden.
  • Wenn eine Anomalie 316 in der Ausgabe aus Schritt 314 erfasst wird, kann das Verfahren 300 Übertragen 318 einer Warnung an einen Verteiler beinhalten. In einigen Ausführungsformen kann die Warnung einen Teil eines sichtbaren Bildes beinhalten, das jeder Anomalie entspricht. Wie in 4D gezeigt, gibt zum Beispiel die weiße Region eine Anomalie an. Eine entsprechende Region, z. B. ein Bounding-Rechteck in einem Bild sichtbaren Lichts 4A derselben Region, kann mit der Warnung übertragen werden, wodurch es einem Verteiler ermöglicht wird, zu prüfen, ob eine Verschüttung scheinbar vorhanden ist oder nicht. Zum Beispiel kann das Bild sichtbaren Lichts übertragen werden, wobei die der Anomalie entsprechenden Region hervorgehoben ist, wie etwa mithilfe eines Bounding-Rechtecks, welches das Bild überlagert.
  • Der Verteiler kann das Fahrzeug dann anweisen, sich zu einer Reinigungsstation zu bewegen, oder das Fahrzeug freigeben 320, um autonom an den nächsten Abholort zu fahren, wie etwa den Abholort, der durch die Steuerung 102 von dem Serversystem 120 empfangen wurde. Die Steuerung 102 veranlasst das Fahrzeug dann dazu, sich zu dem Ort zu bewegen, der durch den Verteiler angegeben wird.
  • In der vorstehenden Offenbarung wurde auf die beigefügten Zeichnungen Bezug genommen, die einen Teil davon bilden und in denen zur Veranschaulichung konkrete Umsetzungen gezeigt sind, in denen die Offenbarung ausgeführt sein kann. Es versteht sich, dass andere Umsetzungen verwendet werden können und strukturelle Änderungen vorgenommen werden können, ohne vom Schutzumfang der vorliegenden Offenbarung abzuweichen. Bezugnahmen in der Beschreibung auf „eine Ausführungsform“, „ein Ausführungsbeispiel“ usw. geben an, dass die beschriebene Ausführungsform ein bestimmtes Merkmal, eine bestimmte Struktur oder Eigenschaft beinhalten kann, doch es muss nicht notwendigerweise jede Ausführungsform dieses bestimmte Merkmal, diese bestimmte Struktur oder Eigenschaft beinhalten. Darüber hinaus beziehen sich derartige Formulierungen nicht unbedingt auf dieselbe Ausführungsform. Ferner sei darauf hingewiesen, dass, wenn ein(e) bestimmte(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit einer Ausführungsform beschrieben wird, es im Bereich des Fachwissens des Fachmanns liegt, ein(e) derartige(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit anderen Ausführungsformen zu bewirken, ob dies nun ausdrücklich beschrieben ist oder nicht.
  • Umsetzungen der hierin offenbarten Systeme, Vorrichtungen und Verfahren können einen Spezial- oder Universalcomputer umfassen oder verwenden, der Computerhardware beinhaltet, wie etwa beispielsweise einen oder mehrere Prozessoren und einen oder mehrere Systemspeicher, wie hierin erörtert. Umsetzungen innerhalb des Schutzumfangs der vorliegenden Offenbarung können außerdem physische und andere computerlesbare Medien zum Transportieren oder Speichern von computerausführbaren Anweisungen und/oder Datenstrukturen beinhalten. Bei derartigen computerlesbaren Medien kann es sich um beliebige verfügbare Medien handeln, auf die durch ein Universal- oder Spezialcomputersystem zugegriffen werden kann. Bei computerlesbaren Medien, auf denen computerausführbare Anweisungen gespeichert werden, handelt es sich um Computerspeichermedien (-vorrichtungen). Bei computerlesbaren Medien, die computerausführbare Anweisungen transportieren, handelt es sich um Übertragungsmedien. Daher können Umsetzungen der Offenbarung beispielsweise und nicht einschränkend zumindest zwei deutlich unterschiedliche Arten von computerlesbaren Medien umfassen: Computerspeichermedien (-vorrichtungen) und Übertragungsmedien.
  • Zu Computerspeichermedien (-vorrichtungen) gehören RAM, ROM, EEPROM, CD-ROM, Festkörperlaufwerke (Solid State Drives - SSDs) (z. B. basierend auf RAM), Flash-Speicher, Phasenänderungsspeicher (Phase-Change Memory - PCM), andere Speicherarten, andere optische Plattenspeicher, Magnetplattenspeicher oder andere magnetische Speichervorrichtungen oder ein beliebiges anderes Medium, das verwendet werden kann, um die gewünschten Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu speichern, und auf das durch einen Universal- oder Spezialcomputer zugegriffen werden kann.
  • Eine Umsetzung der hierin offenbarten Vorrichtungen, Systeme und Verfahren kann über ein Computernetzwerk kommunizieren. Ein „Netzwerk“ ist als eine oder mehrere Datenverbindungen definiert, die den Transport elektronischer Daten zwischen Computersystemen und/oder Modulen und/oder anderen elektronischen Vorrichtungen ermöglichen. Wenn Informationen über ein Netzwerk oder eine andere (entweder festverdrahtete, drahtlose oder eine Kombination aus festverdrahteter oder drahtloser) Kommunikationsverbindung an einen Computer übertragen oder diesem bereitgestellt werden, sieht der Computer die Verbindung ordnungsgemäß als Übertragungsmedium an. Übertragungsmedien können ein Netzwerk und/oder Datenverbindungen beinhalten, die verwendet werden können, um gewünschte Programmcodemittel in der Form von computerausführbaren Anweisungen oder Datenstrukturen zu übertragen und auf die durch einen Universal- oder Spezialcomputer zugegriffen werden kann. Kombinationen aus den Vorstehenden sollten ebenfalls im Schutzumfang computerlesbarer Medien beinhaltet sein.
  • Computerausführbare Anweisungen umfassen zum Beispiel Anweisungen und Daten, die bei Ausführung an einem Prozessor einen Universalcomputer, Spezialcomputer oder eine Spezialverarbeitungsvorrichtung dazu veranlassen, eine bestimmte Funktion oder Gruppe von Funktionen auszuführen. Die computerausführbaren Anweisungen können zum Beispiel Binärdateien, Zwischenformatanweisungen, wie etwa Assemblersprache, oder auch Quellcode sein. Obwohl der Gegenstand in für Strukturmerkmale und/oder methodische Handlungen spezifischer Sprache beschrieben wurde, versteht es sich, dass der in den beigefügten Patentansprüchen definierte Gegenstand nicht notwendigerweise auf die vorstehend beschriebenen Merkmale oder Handlungen beschränkt ist. Die beschriebenen Merkmale und Handlungen werden vielmehr als beispielhafte Formen der Umsetzung der Patentansprüche offenbart.
  • Für den Fachmann versteht es sich, dass die Offenbarung in Netzwerkcomputerumgebungen mithilfe vieler Arten von Computersystemkonfigurationen angewendet werden kann, die einen Armaturenbrett-Fahrzeugcomputer, PCs, Desktop-Computer, Laptops, Nachrichtenprozessoren, Handgeräte, Multiprozessorsysteme, Unterhaltungselektronik auf Mikroprozessorbasis oder programmierbare Unterhaltungselektronik, Netzwerk-PCs, Minicomputer, Großcomputer, Mobiltelefone, PDAs, Tablets, Pager, Router, Switches, verschiedene Speichervorrichtungen und dergleichen beinhalten. Die Offenbarung kann zudem in Umgebungen mit verteilten Systemen angewendet werden, in denen sowohl lokale Computersysteme als auch entfernte Computersysteme, die durch ein Netzwerk (entweder durch festverdrahtete Datenverbindungen, drahtlose Datenverbindungen oder durch eine Kombination aus festverdrahteten und drahtlosen Datenverbindungen) verbunden sind, Aufgaben ausführen. In einer Umgebung mit verteilten Systemen können sich Programmmodule sowohl in lokalen Speichervorrichtungen als auch in Fernspeichervorrichtungen befinden.
  • Ferner können die hierin beschriebenen Funktionen gegebenenfalls in einem oder mehreren der Folgenden ausgeführt werden: Hardware, Software, Firmware, digitalen Komponenten oder analogen Komponenten. Ein oder mehrere anwendungsspezifische integrierte Schaltkreise (Application Specific Integrated Circuits - ASICs) können zum Beispiel programmiert sein, um eines oder mehrere der hierin beschriebenen Systeme und Verfahren durchzuführen. Bestimmte Ausdrücke werden in der gesamten Beschreibung und den Patentansprüchen verwendet, um auf bestimmte Systemkomponenten Bezug zu nehmen. Für den Fachmann versteht es sich, dass auf Komponenten durch unterschiedliche Bezeichnungen Bezug genommen werden kann. In dieser Schrift soll nicht zwischen Komponenten unterschieden werden, die sich dem Namen nach unterscheiden, nicht jedoch von der Funktion her.
  • Es ist anzumerken, dass die vorstehend erörterten Sensorausführungsformen Computerhardware, -software, -firmware oder eine beliebige Kombination daraus umfassen können, um zumindest einen Teil ihrer Funktionen auszuführen. Ein Sensor kann zum Beispiel Computercode beinhalten, der dazu konfiguriert ist, in einem oder mehreren Prozessoren ausgeführt zu werden, und kann eine Hardware-Logikschaltung/elektrische Schaltung beinhalten, die durch den Computercode gesteuert wird. Diese beispielhaften Vorrichtungen sind hierin zum Zwecke der Veranschaulichung bereitgestellt und sollen nicht einschränkend sein. Ausführungsformen der vorliegenden Offenbarung können in weiteren Arten von Vorrichtungen umgesetzt werden, wie es dem einschlägigen Fachmann bekannt ist.
  • Zumindest einige Ausführungsformen der Offenbarung wurden Computerprogrammprodukten zugeführt, die eine solche Logik (z. B. in Form von Software) umfassen, die auf einem beliebigen computernutzbaren Medium gespeichert ist. Derartige Software veranlasst bei Ausführung in einer oder mehreren Datenverarbeitungsvorrichtungen eine Vorrichtung dazu, wie hierin beschrieben zu arbeiten.
  • Während vorstehend verschiedene Ausführungsformen der vorliegenden Offenbarung beschrieben wurden, versteht es sich, dass diese lediglich als Beispiele dienen und nicht als Einschränkung. Für den einschlägigen Fachmann wird ersichtlich, dass verschiedene Änderungen in Form und Detail daran vorgenommen werden können, ohne vom Geist und Umfang der Offenbarung abzuweichen. Daher sollen die Breite und der Umfang der vorliegenden Offenbarung durch keines der vorstehend beschriebenen Ausführungsbeispiele eingeschränkt werden, sondern sollen lediglich in Übereinstimmung mit den folgenden Patentansprüchen und ihren Äquivalenten definiert sein. Die vorstehende Beschreibung wurde zum Zwecke der Veranschaulichung und Beschreibung dargelegt. Sie erhebt keinerlei Anspruch auf Vollständigkeit und soll die Offenbarung nicht auf die konkrete offenbarte Form beschränken. Viele Modifikationen und Variationen sind in Anbetracht der vorstehenden Lehren möglich. Ferner ist anzumerken, dass beliebige oder alle der vorangehend genannten alternativen Umsetzungen in einer beliebigen gewünschten Kombination verwendet werden können, um zusätzliche Hybridumsetzungen der Offenbarung zu bilden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 15343726 [0012]

Claims (15)

  1. System für ein Fahrzeug, umfassend: eine Infrarot(IR)-Kamera, die einen Innenraum des Fahrzeugs erfasst; eine Steuerung, die an die IR-Kamera gekoppelt und zu Folgendem programmiert ist: Empfangen einer ersten Ausgabe von der IR-Kamera; Empfangen einer zweiten Ausgabe von der IR-Kamera nach der ersten Ausgabe; und Aufrufen einer Abhilfemaßnahme, wenn eine Änderung zwischen der ersten Ausgabe und der zweiten Ausgabe eine Anomalie angibt.
  2. System nach Anspruch 1, ferner umfassend: eine Kamera für sichtbares Licht, die mit der Steuerung wirkverbunden ist und ein Sichtfeld des Fahrzeugs in dem Sichtfeld davon aufweist; wobei die Steuerung ferner zu Folgendem programmiert ist: Empfangen einer dritten Ausgabe von der Kamera für sichtbares Licht; wenn die Änderung zwischen der ersten Ausgabe und der zweiten Ausgabe die Anomalie angibt: (a) Identifizieren eines relevanten Bereichs (Region Of Interest - ROI) in der dritten Ausgabe, welcher der Anomalie entspricht, und (b) Übertragen des ROI an einen Verteiler; Empfangen einer Eingabe von dem Verteiler; Autonomes Fahren des Fahrzeugs zu einer Reinigungsstation, wenn die Eingabe eine Anweisung ist, sich zu der Reinigungsstation zu bewegen; und Autonomes Fahren des Fahrzeugs zu einem nächsten Abholort, wenn die Eingabe eine Anweisung ist, sich zu dem nächsten Abholort zu bewegen.
  3. System nach Anspruch 2, wobei die Steuerung ferner zu Folgendem programmiert ist: Empfangen einer vierten Ausgabe von der Kamera für sichtbares Licht vor der dritten Ausgabe; Bewerten einer Kombination aus (a) einer Differenz von der ersten Ausgabe und der zweiten Ausgabe und (b) einer Differenz von der vierten Ausgabe und der dritten Ausgabe; und Aufrufen der Abhilfemaßnahme, wenn die Kombination die Anomalie angibt.
  4. System nach Anspruch 1, wobei die Steuerung ferner programmiert ist, um die erste Ausgabe vor dem Abholen eines Fahrgasts mit der IR-Kamera aufzunehmen und um die zweite Ausgabe nach dem Absetzen des Fahrgasts mit der IR-Kamera aufzunehmen.
  5. System nach Anspruch 4, wobei die Steuerung ferner zu Folgendem programmiert ist: Subtrahieren der ersten Ausgabe von der zweiten Ausgabe, um ein Differenzbild zu erhalten; und Bewerten des Differenzbildes, um zu bestimmen, ob die erste Ausgabe und die zweite Ausgabe die Anomalie angeben.
  6. System nach Anspruch 5, wobei die Steuerung ferner zu Folgendem programmiert ist: Identifizieren von Pixeln in dem Differenzbild, die einen Schwellenwert überschreiten; und Bewerten, ob die Pixel in dem Differenzbild, die den Schwellenwert überschreiten, die Anomalie angeben.
  7. System nach Anspruch 5, wobei die Steuerung ferner zu Folgendem programmiert ist: Identifizieren von Pixeln in dem Differenzbild, die einen Schwellenwert überschreiten; und Bewerten, ob die Pixel in dem Differenzbild, die den Schwellenwert überschreiten, die Anomalie angeben.
  8. System nach Anspruch 5, wobei die Steuerung ferner zu Folgendem programmiert ist: Identifizieren von Pixeln in dem Differenzbild, die einen Schwellenwert überschreiten, um Pixel über dem Schwellenwert zu erhalten; Identifizieren von Clustern von zusammenhängenden Pixeln über dem Schwellenwert; und Identifizieren der Cluster, die größer als der Größenschwellenwert sind, als Anomalien, wenn Cluster größer sind als der Größenschwellenwert.
  9. Verfahren, Folgendes durch eine Steuerung umfassend: Empfangen einer ersten Ausgabe von einer IR-Kamera, die einen Innenraum des Fahrzeugs in einem Sichtfeld davon aufweist; Empfangen einer zweiten Ausgabe von der IR-Kamera nach der ersten Ausgabe; Bestimmen, dass eine Änderung zwischen der ersten Ausgabe und der zweiten Ausgabe eine Anomalie angibt; und Aufrufen einer Abhilfemaßnahme als Reaktion auf das Bestimmen, dass die Änderung zwischen der ersten Ausgabe und der zweiten Ausgabe eine Anomalie angibt.
  10. Verfahren nach Anspruch 9, ferner umfassend: Empfangen einer dritten Ausgabe von einer Kamera für sichtbares Licht, wobei ein Sichtfeld der Kamera für sichtbares Licht den Innenraum des Fahrzeugs beinhaltet; als Reaktion auf das Bestimmen, dass die Änderung zwischen der ersten Ausgabe und der zweiten Ausgabe die Anomalie angibt: (a) Identifizieren eines relevanten Bereichs (Region Of Interest - ROI) in der dritten Ausgabe, welcher der Anomalie entspricht, und (b) Übertragen des ROI an einen Verteiler.
  11. Verfahren nach Anspruch 10, ferner umfassend: Empfangen einer Eingabe von dem Verteiler, die eine Anweisung beinhaltet, sich zu einer Reinigungsstation zu bewegen; und Autonomes Fahrens des Fahrzeugs zu der Reinigungsstation als Reaktion auf die Eingabe.
  12. Verfahren nach Anspruch 10, ferner umfassend: Empfangen einer Eingabe von dem Verteiler, die eine Anweisung beinhaltet, sich zu einem nächsten Abholort zu bewegen; und Autonomes Fahrens des Fahrzeugs zu dem nächsten Abholort als Reaktion auf die Eingabe.
  13. Verfahren nach Anspruch 10, ferner umfassend: Empfangen einer vierten Ausgabe von der Kamera für sichtbares Licht vor der dritten Ausgabe; Bewerten einer Kombination aus einer Differenz von der ersten Ausgabe und der zweiten Ausgabe und einer Differenz von der vierten Ausgabe und der dritten Ausgabe; und Bestimmen, dass die Kombination die Anomalie angibt.
  14. Verfahren nach Anspruch 9, ferner umfassend: Aufnehmen der ersten Ausgabe mit der IR-Kamera vor dem Abholen eines Fahrgasts und Aufnehmen der zweiten Ausgabe mit der IR-Kamera nach dem Absetzen des Fahrgasts; Subtrahieren der ersten Ausgabe von der zweiten Ausgabe, um ein Differenzbild zu erhalten; Identifizieren von Pixeln in dem Differenzbild, die einen Schwellenwert überschreiten; und Bewerten, ob die Pixel in dem Differenzbild, die den Schwellenwert überschreiten, die Anomalie angeben.
  15. Verfahren nach Anspruch 14, ferner umfassend: Identifizieren von Pixeln in dem Differenzbild, die einen Schwellenwert überschreiten, um Pixel über dem Schwellenwert zu erhalten; Identifizieren von Clustern von zusammenhängenden Pixeln über dem Schwellenwert; und Identifizieren der Cluster, die größer sind als der Größenschwellenwert, als Anomalien.
DE102018102285.9A 2017-02-03 2018-02-01 System und verfahren zum beurteilen des innenraums eines autonomen fahrzeugs Pending DE102018102285A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/424,309 US10290158B2 (en) 2017-02-03 2017-02-03 System and method for assessing the interior of an autonomous vehicle
US15/424309 2017-02-03

Publications (1)

Publication Number Publication Date
DE102018102285A1 true DE102018102285A1 (de) 2018-08-09

Family

ID=61730967

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018102285.9A Pending DE102018102285A1 (de) 2017-02-03 2018-02-01 System und verfahren zum beurteilen des innenraums eines autonomen fahrzeugs

Country Status (6)

Country Link
US (1) US10290158B2 (de)
CN (1) CN108388837B (de)
DE (1) DE102018102285A1 (de)
GB (1) GB2561062A (de)
MX (1) MX2018001297A (de)
RU (1) RU2018103182A (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019208871A1 (de) * 2019-06-18 2020-12-24 Thyssenkrupp Ag Einrichtung und Verfahren zur Ermittlung des Innenraumzustandes eines Fahrzeugs
DE102022202349A1 (de) 2022-03-09 2023-09-14 Brose Fahrzeugteile Se & Co. Kommanditgesellschaft, Bamberg Verfahren und Überwachungssystem zur elektronischen Ermittlung eines Reinigungsbedarfes betreffend einen Innenraum eines Fahrzeuges

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9807172B2 (en) * 2013-10-18 2017-10-31 At&T Intellectual Property I, L.P. Mobile device intermediary for vehicle adaptation
JP2019087045A (ja) * 2017-11-07 2019-06-06 トヨタ自動車株式会社 ドライバレス輸送システム
US11073838B2 (en) 2018-01-06 2021-07-27 Drivent Llc Self-driving vehicle systems and methods
US10303181B1 (en) 2018-11-29 2019-05-28 Eric John Wengreen Self-driving vehicle systems and methods
US11410436B2 (en) 2018-03-29 2022-08-09 Robert Bosch Gmbh Method and system for vision-based vehicle interior environment sensing guided by vehicle prior information
CN109190577B (zh) * 2018-09-13 2021-10-26 长安大学 一种结合头枕和人脸特征的出租车副驾座异常的图像信号检测方法
US10493952B1 (en) 2019-03-21 2019-12-03 Drivent Llc Self-driving vehicle systems and methods
US10471804B1 (en) 2018-09-18 2019-11-12 Drivent Llc Self-driving vehicle systems and methods
US10289922B1 (en) * 2018-09-18 2019-05-14 Eric John Wengreen System for managing lost, mislaid, or abandoned property in a self-driving vehicle
US10282625B1 (en) 2018-10-01 2019-05-07 Eric John Wengreen Self-driving vehicle systems and methods
US10479319B1 (en) 2019-03-21 2019-11-19 Drivent Llc Self-driving vehicle systems and methods
US10900792B2 (en) 2018-10-22 2021-01-26 Drivent Llc Self-driving vehicle systems and methods
US10794714B2 (en) 2018-10-01 2020-10-06 Drivent Llc Self-driving vehicle systems and methods
US11644833B2 (en) 2018-10-01 2023-05-09 Drivent Llc Self-driving vehicle systems and methods
US10832569B2 (en) 2019-04-02 2020-11-10 Drivent Llc Vehicle detection systems
US11221622B2 (en) 2019-03-21 2022-01-11 Drivent Llc Self-driving vehicle systems and methods
US10481606B1 (en) 2018-11-01 2019-11-19 Drivent Llc Self-driving vehicle systems and methods
JP2020095354A (ja) * 2018-12-10 2020-06-18 トヨタ自動車株式会社 運行支援装置、運行支援システム、及び運行支援プログラム
US10377342B1 (en) 2019-02-04 2019-08-13 Drivent Technologies Inc. Self-driving vehicle systems and methods
US10744976B1 (en) 2019-02-04 2020-08-18 Drivent Llc Self-driving vehicle systems and methods
CN110110704A (zh) * 2019-05-21 2019-08-09 北京首汽智行科技有限公司 一种车辆卫生监控方法及系统
EP3796209A1 (de) * 2019-09-17 2021-03-24 Aptiv Technologies Limited Verfahren und system zur bestimmung einer aktivität eines insassen eines fahrzeugs
US11361574B2 (en) 2019-10-23 2022-06-14 Bendix Commercial Vehicle Systems Llc System and method for monitoring for driver presence and position using a driver facing camera
US11334985B2 (en) 2019-10-25 2022-05-17 Robert Bosch Gmbh System and method for shared vehicle cleanliness detection
US11017248B1 (en) 2019-12-18 2021-05-25 Waymo Llc Interior camera system for a self driving car
US11262562B2 (en) 2020-03-18 2022-03-01 Waymo Llc Infrared camera module cover
US20220063569A1 (en) * 2020-08-27 2022-03-03 Ford Global Technologies, Llc Wet seat detection
FR3116686B1 (fr) * 2020-11-26 2023-12-08 Faurecia Interieur Ind Dispositif de capture d’images et véhicule comprenant un tel dispositif de capture d’images
CN112525267A (zh) * 2020-12-21 2021-03-19 南京领行科技股份有限公司 一种车内环境检测方法、装置、电子设备及存储介质
US11820338B2 (en) 2021-02-10 2023-11-21 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle cleaning and feedback system using adjustable ground truth
US11780349B2 (en) 2021-03-10 2023-10-10 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for detecting objects left behind by using heated resistive filament in a vehicle
JP2022155335A (ja) * 2021-03-30 2022-10-13 パナソニックIpマネジメント株式会社 インキャビンモニタリングシステムおよび車室内検知方法
CN113246931B (zh) * 2021-06-11 2021-09-28 创新奇智(成都)科技有限公司 一种车辆控制方法、装置、电子设备及存储介质

Family Cites Families (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9290146B2 (en) * 1992-05-05 2016-03-22 Intelligent Technologies International, Inc. Optical monitoring of vehicle interiors
US7596242B2 (en) 1995-06-07 2009-09-29 Automotive Technologies International, Inc. Image processing for vehicular applications
JPH06273255A (ja) 1993-03-22 1994-09-30 Mitsubishi Heavy Ind Ltd 漏油検知方法及び装置
US6587573B1 (en) * 2000-03-20 2003-07-01 Gentex Corporation System for controlling exterior vehicle lights
US6005958A (en) * 1997-04-23 1999-12-21 Automotive Systems Laboratory, Inc. Occupant type and position detection system
US7027621B1 (en) * 2001-03-15 2006-04-11 Mikos, Ltd. Method and apparatus for operator condition monitoring and assessment
US7813559B2 (en) 2001-11-13 2010-10-12 Cyberoptics Corporation Image analysis for pick and place machines with in situ component placement inspection
US6781676B2 (en) * 2002-03-22 2004-08-24 Trw Inc. Structured lighting detection of vehicle occupant type and position
SE0201529D0 (sv) 2002-05-21 2002-05-21 Flir Systems Ab Method and apparatus for IR camera inspections
DE10305861A1 (de) 2003-02-13 2004-08-26 Adam Opel Ag Vorrichtung eines Kraftfahrzeuges zur räumlichen Erfassung einer Szene innerhalb und/oder außerhalb des Kraftfahrzeuges
EP1639332A2 (de) 2003-06-11 2006-03-29 Furry Brothers, LLC Systeme und verfahren zur durchführung von untersuchungen und zur erkennung chemischer lecks unter verwendung eines infrarot-kamerasystems
JP3832455B2 (ja) * 2003-07-31 2006-10-11 日産自動車株式会社 車輌周囲表示装置
US20050131625A1 (en) 2003-11-19 2005-06-16 Birger Alexander B. Schoolchildren transportation management systems, methods and computer program products
JP4351919B2 (ja) 2004-01-21 2009-10-28 株式会社ケンウッド 送りバス用管理装置、出迎え管理装置、送りバス用管理方法及び出迎え管理方法
KR101078474B1 (ko) 2006-06-08 2011-10-31 후지쯔 가부시끼가이샤 오염 검출 장치
JP5178085B2 (ja) * 2007-08-07 2013-04-10 株式会社村上開明堂 撮像装置付きバックミラー
US8124931B2 (en) 2007-08-10 2012-02-28 Schlumberger Technology Corporation Method and apparatus for oil spill detection
DE102008009190A1 (de) 2008-02-15 2009-08-27 Siemens Aktiengesellschaft Verfahren zur automatischen Bestimmung der Ruhephase des Herzens
WO2014106278A1 (en) * 2012-12-31 2014-07-03 Flir Systems, Inc. Anomalous pixel detection
JP5509801B2 (ja) 2009-11-13 2014-06-04 三菱電機株式会社 エレベータシステム
JP5680667B2 (ja) * 2009-12-02 2015-03-04 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited 運転者の覚醒状態の特定システム及び方法
US8959163B1 (en) * 2010-08-04 2015-02-17 Open Invention Network, Llc Method and apparatus of organizing and delivering data to intended recipients
CN103493112B (zh) * 2011-02-22 2016-09-21 菲力尔系统公司 红外传感器系统及方法
KR101251836B1 (ko) * 2011-09-02 2013-04-09 현대자동차주식회사 적외선 센서를 이용한 운전자 상태감시 장치 및 그 방법
US9202118B2 (en) * 2011-12-13 2015-12-01 Xerox Corporation Determining a pixel classification threshold for vehicle occupancy detection
CN202448860U (zh) 2011-12-21 2012-09-26 浙江吉利汽车研究院有限公司 一种出租车行李遗忘提醒装置
CN202422205U (zh) 2012-02-29 2012-09-05 李德明 移动助学公交管理系统
US9128185B2 (en) 2012-03-15 2015-09-08 GM Global Technology Operations LLC Methods and apparatus of fusing radar/camera object data and LiDAR scan points
DE102012007559A1 (de) 2012-04-14 2012-11-08 Daimler Ag Verfahren und Vorrichtung zur Dichtheitsprüfung eines Fahrzeugs
MX2015000035A (es) 2012-07-04 2015-08-05 Repsol Sa Sistema integrado de deteccion temprana de hidrocarburos en un medio acuoso.
JP5891306B2 (ja) 2012-08-07 2016-03-22 株式会社日立製作所 自律走行装置の利用支援ツール、運用管理センタ、運用システム及び自律走行装置
CN202871022U (zh) 2012-08-08 2013-04-10 厦门雅迅网络股份有限公司 一种基于gps和人脸识别的校车全自动监控系统
US20140163329A1 (en) 2012-12-11 2014-06-12 Elwha Llc Unobtrusive Active Eye Interrogation with Gaze Attractor
US9101297B2 (en) 2012-12-11 2015-08-11 Elwha Llc Time-based unobtrusive active eye interrogation
WO2014100786A1 (en) * 2012-12-21 2014-06-26 Flir Systems, Inc. Selective image correction for infrared imaging devices
DE102013001332B4 (de) 2013-01-26 2017-08-10 Audi Ag Verfahren zur Erfassung des Verschmutzungsgrades eines Fahrzeugs
US9488982B2 (en) 2013-02-03 2016-11-08 Michael H Gurin Systems for a shared vehicle
WO2014120248A1 (en) * 2013-02-03 2014-08-07 Michael Gurin Systems for a shared vehicle
CN203224912U (zh) 2013-02-28 2013-10-02 湖南科技学院 基于物联网的校车安全监控系统
US9751534B2 (en) * 2013-03-15 2017-09-05 Honda Motor Co., Ltd. System and method for responding to driver state
JP6343769B2 (ja) 2013-08-23 2018-06-20 中嶋 公栄 忘れ物防止システム、旅客自動車の乗務員に対する情報提供方法、コンピュータプログラム
US20150077556A1 (en) * 2013-09-13 2015-03-19 Ford Global Technologies, Llc Vehicle system for automated video recording
JP5818857B2 (ja) 2013-10-24 2015-11-18 キヤノン株式会社 情報処理装置およびその制御方法
CN104601937A (zh) 2013-10-31 2015-05-06 大连易维立方技术有限公司 校车远程安全监控系统
CN104597857A (zh) 2013-10-31 2015-05-06 大连易维立方技术有限公司 校车远程安全监控方法
US9814410B2 (en) 2014-05-06 2017-11-14 Stryker Corporation Person support apparatus with position monitoring
BR112016029038B1 (pt) * 2014-06-11 2023-02-28 Veridium Ip Limited Sistema e método para facilitar acesso de usuário a veículos com base em informações biométricas
US20160078576A1 (en) 2014-09-17 2016-03-17 Fortress Systems International, Inc. Cloud-based vehicle monitoring systems and methods
US10133927B2 (en) 2014-11-14 2018-11-20 Sony Corporation Method and system for processing video content
CN114723741A (zh) 2015-04-23 2022-07-08 Bd科斯特公司 用于自动计数微生物菌落的方法和系统
KR101646134B1 (ko) * 2015-05-06 2016-08-05 현대자동차 주식회사 자율주행차량 및 그 제어 방법
US9616773B2 (en) 2015-05-11 2017-04-11 Uber Technologies, Inc. Detecting objects within a vehicle in connection with a service
KR102096334B1 (ko) * 2015-06-03 2020-04-02 클리어모션, 아이엔씨. 차체 모션 및 승객 경험을 제어하기 위한 방법 및 시스템
US10150448B2 (en) 2015-09-18 2018-12-11 Ford Global Technologies. Llc Autonomous vehicle unauthorized passenger or object detection
US20170091559A1 (en) * 2015-09-29 2017-03-30 Valeo North America, Inc. Camera monitor system for a vehicle
US10040432B2 (en) 2016-01-26 2018-08-07 GM Global Technology Operations LLC Systems and methods for promoting cleanliness of a vehicle
US20170267251A1 (en) * 2016-03-15 2017-09-21 Palo Alto Research Center Incorporated System And Method For Providing Context-Specific Vehicular Driver Interactions
KR101777518B1 (ko) * 2016-04-07 2017-09-11 엘지전자 주식회사 인테리어 카메라 장치, 이를 포함하는 차량 운전 보조장치 및 이를 포함하는 차량
US20170330044A1 (en) 2016-05-10 2017-11-16 GM Global Technology Operations LLC Thermal monitoring in autonomous-driving vehicles
JP6792351B2 (ja) 2016-06-01 2020-11-25 キヤノン株式会社 符号化装置、撮像装置、符号化方法、及びプログラム
US9760827B1 (en) * 2016-07-22 2017-09-12 Alpine Electronics of Silicon Valley, Inc. Neural network applications in resource constrained environments
US10479328B2 (en) * 2016-11-04 2019-11-19 Ford Global Technologies, Llc System and methods for assessing the interior of an autonomous vehicle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019208871A1 (de) * 2019-06-18 2020-12-24 Thyssenkrupp Ag Einrichtung und Verfahren zur Ermittlung des Innenraumzustandes eines Fahrzeugs
DE102022202349A1 (de) 2022-03-09 2023-09-14 Brose Fahrzeugteile Se & Co. Kommanditgesellschaft, Bamberg Verfahren und Überwachungssystem zur elektronischen Ermittlung eines Reinigungsbedarfes betreffend einen Innenraum eines Fahrzeuges

Also Published As

Publication number Publication date
GB2561062A (en) 2018-10-03
GB201801668D0 (en) 2018-03-21
RU2018103182A (ru) 2019-07-30
CN108388837B (zh) 2023-07-04
US20180225890A1 (en) 2018-08-09
MX2018001297A (es) 2018-11-09
CN108388837A (zh) 2018-08-10
US10290158B2 (en) 2019-05-14

Similar Documents

Publication Publication Date Title
DE102018102285A1 (de) System und verfahren zum beurteilen des innenraums eines autonomen fahrzeugs
DE102017125484A1 (de) System und verfahren zum einschätzen des innenraums eines autonomen fahrzeugs
DE102018101125A1 (de) Rekurrentes tiefes neuronales Faltungsnetzwerk zur Detektion von Objekten
DE102019117618A1 (de) Fahrzeugklassifizierungssystem
DE112017007713T5 (de) Systeme und Verfahren zur Fahrzeugbelegungsverwaltung
DE102014220302B4 (de) Verfahren zur Durchführung einer Aktions-Erkennung auf einem Bild eines Fahrers in einem Fahrzeug sowie entsprechendes Nichtflüchtiges, Computer-lesbares Speichermedium und Verfahren zum Lernen eines Random Forest Modells zur Aktionserkennung
DE112020002602T5 (de) Multi-objektverfolgung mit hilfe von korrelationsfiltern in videoanalyseanwendungen
DE102017129076A1 (de) Autonomer schulbus
DE102018101318A1 (de) Objekterkennung unter verwendung eines rekurrenten neuronalen netzwerks und einer verketteten merkmalsabbildung
DE102019112002A1 (de) Systeme und verfahren zur automatischen detektion von anhängereigenschaften
DE102017105903A1 (de) Fussgängerdetektion und Bewegungsvorhersage mit nach hinten gerichteter Kamera
DE112019000279T5 (de) Steuern autonomer fahrzeuge anhand sicherer ankunftszeiten
DE102020114916A1 (de) Systeme und verfahren zum reduzieren von flimmerartefakten in bildlichtquellen
DE102018101220A1 (de) Zeichenerkennung für autonome fahrzeuge
DE102017117158A1 (de) Systeme und verfahren für das management von spurwechseln beim autonomen fahren
DE102017115318A1 (de) Heads-Up-Anzeige zum Beobachten von Fahrzeugwahrnehmungsaktivität
DE112017006295T5 (de) Abholen und absetzen von fluggästen an einem flughafen unter verwendung eines autonomen fahrzeugs
DE102019115455A1 (de) Fokus-basiertes markieren von sensordaten
DE102013205810A1 (de) System und verfahren zum einschätzen von verfügbaren parkplätzen zum parken auf der strasse mit mehreren plätzen
DE102017127972A1 (de) Mehrfachsensor-Wahrscheinlichkeitsobjekterkennung und automatisiertes Bremsen
DE102020100685A1 (de) Vorhersage zeitlicher informationen in autonomenmaschinenanwendungen
DE112019004488B4 (de) Doppelmodus-Datenerfassungssystem zur Kollisionserfassung und Objektdimensionierung und Verfahren zur Doppelmodus-Datenerfassung
DE102020105117A1 (de) Verfahren und Systeme zum Verbessern von Karten
DE102019122266A1 (de) Systeme und Verfahren zur Parkverwaltung
EP2951804A1 (de) Erstellen eines umfeldmodells für ein fahrzeug

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: LORENZ SEIDLER GOSSEL RECHTSANWAELTE PATENTANW, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R084 Declaration of willingness to licence