DE102018102285A1 - System und verfahren zum beurteilen des innenraums eines autonomen fahrzeugs - Google Patents
System und verfahren zum beurteilen des innenraums eines autonomen fahrzeugs Download PDFInfo
- Publication number
- DE102018102285A1 DE102018102285A1 DE102018102285.9A DE102018102285A DE102018102285A1 DE 102018102285 A1 DE102018102285 A1 DE 102018102285A1 DE 102018102285 A DE102018102285 A DE 102018102285A DE 102018102285 A1 DE102018102285 A1 DE 102018102285A1
- Authority
- DE
- Germany
- Prior art keywords
- output
- threshold
- vehicle
- anomaly
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 33
- 238000004140 cleaning Methods 0.000 claims abstract description 8
- 230000008859 change Effects 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 5
- 230000000246 remedial effect Effects 0.000 claims 2
- 230000002547 anomalous effect Effects 0.000 abstract 1
- 230000015654 memory Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 239000007788 liquid Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000029305 taxis Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000001444 catalytic combustion detection Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 235000020965 cold beverage Nutrition 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008020 evaporation Effects 0.000 description 1
- 238000001704 evaporation Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/006—Indicating maintenance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60S—SERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
- B60S3/00—Vehicle cleaning apparatus not integral with vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60S—SERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
- B60S5/00—Servicing, maintaining, repairing, or refitting of vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/04—Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
- B60W10/06—Conjoint control of vehicle sub-units of different type or different function including control of propulsion units including control of combustion engines
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/18—Conjoint control of vehicle sub-units of different type or different function including control of braking systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0953—Predicting travel path or likelihood of collision the prediction being responsive to vehicle dynamic parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/20—Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
- G08G1/202—Dispatching vehicles on the basis of a location, e.g. taxi dispatching
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/20—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/307—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2710/00—Output or target parameters relating to a particular sub-units
- B60W2710/06—Combustion engines, Gas turbines
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2710/00—Output or target parameters relating to a particular sub-units
- B60W2710/18—Braking system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2710/00—Output or target parameters relating to a particular sub-units
- B60W2710/20—Steering systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30268—Vehicle interior
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0841—Registering performance data
- G07C5/0875—Registering performance data using magnetic data carriers
- G07C5/0891—Video recorder in combination with video camera
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Transportation (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Automation & Control Theory (AREA)
- Quality & Reliability (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Business, Economics & Management (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Ein autonomes Fahrzeug beinhaltet Innenraumsensoren, die eine IR-Kamera und eine Kamera für sichtbares Licht beinhalten. Bilder eines Innenraums des Fahrzeugs werden unter Verwendung der Kameras sowohl bevor als auch nachdem der Fahrgast in dem Fahrzeug mitfährt aufgenommen. Die IR-Bilder von vorher und nachher werden subtrahiert, um ein Differenzbild zu erhalten. Pixel über einer Schwellenintensität werden zu einem Cluster zusammengefasst. Cluster, die eine Größe über einem Schwellenwert aufweisen, werden als Anomalien bestimmt. Teile von Bildern von der Kamera für sichtbares Licht, die den Anomalien entsprechen, werden an einen Verteiler gesendet, der das Fahrzeug dann für das Abholen eines weiteren Fahrgastes freigeben oder dieses an eine Reinigungsstation schicken kann. Anomalien können auf Grundlage einer Kombination aus den IR-Bildern und den Bildern sichtbaren Lichts identifiziert werden.
Description
- ALLGEMEINER STAND DER TECHNIK
- GEBIET DER ERFINDUNG
- Diese Offenbarung betrifft ein Sensorsystem und Verfahren für ein autonomes Fahrzeug.
- ALLGEMEINER STAND DER TECHNIK
- Autonome Fahrzeuge sind Gegenstand vieler Forschungs- und Entwicklungsbemühungen. Solche Fahrzeuge beinhalten einen Satz von Sensoren und Steuerlogik, welche die Identifizierung und Umfahrung von Hindernissen und die Navigation zu einem Ziel ermöglichen. Eine Anwendung von autonomen Fahrzeugen ist die Verwendung als Taxis, die auf Anfrage einen Fahrgast abholen können.
- Das hierin offenbarte System und Verfahren stellt einen Ansatz zum Bereitstellen von autonomen Taxidiensten bereit.
- Figurenliste
- Damit die Vorteile der Erfindung ohne Weiteres verstanden werden, erfolgt durch Bezugnahme auf konkrete Ausführungsformen, die in den beigefügten Zeichnungen veranschaulicht sind, eine genauere Beschreibung der vorstehend kurz beschriebenen Erfindung. Unter der Kenntnisnahme, dass diese Zeichnungen lediglich typische Ausführungsformen der Erfindung darstellen und daher nicht als den Umfang beschränkend aufzufassen sind, wird die Erfindung mit zusätzlicher Genauigkeit und Ausführlichkeit durch die Verwendung der beigefügten Zeichnungen beschrieben und erläutert, in denen Folgendes gilt:
-
1A ist ein schematisches Blockdiagramm eines Systems zum Umsetzen von Ausführungsformen der Erfindung; -
1B ist ein schematisches Blockdiagramm eines Fahrzeugs, das Innenraumsensoren zum Umsetzen von Ausführungsformen der Erfindung beinhaltet; -
2 ist ein schematisches Blockdiagramm einer beispielhaften Rechenvorrichtung, die zum Umsetzen von Verfahren gemäß den Ausführungsformen der Erfindung geeignet ist; -
3 ist ein Prozessablaufdiagramm eines Verfahrens zum Bewerten eines Zustands eines autonomen Taxis gemäß einer Ausführungsform der vorliegenden Erfindung; und -
4A bis4D sind Bilder, welche die Identifizierung von Anomalien in dem Innenraum eines Fahrzeugs gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulichen. - DETAILLIERTE BESCHREIBUNG
- Unter Bezugnahme auf
1A und1B kann ein Fahrzeug100 (siehe1B ) eine Steuerung102 aufnehmen. Das Fahrzeug100 kann ein beliebiges im Fach bekanntes Fahrzeug beinhalten. Das Fahrzeug100 kann alle der Strukturen und Merkmale eines beliebigen im Fach bekannten Fahrzeugs aufweisen, einschließlich Rädern, eines an die Räder gekoppelten Antriebsstrangs, eines an den Antriebsstrang gekoppelten Motors, eines Lenksystems, eines Bremssystems und anderer in ein Fahrzeug zu integrierender Systeme, die im Fach bekannt sind. - Wie hier ausführlicher erörtert, kann die Steuerung
102 autonome Navigation und Kollisionsvermeidung durchführen. Die Steuerung102 kann eine oder mehrere Ausgaben von einem oder mehreren Außensensoren104 empfangen. Zum Beispiel können eine oder mehrere Kameras106a an dem Fahrzeug100 angebracht sein und empfangene Bildströme an die Steuerung102 ausgeben. Die Steuerung102 kann ein oder mehrere Audioströme von einem oder mehreren Mikrofonen106b empfangen. Zum Beispiel können die einen oder mehrere Mikrofone106b oder Mikrofonarrays106b an dem Fahrzeug100 angebracht sein und von der Steuerung102 empfangene Audioströme ausgeben. Die Mikrofone106b können Richtmikrofone mit einer Empfindlichkeit, die mit dem Winkel variiert, beinhalten. - Die Außensensoren
104 können Sensoren wie etwa einen RADAR(Radio Detection and Ranging)-Sensor 106c, einen LIDAR(Light Detection and Ranging)-Sensor 106d, einen SONAR(Sound Navigation and Ranging)-Sensor 106e und dergleichen beinhalten. - Die Steuerung
102 kann ein autonomes Betriebsmodul108 ausführen, das die Ausgaben der Außensensoren104 empfängt. Das autonome Betriebsmodul108 kann ein Hindernisidentifikationsmodul110a , ein Kollisionsvorhersagemodul110b und ein Entscheidungsmodul110c beinhalten. Das Hindernisidentifikationsmodul110a analysiert die Ausgaben der Außensensoren und identifiziert mögliche Hindernisse, einschließlich Menschen, Tiere, Fahrzeuge, Gebäude, Bordsteine und andere Objekte und Strukturen. Insbesondere kann das Hindernisidentifikationsmodul110a Fahrzeugbilder in den Sensorausgaben identifizieren. - Das Kollisionsvorhersagemodul
110b sagt vorher, welche Hindernisbilder auf Grundlage von seinem gegenwärtigen Kurs oder gegenwärtig beabsichtigten Weg wahrscheinlich mit dem Fahrzeug100 kollidieren werden. Das Kollisionsvorhersagemodul110b kann die Wahrscheinlichkeit einer Kollision mit Objekten, die durch das Hindernisidentifikationsmodul110a identifiziert wurden, bewerten. Das Entscheidungsmodul110c kann eine Entscheidung treffen, um anzuhalten, zu beschleunigen, eine Kurve zu fahren usw., um Hindernisse zu umfahren. Die Weise, auf die das Kollisionsvorhersagemodul110b mögliche Kollisionen vorhersagt, und die Weise, auf die das Entscheidungsmodul110c Maßnahmen ergreift, um mögliche Kollisionen zu verhindern, können gemäß einem beliebigen auf dem Fachgebiet autonomer Fahrzeuge bekannten Verfahren oder System sein. - Das Entscheidungsmodul
110c kann den Kurs des Fahrzeugs durch Betätigen von einem oder mehreren Aktoren112 , welche die Richtung und Geschwindigkeit des Fahrzeugs100 steuern, steuern. Zum Beispiel können die Aktoren112 einen Lenkaktor114a , einen Beschleunigungsaktor114b und einen Bremsaktor114c beinhalten. Die Konfiguration der Aktoren114a -114c kann gemäß einer beliebigen Umsetzung solcher im Fachgebiet autonomer Fahrzeuge bekannten Aktoren erfolgen. - In hierin offenbarten Ausführungsformen kann das autonome Betriebsmodul
108 autonome Navigation zu einem spezifizierten Ort, autonomes Parken und andere im Fach bekannte automatisierte Fahraktivitäten durchführen. - Das autonome Betriebsmodul
108 kann ferner ein Innenraummodul110d beinhalten, das einen Zustand des Innenraums des Fahrzeugs100 gemäß den hierin offenbarten Verfahren bewertet. Das Innenraummodul110d kann Ausgaben von einem oder mehreren Innenraumsensoren116 bewerten. Die Innenraumsensoren116 können eine oder mehrere Kameras118a beinhalten, d. h. eine Kamera für sichtbares Licht, wie etwa eine Standbild- oder Videokamera. Die Innenraumsensoren116 können außerdem eine oder mehrere Infrarot(IR)-Kameras 118b beinhalten. Die Innenraumsensoren116 können einen beliebigen im Fach bekannten Sensor beinhalten, wie etwa einen elektrochemischen Sensor, Feuchtigkeitssensor oder ein elektronisches Thermometer. Das Innenraummodul110d kann zum Beispiel die Techniken umsetzen, die inUS-Anmeldung Nr. 15/343,726 2016 , mit dem Titel „A System and Methods for Assessing the Interior of an Autonomous Vehicle“, die hiermit vollständig hierin aufgenommen ist, offenbart werden. - Wie in
1B gezeigt, können eine oder mehrere Kameras118a in dem Fahrzeug positioniert und ausgerichtet sein, um alle Sitzoberflächen (Sitzflächen und Sitzrückenlehnen) im Blickfeld von zumindest einer der Kameras118a zu haben. Andere Bereiche des Innenraums des Fahrzeugs können sich ebenfalls in dem Blickfeld von zumindest einer der Kameras118a befinden. - Eine oder mehrere IR-Kameras
118b können in dem Fahrzeug positioniert und ausgerichtet sein, um alle Sitzoberflächen (Sitzflächen und Sitzrückenlehnen) im Blickfeld von zumindest einer der IR-Kameras118b zu haben. Andere Bereiche des Innenraums des Fahrzeugs können sich ebenfalls in dem Blickfeld von zumindest einer der IR-Kameras118b befinden. - Die Steuerung
102 kann in Datenkommunikation mit einem Server120 stehen, wie etwa mithilfe eines Netzwerks122 , das eine beliebige verdrahtete oder drahtlose Netzwerkverbindung beinhalten kann, einschließlich einer Verbindung eines Mobilfunk-Datennetzes. Die hierin offenbarten Verfahren können durch den Server120 , die Steuerung102 oder eine Kombination aus den beiden umgesetzt werden. -
2 ist ein Blockdiagramm, das eine beispielhafte Rechenvorrichtung200 veranschaulicht. Die Rechenvorrichtung200 kann dazu verwendet werden, verschiedene Vorgänge auszuführen, wie etwa die hierin erörterten. Die Steuerung102 und das Serversystem120 können einige oder alle der Attribute der Rechenvorrichtung200 aufweisen. - Die Rechenvorrichtung
200 beinhaltet einen oder mehrere Prozessor(en)202 , eine oder mehrere Speichervorrichtung(en)204 , eine oder mehrere Schnittstelle(n) 206, eine oder mehrere Massenspeichervorrichtung(en)208 , eine oder mehrere Ein-/Ausgabe-(E/A-)Vorrichtung(en) 210 und eine Anzeigevorrichtung230 , die alle an einen Bus212 gekoppelt sind. Der/Die Prozessor(en)202 beinhaltet/beinhalten eine(n) oder mehrere Prozessoren oder Steuerungen, der/die in der/den Speichervorrichtung(en)204 und/oder der/den Massenspeichervorrichtung(en)208 gespeicherte Anweisungen ausführen. Der/Die Prozessor(en)202 kann/können zudem verschiedene Arten von computerlesbaren Medien beinhalten, wie etwa Cache-Speicher. - Die Speichervorrichtung(en)
204 beinhaltet/beinhalten verschiedene computerlesbare Medien, wie etwa flüchtigen Speicher (z. B. Direktzugriffsspeicher (Random Access Memory - RAM) 214) und/oder nichtflüchtigen Speicher (z. B. Festwertspeicher (Read-Only Memory - ROM) 216). Die Speichervorrichtung(en)204 kann/können zudem wiederbeschreibbaren ROM beinhalten, wie etwa Flash-Speicher. - Die Massenspeichervorrichtung(en)
208 beinhaltet/beinhalten verschiedene computerlesbare Medien, wie etwa Magnetbänder, Magnetplatten, optische Platten, Festkörperspeicher (z. B. Flash-Speicher) und so weiter. Wie in2 gezeigt, ist eine besondere Massenspeichervorrichtung ein Festplattenlaufwerk224 . Zudem können verschiedene Laufwerke in der/den Massenspeichervorrichtung(en)208 enthalten sein, um ein Auslesen aus und/oder Schreiben auf die verschiedenen computerlesbaren Medien zu ermöglichen. Die Massenspeichervorrichtung(en)208 beinhaltet/beinhalten entfernbare Medien226 und/oder nichtentfernbare Medien. - Die E/A-Vorrichtung(en) 210 beinhaltet/beinhalten verschiedene Vorrichtungen, die es ermöglichen, dass Daten und/oder andere Informationen in die Rechenvorrichtung
200 eingegeben oder daraus abgerufen werden. (Eine) Beispielhafte E/A-Vorrichtung(en) 210 beinhaltet/beinhalten Cursorsteuervorrichtungen, Tastaturen, Tastenfelder, Mikrofone, Monitore oder andere Anzeigevorrichtungen, Lautsprecher, Drucker, Netzwerkschnittstellenkarten, Modems, Linsen, CCDs oder andere Bilderfassungsvorrichtungen und dergleichen. - Die Anzeigevorrichtung
230 beinhaltet eine beliebige Art von Vorrichtung, die dazu in der Lage ist, einem oder mehreren Benutzern der Rechenvorrichtung200 Informationen anzuzeigen. Zu Beispielen für eine Anzeigevorrichtung230 gehören ein Monitor, ein Anzeigeendgerät, eine Videoprojektionsvorrichtung und dergleichen. - Die Schnittstelle(n) 206 beinhaltet/beinhalten verschiedene Schnittstellen, die es der Rechenvorrichtung
200 ermöglichen, mit anderen Systemen, Vorrichtungen oder Rechenumgebungen zu interagieren. Zu (einer) beispielhaften Schnittstelle(n) 206 gehören eine beliebige Anzahl von unterschiedlichen Netzwerkschnittstellen220 , wie etwa Schnittstellen mit lokalen Netzwerken (Local Area Networks - LANs), Großraumnetzwerken (Wide Area Networks - WANs), drahtlosen Netzwerken und dem Internet. Zu (einer) andere(n) Schnittstelle(n) gehören eine Benutzerschnittstelle218 und eine Peripherievorrichtungsschnittstelle222 . Die Schnittstelle(n) 206 kann/können ebenso eine oder mehrere Peripherieschnittstellen beinhalten, wie beispielsweise Schnittstellen für Drucker, Zeigevorrichtungen (Mäuse, Touchpad usw.), Tastaturen und dergleichen. - Der Bus
212 ermöglicht dem/den Prozessor(en)202 , der/den Speichervorrichtung(en)204 , der/den Schnittstelle(n) 206, der/den Massenspeichervorrichtung(en)208 , der/den E/A-Vorrichtung(en) 210 und der Anzeigevorrichtung230 , miteinander sowie mit anderen Vorrichtungen oder Komponenten, die an den Bus212 gekoppelt sind, zu kommunizieren. Der Bus212 stellt eine oder mehrere von mehreren Arten von Busstrukturen dar, wie etwa einen Systembus, PCI-Bus, IEEE-1394 -Bus, USB-Bus und so weiter. - Zum Zwecke der Veranschaulichung sind Programme und andere ausführbare Programmkomponenten hierin als getrennte Blöcke gezeigt, auch wenn es sich versteht, dass sich derartige Programme und Komponenten zu verschiedenen Zeitpunkten in unterschiedlichen Speicherkomponenten der Rechenvorrichtung
200 befinden können, und werden durch den/die Prozessor(en)202 ausgeführt. Alternativ können die hierin beschriebenen Systeme und Vorgänge in Hardware oder einer Kombination aus Hardware, Software und/oder Firmware umgesetzt sein. Ein oder mehrere anwendungsspezifische integrierte Schaltkreise (Application Specific Integrated Circuits - ASICs) können zum Beispiel programmiert sein, um eines oder mehrere der hierin beschriebenen Systeme und Verfahren durchzuführen. - Unter Bezugnahme auf
3 kann das veranschaulichte Verfahren300 verwendet werden, um Daten von den Innenraumsensoren116 zu erhalten, um den Zustand des Innenraums des Fahrzeugs100 zu bewerten. Das Verfahren300 kann durch die Steuerung102 oder das Serversystem120 durchgeführt werden oder unter diesen Vorrichtungen aufgeteilt werden. - Das Verfahren
300 kann Empfangen302 von einem oder mehreren ersten Bildern des Innenraums des Fahrzeugs unter Verwendung von einer oder mehreren Kameras118a , einer oder mehreren IR-Kameras118b oder sowohl von den einen oder mehreren Kameras118a als auch den einen oder mehreren IR-Kameras118b beinhalten. - Schritt
302 kann direkt vor dem Abholen von einem oder mehreren Fahrgästen bei einer Fahrt erfolgen, z. B. an einem Abholort, bevor die einen oder mehreren Fahrgäste in das Fahrzeug einsteigen, vor Abfahrt von einem Entsendebereich, an einer Reinigungsstation nach der Reinigung oder Inspektion oder nach dem Absetzen von Fahrgästen von einer vorhergehenden Fahrt. - Die einen oder mehreren Bilder aus Schritt
302 können durch die Steuerung102 gespeichert werden und können zusätzlich oder alternativ an das Serversystem120 übertragen werden, was diese in einem Fahrtendatenverzeichnis speichern kann. - Die Steuerung
100 kann dann einen oder mehrere Fahrgäste abholen 304, autonom zu einem Ziel navigieren und die einen oder mehreren Fahrgäste an dem Ziel absetzen 306. - Das Verfahren
300 kann dann Empfangen308 von einem oder mehreren letzten Bildern des Innenraums des Fahrzeugs unter Verwendung von der einen oder mehreren Kameras118a , der einen oder mehreren IR-Kameras118b oder sowohl von der einen oder mehreren Kameras118a als auch den einen oder mehreren IR-Kameras118b beinhalten. Schritt308 kann direkt nach dem Absetzen306 der einen oder mehreren Fahrgäste erfolgen. Zum Beispiel als Reaktion auf das Erfassen des Schließens von einer oder mehreren Türen des Fahrzeugs100 nach dem Anhalten an dem Ziel. Die bei Schritt308 empfangenen Bilder können durch die Steuerung102 lokal gespeichert oder können zusätzlich oder alternativ an das Serversystem120 übertragen werden. - Das Verfahren
300 kann dann Durchführen310 einer Hintergrundsubtraktion beinhalten, z. B. Subtrahieren eines ersten Bildes eines Bereichs von einem letzten Bild desselben Bereichs. Zum Beispiel kann das Verfahren300 in Bezug auf einen Rücksitz eines Fahrzeugs durchgeführt werden, wie in dem Bild sichtbaren Lichts aus4A gezeigt. In4B ist ein erstes IR-Bild gezeigt und in4C ist ein letztes IR-Bild gezeigt, das eine Verschüttung aufweist. Da eine Verschüttung heiß, z. B. verschütteter Kaffee, oder kalt sein kann, z. B. ein kaltes Getränk oder eine Flüssigkeit, die aufgrund von Verdunstung abgekühlt ist, sind Verschüttungen im Allgemeinen auf den IR-Bildern besonders sichtbar.4D veranschaulicht ein Differenzbild aus dem Subtrahieren der Pixelwerte des Bildes4B von den entsprechenden Pixelwerten des Bildes4C ; d. h. der Pixel an einer gegebenen Position in dem ersten Bild können von dem Pixel in dieser Position in dem letzten Bild subtrahiert werden, um eine Differenz zu erhalten, die den Pixelwert in dieser Position in dem Differenzbild darstellt. - Das Verfahren
300 kann Anwenden312 von einem oder mehreren Schwellenwerten oder Anwendung von anderen Bildverarbeitungstechniken beinhalten, um Anomalien in dem Differenzbild hervorzuheben. Zum Beispiel können Pixel in dem Differenzbild, die eine Intensität unter einem Schwellenwert aufweisen, entfernt werden. Wenn zum Beispiel eine Pixelintensität zwischen 0 und 255 liegt, können Intensitäten über 40 in dem Differenzbild beibehalten und weiter bewertet werden. Die übrigen Pixel können dann in Cluster zusammenhängender Pixel gruppiert werden. Der Bereich, der durch jedes Cluster eingenommen wird, kann dann bewertet werden. Cluster, die in einem Bereich unter einem Größenschwellenwert enthalten sind, können aus der weiteren Berücksichtigung entfernt werden. Cluster, die in einem Bereich über dem Größenschwellenwert enthalten sind, können weiterverarbeitet oder als Anomalien identifiziert werden, bei denen es sich um eine verschüttete Flüssigkeit handeln kann. In einigen Ausführungsformen handelt es sich bei dem Größenschwellenwert um einen relativen Größenschwellenwert, d. h. Cluster, die geringer als ein Anteil oder eine Funktion der Größe des Clusters in dem Bild sind, können als unter dem Größenschwellenwert liegend bestimmt werden. Es können andere im Fach bekannte Verarbeitungstechniken durchgeführt werden, wie etwa Retinex-Verarbeitung oder dergleichen. - In einigen Ausführungsformen kann die Anomalieerfassung aus Schritt
314 Verarbeiten sowohl von Bildern sichtbaren Lichts als auch IR-Bildern beinhalten. Ein IR-Differenzbild kann zum Beispiel als eine Differenz von ersten und letzten (d. h. vor und nach der Fahrgastfahrt aufgenommenen) IR-Bildern berechnet werden. Ein Differenzbild sichtbaren Lichts kann als eine Differenz von ersten und letzten Bildern sichtbaren Lichts berechnet werden. Beide dieser Differenzbilder können analysiert werden, um zu bestimmen, ob eine Anomalie vorhanden ist. Zum Beispiel kann Schwellenwertbildung, Clustering und Bewerten von Clustergrößen für das Differenzbild sichtbaren Lichts auf dieselbe Weise wie vorangehend beschrieben durchgeführt werden. Dementsprechend kann die Wahrscheinlichkeit ansteigen, dass eine Anomalie bestimmt wird, wenn Anomalien sowohl in dem IR-Differenzbild als auch dem Differenzbild sichtbaren Lichts aufgefunden werden. - Wenn eine Anomalie
316 in der Ausgabe aus Schritt314 erfasst wird, kann das Verfahren300 Übertragen318 einer Warnung an einen Verteiler beinhalten. In einigen Ausführungsformen kann die Warnung einen Teil eines sichtbaren Bildes beinhalten, das jeder Anomalie entspricht. Wie in4D gezeigt, gibt zum Beispiel die weiße Region eine Anomalie an. Eine entsprechende Region, z. B. ein Bounding-Rechteck in einem Bild sichtbaren Lichts4A derselben Region, kann mit der Warnung übertragen werden, wodurch es einem Verteiler ermöglicht wird, zu prüfen, ob eine Verschüttung scheinbar vorhanden ist oder nicht. Zum Beispiel kann das Bild sichtbaren Lichts übertragen werden, wobei die der Anomalie entsprechenden Region hervorgehoben ist, wie etwa mithilfe eines Bounding-Rechtecks, welches das Bild überlagert. - Der Verteiler kann das Fahrzeug dann anweisen, sich zu einer Reinigungsstation zu bewegen, oder das Fahrzeug freigeben 320, um autonom an den nächsten Abholort zu fahren, wie etwa den Abholort, der durch die Steuerung
102 von dem Serversystem120 empfangen wurde. Die Steuerung102 veranlasst das Fahrzeug dann dazu, sich zu dem Ort zu bewegen, der durch den Verteiler angegeben wird. - In der vorstehenden Offenbarung wurde auf die beigefügten Zeichnungen Bezug genommen, die einen Teil davon bilden und in denen zur Veranschaulichung konkrete Umsetzungen gezeigt sind, in denen die Offenbarung ausgeführt sein kann. Es versteht sich, dass andere Umsetzungen verwendet werden können und strukturelle Änderungen vorgenommen werden können, ohne vom Schutzumfang der vorliegenden Offenbarung abzuweichen. Bezugnahmen in der Beschreibung auf „eine Ausführungsform“, „ein Ausführungsbeispiel“ usw. geben an, dass die beschriebene Ausführungsform ein bestimmtes Merkmal, eine bestimmte Struktur oder Eigenschaft beinhalten kann, doch es muss nicht notwendigerweise jede Ausführungsform dieses bestimmte Merkmal, diese bestimmte Struktur oder Eigenschaft beinhalten. Darüber hinaus beziehen sich derartige Formulierungen nicht unbedingt auf dieselbe Ausführungsform. Ferner sei darauf hingewiesen, dass, wenn ein(e) bestimmte(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit einer Ausführungsform beschrieben wird, es im Bereich des Fachwissens des Fachmanns liegt, ein(e) derartige(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit anderen Ausführungsformen zu bewirken, ob dies nun ausdrücklich beschrieben ist oder nicht.
- Umsetzungen der hierin offenbarten Systeme, Vorrichtungen und Verfahren können einen Spezial- oder Universalcomputer umfassen oder verwenden, der Computerhardware beinhaltet, wie etwa beispielsweise einen oder mehrere Prozessoren und einen oder mehrere Systemspeicher, wie hierin erörtert. Umsetzungen innerhalb des Schutzumfangs der vorliegenden Offenbarung können außerdem physische und andere computerlesbare Medien zum Transportieren oder Speichern von computerausführbaren Anweisungen und/oder Datenstrukturen beinhalten. Bei derartigen computerlesbaren Medien kann es sich um beliebige verfügbare Medien handeln, auf die durch ein Universal- oder Spezialcomputersystem zugegriffen werden kann. Bei computerlesbaren Medien, auf denen computerausführbare Anweisungen gespeichert werden, handelt es sich um Computerspeichermedien (-vorrichtungen). Bei computerlesbaren Medien, die computerausführbare Anweisungen transportieren, handelt es sich um Übertragungsmedien. Daher können Umsetzungen der Offenbarung beispielsweise und nicht einschränkend zumindest zwei deutlich unterschiedliche Arten von computerlesbaren Medien umfassen: Computerspeichermedien (-vorrichtungen) und Übertragungsmedien.
- Zu Computerspeichermedien (-vorrichtungen) gehören RAM, ROM, EEPROM, CD-ROM, Festkörperlaufwerke (Solid State Drives - SSDs) (z. B. basierend auf RAM), Flash-Speicher, Phasenänderungsspeicher (Phase-Change Memory - PCM), andere Speicherarten, andere optische Plattenspeicher, Magnetplattenspeicher oder andere magnetische Speichervorrichtungen oder ein beliebiges anderes Medium, das verwendet werden kann, um die gewünschten Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu speichern, und auf das durch einen Universal- oder Spezialcomputer zugegriffen werden kann.
- Eine Umsetzung der hierin offenbarten Vorrichtungen, Systeme und Verfahren kann über ein Computernetzwerk kommunizieren. Ein „Netzwerk“ ist als eine oder mehrere Datenverbindungen definiert, die den Transport elektronischer Daten zwischen Computersystemen und/oder Modulen und/oder anderen elektronischen Vorrichtungen ermöglichen. Wenn Informationen über ein Netzwerk oder eine andere (entweder festverdrahtete, drahtlose oder eine Kombination aus festverdrahteter oder drahtloser) Kommunikationsverbindung an einen Computer übertragen oder diesem bereitgestellt werden, sieht der Computer die Verbindung ordnungsgemäß als Übertragungsmedium an. Übertragungsmedien können ein Netzwerk und/oder Datenverbindungen beinhalten, die verwendet werden können, um gewünschte Programmcodemittel in der Form von computerausführbaren Anweisungen oder Datenstrukturen zu übertragen und auf die durch einen Universal- oder Spezialcomputer zugegriffen werden kann. Kombinationen aus den Vorstehenden sollten ebenfalls im Schutzumfang computerlesbarer Medien beinhaltet sein.
- Computerausführbare Anweisungen umfassen zum Beispiel Anweisungen und Daten, die bei Ausführung an einem Prozessor einen Universalcomputer, Spezialcomputer oder eine Spezialverarbeitungsvorrichtung dazu veranlassen, eine bestimmte Funktion oder Gruppe von Funktionen auszuführen. Die computerausführbaren Anweisungen können zum Beispiel Binärdateien, Zwischenformatanweisungen, wie etwa Assemblersprache, oder auch Quellcode sein. Obwohl der Gegenstand in für Strukturmerkmale und/oder methodische Handlungen spezifischer Sprache beschrieben wurde, versteht es sich, dass der in den beigefügten Patentansprüchen definierte Gegenstand nicht notwendigerweise auf die vorstehend beschriebenen Merkmale oder Handlungen beschränkt ist. Die beschriebenen Merkmale und Handlungen werden vielmehr als beispielhafte Formen der Umsetzung der Patentansprüche offenbart.
- Für den Fachmann versteht es sich, dass die Offenbarung in Netzwerkcomputerumgebungen mithilfe vieler Arten von Computersystemkonfigurationen angewendet werden kann, die einen Armaturenbrett-Fahrzeugcomputer, PCs, Desktop-Computer, Laptops, Nachrichtenprozessoren, Handgeräte, Multiprozessorsysteme, Unterhaltungselektronik auf Mikroprozessorbasis oder programmierbare Unterhaltungselektronik, Netzwerk-PCs, Minicomputer, Großcomputer, Mobiltelefone, PDAs, Tablets, Pager, Router, Switches, verschiedene Speichervorrichtungen und dergleichen beinhalten. Die Offenbarung kann zudem in Umgebungen mit verteilten Systemen angewendet werden, in denen sowohl lokale Computersysteme als auch entfernte Computersysteme, die durch ein Netzwerk (entweder durch festverdrahtete Datenverbindungen, drahtlose Datenverbindungen oder durch eine Kombination aus festverdrahteten und drahtlosen Datenverbindungen) verbunden sind, Aufgaben ausführen. In einer Umgebung mit verteilten Systemen können sich Programmmodule sowohl in lokalen Speichervorrichtungen als auch in Fernspeichervorrichtungen befinden.
- Ferner können die hierin beschriebenen Funktionen gegebenenfalls in einem oder mehreren der Folgenden ausgeführt werden: Hardware, Software, Firmware, digitalen Komponenten oder analogen Komponenten. Ein oder mehrere anwendungsspezifische integrierte Schaltkreise (Application Specific Integrated Circuits - ASICs) können zum Beispiel programmiert sein, um eines oder mehrere der hierin beschriebenen Systeme und Verfahren durchzuführen. Bestimmte Ausdrücke werden in der gesamten Beschreibung und den Patentansprüchen verwendet, um auf bestimmte Systemkomponenten Bezug zu nehmen. Für den Fachmann versteht es sich, dass auf Komponenten durch unterschiedliche Bezeichnungen Bezug genommen werden kann. In dieser Schrift soll nicht zwischen Komponenten unterschieden werden, die sich dem Namen nach unterscheiden, nicht jedoch von der Funktion her.
- Es ist anzumerken, dass die vorstehend erörterten Sensorausführungsformen Computerhardware, -software, -firmware oder eine beliebige Kombination daraus umfassen können, um zumindest einen Teil ihrer Funktionen auszuführen. Ein Sensor kann zum Beispiel Computercode beinhalten, der dazu konfiguriert ist, in einem oder mehreren Prozessoren ausgeführt zu werden, und kann eine Hardware-Logikschaltung/elektrische Schaltung beinhalten, die durch den Computercode gesteuert wird. Diese beispielhaften Vorrichtungen sind hierin zum Zwecke der Veranschaulichung bereitgestellt und sollen nicht einschränkend sein. Ausführungsformen der vorliegenden Offenbarung können in weiteren Arten von Vorrichtungen umgesetzt werden, wie es dem einschlägigen Fachmann bekannt ist.
- Zumindest einige Ausführungsformen der Offenbarung wurden Computerprogrammprodukten zugeführt, die eine solche Logik (z. B. in Form von Software) umfassen, die auf einem beliebigen computernutzbaren Medium gespeichert ist. Derartige Software veranlasst bei Ausführung in einer oder mehreren Datenverarbeitungsvorrichtungen eine Vorrichtung dazu, wie hierin beschrieben zu arbeiten.
- Während vorstehend verschiedene Ausführungsformen der vorliegenden Offenbarung beschrieben wurden, versteht es sich, dass diese lediglich als Beispiele dienen und nicht als Einschränkung. Für den einschlägigen Fachmann wird ersichtlich, dass verschiedene Änderungen in Form und Detail daran vorgenommen werden können, ohne vom Geist und Umfang der Offenbarung abzuweichen. Daher sollen die Breite und der Umfang der vorliegenden Offenbarung durch keines der vorstehend beschriebenen Ausführungsbeispiele eingeschränkt werden, sondern sollen lediglich in Übereinstimmung mit den folgenden Patentansprüchen und ihren Äquivalenten definiert sein. Die vorstehende Beschreibung wurde zum Zwecke der Veranschaulichung und Beschreibung dargelegt. Sie erhebt keinerlei Anspruch auf Vollständigkeit und soll die Offenbarung nicht auf die konkrete offenbarte Form beschränken. Viele Modifikationen und Variationen sind in Anbetracht der vorstehenden Lehren möglich. Ferner ist anzumerken, dass beliebige oder alle der vorangehend genannten alternativen Umsetzungen in einer beliebigen gewünschten Kombination verwendet werden können, um zusätzliche Hybridumsetzungen der Offenbarung zu bilden.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- US 15343726 [0012]
Claims (15)
- System für ein Fahrzeug, umfassend: eine Infrarot(IR)-Kamera, die einen Innenraum des Fahrzeugs erfasst; eine Steuerung, die an die IR-Kamera gekoppelt und zu Folgendem programmiert ist: Empfangen einer ersten Ausgabe von der IR-Kamera; Empfangen einer zweiten Ausgabe von der IR-Kamera nach der ersten Ausgabe; und Aufrufen einer Abhilfemaßnahme, wenn eine Änderung zwischen der ersten Ausgabe und der zweiten Ausgabe eine Anomalie angibt.
- System nach
Anspruch 1 , ferner umfassend: eine Kamera für sichtbares Licht, die mit der Steuerung wirkverbunden ist und ein Sichtfeld des Fahrzeugs in dem Sichtfeld davon aufweist; wobei die Steuerung ferner zu Folgendem programmiert ist: Empfangen einer dritten Ausgabe von der Kamera für sichtbares Licht; wenn die Änderung zwischen der ersten Ausgabe und der zweiten Ausgabe die Anomalie angibt: (a) Identifizieren eines relevanten Bereichs (Region Of Interest - ROI) in der dritten Ausgabe, welcher der Anomalie entspricht, und (b) Übertragen des ROI an einen Verteiler; Empfangen einer Eingabe von dem Verteiler; Autonomes Fahren des Fahrzeugs zu einer Reinigungsstation, wenn die Eingabe eine Anweisung ist, sich zu der Reinigungsstation zu bewegen; und Autonomes Fahren des Fahrzeugs zu einem nächsten Abholort, wenn die Eingabe eine Anweisung ist, sich zu dem nächsten Abholort zu bewegen. - System nach
Anspruch 2 , wobei die Steuerung ferner zu Folgendem programmiert ist: Empfangen einer vierten Ausgabe von der Kamera für sichtbares Licht vor der dritten Ausgabe; Bewerten einer Kombination aus (a) einer Differenz von der ersten Ausgabe und der zweiten Ausgabe und (b) einer Differenz von der vierten Ausgabe und der dritten Ausgabe; und Aufrufen der Abhilfemaßnahme, wenn die Kombination die Anomalie angibt. - System nach
Anspruch 1 , wobei die Steuerung ferner programmiert ist, um die erste Ausgabe vor dem Abholen eines Fahrgasts mit der IR-Kamera aufzunehmen und um die zweite Ausgabe nach dem Absetzen des Fahrgasts mit der IR-Kamera aufzunehmen. - System nach
Anspruch 4 , wobei die Steuerung ferner zu Folgendem programmiert ist: Subtrahieren der ersten Ausgabe von der zweiten Ausgabe, um ein Differenzbild zu erhalten; und Bewerten des Differenzbildes, um zu bestimmen, ob die erste Ausgabe und die zweite Ausgabe die Anomalie angeben. - System nach
Anspruch 5 , wobei die Steuerung ferner zu Folgendem programmiert ist: Identifizieren von Pixeln in dem Differenzbild, die einen Schwellenwert überschreiten; und Bewerten, ob die Pixel in dem Differenzbild, die den Schwellenwert überschreiten, die Anomalie angeben. - System nach
Anspruch 5 , wobei die Steuerung ferner zu Folgendem programmiert ist: Identifizieren von Pixeln in dem Differenzbild, die einen Schwellenwert überschreiten; und Bewerten, ob die Pixel in dem Differenzbild, die den Schwellenwert überschreiten, die Anomalie angeben. - System nach
Anspruch 5 , wobei die Steuerung ferner zu Folgendem programmiert ist: Identifizieren von Pixeln in dem Differenzbild, die einen Schwellenwert überschreiten, um Pixel über dem Schwellenwert zu erhalten; Identifizieren von Clustern von zusammenhängenden Pixeln über dem Schwellenwert; und Identifizieren der Cluster, die größer als der Größenschwellenwert sind, als Anomalien, wenn Cluster größer sind als der Größenschwellenwert. - Verfahren, Folgendes durch eine Steuerung umfassend: Empfangen einer ersten Ausgabe von einer IR-Kamera, die einen Innenraum des Fahrzeugs in einem Sichtfeld davon aufweist; Empfangen einer zweiten Ausgabe von der IR-Kamera nach der ersten Ausgabe; Bestimmen, dass eine Änderung zwischen der ersten Ausgabe und der zweiten Ausgabe eine Anomalie angibt; und Aufrufen einer Abhilfemaßnahme als Reaktion auf das Bestimmen, dass die Änderung zwischen der ersten Ausgabe und der zweiten Ausgabe eine Anomalie angibt.
- Verfahren nach
Anspruch 9 , ferner umfassend: Empfangen einer dritten Ausgabe von einer Kamera für sichtbares Licht, wobei ein Sichtfeld der Kamera für sichtbares Licht den Innenraum des Fahrzeugs beinhaltet; als Reaktion auf das Bestimmen, dass die Änderung zwischen der ersten Ausgabe und der zweiten Ausgabe die Anomalie angibt: (a) Identifizieren eines relevanten Bereichs (Region Of Interest - ROI) in der dritten Ausgabe, welcher der Anomalie entspricht, und (b) Übertragen des ROI an einen Verteiler. - Verfahren nach
Anspruch 10 , ferner umfassend: Empfangen einer Eingabe von dem Verteiler, die eine Anweisung beinhaltet, sich zu einer Reinigungsstation zu bewegen; und Autonomes Fahrens des Fahrzeugs zu der Reinigungsstation als Reaktion auf die Eingabe. - Verfahren nach
Anspruch 10 , ferner umfassend: Empfangen einer Eingabe von dem Verteiler, die eine Anweisung beinhaltet, sich zu einem nächsten Abholort zu bewegen; und Autonomes Fahrens des Fahrzeugs zu dem nächsten Abholort als Reaktion auf die Eingabe. - Verfahren nach
Anspruch 10 , ferner umfassend: Empfangen einer vierten Ausgabe von der Kamera für sichtbares Licht vor der dritten Ausgabe; Bewerten einer Kombination aus einer Differenz von der ersten Ausgabe und der zweiten Ausgabe und einer Differenz von der vierten Ausgabe und der dritten Ausgabe; und Bestimmen, dass die Kombination die Anomalie angibt. - Verfahren nach
Anspruch 9 , ferner umfassend: Aufnehmen der ersten Ausgabe mit der IR-Kamera vor dem Abholen eines Fahrgasts und Aufnehmen der zweiten Ausgabe mit der IR-Kamera nach dem Absetzen des Fahrgasts; Subtrahieren der ersten Ausgabe von der zweiten Ausgabe, um ein Differenzbild zu erhalten; Identifizieren von Pixeln in dem Differenzbild, die einen Schwellenwert überschreiten; und Bewerten, ob die Pixel in dem Differenzbild, die den Schwellenwert überschreiten, die Anomalie angeben. - Verfahren nach
Anspruch 14 , ferner umfassend: Identifizieren von Pixeln in dem Differenzbild, die einen Schwellenwert überschreiten, um Pixel über dem Schwellenwert zu erhalten; Identifizieren von Clustern von zusammenhängenden Pixeln über dem Schwellenwert; und Identifizieren der Cluster, die größer sind als der Größenschwellenwert, als Anomalien.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/424,309 US10290158B2 (en) | 2017-02-03 | 2017-02-03 | System and method for assessing the interior of an autonomous vehicle |
US15/424309 | 2017-02-03 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102018102285A1 true DE102018102285A1 (de) | 2018-08-09 |
Family
ID=61730967
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018102285.9A Pending DE102018102285A1 (de) | 2017-02-03 | 2018-02-01 | System und verfahren zum beurteilen des innenraums eines autonomen fahrzeugs |
Country Status (6)
Country | Link |
---|---|
US (1) | US10290158B2 (de) |
CN (1) | CN108388837B (de) |
DE (1) | DE102018102285A1 (de) |
GB (1) | GB2561062A (de) |
MX (1) | MX2018001297A (de) |
RU (1) | RU2018103182A (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019208871A1 (de) * | 2019-06-18 | 2020-12-24 | Thyssenkrupp Ag | Einrichtung und Verfahren zur Ermittlung des Innenraumzustandes eines Fahrzeugs |
DE102022202349A1 (de) | 2022-03-09 | 2023-09-14 | Brose Fahrzeugteile Se & Co. Kommanditgesellschaft, Bamberg | Verfahren und Überwachungssystem zur elektronischen Ermittlung eines Reinigungsbedarfes betreffend einen Innenraum eines Fahrzeuges |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9807172B2 (en) * | 2013-10-18 | 2017-10-31 | At&T Intellectual Property I, L.P. | Mobile device intermediary for vehicle adaptation |
JP2019087045A (ja) * | 2017-11-07 | 2019-06-06 | トヨタ自動車株式会社 | ドライバレス輸送システム |
US11073838B2 (en) | 2018-01-06 | 2021-07-27 | Drivent Llc | Self-driving vehicle systems and methods |
US10303181B1 (en) | 2018-11-29 | 2019-05-28 | Eric John Wengreen | Self-driving vehicle systems and methods |
US11410436B2 (en) | 2018-03-29 | 2022-08-09 | Robert Bosch Gmbh | Method and system for vision-based vehicle interior environment sensing guided by vehicle prior information |
CN109190577B (zh) * | 2018-09-13 | 2021-10-26 | 长安大学 | 一种结合头枕和人脸特征的出租车副驾座异常的图像信号检测方法 |
US10493952B1 (en) | 2019-03-21 | 2019-12-03 | Drivent Llc | Self-driving vehicle systems and methods |
US10471804B1 (en) | 2018-09-18 | 2019-11-12 | Drivent Llc | Self-driving vehicle systems and methods |
US10289922B1 (en) * | 2018-09-18 | 2019-05-14 | Eric John Wengreen | System for managing lost, mislaid, or abandoned property in a self-driving vehicle |
US10282625B1 (en) | 2018-10-01 | 2019-05-07 | Eric John Wengreen | Self-driving vehicle systems and methods |
US10479319B1 (en) | 2019-03-21 | 2019-11-19 | Drivent Llc | Self-driving vehicle systems and methods |
US10900792B2 (en) | 2018-10-22 | 2021-01-26 | Drivent Llc | Self-driving vehicle systems and methods |
US10794714B2 (en) | 2018-10-01 | 2020-10-06 | Drivent Llc | Self-driving vehicle systems and methods |
US11644833B2 (en) | 2018-10-01 | 2023-05-09 | Drivent Llc | Self-driving vehicle systems and methods |
US10832569B2 (en) | 2019-04-02 | 2020-11-10 | Drivent Llc | Vehicle detection systems |
US11221622B2 (en) | 2019-03-21 | 2022-01-11 | Drivent Llc | Self-driving vehicle systems and methods |
US10481606B1 (en) | 2018-11-01 | 2019-11-19 | Drivent Llc | Self-driving vehicle systems and methods |
JP2020095354A (ja) * | 2018-12-10 | 2020-06-18 | トヨタ自動車株式会社 | 運行支援装置、運行支援システム、及び運行支援プログラム |
US10377342B1 (en) | 2019-02-04 | 2019-08-13 | Drivent Technologies Inc. | Self-driving vehicle systems and methods |
US10744976B1 (en) | 2019-02-04 | 2020-08-18 | Drivent Llc | Self-driving vehicle systems and methods |
CN110110704A (zh) * | 2019-05-21 | 2019-08-09 | 北京首汽智行科技有限公司 | 一种车辆卫生监控方法及系统 |
EP3796209A1 (de) * | 2019-09-17 | 2021-03-24 | Aptiv Technologies Limited | Verfahren und system zur bestimmung einer aktivität eines insassen eines fahrzeugs |
US11361574B2 (en) | 2019-10-23 | 2022-06-14 | Bendix Commercial Vehicle Systems Llc | System and method for monitoring for driver presence and position using a driver facing camera |
US11334985B2 (en) | 2019-10-25 | 2022-05-17 | Robert Bosch Gmbh | System and method for shared vehicle cleanliness detection |
US11017248B1 (en) | 2019-12-18 | 2021-05-25 | Waymo Llc | Interior camera system for a self driving car |
US11262562B2 (en) | 2020-03-18 | 2022-03-01 | Waymo Llc | Infrared camera module cover |
US20220063569A1 (en) * | 2020-08-27 | 2022-03-03 | Ford Global Technologies, Llc | Wet seat detection |
FR3116686B1 (fr) * | 2020-11-26 | 2023-12-08 | Faurecia Interieur Ind | Dispositif de capture d’images et véhicule comprenant un tel dispositif de capture d’images |
CN112525267A (zh) * | 2020-12-21 | 2021-03-19 | 南京领行科技股份有限公司 | 一种车内环境检测方法、装置、电子设备及存储介质 |
US11820338B2 (en) | 2021-02-10 | 2023-11-21 | Toyota Motor Engineering & Manufacturing North America, Inc. | Autonomous vehicle cleaning and feedback system using adjustable ground truth |
US11780349B2 (en) | 2021-03-10 | 2023-10-10 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for detecting objects left behind by using heated resistive filament in a vehicle |
JP2022155335A (ja) * | 2021-03-30 | 2022-10-13 | パナソニックIpマネジメント株式会社 | インキャビンモニタリングシステムおよび車室内検知方法 |
CN113246931B (zh) * | 2021-06-11 | 2021-09-28 | 创新奇智(成都)科技有限公司 | 一种车辆控制方法、装置、电子设备及存储介质 |
Family Cites Families (62)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9290146B2 (en) * | 1992-05-05 | 2016-03-22 | Intelligent Technologies International, Inc. | Optical monitoring of vehicle interiors |
US7596242B2 (en) | 1995-06-07 | 2009-09-29 | Automotive Technologies International, Inc. | Image processing for vehicular applications |
JPH06273255A (ja) | 1993-03-22 | 1994-09-30 | Mitsubishi Heavy Ind Ltd | 漏油検知方法及び装置 |
US6587573B1 (en) * | 2000-03-20 | 2003-07-01 | Gentex Corporation | System for controlling exterior vehicle lights |
US6005958A (en) * | 1997-04-23 | 1999-12-21 | Automotive Systems Laboratory, Inc. | Occupant type and position detection system |
US7027621B1 (en) * | 2001-03-15 | 2006-04-11 | Mikos, Ltd. | Method and apparatus for operator condition monitoring and assessment |
US7813559B2 (en) | 2001-11-13 | 2010-10-12 | Cyberoptics Corporation | Image analysis for pick and place machines with in situ component placement inspection |
US6781676B2 (en) * | 2002-03-22 | 2004-08-24 | Trw Inc. | Structured lighting detection of vehicle occupant type and position |
SE0201529D0 (sv) | 2002-05-21 | 2002-05-21 | Flir Systems Ab | Method and apparatus for IR camera inspections |
DE10305861A1 (de) | 2003-02-13 | 2004-08-26 | Adam Opel Ag | Vorrichtung eines Kraftfahrzeuges zur räumlichen Erfassung einer Szene innerhalb und/oder außerhalb des Kraftfahrzeuges |
EP1639332A2 (de) | 2003-06-11 | 2006-03-29 | Furry Brothers, LLC | Systeme und verfahren zur durchführung von untersuchungen und zur erkennung chemischer lecks unter verwendung eines infrarot-kamerasystems |
JP3832455B2 (ja) * | 2003-07-31 | 2006-10-11 | 日産自動車株式会社 | 車輌周囲表示装置 |
US20050131625A1 (en) | 2003-11-19 | 2005-06-16 | Birger Alexander B. | Schoolchildren transportation management systems, methods and computer program products |
JP4351919B2 (ja) | 2004-01-21 | 2009-10-28 | 株式会社ケンウッド | 送りバス用管理装置、出迎え管理装置、送りバス用管理方法及び出迎え管理方法 |
KR101078474B1 (ko) | 2006-06-08 | 2011-10-31 | 후지쯔 가부시끼가이샤 | 오염 검출 장치 |
JP5178085B2 (ja) * | 2007-08-07 | 2013-04-10 | 株式会社村上開明堂 | 撮像装置付きバックミラー |
US8124931B2 (en) | 2007-08-10 | 2012-02-28 | Schlumberger Technology Corporation | Method and apparatus for oil spill detection |
DE102008009190A1 (de) | 2008-02-15 | 2009-08-27 | Siemens Aktiengesellschaft | Verfahren zur automatischen Bestimmung der Ruhephase des Herzens |
WO2014106278A1 (en) * | 2012-12-31 | 2014-07-03 | Flir Systems, Inc. | Anomalous pixel detection |
JP5509801B2 (ja) | 2009-11-13 | 2014-06-04 | 三菱電機株式会社 | エレベータシステム |
JP5680667B2 (ja) * | 2009-12-02 | 2015-03-04 | タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited | 運転者の覚醒状態の特定システム及び方法 |
US8959163B1 (en) * | 2010-08-04 | 2015-02-17 | Open Invention Network, Llc | Method and apparatus of organizing and delivering data to intended recipients |
CN103493112B (zh) * | 2011-02-22 | 2016-09-21 | 菲力尔系统公司 | 红外传感器系统及方法 |
KR101251836B1 (ko) * | 2011-09-02 | 2013-04-09 | 현대자동차주식회사 | 적외선 센서를 이용한 운전자 상태감시 장치 및 그 방법 |
US9202118B2 (en) * | 2011-12-13 | 2015-12-01 | Xerox Corporation | Determining a pixel classification threshold for vehicle occupancy detection |
CN202448860U (zh) | 2011-12-21 | 2012-09-26 | 浙江吉利汽车研究院有限公司 | 一种出租车行李遗忘提醒装置 |
CN202422205U (zh) | 2012-02-29 | 2012-09-05 | 李德明 | 移动助学公交管理系统 |
US9128185B2 (en) | 2012-03-15 | 2015-09-08 | GM Global Technology Operations LLC | Methods and apparatus of fusing radar/camera object data and LiDAR scan points |
DE102012007559A1 (de) | 2012-04-14 | 2012-11-08 | Daimler Ag | Verfahren und Vorrichtung zur Dichtheitsprüfung eines Fahrzeugs |
MX2015000035A (es) | 2012-07-04 | 2015-08-05 | Repsol Sa | Sistema integrado de deteccion temprana de hidrocarburos en un medio acuoso. |
JP5891306B2 (ja) | 2012-08-07 | 2016-03-22 | 株式会社日立製作所 | 自律走行装置の利用支援ツール、運用管理センタ、運用システム及び自律走行装置 |
CN202871022U (zh) | 2012-08-08 | 2013-04-10 | 厦门雅迅网络股份有限公司 | 一种基于gps和人脸识别的校车全自动监控系统 |
US20140163329A1 (en) | 2012-12-11 | 2014-06-12 | Elwha Llc | Unobtrusive Active Eye Interrogation with Gaze Attractor |
US9101297B2 (en) | 2012-12-11 | 2015-08-11 | Elwha Llc | Time-based unobtrusive active eye interrogation |
WO2014100786A1 (en) * | 2012-12-21 | 2014-06-26 | Flir Systems, Inc. | Selective image correction for infrared imaging devices |
DE102013001332B4 (de) | 2013-01-26 | 2017-08-10 | Audi Ag | Verfahren zur Erfassung des Verschmutzungsgrades eines Fahrzeugs |
US9488982B2 (en) | 2013-02-03 | 2016-11-08 | Michael H Gurin | Systems for a shared vehicle |
WO2014120248A1 (en) * | 2013-02-03 | 2014-08-07 | Michael Gurin | Systems for a shared vehicle |
CN203224912U (zh) | 2013-02-28 | 2013-10-02 | 湖南科技学院 | 基于物联网的校车安全监控系统 |
US9751534B2 (en) * | 2013-03-15 | 2017-09-05 | Honda Motor Co., Ltd. | System and method for responding to driver state |
JP6343769B2 (ja) | 2013-08-23 | 2018-06-20 | 中嶋 公栄 | 忘れ物防止システム、旅客自動車の乗務員に対する情報提供方法、コンピュータプログラム |
US20150077556A1 (en) * | 2013-09-13 | 2015-03-19 | Ford Global Technologies, Llc | Vehicle system for automated video recording |
JP5818857B2 (ja) | 2013-10-24 | 2015-11-18 | キヤノン株式会社 | 情報処理装置およびその制御方法 |
CN104601937A (zh) | 2013-10-31 | 2015-05-06 | 大连易维立方技术有限公司 | 校车远程安全监控系统 |
CN104597857A (zh) | 2013-10-31 | 2015-05-06 | 大连易维立方技术有限公司 | 校车远程安全监控方法 |
US9814410B2 (en) | 2014-05-06 | 2017-11-14 | Stryker Corporation | Person support apparatus with position monitoring |
BR112016029038B1 (pt) * | 2014-06-11 | 2023-02-28 | Veridium Ip Limited | Sistema e método para facilitar acesso de usuário a veículos com base em informações biométricas |
US20160078576A1 (en) | 2014-09-17 | 2016-03-17 | Fortress Systems International, Inc. | Cloud-based vehicle monitoring systems and methods |
US10133927B2 (en) | 2014-11-14 | 2018-11-20 | Sony Corporation | Method and system for processing video content |
CN114723741A (zh) | 2015-04-23 | 2022-07-08 | Bd科斯特公司 | 用于自动计数微生物菌落的方法和系统 |
KR101646134B1 (ko) * | 2015-05-06 | 2016-08-05 | 현대자동차 주식회사 | 자율주행차량 및 그 제어 방법 |
US9616773B2 (en) | 2015-05-11 | 2017-04-11 | Uber Technologies, Inc. | Detecting objects within a vehicle in connection with a service |
KR102096334B1 (ko) * | 2015-06-03 | 2020-04-02 | 클리어모션, 아이엔씨. | 차체 모션 및 승객 경험을 제어하기 위한 방법 및 시스템 |
US10150448B2 (en) | 2015-09-18 | 2018-12-11 | Ford Global Technologies. Llc | Autonomous vehicle unauthorized passenger or object detection |
US20170091559A1 (en) * | 2015-09-29 | 2017-03-30 | Valeo North America, Inc. | Camera monitor system for a vehicle |
US10040432B2 (en) | 2016-01-26 | 2018-08-07 | GM Global Technology Operations LLC | Systems and methods for promoting cleanliness of a vehicle |
US20170267251A1 (en) * | 2016-03-15 | 2017-09-21 | Palo Alto Research Center Incorporated | System And Method For Providing Context-Specific Vehicular Driver Interactions |
KR101777518B1 (ko) * | 2016-04-07 | 2017-09-11 | 엘지전자 주식회사 | 인테리어 카메라 장치, 이를 포함하는 차량 운전 보조장치 및 이를 포함하는 차량 |
US20170330044A1 (en) | 2016-05-10 | 2017-11-16 | GM Global Technology Operations LLC | Thermal monitoring in autonomous-driving vehicles |
JP6792351B2 (ja) | 2016-06-01 | 2020-11-25 | キヤノン株式会社 | 符号化装置、撮像装置、符号化方法、及びプログラム |
US9760827B1 (en) * | 2016-07-22 | 2017-09-12 | Alpine Electronics of Silicon Valley, Inc. | Neural network applications in resource constrained environments |
US10479328B2 (en) * | 2016-11-04 | 2019-11-19 | Ford Global Technologies, Llc | System and methods for assessing the interior of an autonomous vehicle |
-
2017
- 2017-02-03 US US15/424,309 patent/US10290158B2/en active Active
-
2018
- 2018-01-26 CN CN201810076036.6A patent/CN108388837B/zh active Active
- 2018-01-29 RU RU2018103182A patent/RU2018103182A/ru not_active Application Discontinuation
- 2018-01-30 MX MX2018001297A patent/MX2018001297A/es unknown
- 2018-02-01 DE DE102018102285.9A patent/DE102018102285A1/de active Pending
- 2018-02-01 GB GB1801668.3A patent/GB2561062A/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019208871A1 (de) * | 2019-06-18 | 2020-12-24 | Thyssenkrupp Ag | Einrichtung und Verfahren zur Ermittlung des Innenraumzustandes eines Fahrzeugs |
DE102022202349A1 (de) | 2022-03-09 | 2023-09-14 | Brose Fahrzeugteile Se & Co. Kommanditgesellschaft, Bamberg | Verfahren und Überwachungssystem zur elektronischen Ermittlung eines Reinigungsbedarfes betreffend einen Innenraum eines Fahrzeuges |
Also Published As
Publication number | Publication date |
---|---|
GB2561062A (en) | 2018-10-03 |
GB201801668D0 (en) | 2018-03-21 |
RU2018103182A (ru) | 2019-07-30 |
CN108388837B (zh) | 2023-07-04 |
US20180225890A1 (en) | 2018-08-09 |
MX2018001297A (es) | 2018-11-09 |
CN108388837A (zh) | 2018-08-10 |
US10290158B2 (en) | 2019-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018102285A1 (de) | System und verfahren zum beurteilen des innenraums eines autonomen fahrzeugs | |
DE102017125484A1 (de) | System und verfahren zum einschätzen des innenraums eines autonomen fahrzeugs | |
DE102018101125A1 (de) | Rekurrentes tiefes neuronales Faltungsnetzwerk zur Detektion von Objekten | |
DE102019117618A1 (de) | Fahrzeugklassifizierungssystem | |
DE112017007713T5 (de) | Systeme und Verfahren zur Fahrzeugbelegungsverwaltung | |
DE102014220302B4 (de) | Verfahren zur Durchführung einer Aktions-Erkennung auf einem Bild eines Fahrers in einem Fahrzeug sowie entsprechendes Nichtflüchtiges, Computer-lesbares Speichermedium und Verfahren zum Lernen eines Random Forest Modells zur Aktionserkennung | |
DE112020002602T5 (de) | Multi-objektverfolgung mit hilfe von korrelationsfiltern in videoanalyseanwendungen | |
DE102017129076A1 (de) | Autonomer schulbus | |
DE102018101318A1 (de) | Objekterkennung unter verwendung eines rekurrenten neuronalen netzwerks und einer verketteten merkmalsabbildung | |
DE102019112002A1 (de) | Systeme und verfahren zur automatischen detektion von anhängereigenschaften | |
DE102017105903A1 (de) | Fussgängerdetektion und Bewegungsvorhersage mit nach hinten gerichteter Kamera | |
DE112019000279T5 (de) | Steuern autonomer fahrzeuge anhand sicherer ankunftszeiten | |
DE102020114916A1 (de) | Systeme und verfahren zum reduzieren von flimmerartefakten in bildlichtquellen | |
DE102018101220A1 (de) | Zeichenerkennung für autonome fahrzeuge | |
DE102017117158A1 (de) | Systeme und verfahren für das management von spurwechseln beim autonomen fahren | |
DE102017115318A1 (de) | Heads-Up-Anzeige zum Beobachten von Fahrzeugwahrnehmungsaktivität | |
DE112017006295T5 (de) | Abholen und absetzen von fluggästen an einem flughafen unter verwendung eines autonomen fahrzeugs | |
DE102019115455A1 (de) | Fokus-basiertes markieren von sensordaten | |
DE102013205810A1 (de) | System und verfahren zum einschätzen von verfügbaren parkplätzen zum parken auf der strasse mit mehreren plätzen | |
DE102017127972A1 (de) | Mehrfachsensor-Wahrscheinlichkeitsobjekterkennung und automatisiertes Bremsen | |
DE102020100685A1 (de) | Vorhersage zeitlicher informationen in autonomenmaschinenanwendungen | |
DE112019004488B4 (de) | Doppelmodus-Datenerfassungssystem zur Kollisionserfassung und Objektdimensionierung und Verfahren zur Doppelmodus-Datenerfassung | |
DE102020105117A1 (de) | Verfahren und Systeme zum Verbessern von Karten | |
DE102019122266A1 (de) | Systeme und Verfahren zur Parkverwaltung | |
EP2951804A1 (de) | Erstellen eines umfeldmodells für ein fahrzeug |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R082 | Change of representative |
Representative=s name: LORENZ SEIDLER GOSSEL RECHTSANWAELTE PATENTANW, DE |
|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |
|
R084 | Declaration of willingness to licence |