DE102017129076A1 - Autonomer schulbus - Google Patents

Autonomer schulbus Download PDF

Info

Publication number
DE102017129076A1
DE102017129076A1 DE102017129076.1A DE102017129076A DE102017129076A1 DE 102017129076 A1 DE102017129076 A1 DE 102017129076A1 DE 102017129076 A DE102017129076 A DE 102017129076A DE 102017129076 A1 DE102017129076 A1 DE 102017129076A1
Authority
DE
Germany
Prior art keywords
camera
passenger
vehicle
pick
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102017129076.1A
Other languages
English (en)
Inventor
Maryam Moosaei
Madeline J. Goh
Guy Hotson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102017129076A1 publication Critical patent/DE102017129076A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/20Means to switch the anti-theft system on or off
    • B60R25/25Means to switch the anti-theft system on or off using biometry
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • B60R16/0231Circuits relating to the driving or the functioning of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/10Fittings or systems for preventing or indicating unauthorised use or theft of vehicles actuating a signalling device
    • B60R25/102Fittings or systems for preventing or indicating unauthorised use or theft of vehicles actuating a signalling device a signal being sent to a remote location, e.g. a radio signal being transmitted to a police station, a security company or the owner
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0022Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the communication link
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/02Reservations, e.g. for tickets, services or events
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/202Dispatching vehicles on the basis of a location, e.g. taxi dispatching
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/01Occupants other than the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/041Potential occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Tourism & Hospitality (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Operations Research (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Development Economics (AREA)
  • Transportation (AREA)
  • Quality & Reliability (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ein autonomer Bus beinhaltet Sensoren und Aktoren, die ausreichen, um eine autonome Navigation durchzuführen. Die Steuerung des Busses empfängt eine Route und fährt zu Abholorten entlang der Route. Eine Kamera, die einen äußeren Bereich um eine Tür in ihrem Sichtfeld aufweist, bewertet, ob eine Person, die mit Erkennungsinformation eines beabsichtigten Fahrgasts übereinstimmt, vorhanden ist. Wenn dies der Fall ist, erlaubt ein Türaktor den Einstieg der Person und der Einstieg der Person wird überprüft. Wenn die Person nicht einsteigt oder eine andere Person einsteigt, kann ein Alarm generiert werden und die Steuerung kann eine Bewegung unterlassen. Während des Transports können Geräuschpegel und Pegel von chemischen Stressstoffen überwacht werden. Wenn Geräusch oder chemische Stressstoffe ein Problem angeben, kann ein Alarm generiert werden.

Description

  • ALLGEMEINER STAND DER TECHNIK
  • GEBIET DER ERFINDUNG
  • Diese Erfindung bezieht sich auf die Einbeziehung von menschlichen Steuereingaben in einen autonomen Fahrzeugbetrieb.
  • HINTERGRUND DER ERFINDUNG
  • Ein autonomes Fahrzeug kann als Schulbus zum Transportieren von Schülern zwischen Haus und Schule oder bei Ausflügen oder anderen Fahrten verwendet werden. Aufgrund der erhöhten Bedenken bezüglich Schutz und Sicherheit, wann immer mit Kindern oder Minderjährigen gearbeitet wird, erfordert ein autonomer Schulbus zusätzliche Schutz- und Sicherheitsprotokolle.
  • Die hierin offenbarten Systeme und Verfahren stellen einen verbesserten Ansatz zum Implementieren eines autonomen Schulbusses bereit.
  • Figurenliste
  • Um die Vorteile der Erfindung ohne Weiteres zu verstehen, wird eine genauere Beschreibung der oben kurz beschriebenen Erfindung durch Bezugnahme auf spezifische Ausführungsformen, welche in den beigefügten Zeichnungen veranschaulicht sind, bereitgestellt. In dem Verständnis, dass diese Zeichnungen lediglich typische Ausführungsformen der Erfindung darstellen und daher nicht als den Umfang beschränkend aufzufassen sind, wird die Erfindung mit zusätzlicher Genauigkeit und Ausführlichkeit durch die Verwendung der begleitenden Zeichnungen beschrieben und erläutert, wobei:
    • 1A ein schematisches Blockdiagramm von Komponenten ist, die einen autonomen Schulbus gemäß einer Ausführungsform der vorliegenden Erfindung implementieren;
    • 1B ein schematisches Blockdiagramm eines autonomen Schulbusses gemäß einer Ausführungsform der vorliegenden Erfindung ist;
    • 2 ein schematisches Blockdiagramm einer beispielhaften Rechenvorrichtung ist, die zum Implementieren von Verfahren gemäß Ausführungsformen der Erfindung geeignet ist;
    • 3 ein Prozessablaufdiagramm eines Verfahrens zum Abholen eines Fahrgasts unter Verwendung eines autonomen Schulbusses gemäß einer Ausführungsform der vorliegenden Erfindung ist; und
    • 4 ein Prozessablaufdiagramm eines Verfahrens zum Erkennen von Problemen während der Fahrt eines autonomen Schulbusses gemäß Ausführungsformen der vorliegenden Erfindung ist.
  • DETAILLIERTE BESCHREIBUNG
  • Bezugnehmend auf 1A und 1B kann ein Fahrzeug 100 (siehe 1B) ein Fahrzeug mit großer Kapazität sein, wie etwa ein Bus, ein Van, ein SUV oder dergleichen. Der hierin offenbarte Ansatz ist besonders geeignet zum Abholen minderjähriger Schüler unter Verwendung eines Großraumfahrzeugs. Der hierin offenbarte Ansatz kann jedoch auch unter Verwendung eines Fahrzeugs mit geringerer Kapazität, wie eine Limousine oder ein anderes kleines Fahrzeug, implementiert werden.
  • Das Fahrzeug 100 kann jedes in dem Bereich bekannte Fahrzeug beinhalten. Das Fahrzeug 100 kann alle Strukturen und Merkmale eines beliebigen Fahrzeugs aufweisen, das in dem Bereich bekannt ist, einschließlich Rädern, eines mit den Rädern gekoppelten Antriebsstrangs, eines mit dem Antriebsstrang gekoppelten Motors, eines Lenksystems, eines Bremssystems und anderer bekannter Systeme, die in dem Bereich dahingehend bekannt sind, dass sie in einem Fahrzeug beinhaltet sind.
  • Wie hierin ausführlicher erörtert wird, kann die Steuerung 102 eine autonome Navigation und eine Kollisionsvermeidung durchführen. Die Steuerung 102 kann eine oder mehrere Ausgaben von einem oder mehreren Außensensoren 104 empfangen. Beispielsweise können eine oder mehrere Kameras 106a an dem Fahrzeug 100 angebracht sein und die von der Steuerung 102 empfangenen Bildströme ausgeben.
  • Die Außensensoren 104 können Sensoren wie einen Ultraschallsensor 106b, einen RADAR-Sensor (Radio Detection and Ranging) 106c, einen LIDAR-Sensor (Light Detection and Ranging) 106d, einen SONAR-Sensor (Sound Navigation and Ranging) 106e und dergleichen beinhalten.
  • Die Steuerung 102 kann ein Autonombetriebsmodul 108 ausführen, das die Ausgaben der Außensensoren 104 empfängt. Das Autonombetriebsmodul 108 kann ein Hindernisidentifizierungsmodul 110a, ein Kollisionsvorhersagemodul 110b und ein Entscheidungsmodul 110c beinhalten. Das Hindernisidentifizierungsmodul 110a analysiert die Ausgaben der Außensensoren und identifiziert potentielle Hindernisse, einschließlich Menschen, Tieren, Fahrzeugen, Gebäuden, Bordsteinen und anderen Objekten und Strukturen. Insbesondere kann das Hindernisidentifizierungsmodul 110a Fahrzeugbilder in den Sensorausgaben identifizieren.
  • Das Kollisionsvorhersagemodul 110b sagt vorher, welche Hindernisbilder wahrscheinlich mit dem Fahrzeug 100 auf der Grundlage seiner gegenwärtigen Bewegungsbahn oder des gegenwärtig beabsichtigten Weges kollidieren. Das Kollisionsvorhersagemodul 110b kann die Wahrscheinlichkeit einer Kollision mit Objekten bewerten, die durch das Hindernisidentifizierungsmodul 110a identifiziert werden. Das Entscheidungsmodul 110c kann eine Entscheidung treffen, zu stoppen, zu beschleunigen, abzubiegen usw., um Hindernisse zu vermeiden. Die Art, in der das Kollisionsvorhersagemodul 110b potenzielle Kollisionen vorhersagt und die Art, in der das Entscheidungsmodul 110c Maßnahmen ergreift, um mögliche Kollisionen zu vermeiden, kann gemäß einem beliebigen Verfahren oder System sein, das auf dem Gebiet von autonomen Fahrzeugen bekannt ist.
  • Das Entscheidungsmodul 110c kann die Bewegungsbahn des Fahrzeugs durch Betätigen ein oder mehrerer Aktoren 112 steuern, die die Richtung und die Geschwindigkeit des Fahrzeugs 100 steuern. Die Aktoren 112 können beispielsweise einen Lenkaktor 114a, eine Gaspedalaktor 114b und einen Bremsaktor 114c beinhalten. Die Konfiguration der Aktoren 114a bis 114c kann gemäß jeder Implementierung derartiger Aktoren erfolgen, die auf dem Gebiet von autonomen Fahrzeugen bekannt sind.
  • In hierin offenbarten Ausführungsformen kann das Autonombetriebsmodul 108 eine autonome Navigation zu einem festgelegten Ort, autonomes Parken und andere automatisierte Fahraktivitäten durchführen, die auf dem Gebiet bekannt sind.
  • Das Autonombetriebsmodul 108 kann minderjährige Kinder oder Fahrgäste abholen, transportieren und absetzen, die ansonsten während des Transports eine Aufsicht erfordern würden. Zu diesem Zweck kann das Autonombetriebsmodul 108 ein Abholmodul 110d beinhalten. Das Abholmodul 110d überprüft den Einstieg von Fahrgästen und erkennt den Einstieg von nicht autorisierten Personen. Insbesondere kann das Abholmodul 110d das Verfahren 300 der 3 ausführen.
  • Das Autonombetriebsmodul 108 kann ferner ein Transportmodul 110e beinhalten, das Probleme während des Transports der Fahrgäste erkennt. Der Betrieb des Transportmoduls 110e wird nachstehend in Bezug auf das Verfahren 400 der 4 beschrieben.
  • Das Abholmodul 110d und das Transportmodul 110e können in Bezug auf Ausgaben von einem oder mehreren Fahrgastsensoren 116 betrieben werden. Die Fahrgastsensoren 116 können eine Türkamera 118a beinhalten. Die Türkamera 118a ist innen oder außen derart positioniert, dass die Türkamera 118a in ihrem Sichtfeld einen Bereich aufweist, der sich bis zu einer Tür 120 erstreckt und diese möglicherweise beinhaltet. Auf diese Weise kann ein Fahrgast identifiziert werden, der außerhalb der Tür 120 steht.
  • Die Fahrgastsensoren 116 können ferner eine oder mehrere Innenkameras 118b beinhalten. Die Innenkameras 118b können in ihren Sichtfeldern Sitze 122 des Fahrzeugs 100 aufweisen. Die Fahrgastsensoren 116 können ferner Sensoren wie etwa eines oder mehrere Mikrofone 118c und einen elektrochemischen Sensor 118d beinhalten.
  • Das Fahrzeug 100 kann ferner eine oder mehrere Ausgabevorrichtungen 124 beinhalten, die mit der Steuerung 102 gekoppelt sind. Die Ausgabevorrichtungen 124 können Lichter 126a zum Warnen anderer Fahrer, einen Zeichenaktor 126b zum Auslösen eines Stoppzeichens, das auch Lichter 126a tragen kann, und einen Türaktor 126c beinhalten. In Ausführungsformen, in denen das Fahrzeug 100 ein herkömmliches Passagierfahrzeug ist, kann der Türaktor 126c durch einen Verriegelungsaktor ersetzt werden, so dass die Fahrgäste die Tür 120 manuell öffnen und schließen.
  • Die Steuerung 102 kann mit einem Serversystem 128 in Datenkommunikation stehen. Zum Beispiel kann die Steuerung in Datenkommunikation mit einem oder mehreren Mobilfunkmasten 130 stehen, die über ein Netzwerk 132, wie zum Beispiel ein lokales Netzwerk (LAN), ein Weitbereichsnetz (WAN), das Internet oder eine andere drahtlose oder drahtgebundene Netzwerkverbindung, mit dem Serversystem 128 in Datenkommunikation stehen.
  • Das Serversystem 128 kann eine Datenbank 134 hosten oder darauf zugreifen. Die Datenbank 134 kann eine Vielzahl von Fahrgastdatensätzen 136 für Personen speichern, die unter Verwendung des Fahrzeugs 100 transportiert werden sollen. Die Fahrgastdatensätze 136 können solche Informationen enthalten, wie eine Kennung 138a des Fahrgasts, eine Abholadresse 138b des Fahrgasts, Kontaktinformationen 138c für einen Erziehungsberechtigten des Fahrgasts und ein Bild 138d oder andere Identifizierungsinformationen für den Fahrgast. Insbesondere kann das Bild 138d ein Bild oder Informationen beinhalten, die von einem Bild des Fahrgasts stammen, das zur Gesichtserkennung verwendet werden kann. Der Fahrgastdatensatz 136 kann ferner einen Zeitplan 138e von Tagen und/oder Zeitfenstern beinhalten, an bzw. in denen der Fahrgast abgeholt werden soll, und die Orte, an denen der Fahrgast abgeholt werden soll. Der Zeitplan 138e kann ferner einen Zielort für jede geplante Abholung auflisten. Der Fahrgastdatensatz 136 kann eine Fahrthistorie 138f speichern, die Informationen bezüglich früherer Fahrten des Fahrgasts auflistet, wie z. B. tatsächliche Abhol- und Absetzzeiten und dergleichen.
  • Die Kontaktinformationen 138c können sich auf eine Mobilvorrichtung 140 des Erziehungsberechtigten beziehen, wie zum Beispiel eine Telefonnummer. Die Kontaktinformationen 138c können auf eine Benutzerkennung für eine Anwendung verweisen, die auf der Mobilvorrichtung 140 ausgeführt wird. Die Kontaktinformationen können ferner eine E-Mail-Adresse oder andere Kontaktinformationen beinhalten.
  • 2 ist ein Blockdiagramm, das eine beispielhaften Rechenvorrichtung 200 veranschaulicht. Die Rechenvorrichtung 200 kann verwendet werden, um verschiedene Prozeduren, wie beispielsweise die hierin erläuterten, durchzuführen. Die Steuerung 102, das Serversystem 128 und die mobile Vorrichtung 140 können einige oder alle Attribute der Rechenvorrichtung 200 aufweisen.
  • Die Rechenvorrichtung 200 beinhaltet einen oder mehrere Prozessor(en) 202, eine oder mehrere Speichervorrichtung(en) 204, eine oder mehrere Schnittstelle(n) 206, eine oder mehrere Massenspeichervorrichtung(en) 208, eine oder mehrere Ein-/Ausgabe-(E/A-) Vorrichtung(en) 210 und eine Anzeigevorrichtung 230, von denen alle an einen Bus 212 gekoppelt sind. Der/Die Prozessor(en) 202 beinhaltet/beinhalten einen oder mehrere Prozessoren oder Steuerungen, die in der/den Speichervorrichtung(en) 204 und/oder der/den Massenspeichervorrichtung(en) 208 gespeicherte Anweisungen ausführen. Der/Die Prozessor(en) 202 kann/können ebenso verschiedene Arten von computerlesbaren Medien beinhalten, wie beispielsweise einen Cache-Speicher.
  • Die Speichervorrichtung(en) 204 beinhaltet/beinhalten verschiedene computerlesbare Medien, wie beispielsweise flüchtige Speicher (z. B. Direktzugriffsspeicher (RAM) 214) und/oder nichtflüchtige Speicher (z. B. Festwertspeicher (ROM) 216). Die Speichervorrichtung(en) 204 kann/können ebenso einen wiederbeschreibbaren ROM beinhalten, wie beispielsweise einen Flash-Speicher.
  • Die Massenspeichervorrichtung(en) 208 beinhalten verschiedene computerlesbare Medien, wie etwa Magnetbänder, Magnetplatten, optische Platten, Festkörperspeicher (z. B. Flash-Speicher) und so weiter. Wie in 2 gezeigt, ist eine besondere Massenspeichervorrichtung ein Festplattenlaufwerk 224. Verschiedene Laufwerke können ebenso in der/den Massenspeichervorrichtung(en) 208 beinhaltet sein, um ein Auslesen aus und/oder Schreiben auf die verschiedenen computerlesbaren Medien zu ermöglichen. Die Massenspeichervorrichtung(en) 208 beinhaltet/beinhalten entfernbare Medien 226 und/oder nichtentfernbare Medien.
  • Die E/A-Vorrichtung(en) 210 beinhaltet/beinhalten verschiedene Vorrichtungen, die es ermöglichen, dass Daten und/oder andere Informationen in die Rechenvorrichtung 200 eingegeben oder daraus abgerufen werden. (Eine) Beispielhafte I/O-Vorrichtung(en) 210 beinhaltet/beinhalten Cursorsteuervorrichtungen, Tastaturen, Tastenfelder, Mikrofone, Monitore oder andere Anzeigevorrichtungen, Lautsprecher, Drucker, Netzschnittstellenkarten, Modems, Linsen, CCDs oder andere Bilderfassungsvorrichtungen und dergleichen.
  • Die Anzeigevorrichtung 230 beinhaltet jede Art von Vorrichtung, die fähig ist, Informationen für einen oder mehrere Benutzer der Rechenvorrichtung 200 darzustellen. Beispiele einer Anzeigevorrichtung 230 beinhalten einen Monitor, ein Anzeigeendgerät, eine Videoprojektionsvorrichtung und dergleichen.
  • Die Schnittstelle(n) 206 beinhaltet/beinhalten verschiedene Schnittstellen, die der Rechenvorrichtung 200 ermöglichen, mit anderen Systemen, Vorrichtungen oder Rechenumgebungen zu interagieren. (Eine) Beispielhafte Schnittstelle(n) 206 beinhaltet/beinhalten eine beliebige Anzahl von unterschiedlichen Netzschnittstellen 220, wie beispielsweise Schnittstellen zu lokalen Netzen (LANs), Weitbereichsnetzen (WANs), drahtlosen Netzen und dem Internet. (Eine) Andere Schnittstelle(n) beinhaltet/beinhalten eine Benutzerschnittstelle 218 und eine Peripherievorrichtungsschnittstelle 222. Die Schnittstelle(n) 206 kann/können ebenso eine oder mehrere Peripherieschnittstellen beinhalten, wie beispielsweise Schnittstellen für Drucker, Zeigevorrichtungen (Mäuse, Touchpad usw.), Tastaturen und dergleichen.
  • Der Bus 212 ermöglicht dem/den Prozessor(en) 202, der/den Speichervorrichtung(en) 204, der/den Schnittstelle(n) 206, der/den Massenspeichervorrichtung(en) 208, der/den E/A-Vorrichtung(en) 210 und der Anzeigevorrichtung 230 miteinander sowie mit anderen Vorrichtungen oder Komponenten, die an den Bus 212 gekoppelt sind, zu kommunizieren. Der Bus 212 stellt eine oder mehrere von verschiedenen Arten von Busstrukturen dar, wie beispielsweise einen Systembus, PCI-Bus, IEEE-1394-Bus, USB-Bus und so weiter.
  • Zum Zwecke der Veranschaulichung sind Programme und andere ausführbare Programmkomponenten hierin als diskrete Blöcke dargestellt, auch wenn es sich versteht, dass sich derartige Programme und Komponenten zu verschiedenen Zeiten in unterschiedlichen Speicherkomponenten der Rechenvorrichtung 200 befinden und durch den/die Prozessor(en) 202 ausgeführt werden. Alternativ können die hierin beschriebenen Systeme und Verfahren in Hardware oder einer Kombination von Hardware, Software und/oder Firmware implementiert sein. Ein oder mehrere anwendungsspezifische integrierte Schaltkreise (ASICs) können zum Beispiel programmiert sein, um eines oder mehrere der hierin beschriebenen Systeme und Verfahren auszuführen.
  • Bezugnehmend auf 3 kann das veranschaulichte Verfahren 300 von der Steuerung 102 ausgeführt werden, um eine Vielzahl von Fahrgästen abzuholen. Das Verfahren 300 kann das Empfangen 302 einer Route von dem Serversystem 128 beinhalten. Die Route kann eine Reihenfolge von Abholorten von Fahrgästen sein. Die Reihenfolge kann bestimmt werden, um die zurückgelegte Strecke zu reduzieren. Zum Beispiel kann das Serversystem 128 Abholorte zwischen Routen verteilen und Abholorte innerhalb einer Route gemäß einer Lösung des sogenannten „Problems eines Handelsreisenden“ unter Verwendung eines beliebigen Ansatzes zur Lösung dieses Problems verteilen, wie es in der Technik bekannt ist, anordnen. Die Route, wie sie von dem Serversystem 128 empfangen wird, kann eine Zielzeit oder ein Zeitfenster umfassen, zu der bzw. in dem jeder Fahrgast abgeholt werden sollte.
  • Das Verfahren 300 kann ein Fahren (304) zu einem nächsten Abholort aus der Route beinhalten, wobei am ersten Abholort begonnen wird. Dies kann autonomes Navigieren zu dem nächsten Abholort von dem aktuellen Standort des Fahrzeugs 100 beinhalten. Bei Ankunft an dem Abholort kann die Steuerung 102 die Lichter 126a und den Zeichenaktor 126b anschalten. Das Verfahren 300 kann das Bewerten (306) beinhalten, ob der dem Abholort entsprechende Fahrgast innerhalb einer Wartezeit vom Zeitpunkt der Ankunft am Abholort oder innerhalb einer Wartezeit ab einer Zielankunftszeit am Abholort erkannt wird. Das Bewerten, ob der Fahrgast erkannt wird, kann Bewerten (306) beinhalten, ob eine Person, die den Erkennungsinformationenen 138d für den Fahrgast entspricht, in der Ausgabe der Türkamera 118a vorhanden ist. Dies kann das Durchführen einer Gesichtserkennung an der Ausgabe der Türkamera 118a beinhalten.
  • Wenn dies nicht der Fall ist, kann das Verfahren 300 das Berichten (308) einer fehlgeschlagenen Abholung beinhalten. Dies kann das Übertragen einer Benachrichtigung an den Erziehungsberechtigten des Fahrgasts unter Verwendung der Kontaktinformation 138c beinhalten. Eine Benachrichtigung kann auch an das Serversystem 128 gesendet werden. Das Verfahren 300 kann dann bei Schritt 304 für den nächsten Abholort fortfahren.
  • Wenn festgestellt wird, dass der Fahrgast innerhalb der Wartezeit erkannt wird (306), kann die Steuerung 102 dann die Tür 120 öffnen (310), etwa unter Verwendung des Türaktors 126c. Wenn die Tür 120 nicht selbstbetätigt ist, kann Schritt 310 das Entriegeln der Tür 120 umfassen.
  • Das Verfahren 300 kann das Bewerten (312) beinhalten, ob ein einzelner Fahrgast eingestiegen ist, während die Tür in Schritt 312 geöffnet wurde. Dies kann das Bewerten der Ausgabe von einer oder beiden von der Türkamera 118a und einer Innenkamera 118b beinhalten. Schritt 312 kann das Identifizieren der Bewegung von Personen in der Ausgabe von einer oder mehreren Kameras und das Bestimmen, ob eine einzelne Person in das Fahrzeug eingestiegen ist, beinhalten. In einigen Ausführungsformen kann Schritt 312 das Bewerten beinhalten, ob eine Person, die tatsächlich in das Fahrzeug eingestiegen ist, die gleichen Gesichtserkennungsattribute wie der Fahrgast aufweist.
  • Wenn ein einzelner Einstieg 312 nicht festgestellt wird, d. h niemand eingestiegen ist, mehrere Personen eingestiegen sind oder die Person, die in das Fahrzeug eingestiegen ist, nicht mit dem Fahrgast übereinstimmt, der dem Abholort entspricht (312), kann das Verfahren 300 ein Berichten (314) eines nicht autorisierten Einsteigens in das Fahrzeug 100 beinhalten. Es kann verhindert werden, dass sich das Fahrzeug 100 bewegt, bis der Alarm aufgehoben ist. Zum Beispiel kann das Verfahren 300 nicht mit Schritt 304 für den nächsten Abholort fortfahren, bis ein Bediener manuell den Neustart des Prozesses 300 nach dem Bericht (314) aufruft.
  • Wenn bestimmt wird (312), dass der Fahrgast in Schritt 312 alleine in das Fahrzeug 100 eingestiegen ist, kann eine erfolgreiche Abholung des Fahrgasts berichtet werden (316) und der Türaktor 126c kann dann die Tür 120 schließen. Die Steuerung 102 kann auch die Lichter 126a abschalten und bewirken, dass der Zeichenaktor 126b das Zeichen zurückzieht. Der Bericht kann an den Erziehungsberechtigten des Fahrgasts übertragen werden und kann ferner an das Serversystem 124 berichtet und in der Fahrhistorie 138f des Fahrgasts gespeichert werden. Wenn festgestellt wird, dass der Fahrgast der letzte Fahrgast auf der Route ist (318), endet das Verfahren. Andernfalls fährt das Verfahren bei Schritt 304 für den nächsten Abholort fort.
  • Bezugnehmend auf 4 kann das veranschaulichte Verfahren 400 während einer Traversierung einer Route durch die Steuerung 102 ausgeführt werden. Das Verfahren 400 kann das Bewerten einer Ausgabe des Mikrofons 118c beinhalten. Geräusche oberhalb des Schwellenwerts, der der Anzahl von Fahrgästen in dem Fahrzeug 100 entspricht, können einen Aufruhr oder einen Notfall in dem Fahrzeug 100 angeben. Der verwendete Schwellenwert kann mit der Anzahl der Fahrgäste steigen. Wenn die Ausgabe des Mikrofons 118c angibt, dass das Geräusch innerhalb des Fahrzeugs 100 den Schwellenwert überschreitet, kann ein Alarm generiert werden (404). Dies kann das Übertragen des Alarms an das Serversystem 128 und/oder die Erziehungsberechtigten aller Fahrgäste beinhalten, die sich gegenwärtig an Bord des Fahrzeugs 100 befinden.
  • Das Verfahren 400 kann das Auswerten eines Ausgangssignals des elektrochemischen Sensors 118d beinhalten (408). Stress in einem Menschen löst die Freisetzung von Pheromonen und anderen chemischen Stoffen aus. Eine Ausgabe des elektrochemischen Sensors 118d kann bewertet werden (408), um zu bestimmen, ob die Signatur von spannungsanzeigenden chemischen Stoffen erfasst wird und ob die Ausgabe des Sensors 118d eine Konzentration dieser chemischen Stoffe angibt, die für eine gegebene Anzahl von Fahrgästen über einem Schwellenwert liegt. wobei sich der Schwellenwert mit der Anzahl der Fahrgäste erhöht. Auf diese Weise führen Ereignisse, die in dem Fahrzeug 100 auftreten und ein hohes Maß an Angst oder Stress verursachen, zu einer Alarmgenerierung (410). Dies kann das Übertragen des Alarms an das Serversystem 128 und/oder die Erziehungsberechtigten aller Fahrgäste, die sich gegenwärtig an Bord des Fahrzeugs 100 befinden, beinhalten. Das Serversystem 128 kann diese Alarme menschlichen Bedienern präsentieren, die Ausgaben der Innenkameras 118b und des Mikrophons 118c sehen und Maßnahmen durch die Steuerung 102 aufrufen können, wie etwa Anhalten, Weiterfahren zu einer Polizeistation oder einem anderen sicheren Ort oder andere Maßnahmen. Die Fernbediener können auch überprüfen, ob die Bedingungen normal sind, und ein Weiterfahren entlang der Route aufrufen.
  • In der vorstehenden Offenbarung wurde auf die beigefügten Zeichnungen Bezug genommen, die einen Teil davon bilden und in denen spezifische Implementierungen zur Veranschaulichung gezeigt werden, in denen die Offenbarung ausgeübt werden kann. Es versteht sich, dass andere Implementierungen verwendet werden können und strukturelle Änderungen vorgenommen werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Bezugnahmen in der Beschreibung auf „eine Ausführungsform“, „ein Ausführungsbeispiel“ usw. geben an, dass die beschriebene Ausführungsform ein bestimmtes Merkmal, eine Struktur oder Eigenschaft einschließen kann, aber nicht jede Ausführungsform muss notwendigerweise dieses bestimmte Merkmal, diese Struktur oder Eigenschaft einschließen. Darüber hinaus beziehen sich solche Ausdrücke nicht unbedingt auf dieselbe Ausführungsform. Wenn ein Merkmal, eine Struktur oder eine Eigenschaft in Verbindung mit einer Ausführungsform beschrieben wird, wird davon ausgegangen, dass es innerhalb des Wissens eines Fachmanns liegt, das Merkmal, die Struktur oder die Eigenschaft in Verbindung mit anderen Ausführungsformen umzusetzen, unabhängig davon, ob dies ausdrücklich beschrieben wird oder nicht.
  • Implementierungen der hierin offenbarten Systeme, Vorrichtung und Verfahren können einen Spezial- oder Universalcomputer umfassen oder verwenden, der Computerhardware einschließt, wie etwa einen oder mehrere Prozessoren und einen Systemspeicher, wie hierin erörtert. Implementierungen innerhalb des Umfangs der vorliegenden Offenbarung können außerdem Datenträger und andere computerlesbare Medien zum Weiterleiten oder Speichern von von einem Computer ausführbaren Anweisungen und/oder Datenstrukturen einschließen. Bei solchen computerlesbaren Medien kann es sich um beliebige verfügbare Medien handeln, auf die durch ein Universal- oder Spezialcomputersystem zugegriffen werden kann. Bei computerlesbaren Medien, auf denen von einem Computer ausführbare Anweisungen gespeichert sind, handelt es sich um Computerspeichermedien (-geräte). Bei computerlesbaren Medien, die von einem Computer ausführbare Anweisungen weiterleiten, handelt es sich um Übertragungsmedien. Daher können Implementierungen der Offenbarung beispielsweise und nicht einschränkend wenigstens zwei deutlich unterschiedliche Arten von computerlesbaren Medien umfassen: Computerspeichermedien (-geräte) und Übertragungsmedien.
  • Computerspeichermedien (-geräte) schließen RAM, ROM, EEPROM, CD-ROM, Solid-State-Drives („SSDs“) (z. B auf Grundlage von RAM), Flash-Speicher, Phasenänderungsspeicher („PCM“), andere Speichertypen, andere optische Plattenspeicher, Magnetplattenspeicher oder andere magnetische Speichervorrichtungen oder beliebige andere Medien ein, die verwendet werden können, um gewünschte Programmcodemittel in Form von von einem Computer ausführbaren Anweisungen oder Datenstrukturen zu speichern, und auf die durch einen Universal- oder Spezialcomputer zugegriffen werden kann.
  • Eine Implementierung der hierin offenbaren Vorrichtungen, Systemen und Verfahren kann über ein Computernetzwerk kommunizieren. Ein „Netzwerk“ ist als eine oder mehrere Datenverbindungen definiert, die den Transport elektronischer Daten zwischen Computersystemen und/oder Modulen und/oder anderen elektronischen Geräten ermöglichen. Wenn Informationen über ein Netzwerk oder eine andere Kommunikationsverbindung (entweder drahtgebunden, drahtlos oder eine Kombination aus drahtgebunden oder drahtlos) an einen Computer übertragen oder diesem bereitgestellt wird, betrachtet der Computer die Verbindung dementsprechend als ein Übertragungsmedium. Übertragungsmedien können ein Netzwerk und/oder Datenverbindungen einschließen, die verwendet werden können, um gewünschte Programmcodemittel in Form von von einem Computer ausführbaren Anweisungen oder Datenstrukturen zu übertragen, und auf die durch einen Universal- oder Spezialcomputer zugegriffen werden kann. Kombinationen aus den Vorstehenden fallen ebenfalls in den Umfang computerlesbarer Medien.
  • Von einem Computer ausführbare Anweisungen umfassen zum Beispiel Anweisungen und Daten, die, wenn sie an einem Prozessor ausgeführt werden, einen Universalcomputer, Spezialcomputer oder eine Spezialverarbeitungsvorrichtung dazu veranlassen, eine bestimmte Funktion oder Gruppe von Funktionen durchzuführen. Die von einem Computer ausführbaren Anweisungen können zum Beispiel Binärdateien, Zwischenformatanweisungen, wie etwa Assemblersprache, oder sogar Quellcode sein. Obwohl der Gegenstand in für Strukturmerkmale und/oder methodische Handlungen spezifischer Sprache beschrieben wurde, versteht es sich, dass der in den beigefügten Ansprüchen definierte Gegenstand nicht notwendigerweise auf die vorangehend beschriebenen Merkmale oder Handlungen beschränkt ist. Die beschriebenen Merkmale und Handlungen werden vielmehr als beispielhafte Formen der Umsetzung der Ansprüche offenbart.
  • Der Fachmann wird verstehen, dass die Offenbarung in Netzwerkrechenumgebungen mit vielen Arten von Computersystemkonfigurationen durchgeführt werden kann, einschließend einen Armaturenbrett-Fahrzeugcomputer, PCs, Desktop-Computer, Laptops, Nachrichtenprozessoren, Handgeräte, Multiprozessorsysteme, Unterhaltungselektronik auf Mikroprozessorbasis oder programmierbare Unterhaltungselektronik, Netzwerk-PCs, Minicomputer, Mainframe-Computer, Mobiltelefone, PDAs, Tablets, Pager, Router, Schalter, verschiedene Speichervorrichtungen und Ähnliches. Diese Offenbarung kann außerdem in Umgebungen mit verteilten Systemen durchgeführt werden, in denen sowohl lokale Computersysteme als auch Remotecomputersysteme, die durch ein Netzwerk (entweder durch drahtgebundene Datenverbindungen, drahtlose Datenverbindungen oder durch eine Kombination aus drahtgebundenen und drahtlosen Datenverbindungen) verbunden sind, Aufgaben durchführen. In einer verteilten Systemumgebung können Programmmodule sowohl auf lokalen als auch Remote-Speicherungsvorrichtungen angesiedelt sein.
  • Soweit zutreffend, können die hier beschriebenen Funktionen zudem in einem oder mehreren der folgenden ausgeführt werden: Hardware, Software, Firmware, digitale Komponenten oder analoge Komponenten. Ein oder mehrere anwendungsspezifische integrierte Schaltkreise (ASICs) können zum Beispiel programmiert sein, um eins oder mehrere der hierin beschriebenen Systeme und Verfahren auszuführen. Bestimmte Ausdrücke werden in der Beschreibung und den Ansprüchen in Bezug auf bestimmte Systemkomponenten verwendet. Wie ein Fachmann verstehen wird, kann auf Komponenten durch die Verwendung verschiedener Bezeichnungen Bezug genommen werden. In diesem Dokument soll nicht zwischen Komponenten unterschieden werden, die sich dem Namen nach unterscheiden, nicht jedoch von der Funktion her.
  • Es sei angemerkt, dass die vorangehend erörterten Sensorausführungsformen Computerhardware, -software, -firmware oder eine beliebige Kombination davon umfassen können, um wenigstens einen Teil der Funktionen durchzuführen. Ein Sensor kann zum Beispiel Computercode beinhalten, der konfiguriert ist, um in einem oder mehreren Prozessoren ausgeführt zu werden, und kann eine Hardware-Logikschaltung/elektrische Schaltung beinhalten, die durch den Computercode gesteuert wird. Diese beispielhaften Vorrichtungen werden hierin zu Veranschaulichungszwecken bereitgestellt und sollen nicht der Einschränkung dienen. Ausführungsformen der vorliegenden Offenbarung können in weiteren Arten von Vorrichtungen umgesetzt werden, wie einem Fachmann auf dem oder den Gebieten bekannt.
  • Wenigstens einige Ausführungsformen der Offenbarung betreffen Computerprogrammprodukte, die eine solche Logik (z. B. in Form von Software) umfassen, die auf einem beliebigen computernutzbaren Medium gespeichert ist. Solche Software veranlasst, wenn sie in einer oder mehreren Datenverarbeitungsvorrichtungen ausgeführt wird, eine Vorrichtung dazu, wie hierin beschrieben zu arbeiten.
  • Während verschiedene Ausführungsformen der vorliegenden Offenbarung oben beschrieben wurden, versteht es sich, dass diese nur als Beispiel und nicht als Einschränkung dargestellt wurden. Es ist für den Fachmann auf dem Gebiet offensichtlich, dass verschiedene Änderungen in Form und Detail vorgenommen werden können, ohne vom Geist und Umfang der Offenbarung abzuweichen. Daher sollen die Breite und der Umfang der vorliegenden Offenbarung nicht durch eines der vorangehend beschriebenen Ausführungsbeispiele eingeschränkt werden, sondern sollen lediglich gemäß den folgenden Ansprüchen und ihrer Äquivalente definiert sein. Die vorangehende Beschreibung wurde zu Veranschaulichungs- und Beschreibungszwecken dargelegt. Sie ist nicht als umfassend anzusehen und soll die Offenbarung nicht auf die spezifische offenbarte Form beschränken. Viele Modifikationen und Variationen sind in Anbetracht der oben angegebenen Lehren möglich. Ferner ist angemerkt, dass eine beliebige oder alle der vorangehend genannten alternativen Implementierungen in einer beliebigen gewünschten Kombination genutzt werden können, um zusätzliche Hybridimplementierungen der Offenbarung zu bilden.

Claims (15)

  1. Verfahren, das durch eine Steuerung eines autonomen Fahrzeugs folgendes umfasst: Empfangen einer Anweisung, zu einem Abholort mit Erkennungsinformationen zu fahren; Veranlassen, dass das autonome Fahrzeug zum Abholort fährt; Erkennen (a) eines Fahrgasts, der den Erkennungsinformationen in einer Ausgabe einer ersten Kamera, die an dem autonomen Fahrzeug angebracht ist, entspricht; und als Reaktion auf (a), Zulassen des Einstiegs des Fahrgasts und Weiterfahren zu einem Zielort.
  2. Verfahren nach Anspruch 1, ferner umfassend: Erkennen (b) eines Einstiegs des Fahrgasts in das Fahrzeug unter Verwendung von mindestens einer von der ersten Kamera und einer zweiten Kamera, wobei ein Sichtfeld der zweiten Kamera ein Inneres des Fahrzeugs beinhaltet; und als Reaktion auf (b), Übertragen einer Benachrichtigung an einen Erziehungsberechtigten des Fahrgasts.
  3. Verfahren nach Anspruch 1, ferner umfassend: Erkennen von mindestens einem von folgenden: (b) Einstieg des Fahrgasts und einer zusätzlichen Person in das Fahrzeug unter Verwendung von mindestens einer von der ersten Kamera und einer zweiten Kamera, wobei ein Sichtfeld der zweiten Kamera ein Inneres des Fahrzeugs beinhaltet; und (c) Erkennen eines Einstiegs einer Person, die nicht den Erkennungsinformationen entspricht, in das Fahrzeug, unter Verwendung von mindestens einer von der ersten Kamera und der zweiten Kamera; als Reaktion auf das Erkennen von mindestens einem von (b) und (c), Übertragen eines Alarms und Unterlassen des Abfahrens von dem Abholort.
  4. Verfahren nach Anspruch 1, wobei das Zulassen des Einstiegs des Fahrgasts Anschalten eines Türaktors umfasst.
  5. Verfahren nach Anspruch 1, wobei das Erkennen (a) Durchführen einer Gesichtserkennung in Bezug auf eine Ausgabe der ersten Kamera unter Verwendung der Erkennungsinformationen umfasst.
  6. Verfahren nach Anspruch 1, wobei das Empfangen der Anweisung zum Fahren zum Abholort Empfangen einer Route umfasst, die eine Vielzahl von Abholorten einschließlich des Abholorts beinhaltet, wobei das Verfahren ferner das Fahren zu jedem der Abholorte der Vielzahl von Abholorten umfasst.
  7. Verfahren nach Anspruch 6, ferner umfassend: autonomes Fahren zu einem zweiten Abholort der Vielzahl von Abholorten; Erkennen (c) des Ablaufs einer Zeitspanne ohne Erkennen eines zweiten Fahrgasts, der zweiten Erkennungsinformationen entspricht, die dem zweiten Abholort entsprechen; und als Reaktion auf das Erkennen von (c), Übertragen eines Alarms an einen Erziehungsberechtigten des zweiten Fahrgasts.
  8. Verfahren nach Anspruch 7, ferner umfassend, als Reaktion auf das Erkennen von (c), Fahren zu einem nächsten Abholort der Vielzahl von Abholorten.
  9. Autonomes Fahrzeug, umfassend: eine erste Kamera; einen Türaktor; eine Steuerung, die an die erste Kamera und den Türaktor gekoppelt ist, wobei die Steuerung programmiert ist, um: eine Anweisung zu empfangen, zu einem Abholort mit Erkennungsinformationen zu fahren; das autonome Fahrzeug zu veranlassen, zum Abholort zu fahren; wenn ein Fahrgast den Erkennungsinformationen in einer Ausgabe einer ersten Kamera entspricht, die an dem autonomen Fahrzeug angebracht ist, den Türaktor zu veranlassen, den Einstieg des Fahrgasts und das Weiterfahren zu einem Zielort zuzulassen; wobei die Steuerung ferner programmiert ist, um: eine Ausgabe von mindestens einer von der ersten Kamera und der zweiten Kamera zu bewerten, wobei ein Sichtfeld der zweiten Kamera ein Inneres des Fahrzeugs beinhaltet; und wenn der Einstieg des Fahrgasts in das Fahrzeug in der Ausgabe ersichtlich ist, eine Benachrichtigung an einen Erziehungsberechtigten des Fahrgasts zu übertragen.
  10. Autonomes Fahrzeug nach Anspruch 9, wobei die Steuerung ferner programmiert ist, um: zu bewerten, ob eine Ausgabe von mindestens einer von der ersten Kamera und einer zweiten Kamera mindestens eines von (a) Einstieg des Fahrgasts und einer zusätzlichen Person in das Fahrzeug und (b) Einstieg einer Person, die nicht den Erkennungsinformationen entspricht, in das Fahrzeug angibt; wenn die Ausgabe mindestens eines von (a) und (b) angibt, einen Alarm zu übertragen und das Abfahren von dem Abholort zu unterlassen.
  11. Autonomes Fahrzeug nach Anspruch 9, wobei die Steuerung ferner programmiert ist, um zu bewerten, ob der Fahrgast den Erkennungsinformationen entspricht, indem eine Gesichtserkennung in Bezug auf eine Ausgabe der ersten Kamera unter Verwendung der Erkennungsinformationen durchgeführt wird.
  12. Autonomes Fahrzeug nach Anspruch 9, wobei die Steuerung ferner programmiert ist, um die Anweisung zum Fahren zum Abholort zu empfangen, indem sie eine Route einschließlich einer Vielzahl von Abholorten einschließlich des Abholorts empfängt.
  13. Autonomes Fahrzeug nach Anspruch 9, wobei die Steuerung des Fahrzeugs ferner programmiert ist, um: zu bewerten, ob (a) der Ablauf einer Zeitspanne stattgefunden hat, ohne dass eine Person, die den Erkennungsinformationen entspricht, erkannt wird; und wenn (a), einen Alarm an einen Erziehungsberechtigten des zweiten Fahrgasts zu übertragen.
  14. Autonomes Fahrzeug nach Anspruch 13, wobei die Steuerung des Fahrzeugs ferner programmiert ist, um: wenn (a), Fahren zu einem nächsten Abholort.
  15. Autonomes Fahrzeug nach Anspruch 9, ferner umfassend: eine Vielzahl von externen Sensoren, die mindestens eine/einen von einer Kamera, einem LIDAR-Sensor (light detection and ranging) und einem RADAR-Sensor (radio detection and ranging) beinhalten; und eine Vielzahl von Aktoren, die einen Bremsaktor, einen Lenkaktor und einen Gaspedalaktor beinhalten; wobei die Steuerung programmiert ist, um das Fahrzeug autonom zu fahren, indem die Vielzahl von Aktoren gemäß Ausgaben der Vielzahl von externen Sensoren angeschaltet wird.
DE102017129076.1A 2016-12-09 2017-12-06 Autonomer schulbus Withdrawn DE102017129076A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/373,996 US20180164809A1 (en) 2016-12-09 2016-12-09 Autonomous School Bus
US15/373,996 2016-12-09

Publications (1)

Publication Number Publication Date
DE102017129076A1 true DE102017129076A1 (de) 2018-06-14

Family

ID=60950342

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017129076.1A Withdrawn DE102017129076A1 (de) 2016-12-09 2017-12-06 Autonomer schulbus

Country Status (6)

Country Link
US (1) US20180164809A1 (de)
CN (1) CN108216123A (de)
DE (1) DE102017129076A1 (de)
GB (1) GB2559032A (de)
MX (1) MX2017015763A (de)
RU (1) RU2017142719A (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020001846A1 (de) * 2018-06-27 2020-01-02 Robert Bosch Gmbh Verfahren zum ausgeben von steuersignalen zur steuerung eines automatisierten fahrzeugs
DE102018222664B3 (de) 2018-12-20 2020-06-04 Volkswagen Aktiengesellschaft Autonom fahrendes Taxi sowie Verfahren zum Betrieb eines autonom fahrenden Taxis

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10628641B2 (en) * 2017-04-18 2020-04-21 Cisco Technology, Inc. Communication solutions for self-driving car services
US11697394B2 (en) * 2017-08-29 2023-07-11 Ford Global Technologies, Llc Vehicle security systems and methods
EP3473521B1 (de) * 2017-10-20 2020-04-29 MAGNA STEYR Fahrzeugtechnik AG & Co KG Personenbeförderungsfahrzeug
US20200065929A1 (en) * 2018-08-21 2020-02-27 Delphi Technologies, Llc Taxi system with image based determination of special transportation needs
JP2020119039A (ja) * 2019-01-18 2020-08-06 トヨタ自動車株式会社 移動体システム
US10891753B2 (en) * 2019-02-28 2021-01-12 Motorola Solutions, Inc. Device, system and method for notifying a person-of-interest of their location within an estimated field-of-view of a camera
FR3095406A1 (fr) * 2019-04-26 2020-10-30 Psa Automobiles Sa Procédé et système pour gérer l’accomplissement d’un parcours par un véhicule automobile
US11364632B2 (en) 2019-09-03 2022-06-21 Toyota Motor North America, Inc. Systems and methods for transporting an object into and out of a vehicle
CN110991334A (zh) * 2019-11-29 2020-04-10 上海能塔智能科技有限公司 校车的用车人员监管处理方法、装置、电子设备与介质
US11244567B2 (en) 2020-02-27 2022-02-08 Transfinder Corporation Method of determining if an object is allowed to board or disembark a vehicle at a vehicle stop
KR102518175B1 (ko) * 2020-07-22 2023-04-07 현대자동차주식회사 이동식 교육 서비스 제공방법 및 시스템
JP7310756B2 (ja) * 2020-08-24 2023-07-19 トヨタ自動車株式会社 自動走行カートの安全管理装置
US20220099448A1 (en) * 2020-09-25 2022-03-31 4mativ Technologies, Inc System and method for tracking and predicting ridership on a multi-passenger vehicle

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015099679A1 (en) * 2013-12-23 2015-07-02 Intel Corporation In-vehicle authorization for autonomous vehicles
US10150448B2 (en) * 2015-09-18 2018-12-11 Ford Global Technologies. Llc Autonomous vehicle unauthorized passenger or object detection
US9858821B2 (en) * 2016-02-26 2018-01-02 Ford Global Technologies, Llc Autonomous vehicle passenger locator
US10244094B2 (en) * 2016-08-18 2019-03-26 nuTonomy Inc. Hailing a vehicle

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020001846A1 (de) * 2018-06-27 2020-01-02 Robert Bosch Gmbh Verfahren zum ausgeben von steuersignalen zur steuerung eines automatisierten fahrzeugs
DE102018222664B3 (de) 2018-12-20 2020-06-04 Volkswagen Aktiengesellschaft Autonom fahrendes Taxi sowie Verfahren zum Betrieb eines autonom fahrenden Taxis
WO2020126216A1 (de) 2018-12-20 2020-06-25 Volkswagen Aktiengesellschaft Autonom fahrendes taxi

Also Published As

Publication number Publication date
RU2017142719A (ru) 2019-06-07
GB201719963D0 (en) 2018-01-17
GB2559032A (en) 2018-07-25
CN108216123A (zh) 2018-06-29
US20180164809A1 (en) 2018-06-14
MX2017015763A (es) 2018-11-09

Similar Documents

Publication Publication Date Title
DE102017129076A1 (de) Autonomer schulbus
DE102018102285A1 (de) System und verfahren zum beurteilen des innenraums eines autonomen fahrzeugs
DE112017007713T5 (de) Systeme und Verfahren zur Fahrzeugbelegungsverwaltung
DE112020001642T5 (de) Autonomes Fahrzeugsystem
DE102017125484A1 (de) System und verfahren zum einschätzen des innenraums eines autonomen fahrzeugs
DE112014007249B4 (de) Bildverarbeitungsvorrichtung, Fahrzeuganzeigesystem, Anzeigevorrichtung, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
DE112012006226B4 (de) Fahrassistenzvorrichtung
DE102017114122A1 (de) Erkennen von physischen Bedrohungen, die sich einem Fahrzeug nähern
DE112020004587T5 (de) Verteilter verkehrssicherheitskonsens
DE102017113596A1 (de) Erkennen von gefahren in erwartung sich öffnender fahrzeugtüren
DE102018130589A1 (de) System und verfahren zur raucherkennung und -meldung in einem fahrzeug für carsharing- und fahrgemeinschaftsfahrzeuge
DE112018003474T5 (de) System und Verfahren zum Erfassen eines Schikanierens von autonomen Fahrzeugen beim Fahren
DE102022112708A1 (de) Fahrer- und umgebungsüberwachung zur vorhersage menschlicher fahrmanöver und zur reduzierung menschlicher fahrfehler
DE102014223258A1 (de) Tragbarer Computer in einem autonomen Fahrzeug
DE112019004554T5 (de) System und verfahren zur warnung vor vorhergesagten fahrzeugvorfällen und zum ausweichen
DE102020115357A1 (de) Systeme und verfahren für potenziell verbesserte fahrzeugsicherheit für fahrgäste unter verwendung von blockchain
DE102020122757A1 (de) Systeme und verfahren für mitfahrgelegenheiten unter verwendung von blockchain
DE112012004781T5 (de) Versicherungsverfolgung
DE102017127972A1 (de) Mehrfachsensor-Wahrscheinlichkeitsobjekterkennung und automatisiertes Bremsen
DE102019120265A1 (de) Vorhersage des dynamischen Ansprechens
DE112016005034T5 (de) Einsatzsteuerung und verfahren zur zuweisung einer rolle eines verfolgerfahrzeugs
DE102018100487A1 (de) Objektverfolgung durch unüberwachtes lernen
DE112017006295T5 (de) Abholen und absetzen von fluggästen an einem flughafen unter verwendung eines autonomen fahrzeugs
DE112017007793T5 (de) Anomalieerkennung im innenraum eines autonomen fahrzeugs
EP3877231A1 (de) Prädiktion eines voraussichtlichen fahrverhaltens

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee