DE102017113186A1 - Objekterkennung auf Fahrzeugaussenoberfläche - Google Patents

Objekterkennung auf Fahrzeugaussenoberfläche Download PDF

Info

Publication number
DE102017113186A1
DE102017113186A1 DE102017113186.8A DE102017113186A DE102017113186A1 DE 102017113186 A1 DE102017113186 A1 DE 102017113186A1 DE 102017113186 A DE102017113186 A DE 102017113186A DE 102017113186 A1 DE102017113186 A1 DE 102017113186A1
Authority
DE
Germany
Prior art keywords
autonomous
vehicle
autonomous vehicle
person
programmed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017113186.8A
Other languages
English (en)
Inventor
Levasseur Tellis
Sarra Awad Yako
Kyle Richard Post
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102017113186A1 publication Critical patent/DE102017113186A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • G05B19/0423Input/output
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/10Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the vehicle 
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • B60W60/00253Taxi operations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/08Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the cargo, e.g. overload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/30Detection related to theft or to other events relevant to anti-theft systems
    • B60R25/31Detection related to theft or to other events relevant to anti-theft systems of human presence inside or outside the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/083Shipping
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/043Identity of occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/45Pedestrian sidewalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/25Pc structure of the system
    • G05B2219/25257Microcontroller

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Economics (AREA)
  • General Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Human Computer Interaction (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

Ein Fahrzeugsystem umfasst mindestens einen Sensor für autonomes Fahren, der programmiert ist, um Umgebungssignale, die eine Umgebung um ein autonomes Fahrzeug darstellen, und Objekterkennungssignale, die ein Objekt oder eine Person auf einer Außenoberfläche des autonomen Fahrzeugs darstellen, auszugeben. Das Fahrzeugsystem umfasst ferner eine Autonommodussteuerung, die programmiert ist, um das autonome Fahrzeug gemäß den von dem Sensor für autonomes Fahren ausgegebenen Umgebungssignalen autonom zu steuern, das Objekt oder die Person auf der Außenoberfläche des autonomen Fahrzeugs gemäß den Objekterkennungssignalen zu erkennen und den autonomen Betrieb des autonomen Fahrzeugs als Reaktion auf das Erkennen des Objekts oder der Person auf der Außenoberfläche des autonomen Fahrzeugs einzuschränken.

Description

  • HINTERGRUND
  • Autonome Fahrzeuge übernehmen bestimmte Fahrzeugaufgaben, die sonst von einem herkömmlichen Fahrzeugfahrer ausgeübt werden. Autonome Fahrzeuge können durch Steuern der Lenkung, der Beschleunigung, der Bremsung usw. zu einem bestimmten Ziel navigieren, wobei sie sich auf Sensoren und andere Ressourcen verlassen, um nahe Fahrzeuge, Fußgänger und Objekte auf oder in der Nähe der Straße zu erkennen. Das autonome Fahrzeug wird gemäß den von diesen Sensoren ausgegebenen Signalen gesteuert.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt ein beispielhaftes autonomes Fahrzeug mit einem Fahrzeugsystem zum Erkennen eines Objekts auf dem autonomen Fahrzeug und Einschränken der autonomen Nutzung, wenn ein Objekt erkannt wird.
  • 2 zeigt beispielhafte Komponenten des Fahrzeugsystems der 1.
  • 3 ist ein Ablaufplan eines beispielhaften Prozesses, der von dem Fahrzeugsystem ausgeführt werden kann.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Manche autonomen Fahrzeuge können ohne menschliche Interaktion arbeiten. Somit kann ein autonomes Fahrzeug losgeschickt werden, um einen möglichen Passagier an einer Abholstelle abzuholen, wo der mögliche Passagier in das autonome Fahrzeug einsteigen kann, und den Passagier zu seinem Ziel zu bringen. Da das autonome Fahrzeug keinen menschlichen Fahrer hat und während seines Betriebs teilweise niemand sonst anwesend ist, können manche Personen versuchen, Vorteil aus dem autonomen Fahrzeug zu ziehen. Zum Beispiel kann sich eine Person an einer Außenseite des autonomen Fahrzeugs in einem Versuch, eine freie Fahrt zu erhalten, festhalten oder ein Objekt auf das autonome Fahrzeug legen, damit das Objekt unerlaubterweise transportiert wird.
  • Andere Situationen können dazu führen, dass ein nicht autorisiertes Objekt auf der Außenoberfläche des autonomen Fahrzeugs liegt. Zum Beispiel kann ein Ast auf das Fahrzeug fallen. In dieser Situation kann das Objekt den normalen Betrieb des Fahrzeugs behindern, indem z. B. verhindert wird, dass Sensoren Daten genau erfassen, was wiederum zu Schwierigkeiten für das autonome Fahrzeug zu navigieren führen kann. Alternativ kann der herabfallende Ast einfach einen ausreichenden Schaden verursachen, der den Betrieb des autonomen Fahrzeugs verhindert oder stark einschränkt. Ohne eine menschliche Aufsichtsperson können solche Probleme unerkannt bleiben, bis das autonome Fahrzeug an der Abholstelle ankommt.
  • Eine Möglichkeit, solche Probleme anzugehen, ist ein autonomes Fahrzeug, bei dem die Sensoren für autonomes Fahren sowohl Umgebungssignale als auch Objekterkennungssignale ausgeben können. Umgebungssignale stellen eine Umgebung um ein autonomes Fahrzeug dar. Objekterkennungssignale können ein Objekt oder eine Person auf eine Außenoberfläche des autonomen Fahrzeugs darstellen. Das Fahrzeugsystem umfasst ferner eine Autonommodussteuerung, die das autonome Fahrzeug gemäß den von dem Sensor für autonomes Fahren ausgegebenen Umgebungssignalen autonom steuert, das Objekt oder die Person auf der Außenoberfläche des autonomen Fahrzeugs gemäß den Objekterkennungssignalen erkennt und den autonomen Betrieb des autonomen Fahrzeugs als Reaktion auf das Erkennen des Objekts oder der Person auf der Außenoberfläche des autonomen Fahrzeugs einschränkt. Die Funktion eines oder mehrerer der Sensoren für autonomes Fahren (d. h. ob der Sensor für autonomes Fahren das Umgebungssignal oder das Objekterkennungssignal erzeugt) kann sich auf Grundlage dessen, ob sich das autonome Fahrzeug bewegt oder steht, verändern. Somit kann das Fahrzeug zu jedem Zeitpunkt, während es geparkt ist oder während es zu einer Abholstelle oder einem Zielort navigiert, nach nicht autorisierten Personen oder Objekten auf der Außenoberfläche des Trägerfahrzeugs Ausschau halten. Und durch Einschränken des autonomen Betriebs des Fahrzeugs als Reaktion auf das Erkennen eines nicht autorisierten Objekts oder einer nicht autorisierten Person befasst sich das Fahrzeugsystem mit Problemen, wenn eine nicht autorisierte Person versucht, von dem autonomen Fahrzeug transportiert zu werden, wenn jemand versucht, das autonome Fahrzeug zu nutzen, um nicht autorisierte Objekte zu transportieren, oder wenn ein unerwartetes Objekt auf dem autonomen Fahrzeug die Funktionen des autonomen Fahrzeugs stören.
  • In den Figuren bezeichnen gleiche Bezugszeichen in verschiedenen Ansichten durchgängig die gleichen Elemente und die gezeigten Elemente können unterschiedliche Formen annehmen und mehrere und/oder alternative Komponenten und Einrichtungen umfassen. Die beispielhaften Komponenten sollen nicht der Einschränkung betrachtet werden. Tatsächlich können zusätzliche oder alternative Komponenten und/oder Implementierungen verwendet werden. Ferner sind die gezeigten Elemente sind nicht notwendigerweise maßstabsgerecht, es sei denn, dies ist ausdrücklich angegeben.
  • 1 zeigt ein autonomes Trägerfahrzeug 100 mit einem Fahrzeugsystem 105, das nicht autorisierte Objekte oder Personen auf der Außenoberfläche des autonomen Trägerfahrzeugs 100 erkennt. Das Fahrzeugsystem 105 steuert, ob Sensoren im Fahrzeug, die nachfolgend erläutert werden, Umgebungssignale oder Objekterkennungssignale ausgeben. Beispiele der Umgebungssignale umfassen Signale, die die Umgebung um das Trägerfahrzeug 100 darstellen. Umgebungssignale können andere Fahrzeuge, Fahrbahnmarkierungen, Straßenschilder, Fußgänger, Bäume, Gehsteige, Übergänge, Verkehrssteuervorrichtugnen (z. B. Bremslichter), usw. darstellen. Beispiele der Objekterkennungssignale umfassen Signale, die anzeigen, dass ein Objekt oder eine Person auf einer Außenoberfläche des Trägerfahrzeugs 100 vorhanden ist. Die Objekterkennungssignale können somit anzeigen, dass sich ein nicht autorisiertes Objekt oder eine nicht autorisierte Person auf der Motorhaube, dem Kofferraum, dem Dach, der Stoßstange usw. des Trägerfahrzeugs 100 befindet.
  • Das Fahrzeugsystem 105 steuert das Trägerfahrzeug 100 gemäß den Umgebungssignalen autonom. Außerdem nutzt das Fahrzeugsystem 105 die Objekterkennungssignale, um zu bestimmen, ob sich ein nicht autorisiertes Objekt oder eine nicht autorisierte Person auf der Außenoberfläche des Trägerfahrzeugs 100 befindet. Wenn ein nicht autorisiertes Objekt oder eine nicht autorisierte Person erkannt wird, schränkt das Fahrzeugsystem 105 den autonomen Betrieb des Trägerfahrzeugs 100 ein, was ein Verhindern des autonomen Betriebs des Trägerfahrzeugs 100 beinhalten kann, bis man sich mit dem nicht autorisierten Objekt oder der nicht autorisierten Person befassen kann. Eine weitere Option umfasst ein Navigieren des Trägerfahrzeugs 100 zu einer Polizeidienststelle oder einem anderen festgelegten Bereich, wenn ein nicht autorisiertes Objekt oder eine nicht autorisierte Person auf der Außenoberfläche des autonomen Trägerfahrzeugs 100 erkannt wird.
  • Auch wenn es als Limousine dargestellt ist, kann das Trägerfahrzeug 100 jeden beliebigen Personenwagen oder Lieferwagen, wie ein Auto, ein Lastwagen, ein SUV, ein Crossover-Fahrzeug, ein Van, ein Minivan, ein Taxi, ein Bus usw., umfassen. Das Trägerfahrzeug 100 kann in verschiedenen Modi arbeiten, einschließlich einem autonomen (z. B. fahrerlosen) Modus, einem teilweise autonomen Modus und/oder einem nicht autonomen Modus.
  • 2 zeigt beispielhafte Komponenten des Fahrzeugsystems 105. Die beispielhaften Komponenten umfassen eine Kommunikationsschnittstelle 110, ein Navigationssystem 115, eine Speicher 120, mehrere Fahrzeuguntersysteme 125, mindestens einen Sensor 130 für autonomes Fahren und eine Autonommodussteuerung 135. Zumindest einige der Komponenten können miteinander über einen Kommunikationsbus 140 in Verbindung stehen, der Hardware umfassen kann, um die Kommunikation unter und zwischen verschiedenen Komponenten des Trägerfahrzeugs 100 zu erleichtern. Der Kommunikationsbus 140 kann beispielsweise über einen Controller Area Network(CAN)-Bus implementiert sein. Alternativ kann der Kommunikationsbus 140 über andere drahtgebundene oder drahtlose Kommunikationsprotokolle implementiert werden, wie etwa Ethernet, Wi-Fi, Bluetooth®, Bluetooth Low Energy®, usw.
  • Die Kommunikationsschnittstelle 110 ist über Schaltkreise, Chips oder andere elektronische Komponenten implementiert, die drahtlos zum Beispiel mit einer Fernvorrichtung, wie ein Smartphone, ein Laptop, ein Desktop-Computer oder dergleichen, kommunizieren kann. Die Kommunikationsschnittstelle 110 kann programmiert sein, um Nachrichten gemäß einer beliebigen Anzahl von Drahtloskommunikationsprotokollen zu senden und zu empfangen. Die Kommunikationsschnittstelle 110 kann empfangene Nachrichten an andere Fahrzeugkomponenten weiterleiten oder empfangene Nachrichten in dem Speicher 120 speichern, so dass andere Komponenten des Fahrzeuguntersystems auf diese zugreifen können. In einer möglichen Implementierung kann die Kommunikationsschnittstelle 110 programmiert sein, um eine Abholanforderung mit einer Abholstelle von einer Fernvorrichtung, die von einem autorisierten Passagier benutzt wird, zu empfangen und die Abholstelle an das Navigationssystem 115 weiterleiten. Außerdem kann die Kommunikationsschnittstelle 110 Nachrichten gemäß Anweisungen, die von anderen Fahrzeugkomponenten erzeugt werden, senden. Zum Beispiel kann die Kommunikationsschnittstelle 110 Nachrichten an ein Fahrzeugsteuerzentrum (z. B. eine Entsendungsstelle), eine Polizeidienststelle oder eine autorisierte Person senden, wenn ein nicht autorisiertes Objekt oder eine nicht autorisierte Person auf der Außenoberfläche des autonomen Trägerfahrzeugs 100 erkannt wird. Die Kommunikationsschnittstelle 110 kann ferner Nachrichten, einschließlich einer Nachricht, die angibt, dass sich ein nicht autorisiertes Objekt oder eine nicht autorisierte Person auf der Außenoberfläche des Trägerfahrzeugs 100 befindet, an eine Benutzerschnittstelle in der Fahrgastzelle des Trägerfahrzeugs 100 senden, so dass Anweisungen für jeden autorisierten Passagier in dem Trägerfahrzeug 100 bereitgestellt werden können.
  • Das Navigationssystem 115 wird über Schaltkreise, Chips oder andere elektronische Komponenten implementiert, die eine aktuelle Position des Trägerfahrzeugs 100 bestimmen können, einen Zielort des Trägerfahrzeugs 100 bestimmen können, und eine Strecke von der aktuellen Position zum Zielort erzeugen können. Das Navigationssystem 115 kann die Strecke z. B. als Reaktion auf die Abholanforderung, die über die Kommunikationsschnitstelle 110 empfangen wird, einen Befehl von der Autonommodussteuerung 135 usw. erstellen. Das Navigationssystem 115 kann die aktuelle Position gemäß einem Positionierungssystem, wie etwa dem Globalen Positionierungssystems (GPS), bestimmen. Unter Verwendung virtueller Karten kann das Navigationssystem 115 die Strecke von der aktuellen Position zum Zielort erstellen und Signale bezüglich der Strecke an andere Fahrzeugkomponenten ausgeben. Zum Beispiel kann das Navigationssystem 115 Signale bezüglich der Strecke an die Autonommodussteuerung 135 ausgeben.
  • Der Speicher 120 wird über Schaltkreise, Chips oder andere elektronische Komponenten, die elektronisch Daten speichern können, implementiert. Der Speicher 120 kann zum Beispiel die Abholstelle, die von der Fernvorrichtung der autorisierten Person empfangen wurde, Kontaktinformationen für die autorisierte Person, Kontaktinformationen für ein Fahrzeugsteuerzentrum, das Ziel, bestimmte festgelegte Bereiche, usw. speichern. Zusätzlich zu Daten kann der Speicher 120 vom Computer ausführbare Anweisungen zum Durchführen verschiedener Prozesse speichern. Die Daten, vom Computer ausführbare Anweisungen oder beides können den anderen Komponenten des Fahrzeugsystems 105 zur Verfügung gestellt werden.
  • Die Fahrzeuguntersysteme 125 umfassen Komponenten des Trägerfahrzeugs 100, die unter Kontrolle der Autonommodussteuerung 135 sind, wenn das Fahrzeug 100 im autonomen Modus arbeitet. Beispiele der Fahrzeuguntersysteme 125 umfassen ein Lenkrad, ein Bremspedal, ein Gaspedal, usw. Außerdem können die Fahrzeuguntersysteme 125 verschiedene Steuerungen umfassen, die z. B. mit dem Lenkrad, dem Bremspedal, dem Gaspedal oder dergleichen verknüpft sind. In einem möglichen Ansatz umfassen die Fahrzeuguntersysteme 125 ferner Aktoren, die von der Autonommodussteuerung 135 ausgegebene Signale empfangen und gemäß den von der Autonommodussteuerung 135 empfangenen Signalen z. B. auf das Lenkrad, das Bremspedal, das Gaspedal, usw. wirken.
  • Die Sensoren 130 für autonomes Fahren werden über Schaltkreise, Chips oder andere elektronische Komponenten implementiert, die in verschiedenen Modi, einschließlich eines Umgebungsmodus und eines Objekterkennungsmodus, funktionieren können. Beispiele für Sensoren 130 für autonomes Fahren können einen Radarsensor, einen Lidarsensor, einen Sichtsensor (z. B. eine Kamera), einen Ultraschallsensor oder dergleichen umfassen. Die Sensoren 130 für autonomes Fahren können auf Grundlage von Befehlssignalen, die von der Autonommodussteuerung 135 ausgegeben werden, in verschiedenen Modi funktionieren, wie nachfolgend genauer beschrieben wird. Ein Sensor 130 für autonomes Fahren, der im Umgebungsmodus arbeitet, kann die Umgebung um das Trägerfahrzeug 100 erfassen und Umgebungssignale ausgeben, die die erfasste Umgebung darstellen. Die Sensoren 130 für autonomes Fahren können in dem Umgebungsmodus arbeiten, wenn das Trägerfahrzeug 100 z. B. im autonomen Betriebsmodus ist, sich bewegt oder beides. Ein Sensor 130 für autonomes Fahren kann in dem Objekterkennungsmodus arbeiten, wenn das Trägerfahrzeug 100 nicht im autonomen Betriebsmodus arbeitet oder wenn das Fahrzeug steht, auch wenn das Trägerfahrzeug 100 in dem autonomen Modus arbeitet (z. B. an einer roten Ampel oder einem Stoppschild anhält). Sowohl die Umgebungssignale als auch die Objekterkennungssignale können an die Autonommodussteuerung 135 ausgegeben werden. Außerdem können manche Sensoren 130 für autonomes Fahren in dem Umgebungsmodus arbeiten, während ein oder mehrere andere der Sensoren 130 für autonomes Fahren in dem Objekterkennungsmodus arbeiten kann bzw. können. Mit anderen Worten müssen nicht immer alle Sensoren 130 für autonomes Fahren im gleichen Modus wie andere arbeiten.
  • Verschiedene Sensoren 130 für autonomes Fahren können sich innen im oder außen am Trägerfahrzeug 100 befinden. Zum Beispiel können sich Kameras auf der Innen- und Außenseite des Trägerfahrzeugs 100 befinden, einschließlich der vorderen oder hinteren Stoßstange, den Seitenspiegeln, dem Rückspiegel, auf dem Kofferraum usw., und können zumindest teilweise Sicht auf den Außenkörper des Trägerfahrzeugs 100 haben. Radar- oder Lidarsensoren können sich z. B. auf der vorderen und hinteren Stoßstange, oben auf dem Trägerfahrzeug 100, auf den Seitenspiegeln, auf dem Rückspiegel, usw. befinden und können zumindest teilweise Sicht auf den Außenkörper des Trägerfahrzeugs 100 haben. In ähnlicher Weise können sich Ultraschallsensoren auf der vorderen oder hinteren Stoßstange, den Seitenspiegeln, den Rückspiegels, usw. befinden, wobei sie zumindest teilweise Sicht auf den Körper des Trägerfahrzeugs 100 haben. Auch wenn ein Sensor 130 für autonomes Fahren keine komplette Sicht auf die gesamte Außenoberfläche des Trägerfahrzeugs 100 haben kann, können die Sensoren 130 für autonomes Fahren zusammen ausreichende Objekterkennungsdaten für die Autonommodussteuerung 135 ausgeben, um das nicht autorisierte Objekt oder die nicht autorisierte Person auf der Außenoberfläche des Trägerfahrzeugs 100 zu erkennen.
  • In manchen Fällen können die Sensoren 130 für autonomes Fahren programmiert sein, um passiv das nicht autorisierte Objekt oder die nicht autorisierte Person zu erkennen, auch wenn sie im Umgebungsmodus arbeiten. Zum Beispiel können die Sensoren 130 für autonomes Fahren das Objekterkennungssignal ausgeben, wenn die Objekterkennungssensoren nicht in der Lage sind, die Umgebung um das Trägerfahrzeug 100 zu erfassen. Ein Grund, warum ein Sensor 130 für autonomes Fahren nicht in der Lage ist, die Umgebung um das Trägerfahrzeug 100 zu erfassen, umfasst, dass einer oder mehrere der Sensoren 130 für autonomes Fahren von dem nicht autorisierten Objekt oder der nicht autorisierten Person blockiert wird bzw. werden. Unter diesen Umständen kann der blockierte Sensor 130 für autonomes Fahren das Objekterkennungssignal ausgeben, auch wenn der Sensor 130 für autonomes Fahren ansonsten im Umgebungsmodus arbeitet.
  • Die Autonommodussteuerung 135 wird über Schaltkreise, Chips oder andere elektronische Komponenten implementiert, die das autonome Fahrzeug gemäß den Umgebungssignalen und Objekterkennungssignalen, die von dem Sensor 130 für autonomes Fahren ausgegeben werden, autonom steuern können. Während das Trägerfahrzeug 100 im autonomen Modus arbeitet, kann die Autonmmodussteuerung 135 Steuersignale an verschiedene Fahrzeuguntersysteme 125, einschließlich Aktoren, die gemäß den von den Sensoren 130 für autonomes Fahren ausgegebenen Umgebungssignalen mit der Lenkung, Beschleunigung und Bremsung des Trägerfahrzeugs 100 verknüpft sind, ausgeben. Wenn das Trägerfahrzeug 100 angehalten wird, während es im autonomen Modus arbeitet, kann die Autonommodussteuerung 135 die Objekterkennungssignale, die von den Sensoren 130 für autonomes Fahren ausgegeben werden, empfangen. Durch die Objekterkennungssignale kann die Autonommodussteuerung 135 das nicht autorisierte Objekt oder die nicht autorisierte Person auf der Außenoberfläche des autonomen Fahrzeugs erkennen. Wenn ein nicht autorisiertes Objekt oder eine nicht autorisierte Person auf der Außenoberfläche des autonomen Trägerfahrzeugs 100 erkannt wird, kann die Autonommodussteuerung 135 den autonomen Betrieb des autonomen Fahrzeugs einschränken. Das Einschränken des autonomen Betriebs des Trägerfahrzeugs 100 kann umfassen, dass verhindert wird, dass das autonome Fahrzeug autonom zur Abholstelle navigiert, um den autorisierten Passagier abzuholen.
  • Die Autonommodussteuerung 135 kann den Betriebsmodus der Sensoren 130 für autonomes Fahren steuern. Zum Beispiel kann die Autonommodussteuerung 135 ein erstes Befehlssignal ausgeben, dass den Sensoren 130 für autonomes Fahren befiehlt, im Umgebungsmodus zu arbeiten. Die Autonommodussteuerung 135 kann ein zweites Befehlssignal ausgeben, das den Sensoren 130 für autonomes Fahren befiehlt, in dem Objekterkennungsmodus zu arbeiten. Die Autonommodussteuerung 135 kann programmiert sein, um das erste Befehlssignal immer dann auszugeben, wenn das Trägerfahrzeug 100 im autonomen Modus arbeitet, auch wenn das Trägerfahrzeug 100 steht. Die Autonommodussteuerung 135 kann programmiert sein, um das zweite Befehlssignal nur dann auszugeben, wenn das Trägerfahrzeug 100 angehalten wird. Auf diese Weise können die Sensoren 130 für autonomes Fahren verwendet werden, um die Umgebung um das Fahrzeug zu erfassen, wenn das Trägerfahrzeug 100 steht oder sich bewegt, werden aber nur verwendet, um nicht autorisierte Objekte oder Personen zu erkennen, wenn das Trägerfahrzeug 100 steht.
  • Nach Empfangen des Objekterkennungssignals kann die Autonommodussteuerung 135 das Objekterkennungssignal verabeiten und bestimmen, ob das Objekterkennungssignal ein nicht autorisiertes Objekt oder eine nicht autorisierte Person auf der Außenoberfläche des Trägerfahrzeugs 100 anzeigt. Das Verarbeiten des Objekterkennungssignals kann z. B. Verarbeiten eines von einer Innen- oder Außenfahrzeugkamera aufgenommenen Bildes, Verarbeiten von Radar- und Lidarsignalen mit zumindest teilweiser Sicht auf den Körper des Trägerfahrzeugs 100, Verarbeiten von Signalen von einem Ultraschallsensor mit zumindest teilweiser Sicht auf den Körper des Trägerfahrzeugs 100 oder dergleichen umfassen. Wenn das nicht autorisierte Objekt oder die nicht autorisierte Person erkannt wird, kann die Autonommodussteuerung 135 den autonomen Betrieb des Trägerfahrzeugs 100 einschränken.
  • In manchen möglichen Ansätzen schränkt die Autonommodussteuerung 135 eventuell den autonomen Betrieb nicht unmittelbar nach Erkennen der nicht autorisierten Person oder des nicht autorisierten Objekts ein. Stattdessen kann die Autonommodussteuerung 135 programmiert sein, um zu bestimmen, ob das nicht autorisierte Objekt oder die nicht autorisierte Person über mindestens einen vorbestimmten Zeitraum auf der Außenoberfläche des Trägerfahrzeugs 100 vorhanden ist. Zum Beispiel kann die Autonommodussteuerung 135 den vorbestimmten Zeitraum abwarten, bevor sie eine Abhilfemaßnahme in Verbindung mit dem nicht autorisierten Objekt oder der nicht autorisierten Person vornimmt. Wenn also jemand kurz seine Einkaufstasche auf den Kofferraum des Trägerfahrzeugs 100 stellt oder kurz seinen oder ihren Fuß auf die Stoßstange stellt, um seinen oder ihren Schuh zuzubinden, wird möglicherweise keine Maßnahme von dem autonomen Trägerfahrzeug 100 vorgenommen. Außerdem kann das Abwarten der vorbestimmten Zeit der Autonommodussteuerung 135 Zeit geben, um die Person zu warnen, damit diese sich selbst, das Objekt oder beides von der Außenoberfläche des Trägerfahrzeugs 100 entfernt. Der vorbestimmte Zeitraum kann einen Ausgleich bieten zwischen der Möglichkeit für jemanden, sich selbst, das Objekt oder beides von der Außenoberfläche des Trägerfahrzeugs 100 zu entfernen und dem Weiterfahren zum Zielort, um die Unannehmlichkeiten für autorisierte Passagiere zu begrenzen. Beispielsweise kann der vorbestimmte Zeitraum in der Größenordnung von z. B. 30 Sekunden, einer Minute, zwei Minuten usw. liegen. Wenn das nicht autorisierte Objekt oder die nicht autorisierte Person noch vorhanden ist, nachdem der Zeitraum verstrichen ist, kann die Autonommodussteuerung 135 den autonomen Betrieb des Trägerfahrzeugs 100 einschränken, zum Beispiel durch Verhindern, dass das Trägerfahrzeug 100 zumindest vorübergehend (d. h. bis das nicht autorisierte Objekt oder die nicht autorisierte Person entfernt ist) autonom arbeitet.
  • Eine weitere mögliche Maßnahme, die von der Autonommodussteuerung 135 ergriffen werden kann, außer zum Beispiel den autonomen Betrieb des Trägerfahrzeugs 100 zu verhindern, ist, das Trägerfahrzeug 100 als Reaktion auf die Erkennung des nicht autorisierten Objekts oder der nicht autorisierten Person zu einem festgelegten Bereich zu navigieren. Beispiele festgelegter Bereiche können eine Polizeidienststelle, einen Parkplatz (z. B. um das Trägerfahrzeug 100 von der Straße zu bewegen), ein Fahrzeugsteuerzentrum (d. h. eine Stelle, von der das Trägerfahrzeug 100 losgeschickt wurde) oder dergleichen umfassen. Ein Mensch in dem festgelegten Bereich kann sich dann mit dem nicht autorisierten Objekt oder der nicht autorisierte Person auf dem Trägerfahrzeug 100 befassen.
  • Die Autonommodussteuerung 135 kann ferner der Kommunikationsschnittstelle 110 befehlen, die Nachricht an den autorisierten Passagier, das Fahrzeugsteuerzentrum oder an andere Personen oder Organisationen senden, die daran interessiert sein könnten, das nicht autorisierte Objekt oder die nicht autorisierte Person auf der Außenoberfläche des Trägerfahrzeugs 100 zu überprüfen. Zum Beispiel kann die Autonommodussteuerung 135 ein Signal an die Kommunikationsschnittstelle 110 ausgeben, das der Benutzerschnittstelle 110 befiehlt, die Nachricht zu erzeugen und zu senden. Die Kontaktinformationen für das Ziel der Nachricht kann aus dem Speicher 120 abgerufen werden.
  • In manchen möglichen Implementierungen kann die Autonommodussteuerung 135 eventuell keine Entscheidungen treffen, ob ein Objekt erkannt wurde. Zum Beispiel kann ein separater Prozessor die Objekterkennungssignale verarbeiten und ein Signal an die Autonommodussteuerung 135 ausgeben, das die Anwesenheit nicht autorisierter Objekte oder nicht autorisierter Personen auf der Außenoberfläche des Trägerfahrzeugs 100 darstellt. In manchen Fällen kann dieser Prozessor in einem oder mehreren der Sensoren 130 für autonomes Fahren integriert sein.
  • 3 ist ein Ablaufplan eines beispielhaften Prozesses 300, der von dem Fahrzeugsystem 105 ausgeführt werden kann. Der Prozess 300 kann jederzeit beginnen, sobald das Trägerfahrzeug 100 in einem autonomen oder zumindest teilweise autonomen Modus betriebsbereit ist, um den autorisierten Passagier abzuholen. Der Prozess 300 kann weiter ausgeführt werden, bis das Trägerfahrzeug 100 abgeschaltet wird oder nicht länger in einem autonomen oder teilweise autonomen Modus arbeitet.
  • Bei Block 305 bestätigt das Fahrzeugsystem 105, dass das Trägerfahrzeug 100 bereit ist, um autorisierte Passagiere autonom abzuholen. Das heißt, die Autonommodussteuerung 135 kann mit verschiedenen Systemen des Trägerfahrzeugs 100 kommunizieren, um zu bestimmen, ob das Trägerfahrzeug 100 zu einem autonomen Betrieb bereit ist. In manchen Fällen kann die Autonommodussteuerung 135 ferner der Kommunikationsschnittstelle 110 befehlen, mit dem Fahrzeugsteuerzentrum mit einer Nachricht zu kommunizieren, die angibt, dass das Fahrzeug 100 bereit ist, Abholanforderungen zu empfangen und darauf zu reagieren. Nachdem die Autonommodussteuerung 135 bestätigt, dass das Trägerfahrzeug 100 im autonomen Modus betriebsbereit ist, kann der Prozess 300 zu Block 310 weitergehen.
  • Bei Entscheidungsblock 310 kann das Fahrzeugsystem 105 bestimmen, ob eine Abholanforderung empfangen wurde. Die Abholanforderung kann von der Kommunikationsschnittstelle 110 empfangen und zum Speicher 120, die Autonommodussteuerung 135 oder beide übertragen werden. Wenn eine Abholanforderung empfangen wurde, kann der Prozess 300 mit Block 315 fortfahren. Anderenfalls wartet der Prozess 300, bis die Abholanforderung empfangen wird.
  • Bei Block 315 kann das Fahrzeugsystem 105 zur Abholstelle fahren. Zum Beispiel kann das Navigationssystem 115 vom Speicher 120 auf die Abholanforderung zugreifen und die Abholstelle aus der Abholanforderung bestimmen. Das Navigationssystem 115 kann ferner die aktuelle Position des Trägerfahrzeugs 100 bestimmen, den Zielort (aus der Abholanforderung) bestimmen, und eine Strecke von der aktuellen Position des Trägerfahrzeugs 100 zur Abholstelle, von der Abholstelle zum Zielort, oder beides erstellen. Das Navigationssystem 115 kann die Strecke an die Autonommodussteuerung 135 ausgeben. Die Autonommodussteuerung 135 kann den Sensoren 130 für autonomes Fahren befehlen, im Umgebungsmodus zu arbeiten, und damit beginnen, verschiedene Fahrzeuguntersysteme 125 zu steuern, um das Trägerfahrzeug 100 zur Abholstelle zu navigieren. Dies kann umfassen, dass die Autonommodussteuerung 135 Signale ausgibt, um die Lenkung, Bremsung und Beschleunigung des Trägerfahrzeugs 100 auf Grundlage der Umgebungssignale, die von den Sensoren 130 für autonomes Fahren empfangen werden, zu steuern.
  • Bei Entscheidungsblock 320 bestimmt das Fahrzeugsystem 105, ob der autorisierte Passagier in das Trägerfahrzeug 100 eingestiegen ist. Der autorisierte Passagier kann über eine Benutzereingabe, die innerhalb des Trägerfahrzeugs 100 vorgenommen wird, kommunizieren, dass er in dem Trägerfahrzeug 100 ist. Die Benutzereingabe kann z. B. über eine Benutzerschnittstelle (wie ein Infotainment-System) mit einem Berührungsbildschirm, über ein Ferngerät des Benutzers oder dergleichen empfangen werden. Die Benutzereingabe kann über die Kommunikationsschnittstelle 110 empfangen und zum Speicher 120, zur Autonommodussteuerung 135 oder beiden weitergeleitet werden. Wenn die Benutzereingabe empfangen wurde, kann der Prozess 300 mit Block 325 fortfahren. Anderenfalls wird Block 320 wiederholt, bis die Benutzereingabe empfangen wird.
  • Bei Entscheidungsblock 325 kann das Fahrzeugsystem 105 bestimmen, ob sich ein nicht autorisiertes Objekt oder eine nicht autorisierte Person auf der Außenoberfläche des Trägerfahrzeugs 100 befindet. Die Autonommodussteuerung 135 kann einem oder mehreren Sensor(en) 130 für autonomes Fahren befehlen, zumindest vorübergehend in dem Objekterkennungsmodus zu arbeiten, um nach nicht autorisierten Objekten oder nicht autorisierten Personen auf der Außenoberfläche des Trägerfahrzeugs 100 Ausschau zu halten. In machen Fällen kann die Autonommodussteuerung 135 den Sensoren 130 für autonomes Fahren nur dann befehlen, in dem Objekterkennungsmodus zu arbeiten, wenn das Trägerfahrzeug 100 steht. Die Autonommodussteuerung 135 kann die Objekterkennungssignale, die, falls vorhanden, von den Sensoren 130 für autonomes Fahren ausgegeben werden, empfangen und verarbeiten. Alternativ kann die Autonommodussteuerung 135 bestimmen, dass sich ein nicht autorisiertes Objekt oder eine nicht autorisierte Person auf der Außenoberfläche des Trägerfahrzeugs 100 befindet, während sich das Trägerfahrzeug 100 bewegt oder steht, wenn etwas einen oder mehrere der Sensoren 130 für autonomes Fahren daran hindert, im Umgebungsmodus zu arbeiten (z. B. die Fähigkeit des Sensors 130 für autonomes Fahren, die Umgebung um das Trägerfahrzeug 100 zu erfassen, stört). Wenn ein nicht autorisiertes Objekt oder eine nicht autorisierte Person erkannt wird, kann der Prozess 300 mit Block 330 fortfahren. In manchen Fällen kann der Prozess 300 nur dann zu Block 330 fortschreiten, wenn das nicht autorisierte Objekt oder die nicht autorisierte Person über mindestens einen vorbestimmten Zeitraum auf der Außenoberfläche des Trägerfahrzeugs 100 vorhanden ist. Falls keine nicht autorisierten Objekte oder Personen erkannt werden, was die Autonommodussteuerung 135 nach einer vorbestimmten Zeit nach Versetzen der Sensoren 130 für autonomes Fahren in den Objekterkennungsmodus und wenn kein Objekterkennungssignal empfangen wird, bestimmen kann, kann der Prozess 300 zu Block 335 weitergehen.
  • Bei Block 330 kann das Fahrzeugsystem 105 den autonomen Betrieb des Trägerfahrzeugs 100 einschränken. Das Einschränken des autonomen Betriebs des Trägerfahrzeugs 100 kann umfassen, dass die Autonommodusssteuerung 135 verhindert, dass das autonome Fahrzeug autonom zur Abholstelle navigiert, um den autorisierten Passagier abzuholen. Alternativ kann das Einschränken des autonomen Betriebs des Trägerfahrzeugs 100 umfassen, dass die Autonommodussteuerung 135 das Trägerfahrzeug 100 zu einem festgelegten Bereich, wie eine Polizeidienststelle, ein Parkplatz, ein Fahrzeugsteuerzentrum, usw., navigiert. Außerdem kann die Autonommodussteuerung 135 bei Block 330 der Kommunikationsschnittstelle 110 befehlen, eine Nachricht an den autorisierten Passagier zu senden, die angibt, dass sich das Trägerfahrzeug 100 verspätet, eine Nachricht an die Polizei oder das Fahrzeugsteuerzentrum zu senden, die angibt, dass ein nicht autorisiertes Objekt oder eine nicht autorisierte Person auf der Außenoberfläche des Trägerfahrzeugs 100 ist, oder dergleichen. Die Nachricht an die Polizei oder das Fahrzeugsteuerzentrum kann Bilder der Kamera umfassen, die von einem oder mehreren der Sensoren 130 für autonomes Fahren aufgenommen wurden.
  • Bei Block 335 autorisiert das Fahrzeugsystem 105 das Trägerfahrzeug 100, zum Zielort zu fahren. Zum Beispiel kann die Autonommodussteuerung 135 kann den Sensoren 130 für autonomes Fahren befehlen, im Umgebungsmodus zu arbeiten, und damit beginnen, verschiedene Fahrzeuguntersysteme 125 zu steuern, um das Trägerfahrzeug 100 zum Zielort zu navigieren. Dies kann umfassen, dass die Autonommodussteuerung 135 Signale ausgibt, um die Lenkung, Bremsung und Beschleunigung des Trägerfahrzeugs 100 auf Grundlage der Umgebungssignale, die von den Sensoren 130 für autonomes Fahren empfangen werden, zu steuern. Der Prozess 300 kann periodisch (z. B. alle 30 Sekunden, jede Minute, alle zwei Minuten, usw.) oder als Reaktion auf vorbestimmte Ereignisse zu Block 325 zurückkehren, etwa wenn das Trägerfahrzeug 100 anhält, da es dann am wahrscheinlichsten ist, dass ein nicht autorisiertes Objekt oder eine nicht autorisierte Person auf der Außenoberfläche des Trägerfahrzeugs 100 vorhanden ist und da dies der Zeitpunkt ist, zu dem zumindest einige der Sensoren 130 für autonomes Fahren frei sein können, um vorübergehend in dem Objekterkennungsmodus zu arbeiten.
  • Der Prozess 300 kann enden, wenn das Trägerfahrzeug 100 sein Ziel erreicht. Alternativ kann der Prozess 300 zu Block 310 zurückkehren, um auf die nächste Abholanforderung zu warten. Außerdem können bestimmte Blöcke, wie die Blöcke 325, 330 und 335 weiterhin ausgeführt werden, während das Trägerfahrzeug 100 von einem Zielort zur nächsten Abholstelle fährt (z. B. zwischen Abholungen von Passagieren).
  • Durch den Prozess 300 kann das Fahrzeugsystem 105 zu jedem Zeitpunkt, während das Trägerfahrzeug 100 geparkt ist oder während es zum Zielort navigiert, nach nicht autorisierten Personen oder Objekten auf der Außenoberfläche des Trägerfahrzeugs 100 Ausschau halten. Und durch Einschränken des autonomen Betriebs des Trägerfahrzeugs 100 als Reaktion auf das Erkennen eines nicht autorisierten Objekts oder einer nicht autorisierten Person befasst sich das Fahrzeugsystem 105 mit Problemen, wenn eine nicht autorisierte Person versucht, von dem autonomen Fahrzeug transportiert zu werden, wenn jemand versucht, das autonome Fahrzeug zu nutzen, um nicht autorisierte Objekte zu transportieren, oder wenn ein unerwartetes Objekt auf dem autonomen Fahrzeug die Funktionen des autonomen Fahrzeugs stören.
  • Allgemein können die beschriebenen Computersysteme und/oder Vorrichtungen beliebige einer Anzahl von Computerbetriebssystemen einsetzen, einschließlich, aber auf keinen Fall darauf beschränkt, Versionen und/oder Variationen der Anwendung Ford Sync®, AppLink/Smart Device Link Middleware, Betriebssystem Microsoft Automotive®, Betriebssystem Microsoft Windows®, Unix Betriebssystem (z.B. das Solaris® Betriebssystem, vertrieben von Oracle Corporation, Redwood Shores, California), AIX UNIX Betriebssystem, vertrieben von International Business Machines, Armonk, New York, Linux Betriebssystem, Mac OSX und iOS Betriebssysteme, vertrieben von Apple Inc., Cupertino, California, BlackBerry OS, vertrieben von Blackberry, Ltd., Waterloo, Canada, und Android Betriebssystem, entwickelt von Google, Inc. und Open Handset Alliance, oder QNX® CAR Platform for Infotainment, angeboten von QNX Software Systems. Beispiele von Datenverarbeitungsvorrichtungen umfassen, ohne Einschränkung, einen bordeigenen Fahrzeugcomputer, eine Computer-Arbeitsstation (Workstation), einen Server, einen Desktop-Computer, ein Notebook, ein Laptop, einen Taschencomputer, oder irgendein anderes Datenverarbeitungssystem und/oder -vorrichtung.
  • Datenverarbeitungsvorrichtungen umfassen im Allgemeinen durch Computer ausführbare Anweisungen, wobei Anweisungen durch ein oder mehrere Datenverarbeitungsvorrichtungen entsprechend der vorstehenden Liste ausgeführt werden können. Vom Computer ausführbare Anweisungen können von Computerprogrammen kompiliert oder interpretiert werden, die unter Verwendung einer Vielzahl von Programmiersprachen und/oder -technologien hergestellt wurden, einschließlich, aber ohne Einschränkung, entweder allein oder in Kombination, JavaTM, C, C++, Visual Basic, Java Script, Perl, usw. Einige dieser Anwendungen können auf einer virtuellen Maschine, wie die Java Virtual Machine, die Dalvik Virtual Machine oder dergleichen kompiliert und ausgeführt werden. Im Allgemeinen empfängt ein Prozessor (z.B. ein Mikroprozessor) Anweisungen, z. B. von einem Speicher, einem computerlesbaren Medium usw., und führt diese Anweisungen aus, wodurch ein oder mehrere Verfahren durchgeführt wird bzw. werden, darunter einer oder mehrere der hierin beschriebenen Prozesse. Solche Anweisungen und anderen Daten können unter Verwendung einer Vielzahl computerlesbarer Medien gespeichert und übertragen werden.
  • Ein computerlesbare Medium (auch als ein vom Prozessor lesbares Medium bezeichnet) umfasst ein nichtflüchtiges (z. B. materielles) Medium, das an der Bereitstellung von Daten (z. B. Anweisungen) beteiligt ist, die von einem Computer (z. B. von einem Prozessor eines Computers) gelesen werden können. Solch ein Medium kann viele Formen annehmen, einschließlich, aber nicht darauf beschränkt, nicht flüchtige Medien und flüchtige Medien. Nicht flüchtige Medien können beispielsweise optische und magnetische Disks und andere persistente Speicher beinhalten. Flüchtige Medien können beispielsweise ein dynamischer Speicher mit wahlfreiem Zugriff (dynamic random access memory – DRAM) sein, der typischerweise einen Hauptspeicher bildet. Solche Anweisungen können von einem Übertragungsmedium oder mehreren Übertragungsmedien übertragen werden, einschließlich Koaxialkabel, Kupferdraht und Glasfaser, einschließlich der Drähte, die einen Systembus umfassen, der mit einem Prozessor eines Computers verbunden ist. Übliche Formen von computerlesbaren Medien umfassen zum Beispiel eine Diskette, eine flexible Diskette, Festplatte, Magnetband, andere magnetische Medien, eine CD-ROM, DVD, andere optische Medien, Lochkarten, Lochstreifen, andere physische Medien mit Lochmustern, ein RAM, ein PROM, ein EPROM, ein FLASH-EEPROM, andere Speicherchips oder Speicherkassetten, oder jedes andere Medium, das ein Computer lesen kann.
  • Hierin beschriebene Datenbanken, Datenpools und andere Datenspeicher umfassen verschiedene Arten von Mechanismen zum Speichern, Zugreifen und Abrufen verschiedener Arten von Daten, einschließlich eine hierarchische Datenbank, ein Satz von Dateien in einem Dateisystem, eine Anwendungsdatenbank in einem eigenen Format, ein relationales Datenbankverwaltungssystem (RDBMS), usw. Alle diese Daten sind im Allgemeinen innerhalb einer Datenverarbeitungsvorrichtung enthalten, die ein Computerbetriebssystem nutzt, wie eines der oben erwähnten, und es wird auf diese über ein Netzwerk in einer oder mehreren von vielen Arten zugegriffen. Ein Dateisystem kann von einem Computerbetriebssystem zugreifbar sein und kann Dateien umfassen, die in verschiedenen Formaten gespeichert sind. Ein RDBMS nutzt im Allgemeinen die Computersprache Structured Query Language (SQL) zusätzlich zu einer Sprache zum Erzeugen, Speichern, Editieren und Ausführen gespeicherter Prozeduren, wie die oben erwähnte Sprache PL/SQL.
  • In manchen Beispielen können Systemelemente als computerlesbare Instruktionen (z. B. Software) auf einer oder mehreren Datenverarbeitungsvorrichtung(en) (z. B. Server, PC, usw.), die auf damit verbundenen computerlesbaren Medien (z. B. Platten, Speicher, usw.) gespeichert sind, implementiert sein. Ein Computerprogrammprodukt kann solche Anweisungen, die auf computerlesbaren Medien gespeichert sind, umfassen, um die hierin beschriebenen Funktionen auszuführen.
  • Hinsichtlich der hierin beschriebenen Prozesse, Systeme, Methoden, Heuristiken usw. ist davon auszugehen, dass, wenngleich die Schritte solcher Prozesse usw. als in einer entsprechenden Reihenfolge erfolgend beschrieben wurden, solche Verfahren durchgeführt werden können, wobei die beschriebenen Schritte in einer Reihenfolge durchgeführt werden, welche von der hierin beschriebenen Reihenfolge abweicht. Es ist ferner davon auszugehen, dass bestimmte Schritte gleichzeitig durchgeführt, andere Schritte hinzugefügt oder bestimmte hierin beschriebene Schritte weggelassen werden können. Anders gesagt, die Beschreibungen von Prozessen in diesem Dokument dienen zum Zwecke der Veranschaulichung bestimmter Ausführungsformen und sollten keinesfalls so ausgelegt werden, dass sie die Ansprüche einschränken.
  • Dementsprechend ist es selbstverständlich, dass die obige Beschreibung als erläuternd und nicht einschränkend zu betrachten ist. Viele Ausführungsformen und Anwendungen außer den bereitgestellten Beispielen werden beim Lesen der obigen Beschreibung offensichtlich. Der Schutzumfang soll nicht unter Bezugnahme auf die obige Beschreibung, sondern stattdessen unter Bezugnahme auf die beigefügten Ansprüche bestimmt werden, zusammen mit der ganzen Bandbreite an Äquivalenten, zu denen diese Ansprüche berechtigen. Es wird vorweggenommen und ist beabsichtigt, dass zukünftige Entwicklungen in den hierin beschriebenen Technologien eintreten werden und dass die offenbarten Systeme und Verfahren in solche zukünftigen Ausführungsformen aufgenommen werden. Insgesamt ist klar, dass die Anmeldung modifiziert und verändert werden kann.
  • Alle Begriffe, die in den Ansprüchen verwendet werden, sollen ihre allgemein gültige Bedeutung aufweisen, wie sie von den Fachleuten un den hierin beschriebenen Technologien verstanden wird, es sei denn, eine explizite Angabe des Gegenteils wird hierin getroffen. Insbesondere soll die Verwendung von Singularartikeln wie "ein", "der", "diese", usw. so gelesen werden, dass sie eines oder mehrer der bezeichneten Elemente vortragen, es sei denn, ein Anspruch trägt eine explizite gegenteilige Beschränkung vor.
  • Die Zusammenfassung soll es dem Leser ermöglichen, sich schnell über die Art der technischen Offenbarung ein Bild zu machen. Sie wird unter der Voraussetzung eingereicht, dass sie nicht zum Auslegen oder Einschränken des Umfangs oder der Bedeutung der Ansprüche verwendet wird. Außerdem geht aus der vorstehenden detaillierten Beschreibung hervor, dass zum Zweck der vereinfachten Darstellung der Offenbarung verschiedene Merkmale in verschiedenen Ausführungsformen zusammengefasst wurden. Dieses Verfahren der Offenbarung ist nicht als Absicht zu verstehen, dass die beanspruchten Ausführungsformen mehr Merkmale erfordern sollen als jeweils in jedem Anspruch ausdrücklich genannt. Wie die folgenden Ansprüche zeigen, liegt der Gegenstand der Erfindung vielmehr in weniger als allen Merkmalen einer einzelnen offenbarten Ausführungsform. Die folgenden Ansprüche werden daher in die detaillierte Beschreibung aufgenommen, wobei jeder Anspruch als separat beanspruchter Gegenstand für sich allein steht.

Claims (15)

  1. Fahrzeugsystem, umfassend: mindestens einen Sensor für autonomes Fahren, der programmiert ist, um Umgebungssignale, die eine Umgebung um ein autonomes Fahrzeug darstellen, und Objekterkennungssignale, die ein Objekt oder eine Person auf einer Außenoberfläche des autonomen Fahrzeugs darstellen, auszugeben; eine Autonommodussteuerung, die programmiert ist, um das autonome Fahrzeug gemäß den von dem Sensor für autonomes Fahren ausgegebenen Umgebungssignalen autonom zu steuern, das Objekt oder die Person auf der Außenoberfläche des autonomen Fahrzeugs gemäß den Objekterkennungssignalen zu erkennen und den autonomen Betrieb des autonomen Fahrzeugs als Reaktion auf das Erkennen des Objekts oder der Person auf der Außenoberfläche des autonomen Fahrzeugs einzuschränken.
  2. Fahrzeugsystem nach Anspruch 1, ferner umfassend eine Kommunikationsschnittstelle, die programmiert ist, um eine Fahrtanforderung, die eine Abholstelle identifiziert, zu empfangen, wobei die Autonommodussteuerung programmiert ist, als Reaktion auf das Erkennen des Objekts oder der Person auf der Außenoberfläche des autonomen Fahrzeugs den autonomen Betrieb des autonomen Fahrzeugs einzuschränken, indem verhindert wird, dass das autonome Fahrzeug autonom zur Abholstelle navigiert.
  3. Fahrzeugsystem nach Anspruch 1, wobei der Sensor für autonomes Fahren programmiert ist, um die Objekterkennungssignale auszugeben, wenn das autonome Fahrzeug steht.
  4. Fahrzeugsystem nach Anspruch 1, wobei die Autonommodussteuerung programmiert ist, um eines von einem ersten Befehlssignal und einem zweiten Befehlssignal an den Sensor für autonomes Fahren auszugeben, wobei das erste Befehlssignal dem Sensor für autonomes Fahren befiehlt, das Umgebungssignal auszugeben, und das zweite Befehlssignal dem Sensor für autonomes Fahren befiehlt, das Objekterkennungssignal auszugeben, und wobei die Autonommodussteuerung programmiert ist, um das zweite Befehlssignal auszugeben, während das autonome Fahrzeug steht.
  5. Fahrzeugsystem nach Anspruch 1, wobei die Autonommodussteuerung programmiert ist, um zumindest teilweise auf Grundlage des Objekterkennungssignals zu bestimmen, ob das Objekt oder die Person über mindestens einen vorbestimmten Zeitraum auf der Außenoberfläche des autonomen Fahrzeugs vorhanden ist, wobei die Autonommodussteuerung programmiert ist, als Reaktion auf das Erkennen, dass das Objekt oder die Person über mindestens den vorbestimmten Zeitraum auf der Außenoberfläche des autonomen Fahrzeugs vorhanden ist, den autonomen Betrieb des autonomen Fahrzeugs einzuschränken, indem verhindert wird, dass das autonome Fahrzeug autonom arbeitet.
  6. Fahrzeugsystem nach Anspruch 1, wobei der Sensor für autonomes Fahren programmiert ist, um das Objekterkennungssignal als Reaktion darauf, dass das Objekt oder die Person auf der Außenoberfläche des autonomen Fahrzeugs den Sensor für autonomes Fahren stört, auszugeben.
  7. Fahrzeugsystem nach Anspruch 1, ferner umfassend eine Kommunikationsschnittstelle, die programmiert ist, um eine Nachricht zu senden, die angibt, dass das Objekt oder die Person auf der Außenoberfläche des autonomen Fahrzeugs erkannt wurde.
  8. Fahrzeugsystem nach Anspruch 1, wobei die Autonommodussteuerung programmiert ist, um das autonome Fahrzeug als Reaktion auf das Erkennen des Objekts oder der Person auf der Außenoberfläche des autonomen Fahrzeugs autonom zu einem festgelegten Bereich zu navigieren, wobei der festgelegte Bereich mindestens einen von einer Polizeidienststelle, einem Parkplatz und einem Fahrzeugsteuerzentrum umfasst.
  9. Verfahren, umfassend: Empfangen von Umgebungssignalen, die eine Umgebung um ein autonomes Fahrzeug darstellen; Empfangen von Objekterkennungssignalen, die ein Objekt oder eine Person auf einer Außenoberfläche des autonomen Fahrzeugs darstellen; Erkennen des Objekts oder der Person auf der Außenoberfläche des autonomen Fahrzeugs gemäß den Objekterkennungssignalen; und Einschränken des autonomen Betriebs des autonomen Fahrzeugs als Reaktion auf das Erkennen des Objekts oder der Person auf der Außenoberfläche des autonomen Fahrzeugs.
  10. Verfahren nach Anspruch 9, ferner umfassend autonomes Steuern des autonomen Fahrzeugs gemäß den Umgebungssignalen, falls keine Objekte oder Personen auf der Außenoberfläche des autonomen Fahrzeugs erkannt werden.
  11. Verfahren nach Anspruch 9, ferner umfassend Empfangen einer Fahrtanforderung, die eine Abholstelle identifiziert, und wobei Einschränken des autonomen Betriebs des autonomen Fahrzeugs umfasst, dass als Reaktion auf das Erkennen des Objekts oder der Person auf der Außenoberfläche des autonomen Fahrzeugs verhindert wird, dass das autonome Fahrzeug autonom zur Abholstelle navigiert.
  12. Verfahren nach Anspruch 9, wobei die Objekterkennungssignale empfangen werden, wenn das autonome Fahrzeug steht.
  13. Verfahren nach Anspruch 9, ferner umfassend eines der Folgenden: einem Sensor für autonomes Fahren befehlen, das Umgebungssignal auszugeben, und dem Sensor für autonomes Fahren befehlen, das Objekterkennungssignal auszugeben, wobei dem Sensor für autonomes Fahren befohlen wird, das Objekterkennungssignal nur dann auszugeben, wenn das autonome Fahrzeug steht.
  14. Verfahren nach Anspruch 9, ferner umfassend Bestimmen, ob das Objekt oder die Person über mindestens einen vorbestimmten Zeitraum auf der Außenoberfläche des autonomen Fahrzeugs vorhanden ist, und wobei Einschränken des autonomen Betriebs des autonomen Fahrzeugs umfasst, dass als Reaktion auf das Erkennen, dass das Objekt oder die Person über mindestens den vorbestimmten Zeitraum auf der Außenoberfläche des autonomen Fahrzeugs vorhanden ist, verhindert wird, dass das autonome Fahrzeug autonom arbeitet.
  15. Verfahren nach Anspruch 9, wobei das Empfangen des Objekterkennungssignal Empfangen des Objekterkennungssignals als Reaktion darauf, dass das Objekt oder die Person auf der Außenoberfläche des autonomen Fahrzeugs den Sensor für autonomes Fahren stört, umfasst.
DE102017113186.8A 2016-06-15 2017-06-14 Objekterkennung auf Fahrzeugaussenoberfläche Pending DE102017113186A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/182,965 2016-06-15
US15/182,965 US10037033B2 (en) 2016-06-15 2016-06-15 Vehicle exterior surface object detection

Publications (1)

Publication Number Publication Date
DE102017113186A1 true DE102017113186A1 (de) 2017-12-21

Family

ID=59358377

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017113186.8A Pending DE102017113186A1 (de) 2016-06-15 2017-06-14 Objekterkennung auf Fahrzeugaussenoberfläche

Country Status (6)

Country Link
US (1) US10037033B2 (de)
CN (1) CN107526311B (de)
DE (1) DE102017113186A1 (de)
GB (1) GB2553623A (de)
MX (1) MX2017007899A (de)
RU (1) RU2017120684A (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018002966A1 (de) * 2018-04-12 2019-08-01 Daimler Ag Verfahren und Vorrichtung zur Durchführung einer Abfahrtskontrolle sowie Verwendung
CN111546891A (zh) * 2020-05-27 2020-08-18 张厂林 一种基于大数据的车辆安全监测管理系统
DE102019105275A1 (de) * 2019-03-01 2020-09-03 Connaught Electronics Ltd. Verfahren und System zum Detektieren eines Objekts auf einer Oberfläche eines Fahrzeugs

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105717920B (zh) * 2016-04-22 2017-12-01 百度在线网络技术(北京)有限公司 无人驾驶车辆的救援方法和装置
US10071675B2 (en) * 2016-08-03 2018-09-11 Ford Global Technologies, Llc Autonomous vehicle headlight deactivation
DE102016215587A1 (de) * 2016-08-19 2018-02-22 Audi Ag Verfahren zum Betreiben eines zumindest teilautonom betriebenen Kraftfahrzeugs und Kraftfahrzeug
DE102016116855A1 (de) * 2016-09-08 2018-03-08 Knorr-Bremse Systeme für Nutzfahrzeuge GmbH System und Verfahren zum Steuern von Nutzfahrzeugen
JP2018041379A (ja) * 2016-09-09 2018-03-15 本田技研工業株式会社 走行制御装置
US10086839B2 (en) * 2016-09-21 2018-10-02 Ford Global Technologies, Llc Semiautonomous vehicle control system
US10576881B2 (en) 2018-03-05 2020-03-03 Ford Global Technologies, Llc Autonomous vehicle B-pillar proximity warning system
US10974720B2 (en) 2018-08-13 2021-04-13 Kingman Ag, Llc Vehicle sliding bumper and system for object contact detection and responsive control
JP6931017B2 (ja) * 2019-03-27 2021-09-01 本田技研工業株式会社 車両制御装置、車両および車両制御方法
US11209824B1 (en) 2019-06-12 2021-12-28 Kingman Ag, Llc Navigation system and method for guiding an autonomous vehicle through rows of plants or markers
US11320830B2 (en) 2019-10-28 2022-05-03 Deere & Company Probabilistic decision support for obstacle detection and classification in a working area
CN115509726B (zh) * 2022-11-17 2023-03-14 南京芯驰半导体科技有限公司 一种传感器数据访问系统

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3364021B2 (ja) * 1993-12-10 2003-01-08 神鋼電機株式会社 運行管理制御装置およびその方法
US5916285A (en) * 1995-10-18 1999-06-29 Jervis B. Webb Company Method and apparatus for sensing forward, reverse and lateral motion of a driverless vehicle
DE19909987C2 (de) 1999-03-06 2003-04-10 Kostal Leopold Gmbh & Co Kg Anordnung zum Detektieren von auf einer Windschutzscheibe eines Kraftfahrzeuges befindlichen Objekten
US6086131A (en) 1999-03-24 2000-07-11 Donnelly Corporation Safety handle for trunk of vehicle
US6163250A (en) 1999-08-31 2000-12-19 International Business Machines Corporation System and method for sensing objects on surface of vehicle
DE10018652A1 (de) 2000-04-14 2001-12-06 Delphi Tech Inc System und Verfahren zur Überwachung des Innenraums eines Kraftfahrzeuges
US7109861B2 (en) 2003-11-26 2006-09-19 International Business Machines Corporation System and method for alarm generation based on the detection of the presence of a person
US8126642B2 (en) * 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
DE102010001368A1 (de) * 2010-01-29 2011-08-04 Robert Bosch GmbH, 70469 Verfahren zur Unterstützung eines Fahrers eines Kraftfahrzeugs
US20130002873A1 (en) * 2011-06-30 2013-01-03 Magna Electronics Europe Gmbh & Co. Kg Imaging system for vehicle
US9475496B2 (en) * 2013-11-22 2016-10-25 Ford Global Technologies, Llc Modified autonomous vehicle settings
EP2897014B1 (de) * 2014-01-16 2023-11-29 Volvo Car Corporation Zum autonomen Fahren angepasstes Fahrzeug und Verfahren zur Erkennung von Hindernissen
US9720410B2 (en) * 2014-03-03 2017-08-01 Waymo Llc Remote assistance for autonomous vehicles in predetermined situations
US9823081B2 (en) * 2014-12-03 2017-11-21 Ford Global Technologies, Llc Vehicle passenger identification
JP6237689B2 (ja) * 2015-04-16 2017-11-29 トヨタ自動車株式会社 周辺情報検出センサの配設構造及び自動運転車両
US9616773B2 (en) * 2015-05-11 2017-04-11 Uber Technologies, Inc. Detecting objects within a vehicle in connection with a service
US10254881B2 (en) * 2015-06-29 2019-04-09 Qualcomm Incorporated Ultrasonic touch sensor-based virtual button
US10220705B2 (en) * 2015-08-12 2019-03-05 Madhusoodhan Ramanujam Sharing autonomous vehicles
US10023231B2 (en) * 2015-08-12 2018-07-17 Madhusoodhan Ramanujam Parking autonomous vehicles
US10150448B2 (en) 2015-09-18 2018-12-11 Ford Global Technologies. Llc Autonomous vehicle unauthorized passenger or object detection
US9911084B2 (en) * 2016-02-02 2018-03-06 International Business Machines Corporation Autonomous vehicle scheduling system for pickup and drop-off of passengers
US10088846B2 (en) * 2016-03-03 2018-10-02 GM Global Technology Operations LLC System and method for intended passenger detection

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018002966A1 (de) * 2018-04-12 2019-08-01 Daimler Ag Verfahren und Vorrichtung zur Durchführung einer Abfahrtskontrolle sowie Verwendung
DE102019105275A1 (de) * 2019-03-01 2020-09-03 Connaught Electronics Ltd. Verfahren und System zum Detektieren eines Objekts auf einer Oberfläche eines Fahrzeugs
CN111546891A (zh) * 2020-05-27 2020-08-18 张厂林 一种基于大数据的车辆安全监测管理系统

Also Published As

Publication number Publication date
CN107526311A (zh) 2017-12-29
GB201709385D0 (en) 2017-07-26
GB2553623A8 (en) 2018-05-09
CN107526311B (zh) 2022-09-30
RU2017120684A (ru) 2018-12-14
US20170364072A1 (en) 2017-12-21
GB2553623A (en) 2018-03-14
US10037033B2 (en) 2018-07-31
MX2017007899A (es) 2018-09-10

Similar Documents

Publication Publication Date Title
DE102017113186A1 (de) Objekterkennung auf Fahrzeugaussenoberfläche
DE102017109397A1 (de) Autonomes geländefahren
DE102016125275A1 (de) Einsatzbetriebsmodus eines autonomen fahrzeugs
DE102016116910A1 (de) Erkennung von nicht berechtigten Fahrgästen oder Objekten in einem autonomen Fahrzeug
DE112017007713T5 (de) Systeme und Verfahren zur Fahrzeugbelegungsverwaltung
DE102015208668A1 (de) Vorausahnen einer Lichtzeichenanlage
DE102019125707A1 (de) Verfahren und Vorrichtung zur computerunterstützten oder autonomen Fahr-Verkehrsschilderkennung
DE102015116829A1 (de) Detektieren des Einscherens eines Fahrzeugs bei niedriger Geschwindigkeit im Nahbereich
DE102018111522A1 (de) Kooperative Einparkhilfe
DE102014219742A1 (de) Fahrzeug-infrastruktur-kommunikation
DE102013209055A1 (de) Datenquellenidentifizierung, Datensammlung und Datenspeicherung für Verkehrsereignisse
DE102015115095A1 (de) Kommunikation von Elektrofahrrad mit Infrastruktur oder Fahrzeugen
DE102016110963B4 (de) Detektieren und Kommunizieren von Fahrspurteilenmanövern
WO2018141447A1 (de) Verfahren zur lokalisierung eines höher automatisierten, z.b. hochautomatisierten fahrzeugs (haf) in einer digitalen lokalisierungskarte
DE102016108146A1 (de) Vollautomatisches Lenkrad, das durch Fußgängerdetektion geführt wird
DE112018004953T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und sich bewegender körper
DE112017006803T5 (de) Strassenwassererkennung für autonomes Fahrzeug
DE102018108361A1 (de) Laubwerkerfassungstrainingssysteme und -verfahren
DE102018131209A1 (de) Synchrone nahbereichsradare zur automatischen anhängerdetektion
DE102017124904A1 (de) Fußgängergesichtserkennung
DE102021107602A1 (de) Fahrassistenzvorrichtung und datensammelsystem
DE102018109436A1 (de) Erkennung eines sattelaufliegerüberstands mit aktiver parkassistenz
DE102021116309A1 (de) Assistenz für beeinträchtigte fahrer
DE102017223621A1 (de) Verfahren und Steuereinheit zur Steuerung einer Funktion eines zumindest teilweise automatisiert fahrenden Fahrzeugs
DE112017006162T5 (de) Fahrzeugzugang über access points über mobile geräte

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE

R012 Request for examination validly filed