DE112021005624T5 - Ersatzdaten für autonome Fahrzeuge - Google Patents

Ersatzdaten für autonome Fahrzeuge Download PDF

Info

Publication number
DE112021005624T5
DE112021005624T5 DE112021005624.7T DE112021005624T DE112021005624T5 DE 112021005624 T5 DE112021005624 T5 DE 112021005624T5 DE 112021005624 T DE112021005624 T DE 112021005624T DE 112021005624 T5 DE112021005624 T5 DE 112021005624T5
Authority
DE
Germany
Prior art keywords
data
operator
autonomous vehicle
sensors
route
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112021005624.7T
Other languages
English (en)
Inventor
Kenji Uchida
Daisuke Maruyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of DE112021005624T5 publication Critical patent/DE112021005624T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3415Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3461Preferred or disfavoured areas, e.g. dangerous zones, toll or emission zones, intersections, manoeuvre types, segments such as motorways, toll roads, ferries
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/207Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles with respect to certain areas, e.g. forbidden or allowed areas with possible alerting when inside or outside boundaries
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Game Theory and Decision Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

Eine Navigationsanforderung wird detektiert. Die Navigationsanforderung enthält ein Ziel für ein autonomes Fahrzeug von einem Startort. Auf der Grundlage der Navigationsanforderung wird eine Route von dem Startort zum Ziel ermittelt. Auf der Grundlage der Navigationsanforderung wird eine die Route betreffende Betreibersuche durchgeführt. Die Betreibersuche betrifft einen Eigentümer von vertraulichen Daten für einen oder mehrere Betreiber. Als Reaktion auf die Betreibersuche wird eine die Route betreffende bedingte Genehmigung empfangen. Die bedingte Genehmigung zeigt an, dass ein oder mehrere Sensoren des autonomen Fahrzeugs keine ein erstes Anwesen eines ersten Betreibers betreffenden Daten erfassen dürfen. Das erste Anwesen befindet sich nahe der Route. Der eine oder mehrere Sensoren des autonomen Fahrzeugs werden als Reaktion auf die bedingte Genehmigung eingeschränkt.

Description

  • HINTERGRUND DER ERFINDUNG
  • Die vorliegende Erfindung betrifft autonome Fahrzeuge und insbesondere den Schutz der Standortdaten, wobei gleichzeitig genaue Daten für das Fahren und Navigieren von autonomen Fahrzeugen bereitgestellt werden.
  • Bei autonomen Fahrzeugen kann es sich um in Bewegung befindliche Landfahrzeuge und Luftfahrzeuge handeln. Autonome Fahrzeuge können betrieben werden, indem Informationen über eine Strecke erfasst werden, und können so konfiguriert werden, dass sie Objekten auf der Strecke oder daneben ausweichen. Zum Schutz der Privatsphäre dürfen autonome Fahrzeuge an bestimmten Orten nicht betrieben werden.
  • KURZDARSTELLUNG
  • Gemäß Ausführungsformen werden ein Verfahren, ein System und ein Computerprogrammprodukt bereitgestellt. Es wird eine Navigationsanforderung detektiert. Die Navigationsanforderung enthält ein Ziel für ein autonomes Fahrzeug von einem Startort aus. Von dem Startort aus wird auf der Grundlage der Navigationsanforderung eine Route bis zum Ziel ermittelt. Auf der Grundlage der Navigationsanforderung wird von einem Betreiber eine die Route betreffende Suche durchgeführt. Die Suche des Betreibers betrifft einen Eigentümer von vertraulichen Daten für einen oder mehrere Betreiber. Als Reaktion auf die Suche des Betreibers wird eine die Route betreffende bedingte Genehmigung empfangen. Die bedingte Zustimmung zeigt an, dass unter Umständen ein oder mehrere Sensoren des autonomen Fahrzeugs keine Daten in Bezug auf ein erstes Anwesen eines ersten Betreibers erfassen dürfen, wobei sich das erste Anwesen nahe der Route befindet. Als Reaktion auf die bedingte Zustimmung unterliegen der eine oder mehrere Sensoren der autonomen Fahrzeuge Einschränkungen.
  • Gemäß einigen Ausführungsformen umfassen die Einschränkungen des einen oder mehrerer Sensoren des autonomen Fahrzeugs ein Erfassen des ersten Anwesens durch den einen oder mehrere Sensoren des autonomen Fahrzeugs.
  • Die obige Kurzdarstellung ist nicht als Beschreibung jeder anschaulichen Ausführungsform oder jeder Ausführungsform der vorliegenden Offenbarung zu verstehen.
  • Figurenliste
  • Die in der vorliegenden Offenbarung enthaltenen Zeichnungen sind in die Beschreibung aufgenommen und bilden einen Teil derselben. Sie veranschaulichen die vorliegende Offenbarung und dienen in Verbindung mit der Beschreibung dazu, die Grundgedanken der Offenbarung zu erläutern. Die Zeichnungen dienen nur zur Veranschaulichung bestimmter Ausführungsformen sollen die Offenbarung nicht einschränken.
    • 1 zeigt die repräsentativen Hauptkomponenten eines beispielhaften Computersystems, das gemäß einigen Ausführungsformen der vorliegenden Offenbarung verwendet werden kann.
    • 2A zeigt ein externes Sensorsystem von Dritten (third-party external sensor system -TESS), das mit einem autonomen Fahrzeug in einer beispielhaften Fahrzeugumgebung gemäß einigen Ausführungsformen der Offenbarung betrieben wird.
    • 2B zeigt eine beispielhafte Fahrzeugumgebung, in der mittels eines auf einem autonomen Fahrzeug betriebenen TESS die vertraulichen Daten eines oder mehrerer Anwesen geschützt werden.
    • 2C zeigt autonome Fahrdaten, die durch ein autonomes Fahrzeug eines TESS erfasst werden.
    • 3 zeigt durch ein TESS gemäß einigen Ausführungsformen der Offenbarung erfasste Ersatzdaten.
    • 4 zeigt ein beispielhaftes Systemschaubild eines TESS gemäß einigen Ausführungsformen der Offenbarung.
    • 5 zeigt ein beispielhaftes Verfahren zum Betreiben eines TSS gemäß einigen Ausführungsformen der Offenbarung.
    • 6 zeigt ein beispielhaftes Verfahren zum Betreiben eines TESS gemäß einigen Ausführungsformen der Offenbarung.
    • 7 zeigt ein beispielhaftes Verfahren zum Betreiben eines TESS gemäß einigen Ausführungsformen der Offenbarung.
  • Zwar kann die Erfindung verschiedenen Änderungen unterliegen und in anderen Formen vorliegen, jedoch sind in den Zeichnungen beispielhaft spezielle Ausführungen gezeigt, die ausführlich beschrieben werden. Es sollte jedoch klar sein, dass die Erfindung nicht auf die einzelnen beschriebenen Ausführungsformen beschränkt sein soll. Vielmehr sollen alle Modifikationen, Äquivalente und Alternativen erfasst werden, die in den Schutzumfang der Erfindung fallen.
  • DETAILLIERTE BESCHREIBUNG
  • Aspekte der vorliegenden Offenbarung betreffen autonome Fahrzeuge; speziellere Aspekte betreffen den Schutz von privaten Örtlichkeiten bei gleichzeitiger Bereitstellung genauer Daten für die Fahrt und die Navigation von autonomen Fahrzeugen. Zwar ist die vorliegende Offenbarung nicht unbedingt auf solche Anwendungen beschränkt, jedoch dürften im Verlauf einer Erörterung verschiedener Beispiele in diesem Zusammenhang verschiedene Aspekte der Offenbarung einsichtig sein.
  • Autonome Fahrzeug setzen sich in der gesamten Gesellschaft immer mehr durch. Als autonome Fahrzeuge kommen kleine unbemannte autonome Luftfahrzeuge (z.B. Drohnen) und Personenfahrzeuge (z.B. autonome Personenwagen) infrage. Autonome Fahrzeuge können mit verschiedenen Sensoren ausgestattet sein, um Beobachtungen in Bezug auf die Routen oder Fahrstraßen anzustellen, auf denen sie fahren, und um Objekten auszuweichen. Zum Beispiel kann ein autonomer Lastwagen entlang einer vorgegebenen oder undefinierten Route navigieren oder sich anderweitig bewegen und gleichzeitig Informationen über Personen und andere Fahrzeuge erfassen. Bei den Sensoren kann es sich um eine oder mehrere Einheiten wie Kameras, LiDAR-Sensoren, Mikrofone, Lautsprecher usw. handeln, die für den Betrieb verwendet werden. Während der Navigation oder der Fahrt durch die Gegend können sich die autonomen Fahrzeuge für den sicheren Betrieb der Sensoren bedienen. Zum Beispiel können autonome Fahrzeug Sensoren zum Anhalten, Ausweichen oder anderweitigen Vermeiden von Kontakten mit Personen, Autos, Verkehrszeichen, Tieren, Vögeln und anderen Fahrzeugen verwenden. Gemäß einem anderen Beispiel können autonome Fahrzeuge Sensoren zum Erfassen und zum Erzeugen von Daten für autonomes Fahren verwenden, um innerhalb einer Fahrspur zu bleiben oder nicht auf einen Bürgersteig zu fahren oder außerhalb einer Begrenzung oder eines anderen sichtbaren Bereichs zu bleiben.
  • Bestimmte Bedingungen können unter Umständen ein Erfassen und Speichern von autonomen Fahrdaten erfordern. Zum Beispiel können autonome Fahrdaten für Hersteller von autonomen Fahrzeugen zu Prüf- und Analysezwecken erforderlich sein. Eine Analyse der autonomen Fahrdaten kann zur Verbesserung des Fahrverhaltens von autonomen Fahrzeugen wichtig sein. Bestimmte Defekte oder Fehler im Fahrverhalten von autonomen Fahrzeugen können nicht erfasst oder detektiert werden, wenn keine autonomen Fahrdaten zur späteren Analyse aufgezeichnet werden. Gemäß einem anderen Beispiel können autonome Fahrdaten erforderlich sein, um diese der Polizei oder Sachverständigen zum Analysieren von Unfällen bereitzustellen. Ein autonomes Fahrzeug kann unter Umständen versagen, und die Situation muss aufgeklärt werden. Der Gesetzgeber kann den Prozess der Aufklärung durch die Forderung erleichtern, dass die durch das autonome Fahrzeug zum Fahren und Navigieren durch verschiedene Bereiche verwendeten Fahrdaten gespeichert werden und für einen bestimmten Zeitraum nach der autonomen Fahrt verfügbar bleiben (z.B. Tage, Monate, Jahre).
  • Bestimmte Vorschriften und praktische Hinderungsgründe hingegen können das Erfassen der Sensordaten verunmöglichen. Bestimmte Bereiche, durch die ein bemanntes oder unbemanntes Fahrzeug geführt wird, können verschiedenen Vorschriften unterliegen. Eine solche Vorschrift kann besagen, dass in bestimmten reglementierten Bereichen bemannte und unbemannte Kraftfahrzeuge nur eingeschränkt Informationen erfassen dürfen. Bei einem reglementierten Bereich kann es sich zum Beispiel um einen eingeschränkten Bereich eines Nationalparks oder eines Regierungsanwesens handeln. Gemäß einem anderen Beispiel können unbemannte Fahrzeuge Vorschriften in Bezug auf Flugbewegungen gemäß regionalen und nationalen Gesetzen zum Luftverkehr unterliegen, die das Erfassen von visuellen Rohdaten einschränken. Die visuellen Rohdaten können Pixel- oder Radarbilder bestimmter Bereiche enthalten, die unter Umständen von Kamera-, LiDAR- oder anderen Sensoren nicht erfasst werden dürfen. Ferner können Vorschriften nur eine Ja-Nein-Entscheidung vorgeben, ob eine Durchfahrt erlaubt ist, wenn die Fahrt und die Navigation auf der Grundlage der durch die Sensoren erfassten Umgebung erfolgen.
  • Bei einigen Datenschutztechniken können die erfassten Sensordaten verschleiert oder unkenntlich gemacht werden. Das ist jedoch mit einigen Nachteilen verbunden. Einige Datenschutztechniken können so ausgeführt werden, dass die autonomen Fahrzeuge später nicht auf Informationen hin überprüft werden können, um den sicheren Fahrweg und die genaue Navigation zu ermitteln. Das Fehlen von Bilddaten steht nicht nur einer ordnungsgemäßen Überprüfung durch Sachverständige und die Legislative, sondern auch den durch ein autonomes Fahrzeug ausgeführten technischen Operationen im Wege. Zum Navigieren können autonome Fahrzeuge zum Beispiel Sensoren wie Kameras, Radar- und LiDAR-Sensoren und dergleichen zum Erfassen der Gegend verwenden, in denen sie navigieren. Wenn der Sensor über ein Verschleiern, Unkenntlichmachen oder anderweitiges Entfernen von Daten verfügt, die Personen, Tieren und anderen Fahrzeugen entsprechen, kann das autonome Fahrzeug wegen eines Algorithmus zum Detektieren der Daten versagen. Bei dem Detektionsalgorithmus kann es sich um einen Prozess für maschinelles Lernen, ein neuronales Netzwerk, einen Bildverarbeitungsprozess und ein Detektieren von Objekten in den Rohdaten handeln. Als Beispiel hierfür können ein erfasster Videodatenstrom, eine Fotografie oder ein anderes Bild mit Pixelwerten herangezogen werden, die eine oder mehrere sich bewegende Objekte darstellen. Wenn Teile des Bildes aus ihren Sensorrohdaten verändert werden, können sie unter Umständen die Objekte innerhalb der Bildszene nicht genau detektieren, klassifizieren oder zuordnen. Demzufolge kann das autonome Fahrzeug unter Umständen Objekte fälschlicherweise an der falschen Position oder in einigen Fällen sogar überhaupt nicht erkennen.
  • Ferner kann in bestimmten Bereichen, in denen das Erfassen von Informationen verboten ist, der Betrieb von autonomen Fahrzeugen praktisch unmöglich sein. Selbst wenn das Aufnehmen eines Teilbildes gestattet sein sollte, kann es für ein autonomes Fahrzeug unrealistisch sein, ohne Sensordaten der gesamten Umgebung des autonomen Fahrzeugs zu navigieren. Wenn zum Beispiel eine Vorschrift besagt, dass ein Fahrzeug einen Außenrand eines bestimmten Bereichs unter der Bedingung befahren darf, dass es keinen Versuch zum Aufnehmen eines Bildes in Richtung der Mitte des Bereichs unternimmt, wird es für ein automatisch fahrendes autonomes Fahrzeug schwierig, lediglich durch Fotografieren einer Hälfte des Bereichs um das automatisch fahrende autonome Fahrzeug herum weiterzufahren. Demzufolge ist es für den Betrieb eines autonomen Fahrzeugs praktisch schwierig, ohne Objektdaten auszukommen, die von den Sensoren des autonomen Fahrzeugs empfangen wurden.
  • Ein externes Sensorsystem von Dritten (TESS) kann das praktische Problem des Betriebs eines autonomen Fahrzeugs innerhalb verschiedener Umgebungen lösen. Ein TESS kann das Problem lösen, indem es Daten sich bewegender Objekte einem autonomen Fahrzeug bereitstellt. Das TESS kann das Problem lösen, indem es Daten sich bewegender Objekte einem autonomen Fahrzeug bereitstellt, während es sich einem Anwesen nähert oder in dessen Nahbereich kommt. Das TESS kann durch einen Betreiber des Anwesens betrieben werden. Bei einem Betreiber kann es sich zum Beispiel um einen Eigentümer des Anwesens wie um eine Einzelperson handeln. Gemäß einem anderen Beispiel kann es sich bei dem Betreiber um einen Hausverwalter oder einen spezialisierten Auftragnehmer oder einen Dritten handeln, der vertragsgemäß zusammen mit dem Eigentümer das Anwesen verwaltet. Das TESS kann durch ein zentrales Serversystem betrieben werden. Zum Beispiel können von dem Anwesen Echtzeitdaten von stationären und sich bewegenden Objekten an einen zentralen Server gesendet werden. Als Objekte können ein oder mehrere Objekte der realen Welt wie Personen, Tiere, Bäume infrage kommen, die noch nicht als stationäres Objekt oder als sich bewegendes Objekt verarbeitet und erkannt wurden.
  • Das TESS kann betrieben werden, indem es direkt die Funktion eines oder mehrerer Sensoren eines autonomen Fahrzeugs einschränkt. Zum Beispiel kann ein Betreiber oder ein Server die Steuerung eines oder mehrerer Sensoren eines autonomen Fahrzeugs übernehmen. Das TESS kann betrieben werden, indem es die Funktion eines oder mehrerer Sensoren des autonomen Fahrzeugs indirekt einschränkt. Zum Beispiel kann ein Betreiber oder ein Server eine Anweisung an ein autonomes Fahrzeug senden. Als Reaktion auf die Anweisung kann das autonome Fahrzeug den einen oder mehrere Sensoren des autonomen Fahrzeugs derart einschränken, dass das autonome Fahrzeug gemäß der Anweisung keine Sensordaten von dem einen oder mehreren Sensoren empfängt. Die Einschränkung der Funktion der Sensoren kann auf der Grundlage eines Standortes des autonomen Fahrzeugs erfolgen, beispielsweise wenn sich dieses nahe oder anderweitig im Nahbereich eines bestimmten Anwesens befindet. Die Einschränkung der Funktion der Sensoren kann vorübergehend erfolgen, beispielsweise einige Minuten oder Sekunden lang. Die Einschränkung kann ein Löschen eines Teils eines Videosignals beispielsweise von einer Kamera des autonomen Fahrzeugs umfassen. Die Einschränkung kann ein Löschen des gesamten Bildes, eines Einzelbildes oder einer Reihe von Bildern aus einem Videosignal umfassen.
  • Das TESS kann verhindern, dass ein autonomes Fahrzeug Vorschriften zuwiderhandelt. Zum Beispiel kann ein Betreiber oder Server anweisen oder versuchen, das Erfassen von Daten durch einen oder mehrere Sensoren eines autonomen Fahrzeugs einzuschränken. Die von der Einschränkung betroffenen Sensoren des Fahrzeugs können Bildsensoren, Radarsensoren, LiDAR-Sensoren, GPS-Sensoren und andere einschlägige Navigations- und Fahrsensoren umfassen. Als Reaktion darauf kann das autonome Fahrzeug möglicherweise nicht ordnungsgemäß funktionieren oder den Betreiber anderweitig ignorieren. Demzufolge kann der Betreiber oder der Server das autonome Fahrzeug anweisen, eine neue Route von dem reglementierter Bereich weg festzulegen oder den autonomen Betrieb einzustellen. Bei dem reglementierten Bereich kann es sich um bestimmte Straßen, Wege oder Land- beziehungsweise Wassergrenzen handeln. Als reglementierter Bereich können auch bestimmte Lufträume infrage kommen.
  • Das TESS kann Ersatzdaten für Navigations-, Fahr- und Telemetriezwecke bereitstellen. Ein Betreiber kann zum Beispiel ein oder mehrere der folgenden Sensordaten bereitstellen: Teilbilder mit bestimmten grau getönten Bereichen; und verarbeitete, deformierte oder veränderte Bilder zum Blockieren, Verschleiern, Entfernen oder anderweitigen Unkenntlichmachen von Teilen eines Anwesens oder einer Person. Gemäß einigen Ausführungsformen kann ein dreidimensionales Modell für das autonome Fahrzeug bereitgestellt werden. Das TESS kann je nach der Art der Systemdaten bereitgestellt werden, die ein autonomes Fahrzeug verstehen, decodieren oder auf die es anderweitig zugreifen kann. Gemäß einigen Ausführungsformen kann dem autonomen Fahrzeug ein zweidimensionales Modell bereitgestellt werden, das als Bild oder als Bild mit einer überlagerten zweidimensionalen Schablone gestaltet ist. Das Modell oder die überlagerte Schablone kann größer als das durch das Modell oder die überlagerte Schablone unkenntlich gemachte Objekt sein. Durch die zusätzliche Größe des Modells oder der überlagerten Schablone kann verhindert werden, dass das autonome Fahrzeug oder ein Dritter, der die Ersatzdaten überprüft, das Objekt erkennt. Das Ersatzmodell oder die überlagerte Schablone können durch das autonome Fahrzeug mittels einer einschlägigen Technik wie Kantendetektion oder Objekterkennung analysiert werden, um festzustellen, dass sich innerhalb eines Bereichs eine allgemeintypische Version eines sich bewegenden Objekts befindet. Zum Beispiel können ein Kind und ein Elternteil auf einem Bürgersteig gehen, und ein TESS kann zwei dreidimensionale Modelle wiedergeben, die das Kind und das Elternteil unkenntlich machen. Die Ersatzdaten des TESS können durch das autonome Fahrzeug zum Navigieren verwendet werden, um stationären und sich bewegenden Objekten auszuweichen, diese zu umfahren oder ansonsten in der Umgebung der stationären und sich bewegenden Objekte sicher zu navigieren. Das TESS kann kontinuierlich oder wiederholt Ersatzdaten erzeugen. Das TESS kann zum Beispiel Ersatzdaten sich bewegender Objekte, die als sich bewegende Objekte dargestellt sind, in Echtzeit oder nahezu in Echtzeit alle sechzehn Millisekunden, alle 16,68 Millisekunden oder jede Sekunde bereitstellen.
  • 1 zeigt die repräsentativen Hauptkomponenten eines beispielhaften Computersystems (alternativ eines Computers), das gemäß einigen Ausführungsformen der vorliegenden Offenbarung verwendet werden kann. Es ist einsichtig, dass einzelne Komponenten in Bezug auf Komplexität, Anzahl, Typ und/oder Konfiguration variieren können. Die einzelnen offenbarten Beispiele sind nur als Beispiel gedacht und stellen nicht unbedingt nur solche Varianten dar. Das Computersystem 100 kann einen Prozessor 110, einen Arbeitsspeicher 120 und/oder eine Eingabe-/Ausgabe-Schnittstelle 130 (hierin als E/A oder als E-/A-Schnittstelle bezeichnet) und einen Hauptbus 140 aufweisen. Der Hauptbus 140 kann Datenübertragungspfade für die anderen Komponenten des Computersystems 100 bereitstellen. Gemäß einigen Ausführungsformen kann der Hauptbus 140 mit anderen Komponenten wie mit einem (nicht gezeigten) spezialisierten digitalen Signalprozessor verbunden sein.
  • Der Prozessor 110 des Computersystems 100 kann aus einem oder mehreren Kernen 112A, 112B, 112C, 112D (allgemein 112) bestehen. Der Prozessor 110 kann zusätzlich einen oder mehrere (nicht gezeigte) Speicherpuffer oder Caches umfassen, die zum vorübergehenden Speichern von Anweisungen und Daten für die Kerne 112 dienen. Die Kerne 112 können Anweisungen an von den Caches oder vom Arbeitsspeicher 120 bereitgestellten Eingaben ausführen und das Ergebnis an die Caches oder den Arbeitsspeicher ausgeben. Die Kerne 112 können aus einem oder mehreren Schaltkreisen bestehen, die ein oder mehrere Verfahren gemäß Ausführungsformen der vorliegenden Offenbarung ausführen. Gemäß einigen Ausführungsformen kann das Computersystem 100 mehrere Prozessoren 110 enthalten. Gemäß einigen Ausführungsformen kann das Computersystem 110 aus einem einzigen Prozessor 110 mit einem einzigen Kern 112 bestehen.
  • Der Arbeitsspeicher 120 des Computersystems 100 kann einen Speichercontroller 122 enthalten. Gemäß einigen Ausführungsformen kann der Arbeitsspeicher 1120 einen Halbleiter-Direktzugriffsspeicher, eine entsprechende Speichereinheit oder ein entsprechendes Speichermedium (flüchtig oder nichtflüchtig) zum Speichern von Daten und Programmen aufweisen. Gemäß einigen Ausführungsformen kann der Arbeitsspeicher in Form von Modulen vorliegen (z.B. DIL-Speichermodule). Der Speichercontroller 122 kann Daten mit dem Prozessor 110 austauschen und das Speichern und Abrufen von Informationen im Arbeitsspeicher 120 vornehmen. Der Speichercontroller 122 kann Daten mit der E-/A-Schnittstelle 130 austauschen und das Speichern und Abrufen von Eingaben oder Ausgaben in dem Arbeitsspeicher 120 vornehmen.
  • Die E-/A-Schnittstelle 130 kann einen E-/A-Bus 150, eine Endeinheitenschnittstelle 152, eine Speicherschnittstelle 154, eine E-/A-Einheiten-Schnittstelle 156 und eine Netzwerkschnittstelle 158 aufweisen. Die E-/A-Schnittstelle 130 kann den Hauptbus 140 mit dem E-/A-Bus 150 verbinden. Die E-/A-Schnittstelle 130 kann Anweisungen und Daten von dem Prozessor 110 und dem Arbeitsspeicher 120 zu verschiedenen Schnittstellen des E-/A-Busses 150 übermitteln. Die verschiedenen Schnittstellen können die Endeinheitenschnittstelle 152, die Speicherschnittstelle 154, die E-/A-Einheiten-Schnittstelle 156 und die Netzwerkschnittstelle 158 enthalten. Gemäß einigen Ausführungsformen können die verschiedenen Schnittstellen eine Teilmenge der oben erwähnten Schnittstellen enthalten (z.B. enthält ein eingebettetes Computersystem für eine industrielle Anwendung unter Umständen keine Endeinheitenschnittstelle 152 und keine Speicherschnittstelle 154).
  • Logikmodule im gesamten Computersystem - darunter der Arbeitsspeicher 120, der Prozessor 110 und die E-/A-Schnittstelle 130, ohne auf diese beschränkt zu sein - können Störungen und Änderungen an einer oder mehreren Komponenten an einen (nicht gezeigten) Hypervisor oder ein Betriebssystem mitteilen. Der Hypervisor oder das Betriebssystem können die verschiedenen in dem Computersystem 100 verfügbaren Ressourcen zuordnen und den Speicherort im Arbeitsspeicher 120 sowie die den verschiedenen Kernen 112 zugewiesenen Prozesse nachverfolgen. Gemäß Ausführungsformen, in denen Elemente miteinander kombiniert oder neu angeordnet werden, können Aspekte und Fähigkeiten der Logikmodule miteinander kombiniert oder neu verteilt werden. Diese Varianten dürften dem Fachmann offensichtlich sein.
  • 2A zeigt ein beispielhaftes TESS 200, das zusammen mit einem autonomen Fahrzeug 210 in einer beispielhaften Fahrzeugumgebung 220 gemäß einigen Ausführungsformen der Offenbarung betrieben wird. Die Fahrzeugumgebung kann Folgendes umfassen: eine Straße, die durch ein Stadtviertel mit einer Mehrzahl Fahr- und Parkspuren 222-1, 222-2, 222-3 und 222-4 (allgemein Fahrspuren 222) führt; eine Reihe von Fahrspurmarkierungen 224-1, 224-2 und 224-3 (allgemein Markierungen 224), Fußgängerwege (alternativ Bürgersteige) zum Begehen durch Fußgänger einschließlich der Fußgängerwege 226-1 und 226-2 (allgemein Fußgängerwege 226); und drei Anwesen 228-1, 228-2 und 228-3 (allgemein 228).
  • Die Fahrspuren 222 können für den Verkehr in zwei Richtungen und zum Parken von stationären Fahrzeugen vorgesehen sein. Zum Beispiel können die Fahrspuren 222 für Folgendes vorgesehen sein: die Fahrspur 222-1 kann zum Parken auf der linken Straßenseite vorgesehen sein; die Fahrspur 222-2 kann für den Gegenverkehr auf der linken Straßenseite vorgesehen sein; die Fahrspur 222-3 kann zum Fahren und autonomen Navigieren durch das autonome Fahrzeug 210 vorgesehen sein; und die Fahrspur 222-4 kann zum Parken auf der rechten Straßenseite vorgesehen sein. Die Markierungen 224 können die Trennung zwischen den Fahrspuren 222 in der Fahrzeugumgebung 220 sichtbar anzeigen. Die Markierungen 224 können zum Beispiel Folgendes umfassen: die Fahrspurmarkierung 224-1 kann eine Grenze zwischen der Fahrspur 222-1 und der Fahrspur 222-2 anzeigen; die Fahrspurmarkierung 224-2 kann eine Grenze zwischen der Fahrspur 222-2 und der Fahrspur 222-3 anzeigen; und die Fahrspurmarkierung 224-3 kann eine Grenze zwischen der Fahrspur 222-3 und der Fahrspur 222-4 anzeigen. Die Fahrspurmarkierungen 224 können so gestaltet sein, dass sie Fahrzeugführern und autonomen Fahrzeugen Grenzen anzeigen, die nicht oder nur dann überquert werden sollen, wenn bestimmte Handlungen ausgeführt werden (z.B. Überholen eines Fahrzeugs, Übergang vom Parken zum Fahren, Leiteinrichtungen zum Ausrichten innerhalb einer Fahrspur, Übergang vom Fahren zum Parken, Wenden zu anderen nicht gezeigten Fahrspuren).
  • Bei den Anwesen 228 kann es sich um Grundstücke wie Grund und Boden, Gebäude, Parks, Gewässer, Felsen, Mauern oder andere stationäre Bereiche handeln, die im Eigentum und unter Kontrolle von Grundstückseigentümern wie Einzelpersonen, Unternehmen und Regierungsinstitutionen stehen. Von den Anwesen 228 kann es sich bei dem Anwesen 228-2 um ein im Eigentum und unter Kontrolle eines Betreibers stehendes Grundstück handeln. Zum Beispiel kann es sich bei dem Anwesen 228-2 um ein Unternehmensgebäude im Eigentum und unter Kontrolle eines Unternehmens handeln, welches das Aufnehmen und Erfassen von Bilddaten durch autonome Fahrzeuge in der Nähe des Anwesens 228-2 regelt.
  • Zur Fahrzeugumgebung 220 kann auch eine Mehrzahl sich bewegender und stationärer Objekte gehören, die nicht zu den Anwesen 228 gehören. Als stationäre Objekte kommen zum Beispiel folgende infrage: die stationären Objekte 230-1, 230-2 und 230-3 (allgemein 230). Bei den stationären Objekten 230-1 und 230-2 kann es sich um Bäume oder Sträucher in der Nähe der Fahrspuren 222 der Fahrzeugumgebung 220 handeln. Bei dem stationären Objekt 230-3 kann es sich um ein Verkehrszeichen handeln, das den Objekten innerhalb der Fahrzeugumgebung sichtbar eine oder mehrere Regeln, gesetzliche Bestimmungen oder Regeln anzeigt, die von den Objekten innerhalb der Fahrzeugumgebung eingehalten werden müssen. Es sind auch andere stationäre Objekte 230 wie Felsstrukturen, Berghänge, Statuen oder Monumente denkbar. Zu den sich bewegenden Objekten können folgende gehören: Fahrzeuge 240-1 und 240-2 (allgemein Fahrzeuge 240); und Fußgänger 242-1, 242-2 und 242-3 (allgemein Fußgänger 242). Andere in der Fahrzeugumgebung 220 nicht gezeigte sich bewegende Objekte sind denkbar. Zum Beispiel können Fahrräder, Hunde, Katzen, Wildtiere, Motorräder und dergleichen Objekte als sich bewegende Objekte erkannt werden, die sich in der Fahrzeugumgebung 220 aufhalten können.
  • Das TESS 200 kann gemeinsame Aktionen durch das autonome Fahrzeug 210 und den Betreiber des Anwesens 228-2 umfassen. Das autonome Fahrzeug 210 kann zum Beispiel einen autonomen Fahrzeugsensor 212 zum Erfassen von Daten und Telemetriedaten von der Fahrzeugumgebung 220 enthalten. Der Sensor 212 kann in der Lage sein, Daten innerhalb eines Winkels 214 zu erfassen. Der Winkel 214 kann durch zwei in 2A gezeigte, voneinander getrennte Teilwinkel 214-1 und 214-2 definiert sein. Die Daten und die Telemetriedaten können durch das autonome Fahrzeug 210 zum Erzeugen von autonomen Fahrdaten verwendet werden, um durch die Fahrzeugumgebung 220 zu navigieren und zu fahren und nicht mit anderen Objekten in Kontakt zu kommen. Daten können zum Beispiel von dem Sensor 212 des autonomen Fahrzeugs in Form von visuellen Daten, Tiefenerfassungsdaten, Echo-Ortungsdaten und dergleichen empfangen werden. Bei dem Sensor des autonomen Fahrzeugs 212 kann es sich um einen Radarsensor und bei den autonomen Fahrdaten um Radarmesswerte handeln, die eine Laufzeit eines Signals anzeigen, das von verschiedenen Objekten in der Fahrzeugumgebung 220 reflektiert wird (z.B. von den stationären Objekten 230, den Fahrzeugen 240 und den Fußgängern 242). Bei dem Sensor 212 des autonomen Fahrzeugs 212 kann es um eine Kamera für sichtbares Licht handeln, die ein Bild der Fahrzeugumgebung 220 (in Form von roten, grünen und blauen Pixeln) aufnimmt.
  • Das TESS 200 kann auch auf der Grundlage von Daten betrieben werden, die von dem Betreiber des Anwesens 228-2 erhalten wurden. Das Anwesen 228-2 kann zum Beispiel Folgendes umfassen: Sensoren 250-1 und 250-2 (allgemein Sensoren 250), die zum Erfassen und Aufzeichnen der Fahrzeugumgebung 220 konfiguriert sind; und ein Betreibersystem 260, das zum Verarbeiten der durch die Sensoren 250 erfassten Daten konfiguriert ist. Bei dem Betreibersystem 260 kann es sich um einen Computer (z.B. den Computer 100 von 1) handeln, der zum Senden und Empfangen von Daten und zum Erzeugen von Ersatzdaten konfiguriert ist. Die Sensoren 250 können Bild-, Radar-, LiDAR- und andere einschlägige Sensoren umfassen, die jeweils zum Erfassen von Sensorrohdaten einer Umgebung geeignet sind, die ansonsten unzugänglich ist. Der Sensor 250-1 kann zum Beispiel so konfiguriert sein, dass er einen durch die geraden Linien gekennzeichneten Bereich erfasst, die sich vom Sensor 250-1 aus erstrecken. Ferner kann der Sensor 250-2 so konfiguriert sein, dass er einen Bereich erfasst, der einen durch die geraden Linien gekennzeichneten Bereich erfasst, die sich vom Sensor 250-2 aus erstrecken.
  • 2B zeigt eine beispielhafte Fahrzeugumgebung 220, in der ein TESS 200 ein autonomes Fahrzeug 210 so leitet, dass die vertraulichen Daten eines oder mehrerer Anwesen geschützt werden. Das TESS 200 kann so konfiguriert sein, dass das Erfassen oder Aufzeichnen bestimmter Fahrzeuge von einem oder mehreren Sensoren des autonomen Fahrzeugs kontrolliert wird. Das autonome Fahrzeug 210 kann zum Beispiel so konfiguriert sein, dass es nur einen Teil der Fahrzeugumgebung 220 erfasst. Das TESS 200 kann das autonome Fahrzeug 210 anweisen, die Funktion bestimmter Sensoren des autonomen Fahrzeugs vollständig einzuschränken. Das TESS 200 kann zum Beispiel ein autonomes Fahrzeug 210 anweisen, keine Sensordaten aufzuzeichnen, zu erfassen oder auf andere Weise zu erlangen.
  • Gemäß einigen Ausführungsformen kann das TESS 200 das autonome Fahrzeug 210 anweisen, die Funktion bestimmter Sensoren des autonomen Fahrzeugs vollkommen einzuschränken. Das TESS 200 kann zum Beispiel das autonome Fahrzeug 210 anweisen, die Funktion des Sensors 212 des autonomen Fahrzeugs dahingehend einzuschränken, dass nur ein Teil des Winkels 214 erfasst wird. Als Reaktion darauf kann das autonome Fahrzeug den Teilwinkel 214-1 in einem unveränderten Zustand erfassen. Ferner kann das autonome Fahrzeug 210 den Teilwinkel 214-2 in einem eingeschränkten Zustand erfassen. Der Teilwinkel 214-2 kann zum Beispiel verschleierte Teile der Sensordaten aufweisen, die einem oder mehreren stationären oder sich bewegenden Objekten in der Fahrzeugumgebung 220 entsprechen. Gemäß einigen Ausführungsformen kann der Teilwinkel 2214-2 nicht erfasst werden, und nicht alle Sensordaten vom Sensor 212 innerhalb des Teilwinkels 214-2 lassen sich betrachten, erfassen, speichern oder anderweitig analysieren. Demzufolge kann das autonome Fahrzeug 210 Sensordaten von dem Sensor 212 des autonomen Fahrzeugs nur in Bezug auf folgende Objekte erfassen: die Fahrspuren 222-1 und 222-2; die Markierungen 224-1 und 224-2; der Fußgängerweg 226-1; die Anwesen 228-1 und 228-2; die stationären Objekte 230-1; und die sich bewegenden Objekte, darunter das Fahrzeug 240-1 und der Fußgänger 242-1. Das autonome Fahrzeug 210 kann teilweise auch einen Teil der Fahrzeugumgebung 220 erfassen. Zum Beispiel kann der Sensor 212 des autonomen Fahrzeugs gegebenenfalls nicht in der Lage sein, die Fahrspur 222-3 vollständig zu erfassen.
  • 2C zeigt autonome Fahrdaten 270, die durch ein autonomes Fahrzeug 210 eines TESS 200 erfasst wurden. Die autonomen Fahrdaten 270 können Sensordaten aus der Fahrzeugumgebung 220 entnommen werden. Bei den autonomen Fahrdaten 270 kann es sich um Objektdaten handeln, die verschiedenen innerhalb der Fahrzeugumgebung 220 befindlichen Objekten entsprechen. Die autonomen Fahrdaten können Folgendes umfassen: Leiteinrichtungen 272-1 und 272-2 (allgemein 272), die den Fahrspuren 222-1 und 222-2 beziehungsweise den Markierungen 224-1 und 224-2 entsprechen; reale Objekte 274-1, 274-2 und 274-3 (allgemein 274). Bei den realen Objekten 274 kann es um Darstellungen von autonomen Fahrdaten der Fahrzeugumgebung 220 handeln. Zum Beispiel kann es sich bei dem realen Objekt 274-1 um eine Darstellung eines Fußgängers 242-1; bei dem realen Objekt 274-2 um eine Darstellung eines Fahrzeugs 240-1 und bei dem realen Objekt 274-3 um eine Darstellung eines stationären Objekts 230-1 handeln. Das Format der autonomen Fahrdaten 270 kann auf der Grundlage der späteren Bildanalyse abgeleitet werden und in einem einschlägigen Objektformat vorliegen, beispielsweise in Form von Liniengittern, gezeichneten Vielecken, Punktwolken und dergleichen.
  • Auf der Grundlage der Leiteinrichtungen 272 und der realen Objekte 274 kann das autonome Fahrzeug 210 des TESS 200 erfolgreich durch die Fahrzeugumgebung 220 navigieren. Das autonome Fahrzeug 210 kann zum Beispiel anhalten, abbremsen, seine Richtung verändern oder auf andere Weise auf das Vorhandensein oder die Bewegung realer Objekte 274 reagieren, die auf der Grundlage der von dem Sensor 212 des autonomen Fahrzeugs empfangenen autonomen Fahrdaten ständig aktualisiert werden. Gemäß einem anderen Beispiel kann sich das autonome Fahrzeug 210 selbst orientieren und auf der Grundlage von Leiteinrichtungen 272-1 und 272-2 entlang eines Pfades fahren.
  • 3 zeigt Ersatzdaten 300, die gemäß einigen Ausführungsformen der Offenbarung durch ein TESS 200 erfasst wurden. Die Ersatzdaten 300 können durch einen Betreiber des Anwesens 228-2 erfasst werden. Zum Beispiel können ein oder mehrere Objekte durch Sensoren 250 erfasst und die Daten durch das TESS 200 dem autonomen Fahrzeug 210 bereitgestellt werden. Die durch die Sensoren 250 bereitgestellten Objektdaten können in einem Format vorliegen, das in Einklang mit den lokal durch das autonome Fahrzeug 210 erfassten Daten steht. Gemäß einigen Ausführungsformen können die durch die Sensoren 250 erfassten Objektdaten in einem zweiten Format vorliegen, und das autonome Fahrzeug 210 kann vor dem Verwenden der Ersatzdaten 300 zu Navigationszwecken eine Formatkonvertierung bereitstellen. Die Ersatzdaten 300 können zum Beispiel in einem gebräuchlichen Objektformat wie Liniengitter, gezeichnete Vielecke, Punktwolken und dergleichen vorliegen. Möglicherweise liegen die Ersatzdaten 300 nicht in Form von Sensorrohdaten vor, sodass dem autonomen Fahrzeug 210 keine Bilder von Objekten wie Personen, Autos, Tiere und Eigenschaften bereitgestellt werden, die durch die Sensoren 250 erfasst wurden. Die Ersatzdaten 300 können durch das autonome Fahrzeug gespeichert oder behalten und zum Ermitteln des Verhaltens des autonomen Fahrzeugs 210 verwendet werden, das durch die Fahrzeugumgebung 220 navigiert.
  • Die Ersatzdaten 300 können die Leiteinrichtungen 310-1 und 310-2 umfassen, die den Markierungen 224-2 und 224-3 beziehungsweise den Fahrspuren 222-3 und 222-4 entsprechen. Die Leiteinrichtung 310-1 kann mit einem Zeichen, einer Variablen oder einem anderen Datenelement codiert sein. Das autonome Fahrzeug 210 kann dem Zeichen entnehmen, dass es sich um ein Objekt handelt, das auf der Grundlage zugelassener Sensordaten entschlüsselbar ist. Auf der Grundlage des Zeichens ist das autonome Fahrzeug 210 in der Lage, die Ersatzdaten 300 mit den autonomen Fahrdaten 270 zu verknüpfen, die lokal durch den Sensor 212 des autonomen Fahrzeugs erfasst wurden, um ein komplettes Abbild der Fahrzeugumgebung 220 zu erzeugen. Die Ersatzdaten 300 können reale Objekte 320-1, 320-2, 330, 340 und 350 umfassen. Die realen Objekte 320-1 und 320-2 (allgemein Objekte 320) können den Fußgängern 242-2 beziehungsweise 242-3 entsprechen. Das reale Objekt 330 kann dem stationären Objekt 230-2 entsprechen. Das reale Objekt 340 kann dem Fahrzeug 240-2 entsprechen. Das reale Objekt 350 kann einem stationären Objekt 230-3 entsprechen. Das reale Objekt 350 kann mit Daten, Variablen, Metadaten oder anderen Werten codiert sein, aus denen Informationen über das stationäre Objekt 230-3 hervorgehen. Zum Beispiel kann es sich bei dem stationären Objekt 230-3 um ein Verkehrszeichen handeln, das dem autonomen Fahrzeug 210 Verkehrsvorschriften wie beispielsweise eine Geschwindigkeitsbegrenzung anzeigt.
  • 4 zeigt ein beispielhaftes Systemschaubild 400 eines TESS gemäß einigen Ausführungsformen der Offenbarung. Das Systemschaubild 400 kann eine oder mehrere Komponenten eines TESS zeigen. Zum Beispiel kann das Systemschaubild 400 Folgendes umfassen: ein autonomes Fahrzeug 410, ein Betreibersystem 430 und einen zentralen Server 460. Das autonome Fahrzeug 410, das Betreibersystem 430 und der zentrale Server 460 können mit einer oder mehreren Einheiten oder Modulen ausgestattet sein. Die Einheiten und Module können Software (z.B. ein Betriebssystem, einen Hypervisor, Daemons, Jobs), Hardware (z.B. einen oder mehrere Verarbeitungsschaltkreise, Computer 100 von 1) oder eine Kombination (z.B. Firmware, anwenderprogrammierbare Gate-Arrays) umfassen, die zum Ausführen einer oder mehrerer TESS-Operationen geeignet sind.
  • Das autonome Fahrzeug 410 kann Folgendes umfassen: eine Fahrzeug-Verwaltungseinheit 412, eine Betreiber-Datenübertragungseinheit 414, eine Fahrzeug-Steuereinheit 416 und eine Sensor-Prozessoreinheit 418. Das autonome Fahrzeug kann eine Mehrzahl Sensoren 420-1 bis 420-2 (allgemein 420) des autonomen Fahrzeugs umfassen.
  • Die Fahrzeug-Verwaltungseinheit 412 kann zum Betreiben des autonomen Fahrzeugs 410 und zum Verbinden mit den Betreibersystemen 430 und dem zentralen Server 460 konfiguriert sein. Die Fahrzeug-Verwaltungseinheit 412 kann so konfiguriert sein, dass sie Daten mit dem zentralen Server 460 austauscht. Die Fahrzeug-Verwaltungseinheit 412 kann so konfiguriert sein, dass sie eine Betreibersuche entlang einer Route durchführt. Die Betreibersuche kann sich auf Abfragen an einen Eigentümer von vertraulichen Daten eines oder mehrerer Betreiber beziehen. Bei dem Eigentümer kann es sich um den zentralen Server 460 handeln. Bei dem Eigentümer der vertraulichen Daten kann es sich um den Betreiber handeln, und die Suche kann an die Betreiber-Datenübertragungseinheit 414 gerichtet werden, um sie an das Betreibersystem 430 zu senden. Die Fahrzeug-Verwaltungseinheit 412 kann ferner so konfiguriert sein, dass sie die Tätigkeit der anderen Einheiten des autonomen Fahrzeugs 410 überblickt. Genauer gesagt, die Fahrzeug-Verwaltungseinheit 412 kann zum Verwalten der Reiserouten konfiguriert sein, darunter zum Empfangen von Anforderungen zum Ansteuern verschiedener Ziele und zum Erfragen von Routen von dem zentralen Server 460. Die Fahrzeug-Verwaltungseinheit 412 kann auch so konfiguriert sein, dass sie ein oder mehrere bordeigene Einheiten-Verwaltungssysteme erfassen und empfangen und übergeordnete Entscheidungen in Bezug auf das autonome Fahrzeug 410 fällen kann. Die Fahrzeug-Verwaltungseinheit 412 kann zum Beispiel zum Entscheiden über das Beibehalten einer Route, zum Entscheiden über das Anfordern einer anderen Route und zum Überprüfen des Fahrzeugzustands wie beispielsweise die Akkuladung oder die Tankfüllung konfiguriert sein.
  • Die Betreiber-Datenübertragungseinheit 414 des autonomen Fahrzeugs 410 kann so konfiguriert sein, dass sie Informationen zur Fahrzeug-Verwaltungseinheit 412 und zu den Betreibersystemen 430 weiterleitet. Die Betreiber-Datenübertragungseinheit 414 kann zum Beispiel so konfiguriert sein, dass sie übergeordnete Sensordaten überträgt, beispielsweise einen Zustand, dass gerade Ersatzdaten an die Fahrzeug-Verwaltungseinheit 412 empfangen werden. Die Betreiber-Datenübertragungseinheit 414 kann auch so konfiguriert sein, dass sie Ersatzdaten und autonome Fahrbefehle von den Betreibersystemen 430 empfängt.
  • Die Fahrzeug-Steuereinheit 416 des autonomen Fahrzeugs 410 kann so konfiguriert sein, dass sie Befehle empfängt und ein autonomes Navigieren des autonomen Fahrzeugs 410 ausführt. Die Fahrzeug-Steuereinheit 416 kann Befehle von der Fahrzeug-Verwaltungseinheit 412 empfangen. Die Fahrzeug-Steuereinheit 416 kann so konfiguriert sein, dass sie Befehle und Ersatzdaten von den Betreibersystemen 430 empfängt (z.B. mittels der Betreiber-Datenübertragungseinheit 414). Die Fahrzeug-Steuereinheit 416 kann so konfiguriert sein, dass sie auf der Grundlage der Sensordaten wie beispielsweise der von der Sensor-Prozessoreinheit 418 übernommenen autonomen Fahrdaten arbeitet.
  • Die Sensor-Prozessoreinheit 418 kann so konfiguriert sein, dass sie Sensordaten von den Sensoren 420 des autonomen Fahrzeugs erhält, um Bilddaten zu detektieren, zu ermitteln oder auf andere Weise zu analysieren. Der Sensorprozessor kann als Bildprozessor konfiguriert sein. Bei dem Bildprozessor kann es sich um eine Sammlung von Hardware und Software, beispielsweise ein anwendungsspezifischer integrierter Schaltkreis, handeln.
  • Die Betreibersysteme 430 können Folgendes umfassen: eine Steuer- und Authentifizierungseinheit 4342, eine Fahrzeug-Datenübertragungseinheit 434 und eine Ersatzdaten-Übernahmeeinheit 436. Das Betreibersystem 430 kann zu einem Anwesen wie ein Gebäude, Grund und Boden, ein Gewässer, ein überwachtes Gebiet oder dergleichen gehören. Das betreffende Anwesen kann einen oder mehrere Sensoren 440-1 bis 440-N (440) umfassen, die zum Erfassen und Übertragen von Objektdaten konfiguriert sind, die einem oder mehreren auf dem Anwesen befindlicher realer Objekte entsprechen. Bei dem betreffenden und durch das Betreibersystem 430 kontrollierten Anwesen kann es sich um einen Freizeitpark handeln, und die Kameras auf dem Anwesen gehören dem Freizeitpark und werden durch diesen kontrolliert. Die Kameras des Anwesens können so konfiguriert sein, dass sie eine Reihe von Besuchern auf dem Parkplatz oder die Bewegungen von Fußgängern in unmittelbarer Nähe des Parks (z.B. die Eingänge und die benachbarten Straßen und Landstraßen) erfassen. Das Betreibersystem 430 kann durch Datenübertragung mit einer Informationsdatenbank 450 zum Überwachen von Fahrzeugdaten (alternativ, Fahrzeugdatenbank) verbunden sein. Die Fahrzeugdatenbank 450 kann ein oder mehrere Sensorprofile (z.B. Kameradaten, LiDAR-Standortschaubilder, Radarpläne) enthalten. Die Fahrzeugdatenbank 450 kann auf der Grundlage verschiedener Modelle von autonomen Fahrzeugen organisiert, verknüpft oder verschlüsselt sein. Das autonome Fahrzeug 410 kann zum Beispiel eine bestimmte Konfiguration oder Anordnung von Sensoren 420 des autonomen Fahrzeugs und Verarbeitungsfähigkeiten der Sensor-Prozessoreinheit 418 aufweisen.
  • Die Steuer- und Authentifizierungseinheit 432 kann Daten mit dem zentralen Server 460 austauschen, die Authentifizierungseinheit kann über verschiedene autonome Fahrzeuge in Kenntnis gesetzt werden, die möglicherweise die nähere Umgebung des Anwesens des Betreibersystems 430 (z.B. die dem Anwesen benachbarten Flächen oder Landstraßen, Straßen, Gewässer oder Grund und Boden des Anwesens oder im Nahbereich des Anwesens) befahren möchten. Die Steuer- und Authentifizierungseinheit 432 kann auch so konfiguriert sein, dass sie verschiedenen Fahrzeugen den Zugriff auf den zentralen Server 460 genehmigt, bestätigt oder anderweitig zulässt. Die Steuer- und Authentifizierungseinheit 432 kann auch so konfiguriert sein, dass sie von sich aus Daten mit dem zentralen Server 460 austauscht, wenn sie ein (autonomes oder sonstiges Fahrzeug) detektiert, das nicht berechtigt ist, in den Nahbereich zu kommen. Die Steuer- und Authentifizierungseinheit 432 kann gemäß einigen Ausführungsformen den zentralen Server 460 auffordern, das Durchfahren von Fahrzeugen, die den Nahbereich des Anwesens des Betreibersystems 430 möglicherweise nicht befahren dürfen, umzuleiten, zu verzögern oder anderweitig zu verändern
  • Die Fahrzeug-Datenübertragungseinheit 434 kann mit der Steuer- und Authentifizierungseinheit 432 zusammenarbeiten. Die Fahrzeug-Datenübertragungseinheit 434 kann zum Beispiel in Aktion treten, indem sie einen Status eines oder mehrerer naher oder sich annähernder Fahrzeuge empfängt. Die Fahrzeug-Datenübertragungseinheit 434 kann auch aktiv werden, indem sie die Steuerung und das TESS eines autonomen Fahrzeugs anweist oder anderweitig übernimmt. Die Fahrzeug-Datenübertragungseinheit 434 kann zum Beispiel verschiedene Steuer-, Navigations- oder Fahranweisungen oder -befehle an das autonome Fahrzeug 410 übermitteln. Die Fahrzeug-Datenübertragungseinheit 434 kann auf der Grundlage der von den Sensoren 440 oder von der Betreiber-Datenübertragungseinheit 414 des autonomen Fahrzeugs 410 empfangenen Sensordaten Echtzeitdaten der Sensoren (z.B. Sensordaten) sammeln. Auf der Grundlage der Sensordaten kann die Fahrzeug-Datenübertragungseinheit 434 autonome Fahrdaten erzeugen.
  • Die Ersatzdaten-Erzeugungseinheit 436 kann autonome Fahrdaten für die Fahrzeug-Datenübertragungseinheit 434 erzeugen. Die Ersatzdaten-Erzeugungseinheit 436 kann einen oder mehrere Verarbeitungsschaltkreise enthalten, die zum Analysieren der Sensordaten der Sensoren 440 und zum Durchführen einer Objekterkennung konfiguriert sind. Die Ersatzdaten-Erzeugungseinheit 436 kann einen Bildprozessor enthalten. Die Ersatzdaten-Erzeugungseinheit 436 kann so konfiguriert sein, dass sie Ersatzdaten für das autonome Fahrzeug 410 in Echtzeit oder nahezu in Echtzeit erzeugt. Die Fahrzeug-Datenübertragungseinheit 434 kann Anweisungen zum Verzögern der autonomen Fahrt oder der Steuerung erzeugen, bis die Ersatzdaten erzeugt und dem autonomen Fahrzeug bereitgestellt sind (z.B. eine Verzögerung von dreißig Sekunden, bevor die autonome Fahrt und Navigation aufgenommen werden). Die Ersatzdaten-Erzeugungseinheit 436 kann die Ersatzdaten auf der Grundlage von Sensorprofildaten konvertieren oder formatieren, die in der Fahrzeug-Datenbank 450 gespeichert sind (um z.B. die Sensordaten von den Sensoren 440 in ein für den Sensorprozessor 418 verständliches Format zu formatieren).
  • Der Bildprozessor des Sensorprozessors 418 und die Ersatzdaten-Erzeugungseinheit 436 können so konfiguriert sein, dass sie verschiedene Bildanalysetechniken ausführen. Bei den Bildanalysetechniken kann es sich um Techniken für maschinelles Lernen und/oder mehrschichtiges Lernen (tiefes Lernen) handeln. Zu diesen Techniken können gehören, ohne darauf beschränkt zu sein: auf Regionen beruhende faltende neuronale Netzwerke (region-based convolutional neural networks, R-CNN), das Objekterkennungssystem YOLO (you only look once), Kantenerkennung, Clusterbildung, Graustufenzuordnung, Gradientenzuordnung, Invarianzmodelle, geometrische Hashverfahren, skaleninvariante Merkmalstransformation (scale-invariant feature transform, SIFT), beschleunigte robuste Funktionen (speeded up robust feature, SURF), Merkmalsgewinnung durch Histogramm ausgerichteter Gradienten (histogram of oriented gradients features HOG) und Einzelbild-Mehrfachrahmen-Detektor (single shot multibox detector, SSD). Gemäß einigen Ausführungsformen kann der Bildprozessor so konfiguriert sein, dass er ein Erkennen von Objekten in einer Umgebung unterstützt (z.B. durch Analysieren der Bilder von Gesichtern unter Verwendung eines auf Trainingsdaten von Tieren, Personen und Kindern und sich bewegenden Objekten beruhenden Modells, durch Analysieren der Bilder von Kraftfahrzeugen unter Verwendung eines auf Trainingsdaten von Lastkraftwagen, Personenkraftwagen, Autobussen und anderen Fahrzeugen beruhenden Modells).
  • Gemäß einigen Ausführungsformen können Objekte unter Verwendung eines Objektdetektions-Algorithmus wie R-CNN, YOLO, SSD, SIFT, HOG-Merkmale und anderen Objektdetektions-Algorithmen für maschinelles Lernen und/oder für mehrschichtiges Lernen erkannt werden. Die Ausgabe des Objektdetektions-Algorithmus kann ein oder mehrere Merkmale eines oder mehrerer entsprechender Objekt mit entsprechenden Trefferwahrscheinlichkeiten enthalten. Zum Beispiel können Sensordaten von den Sensoren 420 eines autonomen Fahrzeugs oder von den Sensoren 440 in Bezug auf Merkmale wie laufende Kinder, gehende Erwachsene und sich bewegende Tiere analysiert werden. Unter Verwendung eines geeigneten Objektdetektions-Algorithmus können die verschiedenen Merkmale als Objekte mit Grenzen, Rahmen, Vielecken, Liniengitter und dergleichen erkannt werden.
  • Gemäß einigen Ausführungsformen können Merkmale der Objekte unter Verwendung eines Modells für überwachtes maschinelles Lernen ermittelt werden, das unter Verwendung von Trainingsdaten erstellt wurde. Zum Beispiel kann ein Bild in das Modell für überwachtes maschinelles Lernen eingegeben werden, und durch das Modell können verschiedene innerhalb des Bildes detektierte Klassifikationen ausgegeben werden. Durch das Modell für überwachtes maschinelles Lernen können Eigenschaften wie das Material von Objekten (z.B. Stoff, Metall, Kunststoff usw.), Form, Größe, Farbe und andere Eigenschaften ausgegeben werden. Ferner kann die Erkennung von Objekten (z.B. ein Baum, ein menschliches Gesicht, ein Hund usw.) als durch das Modell für überwachtes maschinelles Lernen ermitteltes Klassifikationsmerkmal ausgegeben werden. Ein Algorithmus für überwachtes maschinelles Lernen so konfiguriert sein, dass er eine Bezeichnung des Objektes (z.B. Kraftfahrzeug) sowie verschiedene Eigenschaften dieses Fahrzeugs (z.B. das Modell, die Marke, die Farbe usw.) ausgibt, wenn das autonome Fahrzeug 410 zum Beispiel ein Bild eines anderen Fahrzeugs aufnimmt.
  • Gemäß einigen Ausführungsformen können Eigenschaften von Objekten unter Verwendung photogrammetrischer Techniken ermittelt werden. Unter Verwendung photogrammetrischer Techniken können zum Beispiel Formen und Abmessungen von Objekten annähernd ermittelt werden. Gemäß einigen Ausführungsformen können Eigenschaften von Objekten durch Bezugnahme auf abstrakte Objekte erkannt werden. Wenn zum Beispiel ein Objekt (z.B. unter Verwendung eines R-CNN) erkannt wird, kann die Identität des Objekts auf ein abstraktes Objekt bezogen werden, um entsprechende Eigenschaften des Objekts zu ermitteln. Das abstrakte Objekt kann Eigenschaften wie Farbe, Größe, Form, Verwendungszweck usw. des Objekts anzeigen. Das abstrakte Objekt kann Beziehungen des Objekts zu einer oder mehreren Vorschriften oder Regeln anzeigen, z.B. Verkehrszeichen, die Geschwindigkeitsbeschränkungen vorgeben, ein Verkehrszeichen, das eine bedingte Geschwindigkeitsbeschränkung bei Anwesenheit von Kindern auferlegt, und gleichzeitig ein zweites als Kind kenntliches Objekt.
  • Eigenschaften können die Formen von Objekten, Abmessungen (z.B. Höhe, Länge und Breite) von Objekten, eine Anzahl von Objekten (z.B. die Anzahl der Frontscheinwerfer, die für einen Personenkraftwagen typisch sind), Farben von Objekten und/oder andere Eigenschaften von Objekten umfassen. Gemäß einigen Ausführungsformen kann als Ausgabe eine Liste erzeugt werden, die die Identität und/oder die Eigenschaften von Objekten enthält (z.B. Baumwollhemd, Brille mit Metallrand, Pelz eines Tieres, Körpergröße einer Person usw.). Gemäß einigen Ausführungsformen kann die Ausgabe einen Hinweis enthalten, dass die Identität oder die Eigenschaft eines Objekts unbekannt ist. Gemäß einigen Ausführungsformen können verschiedene Objekte, Objekteigenschaften und Beziehungen zwischen Objekten (z.B. hierarchische und direkte Beziehungen) innerhalb einer Struktur von Wissensgraphen (knowledge graph - KG) dargestellt werden. Objekte können miteinander verglichen werden, z.B. auf der Grundlage gemeinsamer Eigenschaften (z.B. Hautfarbe des Kinns einer Person, Reflexionsgrad einer Windschutzscheibe eines Autos, Muster oder sich wiederholende Signalstärke einer bestimmten Farbe, was auf eine Mittellinie oder eine Fahrbahnbegrenzung auf einer Straße hinweist), Beziehungen zu anderen Objekten (z.B. gehört ein Auge zu einem Gesicht), oder zu derselben Klasse gehörende Objekte (z.B. zwei Fahrzeuge fahren soeben, während es sich bei einem dritten Fahrzeug um ein stehendes Objekt handelt).
  • Der zentrale Server 460 kann zum Austauschen von Daten mit dem autonomen Fahrzeug 410 und dem Betreibersystem 430 verbunden sein. Der zentrale Server 460 kann eine Routenleiteinheit 462 und eine Einheit für reglementierte Bereiche 464 umfassen. Die Routenleiteinheit 462 kann so konfiguriert sein, dass sie Anforderungen von autonomen Fahrzeugen (z.B. vom autonomen Fahrzeug 410) empfängt, verarbeitet und darauf reagiert. Die Routenleiteinheit 462 kann so konfiguriert sein, dass sie auf der Grundlage von Kartendaten 466 autonomen Fahrzeugen Richtungen, Wege, Landstraßen, Straßen und andere Informationen bereitstellt. Die Routenleiteinheit 462 kann auch so konfiguriert sein, dass sie für Betreiber Positionsdaten entlang Routen fahrender Fahrzeuge überwacht und verfolgt. Zum Beispiel kann der zentrale Server 460 durch das Betreibersystem 430 über den Status eines beliebigen Fahrzeugs abgefragt werden, das sich dem Anwesen des Betreibersystems 430 nähert. Die Routenleiteinheit 462 kann als Reaktion auf eine Abfrage einen Status eines autonomen Fahrzeugs 410 bereitstellen (z.B. wenn sich das autonome Fahrzeug 410 dem Anwesen des Betreibersystems 430 nähert oder sich in dessen Nähe befindet. Das Routenleitsystem 462 kann so konfiguriert sein, dass es eine Route betreffende, bedingte Erlaubnisse übermittelt. Die bedingte Erlaubnis kann zum Beispiel besagen, dass gegebenenfalls ein oder mehrere Sensoren 420 des autonomen Fahrzeugs keine Daten eines oder mehrerer nahe der Route gelegenen Anwesen erfassen dürfen.
  • Die Einheit für reglementierte Bereiche 464 kann Daten nur mit den Betreibersystemen und der Routenleiteinheit 462 austauschen. Die Routenleiteinheit 462 kann Anfragen an die Einheit 464 für reglementierte Bereiche stellen. Auch die Betreibersysteme können Anfragen an die Einheit für reglementierte Bereiche 464 richten. Die Anfragen können in Form von Anfragen zum Ermitteln gestellt werden, wenn Routen autonomer Fahrzeuge über die Grenzen eines reglementierten Anwesens oder in dessen Nähe führen. Die Anfragen können in Form einer Aktualisierung an die Informationsdatenbank 468 für reglementierte Bereiche gestellt werden. Die Einheit für reglementierte Bereiche 464 kann Informationen über reglementierte Anwesen verwalten und die Informationen der Anwesen in der Informationsdatenbank 468 für reglementierte Bereiche speichern und aktualisieren. Auf der Grundlage der Informationen kann die Einheit für reglementierte Bereiche 464 die Routenleiteinheit 462 aktualisieren und diese benachrichtigen, wenn ein autonomes Fahrzeug auf dem Weg in ein reglementiertes Anwesen ist.
  • 5 zeigt ein beispielhaftes Verfahren 500 zum Ausführen eines TESS gemäß einigen Ausführungsformen der Offenbarung. Das TESS kann durch eine Verarbeitungseinheit eines Computersystems (z.B. des Computers 100) ausgeführt werden. Das TESS kann in Schritt 510 beginnen, wenn von einem autonomen Fahrzeug (z.B. von dem autonomen Fahrzeug 210 von 2A) eine Route angefordert wird (Navigationsanforderung). Die Anforderung kann durch ein autonomes Fahrzeug übertragen und an einen zentralen Server (z.B. den zentralen Server 460 von 4) gesendet werden. Die Routenanforderung kann Fahrzeugdaten eines autonomen Fahrzeugs enthalten. Die Fahrzeugdaten können ein oder mehrere der folgenden enthalten: die aktuelle Position des autonomen Fahrzeugs; ein angefordertes Ziel für das autonome Fahrzeug; eine Liste eines oder mehrerer Sensoren des autonomen Fahrzeugs. Die Liste des einen oder mehrerer Sensoren kann eine Auflistung von Sensorfähigkeiten und -eigenschaften enthalten. Die Liste des einen oder mehrerer Sensoren kann Systemdaten enthalten. Die Systemdaten können Parameter von Ersatzdaten enthalten, die durch das autonome Fahrzeug verarbeitet werden können.
  • In Schritt 512 kann für das autonome Fahrzeug eine Route erzeugt werden. Die Route kann durch einen zentralen Server (z.B. durch den zentralen Server 460 von 4) erzeugt werden. Das Erzeugen der Route kann einen oder mehrere Routenfaktoren einbeziehen (z.B. das Verkehrsaufkommen, Geschwindigkeitsbeschränkungen, Alternativen Wettermuster usw.). Das Erzeugen der Route kann durch einen Betreiber beeinflusst werden. Betreiber können zum Beispiel Vorschläge an den zentralen Server senden, und der zentrale Server kann die Route während des Erzeugens anpassen. Das Erzeugen der Route kann auf dem Abfragen einer Kartendatenbank (z.B. Kartendaten 466 von 4) beruhen.
  • In Schritt 514 kann eine erzeugte Route für einen oder mehrere reglementierte Bereiche 514 ausgesucht werden. Die Suche nach reglementierten Bereichen 514 kann auf einer Suche im Rahmen eines vorgegebenen Schwellenwertes erfolgen. Bei einem vorgegebenen Schwellenwert kann es sich zum Beispiel um eine Suche nach einem reglementierten Bereich im Umkreis einer Meile (ca. 1,6 km) entlang der Route handeln. Gemäß einem anderen Beispiel kann es sich bei einem vorgegebenen Schwellenwert um eine Suche nach einem reglementierten Bereich im Umkreis einer Drittelmeile (ca. 0,5 km) entlang der Route handeln. Bei der Suche nach reglementierten Bereichen 514 kann es sich um eine Suche nach reglementierten Bereichen handeln, die einer Route benachbart sind, z.B. in einer Straße entlang der Route, die einem reglementierten Bereich benachbart ist.
  • Wenn bei der Suche ein reglementierter Bereich gefunden wird, Schritt 516: Ja, können in Schritt 520 Fahrzeugdaten empfangen werden. Die Fahrzeugdaten können durch einen Betreiber empfangen werden, bei dem sich herausstellte, dass er der erzeugten Route benachbart ist. Gemäß 4 können durch das Betreibersystem 430 Fahrzeugdaten empfangen werden, nachdem festgestellt wurde, dass das autonome Fahrzeug 410 auf einer erzeugten Route fährt, die einen Teil der Route enthält, der sich in der Nähe des durch das Betreibersystem 430 überwachten Anwesens befindet. Bei den empfangenen Fahrzeugdaten kann es sich um eine unveränderte Version der Fahrzeugdaten handeln, die in Schritt 510 zusammen mit der Routenanforderung empfangen wurden. Gemäß einigen Ausführungsformen kann der empfangene Status eine veränderte Version des Fahrzeugstatus enthalten. Zum Beispiel können in den Fahrzeugdaten enthaltene personenbezogene Informationen vor dem Empfangen durch den zentralen Server in Schritt 520 entfernt werden. In Schritt 522 kann die Steuerbarkeit des Fahrzeugs ermittelt werden. Die Ermittlung kann durch den Betreiber (z.B. durch das Betreibersystem 430) erfolgen. Die Ermittlung kann durch eine Analyse der empfangenen Daten des autonomen Fahrzeugs erfolgen. Zum Beispiel durch Analysieren der Liste eines oder mehrerer Sensoren und der Liste einer oder mehrerer Sensorfähigkeiten. Wenn in Schritt 524: Nein festgestellt wird, dass ein Fahrzeug nicht steuerbar ist, kann die Route in Schritt 512 erneut erzeugt werden. Die Route kann in Schritt 512 erneut erzeugt werden, indem das autonome Fahrzeug von der näheren Umgebung des Anwesens weg umgeleitet wird.
  • Wenn in Schritt 524: Ja festgestellt wird, das ein Fahrzeug steuerbar ist, kann das Anwesen des Betreibers in Schritt 526 nach Ersatzdaten abgesucht werden. Bei der Suche nach Ersatzdaten kann es sich um eine Suche nach Daten mit ausreichend hoher Auflösung handeln. Zum Beispiel können auf dem Anwesen angebrachte Kameras in der Lage sein, Objekte mit ausreichend hoher Pixelauflösung zu erfassen. Die Suche kann eine Feststellung umfassen, dass Sensoren in der Lage sind, Objekte um das Anwesen herum mit einer ausreichend hohen Bildfrequenz zu erfassen, um die Bewegung oder Geschwindigkeit der Objekte zu erfassen. Zum Beispiel kann durch die Bildverarbeitung und das Detektieren festgestellt werden, dass sich auf einem Anwesen ein Mensch befindet, der sich mit einer Geschwindigkeit von siebenundzwanzig Meilen pro Stunde (ca. 43 km/h) bewegt. Gemäß einem anderen Beispiel kann beim Absuchen ein Fahrzeug detektiert werden, das sich mit einer Geschwindigkeit von 100 Meilen pro Stunde (ca. 160 km/h) bewegen kann. Auf der Grundlage der durch Objekte in der Nähe eines Anwesens erreichbaren Geschwindigkeiten kann ein Betreiber feststellen, dass sich hier ein Sensor mit einer Bildfrequenz befindet, die zum Erfassen der Objekte geeignet ist.
  • Die Suche nach Ersatzdaten kann durch einen Betreiber erfolgen, dem das Anwesen und die Sensoren des Anwesens gehören und der diese überwacht. Das Betreibersystem 430 kann zum Beispiel so konfiguriert sein, dass es die Sensoren 440 beobachtet und feststellt, dass die Ersatzdaten ausreichen. Die Suche nach Ersatzdaten kann eine Suche nach Daten umfassen, die sich mit den von dem autonomen Fahrzeug empfangenen Systemdaten abstimmen. Da die Systemdaten das Format der Daten enthalten können, kann es sich bei der Suche um eine Suche nach Daten handeln, die dem durch das autonome Fahrzeug angeforderten/verlangten Format entsprechen. Gemäß einigen Ausführungsformen müssen die Daten gegebenenfalls konvertiert werden, und die Suche nach Ersatzdaten kann eine Suche nach Verarbeitungskapazität, Speicherbandbreite oder anderen Datenverarbeitungsressourcen einschließen, die zum Konvertieren in ein ursprüngliches Format für das autonome Fahrzeug verfügbar sein. Die Suche nach Ersatzdaten kann ein Feststellen, dass ein Betreiber eine ausreichende Datenqualität bereitstellen kann, sowie ein Feststellen einschließen, dass ein Betreiber Daten bereitstellen kann, die mit einem geforderten System eines autonomen Fahrzeugs konform sind. Wenn in Schritt 528: Nein keine Ersatzdaten für das Anwesen vorliegen, kann die Route in Schritt 512 erneuert werden. Die Route kann in Schritt 512 erneuert werden, indem das autonome Fahrzeug vom Nahbereich des Anwesens weg umgeleitet wird. Wenn in Schritt 528: Ja Ersatzdaten vorliegen, können die Ersatzdaten in Schritt 530 formatiert und übertragen werden. Die Ersatzdaten können dann zum zentralen Server zurück übertragen werden, um dann zu dem autonomen Fahrzeug übertragen zu werden. Die Ersatzdaten können direkt zu dem autonomen Fahrzeug übertragen werden.
  • Nach dem Übertragen der Ersatzdaten zu einem Fahrzeug kann die erneuerte Route auf weitere reglementierte Bereiche 514 hin durchsucht werden. Wenn in Schritt 516: Nein keine reglementierten Bereiche gefunden werden, kann das Fahrzeug in Schritt 518 weitergeleitet werden. Zum Weiterleiten des autonomen Fahrzeugs in Schritt 518 ist möglicherweise eine Genehmigung zum Starten der autonomen Fahrt durch das autonome Fahrzeug erforderlich. Das Verfahren 500 ist beendet, nachdem das Fahrzeug in Schritt 518 weitergeleitet wurde.
  • 6 zeigt ein beispielhaftes Verfahren 600 zum Ausführen eines TESS gemäß einigen Ausführungsformen der Offenbarung. Das TESS kann durch eine Verarbeitungseinheit eines Computersystems (z.B. des Computers 100 von 1) ausgeführt werden. Das Verfahren 600 kann nach dem Verfahren 500 ausgeführt werden - zum Beispiel, sobald sich ein autonomes Fahrzeug auf eine Route begibt, die durch einen zentralen Server erzeugt wurde.
  • Das Verfahren 600 beginnt, wenn in Schritt 610 ein reglementierter Bereich erkannt wird. Der Bereich kann durch ein autonomes Fahrzeug (z.B. durch das autonome Fahrzeug von 4) erkannt werden. Der Bereich kann durch das autonome Fahrzeug auf der Grundlage von Routendaten erkannt werden, die durch einen zentralen Server (z.B. durch den zentralen Server 460 von 4) empfangen wurden. Das Erkennen durch das autonome Fahrzeug kann auf der Grundlage eines oder mehrerer Sensoren des autonomen Fahrzeugs erfolgen. Das autonome Fahrzeug kann zum Beispiel einen GPS-Sensor haben, der so konfiguriert ist, dass er das autonome Fahrzeug leitet und ortet. Das autonome Fahrzeug kann auch über empfangene Informationen über den Breitengrad und den Längengrad von reglementierten Bereichen von dem zentralen Server verfügen. Das Erkennen des autonomen Fahrzeugs kann auf einem Empfangen einer Nachricht von einem Betreiber beruhen. Ein Betreiber kann zum Beispiel ein Signal rundsenden, das autonome Fahrzeuge in der Nähe benachrichtigt, dass der Betreiber eine Authentifizierung anfordert, bevor das autonome Fahrzeug den Nahbereich befahren darf.
  • In Schritt 612 können die Informationen des autonomen Fahrzeugs an den Betreiber gesendet werden. Die Informationen können Folgendes enthalten: eine Kennung des autonomen Fahrzeugs; Einheiteninformationen des autonomen Fahrzeugs; ein Standort des autonomen Fahrzeugs; Sensordaten des autonomen Fahrzeugs; und Systemdaten der potenziellen Ersatzdaten, die durch das autonome Fahrzeug empfangen werden können.
  • In Schritt 620 kann eine Genehmigung bestätigt werden, dass sich das autonome Fahrzeug im Nahbereich des Anwesens des Betreibers befinden darf. Die Genehmigung kann auf der Grundlage von dem autonomen Fahrzeug empfangener Informationen bestätigt werden. Die Genehmigung kann durch einen Betreiber (z.B. durch das Betreibersystem 430 von 4) bestätigt werden. Wenn der Betreiber in Schritt 622: Nein keine Genehmigung erteilt, kann das autonome Fahrzeug durch Betreiber in Schritt 624 darüber benachrichtigt werden. Die Benachrichtigung kann anzeigen, dass ein Durchfahren eines Nahbereichs des Anwesens des Betreibers durch das autonome Fahrzeug untersagt ist. Auf der Grundlage der Benachrichtigung kann das autonome Fahrzeug in Schritt 614 eine neue Route anfordern, und das Verfahren 600 kann damit beendet sein.
  • Wenn der Betreiber in Schritt 622: Ja eine Genehmigung erteilt hat, kann er in Schritt 626 eine Bestätigung der Genehmigung an das autonome Fahrzeug senden. Die Bestätigung der Genehmigung in Schritt 626 kann einen Beginn der Ersatzdaten auf der Grundlage der Systemdaten enthalten, die in Schritt 612 gesendet wurden. Auf der Grundlage der empfangenen Bestätigung der Genehmigung kann das autonome Fahrzeug in Schritt 616 auf abgestimmte Weise mit dem Fahren beginnen. Der abgestimmte Betrieb kann ein Empfangen von Ersatzdaten von dem Betreiber umfassen. Das Betreibersystem 630 kann zum Beispiel ständig Ersatzdaten und Steuerdaten an das autonome Fahrzeug senden. Sobald das autonome Fahrzeug in Schritt 616 den Betrieb in Abstimmung mit dem Betreiber aufnimmt, kann das Verfahren 600 beendet werden.
  • 7 zeigt ein beispielhaftes Verfahren 700 zum Ausführen eines TESS gemäß einigen Ausführungsformen der Offenbarung. Das TESS kann durch eine Verarbeitungseinheit eines Computersystems (z.B. des Computers 100 von 1) ausgeführt werden. Das Verfahren 700 kann gemäß einigen Ausführungsformen durch Ausführen des TESS in Verbindung mit einem autonomen Fahrzeug (z.B. mit dem autonomen Fahrzeug 210 von 2) und einem Betreiber (z.B. mit dem Betreibersystem 430 von FIG: 4) ausgeführt werden. Das Verfahren 700 kann nach dem Verfahren 600 ausgeführt werden. Das Verfahren 700 beginnt zum Beispiel, wenn ein autonomes Fahrzeug in einen reglementierten Bereich einfährt. Bei dem Einfahren in den reglementierten Bereich kann es sich um ein Einfahren in einen Nahbereich eines reglementierten Bereichs handeln.
  • In Schritt 712 kann das autonome Fahrzeug seine aktuellen Positions- und andere Telemetriedaten (z.B. Geschwindigkeit, Höhe, Standplatz, Sensorstatus des autonomen Fahrzeugs) an einen Betreiber übermitteln. Das autonome Fahrzeug 410 kann zum Beispiel Positions- und Telemetriedaten an das Betreibersystem 430 übermitteln. In Schritt 720 kann ein Betreiber mit dem Versuch beginnen, das autonome Fahrzeug zu unterstützen. Ein Versuch zum Unterstützen kann ein Durchsuchen der empfangenen Positionsdaten umfassen. Der Versuch zum Unterstützen kann ein Feststellen umfassen, dass das autonome Fahrzeug in der Lage ist, ohne Nutzung oder unter Einschränkung der Fähigkeiten eines oder mehrerer Sensoren des autonomen Fahrzeugs autonom zu fahren und zu navigieren. Wenn in Schritt 722: Nein festgestellt wird, dass das autonome Fahrzeug nicht unterstützbar ist, kann der Betreiber in Schritt 724 das autonome Fahrzeug zum Verlassen des reglementierten Bereichs auffordern. Auf der Grundlage des Empfangens einer Aufforderung zum Verlassen des reglementierten Bereichs kann das autonome Fahrzeug seine Route so anpassen, dass es den reglementierten Bereich schnellstmöglich verlässt. In Schritt 730 kann das autonome Fahrzeug den reglementierten Bereich 730 verlassen, nachdem es vom Betreiber eine Aufforderung zum Verlassen empfangen hat.
  • Wenn das autonome Fahrzeug in Schritt 722: Ja unterstützbar ist, kann der Betreiber in Schritt 740 ermitteln, ob das autonome Fahrzeug auf der Grundlage des Betriebs mit Ersatzdaten funktionieren kann. Das Ermitteln kann darauf beruhen, ob das autonome Fahrzeug zum Empfangen von Ersatzdaten von dem Betreiber konfiguriert ist. Das Ermitteln kann darauf beruhen, ob das autonome Fahrzeug so konfiguriert ist, dass es die Ersatzdaten mit einem oder mehreren Datenwerten des autonomen Fahrzeugs verknüpfen kann, die durch das autonome Fahrzeug von dessen einem oder mehreren Sensoren erzeugt wurden.
  • Wenn das autonome Fahrzeug in Schritt 740: Ja imstande ist, auf der Grundlage des Betriebs mit Ersatzdaten zu funktionieren, kann der Betrieb mit Ersatzdaten in Schritt 750 beginnen. Der Betrieb mit Ersatzdaten kann fortwährend durchgeführt werden. Der Betrieb mit Ersatzdaten kann zum Beispiel jede Sekunde, alle 100 Millisekunden, sechsmal pro Sekunde usw. durchgeführt werden. Der Betrieb mit Ersatzdaten kann das Übermitteln der Ersatzdaten an das autonome Fahrzeug einschließen. Die Ersatzdaten können durch den Betreiber und auf der Grundlage empfangener Systemdaten konvertiert werden, bevor sie an das autonome Fahrzeug übermittelt werden. Gemäß einigen Ausführungsformen kann das autonome Fahrzeug das Konvertieren der Ersatzdaten zur Verwendung beim automatischen Fahren und Navigieren durchführen. Der Betrieb mit Ersatzdaten kann auch ein Einschränken der Sensoren des autonomen Fahrzeugs einschließen. Ein Betreiber kann zum Beispiel ein Deaktivierungssignal, ein Einschränkungssignal oder ein anderes Signal übermitteln, und das autonome Fahrzeug kann als Reaktion darauf das Erfassen von Sensordaten durch einen oder mehrere Sensoren des autonomen Fahrzeugs deaktivieren oder einschränken. Der Betrieb mit Ersatzdaten kann durch den Betreiber durchgeführt werden, indem dieser die Ersatzdaten übermittelt und das autonome Fahrzeug so lange durch die Umgebung navigiert, bis das autonome Fahrzeug in Schritt 730 den reglementierten Bereich verlässt.
  • Wenn das autonome Fahrzeug in Schritt 740: Nein nicht zum Funktionieren auf der Grundlage des Betriebs mit Ersatzdaten in der Lage ist, befährt das autonome Fahrzeug den reglementierten Bereich durch Fernsteuerung 760. Die Fernsteuerung 760 kann ein Navigieren und Fahren des autonomen Fahrzeugs auf der Grundlage von Sensordaten und Telemetriedaten umfassen, die durch das autonome Fahrzeug ständig an den Betreiber oder einen zentralen Server übermittelt werden. Der Betreiber oder der zentrale Server kann das autonome Fahren übernehmen, und das autonome Fahrzeug ist nicht in der Lage, die Sensordaten der Sensoren des autonomen Fahrzeugs zu erfassen, aufzuzeichnen oder anderweitig zu analysieren. Die Fernsteuerung kann so lange durchgeführt werden, bis das autonome Fahrzeug in Schritt 730 den reglementierten Bereich verlässt. Nachdem das autonome Fahrzeug in Schritt 730 den Bereich verlassen hat, kann das Verfahren 700 beendet werden.
  • Bei der vorliegenden Erfindung kann es sich um ein System, ein Verfahren und/oder ein Computerprogrammprodukt auf jeder möglichen Integrationsebene technischer Details handeln. Das Computerprogrammprodukt kann ein durch einen Computer lesbares Speichermedium (oder -medien) mit durch einen Computer lesbaren Programmanweisungen darauf umfassen, um einen Prozessor dazu zu veranlassen, Aspekte der vorliegenden Erfindung auszuführen.
  • Bei dem durch einen Computer lesbaren Speichermedium kann es sich um eine physische Einheit handeln, die Anweisungen zur Verwendung durch ein System zur Ausführung von Anweisungen behalten und speichern kann. Bei dem durch einen Computer lesbaren Speichermedium kann es sich zum Beispiel um eine elektronische Speichereinheit, eine magnetische Speichereinheit, eine optische Speichereinheit, eine elektromagnetische Speichereinheit, eine Halbleiterspeichereinheit oder jede geeignete Kombination daraus handeln, ohne auf diese beschränkt zu sein. Zu einer nicht erschöpfenden Liste spezifischerer Beispiele des durch einen Computer lesbaren Speichermediums gehören die Folgenden: eine auswechselbare Computerdiskette, eine Festplatte, ein Direktzugriffsspeicher (RAM), ein Nur-Lese-Speicher (ROM), ein löschbarer programmierbarer Nur-Lese-Speicher (EPROM bzw. Flash-Speicher), ein statischer Direktzugriffsspeicher (SRAM), ein auswechselbarer Kompaktspeicherplatte-Nur-Lese-Speicher (CD-ROM), eine DVD (digital versatile disc), ein Speicher-Stick, eine Diskette, eine mechanisch kodierte Einheit wie zum Beispiel Lochkarten oder erhabene Strukturen in einer Rille, auf denen Anweisungen gespeichert sind, und jede geeignete Kombination daraus. Ein durch einen Computer lesbares Speichermedium soll in der Verwendung hierin nicht als flüchtige Signale an sich aufgefasst werden, wie zum Beispiel Funkwellen oder andere sich frei ausbreitende elektromagnetische Wellen, elektromagnetische Wellen, die sich durch einen Wellenleiter oder ein anderes Übertragungsmedium ausbreiten (z.B. ein Lichtwellenleiterkabel durchlaufende Lichtimpulse) oder durch einen Draht übertragene elektrische Signale.
  • Hierin beschriebene, durch einen Computer lesbare Programmanweisungen können von einem durch einen Computer lesbaren Speichermedium auf jeweilige Datenverarbeitungs-/Verarbeitungseinheiten oder über ein Netzwerk wie zum Beispiel das Internet, ein lokales Netzwerk, ein Weitverkehrsnetzwerk und/oder ein drahtloses Netzwerk auf einen externen Computer oder eine externe Speichereinheit heruntergeladen werden. Das Netzwerk kann Kupferübertragungskabel, Lichtwellenübertragungsleiter, drahtlose Übertragung, Leitwegrechner, Firewalls, Vermittlungseinheiten, Gateway-Computer und/oder Edge-Server umfassen. Eine Netzwerkadapterkarte oder Netzwerkschnittstelle in jeder Datenverarbeitungs-/Verarbeitungseinheit empfängt durch einen Computer lesbare Programmanweisungen aus dem Netzwerk und leitet die durch einen Computer lesbaren Programmanweisungen zur Speicherung in einem durch einen Computer lesbaren Speichermedium innerhalb der entsprechenden Datenverarbeitungs-/Verarbeitungseinheit weiter.
  • Bei durch einen Computer lesbaren Programmanweisungen zum Ausführen von Arbeitsschritten der vorliegenden Erfindung kann es sich um Assembler-Anweisungen, ISA-Anweisungen (Instruction-Set-Architecture), Maschinenanweisungen, maschinenabhängige Anweisungen, Mikrocode, Firmware-Anweisungen, zustandssetzende Daten oder entweder Quellcode oder Objektcode handeln, die in einer beliebigen Kombination aus einer oder mehreren Programmiersprachen geschrieben werden, darunter objektorientierte Programmiersprachen wie Smalltalk, C++ o.ä. sowie herkömmliche prozedurale Programmiersprachen wie die Programmiersprache „C“ oder ähnliche Programmiersprachen. Die durch einen Computer lesbaren Programmanweisungen können vollständig auf dem Computer des Benutzers, teilweise auf dem Computer des Benutzers, als eigenständiges Software-Paket, teilweise auf dem Computer des Benutzers und teilweise auf einem fernen Computer oder vollständig auf dem fernen Computer oder Server ausgeführt werden. In letzterem Fall kann der entfernt angeordnete Computer mit dem Computer des Benutzers durch eine beliebige Art Netzwerk verbunden sein, darunter ein lokales Netzwerk (LAN) oder ein Weitverkehrsnetzwerk (WAN), oder die Verbindung kann mit einem externen Computer hergestellt werden (zum Beispiel über das Internet unter Verwendung eines Internet-Dienstanbieters). In einigen Ausführungsformen können elektronische Schaltungen, darunter zum Beispiel programmierbare Logikschaltungen, vor Ort programmierbare Gatter-Anordnungen (FPGA, field programmable gate arrays) oder programmierbare Logikanordnungen (PLA, programmable logic arrays) die durch einen Computer lesbaren Programmanweisungen ausführen, indem sie Zustandsinformationen der durch einen Computer lesbaren Programmanweisungen nutzen, um die elektronischen Schaltungen zu personalisieren, um Aspekte der vorliegenden Erfindung durchzuführen.
  • Aspekte der vorliegenden Erfindung sind hierin unter Bezugnahme auf Ablaufpläne und/oder Blockschaltbilder bzw. Schaubilder von Verfahren, Vorrichtungen (Systemen) und Computerprogrammprodukten gemäß Ausführungsformen der Erfindung beschrieben. Es wird darauf hingewiesen, dass jeder Block der Ablaufpläne und/oder der Blockschaltbilder bzw. Schaubilder sowie Kombinationen von Blöcken in den Ablaufplänen und/oder den Blockschaltbildern bzw. Schaubildern mittels durch einen Computer lesbare Programmanweisungen ausgeführt werden können.
  • Diese durch einen Computer lesbaren Programmanweisungen können einem Prozessor eines Computers oder einer anderen programmierbaren Datenverarbeitungsvorrichtung bereitgestellt werden, um eine Maschine zu erzeugen, so dass die über den Prozessor des Computers bzw. der anderen programmierbaren Datenverarbeitungsvorrichtung ausgeführten Anweisungen ein Mittel zur Umsetzung der in dem Block bzw. den Blöcken der Ablaufpläne und/oder der Blockschaltbilder bzw. Schaubilder festgelegten Funktionen/Schritte erzeugen. Diese durch einen Computer lesbaren Programmanweisungen können auch auf einem durch einen Computer lesbaren Speichermedium gespeichert sein, das einen Computer, eine programmierbare Datenverarbeitungsvorrichtung und/oder andere Einheiten so steuern kann, dass sie auf eine bestimmte Art funktionieren, so dass das durch einen Computer lesbare Speichermedium, auf dem Anweisungen gespeichert sind, ein Herstellungsprodukt umfasst, darunter Anweisungen, welche Aspekte der/des in dem Block bzw. den Blöcken des Ablaufplans und/oder der Blockschaltbilder bzw. Schaubilder festgelegten Funktion/Schritts umsetzen.
  • Die durch einen Computer lesbaren Programmanweisungen können auch auf einen Computer, eine andere programmierbare Datenverarbeitungsvorrichtung oder eine andere Einheit geladen werden, um das Ausführen einer Reihe von Prozessschritten auf dem Computer bzw. der anderen programmierbaren Vorrichtung oder anderen Einheit zu verursachen, um einen auf einem Computer ausgeführten Prozess zu erzeugen, so dass die auf dem Computer, einer anderen programmierbaren Vorrichtung oder einer anderen Einheit ausgeführten Anweisungen die in dem Block bzw. den Blöcken der Ablaufpläne und/oder der Blockschaltbilder bzw. Schaubilder festgelegten Funktionen/Schritte umsetzen.
  • Die Ablaufpläne und die Blockschaltbilder bzw. Schaubilder in den Figuren veranschaulichen die Architektur, die Funktionalität und den Betrieb möglicher Ausführungen von Systemen, Verfahren und Computerprogrammprodukten gemäß verschiedenen Ausführungsformen der vorliegenden Erfindung. In diesem Zusammenhang kann jeder Block in den Ablaufplänen oder Blockschaltbildern bzw. Schaubildern ein Modul, ein Segment oder einen Teil von Anweisungen darstellen, die eine oder mehrere ausführbare Anweisungen zur Ausführung der festgelegten logischen Funktion(en) umfassen. In einigen alternativen Ausführungen können die in dem Block angegebenen Funktionen in einer anderen Reihenfolge als in den Figuren gezeigt stattfinden. Zwei nacheinander gezeigte Blöcke können zum Beispiel in Wirklichkeit im Wesentlichen gleichzeitig ausgeführt werden, oder die Blöcke können manchmal je nach entsprechender Funktionalität in umgekehrter Reihenfolge ausgeführt werden. Es ist ferner anzumerken, dass jeder Block der Blockschaltbilder bzw. Schaubilder und/oder der Ablaufpläne sowie Kombinationen aus Blöcken in den Blockschaltbildern bzw. Schaubildern und/oder den Ablaufplänen durch spezielle auf Hardware beruhende Systeme umgesetzt werden können, welche die festgelegten Funktionen oder Schritte durchführen, oder Kombinationen aus Spezial-Hardware und Computeranweisungen ausführen.
  • Die Beschreibungen der verschiedenen Ausführungsform der vorliegenden Offenbarung sind zur Veranschaulichung vorgelegt worden, erheben jedoch nicht den Anspruch auf Vollständigkeit oder Beschränkung auf die offenbarten Ausführungsformen. Dem Fachmann dürften viele Änderungen und Varianten offensichtlich sein, ohne vom Schutzumfang der beschriebenen Ausführungsformen abzuweichen. Die hierin verwendeten Begriffe wurden gewählt, um die Grundgedanken der Ausführungsformen, die praktische Anwendung oder technische Verbesserung gegenüber handelsüblichen Technologien zu erläutern oder anderen Fachleuten das Verständnis der hierin offenbarten Ausführungsformen zu ermöglichen.

Claims (20)

  1. Verfahren, das umfasst: Detektieren einer Navigationsanforderung, wobei die Navigationsanforderung ein Ziel für ein autonomes Fahrzeug von einem Startort aufweist; Ermitteln einer Route von dem Startort zum Ziel auf der Grundlage der Navigationsa nfo rde ru ng; Durchführen einer die Route betreffende Betreibersuche auf der Grundlage der Navigationsanforderung, wobei sich die Betreibersuche auf einen Eigentümer vertraulicher Daten für einen oder mehrere Betreiber bezieht; Empfangen einer die Route betreffenden bedingten Genehmigung als Reaktion auf die Betreibersuche, wobei die bedingte Genehmigung anzeigt, dass ein oder mehrere Sensoren des autonomen Fahrzeugs gegebenenfalls keine Daten in Bezug auf ein erstes Anwesen eines ersten Betreibers erfassen dürfen, wobei das erste Anwesen nahe der Route liegt; und Einschränken des einen oder mehrerer Sensoren des autonomen Fahrzeugs als Reaktion auf die bedingte Genehmigung, wobei das Einschränken ein Einschränken des Erfassens des ersten Anwesens durch einen oder mehrere Sensoren des autonomen Fahrzeugs einschließt.
  2. Verfahren nach Anspruch 1, das ferner aufweist: Steuern der autonomen Fahrt auf der Route auf Grundlage von autonomen Fahrdaten, die von dem einen oder mehreren Sensoren des autonomen Fahrzeugs empfangen wurden; Detektieren eines Nahbereichs bei dem ersten Anwesen des ersten Betreibers während der autonomen Fahrt; und Löschen eines Teils eines Videosignals einer Kamera des einen oder mehrerer Sensoren des autonomen Fahrzeugs als Reaktion auf das Detektieren des Nahbereichs; Erzeugen von Ersatzdaten des Nahbereichs bei dem ersten Anwesen des ersten Betreibers; und Ersetzen eines Teils der autonomen Fahrdaten, die der Kamera entsprechen, durch die Ersatzdaten.
  3. Verfahren nach Anspruch 2, wobei es sich bei dem Teil des Videosignals um das gesamte Bild des Videosignals handelt.
  4. Verfahren nach Anspruch 2, wobei das Erzeugen der Ersatzdaten aufweist: Anfordern von Daten sich bewegender Objekte, die von einer ersten Kamera des Anwesens erzeugt wurden, die dem ersten Betreiber gehört und durch diesen gesteuert wird.
  5. Verfahren nach Anspruch 4, wobei die Daten des sich bewegenden Objekts aus der Gruppe ausgewählt werden, die besteht aus: eine gehende oder laufende Person, ein Tier, das einen Weg des Fahrzeugs überquert, ein anderes in Bewegung befindliches Fahrzeug, ein anderes autonomes Luftfahrzeug, Verkehrszeichen und Fahrspurleitlinien.
  6. Verfahren nach Anspruch 1, das ferner aufweist: Empfangen einer zweiten bedingten Genehmigung, die anzeigt, dass ein oder mehrere Sensoren des autonomen Fahrzeugs keine Daten in Bezug auf ein zweites Anwesen eines zweiten Betreibers erfassen dürfen, wobei sich das zweite Anwesen im Nahbereich der Route befindet; Steuern der autonomen Fahrt entlang der Route auf der Grundlage von dem einen oder mehreren Sensoren empfangener autonomer Fahrdaten; Detektieren eines Nahbereichs bei dem zweiten Anwesen des zweiten Betreibers während der autonomen Fahrt; und Deaktivieren eines ersten Radarsensors des einen oder mehrerer Sensoren als Reaktion auf das Detektieren des Nahbereichs; Erzeugen von Ersatzdaten für den Nahbereich des zweiten Anwesens des zweiten Betreibers; und Ersetzen eines Teils der autonomen Fahrdaten, die dem ersten Radarsensor entsprechen, durch die Ersatzdaten.
  7. Verfahren nach Anspruch 6, wobei das Erzeugen der Ersatzdaten aufweist: Anfordern von Daten eines sich bewegenden Objekts, die von einem zweiten Radarsensor eines zweiten autonomen Fahrzeugs erzeugt wurden, wobei das zweite autonome Fahrzeug dem zweiten Betreiber gehört und von diesem gesteuert wird.
  8. Verfahren nach Anspruch 1, wobei die Betreibersuche eine Abfrage aufweist, ob die Route nahe reglementierten Bereichen verläuft, wobei die bedingte Genehmigung anzeigt, dass sich nahe der Route mehrere reglementierte Bereiche befinden.
  9. Verfahren nach Anspruch 1, wobei der Eigentümer der vertraulichen Daten für den einen oder mehrere Betreiber ein zentraler Server ist.
  10. Verfahren nach Anspruch 1, wobei der Eigentümer der vertraulichen Daten für den ersten Betreiber der erste Betreiber ist und wobei ein Durchführen der Betreibersuche aufweist: Empfangen einer Antwort von einem zentralen Server, wobei die Antwort anzeigt, dass der erste Betreiber in Verbindung mit der bedingten Genehmigung steht; und Anfordern der bedingten Genehmigung von dem ersten Betreiber als Reaktion auf die Antwort.
  11. System, wobei das System aufweist: einen Speicher, wobei der Speicher eine oder mehrere Anweisungen aufweist; und einen Prozessor, wobei der Prozessor zum Austauschen von Daten mit dem Speicher verbunden ist und wobei der Prozessor so konfiguriert ist, dass er als Reaktion auf ein Lesen der einen oder mehrerer Anweisungen: eine Navigationsanforderung detektiert, wobei die Navigationsanforderung ein Ziel für ein autonomes Fahrzeug von einem Startort aufweist; auf der Grundlage der Navigationsanforderung eine Route vom Startort zum Ziel ermittelt; auf der Grundlage der Navigationsanforderung eine die Route betreffende Betreibersuche durchführt, wobei die Betreibersuche einen Eigentümer der vertraulichen Daten für einen oder mehrere Betreiber betrifft; als Reaktion auf die Betreibersuche eine die Route betreffende bedingte Genehmigung empfängt, wobei die bedingte Genehmigung anzeigt, dass ein oder mehrere Sensoren des autonomen Fahrzeugs gegebenenfalls keine ein erstes Anwesen eines ersten Betreibers betreffenden Daten erfassen, wobei sich das erste Anwesen nahe der Route befindet; und als Reaktion auf die bedingte Genehmigung den einen oder mehrere Sensoren des autonomen Fahrzeugs einschränkt, wobei das Einschränken des einen oder mehrerer Sensoren des autonomen Fahrzeugs ein Einschränken des Erfassens des ersten Anwesens durch den einen oder mehrere Sensoren des autonomen Fahrzeugs aufweist.
  12. System nach Anspruch 11, wobei der Prozessor ferner so konfiguriert ist, dass er: auf der Grundlage der von dem einen oder mehreren Sensoren des autonomen Fahrzeugs empfangenen autonomen Fahrdaten die autonome Fahrt entlang der Route steuert; während der autonomen Fahrt einen Nahbereich des ersten Anwesens des ersten Betreibers detektiert; und als Reaktion auf das Detektieren des Nahbereichs einen Teil eines Videosignals einer Kamera des einen oder mehreren Sensoren des autonomen Fahrzeugs löscht; Ersatzdaten des Nahbereichs des ersten Anwesens des ersten Betreibers erzeugt; und einen Teil der der Kamera entsprechenden autonomen Fahrdaten durch die Ersatzdaten ersetzt
  13. System nach Anspruch 12, wobei es sich bei dem Teil des Videosignals um ein ganzes Bild des Videosignals handelt.
  14. System nach Anspruch 12, wobei das Erzeugen der Ersatzdaten aufweist: Anfordern von Daten eines sich bewegenden Objekts von einer Kamera eines Anwesens, das dem ersten Betreiber gehört und durch diesen gesteuert wird.
  15. System nach Anspruch 14, wobei die Daten des sich bewegenden Objekts aus der Gruppe ausgewählt werden, die besteht aus: eine gehende Person, ein auf einem Bürgersteig laufendes Kind, ein eine Landstraße überquerendes Tier, ein anderes in Fahrt befindliches autonomes Fahrzeug, ein anderes autonomes Flugzeug, Verkehrszeichen und Fahrspurleitlinien.
  16. Computerprogrammprodukt, wobei das Computerprogrammprodukt aufweist: ein oder mehrere durch einen Computer lesbare Speichermedien; und Programmanweisungen, die insgesamt auf dem einen oder mehreren durch einen Computer lesbaren Speichermedien gespeichert sind, wobei die Programmanweisungen so konfiguriert sind, dass sie: eine Navigationsanforderung detektieren, wobei die Navigationsanforderung ein Ziel für ein autonomes Fahrzeug von einem Startort aufweist; auf der Grundlage der Navigationsanforderung eine Route von dem Startort zum Ziel ermitteln; auf der Grundlage der Navigationsanforderung eine die Route betreffende Betreibersuche durchführen, wobei die Betreibersuche einen Eigentümer vertraulicher Daten für einen oder mehrere Betreiber betrifft; als Reaktion auf die Betreibersuche eine die Route betreffende bedingte Genehmigung empfangen, wobei die bedingte Genehmigung anzeigt, dass ein oder mehrere Sensoren des autonomen Fahrzeugs keine ein erstes Anwesen eines ersten Betreibers betreffenden Daten erfassen dürfen, wobei sich das erste Anwesen nahe der Route befindet; als Reaktion auf die bedingte Genehmigung den einen oder mehrere Sensoren des autonomen Fahrzeugs einschränken, wobei das Einschränken des einen oder mehrerer Sensoren des autonomen Fahrzeugs ein Einschränken des Erfassens des ersten Anwesens durch den einen oder mehrere Sensoren des autonomen Fahrzeugs aufweist.
  17. Computerprogrammprodukt nach Anspruch 16, wobei die Betreibersuche eine Abfrage aufweist, ob die Route nahe reglementierten Bereichen liegt, und wobei die bedingte Genehmigung anzeigt, dass sich nahe der Route mehrere reglementierte Bereiche befinden.
  18. Computerprogrammprodukt nach Anspruch 16, wobei die Programmanweisungen ferner so konfiguriert sind, dass sie: eine zweite bedingte Genehmigung empfangen, die anzeigt, dass ein oder mehrere Sensoren des autonomen Fahrzeugs gegebenenfalls keine ein zweites Anwesen eines zweiten Betreibers betreffenden Daten erfassen, wobei sich das zweite Anwesen nahe der Route befindet; auf der Grundlage von dem einen oder mehreren Sensoren empfangener autonomer Fahrdaten das autonome Fahren entlang der Route steuern; während des autonomen Fahrens einen Nahbereich des zweiten Anwesens des zweiten Betreibers detektieren; und als Reaktion auf das Detektieren des Nahbereichs einen ersten Radarsensor des einen oder mehrerer Sensoren deaktivieren; Ersatzdaten des Nahbereichs des zweiten Anwesens des zweiten Betreibers erzeugen; und einen Teil der dem ersten Radarsensor entsprechenden autonomen Fahrdaten durch die Ersatzdaten ersetzen.
  19. Computerprogrammprodukt nach Anspruch 18, wobei das Erzeugen der Ersatzdaten aufweist: Anfordern von Daten eines sich bewegenden Objekts von einem zweiten Radarsensor eines zweiten autonomen Fahrzeugs, wobei das zweite autonome Fahrzeug dem zweiten Betreiber gehört und durch diesen gesteuert wird.
  20. Computerprogrammprodukt nach Anspruch 16, wobei der Eigentümer vertraulicher Daten für den einen oder mehrere Betreiber ein zentraler Server ist.
DE112021005624.7T 2020-10-24 2021-08-19 Ersatzdaten für autonome Fahrzeuge Pending DE112021005624T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US17/079,434 US11725950B2 (en) 2020-10-24 2020-10-24 Substitute autonomous vehicle data
US17/079,434 2020-10-24
PCT/CN2021/113460 WO2022083259A1 (en) 2020-10-24 2021-08-19 Substitute autonomous vehicle data

Publications (1)

Publication Number Publication Date
DE112021005624T5 true DE112021005624T5 (de) 2023-08-31

Family

ID=81258418

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112021005624.7T Pending DE112021005624T5 (de) 2020-10-24 2021-08-19 Ersatzdaten für autonome Fahrzeuge

Country Status (6)

Country Link
US (1) US11725950B2 (de)
JP (1) JP2023545803A (de)
CN (1) CN116420058A (de)
DE (1) DE112021005624T5 (de)
GB (1) GB2614664B (de)
WO (1) WO2022083259A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107131877B (zh) * 2016-02-29 2021-07-02 星克跃尔株式会社 无人飞行器航线构建方法及系统
CN110226078B (zh) * 2016-12-22 2024-04-26 日产北美公司 自动车辆服务系统
US11153010B2 (en) * 2019-07-02 2021-10-19 Waymo Llc Lidar based communication
US20240143830A1 (en) * 2022-10-28 2024-05-02 Blackberry Limited Access restriction of vehicle-associated information
WO2024101637A1 (ko) * 2022-11-09 2024-05-16 인포뱅크 주식회사 자율주행 레미콘 차량의 운행 관제 방법 및 그를 수행하는 서버
WO2024098393A1 (zh) * 2022-11-11 2024-05-16 华为技术有限公司 一种控制方法、装置、车辆、电子设备及存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2404247B (en) * 2003-07-22 2005-07-20 Hitachi Int Electric Inc Object tracing method and object tracking apparatus
US7221928B2 (en) * 2003-10-01 2007-05-22 Laird Mark D Mobile emergency notification system
WO2015102731A2 (en) 2013-10-18 2015-07-09 Aerovironment, Inc. Privacy shield for unmanned aerial systems
US9384402B1 (en) 2014-04-10 2016-07-05 Google Inc. Image and video compression for remote vehicle assistance
US9986378B2 (en) 2014-07-29 2018-05-29 GeoFrenzy, Inc. Systems and methods for defining and implementing rules for three dimensional geofences
US9601022B2 (en) 2015-01-29 2017-03-21 Qualcomm Incorporated Systems and methods for restricting drone airspace access
WO2016154551A1 (en) * 2015-03-26 2016-09-29 Matternet, Inc. Route planning for unmanned aerial vehicles
GB201514460D0 (en) * 2015-08-13 2015-09-30 Bae Systems Plc Apparatus and method for communications management
US10083584B2 (en) * 2015-12-30 2018-09-25 Honeywell International Inc. Video surveillance system with selectable operating scenarios and system training for improved situational awareness
WO2017139282A1 (en) 2016-02-08 2017-08-17 Unmanned Innovation Inc. Unmanned aerial vehicle privacy controls
WO2018020673A1 (ja) * 2016-07-29 2018-02-01 株式会社ソニー・インタラクティブエンタテインメント 画像管理システムおよび無人飛行体
WO2018132608A2 (en) * 2017-01-12 2018-07-19 Mobileye Vision Technologies Ltd. Navigation based on occlusion zones
JP6838211B2 (ja) 2017-07-31 2021-03-03 日立Astemo株式会社 自律運転制御装置、自律移動車及び自律移動車制御システム
US10690504B2 (en) 2018-03-20 2020-06-23 Micron Technology, Inc. Re-routing autonomous vehicles using dynamic routing and memory management for border security purposes
CN111337038A (zh) 2018-12-18 2020-06-26 美的集团股份有限公司 导航方法、导航系统、车辆和导航终端
CN111309005A (zh) 2019-12-24 2020-06-19 广东天创同工大数据应用有限公司 一种基于无人驾驶车辆的动态路线规划方法
CN111426326B (zh) 2020-01-17 2022-03-08 深圳市镭神智能系统有限公司 一种导航方法、装置、设备、系统及存储介质

Also Published As

Publication number Publication date
GB202305663D0 (en) 2023-05-31
WO2022083259A1 (en) 2022-04-28
GB2614664A (en) 2023-07-12
JP2023545803A (ja) 2023-10-31
GB2614664B (en) 2023-11-01
CN116420058A (zh) 2023-07-11
US11725950B2 (en) 2023-08-15
US20220128367A1 (en) 2022-04-28

Similar Documents

Publication Publication Date Title
DE112021005624T5 (de) Ersatzdaten für autonome Fahrzeuge
DE112020004931T5 (de) Systeme und verfahren zur bestimmung der verkehrssicherheit
DE102018132981A1 (de) Ampelzustandsbewertung
DE112018006665T5 (de) Verfahren zum zugreifen auf ergänzende wahrnehmungsdaten von anderen fahrzeugen
DE102017125493A1 (de) Verkehrszeichenerkennung
DE102019115455A1 (de) Fokus-basiertes markieren von sensordaten
DE102009050505A1 (de) Detektion eines freien Pfads durch Strassenmodellerstellung
DE102009050502A1 (de) Detektion eines freien Pfads unter Verwendung eines hierarchischen Ansatzes
DE112021002001T5 (de) Navigieren eines fahrzeugs unter verwendung eines elektronischen horizonts
DE112020000925T5 (de) Systeme und verfahren zur fahrzeugnavigation
DE102018104270A1 (de) Verfahren zum Vorhersagen des Verhaltens mindestens eines Fußgängers
DE102018111935A1 (de) Bildverarbeitungssystem, Bildverarbeitungsverfahren, Informationsverarbeitungsvorrichtung und Aufzeichnungsmedium
DE102022102189A1 (de) Multimodales Segmentierungsnetz für ein verbessertes semantisches Labelingbei einer Kartenerzeugung
DE102020101903A1 (de) SYSTEME UND VERFAHREN ZUM VORHERSAGEN DES VERHALTENS VON FUßGÄNGERN
DE112022002652T5 (de) Automatische erzeugung einer vektorkarte für die fahrzeugnavigation
DE102021114032A1 (de) Identifizieren von hintergrundmerkmalen mittels lidar
DE102020127855A1 (de) Sicherheitssystem, automatisiertes fahrsystem und verfahren dafür
DE112021005856T5 (de) Kombinieren von informationen einer kamera für sichtbares licht und einer wärmekamera
DE102023111485A1 (de) Nachverfolgungssegmentbereinigung nachverfolgter objekte
DE102022105579A1 (de) Graphenerkundung zur regelbuchtrajektorieerzeugung
DE112021005607T5 (de) Systeme und Verfahren für kamera-LiDAR-fusionierte Objektdetektion
DE102021104323A1 (de) Vorfahrtsgewährungentscheidung eines fahrzeugs
DE102019124419A1 (de) Szenenklassifizierung
DE102021209575B3 (de) Verfahren und Assistenzeinrichtung zum Unterstützen von Fahrzeugfunktionen in einem Parkraum und Kraftfahrzeug
DE102022128968A1 (de) Systeme und verfahren zum sammeln von bildern zur fahrzeugnavigation

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01C0021320000

Ipc: G01C0021340000