-
TECHNISCHES GEBIET
-
Die vorliegende Offenbarung bezieht sich auf autonome Fahrzeuge.
-
STAND DER TECHNIK
-
Die Ausführungen in diesem Abschnitt stellen lediglich Hintergrundinformationen bezüglich der vorliegenden Offenbarung bereit und stellen möglicherweise keinen Stand der Technik dar.
-
Autonome Fahrzeuge sind für Transportanwendungen von großem Interesse und können der Mitfahrgelegenheitsindustrie Vorteile bereitstellen. Wenn ein vorgesehener Insasse eine Anfrage nach einem Fahrzeug einer Mitfahrgelegenheit stellt, muss der vorgesehene Insasse möglicherweise den Fahrer des Fahrzeugs kontaktieren oder persönlich mit dem/der Fahrer(in) des Fahrzeugs interagieren, um sein/ihr bestimmtes Fahrzeug zu identifizieren, insbesondere wenn es sich in einem belebten Bereich, wie einer Stadt oder einem Flughafen, befindet. Eine solche Interaktion kann sich jedoch als Herausforderung herausstellen, sofern überhaupt möglich, wenn versucht wird, ein autonomes Fahrzeug innerhalb eines Pools von autonomen Fahrzeugen oder eines belebten Bereichs mit Hindernissen zu lokalisieren.
-
KURZDARSTELLUNG
-
Offenbarte Ausführungsformen schließen Verfahren, Systeme und ein nichtflüchtiges computerlesbares Medium zur Augmented-Reality-Erkennung zum Lokalisieren eines bestimmten autonomen Fahrzeugs ein.
-
In einer nicht einschränkenden Ausführungsform schließt ein veranschaulichendes Verfahren ein Bereitstellen einer Anfrage nach einem autonomen Fahrzeug durch eine elektronische Vorrichtung an einen entfernten Server ein. Ein erstes Signal, das angibt, dass sich das autonome Fahrzeug innerhalb einer für einen vorgesehenen Insassen zugänglichen Reichweite befindet, wird durch eine elektronische Vorrichtung empfangen. Der Insasse wird durch die elektronische Vorrichtung dazu aufgefordert, einen Bildsensor der elektronischen Vorrichtung auf einen festgelegten Bereich der zugänglichen Reichweite auszurichten. Der festgelegte Bereich wird durch den Bildsensor für das autonome Fahrzeug abgebildet. Eine visuelle Darstellung des abgebildeten festgelegten Bereichs wird durch die elektronische Vorrichtung auf einer grafischen Benutzeroberfläche der elektronischen Vorrichtung erzeugt. Das autonome Fahrzeug wird innerhalb der erzeugten visuellen Darstellung identifiziert.
-
In einer anderen nicht einschränkenden Ausführungsform schließt ein veranschaulichendes System ein Computerverarbeitungssystem und einen Computerspeicher ein. Das Computerverarbeitungssystem ist dazu konfiguriert, Schritte auszuführen, die einschließen: Bereitstellen einer Anfrage nach einem autonomen Fahrzeug durch eine elektronische Vorrichtung an einen entfernten Server; Empfangen eines ersten Signals durch die elektronische Vorrichtung, das angibt, dass sich das autonome Fahrzeug innerhalb einer für einen vorgesehenen Insassen zugänglichen Reichweite befindet; Auffordern des Insassen durch die elektronische Vorrichtung, einen Bildsensor der elektronischen Vorrichtung auf einen festgelegten Bereich der zugänglichen Reichweite auszurichten; Abbilden der für das autonome Fahrzeug festgelegten Bereichs durch den Bildsensor; Erzeugen einer visuellen Darstellung des abgebildeten festgelegten Bereichs auf einer grafischen Benutzeroberfläche der elektronischen Vorrichtung durch die elektronische Vorrichtung; und Identifizieren des autonomen Fahrzeugs innerhalb der erzeugten visuellen Darstellung durch die elektronische Vorrichtung.
-
In einer anderen nicht einschränkenden Ausführungsform schließt ein nichtflüchtiges computerlesbares Medium Programmanweisungen zum Lokalisieren von autonomen Fahrzeugen ein. Die Programmanweisungen bewirken bei Ausführung, dass das Computerverarbeitungssystem Schritte ausführt, die einschließen: Bereitstellen einer Anfrage nach einem autonomen Fahrzeug durch eine elektronische Vorrichtung an einen entfernten Server; Empfangen eines ersten Signals durch die elektronische Vorrichtung, das angibt, dass sich das autonome Fahrzeug innerhalb einer für einen vorgesehenen Insassen zugänglichen Reichweite befindet; Auffordern des Insassen durch die elektronische Vorrichtung, einen Bildsensor der elektronischen Vorrichtung auf einen festgelegten Bereich der zugänglichen Reichweite auszurichten; Abbilden des für das autonome Fahrzeug festgelegten Bereichs durch den Bildsensor; Erzeugen einer visuellen Darstellung des abgebildeten festgelegten Bereichs auf einer grafischen Benutzeroberfläche der elektronischen Vorrichtung durch die elektronische Vorrichtung; und Identifizieren des autonomen Fahrzeugs innerhalb der erzeugten visuellen Darstellung durch die elektronische Vorrichtung.
-
Weitere Merkmale, Vorteile und Anwendungsbereiche sind anhand der hierin bereitgestellten Beschreibung ersichtlich. Es versteht sich, dass die Beschreibung und die spezifischen Beispiele nur zur Veranschaulichung gedacht sind und den Schutzumfang der vorliegenden Offenbarung nicht einschränken sollen.
-
Figurenliste
-
Die hierin beschriebenen Zeichnungen dienen nur der Veranschaulichung und sollen den Schutzumfang der vorliegenden Offenbarung in keiner Weise einschränken. Die Komponenten in den Figuren sind nicht notwendigerweise maßstabsgetreu, wobei der Schwerpunkt stattdessen auf einer Veranschaulichung der Prinzipien der offenbarten Ausführungsformen gelegt wird. In den Zeichnungen:
- 1 ist ein Blockdiagramm in teilweise schematischer Form eines veranschaulichenden Rahmenkonzepts für einen Ansatz einer Augmented-Reality-Erkennung zum Lokalisieren eines bestimmten autonomen Fahrzeugs.
- 2A ist ein Blockdiagramm in teilweise schematischer Form einer Teildraufsicht auf ein veranschaulichendes Rahmenkonzept für einen Ansatz einer Augmented-Reality-Erkennung zum Lokalisieren eines bestimmten autonomen Fahrzeugs.
- 2B ist eine Grafik einer Signalstärke von erkannten Standortsignalen in Abhängigkeit von einer Bildsensorrichtung einer elektronischen Vorrichtung zum Lokalisieren eines bestimmten autonomen Fahrzeugs.
- 3 ist ein Blockdiagramm in teilweise schematischer Form eines anderen veranschaulichenden Rahmenkonzepts für einen Ansatz einer Augmented-Reality-Erkennung zum Lokalisieren eines bestimmten autonomen Fahrzeugs.
- 4A bis 4D sind Draufsichten auf veranschaulichende Identifizierungen eines autonomen Fahrzeugs.
- 5 ist ein Flussdiagramm eines veranschaulichenden Ansatzes einer Augmented-Reality-Erkennung zum Lokalisieren eines bestimmten autonomen Fahrzeugs.
-
Gleiche Referenzsymbole in den verschiedenen Zeichnungen geben im Allgemeinen gleiche Elemente an.
-
DETAILLIERTE BESCHREIBUNG
-
Die folgende Beschreibung ist lediglich veranschaulichender Natur und soll die vorliegende Offenbarung, ihre Anwendung oder Verwendungen nicht einschränken. Es versteht sich, dass die erste Ziffer von dreistelligen Bezugszeichen und die ersten zwei Ziffern von vierstelligen Bezugszeichen der ersten Ziffer von einstelligen Nummern von Figuren bzw. den ersten zwei Ziffern von zweistelligen Nummern von Figuren entsprechen, in denen das Element zuerst erscheint.
-
1 veranschaulicht ein veranschaulichendes Rahmenkonzept 100 für einen Ansatz einer Augmented-Reality-Erkennung zum Lokalisieren eines bestimmten autonomen Fahrzeugs gemäß einem Beispiel der Offenbarung. Ein Insasse kann eine geeignete Anwendung nutzen, die auf einer elektronischen Vorrichtung 102 installiert ist, um ein autonomes Fahrzeug, z. B. aus einem Pool von autonomen Fahrzeugen, anzufordern, und dann die Anwendung auf der elektronischen Vorrichtung 102 dazu verwenden, das richtige vorgesehene autonome Fahrzeug aus einer Gruppe von Fahrzeugen 104 in der Nähe auszuwählen. Ein autonomes Fahrzeug kann mit einer Anordnung von Sensoren 105 konfiguriert sein, z. B. einschließlich LIDAR (Light Detection and Ranging), Kamerasystemen zum Erfassen von Echtzeitvideobildmaterial von Hindernissen und anderen Fahrzeugen und GPS (Global Positioning System). Ein autonomes Fahrzeug kann auch mit drahtlosen Kommunikationssystemen zum Senden und Empfangen von Kommunikationen in Bezug auf Straßeninformationen und Verkehr in Echtzeit sowie einem Computer zum Anwenden von Fahrregeln und Treffen von Fahrentscheidungen basierend auf Daten und Informationen, die anhand des Vorstehenden erfasst wurden, auf geeignete Weise, wie üblicherweise im Stand der Technik bekannt, konfiguriert werden. Eine Interaktion zwischen dem Insassen und der elektronischen Vorrichtung 102 kann über eine grafische Benutzeroberfläche 106 der elektronischen Vorrichtung 102 erfolgen. Die elektronische Vorrichtung 102 kann die Anfrage an eines oder mehrere Fernüberwachungs-Backend-Systeme 108 über ein drahtloses und/oder drahtgebundenes Kommunikationsnetz 110, wie das Internet, senden. Das/Die Fernüberwachungs-Backend-System(e) 108 kann/können ein bestimmtes autonomes Fahrzeug, z. B. aus einem Pool von autonomen Fahrzeugen, basierend auf einem oder mehreren Kriterien auswählen, die eine Entfernung zu dem Abholungsstandort des vorgesehenen Insassen, Zeitdauer, die zur Ankunft an dem Abholungsstandort des vorgesehenen Insassen gebraucht würde, Ziel des vorgesehenen Insassen und/oder von dem vorgesehenen Insassen gewünschte Fahrzeugausstattung einschließen können, aber nicht darauf beschränkt sind. Das/Die Fernüberwachungs-Backend-System(e) 108 kann/können dem ausgewählten autonomen Fahrzeug die Anfrage über ein drahtloses und/oder drahtgebundenes Kommunikationsnetz 110 bereitstellen. Das/Die Fernüberwachungs-Backend-System(e) 108 kann/können auch mit bordeigenen Computern des Pools von autonomen Fahrzeugen 104 kommunizieren, um verschiedene Gesichtspunkte von Fahrzeugmerkmalen, wie sie hierin weiter beschrieben sind, zu steuern.
-
Das/Die Fernüberwachungs-Backend-System(e) 108 kann/können ein Computerverarbeitungssystem 108 einschließen, das eine oder mehrere Computerverarbeitungseinheiten (CPUs) 112 einschließen kann, die sich in einem oder mehreren Computersystemen befinden, und einen oder mehrere Speicher 114, die RAM, ROM und einen beliebigen geeigneten nichtflüchtigen Speicher einschließen können. Das/Die Fernüberwachungs-Backend-System(e) 108 kann/können auch eine oder mehrere Datenbanken 116, um Daten sowohl für Fahrzeuge als auch Fahrer zu speichern, wie hierin weiter erläutert wird, und eine oder mehrere Oberflächen 118 einschließen, um die Kommunikation über Netzwerke einschließlich des Internets zu erleichtern und um die Eingabe/Ausgabe von Daten zu erleichtern. Das/Die Fernüberwachungs-Backend-System(e) 108 führt/führen ein Überwachen von Fahrzeugen, Fahrzeugsystemen, Fahrzeugnutzung und Systemnutzung für einzelne Fahrzeuge und für einzelne Fahrer durch, die jene Fahrzeuge verwenden, und führt/führen Datenanalysen der Daten durch, die von den Fahrzeugen und den Fahrzeugsystemen gesammelt werden. In Beispielen kann der Pool von autonomen Fahrzeugen verschiedene Erkennungseinrichtungen und Sensoren zum Überwachen von Fahrzeugdynamik, Nutzung und Nachfrage nach Fahrzeugsysteme während des Fahrens des Pools von autonomen Fahrzeugen einschließen. Zum Beispiel können die autonomen Fahrzeuge GPS-Einheiten zum Überwachen von Standort, Geschwindigkeit und Richtung, Batterieüberwachungssensoren in der Form von elektrischen Schaltungen, zum Überwachen der Batterienutzung, Batterieentladung in Abhängigkeit von Zeit und Batterieladungsraten und andere geeignete Sensoren zum Überwachen des Zustands und Zustands von anderen wichtigen Subsystemen des Fahrzeugs, wie entfernbaren Modulen, und zum Erkennen von Warn- oder Fehlerzuständen einschließen. Solche Daten können in einem bordeigenen Computersystem mit geeignetem Speicher gespeichert werden und können über einen drahtlosen bordeigenen Transceiver des Fahrzeugs und/oder über drahtgebundene Kommunikation durch ein drahtloses und/oder drahtgebundenes Kommunikationsnetz 110 auf das/die Fernüberwachungs-Backend-System(e) 108 hochgeladen werden.
-
Jedes autonome Fahrzeug des Pools von autonomen Fahrzeugen kann eines oder mehrere Standortsignale aussenden. Zum Beispiel können das eine oder die mehreren Standortsignale von jedem autonomen Fahrzeug schnell pulsierende Fahrzeugaußenlichter mit einer spezifizierten Frequenz oder in einem spezifizierten Muster einschließen, die zur Erkennung vorgesehen sind. Die Impulse können, obwohl sie des Spektrums des sichtbaren Lichts sind, mit einer Frequenz pulsieren, die zu hoch ist, um von dem Insassen visuell als pulsierend oder flackernd empfunden zu werden. Das eine oder die mehreren Standortsignale von jedem autonomen Fahrzeug können auch Impulse von Licht des nicht sichtbaren Spektrums sein, wie Laserlicht, das von einer LIDAR-Vorrichtung ausgesendet wird, die an dem autonomen Fahrzeug befestigt ist. Das eine oder die mehreren Standortsignale von jedem autonomen Fahrzeug können aus einer Spektralverschiebung von Lichtfarben bestehen, z. B. einem gepulsten Muster, wobei unterschiedliche Wellenlängen beteiligt sind. Eine Kommunikation unter Verwendung von WLAN- und/oder Bluetooth-Signalen kann auch zum Kommunizieren von zusätzlichen Identifizierungsinformationen des vorgesehenen der Fahrzeuge 104 zwischen einem solchen Fahrzeug und der elektronischen Vorrichtung 102, z. B. über Textnachrichten oder andere geeignete Nachrichten, verwendet werden. Die elektronische Vorrichtung 102 kann das eine oder die mehreren Standortsignale des autonomen Fahrzeugs erkennen, sobald es sich in einer zugänglichen Reichweite des autonomen Fahrzeugs befindet. Der vorgesehene Insasse kann über eine visuelle Anweisung, die auf der grafischen Benutzeroberfläche 106 angezeigt wird, oder über eine Audioanweisung, oder beides, dazu aufgefordert werden, einen Bildsensor (in 1 nicht gezeigt) der elektronischen Vorrichtung 102 auf einen festgelegten Bereich auszurichten, sobald sich das autonome Fahrzeug innerhalb einer zugänglichen Reichweite befindet. Nachdem der Insasse den Bildsensor auf den festgelegten Bereich ausgerichtet hat, kann der Bildsensor der elektronischen Vorrichtung 102 eine Szene des Pools von autonomen Fahrzeugen 104 aufnehmen, wie hierin weiter beschrieben wird. Eine visuelle Darstellung des abgebildeten Bereichs kann durch die elektronische Vorrichtung 102 unter Verwendung von einer oder mehreren internen Verarbeitungskomponenten erzeugt werden. Die visuelle Darstellung des abgebildeten Bereichs kann auf der grafischen Benutzeroberfläche 106 angezeigt werden, wobei das autonome Fahrzeug von dem Insassen über eine oder mehrere Angaben 120 identifiziert wird, wie hierin weiter beschrieben wird. In einigen Fällen kann das autonome Fahrzeug teilweise durch eines oder mehrere Hindernisse 122 behindert sein und kann dennoch von dem vorgesehenen Insassen identifiziert werden. Ein Zugang zu dem autonomen Fahrzeug kann dem vorgesehenen Insassen über eine Zugangstaste (Feld) 122 auf der grafischen Benutzeroberfläche 106 bereitgestellt werden, z. B. einem entriegelten grafischen Feld auf dem berührungsempfindlichen Anzeigebildschirm, das die grafische Benutzeroberfläche 106 anzeigt, die der vorgesehene Passagier drücken kann.
-
2A veranschaulicht ein Blockdiagramm von einer Teildraufsicht 200 auf ein veranschaulichendes Rahmenkonzept für einen Ansatz einer Augmented-Reality-Erkennung zum Lokalisieren eines bestimmten autonomen Fahrzeugs gemäß einem Beispiel der Offenbarung. Die elektronische Vorrichtung 102 kann einen Bildsensor 202 einschließen. Der Bildsensor 202 kann gegenüber sichtbarem Licht, nicht sichtbarem Licht (z. B. Infrarotlicht) oder beidem empfindlich sein. Der Bildsensor 202 kann ein herkömmlicher Bildsensor der Art sein, wie sie üblicherweise in Smartphones zu finden ist. In einem Beispiel kann ein Benutzer, der bereits eine Anfrage nach einem Fahrzeug unter Verwendung der App, die auf der elektronischen Vorrichtung 102 läuft, kommuniziert hat, durch die elektronische Vorrichtung 102 darauf aufmerksam gemacht werden, dass sich ein vorgesehenes Fahrzeug in erkennbarer Reichweite des Benutzers befindet, und kann die Verwendung über eine visuelle Anweisung, eine Audioanweisung oder beides lenken, um die elektronische Vorrichtung auf einem Sichtfeld zeigen zu lassen, das eines oder mehrere Fahrzeuge umschließt, und um den Bildsensor der elektronischen Vorrichtung 102 durch laterales Neigen der elektronischen Vorrichtung 102 über das Sichtfeld zu scannen, wie in 2A veranschaulicht ist.
-
Die elektronische Vorrichtung 102 kann in einer oder mehreren Achsen eines dreidimensionalen Systems geneigt werden, z. B. eines x-, y-, z-Systems, wie es in 2A veranschaulicht ist. Ein Neigen der elektronischen Vorrichtung 102 ermöglicht, dass der Bildsensor 202 Bilder des festgelegten Bereichs mit unterschiedlichen Ausrichtungen aufnimmt, wodurch unterschiedliche Fahrzeuge in dem Sichtfeld auf unterschiedliche Sichtlinien ausgerichtet werden (z. B. gepunktete Linien 1, 2 und 3). Zum Beispiel kann die elektronische Vorrichtung 102 leicht vor und zurück geneigt werden, um die Signalstärke des einen oder der mehreren Standortsignale zu scannen und aufzunehmen. Das eine oder die mehreren Standortsignale können in Abhängigkeit von einer Ausrichtung der elektronischen Vorrichtung aufgezeichnet werden, wobei die Vektorrichtung des Bildsensors 202 der elektronischen Vorrichtung 102 und die Ausrichtung mit der höchsten Linie einer Sichtsignalstärke z. B. diejenige sein kann, die auf das vorgesehene autonome Fahrzeug zeigt. Jene Informationen können dann mit dem aufgenommenen Bild in Zusammenhang gebracht werden, das den verschiedenen Ausrichtungen zugeordnet ist, um das vorgesehene autonome Fahrzeug unter Verwendung einer Angabeeinrichtung 120 zu kennzeichnen, wie hierin weiter beschrieben wird.
-
Ein Verarbeiten der Bildinformationen durch die elektronische Vorrichtung 102 kann eine Ausrichtung der elektronischen Vorrichtung 102 bestimmen, welche die stärkste Linie eines Sichtsignals bereitstellt, um ein Bild des Pools von autonomen Fahrzeugen aufzunehmen. Zum Beispiel kann die elektronische Vorrichtung 102 einen internen Trägheitssensor aufweisen, der einem Prozessor der elektronischen Vorrichtung 102 Daten bereitstellt. Wie oben erwähnt ist, kann die elektronische Vorrichtung 102 den Benutzer dazu auffordern, den Bildsensor 202 langsam über ein Sichtfeld zu scannen, das mehrere Fahrzeuge enthält, kann die Signalstärke von erkannten Standortsignalen in Abhängigkeit von einer Ausrichtung basierend auf in Zusammenhang gebrachten Trägheitsdaten bewerten, die gleichzeitig durch die elektronische Vorrichtung aufgenommen werden, und dann identifizieren, welcher Standort in dem aufgenommenen Bildmaterial der größten Signalstärke der erkannten Standortsignale entspricht, und dann auf der elektronischen Vorrichtung jenen Standort anzeigen, der durch das Bildmaterial der Szene überlagert wird, um so das vorgesehene autonome Fahrzeug für den Benutzer zu identifizieren. In einem anderen Beispiel kann die elektronische Vorrichtung 102 einen Insassen über die grafische Benutzeroberfläche 106 dazu auffordern, die Ausrichtung der elektronischen Vorrichtung 102 hin zu unterschiedlichen Ausrichtungen zu verändern, um ein Sammeln von Daten zur Identifizierung des autonomen Fahrzeugs, das für den Insassen vorgesehen ist, innerhalb des Sichtfeld des Bildsensors 202 zu erleichtern. Obwohl der Bildsensor 202 der elektronischen Vorrichtung 102 während dieses Vorgangs herkömmlichen Bildsignalen ausgesetzt ist, ist der Computerprozessor der elektronischen Vorrichtung 102 dazu konfiguriert, die erkannten Standortsignale von dem Hintergrund von herkömmlichen Bildsignalen zu unterscheiden und zu bewerten, welche Ausrichtung (Sichtlinie) des Bildsensors der elektronischen Vorrichtung 102 mit der größten Intensität der erkannten Standortsignale zusammenhängt.
-
In dieser Hinsicht können vorhandene Bildsensoren, die üblicherweise in Smartphone-Kameras zu finden sind, zur Aufnahme der Standortsignale verwendet werden. Solche Smartphone-Kameras können pulsierendes Licht bei Raten erkennen, die schneller als Raten sind, die das menschliche Auge erkennen kann. Zum Beispiel können Smartphone-Kameras pulsierendes Licht bei Raten von weniger als oder mehr als 1.000 Bildern pro Sekunde erkennen, wie 300 Bilder pro Sekunde, 600 Bilder pro Sekunde, bis zu 1.000 Bilder pro Sekunde oder mehr. Die elektronische Vorrichtung 102 kann zusätzlich geeignete Filter, wie einen oder mehrere Infrarotfilter (IR-Filter) oder andere Farbfilter, einschließen. Der/Die Filter kann/können durch ein Betätigungselement unterstützt werden, um eine Bewegung der Filter in Bezug auf den Bildsensor 202 zu erlauben. Der/Die Filter können dazu angewendet werden, die durch den Bildsensor 202 aufgenommene Bildqualität zu verbessern, die durch den Bildsensor 202 aufgenommene Bildqualität abzustimmen und/oder eine oder mehrere gewünschte Wellenlängen zur Auswahl von Standortsignalen von spezifizierten Wellenlängen zur Aufnahme durch den Bildsensor 202 und zum Verarbeiten an der elektronischen Vorrichtung 102 auszuwählen. Wenn die Standortsignale zum Beispiel innerhalb eines Infrarotlichtspektrums liegen, kann die elektronische Vorrichtung 102 einen Infrarotfilter aus dem Lichtweg des Bildsensors 202 entfernen, wobei für ein Beispiel ein Betätigungselement verwendet wird, das intern an einen Prozessor der elektronischen Vorrichtung 102 gekoppelt ist und durch ihn gesteuert wird. Wenn die Standortsignale spezifizierte Farbwellenlängen, z. B. eine Folge von Signalimpulsen von einer oder mehreren Wellenlängen, z. B. nacheinander, umfassen, kann die elektronische Vorrichtung solche Filter, z. B. nacheinander, in den Lichtweg des Bildsensors 202 einfügen.
-
2B veranschaulicht eine Darstellung 210 einer Position gegenüber einer Signalstärke zum Neigen einer elektronischen Vorrichtung zum Lokalisieren eines bestimmten autonomen Fahrzeugs gemäß einem Beispiel der Offenbarung. Zu Veranschaulichungszwecken veranschaulicht die Darstellungslinie 212 eine beispielhafte Kurve einer Signalstärke der erkannten Standortsignale in Bezug auf eine Position. In einem Beispiel hängen die Richtungslinien 1, 2, 3 von 2A mit den Positionen 1, 2, 3 von Darstellung 210 zusammen, die in 2B veranschaulicht ist, die einem Neigen der elektronischen Vorrichtung 102 zugeordnet ist. Wenn die elektronische Vorrichtung 102 so ausgerichtet ist, dass der Bildsensor 202 einer Sichtlinie entlang der Richtungslinie 1 zu dem Fahrzeug 104a von 2A folgt, ist eine entsprechende Linie eines Sichtsignals minimal, da der Bildsensor 202 nicht direkt auf das zentrale autonome Fahrzeug 104b zeigt, welches das Fahrzeug ist, das die Standortsignale von der Gruppe 104 von autonomen Fahrzeugen in der Nähe aussendet. Ebenso ist eine entsprechende Linie eines Sichtsignals minimal, wenn die elektronische Vorrichtung 102 so ausgerichtet ist, dass der Bildsensor 202 einer Sichtlinie entlang der Richtungslinie 3 zu dem Fahrzeug 104c folgt, da der Bildsensor 202 nicht direkt auf das zentrale autonome Fahrzeug 104b zeigt, das die Standortsignale aussendet. In einem Beispiel kann der Insasse durch eine gesprochene oder grafische Nachricht an der elektronischen Vorrichtung 102 dazu aufgefordert werden, den Bildsensor der elektronischen Vorrichtung 102 in unterschiedliche Richtungen zeigen zu lassen, um eine Bestimmung der stärkeren Linie eines Sichtsignals von erkannten Standortsignalen zu erleichtern. Die stärkere Linie eines Sichtsignals folgt in dem Beispiel von 2A der Richtungslinie 2 zu dem Fahrzeug 104b. Ein Ausrichten der elektronischen Vorrichtung 102, sodass der Bildsensor 202 auf die Richtungslinie 2 zeigt, zeigt den Bildsensor 202 an dem autonomen Fahrzeug 104b, der durch Fernüberwachungs-Backend-System(e) 106 dem vorgesehen Insassen zugeordnet werden soll. Wie durch Darstellungslinie 212 von 2B veranschaulicht ist, erreicht die Linie eines Sichtsignals, die der Richtungslinie 2 folgt, in diesem Beispiel resultierend daraus, dass der Bildsensor direkt so ausgerichtet ist, dass er das zentralste autonome Fahrzeug 104b betrachtet, seinen Höhepunkt. Zur Erzeugung der Darstellungslinie 212 kann die Anwendung, die auf der elektronischen Vorrichtung 102 läuft, die Signalstärke der Standortsignale über den Bildsensor aufnehmen und kann jene Signalstärke innerhalb von geeigneten Zeitintervallen integrieren. Zum Beispiel kann der Bildsensor 202 Strahlung, die das Standortsignal einschließt, in Abhängigkeit von der Zeit aufnehmen, und das Verarbeitungssystem der elektronischen Vorrichtung 102 kann dieses Signal in Abhängigkeit von der Zeit aufzeichnen und gleichzeitig die Ausrichtung der elektronischen Vorrichtung 102 in Abhängigkeit von der Zeit aufzeichnen. Wie zuvor erwähnt ist, kann das Standortsignal zum Beispiel ein spezifiziertes Impulsmuster, Wellenlängenmuster oder beides haben, und das Verarbeitungssystem der elektronischen Vorrichtung kann die aufgenommene Strahlung analysieren, um das erwartete Signalmuster zu erkennen, z. B. durch Verwendung einer Kreuzkorrelation, die beispielsweise einen mathematischen Vergleich der erkannten Strahlung mit der funktionellen Form des erwarteten Signals beinhaltet, oder unter Verwendung von anderen mathematischen Mustererkennungstechniken, die dem Fachmann bekannt sind. Bei Erkennung des Zeitablaufs des Standortsignals kann jene Erkennung mit der Ausrichtung, die in Abhängigkeit von der Zeit aufgezeichnet wurde, in Zusammenhang gebracht werden, um die Ausrichtung auszuwählen, die der stärksten Amplitude der Signalerkennung entspricht. Die Signalstärke des erkannten Signals könnte auch direkt mit der Ausrichtung während des Scanvorgangs in Zusammenhang gebracht werden. Diese Korrelation kann dann dazu verwendet werden, eine Grafik an dem richtigen Standort auf dem Sichtfeld der Oberfläche 106 des Anzeigebildschirms, die dem Fahrzeug entspricht, z. B. 104b, das als die richtige Quelle des erwarteten Standortsignals ausgerichtet ist, darüber zu legen, wie ausführlicher in Verbindung mit 4A bis 4D beschrieben ist.
-
In einem anderen Beispiel kann die Anwendung, die auf der elektronischen Vorrichtung 102 läuft, die Intensität des Standortsignals (z. B. der Darstellungslinie 212) durch Verwendung von Signalen erkennen, die unter der Steuerung von einem oder mehreren geeigneten Wellenlängenfiltern gesammelt werden, die steuerbar in dem Weg von Licht platziert sind, das auf den Bildsensor 202 auftrifft, um so zu erlauben, dass die gewünschten Wellenlängen, die das Standortsignal ausmachen, in Abhängigkeit von der Zeit aufgenommen werden, während die Ausrichtung der elektronischen Vorrichtung 102 gleichzeitig in Abhängigkeit von der Zeit aufgenommen wird. Bei diesem Ansatz kann zum Beispiel ein Bild des Sichtfeldes unter normaler Bildgebung aufgenommen werden, und die Anwendung, die auf der elektronischen Vorrichtung 102 läuft, kann den Benutzer anweisen, das Sichtfeld nach Betätigen von einem oder mehreren gewünschten Farbfilter in das Sichtfeld zu scannen, um die Signalstärke von einem oder mehreren gegebenen Wellenlängen in Abhängigkeit von der Zeit aufzuzeichnen, während die Ausrichtung der elektronischen Vorrichtung 102 auch in Abhängigkeit davon aufgezeichnet wird, um die Signalstärke mit einer Ausrichtung der elektronischen Vorrichtung 102 in Zusammenhang zu bringen. Die Signalstärke des erkannten Signals könnte auch direkt mit der Ausrichtung während des Scanvorgangs in Zusammenhang gebracht werden. Diese Korrelation kann dann durch das Verarbeitungssystem der elektronischen Vorrichtung 102 dazu verwendet werden, eine Grafik an dem richtigen Standort auf dem Sichtfeld der Oberfläche 106 des Anzeigebildschirms, die dem Fahrzeug entspricht, das als die richtige Quelle des erwarteten Standortsignals ausgerichtet ist, z. B. Fahrzeug 104b, zu überlagern, wie ausführlicher in Verbindung mit 4A bis 4D beschrieben ist.
-
3 veranschaulicht ein veranschaulichendes Rahmenkonzept 300 für einen Ansatz einer Augmented-Reality-Erkennung zum Lokalisieren eines bestimmten autonomen Fahrzeugs gemäß einem anderen Beispiel der Offenbarung. Dieses Beispiel ähnelt dem Beispiel von 1, außer dass in dem Beispiel von 3 genaue Positionsinformationen sowohl für das autonome Fahrzeug als auch den Benutzer, z. B. mindestens basierend auf Daten des Global Positioning System (GPS) und Karteninformationen, die primäre Daten bereitstellen, auf denen die Identifizierung des vorgesehenen autonomen Fahrzeugs basiert. Zum Beispiel bestimmt das autonome Fahrzeug 104b seine eigene Position genau, z. B. innerhalb von etwa 1 Meter oder weniger, basierend auf einem oder mehreren von GPS-Daten, hochauflösenden Karten, die auf das autonome Fahrzeug geladen sind, und LIDAR, das an dem autonomen Fahrzeug angebracht ist. Herkömmliche Ansätze, die im Stand der Technik bekannt sind, um genaue Positionen von autonomen Fahrzeugen unter Nutzung von GPS-Daten, hochauflösenden Karten, die auf das autonome Fahrzeug geladen sind, und LIDAR, das an dem autonomen Fahrzeug angebracht ist, zu identifizieren, können in dieser Hinsicht genutzt werden. Ebenso wird die Position der elektronischen Vorrichtung 102 des Benutzers ähnlich genau, z. B. bis zu innerhalb von 1 Meter oder weniger, unter Verwendung von GPS-Daten und Informationen von hochauflösenden Karten, auf die durch die elektronische Vorrichtung 102 zugegriffen wird, z. B. unter Verwendung von herkömmlichen Ansätzen, bestimmt, die dem Fachmann bekannt sind. Darüber hinaus kann die elektronische Vorrichtung 102 ihre absolute Ausrichtung mit einer Kombination von Trägheitssensordaten und Kompasstechnologie bestimmen, wie herkömmlicherweise bekannt ist. Mit diesen Informationen kann die elektronische Vorrichtung, wie unten erläutert ist, einen Benutzer über eine visuelle Anweisung, eine Audioanweisung oder beides dazu auffordern, die elektronische Vorrichtung auf einen punktgenauen Standort zeigen zu lassen, der das vorgesehene autonome Fahrzeug identifiziert. In anderer Hinsicht ähnelt 3 1, und die vorherige Erläuterung in Bezug auf 1-2 ist gleichermaßen auf das Beispiel von 3 anwendbar. Somit sind für 3, wo anwendbar, dieselben Bezugszeichen wie in 1 beibehalten worden.
-
Wie in 3 gezeigt ist, kann ein Insasse ähnlich wie in 1 eine geeignete Anwendung nutzen, die auf einer elektronischen Vorrichtung 102 installiert ist, um ein autonomes Fahrzeug aus einem Pool von autonomen Fahrzeugen anzufordern. Eine Interaktion zwischen dem Insassen und der elektronischen Vorrichtung 102 kann über eine grafische Benutzeroberfläche 106 der elektronischen Vorrichtung 102 erfolgen. Die elektronische Vorrichtung 102 kann die Anfrage an eines oder mehrere Fernüberwachungs-Backend-Systeme 108 über ein drahtloses und/oder drahtgebundenes Kommunikationsnetz 110, wie das Internet, senden. Das/Die Fernüberwachungs-Backend-System(e) 108 ist wie die/das in 1 beschriebene.
-
Wenn das autonome Fahrzeug 104b innerhalb einer gewünschten Nähe des Standorts des vorgesehenen Insassen angekommen ist, kann der Insasse über eine drahtlose Kommunikation mit der elektronischen Vorrichtung 102, z. B. entweder von dem autonomen Fahrzeug selbst oder von dem Backendsystem 108, darauf aufmerksam gemacht werden. Ein Insasse kann dann entweder durch eine visuelle Anweisung, eine Audioanweisung oder beides an der elektronischen Vorrichtung 102 dazu aufgefordert werden, die elektronische Vorrichtung 102 mit dem Bildsensor 202 zu einem festgelegten Bereich zeigen zu lassen, in dem sich das autonome Fahrzeug befindet. Zum Beispiel können der Standort und die Ausrichtung der elektronischen Vorrichtung dem Backendsystem 108 oder dem autonomen Fahrzeug 104b kommuniziert werden, und eines jener Systeme kann den Benutzer dazu anweisen, die elektronische Vorrichtung 102 entweder nach links oder nach rechts neu auszurichten, bis die richtige Sichtlinienausrichtung mit dem punktgenauen Standort des autonomen Fahrzeugs 104b erreicht ist. Zusätzlich kann die elektronische Vorrichtung 102 eine Funktionalität aufweisen, sodass, wenn sie den punktgenauen Standort des vorgesehenen Fahrzeugs über das drahtlose und/oder drahtgebundene Kommunikationsnetz 110 empfängt, der punktgenaue Standort mit dem aufgenommenen Bild in Zusammenhang gebracht wird, das dem Insassen auf der grafischen Benutzeroberfläche 106 der elektronischen Vorrichtung 102 angezeigt wird. Mit der vorgesehenen Korrelation des autonomen Fahrzeugs mit dem Bild auf der grafischen Benutzeroberfläche 106 kann das autonome Fahrzeug von dem Insassen über eine Angabe identifiziert werden, wie hierin weiter beschrieben wird.
-
4A bis 4D veranschaulichen veranschaulichende Angaben eines autonomen Fahrzeugs gemäß Beispielen der Offenbarung. Eine Angabe an den vorgesehenen Insassen des jeweils zugeordneten autonomen Fahrzeugs kann durch den Insassen über die grafische Benutzeroberfläche 106 leicht angepasst werden. Zum Beispiel kann die Angabe eine oder mehrere geometrische Anmerkungen 402 sein, wie in 4A veranschaulicht ist, wie ein Pfeil, der durch einen Text begleitet ist, der besagt: „IHRE FAHRGELEGENHEIT“. In einem anderen Beispiel kann die Angabe farblich oder in Graustufe, z. B. mit einer farblichen oder Graustufenanmerkung 404, wie in 4B veranschaulicht ist, schattiert und/oder hervorgehoben werden. In noch einem anderen Beispiel kann die Angabe eine geometrische Anmerkung 406 sein, wie ein Kreis um das autonome Fahrzeug, wie in 4C veranschaulicht ist. 4D veranschaulicht eine andere beispielhafte Angabe eines über dem autonomen Fahrzeug liegenden Bildes 408. Das überlagerte Bild 408 kann das Gesicht des vorgesehenen Insassen oder eine Comicfigur sein.
-
5 ist ein Flussdiagramm 500 eines veranschaulichenden Ansatzes einer Augmented-Reality-Erkennung zum Lokalisieren eines bestimmten autonomen Fahrzeugs gemäß Beispielen der Offenbarung. Wie bei 502 gezeigt ist, wird einem Fernüberwachungs-Backend-System 108 eine Anfrage nach einem autonomen Fahrzeug durch die elektronische Vorrichtung 102 bereitgestellt, zum Beispiel über eine Benutzereingabe in eine Anwendung, die auf der elektronischen Vorrichtung 102 installiert ist. Die elektronische Vorrichtung 102 kann bei 504 ein erstes Signal empfangen, das angibt, dass sich das autonome Fahrzeug innerhalb einer für einen vorgesehenen Insassen zugänglichen Reichweite befindet. Das Signal kann ein Standortsignal von dem autonomen Fahrzeug einschließen, das zum Beispiel schnell pulsierende Fahrzeugaußenlichter mit einer spezifizierten Frequenz oder in einem spezifizierten Muster einschließen kann, die zur Erkennung vorgesehen sind. Die Impulse können, obwohl sie des Spektrums des sichtbaren Lichts sind, mit einer Frequenz pulsieren, die zu hoch ist, um von dem Insassen visuell als pulsierend oder flackernd empfunden zu werden. Das eine oder die mehreren Standortsignale von jedem autonomen Fahrzeug können auch Impulse von Licht des nicht sichtbaren Spektrums sein, wie Laserlicht, das von einer LIDAR-Vorrichtung ausgesendet wird, die an dem autonomen Fahrzeug befestigt ist. Das eine oder die mehreren Standortsignale von jedem autonomen Fahrzeug können aus einer Spektralverschiebung von Lichtfarben bestehen, z. B. einem gepulsten Muster, wobei unterschiedliche Wellenlängen beteiligt sind.
-
Eine Kommunikation unter Verwendung von WLAN- und/oder Bluetooth-Signalen kann auch zum Kommunizieren von zusätzlichen Identifizierungsinformationen des vorgesehenen der Fahrzeuge 104 zwischen einem solchen Fahrzeug und der elektronischen Vorrichtung 102, z. B. über Textnachrichten oder andere geeignete Nachrichten, verwendet werden. Der vorgesehene Insasse kann bei 506 durch die elektronische Vorrichtung 102 dazu aufgefordert werden, einen Bildsensor 202 auf einen festgelegten Bereich der zugänglichen Reichweite auszurichten. Zum Beispiel kann der vorgesehene Insasse durch Empfangen einer Textnachricht, eines Telefonanrufs, einer Popup-Benachrichtigung, eines Videoanrufs und/oder eines akustischen Alarms oder einer Sprachnachricht auf der elektronischen Vorrichtung 102 aufgefordert werden. Der Bildsensor 202 bildet bei 508 den für das autonome Fahrzeug festgelegten Bereich ab. Zum Beispiel kann der Benutzer durch die elektronische Vorrichtung über eine beliebige geeignete akustische oder grafische Nachricht oder Angabe, wie zuvor beschrieben ist, dazu aufgefordert werden, die elektronische Vorrichtung 102 in eine Richtung zeigen zu lassen, die dem festgelegten Bereich entspricht, in dem das vorgesehene Fahrzeug 104b erwartet wird, z. B. basierend auf bekannten GPS-Standortinformationen sowohl der elektronischen Vorrichtung 102 als auch des vorgesehenen Fahrzeugs 104b und basierend auf Richtungs- (Ausrichtung-)Informationen, die an der elektronischen Vorrichtung 102 über ihre Trägheitssensoren und ihre herkömmliche Kompassfunktionalität bekannt sind. Das Verarbeitungssystem kann gesammelte Standortsignaldaten in Abhängigkeit von der Ausrichtung verarbeiten, wie in den Beispielen oben beschrieben ist, um die Ausrichtung der elektronischen Vorrichtung zu bestimmen, die dem stärksten Standortsignal entspricht, und kann bestimmen, dass das Fahrzeug 104b die Quelle des Standortsignals ist und das vorgesehene Fahrzeug 104b ist. Bei 510 wird eine visuelle Darstellung des abgebildeten festgelegten Bereichs auf der grafischen Benutzeroberfläche 106 erzeugt und auf dem Anzeigebildschirm der elektronischen Vorrichtung 102 angezeigt. Das autonome Fahrzeug wird bei 512 durch die elektronische Vorrichtung 102 innerhalb der erzeugten visuellen Darstellung, z. B. über eine geeignete grafische Angabeeinrichtung, identifiziert, wie in 4A bis 4D gezeigt ist. Zum Beispiel kann die Angabeeinrichtung eine oder mehrere geometrische Anmerkungen 402 sein, wie in 4A veranschaulicht ist, wie ein Pfeil, der durch einen Text begleitet ist, der besagt: „IHRE FAHRGELEGENHEIT“. In einem anderen Beispiel kann die Angabe mit einer Farbe, z. B. mit einer farblichen Anmerkung 404, wie in 4B veranschaulicht ist, schattiert und/oder hervorgehoben werden. In noch einem anderen Beispiel kann die Angabe eine geometrische Anmerkung 406 sein, wie ein Kreis um das autonome Fahrzeug, wie in 4C veranschaulicht ist. 4D veranschaulicht eine andere beispielhafte Angabe eines über dem autonomen Fahrzeug liegenden Bildes 408. Das überlagerte Bild 408 kann das Gesicht des vorgesehenen Insassen oder eine Comicfigur sein.
-
Die hierin beschriebenen Verfahren und Systeme können unter Verwendung eines beliebigen geeigneten Computerverarbeitungssystems mit einer beliebigen geeigneten Kombination von Hardware, Software und/oder Firmware umgesetzt werden. Wie in 1 und 3 gezeigt ist, können Einheiten, die den Pool von autonomen Fahrzeugen 104 steuern, mit dem Fernüberwachungs-Backend-System 106 interagieren, das auf einem oder mehreren Computerservern über ein drahtloses und/oder drahtgebundenes Kommunikationsnetz 110 gehostet ist. Das Computerverarbeitungssystem 112 kann Softwarevorgänge, Programmanweisungen oder Abläufe ausführen, um oben beschriebene Berechnungen und Analysen umzusetzen. Solche Programmanweisungen, angesammelten Daten und verarbeitete Daten können auf einem oder mehreren nichtflüchtigen computerlesbaren Speichern 114 und/oder einem oder mehreren Datenspeichern zur Verwendung in Datenbanken 116 gespeichert werden. Kommunikationen können gemäß einer Client-Server-Architektur durchgeführt werden, wobei Insassen und autonome Fahrzeuge 104 auf das Fernüberwachungs-Backend-System 108 über einen oder mehrere Server über eines oder mehrere drahtlose und/oder drahtgebundene Kommunikationsnetze 110 zugreifen können.
-
Die Systeme können Elementverwaltungseinrichtungen, Echtzeitdatenpuffer, Übertragungseinrichtungen, Dateieingabeprozessoren, Datenbankindizes, Datenpuffer und Datenverwaltungseinrichtungen zum Verwalten von Daten und Verarbeiten einschließen. Das/Die Fernüberwachungs-Backend-System(e) 108 kann/können auch mehrere Anzeigen, Anzeigeoberflächen, Eingabe-/Ausgabevorrichtungen, wie Tastaturen, Mikrofone, Mäuse, Berührungsbildschirme und dergleichen, einschließen, um Administratoren oder Supportmitarbeitern zu erlauben, das/die Fernüberwachungs-Backend-System(e) 108 zu verwalten.
-
Diese schriftliche Beschreibung beschreibt veranschaulichende Ausführungsformen, aber auch andere Variationen fallen in den Schutzumfang der Offenbarung. Zum Beispiel können die Systeme und Verfahren Datensignale einschließen und nutzen, die über Netzwerke (z. B. ein Local Area Network, Wide Area Network, Internet, Kombinationen davon usw.), Glasfasermedium, Trägerwellen, drahtlose Netzwerke usw. zur Kommunikation mit einer oder mehreren Datenverarbeitungsvorrichtungen übertragen werden. Die Datensignale können beliebige oder alle der hierin offenbarten Daten tragen, die einer Vorrichtung oder von ihr bereitgestellt werden.
-
Die hierin beschriebenen Verfahren und Systeme können auf vielen unterschiedlichen Arten von Verarbeitungsvorrichtungen durch einen Programmcode umgesetzt werden, der Programmanweisungen umfasst, die durch das Vorrichtungsverarbeitungssystem ausführbar sind. Die Softwareprogrammanweisungen können einen Quellcode, Objektcode, Maschinencode oder beliebige andere gespeicherte Daten einschließen, die dazu geeignet sind, zu bewirken, dass ein Verarbeitungssystem die hierin beschriebenen Verfahren und Vorgänge durchführt. Beliebige geeignete Computersprachen können verwendet werden, wie C, C++, Java usw., wie für den Fachmann ersichtlich ist. Andere Umsetzungsformen können jedoch auch verwendet werden, wie Firmware oder sogar geeignet gestaltete Hardware, die dazu konfiguriert sind, die hierin beschriebenen Verfahren und Systeme auszuführen.
-
Die Daten der Systeme und Verfahren (z. B. Zuordnungen, Abbildungen, Dateneingabe, Datenausgabe, Zwischendatenergebnisse, Enddatenergebnisse usw.) können in einer oder mehreren unterschiedlichen Arten von computerimplementierten Datenspeichern gespeichert und umgesetzt werden, wie unterschiedliche Arten von Speichervorrichtungen und Programmiermodulen (z. B. RAM, ROM, Flash-Speicher, Flatfiles, Datenbanken, Programmierdatenstrukturen, Programmiervariablen, WENN-DANN-Aussagemodule (oder ähnlicher Art) usw.). Es wird darauf hingewiesen, dass Datenstrukturen Formate zur Verwendung beim Organisieren und Speichern von Daten in Datenbanken, Programmen, Speichern oder anderen nichtflüchtigen computerlesbaren Medien zur Verwendung durch ein Computerprogramm beschreiben.
-
Die hierin beschriebenen Computerkomponenten, Softwaremodule, Funktionen, Datenspeicher und Datenstrukturen können direkt oder indirekt miteinander verbunden sein, um den für ihre Vorgänge notwendigen Datenfluss zu erlauben. Es wird auch darauf hingewiesen, dass ein Modul oder Prozessor eine Codeeinheit einschließt, die einen Softwarevorgang durchführt, aber nicht darauf beschränkt ist, und zum Beispiel als eine Subroutine von Code oder als eine Codesoftwarefunktionseinheit oder als ein Objekt (wie in einem objektausgerichteten Paradigma) oder als ein Applet oder in einer Computerskriptsprache oder als eine andere Art von Computercode umgesetzt sein kann. Die Softwarekomponenten und/oder Funktionalität können je nach bestehender Situation auf einem einzigen Computer oder über mehrere Computer verteilt angeordnet sein.
-
Es versteht sich, dass, wie in der Beschreibung hierin und durchgehend in den folgenden Ansprüchen verwendet, die Bedeutung von „ein“, „eine“, „einer“, „eines“ und „der/die/das“ die Pluralreferenz einschließt, sofern der Kontext nicht eindeutig etwas anderes vorgibt. Es versteht sich auch, dass, wie in der Beschreibung hierin und in den folgenden Ansprüchen verwendet, die Bedeutung von „in“, sowohl „in“ als auch „auf” einschließt, sofern der Kontext nicht eindeutig etwas anderes vorgibt. Zusätzlich schließen die Bedeutungen von „und“ und „oder“, wie in der Beschreibung hierin und durchgehend in den folgenden Ansprüchen verwendet, sowohl die Adjunktion als auch die Disjunktion ein und können austauschbar verwendet werden, sofern der Kontext nicht ausdrücklich etwas anderes vorgibt; der Ausdruck „ausschließlich oder“ kann verwendet werden, um eine Situation anzugeben, in der nur die disjunkte Bedeutung gelten darf. Außerdem bezieht sich, wie in der Beschreibung hierin und in den folgenden Ansprüchen verwendet, die Bedeutung von „etwa“ und/oder „ungefähr“ auf ± 10 % der angegebenen Menge, sofern nicht anders angegeben.
-
Obwohl der offenbarte Gegenstand in Bezug auf veranschaulichende Ausführungsformen beschrieben worden ist, versteht es sich für den Fachmann, dass verschiedene Modifikationen daran vorgenommen werden können, ohne von dem Schutzumfang des beanspruchten Gegenstands, wie er in den Ansprüchen dargelegt ist, abzuweichen.