-
HINTERGRUND
-
Die vorliegende Erfindung betrifft die erweiterte Realität (augmented reality) und insbesondere Augmented-Reality-Einheiten.
-
Erweiterte Realität in ihrem herkömmlichen Sinn ist eine zeitnahe direkte oder indirekte Ansicht einer physischen, realen Umgebung, deren Elemente von einer durch einen Computer erzeugten sensorischen Eingabe wie beispielsweise Ton, Video, Grafiken oder Daten eines Global Positioning System (GPS) erweitert (oder ergänzt) werden. Erweiterte Realität wird herkömmlicherweise in Echtzeit und in Zusammenhang mit Umgebungselementen durchgeführt. Im Gegensatz zu virtueller Realität, bei der eine virtuelle Welt dargestellt wird, stellt die erweiterte Realität Informationen über die umgebende reale Wert dar und erweitert diese.
-
KURZDARSTELLUNG
-
Eine Augmented-Reality-Einheit enthält einen Prozessor, der so programmiert ist, dass er ausführbare Operationen startet. Zu den ausführbaren Operationen gehört die Feststellung, ob sich ein Benutzer der Augmented-Reality-Einheit innerhalb einer Schwellenwertentfernung zu einer konfigurierbaren physischen Vorrichtung befindet. Zu den ausführbaren Operationen kann als Reaktion auf die Feststellung, dass sich der Benutzer innerhalb der Schwellenwertentfernung zu der konfigurierbaren physischen Vorrichtung befindet, auch das Herstellen einer Übertragungsverbindung zwischen der Augmented-Reality-Einheit und einem Controller der konfigurierbaren physischen Vorrichtung gehören. Zu den ausführbaren Operationen kann auch das Starten des Controllers der konfigurierbaren physischen Vorrichtung gehören, um die konfigurierbare physische Vorrichtung von einer ersten Konfiguration in eine zweite Konfiguration zu ändern, wobei die zweite Konfiguration dem Benutzer die konfigurierbare physische Vorrichtung leichter zugänglich macht.
-
Ein Computerprogramm enthält ein durch einen Computer lesbares Speichermedium, das über darauf gespeicherten Programmcode verfügt. Der Programmcode ist durch einen Prozessor ausführbar, um ein Verfahren durchzuführen. Das Verfahren beinhaltet die Feststellung, durch eine Augmented-Reality-Einheit, ob sich ein Benutzer der Augmented-Reality-Einheit innerhalb einer Schwellenwertentfernung zu einer konfigurierbaren physischen Vorrichtung befindet. Das Verfahren kann als Reaktion auf die Feststellung, dass sich der Benutzer innerhalb der Schwellenwertentfernung zu der konfigurierbaren physischen Vorrichtung befindet, auch das Herstellen, durch die Augmented-Reality-Einheit, einer Übertragungsverbindung zwischen der Augmented-Reality-Einheit und einem Controller der konfigurierbaren physischen Vorrichtung beinhalten. Das Verfahren kann auch das Starten, durch die Augmented-Reality-Einheit, des Controllers der konfigurierbaren physischen Vorrichtung beinhalten, um die konfigurierbare physische Vorrichtung von einer ersten Konfiguration in eine zweite Konfiguration zu ändern, wobei die zweite Konfiguration dem Benutzer die konfigurierbare physische Vorrichtung leichter zugänglich macht.
-
Figurenliste
-
- 1 ist ein Blockschaubild, das ein Beispiel einer Augmented-Reality-Umgebung veranschaulicht.
- 2 stellt ein Beispiel eines versetzbaren Handlaufs in einer Augmented-Reality-Umgebung dar.
- 3 stellt ein Beispiel von versetzbaren Regalböden in einer Augmented-Reality-Umgebung dar.
- 4 stellt ein Beispiel eines Zeichens in einer Augmented-Reality-Umgebung dar.
- 5 stellt ein Beispiel eines Beleuchtungssystems in einer Augmented-Reality-Umgebung dar.
- 6 stellt ein Beispiel einer beleuchtenden konfigurierbaren physischen Struktur in einer Augmented-Reality-Umgebung dar.
- 7 ist ein Blockschaubild, das eine beispielhafte Datenverarbeitungsarchitektur für eine Augmented-Reality-Einheit veranschaulicht.
- 8 ist ein Blockschaubild, das eine beispielhafte Datenverarbeitungsarchitektur für eine physische Vorrichtung veranschaulicht.
- 9 ist ein Ablaufplan, der ein Beispiel eines Verfahrens zum Starten einer physischen Struktur veranschaulicht, um eine Konfiguration zu ändern.
-
AUSFÜHRLICHE BESCHREIBUNG
-
Diese Offenbarung betrifft die erweiterte Realität und insbesondere Augmented-Reality-Einheiten. Gemäß den hierin offenbarten erfindungsgemäßen Anordnungen kann eine Augmented-Reality-Einheit eine physische Vorrichtung starten, um eine Konfiguration zu ändern, um einem Benutzer die physische Vorrichtung leichter zugänglich zu machen. Zum Beispiel kann die Augmented-Reality-Einheit die physische Vorrichtung starten, um einen Handlauf oder einen Regalboden auf eine von einem Benutzer bevorzugte Höhe zu versetzen. In einem weiteren Beispiel kann die Augmented-Reality-Einheit die physische Vorrichtung starten, um eine Farbe eines Zeichens oder einer Lampe in eine durch den Benutzer erkennbare Farbe zu ändern, zum Beispiel, falls der Benutzer eine Sehstörung wie beispielsweise Farbenblindheit hat. In noch einem weiteren Beispiel kann die Augmented-Reality-Einheit die physische Vorrichtung starten, um eine Vielzahl von Lampen zu steuern, um einen Pfad zu beleuchten, damit sich der Benutzer von einem Ort an einen anderen fortbewegen kann. Eine oder mehrere Lichtfarben, die durch die Lampen ausgestrahlt werden, können als Farben ausgewählt werden, die von dem Benutzer erkennbar sind.
-
Mehrere Definitionen, die in diesem gesamten Dokument gelten, werden nun vorgestellt.
-
Gemäß der Definition hierin bedeutet der Begriff „Augmented-Reality-Einheit“ eine von einem Benutzer entweder am Körper des Benutzers oder an einer mobilen Einheit/Vorrichtung, die sich mit dem Benutzer fortbewegt, mitgeführte Einheit mit mindestens einem einzelnen Prozessor und Hautspeicher, die Elemente der realen Welt, die dem Benutzer dargestellt werden, erweitert. Zu Beispielen einer Augmented-Reality-Einheit gehören, ohne darauf beschränkt zu sein, Augmented-Reality-Brillen (z.B. Datenbrillen), Augmented-Reality-Headset und mobile Einheiten (z.B. Smartphone), die eine Augmented-Reality-Anwendung enthalten. Bei Sensoren, wie beispielsweise Bewegungsdetektoren und Berührungssensoren, die ein Benutzer während des Betriebs nicht mitführt, handelt es sich nicht um Augmented-Reality-Einheiten in dem Sinn, in dem der Begriff „Augmented-Reality-Einheit“ hierin definiert ist.
-
Gemäß der Definition hierin bedeutet der Begriff „konfigurierbare physische Vorrichtung“ eine physische Vorrichtung, die unter einer Vielzahl von Konfigurationen der physischen Vorrichtung betrieben werden kann.
-
Gemäß der Definition hierin bedeutet der Begriff „als Reaktion auf“ das rasche Antworten oder Reagieren auf eine Aktion oder ein Ereignis. Falls eine zweite Aktion „als Reaktion auf“ eine erste Aktion durchgeführt wird, besteht somit ein kausaler Zusammenhang zwischen einem Auftreten der ersten Aktion und einem Auftreten der zweiten Aktion, und der Begriff „als Reaktion auf“ gibt einen solchen kausalen Zusammenhang an.
-
Gemäß der Definition hierin bedeutet der Begriff „durch einen Computer lesbares Speichermedium“ ein Speichermedium, das Programmcode zur Verwendung durch oder in Verbindung mit einem/einer Anweisungsausführungssystem, -vorrichtung oder -einheit enthält oder speichert. Gemäß der Definition hierin ist ein „durch einen Computer lesbares Speichermedium“ kein flüchtiges, sich ausbreitendes Signal an sich.
-
Gemäß der Definition hierin bedeutet der Begriff „Sendeempfänger“ eine Einheit, die so konfiguriert ist, dass sie Signale moduliert und demoduliert, um Signale aus einer Form in eine andere umzuwandeln, und solche Signale über eine oder mehrere verschiedene drahtlose Übertragungsnetzwerke sendet und/oder empfängt. In einer Veranschaulichung kann ein Sendeempfänger Daten über 2G, 3G, 4G, GSM, LTE, UMB, GPRS, EUTRAN, TDMA, CDMA, WCDMA, UMTS, OFDM, HSPA+, direkte drahtlose Übertragung usw. übertragen. Zu direkten drahtlosen Übertragungen gehören, ohne darauf beschränkt zu sein, Übertragungen über ein Personal Area Network (PAN). Zu Beispielen für PAN-Übertragungen gehören, ohne darauf beschränkt zu sein, Bluetooth®-, Bluetooth® Low Energy-(BLE-) und/oder Zigbee™-Übertragungsprotokolle und so weiter. Des Weiteren kann ein Sendeempfänger als ein Adapter für drahtlose Übertragungen im Netz ausgeführt sein, der so konfiguriert ist, dass er Daten über drahtlose Übertragungen nach IEEE 802, zum Beispiel 802.11 und 802.16 (WiMax), mobiles WiMax, WPA oder WPA2 überträgt. Dennoch ist die Erfindung nicht auf diese Beispiele beschränkt und ein Sendeempfänger kann so konfiguriert sein, dass er HF-Signale gemäß beliebigen geeigneten Übertragungsstandards, -protokollen und/oder -architekturen oder eine geeignete Kombination aus solchen Standards, Protokollen und/oder Architekturen überträgt.
-
Gemäß der Definition hierin bedeutet der Begriff „Prozessor“ mindestens eine einzelne Hardware-Schaltung (z.B. eine integrierte Schaltung), die so konfiguriert ist, dass sie in dem Programmcode enthaltene Anweisungen ausführt. Zu Beispielen für einen Prozessor gehören, ohne darauf beschränkt zu sein, eine zentrale Verarbeitungseinheit (CPU, central processing unit), ein Array-Prozessor, ein Vektorprozessor, ein Digitalsignalprozessor (DSP), eine im Feld programmierbare Gatter-Anordnung (FPGA, field programmable gate array), eine programmierbare Logikanordnung (PLA, programmable logic array), eine anwendungsspezifische integrierte Schaltung (ASIC, application specific integrated circuit), eine programmierbare Logikschaltung und ein Controller.
-
Gemäß der Definition hierin bedeutet der Begriff „Echtzeit“ einen Grad an Verarbeitungsreaktion, den ein Benutzer oder ein System als ausreichend schnell für einen bestimmten Prozess oder eine bestimmte zu treffende Entscheidung wahrnimmt oder der es dem Prozessor ermöglicht, mit einigen externen Prozessen Schritt zu halten.
-
Gemäß der Definition hierin bedeutet der Begriff „automatisch“ ohne Eingriff des Benutzers.
-
Gemäß der Definition hierin bedeutet der Begriff „Benutzer“ eine Person (d.h. einen Menschen).
- 1 ist ein Blockschaubild, das ein Beispiel einer Augmented-Reality-Umgebung 100 veranschaulicht. Die Augmented-Reality-Umgebung 100 kann eine Augmented-Reality-Einheit 110 und eine physische Vorrichtung 130 enthalten. Die Augmented-Reality-Einheit 110 kann mindestens einen einzelnen Sendeempfänger 112, mindestens einen einzelnen Prozessor 114, eine Augmented-Reality-Anwendung 116 und optional ein Benutzerprofil 118 enthalten.
-
Die Augmented-Reality-Anwendung 116 kann so konfiguriert sein, dass sie eine räumliche Nähe der Augmented-Reality-Einheit 110 zu der physischen Vorrichtung 130 beruhend auf Signalen erkennt, die von der physischen Vorrichtung 130 erzeugt und von dem Sendeempfänger 112 empfangen werden. Des Weiteren kann die Augmented-Reality-Anwendung 116 so konfiguriert sein, dass sie verschiedene Prozesse startet, die hierin beschrieben werden, welche zumindest teilweise auf der räumlichen Nähe der Augmented-Reality-Einheit 110 zu der physischen Vorrichtung 130 beruhen.
-
Das Benutzerprofil 118 kann Benutzerprofildaten für einen Benutzer der Augmented-Reality-Anwendung 116 speichern. In einer einzelnen Anordnung kann das Benutzerprofil 118 eine elektronische Patientenakte 120 des Benutzers speichern. In einer weiteren Anordnung kann die Augmented-Reality-Anwendung 116 auf die elektronische Patientenakte 120 des Benutzers von einem anderen System aus (nicht gezeigt), zum Beispiel über den Sendeempfänger 112, zugreifen.
-
Die physische Vorrichtung 130 kann mindestens einen einzelnen Sendeempfänger 132, einen oder mehrere Controller 134, eine oder mehrere gesteuerte Einheiten und/oder Strukturen 136 und optional einen oder mehrere Stellantriebe 138 enthalten. Des Weiteren kann die physische Vorrichtung 130 eine Anwendung 140 einer physischen Vorrichtung enthalten. Die Anwendung 140 der physischen Vorrichtung kann im Hauptspeicher (nicht gezeigt) gespeichert sein, auf den der/die Controller 134 zugreifen, als Computerprogrammcode in dem/den Controller(n) 134 gespeichert sein oder als Konfigurationsdaten ausgeführt sein, die zur Konfiguration des Controllers 134 verwendet werden (z.B. in einer Anordnung, in der der Controller 134 programmierbare Logikschaltungen, eine FPGA, eine PLA usw. aufweist).
-
Bei dem/den Controller(n) 134 kann es sich um Prozessoren oder beliebige andere Hardwareschaltungen (z.B. integrierte Schaltungen) handeln, die so konfiguriert sind, dass sie in dem Programmcode des/der Controller(s) 134 enthaltene Anweisungen ausführen, und/oder so konfiguriert sind, dass sie von der Anwendung 140 der physischen Vorrichtung bereitgestellte Anweisungen ausführen. In dieser Hinsicht kann es sich bei dem/den Controller(n) 134 um Prozessoren handeln, die speziell so konfiguriert sind, dass sie bestimmte Anweisungen ausführen, obgleich die vorliegenden Anordnungen in dieser Hinsicht nicht beschränkt sind.
-
Die gesteuerten Einheiten und/oder Strukturen 136 können Komponenten der physischen Vorrichtung 130 sein, die so konfiguriert sind, dass sie unter einer Vielzahl von Betriebszuständen betrieben werden kann, zum Beispiel als Reaktion auf von einem oder mehreren der Controller 134 empfangene Steuersignale oder als Reaktion auf mechanische Eingaben, die von einem oder mehreren von dem/den Controller(n) 134 gesteuerten Stellantrieben 138 empfangen werden. In einer Veranschaulichung können die Stellantriebe 138 einen oder mehrere Magnete, Motoren usw. enthalten, die so konfiguriert sind, dass sie eine oder mehrere Komponenten der gesteuerten Einheiten und/oder Strukturen 136 mechanisch bewegen.
-
In einer weiteren Anordnung kann/können der/die Controller 134 die gesteuerten Einheiten und/oder Strukturen 136 unter verschiedenen einer Vielzahl von Betriebszuständen direkt betreiben. Zum Beispiel kann/können der/die Controller 134 mit den gesteuerten Einheiten und/oder Strukturen 136 über eine Schnittstelle direkt verbunden sein, um die Betriebszustände der gesteuerten Einheiten und/oder Strukturen 136 zu steuern. In einer Veranschaulichung kann/können der/die Controller 134 über eine Schnittstelle direkt mit Zeichen und/oder Lampen verbunden sein, um eine Lichtfarbe, die von den Zeichen und/oder Lampen abgestrahlt wird, zu steuern, eine Richtung zu steuern, in der die Zeichen und/oder Lampen Licht abstrahlen, und so weiter. Der/die Controller 134 kann/können Steuersignale als Reaktion auf von der Anwendung 140 der physischen Vorrichtung empfangene Daten erzeugen oder der/die Controller 134 kann/können Steuersignale als Reaktion auf von der Augmented-Reality-Anwendung 116 empfangene Daten erzeugen.
-
Die Augmented-Reality-Einheit 110 kann über mindestens eine einzelne zwischen dem Sendeempfänger 112 und dem Sendeempfänger 132 hergestellte Übertragungsverbindung 150 mit einer oder mehreren physischen Vorrichtungen in kommunikativer Weise verbunden sein. Die Übertragungsverbindung 150 ist das Medium, das verwendet wird, um Übertragungen zwischen der Augmented-Reality-Einheit 110 und der physischen Vorrichtung 130 bereitzustellen und kann gemäß beliebigen der zuvor beschriebenen Protokolle hergestellt werden. Über die Übertragungsverbindung 150 kann die Augmented-Reality-Anwendung 116 an die Anwendung 140 der physischen Vorrichtung oder direkt an den/die Controller 134 Augmented-Reality-Anforderungen 160 übertragen. Die Augmented-Reality-Anforderungen 160 können der Anwendung 140 der physischen Vorrichtung oder direkt dem/den Controller(n) 134 Daten angeben, die einen gewünschten Konfigurationszustand der physischen Vorrichtung 130 angeben, der für einen Benutzer der Augmented-Reality-Einheit 110 optimiert ist.
-
In einer einzelnen, keine Beschränkung darstellenden Anordnung kann die Augmented-Reality-Umgebung 100 des Weiteren eine oder mehrere zusätzliche Augmented-Reality-Einheiten enthalten, zum Beispiel eine Augmented-Reality-Einheit 170. Die Augmented-Reality-Einheit 170 kann mindestens einen Sendeempfänger 172, mindestens einen Prozessor 174, eine Augmented-Reality-Anwendung 176 und optional ein Benutzerprofil 178 enthalten. Der Sendeempfänger 172, der Prozessor 174, die Augmented-Reality-Anwendung 176 und das Benutzerprofil 178 können auf jeweilige Arten konfiguriert sein, die ähnlich denen sind, die für den Sendeempfänger 112, den Prozessor 114, die Augmented-Reality-Anwendung 116 und das Benutzerprofil 118 beschrieben wurden. Die Augmented-Reality-Einheit 170 kann darüber hinaus über mindestens eine einzelne zwischen dem Sendeempfänger 172 und dem Sendeempfänger 132 hergestellte Übertragungsverbindung 152 mit einer oder mehreren physischen Vorrichtungen, zum Beispiel der physischen Vorrichtung 130, in kommunikativer Weise verbunden sein. Optional kann das Benutzerprofil 178 eine elektronische Patientenakte 180 des Benutzers der Augmented-Reality-Einheit 170 speichern. In einer weiteren Anordnung kann die Augmented-Reality-Anwendung 176 auf die elektronische Patientenakte 180 dieses Benutzers von einem anderen System aus (nicht gezeigt), zum Beispiel über den Sendeempfänger 172, zugreifen.
-
2 stellt ein Beispiel eines versetzbaren Handlaufs 210 in einer Augmented-Reality-Umgebung 100 dar. In diesem Beispiel kann die physische Vorrichtung 130 den Handlauf 210 als die gesteuerte Struktur 136 (1) enthalten. Der Handlauf 210 kann in der Nähe von einer Rampe 215 oder von Treppen angebracht sein, die der Benutzer passieren möchte, obgleich die vorliegenden Anordnungen in dieser Hinsicht nicht beschränkt sind. Zum Beispiel kann der Handlauf 210 in der Nähe einer anderen Art von Gehweg angebracht sein. Wie beschrieben wird, kann die Höhe des Handlaufs 210 anpassbar sein. Überdies kann die Höhe auf eine von dem Benutzer der Augmented-Reality-Einheit 110 (1) bevorzugte Höhe angepasst werden. Dies kann den Handlauf 210 für den Benutzer leichter zugänglich machen, da der Benutzer den Handlauf 210 leichter greifen und den Handlauf 210 während des Gehens leichter unterstützend nutzen kann.
-
Unter Bezugnahme auf die 1 und 2 kann die Augmented-Reality-Einheit 110 feststellen, ob sich der Benutzer innerhalb einer Schwellenwertentfernung zu dem Handlauf 210 befindet. Zum Beispiel kann der Controller 134 über den Sendeempfänger 132 ein Beacon-Signal senden. Das Beacon-Signal kann zum Beispiel entsprechend einem Kurzstrecken-HF-Übertragungsprotokoll, zum Beispiel BLE, gesendet werden. Unter Verwendung des Sendeempfängers 112 und des Prozessors 114 kann die Augmented-Reality-Anwendung 116 eine Überwachung auf das Beacon-Signal vornehmen. Als Reaktion auf das Erkennen des Beacon-Signals kann die Augmented-Reality-Einheit 116 feststellen, dass sich der Benutzer innerhalb der Schwellenwertentfernung zu dem Handlauf 210 befindet. In dieser Hinsicht kann die Schwellenwertentfernung eine Entfernung sein, über die das Beacon-Signal durch die Augmented-Reality-Einheit 110 erkennbar ist.
-
In einer weiteren Anordnung kann der Benutzer eine Benutzereingabe in die Augmented-Reality-Einheit 110 eingeben, um anzuzeigen, dass sich der Benutzer innerhalb einer Schwellenwertentfernung zu dem Handlauf 210 befindet. Zum Beispiel kann der Benutzer die Benutzereingabe eingeben, während sich der Benutzer dem Handlauf 210 nähert. In diesem Beispiel kann die Schwellenwertentfernung eine Entfernung zwischen dem Benutzer (z.B. der von dem Benutzer verwendeten Augmented-Reality-Einheit 110) und dem Handlauf 210 zu dem Zeitpunkt sein, zu dem der Benutzer die Benutzereingabe eingibt.
-
Als Reaktion auf das Erkennen des Beacon-Signals oder der Benutzereingabe kann die Augmented-Reality-Anwendung 116 unter Verwendung des Sendeempfängers 112 und des Prozessors 114 die Augmented-Reality-Anforderung 160 an die physische Vorrichtung 130 übertragen. Die Augmented-Reality-Anforderung 160 kann eine bevorzugte Höhe 220 des Handlaufs 210 für den Benutzer angeben, zum Beispiel eine Höhe 220 über der Rampe 215, Treppen oder einem Boden. Die Augmented-Reality-Anwendung 116 kann die bevorzugte Höhe 220 beruhend auf dem Benutzerprofil 118 oder der elektronischen Patientenakte 120 feststellen und die Augmented-Reality-Anforderung 160 erzeugen, um die bevorzugte Höhe 220 aufzunehmen. Die Höhe 220 kann von einer Oberseite der Rampe 215, Treppen oder einem Gehweg zum Handlauf 210 gemessen/definiert oder in einer beliebigen anderen geeigneten Weise gemessen/definiert werden.
-
Unter Verwendung des Sendeempfängers 112 und des Prozessors 114 kann die Augmented-Reality-Anwendung 116 die Augmented-Reality-Anforderung 160 an die physische Vorrichtung 130, zum Beispiel an den Sendeempfänger 112, unter Verwendung von mindestens einem einzelnen HF-Übertragungsprotokoll wie beispielsweise einem in der Technik bekannten HF-Übertragungsprotokoll (z.B. BLE) übertragen. Der Sendeempfänger 132 kann die Augmented-Reality-Anforderung 160 empfangen und die Augmented-Reality-Anforderung 160 an den Controller 134 übertragen. Der Controller 134 kann die Augmented-Reality-Anforderung 160 verarbeiten, um die bevorzugte Höhe 220 des Handlaufs 210 für den Benutzer festzustellen. In dieser Hinsicht kann die Augmented-Reality-Anforderung 160 eine Anpassung der Höhe 220 des Handlaufs 210 für den Benutzer starten.
-
Der Controller 134 kann Steuersignale 230 an einen oder mehrere Stellantriebe 225 ausgeben. Die Steuersignale 230 können die Stellantriebe 225 so steuern, dass sie den Handlauf 210 zum Beispiel senkrecht nach oben und unten auf die gewünschte Höhe 220 versetzen. In einer einzelnen Anordnung können die Stellantriebe 225 Teleskop-Stellantriebe sein, die strukturelle Trägerelemente 235 senkrecht nach oben und unten versetzen. Weiterhin können andere Arten von Stellantrieben verwendet werden und die vorliegenden Anordnungen sind in dieser Hinsicht nicht beschränkt. Zum Beispiel können die Stellantriebe 225 Verschiebestellantriebe sein, falls der Handlauf 210 an einer Wand bzw. Mauer befestigt ist. Die Stellantriebe 225 können unter Verwendung von hydraulischen, pneumatischen, elektrischen, magnetischen und/oder mechanischen Prozessen arbeiten, wie in der Technik bekannt ist.
-
In einer einzelnen Anordnung können die Stellantriebe 225 Sensoren 240 enthalten, die Sensordaten erzeugen, welche die aktuelle Höhe des Handlaufs 210 angeben. In einer weiteren Anordnung können sich die Sensoren 240 außerhalb der Stellantriebe 224 an geeigneten Stellen befinden. In einem einzelnen Aspekt können die Stellantriebe 225 die Sensordaten verarbeiten, um jederzeit die Höhe des Handlaufs 210 festzustellen, zum Beispiel, bevor, wenn und nachdem der Handlauf 210 versetzt wird bzw. wurde, und das Versetzen des Handlaufs 210 als Reaktion darauf anhalten, dass der Handlauf 210 von einer bisherigen Höhe auf die gewünschte Höhe 220 versetzt ist. In einem weiteren Aspekt können die Sensoren 240 die Sensordaten an den Controller 134 übertragen und der Controller 134 kann die Steuersignale 230 als Reaktion auf die Sensordaten erzeugen. In dieser Hinsicht kann der Controller 134 die Stellantriebe 225 so steuern, dass das Versetzen des Handlaufs 210 als Reaktion darauf, dass der Handlauf 210 auf die gewünschte Höhe 220 versetzt ist, angehalten wird.
-
In einigen Fällen können Augmented-Reality-Einheiten 110, 170 einer Vielzahl von Benutzern Augmented-Reality-Anforderungen 160, 190 zur gleichen oder nahezu gleichen Zeit erzeugen. In einer einzelnen Anordnung kann der Controller 134 Terminierungsprozesse ausführen, um festzulegen, welche Augmented-Reality-Anforderung 160, 190 zuerst verarbeitet werden soll. Zum Beispiel kann der Controller 134 die erste empfangene Augmented-Reality-Anforderung 160 verarbeiten und die zweite Augmented-Reality-Anforderung 190 vorübergehend im Hauptspeicher speichern. Als Reaktion auf das Anpassen der Höhe des Handlaufs 210 entsprechend der ersten Augmented-Reality-Anforderung 160 kann der Controller 134 den Handlauf 210 auf dieser Höhe 220 für einen Schwellenwert-Zeitraum belassen. Der Schwellenwert-Zeitraum kann ein Zeitraum sein, der lang genug ist, damit der erste Benutzer die Rampe 215, Treppe oder einen Gehweg passieren kann. In einem weiteren Aspekt kann die physische Vorrichtung 130 einen oder mehrere Sensoren (nicht gezeigt) enthalten, die erkennen, wenn der Benutzer die Rampe 215, Treppe oder einen Gehweg passiert hat, und den Handlauf 210 auf der Höhe 220 belassen, bis der Benutzer die Rampe 215, Treppe oder einen Gehweg passiert hat. Ungeachtet dessen kann der Controller 134 als Reaktion darauf, dass der Schwellenwert-Zeitraum abläuft, oder als Reaktion darauf, dass der Benutzer die Rampe 215, Treppe oder einen Gehweg passiert, die zweite Augmented-Reality-Anforderung 190 verarbeiten, um die Höhe des Handlaufs 210 für den zweiten Benutzer anzupassen.
-
In einer weiteren Anordnung können sich die Augmented-Reality-Einheiten 110, 170 einer Vielzahl von Benutzern miteinander abstimmen, um festzustellen, welche Augmented-Reality-Einheit 110 anfangs die Kontrolle über die physische Vorrichtung 130 hat, um die Höhe des Handlaufs 210 anzupassen. Zum Beispiel können die Augmented-Reality-Anwendungen 116, 176 der jeweiligen Augmented-Reality-Einheiten 110, 170 so konfiguriert sein, dass sie unter Verwendung der jeweiligen Prozessoren 114, 174 und Sendeempfänger 112, 172 (z.B. unter Verwendung von BLE) eine Übertragungsverbindung 192 miteinander herstellen. Über die Übertragungsverbindung 192 können die jeweiligen Augmented-Reality-Anwendungen 116, 176 die Abstimmung durchführen, zum Beispiel, indem sie Abstimmungsnachrichten 194 miteinander austauschen. Beruhend auf der Abstimmung können die Augmented-Reality-Anwendungen 116, 176 feststellen, welche Augmented-Reality-Einheit 110, 170 bei der Steuerung der physischen Vorrichtung 130 Priorität vor der anderen hat und welche Augmented-Reality-Einheit 110, 170 zumindest anfangs die Steuerung der physischen Vorrichtung 130 an die andere Augmented-Reality-Einheit 110, 170 abgibt. Eine solche Feststellung kann auf Graden der Behinderung, dem Alter, der Größe usw. der Benutzer der jeweiligen Augmented-Reality-Einheit 110, 170 oder auf beliebigen anderen geeigneten Parametern beruhen.
-
Beispielhalber kann jedes Benutzerprofil 118, 178 und/oder jede elektronische Patientenakte 120, 180 einen Schweregrad (z.B. einen Wert, der den Schweregrad angibt) der Behinderung eines jeweiligen Benutzers angeben. Die Augmented-Reality-Anwendungen 116, 176 können bestimmen, dass der Augmented-Reality-Einheit 110 des Benutzers mit dem höchsten oder dem geringsten Schweregrad der Behinderung vor der Augmented-Reality-Einheit 170 bei der Steuerung der physischen Vorrichtung 130 der Vorrang eingeräumt wird. Folglich kann die Augmented-Reality-Einheit 110 den Controller 134 starten, um zum Beispiel die Höhe des Handlaufs 210 anzupassen, indem eine jeweilige Augmented-Reality-Anforderung 160 an die physische Vorrichtung 130 übertragen wird. Als Reaktion auf den Empfang der Augmented-Reality-Anforderung 160 kann der Controller 134 die Konfiguration der physischen Vorrichtung 130 gemäß der Augmented-Reality-Anforderung 160 ändern. Als Reaktion darauf, dass der Schwellenwert-Zeitraum abläuft, oder als Reaktion darauf, dass der Benutzer die Rampe 215, Treppen oder einen Gehweg passiert, kann die andere Augmented-Reality-Einheit 170 eine weitere Augmented-Reality-Anforderung 190 an die physische Vorrichtung 130 übertragen. Als Reaktion auf den Empfang der weiteren Augmented-Reality-Anforderung 190 kann der Controller 134 die Konfiguration der physischen Vorrichtung 130 gemäß der Augmented-Reality-Anforderung 190 ändern, zum Beispiel, indem er eine Höhe des Handlaufs für den Benutzer der Augmented-Reality-Einheit 170 anpasst.
-
Die Augmented-Reality-Anwendung 176 kann mit der Augmented-Reality-Anwendung 116 und/oder der Anwendung 140 der physischen Vorrichtung Daten austauschen, um festzustellen, wann die Augmented-Reality-Anforderung 190 übertragen werden soll. Beispielhalber kann die Augmented-Reality-Anwendung 116 der Anwendung der physischen Vorrichtung und/oder die Anwendung 140 der physischen Vorrichtung eine Nachricht (nicht gezeigt) an die Augmented-Reality-Anwendung 176 übertragen, die angibt, dass der Benutzer der Augmented-Reality-Einheit 110 die Rampe 215, Treppe oder einen Gehweg passiert hat.
-
In noch einer weiteren Anordnung können die Augmented-Reality-Anwendungen 116, 176 ihren jeweiligen Benutzern jeweils Informationen darstellen, die angeben, dass gerade eine Vielzahl von Benutzern versucht, auf den Handlauf 210 zuzugreifen, und die Benutzer auffordern, anzugeben, ob sie einer Verzögerung der Anpassung für sie zustimmen, bis einer oder mehrere andere Benutzer den Handlauf 210 verwendet haben. Weiterhin kann ein beliebiger anderer Prozess zur Abstimmung der Höhenanpassung für eine Vielzahl von Benutzern ausgeführt werden und die vorliegenden Anordnungen sind in dieser Hinsicht nicht beschränkt.
-
3 stellt ein Beispiel von versetzbaren Regalböden 310, 312 in einer Augmented-Reality-Umgebung 100 dar. In diesem Beispiel kann die physische Vorrichtung 130 mindestens einen einzelnen Regalboden 310, 312 als die gesteuerte Struktur 136 (1) enthalten. Die vorliegenden Anordnungen sind nicht auf die Anzahl der versetzbaren Regalböden 310, 312 beschränkt. Zum Beispiel können die vorliegenden Anordnungen einen einzelnen versetzbaren Regalboden, zwei versetzbare Regalböden, drei versetzbare Regalböden, vier versetzbare Regalböden, fünf versetzbare Regalböden und so weiter enthalten.
-
Die Regalböden 310, 312 können in einem Schrank 320 versetzbar angeordnet sein, obgleich die vorliegenden Anordnungen in dieser Hinsicht nicht beschränkt sind. Zum Beispiel können die Regalböden 310, 312 an einer Wand oder einer anderen Struktur versetzbar befestigt sein. Wie beschrieben wird, kann eine Höhe 330, 332 eines jeden Regalbodens 310, 312 anpassbar sein. Überdies kann/können die Höhe(n) 330, 332 auf von dem Benutzer der Augmented-Reality-Einheit 110 (1) bevorzugte Höhen angepasst werden. Dadurch können die Regalböden 310, 312 für den Benutzer leichter zugänglich sein, wodurch der Benutzer leichter auf Artikel von den Regelböden 310, 312 zugreifen und Artikel auf den Regelböden 310, 312 platzieren kann.
-
Unter Bezugnahme auf die 1 und 3 kann die Augmented-Reality-Einheit 110 zum Beispiel beruhend auf einem Beacon-Signal oder einer Benutzereingabe, wie zuvor unter Bezugnahme auf die 1 und 2 beschrieben wurde, feststellen, ob sich der Benutzer innerhalb einer Schwellenwertentfernung zu den Regelböden 310, 312 befindet. Als Reaktion auf das Erkennen des Beacon-Signals oder der Benutzereingabe kann die Augmented-Reality-Anwendung 116 unter Verwendung des Sendeempfängers 112 und des Prozessors 114 (in 1 gezeigt) die Augmented-Reality-Anforderung 160 an die physische Vorrichtung 130 übertragen. Die Augmented-Reality-Anforderung 160 kann eine bevorzugte Höhe 330 des Regalbodens 310 und/oder eine bevorzugte Höhe 332 des Regalbodens 312 angeben. Die Augmented-Reality-Anwendung 116 kann die bevorzugten Höhen 330, 332 beruhend auf dem Benutzerprofil 118 oder der elektronischen Patientenakte 120 feststellen und die Augmented-Reality-Anforderung 160 erzeugen, um die bevorzugte Höhe 330 und/oder die bevorzugte Höhe 332 aufzunehmen.
-
Die Augmented-Reality-Anwendung 116 kann die Augmented-Reality-Anforderung 160 an die physische Vorrichtung 130 übertragen, zum Beispiel wie zuvor unter Bezugnahme auf die 1 und 2 beschrieben wurde. Der Controller 134 kann die Augmented-Reality-Anforderung 160 verarbeiten, um die bevorzugte(n) Höhe(n) 330, 332 des Regalbodens/der Regalböden 310, 312 für den Benutzer festzustellen. In dieser Hinsicht kann die Augmented-Reality-Anforderung 160 eine Anpassung der Höhe(n) 330, 332 des Regalbodens/der Regelböden 310, 312 für den Benutzer starten. Die Höhe(n) 330, 332 können von einer Unterseite 340 des Schranks 320 zu Oberseiten 350, 352 der jeweiligen Regalböden 310, 312 gemessen/definiert werden, vom Boden zu einer Oberseite 350, 352 der jeweiligen Regalböden 310, 312 gemessen/definiert werden oder in einer beliebigen anderen geeigneten Weise gemessen/definiert werden.
-
Der Controller 134 kann Steuersignale (nicht gezeigt) an einen oder mehrere Stellantriebe 360 ausgeben. Die Steuersignale 230 können die Stellantriebe 360 so steuern, dass die Regalböden 310, 312 zum Beispiel senkrecht nach oben und unten auf die gewünschten Höhen 330, 332 versetzt werden. In einer einzelnen Anordnung können die Stellantriebe 360 Verschiebestellantriebe sein, die strukturelle Trägerelemente 370, 372, an denen die Regalböden 310, 312 jeweils befestigt sind, senkrecht nach oben und unten versetzen. Weiterhin können andere Arten von Stellantrieben verwendet werden und die vorliegenden Anordnungen sind in dieser Hinsicht nicht beschränkt.
-
In einer einzelnen Anordnung können die Stellantriebe 360 Sensoren 380 enthalten, die Sensordaten erzeugen, welche die aktuellen Höhen der Regalböden 310, 312 angeben. In einer weiteren Anordnung können sich die Sensoren 380 außerhalb der Stellantriebe 360 an geeigneten Stellen befinden. In einem einzelnen Aspekt können die Stellantriebe 360 die Sensordaten verarbeiten, um die Höhe(n) der Regalböden 310, 312 jederzeit festzustellen, zum Beispiel, bevor, wenn und nachdem die Regalböden 310, 312 versetzt werden bzw. wurden, und das Versetzen der Regalböden 310, 312 als Reaktion darauf anhalten, dass die Regalböden 310, 312 von bisherigen Höhen auf die gewünschten Höhen 330, 332 versetzt sind. In einem weiteren Aspekt können die Sensoren die Sensordaten an den Controller 134 übertragen und der Controller 134 kann die Steuersignale 230 als Reaktion auf die Sensordaten erzeugen. In dieser Hinsicht kann der Controller 134 die Stellantriebe 360 so steuern, dass das Versetzen der Regalböden 310, 312 als Reaktion darauf, dass die jeweiligen Regalböden 310, 312 auf die gewünschten Höhen 330, 332 versetzt sind, angehalten wird.
-
An dieser Stelle sei angemerkt, dass die vorliegenden Anordnungen nicht auf die Beispiele der 2 und 3 beschränkt sind. Zum Beispiel können die hierin beschriebenen Anordnungen angewendet werden, um eine Höhe eines Rollstuhls anzupassen, um den Einstieg in und den Ausstieg aus dem Rollstuhl zu erleichtern, und die Höhe des Rollstuhls zur Fortbewegung anzupassen. In einem weiteren Beispiel können die hierin beschriebenen Anordnungen angepasst werden, um eine Höhe eines Fahrzeugs anzupassen, um den Einstieg in und den Ausstieg aus dem Fahrzeug zu erleichtern. Zum Beispiel kann der Controller 134 ein Luftfedersystem des Fahrzeugs so steuern, dass das Fahrzeug abgesenkt wird, um beim Einstieg/Ausstieg zu helfen, und das Fahrzeug für die Fahrt angehoben wird.
-
4 stellt ein Beispiel eines Zeichens 400 in einer Augmented-Reality-Umgebung 100 dar. In diesem Beispiel kann die physische Vorrichtung 130 das Zeichen 400 als die gesteuerte Struktur 136 (1) enthalten. Das Zeichen 400 kann betrieben werden, um mindestens eine Farbe von mindestens einem Teil 410, 412, 414 des Zeichens 400 zu ändern. In einer einzelnen Anordnung, zum Beispiel einer Anordnung, in der das Zeichen 400 eine Ampel ist, wie in 4 gezeigt ist, kann jeder Teil 410, 412, 414 des Zeichens 400 eine oder mehrere bestimmte Farben darstellen, obgleich jede Farbe nicht gleichzeitig dargestellt werden muss. In einer weiteren Anordnung kann das Zeichen 400 Text in einer oder mehreren Farben darstellen. In noch einer weiteren Anordnung kann das Zeichen 400 ein oder mehrere Bilder in einer oder mehreren Farben darstellen.
-
Ein Benutzer hat vielleicht eine Sehbehinderung (z.B. Farbenblindheit), bei der der Benutzer nicht in der Lage ist, bestimmte Farben zu unterscheiden, was in dem Benutzerprofil 118 und/oder der elektronischen Patientenakte 120 angegeben sein kann. Somit verfügt der Benutzer möglicherweise nicht über die Fähigkeit, zwischen verschiedenen, von dem Zeichen 400 dargestellten Farben zu unterscheiden. Die vorliegenden Anordnungen können jedoch das Erkennen der verschiedenen Teile 410, 412, 414 des Zeichens 400 durch den Benutzer vereinfachen. In einer Veranschaulichung hat der Benutzer vielleicht die Rot-Grün-Farbenblindheit, bei der der Benutzer nicht in der Lage ist, die Farbe Rot von der Farbe Grün zu unterscheiden. Die vorliegenden Anordnungen können einen oder mehrere der verschiedenen Teile 410, 412, 414 des Zeichens 400 in Farben darstellen, die von dem Benutzer leicht erkennbar sind. Folglich verwechselt der Benutzer nicht die Teile 410, 412, 414 und versteht deren Bedeutung (z.B. Vorsicht, Stopp oder Weiter). In dem folgenden Beispiel kann angenommen werden, dass der Benutzer ein Fahrer eines Fahrzeugs ist, das auf einer Straße unterwegs ist und das Zeichen 400 antrifft.
-
Unter Bezugnahme auf die 1 und 4 kann die Augmented-Reality-Anwendung 116 als Reaktion auf das Erkennen des Beacon-Signals oder der Benutzereingabe unter Verwendung des Sendeempfängers 112 und des Prozessors 114 (in 1 gezeigt) die Augmented-Reality-Anforderung 160 an die physische Vorrichtung 130 übertragen, wie zuvor beschrieben wurde. In einer weiteren Anordnung kann die Augmented-Reality-Anwendung 116 unter Verwendung von GPS-Daten, die von einem GPA-Empfänger (nicht gezeigt) der Augmented-Reality-Einheit 110 erzeugt werden, feststellen, dass sich der Benutzer (z.B. die von dem Benutzer verwendete Augmented-Reality-Einheit 110) innerhalb einer Schwellenwertentfernung zum Zeichen 400 befindet. Als Reaktion auf die Feststellung, dass sich der Benutzer innerhalb der Schwellenwertentfernung zum Zeichen 400 befindet, kann die Augmented-Reality-Anwendung 116 die Augmented-Reality-Anforderung 160 an den Controller 134 übertragen.
-
Die Augmented-Reality-Anforderung 160 kann eine bevorzugte Farbe für einen oder mehrere der Teile 410, 412, 414 des Zeichens 400 angeben. Zum Beispiel sei angenommen, dass der Benutzer die Rot-Grün-Farbenblindheit hat. Da der Teil 410 des Zeichens 400 üblicherweise eine rote Lichtfarbe und der Teil 414 des Zeichens 400 üblicherweise eine grüne Lichtfarbe darstellt, hat der Benutzer gegebenenfalls Schwierigkeiten, zwischen den jeweiligen Farben zu unterscheiden, die von den Teilen 410, 414 des Zeichens 400 dargestellt werden.
-
Gleichwohl gehen die vorliegenden Anordnungen dieses Problem an. Falls der Teil 410 des Zeichens 400 normalerweise in der Farbe Rot dargestellt wird, kann die Augmented-Reality-Anforderung 160 eine weitere bevorzugte Lichtfarbe angeben, die von dem Teil 410 ausgestrahlt werden soll, zum Beispiel Braun. Ebenso kann die Augmented-Reality-Anforderung 160, falls der Teil 414 des Zeichens 400 normalerweise in der Farbe Grün dargestellt wird, eine weitere bevorzugte Lichtfarbe angeben, die von dem Teil 414 ausgestrahlt werden soll, zum Beispiel Blau. Die Augmented-Reality-Anwendung 116 kann die bevorzugten Farben beruhend auf der Verarbeitung des Benutzerprofils 118 und/oder der elektronischen Patientenakte 120 feststellen.
-
Der Controller 134 kann so konfiguriert sein, dass er als Reaktion auf den Empfang der Augmented-Reality-Anforderung 160 die Teile 410, 414 des Zeichens 400, wenn diese beleuchtet werden, in den jeweiligen bevorzugten Farben darstellt. Zum Beispiel kann der Controller Steuersignale an Schalter/Controller übertragen, die die Lampen 510 steuern. Die Schalter/Controller können die Teile 410, 414 des Zeichens 400 konfigurieren, um gewünschte Farben darzustellen, wenn diese beleuchtet werden.
-
Andere Fahrer treffen gegebenenfalls auch auf das Zeichen 400 und die bevorzugten Farben sind möglicherweise verwirrend für sie. Nichtdestotrotz kann der Controller 134 so konfiguriert sein, dass er als Reaktion auf den Empfang der Augmented-Reality-Anforderung 160 gleichzeitig verschiedene Farben darstellt oder nacheinander wiederholt verschiedene Farben darstellt. Zum Beispiel kann der Controller 134 so konfiguriert sein, dass er für einen Teil 410 des Zeichens 400 sowohl rote als auch braune Lampen gleichzeitig zum Leuchten bringt. Ebenso kann der Controller 134 so konfiguriert sein, dass er für einen Teil 414 des Zeichens 400 sowohl grüne als auch blaue Lampen gleichzeitig zum Leuchten bringt. In einem weiteren Beispiel können die Lampen so konfiguriert sein, dass sie zu einem bestimmten Zeitpunkt eine bestimmte Farbe darstellen. Die Lampen können zum Beispiel LED-Lampen sein, die so konfiguriert sind, dass sie zwei oder mehr Farben ausstrahlen. Der Controller 134 kann so konfiguriert sein, dass er für den Teil 410 des Zeichens 400 die Lampen so steuert, dass sie zwischen der Darstellung von rotem Licht und braunem Licht wechseln. Des Weiteren kann der Controller 134 so konfiguriert sein, dass er für den Teil 414 des Zeichens 400 die Lampen so steuert, dass sie zwischen der Darstellung von grünem Licht und blauem Licht wechseln.
-
In einer weiteren Anordnung, zum Beispiel einer Anordnung, in der die Augmented-Reality-Einheit 110 als eine Datenbrille oder als Augmented-Reality-Headset ausgeführt ist, kann die Augmented-Reality-Anwendung 116 über den Prozessor 114 eine reale Ansicht des durch die Augmented-Reality-Einheit 110 dargestellten Zeichens 400 mit bevorzugten Farben überlagern. In dieser Hinsicht kann die Augmented-Reality-Einheit 110 die reale Darstellung des Zeichens 400 erweitern.
-
Zum Beispiel kann die Augmented-Reality-Einheit 110 eine Bilderfassungseinheit enthalten, die Bilder des Zeichens 400 erfasst und die Bilder dem Benutzer über Linsen der Datenbrille oder einen Bildschirm der Augmented-Reality-Headset darstellt. Die Augmented-Reality-Anwendung 116 kann Lichtfarben, die von den Teilen 410, 412, 414 des Zeichens 400 dargestellt werden, in Echtzeit erkennen. Des Weiteren kann die Augmented-Reality-Anwendung 116 beruhend auf dem Benutzerprofil 118 und/oder der elektronischen Patientenakte 120 die Lichtfarben feststellen, die für den Benutzer nicht unterscheidbar sind. Die Augmented-Reality-Anwendung 116 kann beruhend auf dem Benutzerprofil 118 und/oder der elektronischen Patientenakte 120 in Echtzeit Farben auswählen, mit denen die jeweiligen Teile 410, 412, 414 des Zeichens 400 überlagert werden sollen, damit der Benutzer das Zeichen leichter verstehen kann. Die Augmented-Reality-Anwendung 116 kann die ausgewählten Farben für die jeweiligen Teile 410, 412, 414 des Zeichens 400 unter Verwendung einer Bilddarstellungseinheit (die z.B. Bilder/Farben auf Linsen der Datenbrille projiziert oder Bilder/Farben auf einem Bildschirm der Augmented-Reality-Headset darstellt) zur Sichtbarmachung für den Benutzer darstellen. Zum Beispiel kann die Augmented-Reality-Anwendung 116, falls der Teil 410 des Zeichens 400 in einer roten Farbe beleuchtet wird, eine Farbe Braun über dem Teil 410 des Zeichens 400 darstellen, wenn dieser Teil des Zeichens beleuchtet wird, und eine Farbe Blau über dem Teil 414 des Zeichens darstellen, wenn dieser Teil des Zeichens beleuchtet wird.
-
5 stellt ein Beispiel eines Beleuchtungssystems 500 in einer Augmented-Reality-Umgebung 100 dar. In diesem Beispiel kann die physische Vorrichtung 130 Lampen 510 des Beleuchtungssystems 500 als die gesteuerten Einheiten 136 (1) enthalten. Das Beleuchtungssystem 500 kann einen Pfad 520 beleuchten, damit sich der Benutzer von einem ersten Ort (z.B. einem aktuellen Aufenthaltsort des Benutzers) an mindestens einen zweiten Ort (z.B. einen Ort, an den sich der Benutzer hinbewegen möchte) fortbewegen (z.B. sicher fortbewegen) kann.
-
Unter Bezugnahme auf die 1 und 5 kann der Controller 134 die Lampen 510 so steuern, dass sie den Pfad 520 als Reaktion auf den Empfang der Augmented-Reality-Anforderung 160 von der Augmented-Reality-Einheit 110 beleuchten. Des Weiteren können die Augmented-Reality-Anforderungen 160 dem Controller 134 gegenüber angeben, den Pfad 520 in einer oder mehreren bestimmten Farben zu beleuchten. Solche Farben können Farben sein, die für den Benutzer von anderen Farben unterscheidbar sind. In einer Veranschaulichung hat der Benutzer möglicherweise eine Sehbehinderung, bei der der Benutzer nicht in der Lage ist, bestimmte Farben zu unterscheiden. Die Augmented-Reality-Anforderungen 160 können eine bevorzugte Farbe angeben, in der der Pfad 520 beleuchtet werden soll, so dass der Benutzer eine solche Beleuchtung von anderem Licht unterscheiden kann, das der Benutzer gegebenenfalls visuell empfängt.
-
In einer einzelnen Anordnung können die Augmented-Reality-Anforderungen 160 als Reaktion auf eine oder mehrere Benutzereingaben in die Augmented-Reality-Einheit 110 erzeugt werden. Zum Beispiel kann der Benutzer einen von einer Benutzerschnittstelle der Augmented-Reality-Einheit 110 dargestellten Menüpunkt auswählen. Bei dem Menüpunkt kann es sich zum Beispiel um einen Menüpunkt handeln, der eine Anforderung, eine nächstgelegene Ausfahrt zu suchen, angibt, einen Menüpunkt, der eine Anforderung, sich zu einem bestimmten Ort fortzubewegen, angibt, usw. Als Reaktion auf die Benutzerauswahl des Menüpunkts kann die Augmented-Reality-Anwendung unter Verwendung des Prozessors 114 die Augmented-Reality-Anforderungen 160 erzeugen. Unter Verwendung des Prozessors 114 und des Sendeempfängers 112 kann die Augmented-Reality-Anwendung die Augmented-Reality-Anforderung 160 an den Sendeempfänger 132 übertragen, der die Augmented-Reality-Anforderungen 160 an den Controller 134 übertragen kann.
-
Der Controller 134 kann die Augmented-Reality-Anforderungen 160 verarbeiten und als Reaktion darauf die Lampen 510 auswählen, die für die Beleuchtung des Pfades 520 geeignet sind, und Steuersignale an diese Lampen (z.B. an Schalter/Controller, die die Lampen 510 steuern) übertragen, um die Lampen 510 zum Leuchten zu bringen. Die Lampen 510 können so konfiguriert sein, dass sie eine Vielzahl von Lichtfarben erzeugen. Zum Beispiel kann jede Lampe 510 eine oder mehrere LED-Lampen enthalten, die so konfiguriert sind, dass sie zwei oder mehr Farben ausstrahlen.
-
Beruhend auf der Augmented-Reality-Anforderung 160 können die Steuersignale die Lichtfarbe angeben, die eine jede jeweilige Lampe 510 erzeugen soll. Zum Beispiel kann die Augmented-Reality-Anforderung 160 eine oder mehrere bestimmte Lichtfarben angeben und der Controller 134 kann die Steuersignale erzeugen, um die eine oder die mehreren bestimmten Lichtfarben anzugeben. Die Augmented-Reality-Anwendung 116 kann die bestimmte(n) Lichtfarbe(n) beruhend auf dem Benutzerprofil 118 und/oder der elektronischen Patientenakte 120 des Benutzers auswählen. Falls der Benutzer zum Beispiel Schwierigkeiten hat, bestimmte Lichtfarben zu unterscheiden, kann die Augmented-Reality-Anwendung 116 eine oder mehrere Farben auswählen, die für den Benutzer unterscheidbar sind.
-
In einer weiteren Anordnung, zum Beispiel einer Anordnung, in der die Augmented-Reality-Einheit 110 als eine Datenbrille oder als Augmented-Reality-Headset ausgeführt ist, kann die Augmented-Reality-Anwendung 116 über den Prozessor 114 eine Darstellung der realen Umgebung, die dem Benutzer über die Augmented-Reality-Einheit 110 dargestellt wird, mit dem Pfad 520 überlagern. In dieser Hinsicht kann die Augmented-Reality-Einheit 110 die reale Darstellung mit dem Pfad 520 erweitern, zum Beispiel in einer Weise, die ähnlich der unter Bezugnahme auf 4 beschriebenen ist.
-
6 stellt ein Beispiel einer beleuchtenden konfigurierbaren physischen Struktur 130 in einer Augmented-Reality-Umgebung 100 dar. In diesem Beispiel kann die physische Struktur 130 eine Wand bzw. eine Mauer, ein Boden, eine Decke, ein Bereich usw. sein. Die physische Struktur 130 kann mindestens einen Bildschirm 600 enthalten, der so konfiguriert ist, dass er Licht abstrahlt. In einer einzelnen Anordnung kann die physische Struktur 130 eine Vielzahl von Bildschirmen 600 enthalten. Zu Beispielen für einen Bildschirm 600 gehören, ohne darauf beschränkt zu sein, ein LED-Bildschirm mit Leuchtdioden, ein OLED-Bildschirm mit organischen Leuchtdioden, ein Flüssigkristall-(LCD-)Bildschirm, ein Plasmabildschirm und so weiter. In einem weiteren Beispiel kann ein Bildschirm 600 ein faseroptischer Bildschirm sein, der eine Vielzahl von faseroptischen Lichtröhren (nicht gezeigt) enthält. Ein erstes Ende einer jeden faseroptischen Lichtröhre kann bündig mit einer Oberfläche des Bildschirms 600 sein, hinter der Oberfläche des Bildschirms 600 abgesenkt sein oder über die Oberfläche des Bildschirms 600 hinausragen. Ein zweites Ende einer jeden Röhre kann an einer Lampe befestigt oder nahe einer Lampe (z.B. einer LED) platziert sein. Jede faseroptische Röhre kann von der jeweiligen Lampe erzeugtes Licht durch das erste Ende der faseroptischen Röhre abstrahlen. In einem weiteren Beispiel kann ein Bildschirm 600 einen Bildprojektor enthalten, der Bilder auf die physische Struktur 130 projiziert.
-
Unter Bezugnahme auf die 1 und 6 kann der Controller 134 den/die Bildschirm(e) 600 so steuern, dass ein Pfad 610 beleuchtet wird, damit sich der Benutzer von einem ersten Ort (z.B. einem aktuellen Aufenthaltsort des Benutzers) an mindestens einen zweiten Ort fortbewegen (z.B. sicher fortbewegen) kann. Der Controller 134 den/die Bildschirm(e) 600 so steuern, dass der Pfad 610 als Reaktion auf den Empfang der Augmented-Reality-Anforderung 160 von der Augmented-Reality-Einheit 110 beleuchtet wird. Des Weiteren können die Augmented-Reality-Anforderungen 160 dem Controller 134 gegenüber angeben, den Pfad 610 in einer oder mehreren bestimmten Farben zu beleuchten.
-
In einer weiteren Anordnung kann der Controller 134 den/die Bildschirm(e) 600 selektiv so steuern, dass ein beleuchtetes Farbschema, das Farben oder Texturen der physischen Vorrichtung 130 visuell darstellt, als Reaktion auf den Empfang der Augmented-Reality-Anforderung 160 von der Augmented-Reality-Einheit 110 geändert wird. Zum Beispiel kann der Controller 134 den/die Bildschirm(e) 600 so steuern, dass ein optisches Erscheinungsbild des Bildschirms/der Bildschirme 600 und somit die physische Struktur 130 geändert wird, indem auf dem/den Bildschirm(en) dargestellte Farben oder Texturen geändert werden.
-
In einer Veranschaulichung kann der Controller 134, falls die physische Vorrichtung 130 eine Decke ist, den/die Bildschirm(e) 600 so steuern, dass ein oder mehrere durch den Bildschirm dargestellte Bilder geändert werden. Zum Beispiel kann es sich bei einem ersten Satz von Bildern um Bilder von Deckenplatten handeln. Die Bilder der Deckenplatten können bestimmte Texturen darstellen. Solche Texturen können sich als Reaktion darauf ändern, dass die Bilder geändert werden. Folglich kann die physische Vorrichtung 130 wie eine bestimmte Art von Decke aussehen. Als Reaktion auf den Empfang der Augmented-Reality-Anforderung 160 von der Augmented-Reality-Einheit 110 kann der Controller 134 die Bildschirme 600 so steuern, dass die Bilder geändert werden, zum Beispiel in Bilder, die verschiedene Deckenplatten darstellen. Folglich kann die physische Vorrichtung 130 wie eine andere Art von Decke aussehen. Falls die physische Vorrichtung 130 ein Boden ist, kann es sich bei einem ersten Satz von Bildern, die von den Bildschirmen 600 dargestellt werden, um Bilder handeln, die einen Holzboden darstellen. Folglich kann die physische Vorrichtung 130 wie ein Holzboden aussehen, der Holztexturen enthält. Als Reaktion auf den Empfang der Augmented-Reality-Anforderung 160 von der Augmented-Reality-Einheit 110 kann der Controller 134 die Bildschirme 600 so steuern, dass die Bilder geändert werden, zum Beispiel in Bilder, die einen Marmorfußboden darstellen. Folglich kann die physische Vorrichtung 130 wie ein Marmorfußboden aussehen. Falls die physische Vorrichtung 130 eine Wand bzw. eine Mauer ist, kann es sich bei einem ersten Satz von Bildern, die von den Bildschirmen 600 dargestellt werden, um Bilder handeln, die ein oder mehrere Kunstwerke darstellen. Als Reaktion auf den Empfang der Augmented-Reality-Anforderung 160 von der Augmented-Reality-Einheit 110 kann der Controller 134 die Bildschirme 600 so steuern, dass die Bilder geändert werden, zum Beispiel in Bilder, die ein oder mehrere andere Kunstwerke darstellen. In weiteren Anordnungen kann der Controller 134 die Bildschirme 600 so steuern, dass verschiedene Farben, Kombinationen von Farben und/oder sichtbare Texturen dargestellt werden. Zum Beispiel können die Bildschirme 600 Bilder von Stahlgittern, Bilder von Teppich und so weiter darstellen.
-
7 ist ein Blockschaubild, das eine beispielhafte Datenverarbeitungsarchitektur für eine Augmented-Reality-Einheit 110 veranschaulicht. Die Augmented-Reality-Einheit 170 kann in ähnlicher Weise konfiguriert sein. Die Augmented-Reality-Einheit 110 kann mindestens einen Prozessor 114 (z.B. eine zentrale Verarbeitungseinheit) enthalten, der über einen Systembus 715 oder eine andere geeignete Schaltung mit Hauptspeicherelementen 710 verbunden ist. Somit kann die Augmented-Reality-Einheit 110 in den Hauptspeicherelementen 710 Programmcode speichern. Der Prozessor 114 kann den Programmcode ausführen, auf den von den Speicherelementen 710 aus über den Systembus 715 zugegriffen wird.
-
Die Hauptspeicherelemente 710 können eine oder mehrere physische Hauptspeichereinheiten wie zum Beispiel einen lokalen Hauptspeicher 720 und eine oder mehrere Massenspeichereinheiten 725 enthalten. Der lokale Hauptspeicher 720 bezieht sich auf einen Direktzugriffsspeicher (RAM) oder auf (eine) andere nicht persistente Hauptspeichereinheit(en), die im Allgemeinen während der tatsächlichen Ausführung des Programmcodes verwendet werden. Die Massenspeichereinheit(en) 725 kann/können als ein Festplattenlaufwerk (HDD), Halbleiterlaufwerk (SSD) oder eine andere persistente Datenspeichereinheit realisiert sein. Die Augmented-Reality-Einheit 110 kann auch einen oder mehrere Cachespeicher (nicht gezeigt) enthalten, die eine temporäre Speicherung von mindestens einem Teil des Programmcodes bereitstellen, um die Häufigkeit zu verringern, mit der Programmcode während der Ausführung aus der Massenspeichereinheit 725 abgerufen werden muss.
-
Eingabe-/Ausgabe-(E/A-)Einheiten wie beispielsweise eine Benutzerschnittstelle 730 und ein Sendeempfänger 112. Die E/A-Einheiten können entweder direkt oder durch zwischengeschaltete E/A-Controller mit der Augmented-Reality-Einheit 110 verbunden sein. Zu der Benutzerschnittstelle 730 können ein oder mehrere Bildschirme, eine oder mehrere Projektionseinheiten, eine oder mehrere Eingabe-/Ausgabe-Audioeinheiten und so weiter gehören.
-
Wie in 7 abgebildet ist, können die Hauptspeicherelemente 710 die Komponenten der Augmented-Reality-Einheit 110 speichern, nämlich die Augmented-Reality-Anwendung 116, das Benutzerprofil 118 und optional die elektronische Patientenakte 120. In Form von ausführbarem Programmcode ausgeführt, kann die Augmented-Reality-Anwendung 116 durch den Prozessor 114 ausgeführt und als solches als Teil der Augmented-Reality-Einheit 110 betrachtet werden. Darüber hinaus sind die Augmented-Reality-Anwendung 116, das Benutzerprofil 118 und die elektronische Patientenakte 120 funktionale Datenstrukturen, die, wenn sie als Teil der Augmented-Reality-Einheit 110 eingesetzt werden, Funktionalität verleihen.
-
8 ist ein Blockschaubild, das eine beispielhafte Datenverarbeitungsarchitektur für eine physische Vorrichtung 130 veranschaulicht. Die physische Vorrichtung 130 kann mindestens einen Controller 134 enthalten, der durch einen Systembus 815 oder eine andere geeignete Schaltung mit Hauptspeicherelementen 810 verbunden ist. Somit kann die physische Vorrichtung 130 in den Hauptspeicherelementen 810 Programmcode speichern. Der Controller 134 kann den Programmcode ausführen, auf den von den Speicherelementen 810 aus über den Systembus 815 zugegriffen wird.
-
Die Hauptspeicherelemente 810 können eine oder mehrere physische Hauptspeichereinheiten wie zum Beispiel einen lokalen Hauptspeicher 820 und eine oder mehrere Massenspeichereinheiten 825 enthalten. Die physische Vorrichtung 130 kann auch einen oder mehrere Cachespeicher (nicht gezeigt) enthalten, die eine temporäre Speicherung von mindestens einem Teil des Programmcodes bereitstellen, um die Häufigkeit zu verringern, mit der Programmcode während der Ausführung aus der Massenspeichereinheit 825 abgerufen werden muss.
-
Eingabe-/Ausgabe-(E/A-)Einheiten wie ein Sendeempfänger 132 können entweder direkt oder durch zwischengeschaltete E/A-Controller mit der physischen Vorrichtung 130 verbunden sein. Ein oder mehrere Stellantriebe 138 können ebenfalls entweder direkt oder durch zwischengeschaltete E/A-Controller mit der physischen Vorrichtung 130 verbunden sein. In einer einzelnen Anordnung kann/können der/die Stellantrieb(e) 138 mit einer oder mehreren gesteuerten Einheiten und/oder Strukturen 136 verbunden sein. In einer weiteren Anordnung, zum Beispiel einer Anordnung, in der die gesteuerten Einheiten und/oder Strukturen 136 Lampen sind, kann die physische Vorrichtung 130 zusätzlich zu oder anstelle von dem/den Stellantrieb(en) 138 Schalter/Controller enthalten.
-
Wie in 8 abgebildet ist, können die Hauptspeicherelemente 810 die Komponenten der physischen Vorrichtung 130 speichern, nämlich die Anwendung 140 der physischen Vorrichtung. In einer Anordnung, in der die Anwendung 140 der physischen Vorrichtung in Form von ausführbarem Programmcode ausgeführt ist, kann die Anwendung 140 der physischen Vorrichtung durch den Controller 134 ausgeführt und als solches als Teil der physischen Vorrichtung 130 betrachtet werden. In einer Anordnung, in der der Controller 134 programmierbare Logikschaltungen, eine FPGA, eine PLA usw., aufweist, kann die Anwendung 140 der physischen Vorrichtung innerhalb eines solchen Controllers 134 ausgeführt werden. Die Anwendung 140 der physischen Vorrichtung ist eine funktionale Datenstruktur, die, wenn sie als Teil der physischen Vorrichtung 130 eingesetzt wird, Funktionalität verleiht.
-
9 ist ein Ablaufplan, der ein Beispiel eines Verfahrens 900 zum Starten einer physischen Struktur veranschaulicht, um eine Konfiguration zu ändern. Das Verfahren 900 kann durch die Augmented-Reality-Einheit 110 von 1 ausgeführt werden.
-
Im Schritt 905 kann die Augmented-Reality-Einheit 110 feststellen, ob sich ein Benutzer der Augmented-Reality-Einheit innerhalb einer Schwellenwertentfernung zu einer konfigurierbaren physischen Vorrichtung befindet. Im Schritt 910 kann die Augmented-Reality-Einheit 110 als Reaktion auf die Feststellung, dass sich der Benutzer innerhalb der Schwellenwertentfernung zu der konfigurierbaren physischen Vorrichtung befindet, eine Übertragungsverbindung zwischen der Augmented-Reality-Einheit und einem Controller der konfigurierbaren physischen Vorrichtung herstellen. Im Schritt 915 kann die Augmented-Reality-Einheit 110 den Controller der konfigurierbaren physischen Vorrichtung starten, um die konfigurierbare physische Vorrichtung von einer ersten Konfiguration in eine zweite Konfiguration zu ändern, wobei die zweite Konfiguration dem Benutzer die konfigurierbare physische Vorrichtung leichter zugänglich macht.
-
Während die Offenbarung mit Ansprüchen schließt, die neuartige Merkmale definieren, wird davon ausgegangen, dass sich die verschiedenen hierin beschriebenen Merkmale besser verstehen lassen, wenn die Beschreibung in Zusammenschau mit den Zeichnungen betrachtet wird. Der/die Prozess(e), Maschine(n), Fertigung(en) und beliebige Varianten davon, die in dieser Offenbarung beschrieben sind, sind zum Zweck der Veranschaulichung vorgesehen. Jedwede spezifischen strukturellen und funktionalen Details, die beschrieben wurden, sind nicht als einschränkend auszulegen, sondern lediglich als eine Grundlage für die Ansprüche und als eine repräsentative Grundlage, um einen Fachmann die verschiedentliche Nutzung der in praktisch jeder entsprechend detaillierten Struktur beschriebenen Merkmale zu lehren. Des Weiteren sind die in dieser Offenbarung verwendeten Begriffe und Formulierungen nicht als Einschränkung gedacht, sondern sollen vielmehr eine verständliche Beschreibung der dargelegten Merkmale ermöglichen.
-
Der Einfachheit und Übersichtlichkeit der Veranschaulichung halber wurden in den Figuren gezeigte Elemente nicht unbedingt maßstabgetreu gezeichnet. Beispielsweise können die Abmessungen von einigen der Elemente im Verhältnis zu anderen Elementen aus Gründen der Übersichtlichkeit etwas übertrieben dargestellt sein. Des Weiteren werden, wo es angemessen erscheint, Bezugszahlen in den Figuren wiederholt, um entsprechende, gleichartige oder gleiche Merkmale anzugeben.
-
Bei der vorliegenden Erfindung kann es sich um ein System, ein Verfahren und/oder ein Computerprogrammprodukt handeln. Das Computerprogrammprodukt kann (ein) durch einen Computer lesbare(s) Speichermedium (oder -medien) beinhalten, auf dem/denen durch einen Computer lesbare Programmanweisungen gespeichert sind, um einen Prozessor dazu zu veranlassen, Aspekte der vorliegenden Erfindung auszuführen.
-
Bei dem durch einen Computer lesbaren Speichermedium kann es sich um eine physische Einheit handeln, die Anweisungen zur Verwendung durch ein System zur Ausführung von Anweisungen behalten und speichern kann. Bei dem durch einen Computer lesbaren Speichermedium kann es sich zum Beispiel um eine elektronische Speichereinheit, eine magnetische Speichereinheit, eine optische Speichereinheit, eine elektromagnetische Speichereinheit, eine Halbleiterspeichereinheit oder jede geeignete Kombination daraus handeln, ohne auf diese beschränkt zu sein. Zu einer nicht erschöpfenden Liste spezifischerer Beispiele des durch einen Computer lesbaren Speichermediums gehören die folgenden: eine tragbare Computerdiskette, eine Festplatte, ein Direktzugriffsspeicher (RAM), ein Nur-Lese-Speicher (ROM), ein löschbarer programmierbarer Nur-Lese-Speicher (EPROM bzw. Flash-Speicher), ein statischer Direktzugriffsspeicher (SRAM), ein tragbarer Kompaktspeicherplatte-Nur-Lese-Speicher (CD-ROM), eine DVD (digital versatile disc), ein Speicher-Stick, eine Diskette, eine mechanisch kodierte Einheit wie zum Beispiel Lochkarten oder gehobene Strukturen in einer Rille, auf denen Anweisungen gespeichert sind, und jede geeignete Kombination daraus. Ein durch einen Computer lesbares Speichermedium soll in der Verwendung hierin nicht als flüchtige Signale an sich aufgefasst werden, wie zum Beispiel Funkwellen oder andere sich frei ausbreitende elektromagnetische Wellen, elektromagnetische Wellen, die sich durch einen Wellenleiter oder ein anderes Übertragungsmedium ausbreiten (z.B. durch ein Glasfaserkabel geleitete Lichtimpulse) oder durch einen Draht übertragene elektrische Signale.
-
Hierin beschriebene, durch einen Computer lesbare Programmanweisungen können von einem durch einen Computer lesbaren Speichermedium auf jeweilige Datenverarbeitungs-/Verarbeitungseinheiten oder über ein Netzwerk wie zum Beispiel das Internet, ein lokales Netzwerk, ein Weitverkehrsnetz und/oder ein drahtloses Netzwerk auf einen externen Computer oder eine externe Speichereinheit heruntergeladen werden. Das Netzwerk kann Kupferübertragungskabel, Lichtwellenübertragungsleiter, drahtlose Übertragung, Leitwegrechner, Firewalls, Vermittlungseinheiten, Gateway-Computer und/oder Edge-Server aufweisen. Eine Netzwerkadapterkarte oder Netzwerkschnittstelle in jeder Datenverarbeitungs-/Verarbeitungseinheit empfängt durch einen Computer lesbare Programmanweisungen aus dem Netzwerk und leitet die durch einen Computer lesbaren Programmanweisungen zur Speicherung in einem durch einen Computer lesbaren Speichermedium innerhalb der entsprechenden Datenverarbeitungs-/Verarbeitungseinheit weiter.
-
Bei durch einen Computer lesbaren Programmanweisungen zum Ausführen von Arbeitsschritten der vorliegenden Erfindung kann es sich um Assembler-Anweisungen, ISA-Anweisungen (Instruction-Set-Architecture), Maschinenanweisungen, maschinenabhängige Anweisungen, Mikrocode, Firmware-Anweisungen, zustandssetzende Daten oder entweder Quellcode oder Objektcode handeln, die in einer beliebigen Kombination aus einer oder mehreren Programmiersprachen geschrieben werden, darunter objektorientierte Programmiersprachen wie Smalltalk, C++ o.ä. sowie herkömmliche prozedurale Programmiersprachen wie die Programmiersprache „C“ oder ähnliche Programmiersprachen. Die durch einen Computer lesbaren Programmanweisungen können vollständig auf dem Computer des Benutzers, teilweise auf dem Computer des Benutzers, als eigenständiges Software-Paket, teilweise auf dem Computer des Benutzers und teilweise auf einem fernen Computer oder vollständig auf dem fernen Computer oder Server ausgeführt werden. In letzterem Fall kann der entfernt angeordnete Computer mit dem Computer des Benutzers durch eine beliebige Art Netzwerk verbunden sein, darunter ein lokales Netzwerk (LAN) oder ein Weitverkehrsnetz (WAN), oder die Verbindung kann mit einem externen Computer hergestellt werden (zum Beispiel über das Internet unter Verwendung eines Internet-Dienstanbieters). In einigen Ausführungsformen können elektronische Schaltungen, darunter zum Beispiel programmierbare Logikschaltungen, im Feld programmierbare Gatter-Anordnungen (FPGA, field programmable gate arrays) oder programmierbare Logikanordnungen (PLA, programmable logic arrays) die durch einen Computer lesbaren Programmanweisungen ausführen, indem sie Zustandsinformationen der durch einen Computer lesbaren Programmanweisungen nutzen, um die elektronischen Schaltungen zu personalisieren, um Aspekte der vorliegenden Erfindung durchzuführen.
-
Aspekte der vorliegenden Erfindung sind hierin unter Bezugnahme auf Ablaufpläne und/oder Blockschaltbilder bzw. Schaubilder von Verfahren, Vorrichtungen (Systemen) und Computerprogrammprodukten gemäß Ausführungsformen der Erfindung beschrieben. Es wird darauf hingewiesen, dass jeder Block der Ablaufpläne und/oder der Blockschaltbilder bzw. Schaubilder sowie Kombinationen von Blöcken in den Ablaufplänen und/oder den Blockschaltbildern bzw. Schaubildern mittels durch einen Computer lesbare Programmanweisungen ausgeführt werden können.
-
Diese durch einen Computer lesbaren Programmanweisungen können einem Prozessor eines Universalcomputers, eines Spezialcomputers oder einer anderen programmierbaren Datenverarbeitungsvorrichtung bereitgestellt werden, um eine Maschine zu erzeugen, so dass die über den Prozessor des Computers bzw. der anderen programmierbaren Datenverarbeitungsvorrichtung ausgeführten Anweisungen ein Mittel zur Umsetzung der in dem Block bzw. den Blöcken der Ablaufpläne und/oder der Blockschaltbilder bzw. Schaubilder festgelegten Funktionen/Schritte erzeugen. Diese durch einen Computer lesbaren Programmanweisungen können auch auf einem durch einen Computer lesbaren Speichermedium gespeichert sein, das einen Computer, eine programmierbare Datenverarbeitungsvorrichtung und/oder andere Einheiten so steuern kann, dass sie auf eine bestimmte Art funktionieren, so dass das durch einen Computer lesbare Speichermedium, auf dem Anweisungen gespeichert sind, ein Herstellungsprodukt aufweist, darunter Anweisungen, welche Aspekte der/des in dem Block bzw. den Blöcken des Ablaufplans und/oder der Blockschaltbilder bzw. Schaubilder angegebenen Funktion/Schritts umsetzen.
-
Die durch einen Computer lesbaren Programmanweisungen können auch auf einen Computer, eine andere programmierbare Datenverarbeitungsvorrichtung oder eine andere Einheit geladen werden, um das Ausführen einer Reihe von Prozessschritten auf dem Computer bzw. der anderen programmierbaren Vorrichtung oder anderen Einheit zu verursachen, um einen auf einem Computer ausgeführten Prozess zu erzeugen, so dass die auf dem Computer, einer anderen programmierbaren Vorrichtung oder einer anderen Einheit ausgeführten Anweisungen die in dem Block bzw. den Blöcken der Ablaufpläne und/oder der Blockschaltbilder bzw. Schaubilder festgelegten Funktionen/Schritte umsetzen.
-
Die Ablaufpläne und die Blockschaltbilder bzw. Schaubilder in den Figuren veranschaulichen die Architektur, die Funktionalität und den Betrieb möglicher Ausführungen von Systemen, Verfahren und Computerprogrammprodukten gemäß verschiedenen Ausführungsformen der vorliegenden Erfindung. In diesem Zusammenhang kann jeder Block in den Ablaufplänen oder Blockschaltbildern bzw. Schaubildern ein Modul, ein Segment oder einen Teil von Anweisungen darstellen, die eine oder mehrere ausführbare Anweisungen zur Ausführung der bestimmten logischen Funktion(en) aufweisen. In einigen alternativen Ausführungen können die in dem Block angegebenen Funktionen in einer anderen Reihenfolge als in den Figuren gezeigt stattfinden. Zwei nacheinander gezeigte Blöcke können zum Beispiel in Wirklichkeit im Wesentlichen gleichzeitig ausgeführt werden, oder die Blöcke können manchmal je nach entsprechender Funktionalität in umgekehrter Reihenfolge ausgeführt werden. Es ist ferner anzumerken, dass jeder Block der Blockschaltbilder bzw. Schaubilder und/oder der Ablaufpläne sowie Kombinationen aus Blöcken in den Blockschaltbildern bzw. Schaubildern und/oder den Ablaufplänen durch spezielle auf Hardware beruhende Systeme umgesetzt werden können, welche die festgelegten Funktionen oder Schritte durchführen, oder Kombinationen aus Spezial-Hardware und Computeranweisungen ausführen.
-
Die hierin verwendete Terminologie dient lediglich dazu, bestimmte Ausführungsformen zu beschreiben und sollte nicht als Einschränkung der Erfindung verstanden werden. Die Singular-Formen „ein“, „eine“ und „der“, „die“, „das“ sollen in der Verwendung hierin auch die Pluralformen einschließen, sofern der Kontext nicht eindeutig etwas anderes angibt. Es wird des Weiteren darauf hingewiesen, dass die Begriffe „enthält“, „darunter“, „aufweist“ und/oder „aufweisend“, wenn sie in dieser Offenbarung verwendet werden, das Vorhandensein von angegebenen Merkmalen, ganzen Zahlen, Schritten, Operationen, Elementen und/oder Komponenten bezeichnen, das Vorhandensein oder das Hinzufügen von einem oder mehreren anderen Merkmalen, ganzen Zahlen, Schritten, Operationen, Elementen, Komponenten und/oder Gruppen davon jedoch nicht ausschließen.
-
Der Verweis in dieser gesamten Offenbarung auf „eine einzelne Ausführungsform“, „eine Ausführungsform“, „eine einzelne Anordnung“, „eine Anordnung“, ein einzelner Aspekt“, „ein Aspekt“ oder einen ähnlichen Sprachgebrauch bedeutet, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder eine bestimmte Eigenschaft, das/die in Verbindung mit der Ausführungsform beschrieben wird, in mindestens einer einzelnen in dieser Offenbarung beschriebenen Ausführungsform enthalten ist. Folglich kann sich ein Auftreten der Formulierungen „eine einzelne Ausführungsform“, „eine Ausführungsform“, „eine einzelne Anordnung“, „eine Anordnung“, „ein einzelner Aspekt“, „ein Aspekt“ und ein ähnlicher Sprachgebrauch in dieser gesamten Offenbarung auf dieselbe Ausführungsform beziehen, doch muss dies nicht zwingend der Fall sein.
-
Der Begriff „Vielzahl“ in der Verwendung hierin ist als zwei oder mehr als zwei definiert. Der Begriff „ein(e) weitere(r/s)“ in der Verwendung hierin ist als mindestens ein(e) zweite(r/s) oder mehr definiert. Der Begriff „verbunden“ in der Verwendung hierin ist als angeschlossen definiert, ob direkt ohne etwaige dazwischenliegende Elemente oder indirekt mit einem oder mehreren dazwischenliegenden Elementen, sofern nicht anderes angegeben ist. Zwei Elemente können auch mechanisch, elektrisch oder in kommunikativer Weise durch einen Übertragungskanal, einen Pfad, ein Netzwerk oder ein System verbunden sein. Der Begriff „und/oder“ in der Verwendung hierin bezieht sich auf und umfasst beliebige sowie alle möglichen Kombinationen aus einem oder mehreren der zugehörigen aufgeführten Elemente. Wenngleich die Begriffe erste(r/s), zweite(r/s) usw. hierin verwendet werden können, um verschiedene Elemente zu beschreiben, wird auch darauf hingewiesen, dass diese Elemente nicht durch diese Begriffe eingeschränkt werden sollten, da diese Begriffe nur verwendet werden, um ein Element von einem anderen zu unterscheiden, sofern nicht anders angegeben bzw. sofern der Kontext nichts anderes besagt.
-
Der Begriff „falls“ kann in Abhängigkeit vom Kontext in der Bedeutung von „wenn“ oder „nach/nachdem“ oder „als Reaktion auf die Feststellung“ oder „als Reaktion auf das Erkennen“ ausgelegt werden. Ebenso kann die Formulierung „falls festgestellt wird“ oder „falls [eine angegebene Bedingung oder ein angegebenes Ereignis] erkannt wird“ in Abhängigkeit vom Kontext in der Bedeutung von „nach der Feststellung“ oder „als Reaktion auf die Feststellung“ oder „nachdem [die angegebene Bedingung oder das angegebene Ereignis] erkannt wurde“ oder „als Reaktion darauf, dass [die angegebene Bedingung oder das angegebene Ereignis] erkannt wurde“ ausgelegt werden.
-
Die Beschreibungen der verschiedenen Ausführungsformen der vorliegenden Erfindung erfolgten zum Zweck der Veranschaulichung, sollen jedoch nicht erschöpfend oder auf die offenbarten Ausführungsformen beschränkt sein. Viele Änderungen und Varianten sind für den Fachmann erkennbar, ohne vom Umfang der beschriebenen Ausführungsformen abzuweichen. Die hierin verwendete Terminologie wurde gewählt, um die Grundgedanken der Ausführungsformen, die praktische Anwendung oder technische Verbesserung gegenüber auf dem Markt befindlicher Technologien am besten zu erklären bzw. um anderen Fachleuten das Verständnis der hierin offenbarten Ausführungsformen zu ermöglichen.