DE112018001065T5 - Erweiterte Realität zur Erleichterung der Zugänglichkeit - Google Patents

Erweiterte Realität zur Erleichterung der Zugänglichkeit Download PDF

Info

Publication number
DE112018001065T5
DE112018001065T5 DE112018001065.1T DE112018001065T DE112018001065T5 DE 112018001065 T5 DE112018001065 T5 DE 112018001065T5 DE 112018001065 T DE112018001065 T DE 112018001065T DE 112018001065 T5 DE112018001065 T5 DE 112018001065T5
Authority
DE
Germany
Prior art keywords
augmented reality
physical device
configurable physical
configuration
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112018001065.1T
Other languages
English (en)
Inventor
Aaron Baughman
Diwesh Pandey
John Perrino
Todd Whitman
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyndryl Inc
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of DE112018001065T5 publication Critical patent/DE112018001065T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B15/00Systems controlled by a computer
    • G05B15/02Systems controlled by a computer electric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W76/00Connection management
    • H04W76/10Connection setup
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/175Controlling the light source by remote control
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/008Teaching or communicating with blind persons using visual presentation of the information for the partially sighted
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/06Consumer Electronics Control, i.e. control of another device by a display or vice versa
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/16Use of wireless transmission of display information

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Educational Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Steps, Ramps, And Handrails (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Es kann festgestellt werden, ob sich ein Benutzer einer Augmented-Reality-Einheit (110) innerhalb einer Schwellenwertentfernung zu einer konfigurierbaren physischen Vorrichtung (130) befindet. Als Reaktion auf die Feststellung, dass sich der Benutzer innerhalb der Schwellenwertentfernung zu der konfigurierbaren physischen Vorrichtung (130) befindet, kann eine Übertragungsverbindung zwischen der Augmented-Reality-Einheit (110) und einem Controller (134) der konfigurierbaren physischen Vorrichtung (130) hergestellt werden. Die Augmented-Reality-Einheit (110) kann den Controller (134) der konfigurierbaren physischen Vorrichtung starten, um die konfigurierbare physische Vorrichtung (130) von einer ersten Konfiguration in eine zweite Konfiguration zu ändern, wobei die zweite Konfiguration dem Benutzer die konfigurierbare physische Vorrichtung (130) leichter zugänglich macht.

Description

  • HINTERGRUND
  • Die vorliegende Erfindung betrifft die erweiterte Realität (augmented reality) und insbesondere Augmented-Reality-Einheiten.
  • Erweiterte Realität in ihrem herkömmlichen Sinn ist eine zeitnahe direkte oder indirekte Ansicht einer physischen, realen Umgebung, deren Elemente von einer durch einen Computer erzeugten sensorischen Eingabe wie beispielsweise Ton, Video, Grafiken oder Daten eines Global Positioning System (GPS) erweitert (oder ergänzt) werden. Erweiterte Realität wird herkömmlicherweise in Echtzeit und in Zusammenhang mit Umgebungselementen durchgeführt. Im Gegensatz zu virtueller Realität, bei der eine virtuelle Welt dargestellt wird, stellt die erweiterte Realität Informationen über die umgebende reale Wert dar und erweitert diese.
  • KURZDARSTELLUNG
  • Eine Augmented-Reality-Einheit enthält einen Prozessor, der so programmiert ist, dass er ausführbare Operationen startet. Zu den ausführbaren Operationen gehört die Feststellung, ob sich ein Benutzer der Augmented-Reality-Einheit innerhalb einer Schwellenwertentfernung zu einer konfigurierbaren physischen Vorrichtung befindet. Zu den ausführbaren Operationen kann als Reaktion auf die Feststellung, dass sich der Benutzer innerhalb der Schwellenwertentfernung zu der konfigurierbaren physischen Vorrichtung befindet, auch das Herstellen einer Übertragungsverbindung zwischen der Augmented-Reality-Einheit und einem Controller der konfigurierbaren physischen Vorrichtung gehören. Zu den ausführbaren Operationen kann auch das Starten des Controllers der konfigurierbaren physischen Vorrichtung gehören, um die konfigurierbare physische Vorrichtung von einer ersten Konfiguration in eine zweite Konfiguration zu ändern, wobei die zweite Konfiguration dem Benutzer die konfigurierbare physische Vorrichtung leichter zugänglich macht.
  • Ein Computerprogramm enthält ein durch einen Computer lesbares Speichermedium, das über darauf gespeicherten Programmcode verfügt. Der Programmcode ist durch einen Prozessor ausführbar, um ein Verfahren durchzuführen. Das Verfahren beinhaltet die Feststellung, durch eine Augmented-Reality-Einheit, ob sich ein Benutzer der Augmented-Reality-Einheit innerhalb einer Schwellenwertentfernung zu einer konfigurierbaren physischen Vorrichtung befindet. Das Verfahren kann als Reaktion auf die Feststellung, dass sich der Benutzer innerhalb der Schwellenwertentfernung zu der konfigurierbaren physischen Vorrichtung befindet, auch das Herstellen, durch die Augmented-Reality-Einheit, einer Übertragungsverbindung zwischen der Augmented-Reality-Einheit und einem Controller der konfigurierbaren physischen Vorrichtung beinhalten. Das Verfahren kann auch das Starten, durch die Augmented-Reality-Einheit, des Controllers der konfigurierbaren physischen Vorrichtung beinhalten, um die konfigurierbare physische Vorrichtung von einer ersten Konfiguration in eine zweite Konfiguration zu ändern, wobei die zweite Konfiguration dem Benutzer die konfigurierbare physische Vorrichtung leichter zugänglich macht.
  • Figurenliste
    • 1 ist ein Blockschaubild, das ein Beispiel einer Augmented-Reality-Umgebung veranschaulicht.
    • 2 stellt ein Beispiel eines versetzbaren Handlaufs in einer Augmented-Reality-Umgebung dar.
    • 3 stellt ein Beispiel von versetzbaren Regalböden in einer Augmented-Reality-Umgebung dar.
    • 4 stellt ein Beispiel eines Zeichens in einer Augmented-Reality-Umgebung dar.
    • 5 stellt ein Beispiel eines Beleuchtungssystems in einer Augmented-Reality-Umgebung dar.
    • 6 stellt ein Beispiel einer beleuchtenden konfigurierbaren physischen Struktur in einer Augmented-Reality-Umgebung dar.
    • 7 ist ein Blockschaubild, das eine beispielhafte Datenverarbeitungsarchitektur für eine Augmented-Reality-Einheit veranschaulicht.
    • 8 ist ein Blockschaubild, das eine beispielhafte Datenverarbeitungsarchitektur für eine physische Vorrichtung veranschaulicht.
    • 9 ist ein Ablaufplan, der ein Beispiel eines Verfahrens zum Starten einer physischen Struktur veranschaulicht, um eine Konfiguration zu ändern.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Diese Offenbarung betrifft die erweiterte Realität und insbesondere Augmented-Reality-Einheiten. Gemäß den hierin offenbarten erfindungsgemäßen Anordnungen kann eine Augmented-Reality-Einheit eine physische Vorrichtung starten, um eine Konfiguration zu ändern, um einem Benutzer die physische Vorrichtung leichter zugänglich zu machen. Zum Beispiel kann die Augmented-Reality-Einheit die physische Vorrichtung starten, um einen Handlauf oder einen Regalboden auf eine von einem Benutzer bevorzugte Höhe zu versetzen. In einem weiteren Beispiel kann die Augmented-Reality-Einheit die physische Vorrichtung starten, um eine Farbe eines Zeichens oder einer Lampe in eine durch den Benutzer erkennbare Farbe zu ändern, zum Beispiel, falls der Benutzer eine Sehstörung wie beispielsweise Farbenblindheit hat. In noch einem weiteren Beispiel kann die Augmented-Reality-Einheit die physische Vorrichtung starten, um eine Vielzahl von Lampen zu steuern, um einen Pfad zu beleuchten, damit sich der Benutzer von einem Ort an einen anderen fortbewegen kann. Eine oder mehrere Lichtfarben, die durch die Lampen ausgestrahlt werden, können als Farben ausgewählt werden, die von dem Benutzer erkennbar sind.
  • Mehrere Definitionen, die in diesem gesamten Dokument gelten, werden nun vorgestellt.
  • Gemäß der Definition hierin bedeutet der Begriff „Augmented-Reality-Einheit“ eine von einem Benutzer entweder am Körper des Benutzers oder an einer mobilen Einheit/Vorrichtung, die sich mit dem Benutzer fortbewegt, mitgeführte Einheit mit mindestens einem einzelnen Prozessor und Hautspeicher, die Elemente der realen Welt, die dem Benutzer dargestellt werden, erweitert. Zu Beispielen einer Augmented-Reality-Einheit gehören, ohne darauf beschränkt zu sein, Augmented-Reality-Brillen (z.B. Datenbrillen), Augmented-Reality-Headset und mobile Einheiten (z.B. Smartphone), die eine Augmented-Reality-Anwendung enthalten. Bei Sensoren, wie beispielsweise Bewegungsdetektoren und Berührungssensoren, die ein Benutzer während des Betriebs nicht mitführt, handelt es sich nicht um Augmented-Reality-Einheiten in dem Sinn, in dem der Begriff „Augmented-Reality-Einheit“ hierin definiert ist.
  • Gemäß der Definition hierin bedeutet der Begriff „konfigurierbare physische Vorrichtung“ eine physische Vorrichtung, die unter einer Vielzahl von Konfigurationen der physischen Vorrichtung betrieben werden kann.
  • Gemäß der Definition hierin bedeutet der Begriff „als Reaktion auf“ das rasche Antworten oder Reagieren auf eine Aktion oder ein Ereignis. Falls eine zweite Aktion „als Reaktion auf“ eine erste Aktion durchgeführt wird, besteht somit ein kausaler Zusammenhang zwischen einem Auftreten der ersten Aktion und einem Auftreten der zweiten Aktion, und der Begriff „als Reaktion auf“ gibt einen solchen kausalen Zusammenhang an.
  • Gemäß der Definition hierin bedeutet der Begriff „durch einen Computer lesbares Speichermedium“ ein Speichermedium, das Programmcode zur Verwendung durch oder in Verbindung mit einem/einer Anweisungsausführungssystem, -vorrichtung oder -einheit enthält oder speichert. Gemäß der Definition hierin ist ein „durch einen Computer lesbares Speichermedium“ kein flüchtiges, sich ausbreitendes Signal an sich.
  • Gemäß der Definition hierin bedeutet der Begriff „Sendeempfänger“ eine Einheit, die so konfiguriert ist, dass sie Signale moduliert und demoduliert, um Signale aus einer Form in eine andere umzuwandeln, und solche Signale über eine oder mehrere verschiedene drahtlose Übertragungsnetzwerke sendet und/oder empfängt. In einer Veranschaulichung kann ein Sendeempfänger Daten über 2G, 3G, 4G, GSM, LTE, UMB, GPRS, EUTRAN, TDMA, CDMA, WCDMA, UMTS, OFDM, HSPA+, direkte drahtlose Übertragung usw. übertragen. Zu direkten drahtlosen Übertragungen gehören, ohne darauf beschränkt zu sein, Übertragungen über ein Personal Area Network (PAN). Zu Beispielen für PAN-Übertragungen gehören, ohne darauf beschränkt zu sein, Bluetooth®-, Bluetooth® Low Energy-(BLE-) und/oder Zigbee™-Übertragungsprotokolle und so weiter. Des Weiteren kann ein Sendeempfänger als ein Adapter für drahtlose Übertragungen im Netz ausgeführt sein, der so konfiguriert ist, dass er Daten über drahtlose Übertragungen nach IEEE 802, zum Beispiel 802.11 und 802.16 (WiMax), mobiles WiMax, WPA oder WPA2 überträgt. Dennoch ist die Erfindung nicht auf diese Beispiele beschränkt und ein Sendeempfänger kann so konfiguriert sein, dass er HF-Signale gemäß beliebigen geeigneten Übertragungsstandards, -protokollen und/oder -architekturen oder eine geeignete Kombination aus solchen Standards, Protokollen und/oder Architekturen überträgt.
  • Gemäß der Definition hierin bedeutet der Begriff „Prozessor“ mindestens eine einzelne Hardware-Schaltung (z.B. eine integrierte Schaltung), die so konfiguriert ist, dass sie in dem Programmcode enthaltene Anweisungen ausführt. Zu Beispielen für einen Prozessor gehören, ohne darauf beschränkt zu sein, eine zentrale Verarbeitungseinheit (CPU, central processing unit), ein Array-Prozessor, ein Vektorprozessor, ein Digitalsignalprozessor (DSP), eine im Feld programmierbare Gatter-Anordnung (FPGA, field programmable gate array), eine programmierbare Logikanordnung (PLA, programmable logic array), eine anwendungsspezifische integrierte Schaltung (ASIC, application specific integrated circuit), eine programmierbare Logikschaltung und ein Controller.
  • Gemäß der Definition hierin bedeutet der Begriff „Echtzeit“ einen Grad an Verarbeitungsreaktion, den ein Benutzer oder ein System als ausreichend schnell für einen bestimmten Prozess oder eine bestimmte zu treffende Entscheidung wahrnimmt oder der es dem Prozessor ermöglicht, mit einigen externen Prozessen Schritt zu halten.
  • Gemäß der Definition hierin bedeutet der Begriff „automatisch“ ohne Eingriff des Benutzers.
  • Gemäß der Definition hierin bedeutet der Begriff „Benutzer“ eine Person (d.h. einen Menschen).
    • 1 ist ein Blockschaubild, das ein Beispiel einer Augmented-Reality-Umgebung 100 veranschaulicht. Die Augmented-Reality-Umgebung 100 kann eine Augmented-Reality-Einheit 110 und eine physische Vorrichtung 130 enthalten. Die Augmented-Reality-Einheit 110 kann mindestens einen einzelnen Sendeempfänger 112, mindestens einen einzelnen Prozessor 114, eine Augmented-Reality-Anwendung 116 und optional ein Benutzerprofil 118 enthalten.
  • Die Augmented-Reality-Anwendung 116 kann so konfiguriert sein, dass sie eine räumliche Nähe der Augmented-Reality-Einheit 110 zu der physischen Vorrichtung 130 beruhend auf Signalen erkennt, die von der physischen Vorrichtung 130 erzeugt und von dem Sendeempfänger 112 empfangen werden. Des Weiteren kann die Augmented-Reality-Anwendung 116 so konfiguriert sein, dass sie verschiedene Prozesse startet, die hierin beschrieben werden, welche zumindest teilweise auf der räumlichen Nähe der Augmented-Reality-Einheit 110 zu der physischen Vorrichtung 130 beruhen.
  • Das Benutzerprofil 118 kann Benutzerprofildaten für einen Benutzer der Augmented-Reality-Anwendung 116 speichern. In einer einzelnen Anordnung kann das Benutzerprofil 118 eine elektronische Patientenakte 120 des Benutzers speichern. In einer weiteren Anordnung kann die Augmented-Reality-Anwendung 116 auf die elektronische Patientenakte 120 des Benutzers von einem anderen System aus (nicht gezeigt), zum Beispiel über den Sendeempfänger 112, zugreifen.
  • Die physische Vorrichtung 130 kann mindestens einen einzelnen Sendeempfänger 132, einen oder mehrere Controller 134, eine oder mehrere gesteuerte Einheiten und/oder Strukturen 136 und optional einen oder mehrere Stellantriebe 138 enthalten. Des Weiteren kann die physische Vorrichtung 130 eine Anwendung 140 einer physischen Vorrichtung enthalten. Die Anwendung 140 der physischen Vorrichtung kann im Hauptspeicher (nicht gezeigt) gespeichert sein, auf den der/die Controller 134 zugreifen, als Computerprogrammcode in dem/den Controller(n) 134 gespeichert sein oder als Konfigurationsdaten ausgeführt sein, die zur Konfiguration des Controllers 134 verwendet werden (z.B. in einer Anordnung, in der der Controller 134 programmierbare Logikschaltungen, eine FPGA, eine PLA usw. aufweist).
  • Bei dem/den Controller(n) 134 kann es sich um Prozessoren oder beliebige andere Hardwareschaltungen (z.B. integrierte Schaltungen) handeln, die so konfiguriert sind, dass sie in dem Programmcode des/der Controller(s) 134 enthaltene Anweisungen ausführen, und/oder so konfiguriert sind, dass sie von der Anwendung 140 der physischen Vorrichtung bereitgestellte Anweisungen ausführen. In dieser Hinsicht kann es sich bei dem/den Controller(n) 134 um Prozessoren handeln, die speziell so konfiguriert sind, dass sie bestimmte Anweisungen ausführen, obgleich die vorliegenden Anordnungen in dieser Hinsicht nicht beschränkt sind.
  • Die gesteuerten Einheiten und/oder Strukturen 136 können Komponenten der physischen Vorrichtung 130 sein, die so konfiguriert sind, dass sie unter einer Vielzahl von Betriebszuständen betrieben werden kann, zum Beispiel als Reaktion auf von einem oder mehreren der Controller 134 empfangene Steuersignale oder als Reaktion auf mechanische Eingaben, die von einem oder mehreren von dem/den Controller(n) 134 gesteuerten Stellantrieben 138 empfangen werden. In einer Veranschaulichung können die Stellantriebe 138 einen oder mehrere Magnete, Motoren usw. enthalten, die so konfiguriert sind, dass sie eine oder mehrere Komponenten der gesteuerten Einheiten und/oder Strukturen 136 mechanisch bewegen.
  • In einer weiteren Anordnung kann/können der/die Controller 134 die gesteuerten Einheiten und/oder Strukturen 136 unter verschiedenen einer Vielzahl von Betriebszuständen direkt betreiben. Zum Beispiel kann/können der/die Controller 134 mit den gesteuerten Einheiten und/oder Strukturen 136 über eine Schnittstelle direkt verbunden sein, um die Betriebszustände der gesteuerten Einheiten und/oder Strukturen 136 zu steuern. In einer Veranschaulichung kann/können der/die Controller 134 über eine Schnittstelle direkt mit Zeichen und/oder Lampen verbunden sein, um eine Lichtfarbe, die von den Zeichen und/oder Lampen abgestrahlt wird, zu steuern, eine Richtung zu steuern, in der die Zeichen und/oder Lampen Licht abstrahlen, und so weiter. Der/die Controller 134 kann/können Steuersignale als Reaktion auf von der Anwendung 140 der physischen Vorrichtung empfangene Daten erzeugen oder der/die Controller 134 kann/können Steuersignale als Reaktion auf von der Augmented-Reality-Anwendung 116 empfangene Daten erzeugen.
  • Die Augmented-Reality-Einheit 110 kann über mindestens eine einzelne zwischen dem Sendeempfänger 112 und dem Sendeempfänger 132 hergestellte Übertragungsverbindung 150 mit einer oder mehreren physischen Vorrichtungen in kommunikativer Weise verbunden sein. Die Übertragungsverbindung 150 ist das Medium, das verwendet wird, um Übertragungen zwischen der Augmented-Reality-Einheit 110 und der physischen Vorrichtung 130 bereitzustellen und kann gemäß beliebigen der zuvor beschriebenen Protokolle hergestellt werden. Über die Übertragungsverbindung 150 kann die Augmented-Reality-Anwendung 116 an die Anwendung 140 der physischen Vorrichtung oder direkt an den/die Controller 134 Augmented-Reality-Anforderungen 160 übertragen. Die Augmented-Reality-Anforderungen 160 können der Anwendung 140 der physischen Vorrichtung oder direkt dem/den Controller(n) 134 Daten angeben, die einen gewünschten Konfigurationszustand der physischen Vorrichtung 130 angeben, der für einen Benutzer der Augmented-Reality-Einheit 110 optimiert ist.
  • In einer einzelnen, keine Beschränkung darstellenden Anordnung kann die Augmented-Reality-Umgebung 100 des Weiteren eine oder mehrere zusätzliche Augmented-Reality-Einheiten enthalten, zum Beispiel eine Augmented-Reality-Einheit 170. Die Augmented-Reality-Einheit 170 kann mindestens einen Sendeempfänger 172, mindestens einen Prozessor 174, eine Augmented-Reality-Anwendung 176 und optional ein Benutzerprofil 178 enthalten. Der Sendeempfänger 172, der Prozessor 174, die Augmented-Reality-Anwendung 176 und das Benutzerprofil 178 können auf jeweilige Arten konfiguriert sein, die ähnlich denen sind, die für den Sendeempfänger 112, den Prozessor 114, die Augmented-Reality-Anwendung 116 und das Benutzerprofil 118 beschrieben wurden. Die Augmented-Reality-Einheit 170 kann darüber hinaus über mindestens eine einzelne zwischen dem Sendeempfänger 172 und dem Sendeempfänger 132 hergestellte Übertragungsverbindung 152 mit einer oder mehreren physischen Vorrichtungen, zum Beispiel der physischen Vorrichtung 130, in kommunikativer Weise verbunden sein. Optional kann das Benutzerprofil 178 eine elektronische Patientenakte 180 des Benutzers der Augmented-Reality-Einheit 170 speichern. In einer weiteren Anordnung kann die Augmented-Reality-Anwendung 176 auf die elektronische Patientenakte 180 dieses Benutzers von einem anderen System aus (nicht gezeigt), zum Beispiel über den Sendeempfänger 172, zugreifen.
  • 2 stellt ein Beispiel eines versetzbaren Handlaufs 210 in einer Augmented-Reality-Umgebung 100 dar. In diesem Beispiel kann die physische Vorrichtung 130 den Handlauf 210 als die gesteuerte Struktur 136 (1) enthalten. Der Handlauf 210 kann in der Nähe von einer Rampe 215 oder von Treppen angebracht sein, die der Benutzer passieren möchte, obgleich die vorliegenden Anordnungen in dieser Hinsicht nicht beschränkt sind. Zum Beispiel kann der Handlauf 210 in der Nähe einer anderen Art von Gehweg angebracht sein. Wie beschrieben wird, kann die Höhe des Handlaufs 210 anpassbar sein. Überdies kann die Höhe auf eine von dem Benutzer der Augmented-Reality-Einheit 110 (1) bevorzugte Höhe angepasst werden. Dies kann den Handlauf 210 für den Benutzer leichter zugänglich machen, da der Benutzer den Handlauf 210 leichter greifen und den Handlauf 210 während des Gehens leichter unterstützend nutzen kann.
  • Unter Bezugnahme auf die 1 und 2 kann die Augmented-Reality-Einheit 110 feststellen, ob sich der Benutzer innerhalb einer Schwellenwertentfernung zu dem Handlauf 210 befindet. Zum Beispiel kann der Controller 134 über den Sendeempfänger 132 ein Beacon-Signal senden. Das Beacon-Signal kann zum Beispiel entsprechend einem Kurzstrecken-HF-Übertragungsprotokoll, zum Beispiel BLE, gesendet werden. Unter Verwendung des Sendeempfängers 112 und des Prozessors 114 kann die Augmented-Reality-Anwendung 116 eine Überwachung auf das Beacon-Signal vornehmen. Als Reaktion auf das Erkennen des Beacon-Signals kann die Augmented-Reality-Einheit 116 feststellen, dass sich der Benutzer innerhalb der Schwellenwertentfernung zu dem Handlauf 210 befindet. In dieser Hinsicht kann die Schwellenwertentfernung eine Entfernung sein, über die das Beacon-Signal durch die Augmented-Reality-Einheit 110 erkennbar ist.
  • In einer weiteren Anordnung kann der Benutzer eine Benutzereingabe in die Augmented-Reality-Einheit 110 eingeben, um anzuzeigen, dass sich der Benutzer innerhalb einer Schwellenwertentfernung zu dem Handlauf 210 befindet. Zum Beispiel kann der Benutzer die Benutzereingabe eingeben, während sich der Benutzer dem Handlauf 210 nähert. In diesem Beispiel kann die Schwellenwertentfernung eine Entfernung zwischen dem Benutzer (z.B. der von dem Benutzer verwendeten Augmented-Reality-Einheit 110) und dem Handlauf 210 zu dem Zeitpunkt sein, zu dem der Benutzer die Benutzereingabe eingibt.
  • Als Reaktion auf das Erkennen des Beacon-Signals oder der Benutzereingabe kann die Augmented-Reality-Anwendung 116 unter Verwendung des Sendeempfängers 112 und des Prozessors 114 die Augmented-Reality-Anforderung 160 an die physische Vorrichtung 130 übertragen. Die Augmented-Reality-Anforderung 160 kann eine bevorzugte Höhe 220 des Handlaufs 210 für den Benutzer angeben, zum Beispiel eine Höhe 220 über der Rampe 215, Treppen oder einem Boden. Die Augmented-Reality-Anwendung 116 kann die bevorzugte Höhe 220 beruhend auf dem Benutzerprofil 118 oder der elektronischen Patientenakte 120 feststellen und die Augmented-Reality-Anforderung 160 erzeugen, um die bevorzugte Höhe 220 aufzunehmen. Die Höhe 220 kann von einer Oberseite der Rampe 215, Treppen oder einem Gehweg zum Handlauf 210 gemessen/definiert oder in einer beliebigen anderen geeigneten Weise gemessen/definiert werden.
  • Unter Verwendung des Sendeempfängers 112 und des Prozessors 114 kann die Augmented-Reality-Anwendung 116 die Augmented-Reality-Anforderung 160 an die physische Vorrichtung 130, zum Beispiel an den Sendeempfänger 112, unter Verwendung von mindestens einem einzelnen HF-Übertragungsprotokoll wie beispielsweise einem in der Technik bekannten HF-Übertragungsprotokoll (z.B. BLE) übertragen. Der Sendeempfänger 132 kann die Augmented-Reality-Anforderung 160 empfangen und die Augmented-Reality-Anforderung 160 an den Controller 134 übertragen. Der Controller 134 kann die Augmented-Reality-Anforderung 160 verarbeiten, um die bevorzugte Höhe 220 des Handlaufs 210 für den Benutzer festzustellen. In dieser Hinsicht kann die Augmented-Reality-Anforderung 160 eine Anpassung der Höhe 220 des Handlaufs 210 für den Benutzer starten.
  • Der Controller 134 kann Steuersignale 230 an einen oder mehrere Stellantriebe 225 ausgeben. Die Steuersignale 230 können die Stellantriebe 225 so steuern, dass sie den Handlauf 210 zum Beispiel senkrecht nach oben und unten auf die gewünschte Höhe 220 versetzen. In einer einzelnen Anordnung können die Stellantriebe 225 Teleskop-Stellantriebe sein, die strukturelle Trägerelemente 235 senkrecht nach oben und unten versetzen. Weiterhin können andere Arten von Stellantrieben verwendet werden und die vorliegenden Anordnungen sind in dieser Hinsicht nicht beschränkt. Zum Beispiel können die Stellantriebe 225 Verschiebestellantriebe sein, falls der Handlauf 210 an einer Wand bzw. Mauer befestigt ist. Die Stellantriebe 225 können unter Verwendung von hydraulischen, pneumatischen, elektrischen, magnetischen und/oder mechanischen Prozessen arbeiten, wie in der Technik bekannt ist.
  • In einer einzelnen Anordnung können die Stellantriebe 225 Sensoren 240 enthalten, die Sensordaten erzeugen, welche die aktuelle Höhe des Handlaufs 210 angeben. In einer weiteren Anordnung können sich die Sensoren 240 außerhalb der Stellantriebe 224 an geeigneten Stellen befinden. In einem einzelnen Aspekt können die Stellantriebe 225 die Sensordaten verarbeiten, um jederzeit die Höhe des Handlaufs 210 festzustellen, zum Beispiel, bevor, wenn und nachdem der Handlauf 210 versetzt wird bzw. wurde, und das Versetzen des Handlaufs 210 als Reaktion darauf anhalten, dass der Handlauf 210 von einer bisherigen Höhe auf die gewünschte Höhe 220 versetzt ist. In einem weiteren Aspekt können die Sensoren 240 die Sensordaten an den Controller 134 übertragen und der Controller 134 kann die Steuersignale 230 als Reaktion auf die Sensordaten erzeugen. In dieser Hinsicht kann der Controller 134 die Stellantriebe 225 so steuern, dass das Versetzen des Handlaufs 210 als Reaktion darauf, dass der Handlauf 210 auf die gewünschte Höhe 220 versetzt ist, angehalten wird.
  • In einigen Fällen können Augmented-Reality-Einheiten 110, 170 einer Vielzahl von Benutzern Augmented-Reality-Anforderungen 160, 190 zur gleichen oder nahezu gleichen Zeit erzeugen. In einer einzelnen Anordnung kann der Controller 134 Terminierungsprozesse ausführen, um festzulegen, welche Augmented-Reality-Anforderung 160, 190 zuerst verarbeitet werden soll. Zum Beispiel kann der Controller 134 die erste empfangene Augmented-Reality-Anforderung 160 verarbeiten und die zweite Augmented-Reality-Anforderung 190 vorübergehend im Hauptspeicher speichern. Als Reaktion auf das Anpassen der Höhe des Handlaufs 210 entsprechend der ersten Augmented-Reality-Anforderung 160 kann der Controller 134 den Handlauf 210 auf dieser Höhe 220 für einen Schwellenwert-Zeitraum belassen. Der Schwellenwert-Zeitraum kann ein Zeitraum sein, der lang genug ist, damit der erste Benutzer die Rampe 215, Treppe oder einen Gehweg passieren kann. In einem weiteren Aspekt kann die physische Vorrichtung 130 einen oder mehrere Sensoren (nicht gezeigt) enthalten, die erkennen, wenn der Benutzer die Rampe 215, Treppe oder einen Gehweg passiert hat, und den Handlauf 210 auf der Höhe 220 belassen, bis der Benutzer die Rampe 215, Treppe oder einen Gehweg passiert hat. Ungeachtet dessen kann der Controller 134 als Reaktion darauf, dass der Schwellenwert-Zeitraum abläuft, oder als Reaktion darauf, dass der Benutzer die Rampe 215, Treppe oder einen Gehweg passiert, die zweite Augmented-Reality-Anforderung 190 verarbeiten, um die Höhe des Handlaufs 210 für den zweiten Benutzer anzupassen.
  • In einer weiteren Anordnung können sich die Augmented-Reality-Einheiten 110, 170 einer Vielzahl von Benutzern miteinander abstimmen, um festzustellen, welche Augmented-Reality-Einheit 110 anfangs die Kontrolle über die physische Vorrichtung 130 hat, um die Höhe des Handlaufs 210 anzupassen. Zum Beispiel können die Augmented-Reality-Anwendungen 116, 176 der jeweiligen Augmented-Reality-Einheiten 110, 170 so konfiguriert sein, dass sie unter Verwendung der jeweiligen Prozessoren 114, 174 und Sendeempfänger 112, 172 (z.B. unter Verwendung von BLE) eine Übertragungsverbindung 192 miteinander herstellen. Über die Übertragungsverbindung 192 können die jeweiligen Augmented-Reality-Anwendungen 116, 176 die Abstimmung durchführen, zum Beispiel, indem sie Abstimmungsnachrichten 194 miteinander austauschen. Beruhend auf der Abstimmung können die Augmented-Reality-Anwendungen 116, 176 feststellen, welche Augmented-Reality-Einheit 110, 170 bei der Steuerung der physischen Vorrichtung 130 Priorität vor der anderen hat und welche Augmented-Reality-Einheit 110, 170 zumindest anfangs die Steuerung der physischen Vorrichtung 130 an die andere Augmented-Reality-Einheit 110, 170 abgibt. Eine solche Feststellung kann auf Graden der Behinderung, dem Alter, der Größe usw. der Benutzer der jeweiligen Augmented-Reality-Einheit 110, 170 oder auf beliebigen anderen geeigneten Parametern beruhen.
  • Beispielhalber kann jedes Benutzerprofil 118, 178 und/oder jede elektronische Patientenakte 120, 180 einen Schweregrad (z.B. einen Wert, der den Schweregrad angibt) der Behinderung eines jeweiligen Benutzers angeben. Die Augmented-Reality-Anwendungen 116, 176 können bestimmen, dass der Augmented-Reality-Einheit 110 des Benutzers mit dem höchsten oder dem geringsten Schweregrad der Behinderung vor der Augmented-Reality-Einheit 170 bei der Steuerung der physischen Vorrichtung 130 der Vorrang eingeräumt wird. Folglich kann die Augmented-Reality-Einheit 110 den Controller 134 starten, um zum Beispiel die Höhe des Handlaufs 210 anzupassen, indem eine jeweilige Augmented-Reality-Anforderung 160 an die physische Vorrichtung 130 übertragen wird. Als Reaktion auf den Empfang der Augmented-Reality-Anforderung 160 kann der Controller 134 die Konfiguration der physischen Vorrichtung 130 gemäß der Augmented-Reality-Anforderung 160 ändern. Als Reaktion darauf, dass der Schwellenwert-Zeitraum abläuft, oder als Reaktion darauf, dass der Benutzer die Rampe 215, Treppen oder einen Gehweg passiert, kann die andere Augmented-Reality-Einheit 170 eine weitere Augmented-Reality-Anforderung 190 an die physische Vorrichtung 130 übertragen. Als Reaktion auf den Empfang der weiteren Augmented-Reality-Anforderung 190 kann der Controller 134 die Konfiguration der physischen Vorrichtung 130 gemäß der Augmented-Reality-Anforderung 190 ändern, zum Beispiel, indem er eine Höhe des Handlaufs für den Benutzer der Augmented-Reality-Einheit 170 anpasst.
  • Die Augmented-Reality-Anwendung 176 kann mit der Augmented-Reality-Anwendung 116 und/oder der Anwendung 140 der physischen Vorrichtung Daten austauschen, um festzustellen, wann die Augmented-Reality-Anforderung 190 übertragen werden soll. Beispielhalber kann die Augmented-Reality-Anwendung 116 der Anwendung der physischen Vorrichtung und/oder die Anwendung 140 der physischen Vorrichtung eine Nachricht (nicht gezeigt) an die Augmented-Reality-Anwendung 176 übertragen, die angibt, dass der Benutzer der Augmented-Reality-Einheit 110 die Rampe 215, Treppe oder einen Gehweg passiert hat.
  • In noch einer weiteren Anordnung können die Augmented-Reality-Anwendungen 116, 176 ihren jeweiligen Benutzern jeweils Informationen darstellen, die angeben, dass gerade eine Vielzahl von Benutzern versucht, auf den Handlauf 210 zuzugreifen, und die Benutzer auffordern, anzugeben, ob sie einer Verzögerung der Anpassung für sie zustimmen, bis einer oder mehrere andere Benutzer den Handlauf 210 verwendet haben. Weiterhin kann ein beliebiger anderer Prozess zur Abstimmung der Höhenanpassung für eine Vielzahl von Benutzern ausgeführt werden und die vorliegenden Anordnungen sind in dieser Hinsicht nicht beschränkt.
  • 3 stellt ein Beispiel von versetzbaren Regalböden 310, 312 in einer Augmented-Reality-Umgebung 100 dar. In diesem Beispiel kann die physische Vorrichtung 130 mindestens einen einzelnen Regalboden 310, 312 als die gesteuerte Struktur 136 (1) enthalten. Die vorliegenden Anordnungen sind nicht auf die Anzahl der versetzbaren Regalböden 310, 312 beschränkt. Zum Beispiel können die vorliegenden Anordnungen einen einzelnen versetzbaren Regalboden, zwei versetzbare Regalböden, drei versetzbare Regalböden, vier versetzbare Regalböden, fünf versetzbare Regalböden und so weiter enthalten.
  • Die Regalböden 310, 312 können in einem Schrank 320 versetzbar angeordnet sein, obgleich die vorliegenden Anordnungen in dieser Hinsicht nicht beschränkt sind. Zum Beispiel können die Regalböden 310, 312 an einer Wand oder einer anderen Struktur versetzbar befestigt sein. Wie beschrieben wird, kann eine Höhe 330, 332 eines jeden Regalbodens 310, 312 anpassbar sein. Überdies kann/können die Höhe(n) 330, 332 auf von dem Benutzer der Augmented-Reality-Einheit 110 (1) bevorzugte Höhen angepasst werden. Dadurch können die Regalböden 310, 312 für den Benutzer leichter zugänglich sein, wodurch der Benutzer leichter auf Artikel von den Regelböden 310, 312 zugreifen und Artikel auf den Regelböden 310, 312 platzieren kann.
  • Unter Bezugnahme auf die 1 und 3 kann die Augmented-Reality-Einheit 110 zum Beispiel beruhend auf einem Beacon-Signal oder einer Benutzereingabe, wie zuvor unter Bezugnahme auf die 1 und 2 beschrieben wurde, feststellen, ob sich der Benutzer innerhalb einer Schwellenwertentfernung zu den Regelböden 310, 312 befindet. Als Reaktion auf das Erkennen des Beacon-Signals oder der Benutzereingabe kann die Augmented-Reality-Anwendung 116 unter Verwendung des Sendeempfängers 112 und des Prozessors 114 (in 1 gezeigt) die Augmented-Reality-Anforderung 160 an die physische Vorrichtung 130 übertragen. Die Augmented-Reality-Anforderung 160 kann eine bevorzugte Höhe 330 des Regalbodens 310 und/oder eine bevorzugte Höhe 332 des Regalbodens 312 angeben. Die Augmented-Reality-Anwendung 116 kann die bevorzugten Höhen 330, 332 beruhend auf dem Benutzerprofil 118 oder der elektronischen Patientenakte 120 feststellen und die Augmented-Reality-Anforderung 160 erzeugen, um die bevorzugte Höhe 330 und/oder die bevorzugte Höhe 332 aufzunehmen.
  • Die Augmented-Reality-Anwendung 116 kann die Augmented-Reality-Anforderung 160 an die physische Vorrichtung 130 übertragen, zum Beispiel wie zuvor unter Bezugnahme auf die 1 und 2 beschrieben wurde. Der Controller 134 kann die Augmented-Reality-Anforderung 160 verarbeiten, um die bevorzugte(n) Höhe(n) 330, 332 des Regalbodens/der Regalböden 310, 312 für den Benutzer festzustellen. In dieser Hinsicht kann die Augmented-Reality-Anforderung 160 eine Anpassung der Höhe(n) 330, 332 des Regalbodens/der Regelböden 310, 312 für den Benutzer starten. Die Höhe(n) 330, 332 können von einer Unterseite 340 des Schranks 320 zu Oberseiten 350, 352 der jeweiligen Regalböden 310, 312 gemessen/definiert werden, vom Boden zu einer Oberseite 350, 352 der jeweiligen Regalböden 310, 312 gemessen/definiert werden oder in einer beliebigen anderen geeigneten Weise gemessen/definiert werden.
  • Der Controller 134 kann Steuersignale (nicht gezeigt) an einen oder mehrere Stellantriebe 360 ausgeben. Die Steuersignale 230 können die Stellantriebe 360 so steuern, dass die Regalböden 310, 312 zum Beispiel senkrecht nach oben und unten auf die gewünschten Höhen 330, 332 versetzt werden. In einer einzelnen Anordnung können die Stellantriebe 360 Verschiebestellantriebe sein, die strukturelle Trägerelemente 370, 372, an denen die Regalböden 310, 312 jeweils befestigt sind, senkrecht nach oben und unten versetzen. Weiterhin können andere Arten von Stellantrieben verwendet werden und die vorliegenden Anordnungen sind in dieser Hinsicht nicht beschränkt.
  • In einer einzelnen Anordnung können die Stellantriebe 360 Sensoren 380 enthalten, die Sensordaten erzeugen, welche die aktuellen Höhen der Regalböden 310, 312 angeben. In einer weiteren Anordnung können sich die Sensoren 380 außerhalb der Stellantriebe 360 an geeigneten Stellen befinden. In einem einzelnen Aspekt können die Stellantriebe 360 die Sensordaten verarbeiten, um die Höhe(n) der Regalböden 310, 312 jederzeit festzustellen, zum Beispiel, bevor, wenn und nachdem die Regalböden 310, 312 versetzt werden bzw. wurden, und das Versetzen der Regalböden 310, 312 als Reaktion darauf anhalten, dass die Regalböden 310, 312 von bisherigen Höhen auf die gewünschten Höhen 330, 332 versetzt sind. In einem weiteren Aspekt können die Sensoren die Sensordaten an den Controller 134 übertragen und der Controller 134 kann die Steuersignale 230 als Reaktion auf die Sensordaten erzeugen. In dieser Hinsicht kann der Controller 134 die Stellantriebe 360 so steuern, dass das Versetzen der Regalböden 310, 312 als Reaktion darauf, dass die jeweiligen Regalböden 310, 312 auf die gewünschten Höhen 330, 332 versetzt sind, angehalten wird.
  • An dieser Stelle sei angemerkt, dass die vorliegenden Anordnungen nicht auf die Beispiele der 2 und 3 beschränkt sind. Zum Beispiel können die hierin beschriebenen Anordnungen angewendet werden, um eine Höhe eines Rollstuhls anzupassen, um den Einstieg in und den Ausstieg aus dem Rollstuhl zu erleichtern, und die Höhe des Rollstuhls zur Fortbewegung anzupassen. In einem weiteren Beispiel können die hierin beschriebenen Anordnungen angepasst werden, um eine Höhe eines Fahrzeugs anzupassen, um den Einstieg in und den Ausstieg aus dem Fahrzeug zu erleichtern. Zum Beispiel kann der Controller 134 ein Luftfedersystem des Fahrzeugs so steuern, dass das Fahrzeug abgesenkt wird, um beim Einstieg/Ausstieg zu helfen, und das Fahrzeug für die Fahrt angehoben wird.
  • 4 stellt ein Beispiel eines Zeichens 400 in einer Augmented-Reality-Umgebung 100 dar. In diesem Beispiel kann die physische Vorrichtung 130 das Zeichen 400 als die gesteuerte Struktur 136 (1) enthalten. Das Zeichen 400 kann betrieben werden, um mindestens eine Farbe von mindestens einem Teil 410, 412, 414 des Zeichens 400 zu ändern. In einer einzelnen Anordnung, zum Beispiel einer Anordnung, in der das Zeichen 400 eine Ampel ist, wie in 4 gezeigt ist, kann jeder Teil 410, 412, 414 des Zeichens 400 eine oder mehrere bestimmte Farben darstellen, obgleich jede Farbe nicht gleichzeitig dargestellt werden muss. In einer weiteren Anordnung kann das Zeichen 400 Text in einer oder mehreren Farben darstellen. In noch einer weiteren Anordnung kann das Zeichen 400 ein oder mehrere Bilder in einer oder mehreren Farben darstellen.
  • Ein Benutzer hat vielleicht eine Sehbehinderung (z.B. Farbenblindheit), bei der der Benutzer nicht in der Lage ist, bestimmte Farben zu unterscheiden, was in dem Benutzerprofil 118 und/oder der elektronischen Patientenakte 120 angegeben sein kann. Somit verfügt der Benutzer möglicherweise nicht über die Fähigkeit, zwischen verschiedenen, von dem Zeichen 400 dargestellten Farben zu unterscheiden. Die vorliegenden Anordnungen können jedoch das Erkennen der verschiedenen Teile 410, 412, 414 des Zeichens 400 durch den Benutzer vereinfachen. In einer Veranschaulichung hat der Benutzer vielleicht die Rot-Grün-Farbenblindheit, bei der der Benutzer nicht in der Lage ist, die Farbe Rot von der Farbe Grün zu unterscheiden. Die vorliegenden Anordnungen können einen oder mehrere der verschiedenen Teile 410, 412, 414 des Zeichens 400 in Farben darstellen, die von dem Benutzer leicht erkennbar sind. Folglich verwechselt der Benutzer nicht die Teile 410, 412, 414 und versteht deren Bedeutung (z.B. Vorsicht, Stopp oder Weiter). In dem folgenden Beispiel kann angenommen werden, dass der Benutzer ein Fahrer eines Fahrzeugs ist, das auf einer Straße unterwegs ist und das Zeichen 400 antrifft.
  • Unter Bezugnahme auf die 1 und 4 kann die Augmented-Reality-Anwendung 116 als Reaktion auf das Erkennen des Beacon-Signals oder der Benutzereingabe unter Verwendung des Sendeempfängers 112 und des Prozessors 114 (in 1 gezeigt) die Augmented-Reality-Anforderung 160 an die physische Vorrichtung 130 übertragen, wie zuvor beschrieben wurde. In einer weiteren Anordnung kann die Augmented-Reality-Anwendung 116 unter Verwendung von GPS-Daten, die von einem GPA-Empfänger (nicht gezeigt) der Augmented-Reality-Einheit 110 erzeugt werden, feststellen, dass sich der Benutzer (z.B. die von dem Benutzer verwendete Augmented-Reality-Einheit 110) innerhalb einer Schwellenwertentfernung zum Zeichen 400 befindet. Als Reaktion auf die Feststellung, dass sich der Benutzer innerhalb der Schwellenwertentfernung zum Zeichen 400 befindet, kann die Augmented-Reality-Anwendung 116 die Augmented-Reality-Anforderung 160 an den Controller 134 übertragen.
  • Die Augmented-Reality-Anforderung 160 kann eine bevorzugte Farbe für einen oder mehrere der Teile 410, 412, 414 des Zeichens 400 angeben. Zum Beispiel sei angenommen, dass der Benutzer die Rot-Grün-Farbenblindheit hat. Da der Teil 410 des Zeichens 400 üblicherweise eine rote Lichtfarbe und der Teil 414 des Zeichens 400 üblicherweise eine grüne Lichtfarbe darstellt, hat der Benutzer gegebenenfalls Schwierigkeiten, zwischen den jeweiligen Farben zu unterscheiden, die von den Teilen 410, 414 des Zeichens 400 dargestellt werden.
  • Gleichwohl gehen die vorliegenden Anordnungen dieses Problem an. Falls der Teil 410 des Zeichens 400 normalerweise in der Farbe Rot dargestellt wird, kann die Augmented-Reality-Anforderung 160 eine weitere bevorzugte Lichtfarbe angeben, die von dem Teil 410 ausgestrahlt werden soll, zum Beispiel Braun. Ebenso kann die Augmented-Reality-Anforderung 160, falls der Teil 414 des Zeichens 400 normalerweise in der Farbe Grün dargestellt wird, eine weitere bevorzugte Lichtfarbe angeben, die von dem Teil 414 ausgestrahlt werden soll, zum Beispiel Blau. Die Augmented-Reality-Anwendung 116 kann die bevorzugten Farben beruhend auf der Verarbeitung des Benutzerprofils 118 und/oder der elektronischen Patientenakte 120 feststellen.
  • Der Controller 134 kann so konfiguriert sein, dass er als Reaktion auf den Empfang der Augmented-Reality-Anforderung 160 die Teile 410, 414 des Zeichens 400, wenn diese beleuchtet werden, in den jeweiligen bevorzugten Farben darstellt. Zum Beispiel kann der Controller Steuersignale an Schalter/Controller übertragen, die die Lampen 510 steuern. Die Schalter/Controller können die Teile 410, 414 des Zeichens 400 konfigurieren, um gewünschte Farben darzustellen, wenn diese beleuchtet werden.
  • Andere Fahrer treffen gegebenenfalls auch auf das Zeichen 400 und die bevorzugten Farben sind möglicherweise verwirrend für sie. Nichtdestotrotz kann der Controller 134 so konfiguriert sein, dass er als Reaktion auf den Empfang der Augmented-Reality-Anforderung 160 gleichzeitig verschiedene Farben darstellt oder nacheinander wiederholt verschiedene Farben darstellt. Zum Beispiel kann der Controller 134 so konfiguriert sein, dass er für einen Teil 410 des Zeichens 400 sowohl rote als auch braune Lampen gleichzeitig zum Leuchten bringt. Ebenso kann der Controller 134 so konfiguriert sein, dass er für einen Teil 414 des Zeichens 400 sowohl grüne als auch blaue Lampen gleichzeitig zum Leuchten bringt. In einem weiteren Beispiel können die Lampen so konfiguriert sein, dass sie zu einem bestimmten Zeitpunkt eine bestimmte Farbe darstellen. Die Lampen können zum Beispiel LED-Lampen sein, die so konfiguriert sind, dass sie zwei oder mehr Farben ausstrahlen. Der Controller 134 kann so konfiguriert sein, dass er für den Teil 410 des Zeichens 400 die Lampen so steuert, dass sie zwischen der Darstellung von rotem Licht und braunem Licht wechseln. Des Weiteren kann der Controller 134 so konfiguriert sein, dass er für den Teil 414 des Zeichens 400 die Lampen so steuert, dass sie zwischen der Darstellung von grünem Licht und blauem Licht wechseln.
  • In einer weiteren Anordnung, zum Beispiel einer Anordnung, in der die Augmented-Reality-Einheit 110 als eine Datenbrille oder als Augmented-Reality-Headset ausgeführt ist, kann die Augmented-Reality-Anwendung 116 über den Prozessor 114 eine reale Ansicht des durch die Augmented-Reality-Einheit 110 dargestellten Zeichens 400 mit bevorzugten Farben überlagern. In dieser Hinsicht kann die Augmented-Reality-Einheit 110 die reale Darstellung des Zeichens 400 erweitern.
  • Zum Beispiel kann die Augmented-Reality-Einheit 110 eine Bilderfassungseinheit enthalten, die Bilder des Zeichens 400 erfasst und die Bilder dem Benutzer über Linsen der Datenbrille oder einen Bildschirm der Augmented-Reality-Headset darstellt. Die Augmented-Reality-Anwendung 116 kann Lichtfarben, die von den Teilen 410, 412, 414 des Zeichens 400 dargestellt werden, in Echtzeit erkennen. Des Weiteren kann die Augmented-Reality-Anwendung 116 beruhend auf dem Benutzerprofil 118 und/oder der elektronischen Patientenakte 120 die Lichtfarben feststellen, die für den Benutzer nicht unterscheidbar sind. Die Augmented-Reality-Anwendung 116 kann beruhend auf dem Benutzerprofil 118 und/oder der elektronischen Patientenakte 120 in Echtzeit Farben auswählen, mit denen die jeweiligen Teile 410, 412, 414 des Zeichens 400 überlagert werden sollen, damit der Benutzer das Zeichen leichter verstehen kann. Die Augmented-Reality-Anwendung 116 kann die ausgewählten Farben für die jeweiligen Teile 410, 412, 414 des Zeichens 400 unter Verwendung einer Bilddarstellungseinheit (die z.B. Bilder/Farben auf Linsen der Datenbrille projiziert oder Bilder/Farben auf einem Bildschirm der Augmented-Reality-Headset darstellt) zur Sichtbarmachung für den Benutzer darstellen. Zum Beispiel kann die Augmented-Reality-Anwendung 116, falls der Teil 410 des Zeichens 400 in einer roten Farbe beleuchtet wird, eine Farbe Braun über dem Teil 410 des Zeichens 400 darstellen, wenn dieser Teil des Zeichens beleuchtet wird, und eine Farbe Blau über dem Teil 414 des Zeichens darstellen, wenn dieser Teil des Zeichens beleuchtet wird.
  • 5 stellt ein Beispiel eines Beleuchtungssystems 500 in einer Augmented-Reality-Umgebung 100 dar. In diesem Beispiel kann die physische Vorrichtung 130 Lampen 510 des Beleuchtungssystems 500 als die gesteuerten Einheiten 136 (1) enthalten. Das Beleuchtungssystem 500 kann einen Pfad 520 beleuchten, damit sich der Benutzer von einem ersten Ort (z.B. einem aktuellen Aufenthaltsort des Benutzers) an mindestens einen zweiten Ort (z.B. einen Ort, an den sich der Benutzer hinbewegen möchte) fortbewegen (z.B. sicher fortbewegen) kann.
  • Unter Bezugnahme auf die 1 und 5 kann der Controller 134 die Lampen 510 so steuern, dass sie den Pfad 520 als Reaktion auf den Empfang der Augmented-Reality-Anforderung 160 von der Augmented-Reality-Einheit 110 beleuchten. Des Weiteren können die Augmented-Reality-Anforderungen 160 dem Controller 134 gegenüber angeben, den Pfad 520 in einer oder mehreren bestimmten Farben zu beleuchten. Solche Farben können Farben sein, die für den Benutzer von anderen Farben unterscheidbar sind. In einer Veranschaulichung hat der Benutzer möglicherweise eine Sehbehinderung, bei der der Benutzer nicht in der Lage ist, bestimmte Farben zu unterscheiden. Die Augmented-Reality-Anforderungen 160 können eine bevorzugte Farbe angeben, in der der Pfad 520 beleuchtet werden soll, so dass der Benutzer eine solche Beleuchtung von anderem Licht unterscheiden kann, das der Benutzer gegebenenfalls visuell empfängt.
  • In einer einzelnen Anordnung können die Augmented-Reality-Anforderungen 160 als Reaktion auf eine oder mehrere Benutzereingaben in die Augmented-Reality-Einheit 110 erzeugt werden. Zum Beispiel kann der Benutzer einen von einer Benutzerschnittstelle der Augmented-Reality-Einheit 110 dargestellten Menüpunkt auswählen. Bei dem Menüpunkt kann es sich zum Beispiel um einen Menüpunkt handeln, der eine Anforderung, eine nächstgelegene Ausfahrt zu suchen, angibt, einen Menüpunkt, der eine Anforderung, sich zu einem bestimmten Ort fortzubewegen, angibt, usw. Als Reaktion auf die Benutzerauswahl des Menüpunkts kann die Augmented-Reality-Anwendung unter Verwendung des Prozessors 114 die Augmented-Reality-Anforderungen 160 erzeugen. Unter Verwendung des Prozessors 114 und des Sendeempfängers 112 kann die Augmented-Reality-Anwendung die Augmented-Reality-Anforderung 160 an den Sendeempfänger 132 übertragen, der die Augmented-Reality-Anforderungen 160 an den Controller 134 übertragen kann.
  • Der Controller 134 kann die Augmented-Reality-Anforderungen 160 verarbeiten und als Reaktion darauf die Lampen 510 auswählen, die für die Beleuchtung des Pfades 520 geeignet sind, und Steuersignale an diese Lampen (z.B. an Schalter/Controller, die die Lampen 510 steuern) übertragen, um die Lampen 510 zum Leuchten zu bringen. Die Lampen 510 können so konfiguriert sein, dass sie eine Vielzahl von Lichtfarben erzeugen. Zum Beispiel kann jede Lampe 510 eine oder mehrere LED-Lampen enthalten, die so konfiguriert sind, dass sie zwei oder mehr Farben ausstrahlen.
  • Beruhend auf der Augmented-Reality-Anforderung 160 können die Steuersignale die Lichtfarbe angeben, die eine jede jeweilige Lampe 510 erzeugen soll. Zum Beispiel kann die Augmented-Reality-Anforderung 160 eine oder mehrere bestimmte Lichtfarben angeben und der Controller 134 kann die Steuersignale erzeugen, um die eine oder die mehreren bestimmten Lichtfarben anzugeben. Die Augmented-Reality-Anwendung 116 kann die bestimmte(n) Lichtfarbe(n) beruhend auf dem Benutzerprofil 118 und/oder der elektronischen Patientenakte 120 des Benutzers auswählen. Falls der Benutzer zum Beispiel Schwierigkeiten hat, bestimmte Lichtfarben zu unterscheiden, kann die Augmented-Reality-Anwendung 116 eine oder mehrere Farben auswählen, die für den Benutzer unterscheidbar sind.
  • In einer weiteren Anordnung, zum Beispiel einer Anordnung, in der die Augmented-Reality-Einheit 110 als eine Datenbrille oder als Augmented-Reality-Headset ausgeführt ist, kann die Augmented-Reality-Anwendung 116 über den Prozessor 114 eine Darstellung der realen Umgebung, die dem Benutzer über die Augmented-Reality-Einheit 110 dargestellt wird, mit dem Pfad 520 überlagern. In dieser Hinsicht kann die Augmented-Reality-Einheit 110 die reale Darstellung mit dem Pfad 520 erweitern, zum Beispiel in einer Weise, die ähnlich der unter Bezugnahme auf 4 beschriebenen ist.
  • 6 stellt ein Beispiel einer beleuchtenden konfigurierbaren physischen Struktur 130 in einer Augmented-Reality-Umgebung 100 dar. In diesem Beispiel kann die physische Struktur 130 eine Wand bzw. eine Mauer, ein Boden, eine Decke, ein Bereich usw. sein. Die physische Struktur 130 kann mindestens einen Bildschirm 600 enthalten, der so konfiguriert ist, dass er Licht abstrahlt. In einer einzelnen Anordnung kann die physische Struktur 130 eine Vielzahl von Bildschirmen 600 enthalten. Zu Beispielen für einen Bildschirm 600 gehören, ohne darauf beschränkt zu sein, ein LED-Bildschirm mit Leuchtdioden, ein OLED-Bildschirm mit organischen Leuchtdioden, ein Flüssigkristall-(LCD-)Bildschirm, ein Plasmabildschirm und so weiter. In einem weiteren Beispiel kann ein Bildschirm 600 ein faseroptischer Bildschirm sein, der eine Vielzahl von faseroptischen Lichtröhren (nicht gezeigt) enthält. Ein erstes Ende einer jeden faseroptischen Lichtröhre kann bündig mit einer Oberfläche des Bildschirms 600 sein, hinter der Oberfläche des Bildschirms 600 abgesenkt sein oder über die Oberfläche des Bildschirms 600 hinausragen. Ein zweites Ende einer jeden Röhre kann an einer Lampe befestigt oder nahe einer Lampe (z.B. einer LED) platziert sein. Jede faseroptische Röhre kann von der jeweiligen Lampe erzeugtes Licht durch das erste Ende der faseroptischen Röhre abstrahlen. In einem weiteren Beispiel kann ein Bildschirm 600 einen Bildprojektor enthalten, der Bilder auf die physische Struktur 130 projiziert.
  • Unter Bezugnahme auf die 1 und 6 kann der Controller 134 den/die Bildschirm(e) 600 so steuern, dass ein Pfad 610 beleuchtet wird, damit sich der Benutzer von einem ersten Ort (z.B. einem aktuellen Aufenthaltsort des Benutzers) an mindestens einen zweiten Ort fortbewegen (z.B. sicher fortbewegen) kann. Der Controller 134 den/die Bildschirm(e) 600 so steuern, dass der Pfad 610 als Reaktion auf den Empfang der Augmented-Reality-Anforderung 160 von der Augmented-Reality-Einheit 110 beleuchtet wird. Des Weiteren können die Augmented-Reality-Anforderungen 160 dem Controller 134 gegenüber angeben, den Pfad 610 in einer oder mehreren bestimmten Farben zu beleuchten.
  • In einer weiteren Anordnung kann der Controller 134 den/die Bildschirm(e) 600 selektiv so steuern, dass ein beleuchtetes Farbschema, das Farben oder Texturen der physischen Vorrichtung 130 visuell darstellt, als Reaktion auf den Empfang der Augmented-Reality-Anforderung 160 von der Augmented-Reality-Einheit 110 geändert wird. Zum Beispiel kann der Controller 134 den/die Bildschirm(e) 600 so steuern, dass ein optisches Erscheinungsbild des Bildschirms/der Bildschirme 600 und somit die physische Struktur 130 geändert wird, indem auf dem/den Bildschirm(en) dargestellte Farben oder Texturen geändert werden.
  • In einer Veranschaulichung kann der Controller 134, falls die physische Vorrichtung 130 eine Decke ist, den/die Bildschirm(e) 600 so steuern, dass ein oder mehrere durch den Bildschirm dargestellte Bilder geändert werden. Zum Beispiel kann es sich bei einem ersten Satz von Bildern um Bilder von Deckenplatten handeln. Die Bilder der Deckenplatten können bestimmte Texturen darstellen. Solche Texturen können sich als Reaktion darauf ändern, dass die Bilder geändert werden. Folglich kann die physische Vorrichtung 130 wie eine bestimmte Art von Decke aussehen. Als Reaktion auf den Empfang der Augmented-Reality-Anforderung 160 von der Augmented-Reality-Einheit 110 kann der Controller 134 die Bildschirme 600 so steuern, dass die Bilder geändert werden, zum Beispiel in Bilder, die verschiedene Deckenplatten darstellen. Folglich kann die physische Vorrichtung 130 wie eine andere Art von Decke aussehen. Falls die physische Vorrichtung 130 ein Boden ist, kann es sich bei einem ersten Satz von Bildern, die von den Bildschirmen 600 dargestellt werden, um Bilder handeln, die einen Holzboden darstellen. Folglich kann die physische Vorrichtung 130 wie ein Holzboden aussehen, der Holztexturen enthält. Als Reaktion auf den Empfang der Augmented-Reality-Anforderung 160 von der Augmented-Reality-Einheit 110 kann der Controller 134 die Bildschirme 600 so steuern, dass die Bilder geändert werden, zum Beispiel in Bilder, die einen Marmorfußboden darstellen. Folglich kann die physische Vorrichtung 130 wie ein Marmorfußboden aussehen. Falls die physische Vorrichtung 130 eine Wand bzw. eine Mauer ist, kann es sich bei einem ersten Satz von Bildern, die von den Bildschirmen 600 dargestellt werden, um Bilder handeln, die ein oder mehrere Kunstwerke darstellen. Als Reaktion auf den Empfang der Augmented-Reality-Anforderung 160 von der Augmented-Reality-Einheit 110 kann der Controller 134 die Bildschirme 600 so steuern, dass die Bilder geändert werden, zum Beispiel in Bilder, die ein oder mehrere andere Kunstwerke darstellen. In weiteren Anordnungen kann der Controller 134 die Bildschirme 600 so steuern, dass verschiedene Farben, Kombinationen von Farben und/oder sichtbare Texturen dargestellt werden. Zum Beispiel können die Bildschirme 600 Bilder von Stahlgittern, Bilder von Teppich und so weiter darstellen.
  • 7 ist ein Blockschaubild, das eine beispielhafte Datenverarbeitungsarchitektur für eine Augmented-Reality-Einheit 110 veranschaulicht. Die Augmented-Reality-Einheit 170 kann in ähnlicher Weise konfiguriert sein. Die Augmented-Reality-Einheit 110 kann mindestens einen Prozessor 114 (z.B. eine zentrale Verarbeitungseinheit) enthalten, der über einen Systembus 715 oder eine andere geeignete Schaltung mit Hauptspeicherelementen 710 verbunden ist. Somit kann die Augmented-Reality-Einheit 110 in den Hauptspeicherelementen 710 Programmcode speichern. Der Prozessor 114 kann den Programmcode ausführen, auf den von den Speicherelementen 710 aus über den Systembus 715 zugegriffen wird.
  • Die Hauptspeicherelemente 710 können eine oder mehrere physische Hauptspeichereinheiten wie zum Beispiel einen lokalen Hauptspeicher 720 und eine oder mehrere Massenspeichereinheiten 725 enthalten. Der lokale Hauptspeicher 720 bezieht sich auf einen Direktzugriffsspeicher (RAM) oder auf (eine) andere nicht persistente Hauptspeichereinheit(en), die im Allgemeinen während der tatsächlichen Ausführung des Programmcodes verwendet werden. Die Massenspeichereinheit(en) 725 kann/können als ein Festplattenlaufwerk (HDD), Halbleiterlaufwerk (SSD) oder eine andere persistente Datenspeichereinheit realisiert sein. Die Augmented-Reality-Einheit 110 kann auch einen oder mehrere Cachespeicher (nicht gezeigt) enthalten, die eine temporäre Speicherung von mindestens einem Teil des Programmcodes bereitstellen, um die Häufigkeit zu verringern, mit der Programmcode während der Ausführung aus der Massenspeichereinheit 725 abgerufen werden muss.
  • Eingabe-/Ausgabe-(E/A-)Einheiten wie beispielsweise eine Benutzerschnittstelle 730 und ein Sendeempfänger 112. Die E/A-Einheiten können entweder direkt oder durch zwischengeschaltete E/A-Controller mit der Augmented-Reality-Einheit 110 verbunden sein. Zu der Benutzerschnittstelle 730 können ein oder mehrere Bildschirme, eine oder mehrere Projektionseinheiten, eine oder mehrere Eingabe-/Ausgabe-Audioeinheiten und so weiter gehören.
  • Wie in 7 abgebildet ist, können die Hauptspeicherelemente 710 die Komponenten der Augmented-Reality-Einheit 110 speichern, nämlich die Augmented-Reality-Anwendung 116, das Benutzerprofil 118 und optional die elektronische Patientenakte 120. In Form von ausführbarem Programmcode ausgeführt, kann die Augmented-Reality-Anwendung 116 durch den Prozessor 114 ausgeführt und als solches als Teil der Augmented-Reality-Einheit 110 betrachtet werden. Darüber hinaus sind die Augmented-Reality-Anwendung 116, das Benutzerprofil 118 und die elektronische Patientenakte 120 funktionale Datenstrukturen, die, wenn sie als Teil der Augmented-Reality-Einheit 110 eingesetzt werden, Funktionalität verleihen.
  • 8 ist ein Blockschaubild, das eine beispielhafte Datenverarbeitungsarchitektur für eine physische Vorrichtung 130 veranschaulicht. Die physische Vorrichtung 130 kann mindestens einen Controller 134 enthalten, der durch einen Systembus 815 oder eine andere geeignete Schaltung mit Hauptspeicherelementen 810 verbunden ist. Somit kann die physische Vorrichtung 130 in den Hauptspeicherelementen 810 Programmcode speichern. Der Controller 134 kann den Programmcode ausführen, auf den von den Speicherelementen 810 aus über den Systembus 815 zugegriffen wird.
  • Die Hauptspeicherelemente 810 können eine oder mehrere physische Hauptspeichereinheiten wie zum Beispiel einen lokalen Hauptspeicher 820 und eine oder mehrere Massenspeichereinheiten 825 enthalten. Die physische Vorrichtung 130 kann auch einen oder mehrere Cachespeicher (nicht gezeigt) enthalten, die eine temporäre Speicherung von mindestens einem Teil des Programmcodes bereitstellen, um die Häufigkeit zu verringern, mit der Programmcode während der Ausführung aus der Massenspeichereinheit 825 abgerufen werden muss.
  • Eingabe-/Ausgabe-(E/A-)Einheiten wie ein Sendeempfänger 132 können entweder direkt oder durch zwischengeschaltete E/A-Controller mit der physischen Vorrichtung 130 verbunden sein. Ein oder mehrere Stellantriebe 138 können ebenfalls entweder direkt oder durch zwischengeschaltete E/A-Controller mit der physischen Vorrichtung 130 verbunden sein. In einer einzelnen Anordnung kann/können der/die Stellantrieb(e) 138 mit einer oder mehreren gesteuerten Einheiten und/oder Strukturen 136 verbunden sein. In einer weiteren Anordnung, zum Beispiel einer Anordnung, in der die gesteuerten Einheiten und/oder Strukturen 136 Lampen sind, kann die physische Vorrichtung 130 zusätzlich zu oder anstelle von dem/den Stellantrieb(en) 138 Schalter/Controller enthalten.
  • Wie in 8 abgebildet ist, können die Hauptspeicherelemente 810 die Komponenten der physischen Vorrichtung 130 speichern, nämlich die Anwendung 140 der physischen Vorrichtung. In einer Anordnung, in der die Anwendung 140 der physischen Vorrichtung in Form von ausführbarem Programmcode ausgeführt ist, kann die Anwendung 140 der physischen Vorrichtung durch den Controller 134 ausgeführt und als solches als Teil der physischen Vorrichtung 130 betrachtet werden. In einer Anordnung, in der der Controller 134 programmierbare Logikschaltungen, eine FPGA, eine PLA usw., aufweist, kann die Anwendung 140 der physischen Vorrichtung innerhalb eines solchen Controllers 134 ausgeführt werden. Die Anwendung 140 der physischen Vorrichtung ist eine funktionale Datenstruktur, die, wenn sie als Teil der physischen Vorrichtung 130 eingesetzt wird, Funktionalität verleiht.
  • 9 ist ein Ablaufplan, der ein Beispiel eines Verfahrens 900 zum Starten einer physischen Struktur veranschaulicht, um eine Konfiguration zu ändern. Das Verfahren 900 kann durch die Augmented-Reality-Einheit 110 von 1 ausgeführt werden.
  • Im Schritt 905 kann die Augmented-Reality-Einheit 110 feststellen, ob sich ein Benutzer der Augmented-Reality-Einheit innerhalb einer Schwellenwertentfernung zu einer konfigurierbaren physischen Vorrichtung befindet. Im Schritt 910 kann die Augmented-Reality-Einheit 110 als Reaktion auf die Feststellung, dass sich der Benutzer innerhalb der Schwellenwertentfernung zu der konfigurierbaren physischen Vorrichtung befindet, eine Übertragungsverbindung zwischen der Augmented-Reality-Einheit und einem Controller der konfigurierbaren physischen Vorrichtung herstellen. Im Schritt 915 kann die Augmented-Reality-Einheit 110 den Controller der konfigurierbaren physischen Vorrichtung starten, um die konfigurierbare physische Vorrichtung von einer ersten Konfiguration in eine zweite Konfiguration zu ändern, wobei die zweite Konfiguration dem Benutzer die konfigurierbare physische Vorrichtung leichter zugänglich macht.
  • Während die Offenbarung mit Ansprüchen schließt, die neuartige Merkmale definieren, wird davon ausgegangen, dass sich die verschiedenen hierin beschriebenen Merkmale besser verstehen lassen, wenn die Beschreibung in Zusammenschau mit den Zeichnungen betrachtet wird. Der/die Prozess(e), Maschine(n), Fertigung(en) und beliebige Varianten davon, die in dieser Offenbarung beschrieben sind, sind zum Zweck der Veranschaulichung vorgesehen. Jedwede spezifischen strukturellen und funktionalen Details, die beschrieben wurden, sind nicht als einschränkend auszulegen, sondern lediglich als eine Grundlage für die Ansprüche und als eine repräsentative Grundlage, um einen Fachmann die verschiedentliche Nutzung der in praktisch jeder entsprechend detaillierten Struktur beschriebenen Merkmale zu lehren. Des Weiteren sind die in dieser Offenbarung verwendeten Begriffe und Formulierungen nicht als Einschränkung gedacht, sondern sollen vielmehr eine verständliche Beschreibung der dargelegten Merkmale ermöglichen.
  • Der Einfachheit und Übersichtlichkeit der Veranschaulichung halber wurden in den Figuren gezeigte Elemente nicht unbedingt maßstabgetreu gezeichnet. Beispielsweise können die Abmessungen von einigen der Elemente im Verhältnis zu anderen Elementen aus Gründen der Übersichtlichkeit etwas übertrieben dargestellt sein. Des Weiteren werden, wo es angemessen erscheint, Bezugszahlen in den Figuren wiederholt, um entsprechende, gleichartige oder gleiche Merkmale anzugeben.
  • Bei der vorliegenden Erfindung kann es sich um ein System, ein Verfahren und/oder ein Computerprogrammprodukt handeln. Das Computerprogrammprodukt kann (ein) durch einen Computer lesbare(s) Speichermedium (oder -medien) beinhalten, auf dem/denen durch einen Computer lesbare Programmanweisungen gespeichert sind, um einen Prozessor dazu zu veranlassen, Aspekte der vorliegenden Erfindung auszuführen.
  • Bei dem durch einen Computer lesbaren Speichermedium kann es sich um eine physische Einheit handeln, die Anweisungen zur Verwendung durch ein System zur Ausführung von Anweisungen behalten und speichern kann. Bei dem durch einen Computer lesbaren Speichermedium kann es sich zum Beispiel um eine elektronische Speichereinheit, eine magnetische Speichereinheit, eine optische Speichereinheit, eine elektromagnetische Speichereinheit, eine Halbleiterspeichereinheit oder jede geeignete Kombination daraus handeln, ohne auf diese beschränkt zu sein. Zu einer nicht erschöpfenden Liste spezifischerer Beispiele des durch einen Computer lesbaren Speichermediums gehören die folgenden: eine tragbare Computerdiskette, eine Festplatte, ein Direktzugriffsspeicher (RAM), ein Nur-Lese-Speicher (ROM), ein löschbarer programmierbarer Nur-Lese-Speicher (EPROM bzw. Flash-Speicher), ein statischer Direktzugriffsspeicher (SRAM), ein tragbarer Kompaktspeicherplatte-Nur-Lese-Speicher (CD-ROM), eine DVD (digital versatile disc), ein Speicher-Stick, eine Diskette, eine mechanisch kodierte Einheit wie zum Beispiel Lochkarten oder gehobene Strukturen in einer Rille, auf denen Anweisungen gespeichert sind, und jede geeignete Kombination daraus. Ein durch einen Computer lesbares Speichermedium soll in der Verwendung hierin nicht als flüchtige Signale an sich aufgefasst werden, wie zum Beispiel Funkwellen oder andere sich frei ausbreitende elektromagnetische Wellen, elektromagnetische Wellen, die sich durch einen Wellenleiter oder ein anderes Übertragungsmedium ausbreiten (z.B. durch ein Glasfaserkabel geleitete Lichtimpulse) oder durch einen Draht übertragene elektrische Signale.
  • Hierin beschriebene, durch einen Computer lesbare Programmanweisungen können von einem durch einen Computer lesbaren Speichermedium auf jeweilige Datenverarbeitungs-/Verarbeitungseinheiten oder über ein Netzwerk wie zum Beispiel das Internet, ein lokales Netzwerk, ein Weitverkehrsnetz und/oder ein drahtloses Netzwerk auf einen externen Computer oder eine externe Speichereinheit heruntergeladen werden. Das Netzwerk kann Kupferübertragungskabel, Lichtwellenübertragungsleiter, drahtlose Übertragung, Leitwegrechner, Firewalls, Vermittlungseinheiten, Gateway-Computer und/oder Edge-Server aufweisen. Eine Netzwerkadapterkarte oder Netzwerkschnittstelle in jeder Datenverarbeitungs-/Verarbeitungseinheit empfängt durch einen Computer lesbare Programmanweisungen aus dem Netzwerk und leitet die durch einen Computer lesbaren Programmanweisungen zur Speicherung in einem durch einen Computer lesbaren Speichermedium innerhalb der entsprechenden Datenverarbeitungs-/Verarbeitungseinheit weiter.
  • Bei durch einen Computer lesbaren Programmanweisungen zum Ausführen von Arbeitsschritten der vorliegenden Erfindung kann es sich um Assembler-Anweisungen, ISA-Anweisungen (Instruction-Set-Architecture), Maschinenanweisungen, maschinenabhängige Anweisungen, Mikrocode, Firmware-Anweisungen, zustandssetzende Daten oder entweder Quellcode oder Objektcode handeln, die in einer beliebigen Kombination aus einer oder mehreren Programmiersprachen geschrieben werden, darunter objektorientierte Programmiersprachen wie Smalltalk, C++ o.ä. sowie herkömmliche prozedurale Programmiersprachen wie die Programmiersprache „C“ oder ähnliche Programmiersprachen. Die durch einen Computer lesbaren Programmanweisungen können vollständig auf dem Computer des Benutzers, teilweise auf dem Computer des Benutzers, als eigenständiges Software-Paket, teilweise auf dem Computer des Benutzers und teilweise auf einem fernen Computer oder vollständig auf dem fernen Computer oder Server ausgeführt werden. In letzterem Fall kann der entfernt angeordnete Computer mit dem Computer des Benutzers durch eine beliebige Art Netzwerk verbunden sein, darunter ein lokales Netzwerk (LAN) oder ein Weitverkehrsnetz (WAN), oder die Verbindung kann mit einem externen Computer hergestellt werden (zum Beispiel über das Internet unter Verwendung eines Internet-Dienstanbieters). In einigen Ausführungsformen können elektronische Schaltungen, darunter zum Beispiel programmierbare Logikschaltungen, im Feld programmierbare Gatter-Anordnungen (FPGA, field programmable gate arrays) oder programmierbare Logikanordnungen (PLA, programmable logic arrays) die durch einen Computer lesbaren Programmanweisungen ausführen, indem sie Zustandsinformationen der durch einen Computer lesbaren Programmanweisungen nutzen, um die elektronischen Schaltungen zu personalisieren, um Aspekte der vorliegenden Erfindung durchzuführen.
  • Aspekte der vorliegenden Erfindung sind hierin unter Bezugnahme auf Ablaufpläne und/oder Blockschaltbilder bzw. Schaubilder von Verfahren, Vorrichtungen (Systemen) und Computerprogrammprodukten gemäß Ausführungsformen der Erfindung beschrieben. Es wird darauf hingewiesen, dass jeder Block der Ablaufpläne und/oder der Blockschaltbilder bzw. Schaubilder sowie Kombinationen von Blöcken in den Ablaufplänen und/oder den Blockschaltbildern bzw. Schaubildern mittels durch einen Computer lesbare Programmanweisungen ausgeführt werden können.
  • Diese durch einen Computer lesbaren Programmanweisungen können einem Prozessor eines Universalcomputers, eines Spezialcomputers oder einer anderen programmierbaren Datenverarbeitungsvorrichtung bereitgestellt werden, um eine Maschine zu erzeugen, so dass die über den Prozessor des Computers bzw. der anderen programmierbaren Datenverarbeitungsvorrichtung ausgeführten Anweisungen ein Mittel zur Umsetzung der in dem Block bzw. den Blöcken der Ablaufpläne und/oder der Blockschaltbilder bzw. Schaubilder festgelegten Funktionen/Schritte erzeugen. Diese durch einen Computer lesbaren Programmanweisungen können auch auf einem durch einen Computer lesbaren Speichermedium gespeichert sein, das einen Computer, eine programmierbare Datenverarbeitungsvorrichtung und/oder andere Einheiten so steuern kann, dass sie auf eine bestimmte Art funktionieren, so dass das durch einen Computer lesbare Speichermedium, auf dem Anweisungen gespeichert sind, ein Herstellungsprodukt aufweist, darunter Anweisungen, welche Aspekte der/des in dem Block bzw. den Blöcken des Ablaufplans und/oder der Blockschaltbilder bzw. Schaubilder angegebenen Funktion/Schritts umsetzen.
  • Die durch einen Computer lesbaren Programmanweisungen können auch auf einen Computer, eine andere programmierbare Datenverarbeitungsvorrichtung oder eine andere Einheit geladen werden, um das Ausführen einer Reihe von Prozessschritten auf dem Computer bzw. der anderen programmierbaren Vorrichtung oder anderen Einheit zu verursachen, um einen auf einem Computer ausgeführten Prozess zu erzeugen, so dass die auf dem Computer, einer anderen programmierbaren Vorrichtung oder einer anderen Einheit ausgeführten Anweisungen die in dem Block bzw. den Blöcken der Ablaufpläne und/oder der Blockschaltbilder bzw. Schaubilder festgelegten Funktionen/Schritte umsetzen.
  • Die Ablaufpläne und die Blockschaltbilder bzw. Schaubilder in den Figuren veranschaulichen die Architektur, die Funktionalität und den Betrieb möglicher Ausführungen von Systemen, Verfahren und Computerprogrammprodukten gemäß verschiedenen Ausführungsformen der vorliegenden Erfindung. In diesem Zusammenhang kann jeder Block in den Ablaufplänen oder Blockschaltbildern bzw. Schaubildern ein Modul, ein Segment oder einen Teil von Anweisungen darstellen, die eine oder mehrere ausführbare Anweisungen zur Ausführung der bestimmten logischen Funktion(en) aufweisen. In einigen alternativen Ausführungen können die in dem Block angegebenen Funktionen in einer anderen Reihenfolge als in den Figuren gezeigt stattfinden. Zwei nacheinander gezeigte Blöcke können zum Beispiel in Wirklichkeit im Wesentlichen gleichzeitig ausgeführt werden, oder die Blöcke können manchmal je nach entsprechender Funktionalität in umgekehrter Reihenfolge ausgeführt werden. Es ist ferner anzumerken, dass jeder Block der Blockschaltbilder bzw. Schaubilder und/oder der Ablaufpläne sowie Kombinationen aus Blöcken in den Blockschaltbildern bzw. Schaubildern und/oder den Ablaufplänen durch spezielle auf Hardware beruhende Systeme umgesetzt werden können, welche die festgelegten Funktionen oder Schritte durchführen, oder Kombinationen aus Spezial-Hardware und Computeranweisungen ausführen.
  • Die hierin verwendete Terminologie dient lediglich dazu, bestimmte Ausführungsformen zu beschreiben und sollte nicht als Einschränkung der Erfindung verstanden werden. Die Singular-Formen „ein“, „eine“ und „der“, „die“, „das“ sollen in der Verwendung hierin auch die Pluralformen einschließen, sofern der Kontext nicht eindeutig etwas anderes angibt. Es wird des Weiteren darauf hingewiesen, dass die Begriffe „enthält“, „darunter“, „aufweist“ und/oder „aufweisend“, wenn sie in dieser Offenbarung verwendet werden, das Vorhandensein von angegebenen Merkmalen, ganzen Zahlen, Schritten, Operationen, Elementen und/oder Komponenten bezeichnen, das Vorhandensein oder das Hinzufügen von einem oder mehreren anderen Merkmalen, ganzen Zahlen, Schritten, Operationen, Elementen, Komponenten und/oder Gruppen davon jedoch nicht ausschließen.
  • Der Verweis in dieser gesamten Offenbarung auf „eine einzelne Ausführungsform“, „eine Ausführungsform“, „eine einzelne Anordnung“, „eine Anordnung“, ein einzelner Aspekt“, „ein Aspekt“ oder einen ähnlichen Sprachgebrauch bedeutet, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder eine bestimmte Eigenschaft, das/die in Verbindung mit der Ausführungsform beschrieben wird, in mindestens einer einzelnen in dieser Offenbarung beschriebenen Ausführungsform enthalten ist. Folglich kann sich ein Auftreten der Formulierungen „eine einzelne Ausführungsform“, „eine Ausführungsform“, „eine einzelne Anordnung“, „eine Anordnung“, „ein einzelner Aspekt“, „ein Aspekt“ und ein ähnlicher Sprachgebrauch in dieser gesamten Offenbarung auf dieselbe Ausführungsform beziehen, doch muss dies nicht zwingend der Fall sein.
  • Der Begriff „Vielzahl“ in der Verwendung hierin ist als zwei oder mehr als zwei definiert. Der Begriff „ein(e) weitere(r/s)“ in der Verwendung hierin ist als mindestens ein(e) zweite(r/s) oder mehr definiert. Der Begriff „verbunden“ in der Verwendung hierin ist als angeschlossen definiert, ob direkt ohne etwaige dazwischenliegende Elemente oder indirekt mit einem oder mehreren dazwischenliegenden Elementen, sofern nicht anderes angegeben ist. Zwei Elemente können auch mechanisch, elektrisch oder in kommunikativer Weise durch einen Übertragungskanal, einen Pfad, ein Netzwerk oder ein System verbunden sein. Der Begriff „und/oder“ in der Verwendung hierin bezieht sich auf und umfasst beliebige sowie alle möglichen Kombinationen aus einem oder mehreren der zugehörigen aufgeführten Elemente. Wenngleich die Begriffe erste(r/s), zweite(r/s) usw. hierin verwendet werden können, um verschiedene Elemente zu beschreiben, wird auch darauf hingewiesen, dass diese Elemente nicht durch diese Begriffe eingeschränkt werden sollten, da diese Begriffe nur verwendet werden, um ein Element von einem anderen zu unterscheiden, sofern nicht anders angegeben bzw. sofern der Kontext nichts anderes besagt.
  • Der Begriff „falls“ kann in Abhängigkeit vom Kontext in der Bedeutung von „wenn“ oder „nach/nachdem“ oder „als Reaktion auf die Feststellung“ oder „als Reaktion auf das Erkennen“ ausgelegt werden. Ebenso kann die Formulierung „falls festgestellt wird“ oder „falls [eine angegebene Bedingung oder ein angegebenes Ereignis] erkannt wird“ in Abhängigkeit vom Kontext in der Bedeutung von „nach der Feststellung“ oder „als Reaktion auf die Feststellung“ oder „nachdem [die angegebene Bedingung oder das angegebene Ereignis] erkannt wurde“ oder „als Reaktion darauf, dass [die angegebene Bedingung oder das angegebene Ereignis] erkannt wurde“ ausgelegt werden.
  • Die Beschreibungen der verschiedenen Ausführungsformen der vorliegenden Erfindung erfolgten zum Zweck der Veranschaulichung, sollen jedoch nicht erschöpfend oder auf die offenbarten Ausführungsformen beschränkt sein. Viele Änderungen und Varianten sind für den Fachmann erkennbar, ohne vom Umfang der beschriebenen Ausführungsformen abzuweichen. Die hierin verwendete Terminologie wurde gewählt, um die Grundgedanken der Ausführungsformen, die praktische Anwendung oder technische Verbesserung gegenüber auf dem Markt befindlicher Technologien am besten zu erklären bzw. um anderen Fachleuten das Verständnis der hierin offenbarten Ausführungsformen zu ermöglichen.

Claims (20)

  1. Verfahren, das aufweist: Feststellen, ob sich ein Benutzer einer Augmented-Reality-Einheit innerhalb einer Schwellenwertentfernung zu einer konfigurierbaren physischen Vorrichtung befindet; als Reaktion auf die Feststellung, dass sich der Benutzer innerhalb der Schwellenwertentfernung zu der konfigurierbaren physischen Vorrichtung befindet, Herstellen einer Übertragungsverbindung zwischen der Augmented-Reality-Einheit und einem Controller der konfigurierbaren physischen Vorrichtung; und Starten, durch die Augmented-Reality-Einheit, des Controllers der konfigurierbaren physischen Vorrichtung, um die konfigurierbare physische Vorrichtung von einer ersten Konfiguration in eine zweite Konfiguration zu ändern, wobei die zweite Konfiguration dem Benutzer die konfigurierbare physische Vorrichtung leichter zugänglich macht.
  2. Verfahren nach Anspruch 1, wobei: die konfigurierbare physische Vorrichtung einen Handlauf aufweist; und das Ändern der konfigurierbaren physischen Vorrichtung von der ersten Konfiguration in die zweite Konfiguration das Versetzen des Handlaufs von einer ersten Höhe auf eine zweite Höhe aufweist.
  3. Verfahren nach Anspruch 1, wobei: die konfigurierbare physische Vorrichtung einen Regalboden aufweist; und das Ändern der konfigurierbaren physischen Vorrichtung von der ersten Konfiguration in die zweite Konfiguration das Versetzen des Regalbodens von einer ersten Höhe auf eine zweite Höhe aufweist.
  4. Verfahren nach Anspruch 1, wobei: die konfigurierbare physische Vorrichtung ein Zeichen aufweist; und das Ändern der konfigurierbaren physischen Vorrichtung von der ersten Konfiguration in die zweite Konfiguration das Ändern einer Farbe von mindestens einem Teil des Zeichens von einer ersten Farbe in eine zweite Farbe aufweist.
  5. Verfahren nach Anspruch 1, wobei: die konfigurierbare physische Vorrichtung eine Lampe aufweist; und das Ändern der konfigurierbaren physischen Vorrichtung von der ersten Konfiguration in die zweite Konfiguration das Ändern einer Farbe der Lampe von einer ersten Farbe in eine zweite Farbe aufweist.
  6. Verfahren nach Anspruch 1, wobei: die konfigurierbare physische Vorrichtung eine Vielzahl von Lampen aufweist; und das Ändern der konfigurierbaren physischen Vorrichtung von der ersten Konfiguration in die zweite Konfiguration das Steuern der Vielzahl der Lampen aufweist, um einen Pfad zu beleuchten, damit sich der Benutzer von einem ersten Ort an mindestens einen zweiten Ort fortbewegen kann.
  7. Verfahren nach Anspruch 1, wobei: die konfigurierbare physischen Vorrichtung mindestens einen Bildschirm aufweist, der so konfiguriert ist, dass er Licht abstrahlt; und das Ändern der konfigurierbaren physischen Vorrichtung von der ersten Konfiguration in die zweite Konfiguration das selektive Steuern des Bildschirms aufweist, um ein beleuchtetes Farbschema zu ändern, das Farben oder Texturen der konfigurierbaren physischen Vorrichtung visuell darstellt.
  8. Verfahren nach Anspruch 1, wobei die Augmented-Reality-Einheit eine erste Augmented-Reality-Einheit ist und sich eine zweite Augmented-Reality-Einheit innerhalb der Schwellenwertentfernung zu der konfigurierbaren physischen Vorrichtung befindet, wobei das Verfahren des Weiteren aufweist: Sich-Abstimmen der ersten Augmented-Reality-Einheit mit der zweiten Augmented-Reality-Einheit, indem mindestens eine Nachricht zwischen der ersten Augmented-Reality-Einheit und der zweiten Augmented-Reality-Einheit ausgetauscht wird; und beruhend auf der mindestens einen Nachricht, Feststellen durch mindestens die erste Augmented-Reality-Einheit, dass die erste Augmented-Reality-Einheit Priorität vor der zweiten Augmented-Reality-Einheit bei der Steuerung der konfigurierbaren physischen Vorrichtung hat; wobei das Starten, durch die Augmented-Reality-Einheit, des Controllers der konfigurierbaren physischen Vorrichtung, um die konfigurierbare physische Vorrichtung von einer ersten Konfiguration in eine zweite Konfiguration zu ändern, darüber hinaus auf die Feststellung anspricht, dass die erste Augmented-Reality-Einheit Priorität bei der Steuerung der konfigurierbaren physischen Vorrichtung hat.
  9. Verfahren nach Anspruch 1, das des Weiteren aufweist: Zugreifen auf eine elektronische Patientenakte des Benutzers; und automatisches Feststellen der zweiten Konfiguration beruhend auf der elektronischen Patientenakte des Benutzers.
  10. Verfahren nach Anspruch 1, das des Weiteren aufweist: Zugreifen auf ein Benutzerprofil des Benutzers; und automatisches Feststellen der zweiten Konfiguration beruhend auf dem Benutzerprofil des Benutzers.
  11. Augmented-Reality-Einheit, die aufweist: einen Prozessor, der so programmiert ist, dass er ausführbare Operationen startet, die aufweisen: Feststellen, ob sich ein Benutzer der Augmented-Reality-Einheit innerhalb einer Schwellenwertentfernung zu einer konfigurierbaren physischen Vorrichtung befindet; als Reaktion auf die Feststellung, dass sich der Benutzer innerhalb der Schwellenwertentfernung zu der konfigurierbaren physischen Vorrichtung befindet, Herstellen einer Übertragungsverbindung zwischen der Augmented-Reality-Einheit und einem Controller der konfigurierbaren physischen Vorrichtung; und Starten des Controllers der konfigurierbaren physischen Vorrichtung, um die konfigurierbare physische Vorrichtung von einer ersten Konfiguration in eine zweite Konfiguration zu ändern, wobei die zweite Konfiguration dem Benutzer die konfigurierbare physische Vorrichtung leichter zugänglich macht.
  12. Augmented-Reality-Einheit nach Anspruch 11, wobei: die konfigurierbare physische Vorrichtung einen Handlauf aufweist; und das Ändern der konfigurierbaren physischen Vorrichtung von der ersten Konfiguration in die zweite Konfiguration das Versetzen des Handlaufs von einer ersten Höhe auf eine zweite Höhe aufweist.
  13. Augmented-Reality-Einheit nach Anspruch 11, wobei: die konfigurierbare physische Vorrichtung einen Regalboden aufweist; und das Ändern der konfigurierbaren physischen Vorrichtung von der ersten Konfiguration in die zweite Konfiguration das Versetzen des Regalbodens von einer ersten Höhe auf eine zweite Höhe aufweist.
  14. Augmented-Reality-Einheit nach Anspruch 11, wobei: die konfigurierbare physische Vorrichtung ein Zeichen aufweist; und das Ändern der konfigurierbaren physischen Vorrichtung von der ersten Konfiguration in die zweite Konfiguration das Ändern einer Farbe von mindestens einem Teil des Zeichens von einer ersten Farbe in eine zweite Farbe aufweist.
  15. Augmented-Reality-Einheit nach Anspruch 11, wobei: die konfigurierbare physische Vorrichtung eine Lampe aufweist; und das Ändern der konfigurierbaren physischen Vorrichtung von der ersten Konfiguration in die zweite Konfiguration das Ändern einer Farbe der Lampe von einer ersten Farbe in eine zweite Farbe aufweist.
  16. Augmented-Reality-Einheit nach Anspruch 11, wobei: die konfigurierbare physische Vorrichtung eine Vielzahl von Lampen aufweist; und das Ändern der konfigurierbaren physischen Vorrichtung von der ersten Konfiguration in die zweite Konfiguration das Steuern der Vielzahl der Lampen aufweist, um einen Pfad zu beleuchten, damit sich der Benutzer von einem ersten Ort an mindestens einen zweiten Ort fortbewegen kann.
  17. Augmented-Reality-Einheit nach Anspruch 11, wobei: die konfigurierbare physische Vorrichtung mindestens einen Bildschirm aufweist, der so konfiguriert ist, dass er Licht abstrahlt; und das Ändern der konfigurierbaren physischen Vorrichtung von der ersten Konfiguration in die zweite Konfiguration das selektive Steuern des Bildschirms aufweist, um ein beleuchtetes Farbschema zu ändern, das Farben oder Texturen der konfigurierbaren physischen Vorrichtung visuell darstellt.
  18. Augmented-Reality-Einheit nach Anspruch 11, wobei die Augmented-Reality-Einheit eine erste Augmented-Reality-Einheit ist und sich eine zweite Augmented-Reality-Einheit innerhalb der Schwellenwertentfernung zu der konfigurierbaren physischen Vorrichtung befindet, wobei die ausführbaren Operationen des Weiteren aufweisen: Sich-Abstimmen der ersten Augmented-Reality-Einheit mit der zweiten Augmented-Reality-Einheit, indem mindestens eine Nachricht zwischen der ersten Augmented-Reality-Einheit und der zweiten Augmented-Reality-Einheit ausgetauscht wird; und beruhend auf der mindestens einen Nachricht, Feststellen durch mindestens die erste Augmented-Reality-Einheit, dass die erste Augmented-Reality-Einheit Priorität vor der zweiten Augmented-Reality-Einheit bei der Steuerung der konfigurierbaren physischen Vorrichtung hat; wobei das Starten, durch die Augmented-Reality-Einheit, des Controllers der konfigurierbaren physischen Vorrichtung, um die konfigurierbare physische Vorrichtung von einer ersten Konfiguration in eine zweite Konfiguration zu ändern, darüber hinaus auf die Feststellung anspricht, dass die erste Augmented-Reality-Einheit Priorität bei der Steuerung der konfigurierbaren physischen Vorrichtung hat.
  19. Computerprogrammprodukt, das ein durch einen Computer lesbares Speichermedium mit darauf gespeichertem Programmcode aufweist, wobei der Programmcode durch einen Prozessor ausführbar ist, um ein Verfahren durchzuführen, welches aufweist: Feststellen, durch eine Augmented-Reality-Einheit, ob sich ein Benutzer der Augmented-Reality-Einheit innerhalb einer Schwellenwertentfernung zu einer konfigurierbaren physischen Vorrichtung befindet; als Reaktion auf die Feststellung, dass sich der Benutzer innerhalb der Schwellenwertentfernung zu der konfigurierbaren physischen Vorrichtung befindet, Herstellen, durch die Augmented-Reality-Einheit, einer Übertragungsverbindung zwischen der Augmented-Reality-Einheit und einem Controller der konfigurierbaren physischen Vorrichtung; und Starten, durch die Augmented-Reality-Einheit, des Controllers der konfigurierbaren physischen Vorrichtung, um die konfigurierbare physische Vorrichtung von einer ersten Konfiguration in eine zweite Konfiguration zu ändern, wobei die zweite Konfiguration dem Benutzer die konfigurierbare physische Vorrichtung leichter zugänglich macht.
  20. Computerprogrammprodukt nach Anspruch 19, wobei: die konfigurierbare physische Vorrichtung einen Handlauf aufweist; und das Ändern der konfigurierbaren physischen Vorrichtung von der ersten Konfiguration in die zweite Konfiguration das Versetzen des Handlaufs von einer ersten Höhe auf eine zweite Höhe aufweist.
DE112018001065.1T 2017-05-25 2018-04-26 Erweiterte Realität zur Erleichterung der Zugänglichkeit Pending DE112018001065T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/605,064 US10317990B2 (en) 2017-05-25 2017-05-25 Augmented reality to facilitate accessibility
US15/605,064 2017-05-25
PCT/IB2018/052889 WO2018215854A1 (en) 2017-05-25 2018-04-26 Augmented reality to facilitate accessibility

Publications (1)

Publication Number Publication Date
DE112018001065T5 true DE112018001065T5 (de) 2019-11-14

Family

ID=64396292

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112018001065.1T Pending DE112018001065T5 (de) 2017-05-25 2018-04-26 Erweiterte Realität zur Erleichterung der Zugänglichkeit

Country Status (6)

Country Link
US (4) US10317990B2 (de)
JP (1) JP2020527767A (de)
CN (1) CN110603511A (de)
DE (1) DE112018001065T5 (de)
GB (1) GB2576463B (de)
WO (1) WO2018215854A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10317990B2 (en) 2017-05-25 2019-06-11 International Business Machines Corporation Augmented reality to facilitate accessibility

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000197668A (ja) * 1998-10-26 2000-07-18 Matsushita Electric Works Ltd 電動移動自在椅子
WO2004073512A1 (en) * 2003-02-21 2004-09-02 Harman/Becker Automotive Systems (Becker Division) Gmbh Method for obtaining a colour palette in a display to compensate for colour blindness
JP2005190438A (ja) * 2003-12-26 2005-07-14 Kyocera Corp 無線通信端末および交通管理システム
CN1889614B (zh) 2006-07-05 2011-07-27 珠海格力电器股份有限公司 具备远程定位功能的空调系统及其控制器和控制方法
JP5058660B2 (ja) * 2007-04-12 2012-10-24 トヨタホーム株式会社 キッチン設備制御システム
JP2008261148A (ja) * 2007-04-12 2008-10-30 Toyota Motor Corp 自動調整式手摺装置
JP5016968B2 (ja) * 2007-04-24 2012-09-05 トヨタホーム株式会社 機器制御システム
US9164577B2 (en) 2009-12-22 2015-10-20 Ebay Inc. Augmented reality system, method, and apparatus for displaying an item image in a contextual environment
JP5083397B2 (ja) * 2010-09-29 2012-11-28 株式会社デンソー 路車協調照明システム
JP2012155655A (ja) 2011-01-28 2012-08-16 Sony Corp 情報処理装置、報知方法及びプログラム
JP2012165137A (ja) * 2011-02-04 2012-08-30 Panasonic Corp 携帯端末装置、充電装置、充電制御方法及びプログラム
GB2494697A (en) 2011-09-17 2013-03-20 Viutek Ltd Viewing home decoration using markerless augmented reality
US8941560B2 (en) * 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
US9933265B2 (en) 2012-02-24 2018-04-03 Netclearance Systems, Inc. Way finder using proximity events
DE112012006269T5 (de) 2012-04-26 2015-03-05 Intel Corporation Realitätsergänzender Rechner, Vorrichtung und System
US9292085B2 (en) 2012-06-29 2016-03-22 Microsoft Technology Licensing, Llc Configuring an interaction zone within an augmented reality environment
US8920347B2 (en) * 2012-09-26 2014-12-30 Woodway Usa, Inc. Treadmill with integrated walking rehabilitation device
US20140282220A1 (en) 2013-03-14 2014-09-18 Tim Wantland Presenting object models in augmented reality images
US9349113B2 (en) * 2013-03-26 2016-05-24 3 Strike, Llc Storage container with inventory control
CA2852449A1 (en) 2013-05-23 2014-11-23 Powerball Technologies Inc. Light fixture selection using augmented reality
CN103456145A (zh) 2013-09-24 2013-12-18 电子科技大学 一种财物防盗防丢失的方法
US20150123966A1 (en) 2013-10-03 2015-05-07 Compedia - Software And Hardware Development Limited Interactive augmented virtual reality and perceptual computing platform
US9898844B2 (en) 2013-12-31 2018-02-20 Daqri, Llc Augmented reality content adapted to changes in real world space geometry
WO2015126095A1 (ko) * 2014-02-21 2015-08-27 삼성전자 주식회사 전자 장치
CN104898406B (zh) 2014-03-07 2017-11-07 联想(北京)有限公司 电子设备和采集控制方法
JP6500477B2 (ja) * 2015-02-12 2019-04-17 セイコーエプソン株式会社 頭部装着型表示装置、制御システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム
US9690370B2 (en) 2014-05-05 2017-06-27 Immersion Corporation Systems and methods for viewport-based augmented reality haptic effects
CN104019522B (zh) 2014-05-27 2017-09-29 珠海格力电器股份有限公司 空调控制方法及系统
US9977493B2 (en) * 2015-06-17 2018-05-22 Microsoft Technology Licensing, Llc Hybrid display system
US9949303B2 (en) * 2016-05-02 2018-04-17 GM Global Technology Operations LLC Short range wireless communication system for a vehicle
CN106534541A (zh) 2016-11-15 2017-03-22 广东小天才科技有限公司 一种音量调节方法、装置及终端设备
US10317990B2 (en) 2017-05-25 2019-06-11 International Business Machines Corporation Augmented reality to facilitate accessibility

Also Published As

Publication number Publication date
CN110603511A (zh) 2019-12-20
US20190250701A1 (en) 2019-08-15
US20180341322A1 (en) 2018-11-29
US10739847B2 (en) 2020-08-11
WO2018215854A1 (en) 2018-11-29
GB2576463B (en) 2021-10-20
US20180341321A1 (en) 2018-11-29
JP2020527767A (ja) 2020-09-10
US10310596B2 (en) 2019-06-04
US20190250700A1 (en) 2019-08-15
GB201917684D0 (en) 2020-01-15
US10739848B2 (en) 2020-08-11
US10317990B2 (en) 2019-06-11
GB2576463A (en) 2020-02-19

Similar Documents

Publication Publication Date Title
DE102016110215A1 (de) System und Verfahren zum Steuern von Fahrzeugkomponenten basierend auf von einer Kamera erhaltenen Bildinformationen
DE112017006529B4 (de) Einstrahlungs-steuervorrichtung und einstrahlungs-verfahren
DE102016115541A1 (de) System und verfahren zum autonomen valet-parken unter verwendung plenoptischer kameras
DE102017124304A1 (de) VORRICHTUNG UND VERFAHREN ZUM WAHRNEHMEN UND BENACHRICHTIGEN EINES FUßGÄNGERS
DE112017007050T5 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Informationsverarbeitungsprogramm
DE102012210800B4 (de) Kontextbasierte Verkehrsflusssteuerung
EP3116737B1 (de) Verfahren und vorrichtung zum bereitstellen einer graphischen nutzerschnittstelle in einem fahrzeug
DE102015206654A1 (de) Bildverarbeitungsvorrichtung
DE112012002381T5 (de) Fahrerassistenzerkennungssystem
DE102018117135A1 (de) Fahrzeugassistenz einer erweiterten realität für farbblindheit
DE102017200727A1 (de) Konzept zum Warnen von zumindest einem sich innerhalb eines Parkplatzes befindenden Verkehrsteilnehmer
DE112015001804T5 (de) Bord-Bildanzeigeeinrichtung, Bord-Bildanzeigeverfahren und Bord-Bild-Einstelleinrichtung
WO2017102366A1 (de) System und verfahren zur objektbasierten ansteuerung eines hochauflösenden scheinwerfers für ein kraftfahrzeug
DE112016001815T5 (de) Informationsanzeigevorrichtung und Informationsanzeigeverfahren
EP3147158A1 (de) Verfahren zum betreiben einer beleuchtungseinrichtung eines kraftfahrzeugs und kraftfahrzeug
EP3717954A1 (de) Verfahren zur anzeige des verlaufs einer trajektorie vor einem fahrzeug oder einem objekt mit einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens
WO2018162219A1 (de) Kraftfahrzeug mit einem beleuchtungsmodul zur generierung einer symbolik
EP3411662B1 (de) Kraftfahrzeug
DE102016010284A1 (de) Robotersystem, das einen Sichtsensor verwendet
DE102020212978A1 (de) Fahrzeug und verfahren zu dessen steuerung
DE102018112233A1 (de) Bereitstellung eines verkehrsspiegelinhalts für einen fahrer
DE102017205626B4 (de) Verfahren zum Betreiben einer Beleuchtungseinrichtung für eines oder mehrere Kraftfahrzeuge und Kraftfahrzeug
DE102022127398A1 (de) Fahrspurposition in einemaugmented-reality-head-up-display-system
DE112018001065T5 (de) Erweiterte Realität zur Erleichterung der Zugänglichkeit
DE112018006514T5 (de) Verfahren zum Steuern der Anzeige, Vorrichtung zum Steuern der Anzeige und Head-up-Display

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: KYNDRYL, INC., NEW YORK, US

Free format text: FORMER OWNER: INTERNATIONAL BUSINESS MACHINES CORPORATION, ARMONK, NY, US

R016 Response to examination communication