DE102022117329A1 - Elektronische Geräte und entsprechende Verfahren zur automatischen Durchführung von Login-Vorgängen bei der Präsentation von Inhalten in Umgebungen mit mehreren Personen - Google Patents

Elektronische Geräte und entsprechende Verfahren zur automatischen Durchführung von Login-Vorgängen bei der Präsentation von Inhalten in Umgebungen mit mehreren Personen Download PDF

Info

Publication number
DE102022117329A1
DE102022117329A1 DE102022117329.1A DE102022117329A DE102022117329A1 DE 102022117329 A1 DE102022117329 A1 DE 102022117329A1 DE 102022117329 A DE102022117329 A DE 102022117329A DE 102022117329 A1 DE102022117329 A1 DE 102022117329A1
Authority
DE
Germany
Prior art keywords
augmented reality
electronic device
companion device
processors
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022117329.1A
Other languages
English (en)
Inventor
Amit Kumar Agrawal
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Mobility LLC
Original Assignee
Motorola Mobility LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motorola Mobility LLC filed Critical Motorola Mobility LLC
Publication of DE102022117329A1 publication Critical patent/DE102022117329A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/45Structures or tools for the administration of authentication
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/41User authentication where a single sign-on provides access to a plurality of computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2358/00Arrangements for display data security
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/025LAN communication management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Ein elektronisches Gerät hat eine Kommunikationseinrichtung, die mit einem Inhaltpräsentations-Begleitgerät als primäre Anzeigeeinrichtung für das elektronische Gerät und mit einem Augmented-Reality-Begleitgerät elektronisch in Verbindung steht. Ein oder mehrere Sensoren erkennen mehrere Personen in einer Umgebung des elektronischen Geräts, während das Inhaltpräsentations-Begleitgerät als primäre Anzeigeeinrichtung für das elektronische Gerät fungiert. Ein oder mehrere Prozessoren loggen eine das Augmented-Reality-Begleitgerät bedienende Person automatisch in das elektronische Gerät ein, nachdem die das Augmented-Reality-Begleitgerät bedienende Person als Person identifiziert wurde, der ein autorisiertes Kontoprofil zugeordnet ist, das aus einer Mehrzahl von Kontoprofilen ausgewählt wurde, die auf dem elektronischen Gerät eingerichtet sind.

Description

  • HINTERGRUND
  • Technisches Gebiet
  • Die Erfindung betrifft allgemein elektronische Geräte und insbesondere elektronische Geräte, die mit elektronischen Begleitgeräten (Companions) benutzbar sind.
  • Technischer Hintergrund
  • Die Technologie bei tragbaren Geräten wie Smartphones und Tabletcomputer wird fortlaufend verbessert. Es ist noch nicht allzu lange her, dass solche Geräte lediglich über Graustufen-Flüssigkristalldioden-Displays mit großen Blockpixeln verfügten. Moderne Smartphones, Tabletcomputer und sogar Smartwatches hingegen verfügen inzwischen über organische Leuchtdioden(OLED)-Displays mit unglaublich kleinen Pixeln.
  • Während diese OLED-Displays extrem hohe Kontrastverhältnisse bieten und Bilder und Videos mit hohem Dynamikbereich darstellen können, bleiben sie in ihrer Größe eingeschränkt, damit sich die Geräte problemlos in der Hand halten oder in der Tasche oder im Rucksack mitführen lassen. Damit der Inhalt, der von diesen Geräten empfangen wird, besser zu sehen ist, zum Beispiel von einer Gruppe, verfügen viele tragbare elektronische Geräte über eine Funktion zum Umleiten von Inhalt. Bei Nutzung dieser Inhalt-Umleitungsfunktion kann eine Person einen Spielfilm über ein Smartphone streamen, den Spielfilm dann aber zu einer größeren Anzeigeeinrichtung in der Nähe des Smartphone umleiten, so dass eine Familie oder eine andere Gruppe von Personen den Film auf einem größeren Bildschirm ansehen kann. Diese Umleitungsfunktion ist zwar großartig, wenn man den Film sehen will, aber bevor dies möglich ist oder bevor andere Aktivitäten beginnen können, sind gegebenenfalls mehrere Schritte notwendig, unter anderem die Durchführung eines Login und Schritte zum Wählen einer Anwendung. Die Notwendigkeit, diese zusätzlichen Schritte durchzuführen, wird noch verschärft, wenn ein Smartphone oder ein anderes elektronisches Gerät mehrere Benutzerkonten hat. Es wäre von Vorteil, über ein verbessertes elektronisches Gerät verfügen zu können, bei dem die Funktionen der Benutzeroberfläche für einen einfacheren und effizienteren Zugang zu dem Gerät sorgen.
  • Figurenliste
  • Die anliegenden Zeichnungsfiguren, in denen gleiche oder ähnliche Funktionen und Elemente durchgehend gleich oder ähnlich gekennzeichnet sind und die zusammen mit der nachstehenden ausführlichen Erläuterung Teil der vorliegenden Beschreibung sind, dienen zur weiteren Darstellung verschiedener Ausführungsformen und zur Darlegung verschiedener Prinzipien und Vorteile der vorliegenden Offenbarung.
    • 1 zeigt ein Erläuterungsbeispiel eines Augmented-Reality-Begleitgeräts gemäß einer oder mehrerer Ausführungsformen der Erfindung;
    • 2 zeigt ein Erläuterungsbeispiel eines elektronischen Geräts gemäß einer oder mehrerer Ausführungsformen der Erfindung;
    • 3 zeigt ein Erläuterungsbeispiels eines Begleitgeräts für die Präsentation von Inhalten gemäß einer oder mehrerer Ausführungsformen der Erfindung;
    • 4 zeigt einen oder mehrere erläuternde Verfahrensschritte gemäß einer oder mehrerer Ausführungsformen der Erfindung;
    • 5 zeigt einen oder mehrere erläuternde Verfahrensschritte gemäß einer oder mehrerer Ausführungsformen der Erfindung;
    • 6 zeigt einen oder mehrere erläuternde Verfahrensschritte gemäß einer oder mehrerer Ausführungsformen der Erfindung;
    • 7 zeigt einen oder mehrere erläuternde Verfahrensschritte gemäß einer oder mehrerer Ausführungsformen der Erfindung;
    • 8 zeigt verschiedene Ausführungsformen der Erfindung.
  • Der Fachmann wird erkennen, dass Elemente in den Figuren einfach und übersichtlich dargestellt und nicht notwendigerweise maßstabsgetreu gezeichnet sind. So können zum Beispiel die Dimensionen von einigen Elementen in den Figuren im Verhältnis zu anderen Figuren übertrieben sein, was dazu beitragen soll, die Ausführungsformen der vorliegenden Erfindung gut verständlich darzustellen.
  • DETAILBESCHREIBUNG DER ZEICHNUNGEN
  • Vor der eingehenden Beschreibung von Ausführungsformen gemäß vorliegender Erfindung sei angemerkt, dass die Ausführungsformen primär in Kombinationen von Verfahrensschritten und Vorrichtungskomponenten bestehen, die sich auf die automatische Wahl von Zugangsdaten für ein elektronisches Gerät beziehen, die einer Person zugeordnet sind, die ein Augmented-Reality-Begleitgerät bzw. ein Begleitgerät mit erweiterter Realität bedient, und auf das automatische Einloggen in ein Kontoprofil des elektronischen Geräts mit den Zugangsdaten. Prozessbeschreibungen oder Blöcke in Flussdiagrammen sind als Darstellung von Modulen, Segmenten oder Codeabschnitten zu verstehen, die eine oder mehrere ausführbare Anweisungen für die Implementierung von logischen Funktionen oder Schritten in dem Prozess enthalten. Es sind auch alternative Implementierungen umfasst, wobei es sich versteht, dass Funktionen außerhalb der dargestellten oder beschriebenen Reihenfolge ausgeführt werden können, unter anderem im Wesentlichen gleichzeitig oder in umgekehrter Folge, abhängig von den beteiligten Funktionen. Dementsprechend sind die Vorrichtung und die Verfahrensschritte in den Zeichnungen gegebenenfalls durch herkömmliche Symbole dargestellt, wobei nur diejenigen spezifischen Details gezeigt sind, die für das Verständnis der Ausführungsformen der vorliegenden Offenbarung relevant sind, um nicht die Offenbarung durch Details zu verschleiern, die für den Durchschnittsfachmann, der über den Vorteil der vorliegenden Beschreibung verfügt, ohne weiteres erkennbar sind.
  • Ausführungsformen der Erfindung geben weder die Umsetzung eines üblichen Geschäftsverfahrens mit dem Ziel der Verarbeitung von Geschäftsinformationen wieder noch wenden sie ein bekanntes Geschäftsverfahren auf das spezielle technologische Umfeld des Internets an. Darüber hinaus schaffen oder verändern Ausführungsformen der Erfindung keine Vertragsbeziehungen, indem sie allgemeine Computerfunktionen und übliche Netzwerkvorgänge nutzen. Ausführungsformen der Erfindung nutzen im Gegenteil Verfahren, die bei Anwendung auf ein elektronisches Gerät und/oder auf eine Nutzerschnittstellentechnologie die Funktionsweise des elektronischen Geräts als solches insgesamt verbessern, indem die Nutzerfreundlichkeit verbessert wird, so dass Probleme behoben werden, die insbesondere auf dem Gebiet der Technologie entstehen, die mit der Nutzerinteraktion bei elektronischen Geräten in Zusammenhang steht.
  • Es versteht sich, dass vorliegend beschriebene Ausführungsformen der Erfindung aus einem oder mehreren üblichen Prozessoren und eindeutigen gespeicherten Programmbefehlen bestehen können, die den einen oder die mehreren Prozessoren steuern, so dass diese in Verbindung mit einigen Nicht-Prozessorschaltungen einige, die meisten oder sämtliche Funktionen ausführen können zur automatischen Auswahl von Zugangsdaten oder von Zugangsdaten eines Anwendungsprofils in Reaktion auf die Identifizierung einer Person, die ein Augmented-Reality-Begleitgerät bedient, das mit einem elektronischen Gerät in Verbindung steht, und zum anschließenden Einloggen mit den Zugangsdaten in ein elektronisches Gerät oder mit Zugangsdaten für ein Anwendungsprofil in eine Anwendung, die auf dem elektronischen Gerät ausgeführt wird, wie nachstehend beschrieben. Die Nicht-Prozessorschaltungen können unter anderem einen Funkempfänger, einen Funksender, Signaltreiber, Taktschaltungen, Stromquellenschaltungen und Benutzer-Eingabeeinrichtungen enthalten, ohne Beschränkung hierauf. Solchermaßen können diese Funktionen als Schritte eines Verfahrens zum Umleiten von Ereignismeldungen und/oder zur Übertragung von Untertiteln zu dem Augmented-Reality-Begleitgerät verstanden werden.
  • Alternativ könnten einige oder alle Funktionen von einer Zustandsmaschine implementiert werden, die nicht über gespeicherte Programmbefehle verfügt, oder in einer oder mehreren anwendungsspezifischen integrierten Schaltungen (ASICs), in der oder in denen jede Funktion oder einige Kombinationen bestimmter Funktionen als kundenspezifische Logik implementiert sind. Selbstverständlich können diese beiden Ansätze auch in Kombination verwendet werden. Dementsprechend werden vorliegend Verfahren und Mittel für diese Funktionen beschrieben. Ferner ist davon auszugehen, dass der Durchschnittsfachmann, geleitet von den vorliegend beschriebenen Konzepten und Prinzipien, ohne weiteres in der Lage ist, bei minimalem Experimentieren solche Softwarebefehle und Programme und ASICs zu entwickeln, auch wenn gegebenenfalls beträchtliche Anstrengungen und viele Designentscheidungen notwendig sind, denen zum Beispiel die verfügbare Zeit, die aktuelle Technologie und wirtschaftliche Überlegungen zugrunde liegen.
  • Ausführungsformen der Erfindung werden nunmehr im Detail erläutert, wobei auf die anliegenden Zeichnungen Bezug genommen wird, in denen gleiche oder ähnliche Elemente durchgehend mit gleichen oder ähnlichen Bezugszeichen gekennzeichnet sind. Sowohl in der vorliegenden Beschreibung als auch in den Ansprüchen werden folgende Begriffe benutzt, denen, sofern der Kontext nichts anderes vorschreibt, ihre ursprüngliche Bedeutung zukommt: der unbestimmte Artikel „ein“ und der bestimmte Artikels „der/die/das“ schließen auch den Pluralbezug mit ein. Relationsbegriffe wie erste/r/s und zweite/r/s sowie oben und unten und dergleichen dienen lediglich zur Unterscheidung einer Einheit oder Aktion von einer anderen, ohne dass notwendigerweise eine tatsächliche Beziehung oder Rangfolge zwischen solchen Einheiten oder Aktionen bestehen muss.
  • In der vorliegenden Beschreibung können Komponenten „wirkverbunden“ sein, wenn zwischen solchen Komponenten oder entlang des Verbindungswegs Informationen gesendet werden können, selbst wenn eine oder mehrere zwischengeschaltete oder intervenierende Komponenten vorgesehen sind. Angaben wie „im Wesentlichen“, „annähernd“, „ungefähr“ bedeuten in der üblichen Vorstellung des Durchschnittsfachmanns „in der Nähe von“, wobei der darunter zu verstehende Wert in einer die Erfindung nicht einschränkenden Ausführungsform innerhalb von zehn Prozent, in einer anderen Ausführungsform innerhalb von fünf Prozent, in einer anderen Ausführungsform innerhalb von einem Prozent und in einer noch anderen Ausführungsform innerhalb von einem halben Prozent liegt. Bezugszeichen, die vorliegend in Klammern gesetzt sind, bezeichnen Komponenten, die in einer anderen als der aktuell erläuterten Figur dargestellt sind. Ist zum Beispiel bei der Erläuterung von Figur A von einem Gerät (10) die Rede, bezieht sich das auf ein Element, 10, das in einer anderen Figur als Figur A gezeigt ist.
  • Ausführungsformen der vorliegenden Erfindung stellen ein Augmented-Reality-Begleitgerät bereit, das in dem Erläuterungsbeispiel der Ausführungsform eine Augmented-Reality-Brille ist, die mit einem elektronischen Gerät benutzt/betrieben werden kann, das auf einem Inhaltpräsentations-Begleitgerät, das als primäre Anzeigeeinrichtung für das elektronische Gerät fungiert, Inhalte präsentiert. Ausführungsformen der Erfindung ziehen in Betracht, dass moderne elektronische Geräte wie Smartphones, Tabletcomputer und Laptopcomputer mehrere Benutzerkonten unterstützen, wobei jeder Benutzer andere Zugangsdaten verwendet, mit denen er sich in das elektronische Gerät einloggt und/oder sich gegenüber dem elektronischen Gerät authentifiziert. Nimmt man als Beispiel einen Familien-Laptopcomputer, so kann dieser für Vater, Mutter und Kind jeweils ein Konto aufweisen. Vater, Mutter und Kind können jeweils ein Benutzerkonto und zugehörige Zugangsdaten erstellen, mit denen sie auf das elektronische Gerät zugreifen können. Es kann auch mit jedem Benutzerkonto ein Benutzerprofil verbunden sein. Dem Konto des Vaters können beispielsweise Anwendungen für Küche und Garten, dem Konto der Mutter wiederum Anwendungen für Sport und Reisen zugeordnet sein. Das Benutzerkonto des Kindes kann Anwendungen für Lernen und Spielen enthalten. Durch die Verwendung der eigenen Zugangsdaten können sich Vater, Mutter und Kind jeweils in ihr eigenes Konto einloggen und ausschließlich ihr eigenes Benutzerprofil sehen, ohne die Unübersichtlichkeit oder die Ablenkung durch andere Profile usw.
  • Außerdem können Anwendungen, die in einem oder mehreren Benutzerprofilen ausführbar sind, mehrere Benutzer unterstützen, die jeweils über Zugangsdaten für ein Anwendungsprofil verfügen. Wenn beispielsweise eine Videostreaming-Anwendung in einem Benutzerkonto gestartet wird, können der Anwendung mehrere Anwendungsprofile zugeordnet sein, die wiederum mehreren Benutzern zugeordnet sind. Durch die Eingabe von Zugangsdaten für eine Anwendung kann ein Benutzer auf ein bestimmtes Benutzerprofil zugreifen, das der Anwendung zugeordnet ist. So kann ein Vater in seinem Benutzerprofil eine Wunschliste mit Gartendokumentationen führen, während seine Gattin mit der gleichen Anwendung olympische Wettkämpfe aufzeichnen und speichern kann. Das Kind kann dieselbe Anwendung nutzen, allerdings mit anderen Zugangsdaten für das Anwendungsprofil, um beispielsweise auf Cartoons oder auf Lernprogramme zuzugreifen.
  • Ausführungsformen der vorliegenden Erfindung ziehen in Betracht, dass diese verschiedenen Kontoprofile, die auf einem einzigen elektronischen Gerät verfügbar sind, oder diese verschiedenen Anwendungs-Benutzerprofile, die innerhalb einer einzigen Anwendung verfügbar sind, eine Umgebung bereitstellen für automatisches Filtern des elektronischen Geräts und des speziellen Inhalts der Anwendung, der einem bestimmten Benutzer zugeordnet ist, der seine Zugangsdaten oder Zugangsdaten für das Anwendungsprofil eingibt. Zudem können diese Benutzerprofile oder anwendungsspezifischen Benutzerprofile auch als Filtereinrichtungen verwendet werden. Wenn sich beispielsweise das Kind mit seinen einmaligen Zugangsdaten für eine Anwendung in die Anwendung einloggt, kann eine dem Anwendungsprofil zugeordnete Filterung sicherstellen, dass der verfügbare Inhalt Sinn macht für das Kind, wodurch vermieden wird, dass das Kind mit Inhalten konfrontiert wird, die für das Kind ungeeignet sind. Eine solche Filterung kann auch für Datenschutzzwecke genutzt werden.
  • In einer oder in mehreren Ausführungsformen erkennen ein oder mehrere Prozessoren eines Geräts, dass eine Kommunikationseinrichtung des elektronischen Geräts sowohl mit einem Inhaltpräsentations-Begleitgerät, das als primäre Anzeigeeinrichtung für das elektronische Gerät fungiert, als auch mit einem Augmented-Reality-Begleitgerät in Verbindung steht, wobei eine Augmented-Reality-Brille ein Beispiel hierfür ist. Ein oder mehrere Sensoren erkennen dann mehrere Personen, die in einer Umgebung des elektronischen Geräts anwesend sind, während das Inhaltpräsentations-Begleitgerät als primäre Anzeigeeinrichtung für das elektronische Gerät fungiert.In diesem Fall wählen der eine oder die mehreren Prozessoren Zugangsdaten für das elektronische Gerät aus, das der Person zugeordnet ist, die das Augmented-Reality-Begleitgerät bedient, und loggen sich mit den Zugangsdaten automatisch in ein Kontoprofil des elektronischen Geräts ein, das der Person zugeordnet ist, die das Augmented-Reality-Begleitgerät bedient.
  • Der Prozess kann auch stattfinden, wenn Anwendungen aktiviert werden. Zum Beispiel erkennen der eine oder die mehreren Prozessoren in einer oder in mehreren Ausführungsformen die Aktivierung einer Anwendung, die auf dem elektronischen Gerät ausgeführt wird. Ist dies der Fall, können der eine oder die mehreren Prozessoren feststellen, dass der Anwendung mehrere Anwendungsprofile zugeordnet sind, die wiederum mehreren Benutzern zugeordnet sind. Der eine oder die mehreren Prozessoren können Anwendungsprofil-Zugangsdaten wählen, die einer Person zugeordnet sind, die das Augmented-Reality-Begleitgerät bedient, und können sich dann mit den Anwendungsprofil-Zugangsdaten automatisch in ein Anwendungsprofil der Anwendung einloggen, das der Person zugeordnet ist, die das Augmented-Reality-Begleitgerät bedient.
  • Wenn sich die Personen, die die Brille tragen, abwechseln, können der eine oder die mehreren Prozessoren dies automatisch erkennen, um die Benutzerprofile an dem elektronischen Gerät und/oder die Anwendungsprofile innerhalb einer Anwendung zu ändern. Wenn beispielsweise zunächst der Vater das Augmented-Reality-Begleitgerät bedient und der eine oder die mehreren Prozessoren des elektronischen Geräts den Vater in das elektronische Gerät und in sein Anwendungsprofil in einer Videostreaming-Anwendung eingeloggt haben, können diese Logins geändert werden, wenn der Vater das Augmented-Reality-Gerät an die Mutter übergibt, die das Gerät dann anlegt. In einer oder in mehreren Ausführungsformen können ein oder mehrere Sensoren des elektronischen Geräts diese Übergabe der Bedienung des Augmented-Reality-Begleitgeräts vom Vater an die Mutter erkennen und können aus der Vielzahl von Personen in der Umgebung die Mutter als andere Person identifizieren, die das Augmented-Reality-Begleitgerät bedient. Der eine oder die mehreren Prozessoren des elektronischen Geräts können dann nach dieser Übergabe weitere, der Mutter zugeordnete Zugangsdaten für das elektronische Gerät wählen und können die Mutter mit diesen anderen Zugangsdaten automatisch in ihr Kontoprofil einloggen. Wenn die Mutter dann eine Musikstreaming-Anwendung startet, können der eine oder die mehreren Prozessoren weitere Zugangsdaten für ein weiteres der Mutter zugeordnetes Anwendungsprofil wählen, um die Mutter mit den Zugangsdaten für das weitere Anwendungsprofil in die Musikstreaming-Anwendung einzuloggen, damit automatisch die Playlist der Mutter angezeigt wird.
  • In vorteilhafter Weise gehen Ausführungsformen der Erfindung davon aus, dass der primäre Anwendungsfall durch den Benutzer bestimmt wird, der die Augmented-Reality-Brille gerade trägt, und passen die Präsentation der Inhalte entsprechend an. Ein solcher Fall ist die Verwaltung von Logins in elektronische Geräte oder Anwendungsprofile für mehrere Benutzer in Umgebungen zur Präsentation von Inhalten für mehrere Personen. Dementsprechend verbessern Ausführungsformen der Erfindung das Benutzererlebnis, indem sie die Nutzung von Augmented-Reality-Brillen in der Präsentationsumgebung unterstützen.
  • In einer oder in mehreren Ausführungsformen stellen ein oder mehrere Prozessoren des elektronischen Geräts fest, dass das elektronische Gerät mit einer externen Anzeigevorrichtung, einem Fernsehgerät oder einem anderen Gerät verbunden ist und in einem Inhaltpräsentations- oder Desktop-Modus arbeitet. Der eine oder die mehreren Prozessoren stellen außerdem fest, dass das elektronische Gerät mit einem Augmented-Reality-Begleitgerät arbeitet. Als Beispiel für ein Augmented-Reality-Begleitgerät wird eine Augmented-Reality-Brille gewählt.
  • In einer oder in mehreren Ausführungsformen stellen der eine oder die mehreren Prozessoren fest, dass außer dem Besitzer des elektronischen Geräts noch mehr als ein weiterer Benutzer den Inhalt ansehen, der auf dem Inhaltpräsentations-Begleitgerät präsentiert wird. Diese Feststellung kann zum Beispiel erfolgen durch die Nutzung einer Bildanalyse, die an Bildern durchgeführt wird, die von einem Bildgeber erfasst werden. Weitere Techniken erschließen sich dem Fachmann auf der Grundlage der vorliegenden Beschreibung.
  • In einer oder in mehreren Ausführungsformen stellen der eine oder die mehreren Prozessoren fest, dass das elektronische Gerät Logins von mehreren Benutzern unterstützt, wobei mindestens zwei Benutzer aktuell anwesend sind und den Inhalt betrachten. Der eine oder die mehreren Prozessoren stellen mittels eines oder mehrerer Sensoren des elektronischen Geräts auch fest, dass das Augmented-Reality-Begleitgerät von einem Benutzer bedient wird, der über Zugangsdaten für das elektronische Gerät und/oder über Anwendungsprofil-Zugangsdaten für Anwendungen, die auf dem elektronischen Gerät ausgeführt werden, verfügt. Für letzteren Fall können der eine oder die mehreren Prozessoren feststellen, wenn eine bestimmte Anwendung, die mit Anmeldekonten für mehrere Anwendungsnutzer konfiguriert ist, geöffnet, gestartet oder aktiviert wird.
  • In einer oder in mehreren Ausführungsformen wählen der eine oder die mehreren Prozessoren des elektronischen Geräts automatisch Zugangsdaten oder Anwendungsprofil-Zugangsdaten, die zu einer Person gehören, die das Augmented-Reality-Begleitgerät aktiv bedient. Wenn das Augmented-Reality-Begleitgerät eine Augmented-Reality-Brille ist, können der eine oder die mehreren Prozessoren automatisch Zugangsdaten oder Anwendungsprofil-Zugangsdaten für die Person wählen, die die Augmented-Reality-Brille trägt.
  • In einer oder in mehreren Ausführungsformen können der eine oder die mehreren Prozessoren zu jedem Zeitpunkt während des Konsumierens des Inhalts feststellen, ob die Bedienung des Augmented-Reality-Begleitgeräts von einer an eine andere Person übergeben wird. Abhängig von dem Kontext des Startbildschirms des Geräts oder der Anwendung können der eine oder die mehreren Prozessoren eine Option bereitstellen, damit das elektronische Gerät oder die Anwendung automatisch von dem Profil der Person, die das Augmented-Reality-Begleitgerät zuvor bedient hat, auf das Profil der Person umschalten kann, die das Augmented-Reality-Begleitgerät aktuell bedient.
  • In einer oder in mehreren Ausführungsformen kann die Identität einer Bedienungsperson des Augmented-Reality-Begleitgeräts auch zum Filtern von Vorgängen verwendet werden. In einer oder in mehreren Ausführungsformen zum Beispiel können der eine oder die mehreren Prozessoren des elektronischen Geräts feststellen, dass die Person, die ein Augmented-Reality-Begleitgerät bedient, minderjährig ist. In diesem Fall können der eine oder die mehreren Prozessoren zumindest einen Teil des Inhalts, der von dem elektronischen Gerät zur Verfügung gestellt wird, filtern, um auszuschließen, dass der gefilterte Inhalt auf dem Inhaltpräsentations-Begleitgerät angezeigt wird. Der eine oder die mehreren Prozessoren können auf verschiedene Weise feststellen bzw. ermitteln, dass die Person, die das Augmented-Reality-Begleitgerät bedient, minderjährig ist. Beispielsweise können der eine oder die mehreren Prozessoren eine Bildanalyse an Bildern durchführen, die von einem Bildgeber des elektronischen Geräts erfasst werden. In anderen Ausführungsformen können der eine oder die mehreren Prozessoren feststellen, dass es sich bei der Person, die das Augmented-Reality-Begleitgerät bedient, um eine minderjährige Person handelt, indem eine Größe des Augmented-Reality-Begleitgeräts ermittelt wird. Wenn die Größe des Augmented-Reality-Begleitgeräts eine vordefinierte Schwellengröße unterschreitet, können der eine oder die mehreren Prozessoren aufgrund der Größe annehmen, dass es sich um eine minderjährige Person handelt. Wie bei der Identifizierung der Person kann die Identifizierung der Größe des Augmented-Reality-Begleitgeräts in einigen Ausführungsformen über eine Bildanalyse erfolgen. In anderen Ausführungsformen kann das elektronische Gerät das Augmented-Reality-Begleitgerät mittels elektronischer Kommunikationssignale abfragen, um die Größe des Augmented-Reality-Begleitgeräts zu bestimmen und um festzustellen, ob die Größe unterhalb der vorgegebenen Schwellengröße liegt. Andere Techniken zum Bestimmen der Größe des Augmented-Reality-Begleitgeräts erschließen sich dem Fachmann auf der Grundlage der vorliegenden Beschreibung.
  • In einer oder in mehreren Ausführungsformen enthält ein elektronisches Gerät eine Kommunikationseinrichtung, die elektronisch mit einem Inhaltpräsentations-Begleitgerät in Verbindung steht, das als primäre Anzeigeeinrichtung für das elektronische Gerät fungiert. Die Kommunikationseinrichtung steht auch mit einem Augmented-Reality-Begleitgerät in Verbindung. Ein Beispiel hierfür ist eine Augmented-Reality-Brille.
  • Ein oder mehrere Sensoren des elektronischen Geräts erkennen, dass sich in einer Umgebung des elektronischen Geräts mehrere Personen aufhalten, während das Inhaltpräsentations-Begleitgerät als primäre Anzeigeeinrichtung des elektronischen Geräts fungiert. Ein oder mehrere Prozessoren des elektronischen Geräts können eine das Augmented-Reality-Begleitgerät bedienende Person automatisch in das elektronische Gerät einloggen bzw. an diesem anmelden, nachdem die das Augmented-Reality-Begleitgerät bedienende Person als Person identifiziert wurde, die einem autorisierten Kontoprofil zugeordnet ist, das aus einer Mehrzahl von Kontoprofilen ausgewählt wurde, die auf dem elektronischen Gerät vorhanden sind. In einer oder in mehreren Ausführungsformen loggen der eine oder die mehreren Prozessoren die das Augmented-Reality-Begleitgerät bedienende Person automatisch in das elektronische Gerät ein bzw. melden diese Person automatisch an dem elektronischen Gerät an, indem sie Zugangsdaten wählen, die der das Augmented-Reality-Begleitgerät bedienenden Person zugeordnet sind.
  • In einer oder in mehreren Ausführungsformen können der eine oder die mehreren Prozessoren die das Augmented-Reality-Begleitgerät bedienende Person in Reaktion auf die Erkennung einer Aktivierung der Anwendung an dem elektronischen Gerät einloggen. Wenn die Bedienung des Augmented-Reality-Begleitgeräts von einer Person an eine andere übergeben wird, können der eine oder die mehreren Prozessoren optional um Erlaubnis für den Wechsel von dem autorisierten Kontoprofil zu einem anderen autorisierten Kontoprofil fragen, und zwar in Reaktion darauf, dass der eine oder die mehreren Sensoren des elektronischen Geräts die Übergabe der Bedienung des Augmented-Reality-Begleitgeräts von der ersten Person an die zweite Person erkennt. Danach können der eine oder die mehreren Prozessoren von dem einen Kontoprofil zu dem anderen Kontoprofil übergehen, was in Abhängigkeit davon geschieht, dass der eine oder die mehreren Sensoren die Übergabe der Bedienung des Augmented-Reality-Begleitgeräts von der ersten Person an die zweite Person erkennen.
  • Der eine oder die mehreren Prozessoren können zusätzlich Inhalte filtern, die auf dem Inhaltpräsentations-Begleitgerät dargestellt werden können, das als primäre Anzeigeeinrichtung für das elektronische Gerät dient, das auch das Augment-Reality-Begleitgerät verwendet. In einer oder in mehreren Ausführungsformen filtern der eine oder die mehreren Prozessoren zumindest einen Teil des Inhalts, der von dem elektronischen Gerät zur Verfügung gestellt wird, indem sie ausschließen, dass dieser Teil des Inhalts auf dem Inhaltpräsentations-Begleitgerät präsentiert wird, wenn der eine oder die mehreren Prozessoren feststellen, dass die Größe des Augmented-Reality-Begleitgeräts unter der für das Augmented-Reality-Begleitgerät vordefinierten Schwellengröße liegt.
  • Es wird nunmehr auf 1 Bezug genommen, die als Erläuterungsbeispiel ein Augmented-Reality-Begleitgerät 100 zeigt, das gemäß einer oder mehrerer Ausführungsformen der Erfindung konfiguriert ist. In dem Ausführungsbeispiels von 1 ist das Augmented-Reality-Begleitgerät 100 eine Augmented-Reality-Brille. Diese dient aber lediglich als Erläuterungsbeispiel, da das Augmented-Reality-Begleitgerät 100 auf vielfältige Weise konfiguriert sein könnte. Zum Beispiel könnte das Augmented-Reality-Begleitgerät 100 auch konfiguriert sein als Sonnenbrille, Goggles, Masken, Schilde oder Visiere. Andere Formen des Augmented-Reality-Begleitgeräts 100 erschließen sich dem Fachmann auf der Grundlage der vorliegenden Beschreibung.
  • Das Augmented-Reality-Begleitgerät 100 von 1 hat einen Rahmen bzw. eine Fassung 101 und einen oder mehrere Bügel 102, 103. Hier umfassen die Bügel 102, 103 einen ersten Bügel 102 und einen zweiten Bügel 103. In dem Rahmen 101 können ein oder mehrere Gläser 104, 105 angeordnet sein. Die Gläser 104, 105 können verordnete Korrekturgläser oder nicht verordnungspflichtige Gläser sein, die klar, getönt oder dunkel sein können. In einer oder in mehreren Ausführungsformen können die Bügel 102, 103 von einer ersten Position, in der sie parallel zu dem Rahmen 101 an den Rahmen angrenzen, in eine zweite, radial verlagerte geöffnete Position geschwenkt werden, die in 1 gezeigt ist. In anderen Ausführungsformen jedoch können die Bügel 102, 103 relativ zu dem Rahmen 101 feststehend sein. In noch weiteren Ausführungsformen, in denen das Augmented-Reality-Begleitgerät 100 in Form von Goggles konfiguriert ist, können die Bügel 102, 103 flexibel oder weich sein. Die Bügel von Goggles sind häufig ein elastisches Gewebe, das weich ist, sich biegen, falten und dehnen lässt. Andere Arten von Bügeln 102, 103 erschließen sich dem Fachmann auf der Grundlage der vorliegenden Beschreibung.
  • In einer oder in mehreren Ausführungsformen sind die Bügel 102, 103 an einem ersten Ende 108, 109 an dem Rahmen 101 befestigt und erstrecken sich von dem Rahmen 101 zu einem distalen Ende 110, 126. In einer Ausführungsform hat jeder Bügel 102, 103 einen Schläfenabschnitt 106 und einen sich um das Ohr legenden Abschnitt 107. Der Schläfenabschnitt 106 ist der Abschnitt des Bügels 102, 103, der von dem Rahmen 101 an der Schläfe eines Trägers der Brille vorbeiführt. Der sich um das Ohr legende Abschnitt 107 greift hinter das Ohr des Trägers der Brille, um die Augmented-Reality-Brille am Kopf des Trägers der Brille zu halten.
  • Da das Augmented-Reality-Begleitgerät 100 als elektronisches Gerät konfiguriert ist, können der Rahmen 101 oder die Bügel 102, 103 oder beide eine oder mehrere elektrische Komponenten enthalten. Diese elektrischen Komponenten sind zur Veranschaulichung in einem schematischen Blockdiagramm 125 in 1 dargestellt, wobei der Fachmann auf der Grundlage der vorliegenden Beschreibung erkennen wird, dass die elektrischen Komponenten und die zugehörigen Module in verschiedenen Kombinationen verwendet werden können und dass manche Komponenten und Module enthalten sein können, andere wiederum entfallen können. Komponenten oder Module können je nach Notwendigkeit oder Anwendung ein- oder ausgeschlossen sein.
  • Die elektronischen Komponenten können einen oder mehrere Prozessoren 111 enthalten. Der eine oder die mehreren Prozessoren 111 können in den Bügeln 102, 103 oder in dem Rahmen 101 oder in Bügel und Rahmen enthalten sein. Der eine oder die mehreren Prozessoren 111 können mit einem Speicher 112 arbeiten. Der eine oder die mehreren Prozessoren 111, die ein oder mehrere Mikroprozessoren, eine programmierbare Logik, eine anwendungsspezifische integrierte Schaltungseinrichtung oder eine ähnliche Einrichtung sein können, können vorliegend beschriebene Programmanweisungen ausführen und Verfahren durchführen. Die Programmanweisungen und Verfahren können in dem einen oder den mehreren Prozessoren 111 on-board gespeichert sein oder in dem Speicher 112 oder in anderen computerlesbaren Medien, die mit dem einen oder den mehreren Prozessoren 111 gekoppelt sind.
  • Der eine oder die mehreren Prozessoren 111 können konfiguriert sein für die Ausführung der verschiedenen Funktionen des Augmented-Reality-Begleitgeräts 100 und auch für die Ausführung von Software- oder Firmwareanwendungen und -modulen, die in einem computerlesbaren Medium gespeichert werden können, wie zum Beispiel in dem Speicher 112. Der eine oder die mehreren Prozessoren 111 führen diese Software oder Firmware zum Teil aus, um deren Funktionalität bereitzustellen. Der Speicher 112 kann entweder statische oder dynamische Speicherkomponenten oder beide aufweisen und kann verwendet werden zum Speichern eines eingebetteten Codes und auch von Benutzerdaten.
  • In einer oder in mehreren Ausführungsformen enthält das Augmented-Reality-Begleitgerät 100 auch eine optionale drahtlose Kommunikationseinrichtung 113. Sofern sie enthalten ist, kann die drahtlose Kommunikationseinrichtung 113 mit dem einen oder den mehreren Prozessoren 111 arbeiten und wird verwendet, um eine elektronische Kommunikation mit einem oder mehreren elektronischen Geräten oder Servern oder anderen Kommunikationseinrichtungen über ein Netzwerk zu ermöglichen. Es sollte beachtet werden, dass es möglich ist, den einen oder die mehreren Prozessoren 111, den Speicher 112 und die drahtlose Kommunikationseinrichtung 113 in eine einzige Einrichtung integriert vorzusehen oder alternativ in Einrichtungen mit weniger Teilen zu integrieren, während die Funktionen der einzelnen Bauteile dennoch erhalten bleiben.
  • Die drahtlose Kommunikationseinrichtung 113, die ein Empfänger oder ein Sender oder alternativ ein Sendeempfänger sein kann, arbeitet in Verbindung mit dem einen oder den mehreren Prozessoren 111, um über ein Kommunikationsnetz elektronisch zu kommunizieren. In einer Ausführungsform zum Beispiel kann die drahtlose Kommunikationseinrichtung 113 für eine Kommunikation über ein traditionelles Mobilfunknetz kommunizieren. Andere Beispiele von Netzwerken, mit denen die Kommunikationsschaltung kommunizieren kann, umfassen proprietäre Netzwerke und direkte Kommunikationsnetzwerke.
  • In anderen Ausführungsformen kann die drahtlose Kommunikationseinrichtung 113 mit Near-Field- oder Local-Area-Netzwerken, Infrarot-Kommunikationsschaltungen, Magnetfeld-Modulationsschaltungen und Wi-Fi-Schaltungen kommunizieren. In einer oder in mehreren Ausführungsformen kann die drahtlose Kommunikationseinrichtung 113 konfiguriert sein für die Bereitstellung einer Nachrichtenübermittlungsfunktion, um elektronische Nachrichten an Remote-Gerät zu übermitteln.
  • Eine Batterie 114 oder ein anderer Energiespeicher können enthalten sein, um Strom für die verschiedenen Komponenten des Augmented-Reality-Begleitgeräts 100 zu liefern. Zwar ist in 1 eine Batterie 114 gezeigt, doch wird der Fachmann auf der Grundlage der vorliegenden Beschreibung erkennen, dass anstelle der Batterie 114 auch andere Energiespeichereinrichtungen verwendet werden können, unter anderem eine Mikrobrennstoffzelle oder ein elektrochemischer Kondensator. Die Batterie 114 kann eine Lithium-Ionen-Zelle, eine Lithium-Polymer-Zelle oder eine Nickel-Metall-Hybridzelle umfassen, wobei solche Zellen über eine ausreichende Energiekapazität, über einen großen Betriebstemperaturbereich, eine große Anzahl von Ladezyklen und eine lange Lebensdauer verfügen. Die Batterie 114 kann auch einen Überspannungs- und einen Überstromschutz und einen Ladekreis aufweisen. In einer Ausführungsform umfasst die Batterie 114 eine kleine Lithium-Polymer-Zelle.
  • In einer oder in mehreren Ausführungsformen kann eine Photovoltaik-Einrichtung 115, wie z.B. eine Solarzelle zum Aufladen der Batterie 114 vorgesehen sein. In einer Ausführungsform kann die Photovoltaik-Einrichtung 115 entlang des Schläfenabschnitts 106 der Bügel 102, 103 angeordnet sein. In diesem Ausführungsbeispiel sind jeweils zwei Solarzellen in dem Schläfenabschnitt 106 jedes Bügels 102, 102 angeordnet.
  • Andere bzw. sonstige Komponenten 116 können ebenfalls in dem Augmented-Reality-Begleitgerät 100 enthalten sein. In einem Beispiel können ein oder mehrere Mikrofone als Audioaufnahmeeinrichtungen 117 enthalten sein. Diese Audioaufnahmeeinrichtungen können mit dem einen oder den mehreren Prozessoren 111 arbeiten, um eine Spracheingabe zu empfangen. Außerdem können die Audioaufnahmeeinrichtungen 117 in einer oder in mehreren Ausführungsformen zusätzlich Umgebungsgeräusche erfassen bzw. aufnehmen. Signale, die einem aufgenommenen Audio entsprechenden, können an ein elektronisches Gerät übertragen werden, das mit dem Augmented-Reality-Begleitgerät 100 oder einem Server oder einem Cloud-Computer in Verbindung steht. Die andere bzw. sonstige Komponente 116 kann zusätzlich einen Lautsprecher umfassen, der Audioinhalt an einen Benutzer liefert, der das Augmented-Reality-Begleitgerät 100 trägt.
  • Die sonstigen Komponenten 116 können auch einen Bewegungsgenerator zum Liefern von haptischen Meldungen oder Vibrationsmeldungen an einen Benutzer umfassen. Zum Beispiel können ein piezoelektrischer Wandler, ein Drehmotor oder eine andere elektromechanische Einrichtung konfiguriert sein für die Ausübung einer Kraft oder Vibration auf den Schläfenabschnitt 106 der Bügel 102, 103 oder alternativ entlang des Rahmens 101. Der Bewegungsgenerator kann dem Benutzer ein Pochen, Klopfen oder Vibrieren oder eine andere physische Empfindung vermitteln. Der eine oder die mehreren Prozessoren 111 können konfiguriert sein zum Betätigen des Bewegungsgenerators, so dass dieser eine taktile oder Vibrationsausgabe allein oder in Kombination mit anderen Ausgaben wie beispielsweise akustischen Ausgaben liefert.
  • Ähnlich kann das Augmented-Reality-Begleitgerät 100 eine Videoaufnahmeeinrichtung 122 wie beispielsweise einen Bildgeber aufweisen. Der Bildgeber kann in dem Rahmen 101 oder in den Bügeln 102, 103 angeordnet sein. In einer oder in mehreren Ausführungsformen kann die Videoaufnahmeeinrichtung 122 wirksam sein zum Erfassen von Änderungen der Lichtintensität, der Farbe, des Lichts oder des Schattens in unmittelbarer Nähe des Augmented-Reality-Begleitgeräts 100. Wie bei der Audioaufnahmeeinrichtung 117 können erfasste Videoinformationen an ein elektronisches Gerät, einen Remote-Server oder einen Cloud-Computer übertragen werden.
  • In dem Augmented-Reality-Begleitgerät 100 können optional weitere oder sonstige Sensoren 119 enthalten sein. Ein Beispiel eines solchen Sensors ist ein Globales Positionsbestimmungssystem zur Positionsbestimmung des Augmented-Reality-Begleitgeräts 100. Das Globale Positionsbestimmungssystem kann mit einer Konstellation von Satelliten in der Erdumlaufbahn oder mit einem Netz von terrestrischen Basisstationen kommunizieren, um eine ungefähre Position zu bestimmen. Während ein Globales Positionsbestimmungssystem ein Beispiel eines Positionsbestimmungsmoduls ist, wird der Fachmann auf der Grundlage der vorliegenden Beschreibung erkennen, dass auch anderen Positionsbestimmungseinrichtungen wie ein elektronischer Kompass oder Gyroskope verwendet werden könnten.
  • Die sonstigen Sensoren 119 können eine optionale Benutzeroberfläche aufweisen, die benutzt werden kann, um beispielsweise die Schaltungskomponenten zu aktivieren oder sie abzuschalten, um die Empfindlichkeit der sonstigen Sensoren 119 zu steuern usw. Sofern vorhanden, kann die Benutzeroberfläche mit dem einen oder den mehreren Prozessoren 111 arbeiten, um Informationen an einen Benutzer zu liefern und um Informationen von einem Benutzer zu erhalten. Die Benutzeroberfläche kann einen Wippschalter, ein Schiebepad, eine Taste oder andere Bedienelemente und optional eine Sprachbefehlsschnittstelle aufweisen. Diese verschiedenen Komponenten können zusammen integriert werden.
  • In einer oder in mehreren Ausführungsformen kann eine Audioausgabeeinrichtung 120, wie zum Beispiel ein Lautsprecher oder ein anderer Messwertaufnehmer, eine akustische Ausgabe für einen Benutzer liefern. Zum Beispiel können piezoelektrische Wandler funktionsfähig in den Bügeln 102, 103 angeordnet sein. Eine Betätigung oder Aktivierung der piezoelektrischen Wandler kann die Bügel 102, 103 zum Vibrieren bringen, wodurch eine akustische Ausgabe bewirkt wird. Traditionellere Audioausgabeeinrichtungen 120, wie zum Beispiel Lautsprecher, können ebenfalls verwendet werden.
  • Die sonstigen Komponenten 116 können optional haptische Einrichtungen umfassen, die für eine haptische Rückmeldung an einen Benutzer sorgen. Die haptische Einrichtung kann einen Bewegungsgenerator umfassen, um eine taktile Rückmeldung an einen Benutzer zu liefern. Zum Beispiel kann ein piezoelektrischer Wandler oder eine andere elektrochemische Einrichtung in den Bügeln 102, 103 enthalten sein. Der Wandler kann aktiv werden, um eine Kraft auf den Kopf eines Benutzers auszuüben und dem Benutzer zum Beispiel ein Klopfen, Pochen oder Vibrieren oder eine andere physische Empfindung zu vermitteln. Wenn sowohl die Audioausgabeeinrichtung 120 als auch die haptische Einrichtung vorhanden sind, ermöglichen diese sowohl eine akustische als auch eine taktile Rückmeldung.
  • In einer oder in mehreren Ausführungsformen umfasst das Augmented-Reality-Begleitgerät 100 eine Augmented-Reality-Bildpräsentationseinrichtung 121, die wirksam ist zum Liefern von Augmented-Reality-Bildmaterial für einen Benutzer. Die Augmented-Reality-Bildpräsentationseinrichtung 121 kann mit einem Projektor 122 arbeiten. In dem Ausführungsbeispiel von 1 trägt der Rahmen 101 den Projektor 122. In einer oder in mehreren Ausführungsformen ist der Projektor 122 konfiguriert zum Liefern von Bildern an ein holografisches optisches Element, wenn das Augmented-Reality-Begleitgerät 100 in einem Augmented-Reality-Betriebsmodus betrieben wird.
  • In einer Ausführungsform ist der Projektor 122 ein modulierter Lichtprojektor zum Projizieren von modulierten Lichtbildern entlang einer Fläche eines holografischen optischen Elements. In einer weiteren Ausführungsform ist der Projektor 122 ein dünner Mikroprojektor. In einer weiteren Ausführungsform kann der Projektor 122 ein Laserprojektor-Anzeigemodul umfassen. Andere Arten von Projektoren erschließen sich dem Fachmann auf der Grundlage der vorliegenden Beschreibung.
  • In einer oder in mehreren Ausführungsformen kann der Projektor 122 eine Linse und einen Raumlichtmodulator umfassen, der ausgebildet ist zum Manipulieren von Licht zum Produzieren von Bildern. Der Projektor 122 kann eine Lichtquelle aufweisen, zum Beispiel eine einzelne weiße Leuchtdiode, mehrere separate Farblicht-Emissionsdioden oder mehrere separate Farblaserdioden, die über einen Farbkombinierer sichtbares Licht an den Raumlichtmodulator liefern. Die Augmented-Reality-Bildpräsentationseinrichtung 121 kann den Raumlichtmodulator ansteuern, um das Licht zum Produzieren von Bildern zu modulieren. Der Raumlichtmodulator kann optisch (z.B. durch freie Ausbreitung im Raum) mit einer Linse und/oder einer Strahllenkung gekoppelt sein. Sofern verwendet, dient die Strahllenkung zum Lenken eines von dem Raumlichtmodular ausgehenden räumlich modulierten Lichtstrahls durch die Linse, um Bilder zu erzeugen.
  • In einer oder in mehreren Ausführungsformen umfasst das Augmented-Reality-Begleitgerät 100 einen Begleitgerät-Anzeige-Integrationsmanager 124. Der Begleitgerät-Anzeige-Integrationsmanager 124 kann verwendet werden, um mit einem elektronischen Begleitgerät zu kommunizieren. In einer oder in mehreren Ausführungsformen gibt es für das Augmented-Reality-Begleitgerät 100 zum Beispiel verschiedene Größen. Wenn ein weiteres elektronisches Gerät feststellen will, ob die Größe des Augmented-Reality-Begleitgeräts 100 unter einer vordefinierten Schwellengröße liegt, kann dieses andere oder weitere elektronische Gerät das Augmented-Reality-Begleitgerät 100 abfragen, indem es die Kommunikationseinrichtung 113 nutzt. Der Begleitgerät-Anzeige-Integrationsmanager 124 kann als Antwort die Größe, das Benutzerprofil oder andere das Augmented-Reality-Begleitgerät 100 betreffende Informationen an das andere elektronische Gerät 200 liefern, indem er die Kommunikationseinrichtung 113 für diesen Zweck nutzt. Wenn ein anderes bzw. weiteres Gerät Ereignismeldungen, Untertitel oder andere kontextbezogene Informationen an das Augmented-Reality-Begleitgerät 100 liefert, kann der Begleitgerät-Anzeige-Integrationsmanager 124 diese Informationen außerdem an die Augmented-Reality-Bildpräsentationseinrichtung 121 übermitteln zur Darstellung für den Benutzer als ein Augmented-Reality-Erlebnis über den Projektor 122.
  • Das Augmented-Reality-Begleitgerät 100 von 1 kann in einer oder in mehreren Ausführungsformen als eigenständiges Gerät arbeiten. In anderen Ausführungsformen hingegen kann das Augmented-Reality-Begleitgerät 100 zusammen mit einem elektronischen Gerät arbeiten, und zwar über eine drahtlose elektronische Kommunikation mittels der drahtlosen Kommunikationseinrichtung 113 oder über einen leitungsgebundenen Verbindungskanal 123, um ein Augmented-Reality-System zu bilden. Es wird nunmehr auf 2 Bezug genommen, in der ein solches elektronisches Gerät 200 dargestellt ist.
  • Das elektronische Gerät 200 von 2 ist ein tragbares elektronisches Gerät und ist zu Erläuterungszwecken als Smartphone dargestellt. Jedoch wird der Fachmann auf der Grundlage der vorliegenden Beschreibung erkennen, dass das zur Erläuterung dienende Smartphone von 2 auch durch andere Geräte ersetzt werden kann. So könnte das elektronische Gerät 200 auch ein üblicher Desktop-Computer, ein Palmtop-Computer, ein Tablet-Computer, ein Gaming-Gerät, ein Mediaplayer oder ein anderes Gerät sein.
  • Das zu Darstellungszwecken dienende elektronische Gerät 200 hat eine Anzeigeeinrichtung 201, die als Benutzeroberfläche für das elektronische Gerät 200 dient. In einer Ausführungsform können Benutzer Eingaben in die Anzeigeeinrichtung 201 einer solchen Ausführungsform vornehmen, was durch eine Berührungseingabe mit einem Finger, mit einem Stift oder einem anderen in der Nähe der Anzeigeeinrichtung 201 verfügbaren Gegenstand möglich ist. In einer Ausführungsform ist die Anzeigeeinrichtung 201 als organische Leuchtdiodenanzeige mit Aktiv-Matrix (AMOLED) konfiguriert. Es können aber auch andere Arten von Anzeigeeinrichtungen verwendet werden, die auf der Grundlage der vorliegenden Beschreibung für den Fachmann naheliegend wären, wie zum Beispiel Flüssigkristallanzeigeeinrichtungen.
  • Das zur Erläuterung dienende elektronische Gerät 200 von 2 hat auch ein Gerätegehäuse 202. In einer Ausführungsform ist das Gerätegehäuse 202 zweiteilig und hat ein erstes Gerätegehäuse 203, das durch ein Scharnier 205 mit einem zweiten Gerätegehäuse 204 derart verbunden ist, dass das erste Gerätegehäuse 203 um das Scharnier 205 relativ zu dem zweiten Gerätegehäuse 204 zwischen einer Schließposition und einer axial verlagerten Öffnungsposition schwenkbar ist. In anderen Ausführungsformen ist das Gerätegehäuse 202 starr und hat kein Scharnier. In noch weiteren Ausführungsformen ist das Gerätegehäuse 202 aus einem flexiblen Material hergestellt, so dass es sich biegen und verformen lässt. Wenn das Gerätegehäuse 202 aus einem flexiblen Material hergestellt ist oder wenn das Gerätegehäuse 202 ein Scharnier hat, kann die Anzeigeeinrichtung bzw. das Display 201 auf einem flexiblen Substrat gebildet werden, so dass es sich biegen lässt. In einer oder in mehreren Ausführungsformen ist die Anzeigeeinrichtung 201 als biegsame Anzeigeeinrichtung konfiguriert, die mit dem ersten Gerätegehäuse 203 und dem zweiten Gerätegehäuse 204 verbunden ist und das Scharnier 205 überspannt. In das Gerätegehäuse 202 können Merkmale integriert werden, unter anderem Bedienelemente, Anschlüsse usw.
  • 2 zeigt auch ein schematisches Blockdiagramm 206 des zur Erläuterung dienenden elektronischen Geräts 200. In einer oder in mehreren Ausführungsformen ist das schematische Blockdiagramm 206 als gedruckte Leiterplattenanordnung konfiguriert, die in dem Gerätegehäuse 202 des elektronischen Geräts 200 angeordnet ist. Verschiedene Komponenten können durch Leiter oder einen Bus, die bzw. der entlang einer oder mehrerer gedruckter Leiterplatten angeordnet sind bzw. ist, elektrisch miteinander verschaltet sein.
  • Das zu Darstellungszwecken dienende schematische Blockdiagramm 206 von 2 enthält viele verschiedene Komponenten. Ausführungsformen der vorliegenden Erfindung berücksichtigen, dass sich die Zahl und die Anordnung solcher Komponenten abhängig von der speziellen Anwendung ändern können. Daher können elektronische Geräte, die entsprechend Ausführungsformen der Erfindung konfiguriert sind, einige Komponenten enthalten, die in 2 nicht dargestellt sind, während andere Komponenten, die zwar dargestellt sind, gegebenenfalls aber nicht benötigt werden, entfallen können.
  • In einer Ausführungsform hat das elektronische Gerät einen oder mehrere Prozessoren 207. In einer Ausführungsform können der eine oder die mehreren Prozessoren 207 einen Anwendungsprozessor und optional einen oder mehrere Hilfsprozessoren umfassen. Der Anwendungsprozessor oder der(die) Hilfsprozessor(en) oder beide können einen oder mehrere Prozessoren umfassen. Der Anwendungsprozessor oder der(die) Hilfsprozessor(en) oder beide können ein Mikroprozessor, eine Gruppe von Verarbeitungskomponenten, eine oder mehrere ASICs, eine programmierbare Logik oder eine Verarbeitungseinrichtung einer anderen Art umfassen. Der Anwendungsprozessor und der(die) Hilfsprozessor(en) können mit verschiedenen Komponenten des schematischen Blockdiagramms 206 arbeiten. Der Anwendungsprozessor und der(die) Hilfsprozessor(en) können jeweils konfiguriert sein für die Verarbeitung und Ausführung von ausführbarem Softwarecode, um die verschiedenen Funktionen des elektronischen Geräts, mit denen das schematische Blockdiagramm 206 arbeitet, auszuführen. Eine Speichereinrichtung, wie zum Beispiel der Speicher 208, kann optional den ausführbaren Softwarecode speichern, der während des Betriebs von dem einen oder den mehreren Prozessoren 207 verwendet wird.
  • In diesem Ausführungsbeispiel enthält das schematische Blockdiagramm 206 auch eine Kommunikationseinrichtung 209, die für eine drahtlose oder drahtgebundene Kommunikation mit einer oder mehreren weiteren Einrichtungen/Geräten oder Netzwerken konfiguriert werden kann. Die Netzwerke können ein Wide Area Network, ein Local Area Network und/oder ein Personal Area Network umfassen. Die Kommunikationseinrichtung 209 kann auch die Drahtlostechnologie zur Kommunikation nutzen, unter anderem und ohne Beschränkung auf eine Peer-to-Peer- oder eine Adhoc-Kommunikation wie HomeRF, Bluetooth und IEEE 802.11 sowie andere Formen der drahtlosen Kommunikation, z.B. die Infrarottechnik. Die Kommunikationseinrichtung 209 kann eine drahtlose Kommunikationsschaltung, einen Empfänger oder einen Sender oder einen Sendeempfänger sowie eine oder mehrere Antennen 210 umfassen.
  • In einer Ausführungsform können der eine oder die mehreren Prozessoren 207 zuständig sein für die Ausführung der primären Funktionen des elektronischen Geräts, mit denen das schematische Blockdiagramm 206 funktionsfähig ist. Zum Beispiel umfassen der eine oder die mehreren Prozessoren 207 in einer Ausführungsform eine oder mehrere Schaltungen, die mit der Anzeigeeinrichtung 201 arbeiten, um für einen Benutzer Präsentationsinformationen anzuzeigen. Der ausführbare Softwarecode, den der eine oder die mehreren Prozessoren 207 verwenden, kann in Form eines oder mehrerer Module 211 konfiguriert sein, die mit dem einen oder den mehreren Prozessoren 207 funktionsfähig sind. Solche Module 211 können Anweisungen, Steuerungsalgorithmen usw. speichern.
  • In einer oder in mehreren Ausführungsformen enthält das schematische Blockdiagramm 206 einen Audioeingang/Prozessor 212. Der Audioeingang/Prozessor 212 ist wirksam für den Empfang einer Audioeingabe von einer Umgebung 213 rund um das elektronische Gerät 200. Der Audioeingang/Prozessor 212 kann in einer Ausführungsform Hardware, einen ausführbaren Code und einen von einem Sprachmonitor ausführbaren Code enthalten. Der Audioeingang/Prozessor 212 kann mit einer oder mehreren vordefinierten Identifikationsreferenzen, die in dem Speicher 208 gespeichert sind, bedient werden. Bezüglich der Audioeingabe können die vordefinierten Identifikationsreferenzen Darstellungen von grundlegenden Sprachmodellen, Darstellungen von trainierten Sprachmodellen oder andere Darstellungen von vordefinierten Audiosequenzen sein, die der Audioeingang/Prozessor 212 verwendet, um Sprachbefehle zu empfangen und zu identifizieren, die mit der von einer Audioaufnahmeeinrichtung aufgenommenen Audioeingabe empfangen werden. In einer Ausführungsform kann der Audioeingang/Prozessor 212 ein Spracherkennungsmodul umfassen. Ungeachtet der speziellen Implementierungen, die in den verschiedenen Ausführungsformen verwendet werden, kann der Audioeingang/Prozessor 212 auf verschiedene Sprachmodelle zugreifen, die mit den vordefinierten Identifikationsreferenzen gespeichert sind, um Sprachbefehle, gesprochene Sprachen und andere Informationen zu erkennen.
  • Der Audioeingang/Prozessor 212 kann ein Strahllenkungsmodul 214 mit einem oder mehreren Mikrofonen 215 umfassen. Die Eingabe von dem einen oder den mehreren Mikrofonen 215 kann in dem Strahllenkungsmodul 214 so verarbeitet werden, dass das eine oder die mehreren Mikrofone ein virtuelles Mikrofon definieren. Dieses virtuelle Mikrofon kann einen akustischen Empfangskegel definieren, der virtuell um das elektronische Gerät 200 herum „gelenkt“ werden kann. Alternativ kann auch eine tatsächliche Lenkung erfolgen, wie zum Beispiel das Umschalten zwischen einem linken und einem rechten Mikrofon oder einem Mikrofon auf der Vorderseite und auf der Rückseite oder das individuelle Ein- und Ausschalten verschiedener Mikrofone. In einer oder in mehreren Ausführungsformen können zwei oder mehr Mikrofone 215 enthalten sein für eine selektive Strahllenkung durch das Strahllenkungsmodul 214.
  • So kann zum Beispiel ein erstes Mikrofon auf einer ersten Seite des elektronischen Geräts 200 vorgesehen sein, um eine Audioeingabe aus einer ersten Richtung zu empfangen, während ein zweites Mikrofon auf einer zweiten Seite des elektronischen Geräts 200 vorgesehen sein kann, um eine Audioeingabe aus einer zweiten Richtung zu empfangen. Diese Mikrofone können „gelenkt“ werden, indem sie wahlweise an- und abgeschaltet werden.
  • Das Strahllenkungsmodul 214 kann dann zwischen dem ersten Mikrofon und dem zweiten Mikrofon wählen für eine Strahllenkung des Audioempfangs in Richtung auf ein Objekt, wie zum Beispiel einen Benutzer, der eine akustische Eingabe durchführt. Diese Strahllenkung kann als Reaktion auf eine Eingabe von anderen Sensoren wie beispielsweise Bildgebern, Gesichts-Tiefenscannern, Wärmesensoren oder sonstigen Sensoren erfolgen. Ein Bildgeber 216 kann zum Beispiel eine Position des Gesichts einer Person schätzen und kann Signale an das Strahllenkungsmodul 214 senden und diese darauf aufmerksamen machen, in welche Richtung der akustische Empfangskegel fokussiert werden soll und/oder das erste Mikrofon und das zweite Mikrofon gelenkt werden sollen, wodurch Informationen zur Audiolenkung hinzugefügt werden und Zeit gespart wird. Wenn sich rund um das elektronische Gerät 200 mehrere Personen aufhalten, richtet diese Lenkung einen Strahlempfangskegel in vorteilhafter Weise auf eine bestimmte Person, so dass gesprochene Sprachen, Sprachpräferenzen und andere Informationen bezüglich der Sprache der Person festgestellt werden können.
  • Alternativ verarbeitet und kombiniert das Strahllenkungsmodul 214 die Signale von zwei oder mehr Mikrofonen, um die Strahllenkung durchzuführen. Das eine oder die mehreren Mikrofone 215 können für Sprachbefehle und/oder für eine Erkennung von Sprachen verwendet werden. In Reaktion auf die Steuerung des einen oder der mehreren Mikrofone 215 durch das Strahllenkungsmodul 214 kann eine Richtung des Benutzerstandorts ermittelt werden. Das Strahllenkungsmodul 214 kann dann zwischen dem ersten Mikrofon und dem zweiten Mikrofon wählen, um die Strahllenkung des Audioempfangs auf den Benutzer zu richten. Alternativ können der Audioeingang/Prozessor 212 eine gewichtete Kombination der Mikrofone verwenden, um die Strahllenkung für den Audioempfang auf den Benutzer zu richten.
  • In einer Ausführungsform ist der Audioeingang/Prozessor 212 konfiguriert für die Implementierung einer Sprachsteuerungsfunktion, die es einem Benutzer ermöglicht, den einen oder die mehreren Prozessoren 207 durch Sprechen zu veranlassen, eine Sprachpräferenz zu erkennen, die einer bestimmten Person entspricht. Der Benutzer kann zum Beispiel sagen: „No me gusta.“ Diese Aussage, die auf spanisch erfolgt, ermöglicht dem einen oder den mehreren Prozessoren 207 mit einem Erkennungssystem 217 zu kooperieren, um sowohl die Sprache zu erkennen als auch zu erkennen, wer in der Umgebung 213 des elektronischen Geräts 200 die Quelle dieser Aussage ist. Folglich kann diese Aussage bewirken, dass der eine oder die mehreren Prozessoren 207 auf das Erkennungssystem 217 zugreifen und einen Erkennungsprozess beginnen, um festzustellen, welche Person in der Umgebung 213 Spanisch als ihre bevorzugte Sprache hat. In einer oder in mehreren Ausführungsformen hört der Audioeingang/Prozessor 212 auf Sprachbefehle, verarbeitet die Befehle und bestimmt in Verbindung mit dem einen oder den mehreren Prozessoren 207 die Sprachpräferenzen von Personen, die sich in der Umgebung 213 des elektronischen Geräts 200 aufhalten.
  • Der eine oder die mehreren Prozessoren 207 können Filtervorgänge an der von dem Audioeingang/Prozessor 212 empfangenen Audioeingabe durchführen. In einer Ausführungsform zum Beispiel können der eine oder die mehreren Prozessoren 207 die Audioeingabe filtern in eine erkennbare Audioeingabe, d.h. eine erste Audioeingabe, und eine weitere Audioeingabe, die nicht erkennbar ist, d.h. eine zweite Audioeingabe.
  • Verschiedene Sensoren 218 können mit dem einen oder den mehreren Prozessoren 207 wirksam sein. Ein Beispiel eines Sensors, der in den verschiedenen Sensoren 218 enthalten ist, ist ein Berührungssensor. Der Berührungssensor kann einen kapazitiven Berührungssensor, einen Infrarot-Berührungssensor, einen resistiven Berührungssensor umfassen oder eine andere berührungsempfindliche Technik. Kapazitive berührungsempfindliche Vorrichtungen umfassen eine Mehrzahl von kapazitiven Sensoren, z.B. Elektroden, die entlang eines Substrats angeordnet sind. Jeder kapazitive Sensor ist konfiguriert, um in Verbindung mit einer zugeordneten Steuerschaltung, z.B. dem einen oder den mehreren Prozessoren 207, ein Objekt zu erkennen bzw. zu erfassen, das sich in nächster Nähe zur Oberfläche der Anzeigeeinrichtung 201 oder zu dem Gerätegehäuse 202 des elektronischen Geräts 200 befindet oder diese bzw. dieses berührt, indem zwischen kapazitiven Sensorpaaren elektrische Feldlinien aufgebaut und dann Störungen dieser Feldlinien detektiert werden.
  • Ein weiteres Beispiel eines Sensors, der in den verschiedenen Sensoren 218 enthalten sein kann, ist ein Geolokator, der als Standortdetektor dient. In einer Ausführungsform kann der Standortdetektor bei der Authentifizierung Standort- bzw. Ortsdaten ermitteln. Der Standort bzw. Ort lässt sich ermitteln, indem die Standortdaten von einer Konstellation eines oder mehrerer Satelliten in der Erdumlaufbahn oder von einem Netzwerk terrestrischer Basisstationen erfasst werden, um einen ungefähren Standort zu bestimmen. Der Standortdetektor kann auch geeignet sein zur Standortbestimmung durch Lokalisierung oder Triangulation von terrestrischen Basisstationen eines traditionellen Mobilfunknetzes oder von anderen Local Area Networks wie Wi-Fi-Netzwerke.
  • Ein weiteres Beispiel eines Sensors, der in den verschiedenen Sensoren 218 enthalten sein kann, ist ein Orientierungsdetektor, der wirksam ist zum Bestimmen einer Orientierung und/oder einer Bewegung des elektronischen Geräts 200 im dreidimensionalen Raum. Der Orientierungsdetektor kann zum Beispiel einen Beschleunigungsmesser, Gyroskope oder andere Einrichtungen zum Detektieren der Geräteorientierung und/oder der Bewegung des elektronischen Geräts 200 umfassen. Wenn man einen Beschleunigungsmesser als Beispiel nimmt, so kann dieser enthalten sein, um eine Bewegung des elektronischen Geräts zu erfassen. Zusätzlich kann der Beschleunigungsmesser verwendet werden, um Gesten des Benutzers zu erfassen, zum Beispiel, ob der Benutzer beim Sprechen mit den Händen gestikuliert, ob er läuft oder ob er geht.
  • Der Orientierungsdetektor kann die räumliche Orientierung eines elektronischen Geräts 200 im dreidimensionalen Raum zum Beispiel durch die Detektion einer Schwerkraftrichtung feststellen. Zusätzlich zu einem Beschleunigungsmesser oder an dessen Stelle kann ein elektronischer Kompass enthalten sein, um die räumliche Orientierung des elektronischen Geräts relativ zum Erdmagnetfeld zu erfassen. Ähnlich können ein oder mehrere Gyroskope enthalten sein, die die Drehorientierung des elektronischen Geräts 200 erfassen.
  • Das Erkennungssystem 217 ist mit dem einen oder den mehreren Prozessoren 207 wirksam. Ein erster Identifikator des Erkennungssystems 217 kann einen Bildgeber 216 umfassen. Der Bildgeber 216 umfasst einen zweidimensionalen Bildgeber, der konfiguriert ist für den Empfang von mindestens einer Abbildung einer Person in einer Umgebung des elektronischen Geräts 200. In einer Ausführungsform umfasst der Bildgeber 216 einen zweidimensionalen RGB-Bildgeber. In einer weiteren Ausführungsform umfasst der Bildgeber 216 einen Infrarotbildgeber. Andere Arten von Bildgebern, die geeignet sind für eine Verwendung als Bildgeber 216 des Erkennungssystems 217, erschließen sich dem Fachmann auf der Grundlage der vorliegenden Beschreibung.
  • Das Erkennungssystem 217 kann mit einem Gesichtsanalysator 219 und mit einem Umgebungsanalysator 220 arbeiten. Der Gesichtsanalysator 219 und/oder der Umgebungsanalysator 220 können ausgebildet sein zum Verarbeiten einer Abbildung oder eines Tiefscans eines Objekts und können feststellen, ob das Objekt mit vorgegebenen Kriterien übereinstimmt, indem die Abbildung oder der Tiefenscan mit einer oder mehreren in dem Speicher 208 gespeicherten Identifikationsreferenzen verglichen werden.
  • Der Gesichtsanalysator 219 und/oder der Umgebungsanalysator 220 können als Erkennungsmodul mit optischer und/oder räumlicher Erkennung wirksam sein, um mittels Bilderkennung, Zeichenerkennung, visueller Erkennung, Gesichtserkennung, Farberkennung, Formerkennung und dergleichen Objekte zu identifizieren. In vorteilhafter Weise können der Gesichtsanalysator 219 und/oder der Umgebungsanalysator 220, die mit dem Erkennungssystem 217 zusammenarbeiten, als Gesichtserkennungseinrichtung verwendet werden, um die Identität von einer oder mehreren in der Umgebung 213 des elektronischen Geräts 200 erfassten Personen zu ermitteln.
  • In einer Ausführungsform kann der Bildgeber 216, wenn das Erkennungssystem 217 eine Person erfasst, ein Foto von dieser Person aufnehmen. Das Erkennungssystem 217 kann dieses Foto dann mit einer oder mehreren vordefinierten Identifikationsreferenzen, die in dem Speicher 208 gespeichert sind, vergleichen. In einer oder in mehreren Ausführungsformen wird dieser Vergleich verwendet, um über eine Authentizitäts-Wahrscheinlichkeitsschwelle hinaus zu bestätigen, dass das Gesicht der Person auf dem Bild mit der einen oder den mehreren vordefinierten, in dem Speicher 208 gespeicherten Identifikationsreferenzen so weit übereinstimmt, dass die Person identifiziert werden kann, und um in manchen Fällen festzustellen, wer ein autorisierter Nutzer des elektronischen Geräts 200 ist und/oder wer der Besitzer des elektronischen Geräts 200 ist. In vorteilhafter Weise wird diese optische Erkennung durch das Erkennungssystem 217 in Verbindung mit dem Gesichtsanalysator 219 und/oder dem Umgebungsanalysator 220 des elektronischen Geräts 200 durchgeführt, um zu bestimmen, wer sich in der Umgebung 213 des elektronischen Geräts 200 befindet und wer ein Augmented-Reality-Begleitgerät (100) benutzt.
  • In einer oder in mehreren Ausführungsformen kann ein Benutzer das elektronische Gerät „trainieren“, indem er vordefinierte Identifikationsreferenzen in dem Speicher 208 des elektronischen Geräts 200 speichert. Zum Beispiel kann ein Benutzer eine Reihe von Bildern aufnehmen. Sie können Identifikatoren von speziellen Merkmalen wie Augenfarbe, Spülenfarbe, Luftfarbe, Gewicht und Größe umfassen. Enthalten sein kann auch, dass der Benutzer vor einer bestimmten Wand steht, die der Umgebungsanalysator aus Bildern erkennen kann, die von dem Bildgeber 216 aufgenommen wurden. Es kann auch umfasst sein, dass der Benutzer eine Hand hebt, sein Haar berührt oder in eine Richtung blickt wie in einer Profilansicht. Diese Merkmale können als vordefinierte Identifikationsreferenzen in dem Speicher 208 des elektronischen Geräts 200 gespeichert werden.
  • Der Gesichtsanalysierer 219 kann ein Bild/Blickerfassungs-Verarbeitungsmodul aufweisen. Das Bild/Blickerfassungs-Verarbeitungsmodul kann Informationen verarbeiten, um den Blickpunkt eines Benutzers zu erfassen. Es können dann elektronische Signale von dem Bildgeber 216 geliefert werden, um die Blickrichtung des Benutzers im dreidimensionalen Raum zu berechnen. Das Bild/Blickerfassung-Verarbeitungsmodul kann ferner konfiguriert sein für die Erfassung eines Blickkegels entsprechend der erfassten Blickrichtung, wobei es sich um ein Sichtfeld handelt, innerhalb dessen der Benutzer ohne Weiteres sehen kann, ohne mit den Augen oder dem Kopf von der erfassten Blickrichtung abzuweichen. Das Bild/Blick-Erfassungsmodul kann so konfiguriert sein, dass es alternierend die Blickrichtung schätzt, indem Bilder eingegeben werden, die ein Fotografie von einem ausgewählten Bereich in der Nähe der oder rund um die Augen darstellen. Es kann auch zweckmäßig sein festzustellen, ob der Benutzer authentifiziert werden möchte, indem er direkt auf das Gerät blickt. Das Bild/Blickerfassungs-Verarbeitungsmodul kann nicht nur einen Blickkegel bestimmen, sondern kann auch feststellen, ob ein Auge in eine bestimmte Richtung blickt, um die Absicht des Benutzers, authentifiziert zu werden, zu erkennen.
  • Andere oder sonstige Komponenten 221, die mit dem einen oder den mehreren Prozessoren 207 wirksam sind, können Ausgabekomponenten wie Video-, Audio- und/oder mechanische Ausgänge umfassen. Zum Beispiel können die Ausgabekomponenten eine Videoausgabekomponente oder Zusatzeinrichtungen umfassend eine Kathodenstrahlröhre, eine Flüssigkristallanzeige, eine Plasmaanzeige, eine Glühlampe, Fluoreszenzlicht, einen Front- oder Rückprojektionsbildschirm und eine Leuchtdiodenanzeige aufweisen. Weitere Beispiele von Ausgabekomponenten umfassen Audioausgabekomponenten wie einen Lautsprecher, der hinter einem Lautsprecher-Port angeordnet ist, oder andere Alarmeinrichtungen und/oder Summer und/oder mechanische Ausgabekomponenten wie vibrations- oder bewegungsbasierte Mechanismen.
  • Die sonstigen Komponenten 221 können auch Näherungssensoren umfassen. Die Näherungssensoren fallen in eine von zwei Kategorien: aktive Näherungssensoren und „passive“ Näherungssensoren. Es können allgemein entweder die Näherungsdetektorkomponenten oder die Näherungssensorkomponenten für die Gestensteuerung und für andere Benutzerschnittstellenprotokolle verwendet werden.
  • Die sonstigen Komponenten 221 können optional ein Barometer umfassen, das Änderungen des Luftdrucks infolge einer Höhenänderung oder unterschiedlicher Drücke des elektronischen Geräts 200 fühlen kann. Die sonstigen Komponenten 221 können optional auch einen Lichtsensor umfassen, der Änderungen der Lichtintensität, der Farbe, von Licht oder Schatten in der Umgebung eines elektronischen Geräts erfasst. Dies kann genutzt werden, um Rückschlüsse auf den Kontext zu ziehen, z.B. auf Wetter oder Farben, Wände, Felder usw. oder auf andere Hinweise. Ein Infrarotsensor kann in Verbindung mit dem Lichtsensor oder an dessen Stelle verwendet werden. Der Infrarotsensor kann für die Erfassung von Wärmeemissionen von einer Umgebung rund um das elektronische Gerät 200 ausgebildet sein. Ähnlich kann ein Temperatursensor für die Überwachung der Temperatur rund um ein elektronisches Gerät ausgebildet sein.
  • Ein Kontextmodul 222 kann dann mit den verschiedenen Sensoren arbeiten, um Personen und Handlungen, die in einer Umgebung des elektronischen Geräts 200 anwesend sind bzw. stattfinden, zu erkennen, abzuleiten, zu erfassen und auf andere Weise zu bestimmen. Sofern vorhanden, ermittelt eine Ausführungsform des Kontextmoduls 222 bewerteten Kontext und Rahmenvorgaben mit Hilfe von anpassbaren Algorithmen der Kontextbewertung unter Verwendung von Informationen, Daten und Ereignissen. Diese Bewertungen sind erlernbar durch eine wiederholte Datenanalyse. Alternativ kann ein Benutzer ein Menü oder eine Benutzersteuerung über die Anzeigeeinrichtung 201 nutzen, um verschiedene Parameter, Konstrukte, Regeln und/oder Paradigmen einzugeben, die das Kontextmodul 222 bei der Erfassung von multimodalen sozialen Hinweisen, emotionalen Zuständen, Stimmungen und anderen kontextbezogenen Informationen anweisen oder auf andere Weise führen oder steuern. Das Kontextmodul 222 kann in einer oder in mehreren Ausführungsformen ein künstliches neuronales Netz oder eine ähnliche Technologie aufweisen.
  • In einer oder in mehreren Ausführungsformen kann das Kontextmodul 222 mit dem einen oder den mehreren Prozessoren 207 arbeiten. In einigen Ausführungsformen können der eine oder die mehreren Prozessoren 207 das Kontextmodul 222 steuern. In anderen Ausführungsformen kann das Kontextmodul 222 unabhängig arbeiten und kann Informationen an den einen oder die mehreren Prozessoren 207 liefern, die es aus der Erkennung multimodaler sozialer Hinweise, emotionaler Zustände, Stimmungen und anderer Kontextinformationen gewonnen hat. Das Kontextmodul 222 kann Daten von verschiedenen Sensoren empfangen. In einer oder in mehreren Ausführungsformen sind der eine oder die mehreren Prozessoren 207 konfiguriert für die Durchführung der Vorgänge des Kontextmoduls 222.
  • In einer oder in mehreren Ausführungsformen können der eine oder die mehreren Prozessoren 207 mit verschiedenen Authentifikatoren des Erkennungssystems 217 arbeiten. Zum Beispiel können der eine oder die mehreren Prozessoren 207 mit einem ersten Authentifikator und einem zweiten Authentifikator arbeiten und auch mit mehreren Authentifikatoren, sofern diese in dem Erkennungssystem 217 enthalten sind.
  • Es versteht sich, dass die gezeigten Elemente sowohl in 1 als auch in 2 lediglich dem Zweck der Darstellung von Ausführungsformen der Erfindung dienen und diese Figuren nicht als eine vollständige schematische Darstellung der verschiedenen notwendigen Komponenten gedacht sind. Aus diesem Grund können andere elektronische Geräte gemäß Ausführungsformen der vorliegenden Erfindung verschiedene andere Komponenten enthalten, die sich dem Fachmann auf der Grundlage vorliegenden Beschreibung erschließen, die aber in 1 und 2 nicht gezeigt sind. Außerdem sind innerhalb des Rahmens der vorliegenden Erfindung auch Kombinationen von zwei oder mehr Komponenten oder eine Aufteilung einer bestimmten Komponente in zwei oder mehr Einzelkomponenten möglich.
  • Es wird nunmehr auf 3 Bezug genommen, in der ein Erläuterungsbeispiel eines Inhaltpräsentations-Begleitgeräts 300 gemäß einer oder mehrerer Ausführungsformen der vorliegenden Erfindung gezeigt ist. In diesem Ausführungsbeispiel umfasst das Inhaltpräsentations-Begleitgerät 300 einen Farbvideomonitor. In anderen Ausführungsformen kann das Inhaltpräsentations-Begleitgerät 300 in anderer Form vorgesehen sein. Das Inhaltpräsentations-Begleitgerät 300 kann beispielsweise ein TV-Gerät, ein Computerdisplay, ein Laptopdisplay, ein Tabletcomputer oder ein Projektor sein, der Inhalt bzw. Content auf eine Leinwand projiziert. Weitere Beispiele eines Inhaltpräsentations-Begleitgeräts 300 erschließen sich dem Fachmann auf der Grundlage der vorliegenden Beschreibung. Ungeachtet der Konfiguration umfasst das Inhaltpräsentations-Begleitgerät 300 in einer oder in mehreren Ausführungsformen einen oder mehrere Prozessoren 302, eine Anzeigeeinrichtung 301, einen Speicher 303, einen Audioausgang 304 und eine Kommunikationseinrichtung 305, die geeignet ist für eine leitungsgebundene oder drahtlose Kommunikation mit einem elektronischen Gerät wie beispielsweise dem elektronischen Gerät (200) von 2.
  • In einer oder in mehreren Ausführungsformen kann das Inhaltpräsentations-Begleitgerät 300, wenn es entweder drahtlos oder drahtgebunden mit einem solchen elektronischen Gerät (200) verbunden ist, als primäre Anzeigeeinrichtung für das elektronische Gerät (200) fungieren. Das elektronische Gerät (200) kann Inhalt von einem terrestrischen Rundfunknetz, einem Kabel-TV-Netz, einem Internet-Streamingdienst oder Kombinationen derselben beziehen und kann diesen Inhalt zu dem Inhaltpräsentations-Begleitgerät 300 umleiten, da die Anzeigeeinrichtung 301 größer ist als die Anzeigeeinrichtung (201) des elektronischen Geräts (200). Dadurch ist es Personen, die sich in der Umgebung des elektronischen Geräts (200) oder des Inhaltpräsentations-Begleitgeräts 300 aufhalten, besser möglich, den Inhalt anzusehen. In einer oder in mehreren Ausführungsformen fließt Inhalt über die Kommunikationseinrichtung 305 von dem elektronischen Gerät (200) zu dem Inhaltpräsentations-Begleitgerät 300.
  • Wie nachstehend mit Bezug auf die anschließenden Verfahren und Verfahrensschritte im Detail erläutert wird, erfolgt die Wahl der Zugangsdaten, der Anwendungsprofil-Zugangsdaten, des automatischen Login an dem elektronischen Gerät mit den Zugangsdaten und/oder des automatischen Login in eine Anwendung mit den Anwendungsprofil-Zugangsdaten, die Filterung des für die Präsentation auf einem Inhaltpräsentations-Begleitgerät geeigneten Inhalts und der Übergang oder Wechsel von einem Benutzerkonto oder einer Anwendung zu einem anderen Benutzerkonto oder einer anderen Anwendung in Abhängigkeit von einem oder mehreren persönlichen Merkmalen, die einer oder mehreren Personen entsprechen, die physisch in einer vorgegebenen Umgebung (213) des elektronischen Geräts (200) anwesend sind, und/oder von der Größe eines Augmented-Reality-Begleitgeräts (100). Diese persönlichen Merkmale können sein, ob eine Person ein Augmented-Reality-Begleitgerät (100) benutzt, das Alter der Person, die das Augmented-Reality-Begleitgerät (100) benutzt, und ob die Größe eine vordefinierte Schwellengröße unterschreitet usw. Weitere Beispiele von persönlichen Merkmalen werden nachstehend beschrieben, und noch weitere persönliche Merkmale erschließen sich dem Fachmann auf der Grundlage der vorliegenden Beschreibung.
  • Es wird nunmehr auf 4 Bezug genommen, in der ein oder mehrere der Erläuterung dienende Verfahrensschritte dargestellt sind, die zeigen, wie das Augmented-Reality-Begleitgerät 100 von 1, das elektronische Gerät 200 von 2 und das Inhaltpräsentations-Begleitgerät 300 als System verwendet werden können. Bei Schritt 401, dem Beginn des Verfahrens, steht das elektronische Gerät 200 in Verbindung mit dem Inhaltpräsentations-Begleitgerät 300 wie auch mit dem Augmented-Reality-Begleitgerät 100. Wenn das elektronische Gerät 200 elektronisch mit dem Inhaltpräsentations-Begleitgerät 300 in Verbindung steht, kann das das elektronische Gerät 200 die größere Anzeigeeinrichtung 301 des Inhaltpräsentations-Begleitgeräts 300 zum Präsentieren von Inhalt nutzen. In einer oder in mehreren Ausführungsformen kann das elektronische Gerät 200 zum Beispiel in einem „Desktop“-Modus arbeiten, indem es auf der Anzeigeeinrichtung 301 des Inhaltpräsentations-Begleitgeräts 300 eine übliche Computer-Benutzeroberfläche darstellt. Alternativ kann das elektronische Gerät 200 Inhalt wie Videos, Bilder oder anderen multimedialen Inhalt auf der Anzeigeeinrichtung 301 des Inhaltpräsentations-Begleitgeräts 300 präsentieren.
  • Ausführungsformen der Erfindung berücksichtigen, dass mit der fortschreitenden Rechenleistung, die bei Smartphones und anderen elektronischen Geräten verfügbar ist, Benutzer mit diesen Geräten häufig Filme, Videos, TV-Shows und anderen Inhalt ansehen bzw. konsumieren. Außerdem können mit diesen Geräten auch Arbeiten erledigt werden. Es können zum Beispiel Emails versandt, Dateien verwaltet, Dokumente bearbeitet und Tabellenkalkulationen durchgeführt werden usw. Wird zwischen dem elektronischen Gerät 200 und dem Inhaltpräsentations-Begleitgerät 300 beispielsweise ein elektronischer Kommunikationskanal eingerichtet, so kann die Rechenleistung des elektronischen Geräts 200 genutzt werden, um Inhalt auf der Anzeigeeinrichtung 301 des Inhaltpräsentations-Begleitgeräts 300 anzuzeigen. Dies ermöglicht einem Benutzer fernzusehen, Videospiele zu spielen, Hausaufgaben oder Büroarbeiten zu erledigen, mit Freunden und Familie über Videocall zu kommunizieren oder andere Aufgaben zu erledigen, indem der eine oder die mehreren Prozessoren (207) des elektronischen Geräts 200 kombiniert mit der großen Anzeigeeinrichtung 301 des Inhaltpräsentations-Begleitgeräts 300 verwendet werden.
  • Wie bei Schritt 401 dargestellt ist, zeigt das elektronische Gerät 200 noch keinen Inhalt auf der Anzeigeeinrichtung 301 des Inhaltpräsentations-Begleitgeräts 300 an, während das elektronische Gerät 200 in elektronischer Verbindung mit dem Inhaltpräsentations-Begleitgerät 300 steht. Jedoch befinden sich eine erste Person 409 und eine zweite Person 410 in einer Umgebung 411 des elektronischen Geräts 200. In diesem Ausführungsbeispiel unterstützt das elektronische Gerät 200 mehrere Benutzer, deren jeder das elektronische Gerät 200 benutzen kann, indem er mit seinen Zugangsdaten auf ein persönliches Benutzerkonto zugreift. Wenn beispielsweise die erste Person 409 das elektronische Gerät 200 benutzt, kann sich die erste Person 409 über die Eingabe von Zugangsdaten an dem elektronischen Gerät 200 anmelden, um auf ihre Musikbibliothek, Videobibliothek, Fotobibliothek und Dateien zuzugreifen. Möchte die zweite Person 410 das elektronische Gerät 200 benutzen, kann das Benutzerprofil zu jenem der zweiten Person 410 gewechselt werden, wenn die zweite Person 410 ihre Zugangsdaten eingibt. Auf diese Weise ist es möglich, dass die erste Person 409 und die zweite Person 410 sich mit ihren einmaligen Zugangsdaten in ihr jeweiliges Benutzerkonto einloggen, um ausschließlich ihr eigenes Benutzerprofil zu sehen, ohne die Unübersichtlichkeit oder Ablenkung durch andere Benutzerprofile usw.
  • Außerdem können Anwendungen, die innerhalb von Benutzerprofilen, die der ersten Person 409 und der zweiten Person 410 zugeordnet sind, auf dem elektronischen Gerät 200 ausgeführt werden, manchmal auch mehrere Benutzer unterstützen, die jeweils über Zugangsdaten für ein Anwendungsprofil verfügen. Wenn beispielsweise in einem Benutzerkonto eine Videostreaming-Anwendung gestartet wird, können dieser Anwendung mehrere Anwendungsprofile zugeordnet sein, die wiederum einer Mehrzahl von Benutzern zugeordnet sind. In diesem Beispielfall kann die erste Person 409 über Anwendungsprofil-Zugangsdaten für eine Videostreaming-Anwendung verfügen, während die zweite Person ebenfalls über Anwendungsprofil-Zugangsdaten für die Videostreaming-Anwendung verfügt. Durch die Eingabe der Anwendungsprofil-Zugangsdaten kann entweder die erste Person 409 oder die zweite Person 410 auf ein bestimmtes Benutzerprofil in Verbindung mit der Anwendung zugreifen. So kann die erste Person 409 in ihrem Benutzerprofil eine Wunschliste mit Weinvideos führen, während eine zweite Person 410 mit derselben Anwendung Hundesportwettbewerbe aufnehmen und speichern kann. Ein weiterer Benutzer kann dieselbe Anwendung nutzen, jedoch mit anderen Anwendungsprofil-Zugangsdaten, um auf Sportereignisse und Bildungsprogramme zuzugreifen.
  • Bei Systemen des Stands der Technik wäre das Einloggen in das elektronische Gerät 200 eine mühsame und komplizierte Prozedur. Ein Benutzer müsste das elektronische Gerät 200 physisch handhaben, biometrische Daten, ein Passwort, ein persönliche Identifikationsnummer (PIN) oder andere Kriterien eingeben und sich dann gegenüber dem elektronischen Gerät 200 authentifizieren. Dieser Vorgang müsste in Gänze wiederholt werden, wenn innerhalb des Benutzerprofils eine Anwendung aktiviert wird.
  • Ausführungsformen der Erfindung straffen bzw. vereinfachen diesen Prozess auf vorteilhafte Weise. In einer oder in mehreren Ausführungsformen stellen ein oder mehrere Prozessoren (207) des elektronischen Geräts 200 zunächst fest, dass das elektronische Gerät 200 mit dem Inhaltpräsentations-Begleitgerät 300 elektronisch in Verbindung steht. Dieser Feststellungsvorgang kann optional die Feststellung umfassen, dass der eine oder die mehreren Prozessoren (207) die Anzeigeeinrichtung 301 des Inhaltpräsentations-Begleitgeräts 300 als primäre Anzeigeeinrichtung für das das elektronische Gerät 200 nutzen.
  • Der eine oder die mehreren Prozessoren (207) stellen außerdem fest, dass das elektronische Gerät 200 mit einem Augmented-Reality-Begleitgerät 100 elektronisch in Verbindung steht. Mit Hilfe eines oder mehrerer Sensoren (218) können der eine oder die mehreren Prozessoren (207) optional feststellen, dass sich in der Umgebung 411 des elektronischen Geräts 200 mehrere Personen befinden, was bedeutet, dass mehrere Personen den auf der Anzeigeeinrichtung 301 des Inhaltpräsentations-Begleitgeräts 300 präsentieren Inhalt ansehen bzw. konsumieren können. Dies lässt sich zum Beispiel feststellen, indem ein oder mehrere von dem Bildgeber (216) erfasste Bilder von dem Gesichtsanalysator (219), dem Umgebungsanalysator (220), dem Kontextmodul (222) oder anderen Komponenten des elektronischen Geräts 200 verarbeitet werden. In einer oder in mehreren Ausführungsformen beinhaltet dies festzustellen, dass zumindest eine Person der mehreren Personen in der Umgebung 411 des elektronischen Geräts 200 ein Besitzer oder autorisierter Benutzer des elektronischen Geräts 200 ist.
  • Da das elektronische Gerät 200 mehrere Benutzerkonten unterstützt, auf die mit entsprechenden Zugangsdaten zugegriffen werden kann, stellen der eine oder die mehreren Prozessoren (207) in einer oder in mehreren Ausführungsformen fest, ob ein Benutzer, der das Augmented-Reality-Begleitgerät 100 bedient, über Zugangsdaten verfügt, die ihm den Zugang zu dem elektronischen Gerät 200 erlauben. Wenn ja, wählen der eine oder die mehreren Prozessoren (207) des elektronischen Geräts automatisch die Zugangsdaten, die zu dem Benutzer gehören, der das Augmented-Reality-Begleitgerät 100 bedient, und loggen diese Person automatisch in das elektronische Gerät 200 ein. Wenn eine bestimmte Anwendung geöffnet wird und diese Anwendung mit mehreren Accounts und Logins konfiguriert ist, wählen der eine oder die mehreren Prozessoren automatisch die Anwendungsprofil-Zugangsdaten, die zu der Person gehören, die das Augmented-Reality-Begleitgerät 100 bedient und loggen diese Person mit den Anwendungsprofil-Zugangsdaten in die Anwendung ein.
  • Wenn die Bedienung des Augmented-Reality-Begleitgeräts 100 von einer Person an eine andere Person übergeben wird, können der eine oder die mehreren Prozessoren (207) in einer oder in mehreren Ausführungsformen abhängig von dem Kontext des Startbildschirms des elektronischen Geräts 200 oder von der aktuell auf dem elektronischen Gerät 200 ausgeführten Anwendung eine Option bereitstellen für ein automatisches Umschalten des Profils von der Person, die das Augmented-Reality-Begleitgerät 100 zuvor bedient hat, auf die Person, die das Augmented-Reality-Begleitgerät 100 nach erfolgter Übergabe bedient.
  • In dieser Darstellung verfügen die erste Person 409 wie auch die zweite Person 410 über Benutzerkonten auf dem elektronischen Gerät 200. Zudem trägt die erste Person 409 auch ein Augmented-Reality-Begleitgerät 100.
  • Bei Schritt 402 erkennen ein oder mehrere Prozessoren (207) des elektronischen Geräts 200 unter Nutzung einer Kommunikationseinrichtung (209) des elektronischen Geräts 200, dass das elektronische Gerät 200 elektronisch mit dem Inhaltpräsentations-Begleitgerät 300 in Verbindung steht, während letzteres als primäre Anzeigeeinrichtung für das elektronische Gerät 200 fungiert. Bei Schritt 403 erkennen der eine oder die mehreren Prozessoren (207) des elektronischen Geräts 200 wiederum unter Nutzung der Kommunikationseinrichtung (209) des elektronischen Geräts 200, dass das elektronische Gerät 200 mit dem Augmented-Reality-Begleitgerät 100 elektronisch in Verbindung steht.
  • Bei Schritt 404, erkennen der eine oder die mehreren Prozessoren (207) des elektronischen Geräts 200, die mit dem einen oder den mehreren Sensoren (218) des elektronischen Geräts 200 zusammenwirken, dass mehrere Personen, hier die erste Person 409 und die zweite Person 410, in der Umgebung 411 des elektronischen Geräts 200 anwesend sind, während das Inhaltpräsentations-Begleitgerät 300 als primäre Anzeigeeinrichtung für das elektronische Gerät 200 fungiert.
  • Bei Schritt 405 stellen der eine oder die mehreren Prozessoren (207) des elektronischen Geräts 200 fest, dass das elektronische Gerät 200 mehrere Benutzerkonten unterstützt, wobei jeder Benutzer andere Zugangsdaten erstellt, mit denen er sich in das elektronische Gerät 200 einloggt und/oder sich gegenüber dem elektronischen Gerät 200 authentifiziert. Schritt 406 umfasst dann, dass der eine oder die mehreren Prozessoren (207) des elektronischen Geräts (200) unter Nutzung eines Erkennungssystems (217) oder anderer Komponenten des elektronischen Geräts 200 ermitteln, ob einer der mehreren Personen in der Umgebung 411 des elektronischen Geräts 200 Zugangsdaten zugeordnet sind, die zum Einloggen in das elektronische Gerät 200 verwendet werden können, um auf ein Benutzerkonto zuzugreifen. Hier haben sowohl die erste Person 409 als auch die zweite Person 410 Benutzerkonten auf dem elektronischen Gerät 200. Dementsprechend stellen die erste Person 409 und die zweite Person 410 jeweils einen autorisierten Benutzer des elektronischen Geräts 200 dar.
  • Bei Schritt 407 stellen der eine oder die mehreren Prozessoren (207) fest, dass die erste Person 409 das Augmented-Reality-Begleitgerät 100 bedient. Mit anderen Worten umfasst Schritt 407 in einer oder in mehreren Ausführungsformen, mit Hilfe des einen oder der mehreren Sensoren (218), des Bildgebers (216), des Erkennungssystems (217) oder anderer Komponenten des elektronischen Geräts 200 zu erkennen, dass der autorisierte Benutzer des elektronischen Geräts 200, hier die erste Person 409, das Augmented-Reality-Begleitgerät 100 bedient. Wie bei Schritt 401 gezeigt ist, bedient der autorisierte Benutzer in diesem Ausführungsbeispiel tatsächlich das Augmented-Reality-Begleitgerät 100.
  • Bei Schritt 408 wählen der eine oder die mehreren Prozessoren (207) des elektronischen Geräts der ersten Person 409 zugeordnete Zugangsdaten für das elektronische Gerät 200, und zwar aufgrund der Tatsache, dass die erste Person 409 das Augmented-Reality-Begleitgerät 100 bedient. Bei Schritt 408 loggen der eine oder die mehreren Prozessoren (207) mit den gewählten Zugangsdaten automatisch in ein Kontoprofil des elektronischen Geräts 200 ein, das der ersten Person 409 zugeordnet ist.
  • Wie bei Schritt 412 dargestellt ist, hat dieser automatische Login-Vorgang die erste Person, Buster, in das elektronische Gerät 200 eingeloggt. Dementsprechend wird die Anzeigeeinrichtung 301 des Inhaltpräsentations-Begleitgeräts die primäre Anzeigeeinrichtung für das elektronische Gerät 200, indem sie Inhalt 413 anzeigt. In dieser Darstellung umfasst der Inhalt 413 einen Desktop-Modus mit einem Begrüßungsbanner 418 und mit einer Mehrzahl von Benutzerzielen 414, 415, 416, 417, die einer oder mehreren Anwendungen zugeordnet sind. Durch Betätigen eines der Benutzerziele 414, 415, 416, 417 kann die erste Person 409 eine Anwendung aktivieren. In dem Ausführungsbeispiel von 4 findet der automatische Login bei Schritt 408 mit den Zugangsdaten statt, mit denen auf ein Benutzerprofil auf dem elektronischen Gerät zugegriffen werden kann, während mehrere Personen in der Umgebung des elektronischen Geräts 200 anwesend sind und trotz der Tatsache, dass sowohl die erste Person 409 als auch die zweite Person 410 autorisierte Benutzer des elektronischen Geräts 200 sind. Hier wählen der eine oder die mehreren Prozessoren (207) des elektronischen Geräts 200 automatisch die der ersten Person 409 zugeordneten Zugangsdaten, da die erste Person 409 das Augmented-Reality-Begleitgerät 100 bedient.
  • Dementsprechend enthält das elektronische Gerät 200, wie in 4 dargestellt ist, eine Kommunikationseinrichtung (209), die mit einem Inhaltpräsentations-Begleitgerät 300 elektronisch in Verbindung steht, das als primäre Anzeigeeinrichtung für das elektronische Gerät 200 fungiert. Die Kommunikationseinrichtung (209) steht elektronisch auch mit einem Augmented-Reality-Begleitgerät 100 in Verbindung, das von einem autorisierten Benutzer des elektronischen Geräts 200 getragen wird, der in diesem Fall die erste Person 409 ist.
  • Ein oder mehrere Sensoren (218), ein Erkennungssystem (217), ein Bildgeber (216) oder andere Komponenten des elektronischen Geräts 200 erkennen, dass sich in einer Umgebung 411 des elektronischen Geräts 200 mehrere Personen befinden. In einer oder in mehreren Ausführungsformen erfolgt diese Erkennung, während das Inhaltpräsentations-Begleitgerät 300 als primäre Anzeigeeinrichtung des elektronischen Geräts 200 wirksam ist. Der eine oder die mehreren Sensoren (218), ein Erkennungssystem (217), ein Bildgeber (216) oder andere Komponenten des elektronischen Geräts 200 identifizieren dann die Person, die das Augmented-Reality-Begleitgerät 100 bedient, die in diesem Fall die erste Person 409 ist. Der eine oder die mehreren Prozessoren (207) des elektronischen Geräts 200 wählen Zugangsdaten für das elektronische Gerät 200, die der ersten Person 409 zugeordnet sind, da die erste Person das Augmented-Reality-Begleitgerät 100 bedient. Der eine oder die mehreren Prozessoren (207) loggen dann mit den Zugangsdaten automatisch in ein Kontoprofil des elektronischen Geräts 200 ein, das der ersten Person zugeordnet ist.
  • Dieser automatische Login-Vorgang kann auch auf Anwendungsebene stattfinden. Es wird nunmehr auf 5 Bezug genommen, in der ein oder mehrere Verfahrensschritte dargestellt sind, die zeigen sollen, auf welche Weise dieser Vorgang stattfinden kann. Bei Schritt 501 hat ein elektronisches Gerät 200 eine Kommunikationseinrichtung (209), die mit elektronisch mit einem Inhaltpräsentations-Begleitgerät 300 in Verbindung steht, das als Druckentlastungseinrichtung für das elektronische Gerät 200 fungiert. Dies wird bei Schritt 502 von einem oder mehreren Prozessoren (207) des elektronischen Geräts 200 erkannt. Die Kommunikationseinrichtung (209) steht auch elektronisch mit einem Augmented-Reality-Begleitgerät 100 in Verbindung. Dies wird bei Schritt 503 von einem oder mehreren Prozessoren (207) des elektronischen Geräts 200 erkannt.
  • Bei Schritt 504 erkennen ein oder mehrere Sensoren (218) des elektronischen Geräts 200, dass sich in der Umgebung 411 des elektronischen Geräts 200 mehrere Personen befinden, während das Inhaltpräsentations-Begleitgerät 300 als primäre Anzeigeeinrichtung für das elektronische Gerät 200 fungiert. Die mehreren Personen sind hier eine erste Person 409 und eine zweite Person 410. In dieser Darstellung haben die erste Person 409 und die zweite Person 410 jeweils ein Kontoprofil auf dem elektronischen Gerät 200, auf das sie mit eigenen, einmaligen Zugangsdaten zugreifen können. Der eine oder die mehreren Prozessoren (207) des elektronischen Geräts 200 stellen bei Schritt 505 fest, dass das elektronische Gerät 200 mehrere Benutzerkonten unterstützt.
  • Bei den Schritten 506, 507, 508 identifizieren der eine oder die mehreren Prozessoren (207) von den mehreren Personen in der Umgebung 411 die Person, die das Augmented-Reality-Gerät 100 bedient und authentifizieren die das Augmented-Reality-Gerät 100 bedienende Person automatisch gegenüber dem elektronischen Gerät 200. Zum Beispiel stellen der eine oder die mehreren Prozessoren (207) bei Schritt 506 mit Hilfe des einen oder der mehreren Sensoren (208), eines Erkennungssystems (217), eines Bildgebers (216) oder anderer Komponenten des elektronischen Geräts 200 fest, ob eine oder beide Personen, die sich in der Umgebung 411 befinden, über Kontoprofile auf dem elektronischen Gerät 200 verfügen. In diesem Fall bestehen Kontoprofile auf dem elektronischen Gerät 200 sowohl für die erste Person 409 als auch für die zweite Person 410.
  • Bei Schritt 507 erkennen der eine oder die mehreren Prozessoren (207) wiederum mit Hilfe des einen oder der mehreren Sensoren (218), eines Erkennungssystems (217), eines Bildgebers (216) oder anderer Komponenten des elektronischen Geräts 200, dass die erste Person 409 das Augmented-Reality-Begleitgerät 100 bedient. Bei Schritt 508 wählen der eine oder die mehreren Prozessoren (207) Zugangsdaten für das elektronische Gerät 200, die der ersten Person 409 zugeordnet sind, und zwar aufgrund der Tatsache, dass die erste Person 409 das Augmented-Reality-Begleitgerät 100 bedient, und loggen automatisch in das Kontoprofil des elektronischen Geräts 200 ein, das der ersten Person 409 zugeordnet ist, wie vorangehend beschrieben.
  • Schritt 508 umfasst demnach, dass der eine oder die mehreren Prozessoren (207) des elektronischen Geräts 200 automatisch die das Augmented-Reality-Begleitgerät 100 bedienende Person, hier die erste Person 409, in das elektronische Gerät 200 einloggen, nachdem die das Augmented-Reality-Begleitgerät 100 bedienende Person als die Person identifiziert wurde, der ein autorisiertes Kontoprofil zugeordnet ist, das bei Schritt 507 aus einer Mehrzahl von Kontoprofilen ausgewählt wurde, die auf dem elektronischen Gerät 200 eingerichtet sind. In einer oder in mehreren Ausführungsformen umfasst dieser Schritt 508 das automatische Einloggen der das Augmented-Reality-Begleitgerät 100 bedienenden Person in das elektronische Gerät 200 durch die Wahl von Zugangsdaten für das elektronische Gerät 200, die der Person zugeordnet sind, die das Augmented-Reality-Begleitgerät 100 bedient.
  • Bei Schritt 509 aktiviert die erste Person 409 eine Email-Anwendung. Bei Schritt 509 erkennen der eine oder die mehreren Prozessoren (207) des elektronischen Geräts 200 diese Aktivierung der Email-Anwendung, die auf dem elektronischen Gerät 200 ausgeführt wird, deren ausgegebener Inhalt jedoch auf dem Inhaltpräsentations-Begleitgerät 300 angezeigt wird. Bei Schritt 510 ermitteln der eine oder die mehreren Prozessoren (207) des elektronischen Geräts die Art der Anwendung, die aktiviert wurde, die in diesem Fall eine Emailmanager-Anwendung ist.
  • Bei Schritt 511 stellen der eine oder die mehreren Prozessoren (207) des elektronischen Geräts 200 fest, dass der Anwendung mehrere Anwendungsprofile und den Anwendungsprofilen mehrere Anwendungsbenutzer zugeordnet sind. In diesem Beispiel haben sowohl die erste Person 409 als auch die zweite Person 410 Anwendungsprofile in der Email-Anwendung.
  • Bei Schritt 512 wählen der eine oder die mehreren Prozessoren (207) des elektronischen Geräts 200 Anwendungsprofil-Zugangsdaten, die der das Augmented-Reality-Begleitgerät 100 bedienenden Person zugeordnet sind, die in diesem Fall die erste Person 409 ist. Bei Schritt 512 loggen der eine oder die mehreren Prozessoren (207) des elektronischen Geräts 200 die erste Person 409 automatisch in ihr Anwendungsprofil der Anwendung ein, und zwar aufgrund der Tatsache, dass die erste Person 409 das Augmented-Reality-Begleitgerät 100 bedient. Dementsprechend umfasst Schritt 512 in einer oder in mehreren Ausführungsformen, dass der eine oder die mehreren Prozessoren (207) des elektronischen Geräts 200 die das Augmented-Reality-Begleitgerät 100 bedienende Person, hier die erste Person 409, auch in eine auf dem elektronischen Gerät 200 ausgeführte Anwendung automatisch einloggen, und zwar in Reaktion auf die bei Schritt 509, 510 erkannte Aktivierung der Anwendung. Anders ausgedrückt umfasst Schritt 512 in einer oder in mehreren Ausführungsformen, dass der eine oder die mehreren Prozessoren (207) die das Augmented-Reality-Begleitgerät 100 bedienende Person zusätzlich automatisch gegenüber einer auf dem elektronischen Gerät 200 ausgeführten Anwendung authentifizieren, und zwar in Reaktion auf die Aktivierung der Anwendung. Wie bei Schritt 513 gezeigt ist, kann der ausgegebene Inhalt der Anwendung dann auf der Anzeigeeinrichtung 301 des Inhaltpräsentations-Begleitgeräts 300 präsentiert werden.
  • Ausführungsformen der Erfindung berücksichtigen, dass die das Augmented-Reality-Begleitgerät 100 bedienende Person dies nicht konstant tut. Vielmehr kann sich die erste Person 409 entscheiden, keine Inhalte mehr anzusehen bzw. zu konsumieren, weil sie sich anderen Dingen zuwenden will, oder das Augmented-Reality-Erlebnis mit der zweiten Person 410 zu teilen. Aus diesem Grund und aus weiteren Gründen kann die erste Person 409 beschließen, die Bedienung des Augmented-Reality-Begleitgeräts 100 an eine andere Person zu übergeben, zum Beispiel an die zweite Person 410. Ausführungsformen der vorliegenden Erfindung sind geeignet, eines oder beide Benutzerkonten an dem elektronischen Gerät 200 oder Anwendungsprofile innerhalb einer Anwendung gegebenenfalls schnell und bequem zu wechseln. In 6, auf die nunmehr Bezug genommen wird, sind ein oder mehr Verfahrensschritte gezeigt, die darstellen, wie sich das bewerkstelligen lässt.
  • Schritt 601 beginnt dort, wo Schritt (513) von 5 geendet ist. Insbesondere ist ein System gezeigt, bei welchem das elektronische Gerät 200 einen oder mehrere Sensoren (218), eine Kommunikationseinrichtung (209) und einen oder mehrere Prozessoren (207) umfasst. Ein Inhaltpräsentations-Begleitgerät 300 steht elektronisch mit dem elektronischen Gerät 200 in Verbindung. Auch ein Augmented-Reality-Begleitgerät 100 steht mit dem elektronischen Gerät 200 in Verbindung.
  • Eine erste Person 409 und eine zweite Person 410 befinden sich in einer Umgebung 411 des elektronischen Geräts 200. Da sowohl die erste Person 409 als auch die zweite Person 410 ein Benutzerkonto auf dem elektronischen Gerät 100 und Anwendungsprofile in einer oder in mehreren Anwendungen, die auf dem Gerät 200 ausgeführt werden, unterhalten, haben der eine oder die mehreren Prozessoren (207) gewählt, welche Person in das elektronische Gerät 200 und in die auf dem elektronischen Gerät 200 ausgeführte Anwendung eingeloggt werden soll, und zwar basierend darauf, wer das Augmented-Reality-Begleitgerät 100 bedient. Hier haben der eine oder die mehreren Prozessoren (207) die erste Person 409 als die das elektronische Gerät 200 bedienende Person identifiziert. Der eine oder die mehreren Prozessoren (207) haben dann automatisch die erste Person 409 gegenüber dem elektronischen Gerät 200 authentifiziert, indem sie der ersten Person 409 zugeordnete Zugangsdaten für das elektronische Gerät 200 gewählt haben. Der eine oder die mehreren Prozessoren (207) haben die erste Person 409 automatisch auch in die auf dem elektronischen Gerät ausgeführte Anwendung eingeloggt, indem sie Zugangsdaten für das Anwendungsprofil gewählt und in Reaktion auf die Aktivierung der Anwendung an letztere bereitgestellt haben. Die erste Person 409, Buster, kann also ihre Email lesen.
  • Bei Schritt 602 übergibt die erste Person 409 die Bedienung des Augmented-Reality-Begleitgeräts 100 an die zweite Person 410. Der eine oder die mehreren Prozessoren (207) des elektronischen Geräts 200 erkennen diese Übergabe der Bedienung bei Schritt 602. Bei Schritt 403 identifizieren der eine oder die mehreren Prozessoren (207) mit Hilfe des einen oder der mehreren Sensoren (218), eines Erkennungssystems (217), eines Bildgebers (216) oder anderer Komponenten des elektronischen Geräts 200 eine weitere der Personen, die sich in der Umgebung 411 des elektronischen Geräts 200 befinden, wobei diese weitere Person das Augmented-Reality-Begleitgerät 100 nach erfolgter Übergabe bedient. Hier umfasst Schritt 603, dass der eine oder die mehreren Prozessoren (207) die zweite Person 410, die das Augmented-Reality-Begleitgerät 100 bedient, identifizieren.
  • Bei Schritt 604 präsentieren der eine oder die mehreren Prozessoren (207) optional einen Hinweis 608, der bei Schritt 602 gezeigt ist, mit der Aufforderung, das elektronische Gerät 200 von dem Kontoprofil, das derjenigen Person zugeordnet ist, die das Augmented-Reality-Begleitgerät 100 vor Übergabe bedient hat, die in diesem Beispiel die erste Person 409 ist, nach Übergabe auf die andere Person, in diesem Beispiel die zweite Person 410, die das Augmented-Reality-Begleitgerät 100 bedient, zu überführen. In anderen Ausführungsformen entfällt der Hinweis, und es erfolgt ein automatischer Übergang von einem Kontoprofil der ersten Person 409 zu einem anderen Kontoprofil der zweiten Person 410. Die Präsentation des Hinweises 608 ermöglicht der zweiten Person 410 in vorteilhafter Weise zu wählen, ob sie den vorher präsentierten Inhalt weiter ansehen oder zu einem Inhalt wechseln möchte, der möglicherweise wünschenswerter ist. Da der Inhalt hier Busters Email ist, ist es wahrscheinlich, dass die zweite Person 410 lieber ihren eigenen Inhalt ansehen möchte, es sei denn, sie ist neugierig oder ein Schnüffler. Wie bei Schritt 602 gezeigt ist, erhalten der eine oder die mehreren Prozessoren (207) des elektronischen Geräts 200 in Reaktion auf den Hinweis bzw. die Aufforderung von Schritt 604 eine Antwort 609 in Form einer Autorisierung der Überführung des elektronischen Geräts 200 von einem Kontoprofil, das der ersten Person 409 zugeordnet ist, zu einem anderen Kontoprofil, das der zweiten Person 410 zugeordnet ist.
  • Bei Schritt 605 identifizieren der eine oder die mehreren Prozessoren (207) des elektronischen Geräts 200 mit Hilfe des einen oder der mehreren Sensoren (218), eines Erkennungssystems (217), eines Bildgebers (216) oder anderer Komponenten des elektronischen Geräts 200 die zweite Person 410 als eine Person, die ein Kontoprofil auf dem elektronischen Gerät 200 unterhält. Dementsprechend wählen der eine oder die mehreren Prozessoren (207) des elektronischen Geräts 200 andere Zugangsdaten für das elektronische Gerät 200, die der zweiten Person 410 zugeordnet sind, und zwar aufgrund der Tatsache, dass nunmehr die zweite Person 410 das Augmented-Reality-Begleitgerät 100 bedient. Bei Schritt 606 loggen der eine oder die mehreren Prozessoren (207) des elektronischen Geräts 200 automatisch in das Kontoprofil des elektronischen Geräts 200 ein, das der zweiten Person 410 zugeordnet ist, und zwar aufgrund der Tatsache, dass nach der Übergabe der Bedienung von der ersten Person 409 an die zweite Person 410 nunmehr die zweite Person 410 das Augmented-Reality-Begleitgerät 100 bedient.
  • Wie bei Schritt 607 gezeigt ist, hat dieser automatische Login-Vorgang die zweite Person 410, Henry, in das elektronische Gerät 200 eingeloggt bzw. an diesem angemeldet. Dementsprechend wird die Anzeigeeinrichtung 301 des Inhaltpräsentations-Begleitgeräts 300 zur primären Anzeigeeinrichtung für das elektronische Gerät 200, indem sie Inhalt 610 präsentiert. In dieser Darstellung umfasst der Inhalt 610 einen anderen Desktop-Modus mit einem anderen Begrüßungsbanner und mit einer Mehrzahl von Benutzerzielen, die einer oder mehreren Anwendungen zugeordnet sind. Durch die Betätigung eines der Benutzerziele kann die zweite Person 410 eine Anwendung aktivieren. In dem Darstellungsbeispiel von 6 findet der automatische Login bei Schritt 606 statt, während sich mehrere Personen in der Umgebung 411 des elektronischen Geräts 200 befinden und trotz der Tatsache, dass die erste Person 409 und auch die zweite Person 410 autorisierte Benutzer des elektronischen Geräts 200 sind mit Zugangsdaten, die den Zugang zu einem Benutzerprofil auf dem elektronischen Gerät 200 erlauben. Hier wählen der eine oder die mehreren Prozessoren (207) des elektronischen Geräts 200 automatisch die Zugangsdaten, die der zweiten Person 410 zugeordnet sind, weil die erste Person 409 die Bedienung des Augmented-Reality-Begleitgeräts 100 an die zweite Person 410 übergeben hat, so dass nach der Übergabe nunmehr die zweite Person 410 das Augmented-Reality-Begleitgerät 100 bedient.
  • Zusätzlich zu dem automatischen Einloggen in ein Kontoprofil des elektronischen Geräts 200 mit Zugangsdaten, die abhängig von einer das Augmented-Reality-Begleitgerät 100 bedienenden Person gewählt werden, und zusätzlich zu dem automatischen Einloggen eines Benutzers in ein Anwendungsprofil einer Anwendung mit Anwendungsprofil-Zugangsdaten, die abhängig davon gewählt werden, wer das Augmented-Reality-Begleitgerät 100 bedient, und zusätzlich zu dem Wechseln des Kontoprofils und/oder des Anwendungsprofils oder beider Profile, wenn die Bedienung des Augmented-Reality-Begleitgeräts 100 von einer Person an eine andere übergeben wird, können Ausführungsformen der Erfindung auch andere Vorgänge durchführen. Diese anderen Vorgänge beinhalten, dass mehrere Benutzer unterstützt werden, deren jeder sein eigenes Augmented-Reality-Begleitgerät bedient, und dass auch Filterungsvorgänge durchgeführt werden. In 7, auf die nunmehr Bezug genommen wird, sind ein oder mehr Verfahrensschritte gezeigt, die darstellen, wie diese zusätzlichen Funktionen stattfinden können.
  • Beginnend bei Schritt 701 steht ein elektronisches Gerät 200 sowohl mit einem Inhaltpräsentations-Begleitgerät 300 als auch mit einem Augmented-Reality-Begleitgerät 100 elektronisch in Verbindung. Eine erste Person 409 bedient das Augmented-Reality-Begleitgerät 100. Auch wenn diese Person die einzige Person in einer Umgebung 411 des elektronischen Geräts 200 ist, loggen ein oder mehrere Prozessoren (207) des elektronischen Geräts 200 in diesem Ausführungsbeispiel die erste Person 409 automatisch in das elektronische Gerät 200 ein, und zwar aufgrund der Tatsache, dass die erste Person 409 von dem einen oder den mehreren Prozessoren (207) als die Person identifiziert wird, die das Augmented-Reality-Begleitgerät 100 bedient. Wie vorstehend beschrieben, können der eine oder die mehreren Prozessoren (207) dies bewerkstelligen, indem sie Zugangsdaten für das elektronische Gerät 200 wählen, die der ersten Person 409 zugeordnet sind, und zwar aufgrund der Tatsache, dass die erste Person 409 das Augmented-Reality-Begleitgerät 100 bedient, und indem sie diese Zugangsdaten in das elektronische Gerät 200 eingeben. In diesem Beispiel haben der eine oder die mehreren Prozessoren (207) des elektronischen Geräts 200 die erste Person 409 automatisch auch in ein Anwendungsprofil einer Anwendung eingeloggt, die der ersten Person zugeordnet ist (hier eine Video-Anwendung), indem sie Anwendungsprofil-Zugangsdaten gewählt haben, die der ersten Person 409 zugeordnet sind, und diese Zugangsdaten in die Anwendung eingegeben haben. Wie bei Schritt 701 gezeigt ist, wird der ersten Person 409 dadurch ermöglicht, Inhalt in Form eines Films anzusehen.
  • Bei Schritt 702 hat sich eine zweite Person 410 in die Umgebung 411 des elektronischen Geräts 200 begeben. Auch die zweite Person 410 bedient ein Augmented-Reality-Begleitgerät 708. Der eine oder die mehreren Prozessoren (207) erkennen mit Hilfe des einen oder der mehreren Sensoren (218), eines Erkennungssystems (217), eines Bildgebers (216) und anderer Komponenten des elektronischen Geräts 200, dass sich die zweite Person 410 in der Umgebung 411 des elektronischen Geräts 200 befindet, erkennen, wer die zweite Person 410 ist, und dass die zweite Person 410 ein zweites Augmented-Reality-Begleitgerät 708 bedient.
  • Ausgehend von dieser Situation kann sich Verschiedenes ereignen. Zunächst kann es sein, dass die erste Person 409 und die zweite Person 410 sich gegenseitig auf eine Vorrangstruktur geeinigt haben, die in einer oder mehreren Benutzereinstellungen des elektronischen Geräts 200 festgelegt wird und angibt, welches Kontoprofil und/oder Anwendungsprofil verwendet werden soll, wenn sich die erste Person 409 und die zweite Person 410 in der Umgebung 411 des elektronischen Geräts 200 befinden und die erste Person 409 und die zweite Person 410 jeweils ihr eigenes Augmented-Reality-Begleitgerät 100, 708 nutzen. Ist die erste Person 409 der Vater und die zweite Person 410 der Sohn, so hat der Vater möglicherweise Vorrang, wenn es um den Konsum von Inhalten geht. Wenn alternativ die erste Person 409 ein autorisierter Benutzer des elektronischen Geräts und die zweite Person 410 ein Gast ist, der nicht berechtigt ist, sich in ein Kontoprofil oder Anwendungsprofil einer Anwendung einzuloggen, kann auch in diesem Fall die erste Person 409 Vorrang genießen.
  • Zweitens können der eine oder die mehreren Prozessoren 207 einen Hinweis anzeigen mit der Aufforderung anzugeben, welches Kontoprofil und/oder Anwendungsprofil verwendet werden soll. Wenn die erste Person 409 der Ehegatte und die zweite Person 410 die Ehegattin ist, können der eine oder die mehreren Prozessoren (207) auf der Anzeigeeinrichtung 301 des Inhaltpräsentations-Begleitgeräts 300 einen Hinweis anzeigen: „Es wurden zwei Benutzer dieses Geräts (oder dieser Anwendung) erkannt. Welches Kontoprofil (oder Anwendungsprofil) soll gewählt werden?“ Ab da können sich die erste Person 409 und die zweite Person 410 einigen, welches Kontoprofil oder Anwendungsprofil verwendet werden soll. Danach können der eine oder die mehreren Prozessoren (207) des elektronischen Geräts automatisch Zugangsdaten wählen, um die identifizierte Person gegenüber dem elektronischen Gerät 200 zu authentifizieren, und/oder Anwendungsprofil-Zugangsdaten, um die identifizierte Person in eine Anwendung einzuloggen, wie vorstehend beschrieben.
  • In dem Ausführungsbeispiel von 7 findet stattdessen eine Filterung statt. In einer oder in mehreren Ausführungsformen können der eine oder die mehreren Prozessoren (207) mit Hilfe des einen oder der mehreren Sensoren (218), eines Erkennungssystems (217), eines Bildgebers (216) oder anderer Komponenten des elektronischen Geräts 200 erkennen, dass zumindest eine Person, die das Augmented-Reality-Begleitgerät 100 bedient, minderjährig ist. Trifft dies zu, können der eine oder die mehreren Prozessoren (207) zumindest einen Teil des Inhalts, der von dem elektronischen Gerät 200 zur Verfügung gestellt wird, filtern und damit ausschließen, dass dieser Teil des Inhalts auf dem Inhaltpräsentations-Begleitgerät 300 angezeigt wird.
  • Wie bei Schritt 701 gezeigt ist, ist der konsumierte Inhalt 707 ein Film für Erwachsene. Bei Schritt 703 stellen der eine oder die mehreren Prozessoren (207) mit Hilfe des einen oder der mehreren Sensoren (218), eines Erkennungssystems (217), eines Bildgebers (216) und anderer Komponenten des elektronischen Geräts 200 fest, dass sich eine zweite Person 410 in die Umgebung 411 des elektronischen Geräts 200 begeben hat. Der eine oder die mehreren Prozessoren (207) stellen ebenfalls fest, dass die zweite Person 410 ein weiteres Augmented-Reality-Begleitgerät 708 bedient. (Anstelle der Erkennung der zweiten Person 410, die ein eigenes Augmented-Reality-Begleitgerät 708 bedient, wie in 2 gezeigt, können der eine oder die mehreren Prozessoren (207) alternativ auch eine Übergabe des von der ersten Person 409 bedienten Augmented-Reality-Begleitgeräts 100 an die zweite Person 410 erkennen).
  • Bei Schritt 704 stellen der eine oder die mehreren Prozessoren (207) wiederum mit Hilfe des einen oder der mehreren Sensoren (218), eines Erkennungssystems (217), eines Bildgebers (216) und anderer Komponenten des elektronischen Geräts 200 fest, dass die das zweite Augmented-Reality-Begleitgerät 708 bedienende zweite Person 410 minderjährig ist. Dieser Schritt 704 kann auf verschiedene Weise erfolgen.
  • Zum Beispiel kann ein Bildgeber (216) des elektronischen Geräts 200 ein Bild von der zweiten Person 410 aufnehmen.
  • Das Erkennungssystem (217), der Gesichtsanalysator (219), der Umgebungsanalysator (220), das Kontextmodul (222) oder andere Komponenten des elektronischen Systems 200 können zumindest ein persönliches Merkmal der zweiten Person 410 erkennen, um festzustellen, ob die zweite Person 410 minderjährig ist. Dies kann mittels Gesichtserkennung, Spracherkennung, Tiefenscan-Erkennung oder andere vorstehend beschriebene Techniken geschehen.
  • In dem Ausführungsbeispiel von 7 wird eine andere Technik angewendet. Und zwar bestimmen der eine oder die mehreren Prozessoren (207) des elektronischen Geräts 200, ob eine Person in der Umgebung 411 des elektronischen Geräts 200 eine minderjährige Person ist, indem ermittelt wird, ob eine Größe des Augmented-Reality-Begleitgeräts 100, 708, das mit dem elektronischen Gerät 200 in Verbindung steht, unter einer vordefinierten oder vorher bestimmten Schwellengröße des Augmented-Reality-Begleitgeräts liegt. Wenn das Augmented-Reality-Begleitgerät 708 ein kleines Augmented-Reality-Begleitgerät ist, das für eine kleinere Person passend ist, können der eine oder die mehreren Prozessoren (207) daraus schließen, dass es sich bei der zweiten Person 410 um eine minderjährige Person handelt.
  • Die Größe des Augmented-Reality-Begleitgeräts 708 lässt sich auf verschiedene Weise bestimmen. Und zwar kann hierfür wiederum eine Bildanalyse angewendet werden. Der eine oder die mehreren Prozessoren (207) können optional in Verbindung mit dem Erkennungssystem (217), dem Gesichtsanalysator (219), dem Umgebungsanalysator (220), dem Kontextmodul (222) oder anderen Komponenten des elektronischen Geräts 200 eine Bildanalyse durchführen, um eine Größe des Augmented-Reality-Begleitgeräts 708 relativ zu anderen Elementen in der Umgebung 411 zu bestimmen. Alternativ kann Schritt 706 umfassen, dass die Kommunikationseinrichtung (209) des elektronischen Geräts 200 mit Hilfe von elektronischen Kommunikationssignalen das Augmented-Reality-Begleitgerät 708 abfragt, um seine Größe zu bestimmen. Schritt 704 kann dann umfassen, dass der eine oder die mehreren Prozessoren (207) ermitteln, ob die Größe des Augmented-Reality-Begleitgeräts 708 unter einer vorgegebenen Schwellengröße liegt.
  • Wenn festgestellt wird, dass die zweite Person 410 (oder eine andere Person in der Umgebung 411 des elektronischen Geräts 200) minderjährig ist, umfasst Schritt 705 in einer oder in mehreren Ausführungsformen das Filtern zumindest eines Teils des Inhalts, der von dem elektronischen Gerät 200 zur Verfügung gestellt wird, um auszuschließen, dass der gefilterte Inhalt auf dem Inhaltpräsentations-Begleitgerät 300 angezeigt wird. In dem Ausführungsbeispiel von 7 unterbrechen der eine oder die mehreren Prozessoren (207) (wie bei Schritt 401 gezeigt) als zusätzliche Maßnahme den Inhalt 707, der vorher auf dem Inhaltpräsentations-Begleitgerät 300 angezeigt wurde. Wie bei Schritt 706 gezeigt ist, können der eine oder die mehreren Prozessoren (207) dann zu dem nicht ausgefilterten Inhalt 709 wechseln, der für einen Minderjährigen geeignet ist. Sollte ein Erwachsener (wenn die erste Person 409 vielleicht ein Elternteil der zweiten Person 410 ist) entscheiden, dass der Minderjährige den ursprünglich präsentierten Inhalt 707 sehen darf, kann die erste Person 409 eine bei Schritt 705 stattfindende Filterung auch aufheben. Solchermaßen wird der Zugang des Minderjährigen zu Inhalten erweitert, indem seine Erlaubnisbeschränkung umgangen und ihm stattdessen eine Auswahl von Inhalten angeboten wird, die den von den Eltern erlaubten Inhalten entsprechen.
  • Somit ermöglichen Ausführungsformen der Erfindung, wie in 7 gezeigt, dass das elektronische Gerät 200 die Präsentation von Erwachsenen vorbehaltenem Inhalt 707 aussetzt bzw. unterbricht, wenn sich in der Umgebung 411 des elektronischen Geräts 200 eine minderjährige Person aufhält. Wie bei Schritt 706 gezeigt ist, kann das elektronische Gerät 200 in Reaktion auf die Feststellung, dass das Augmented-Reality-Begleitgerät 708 eine für ein Augmented-Reality-Begleitgerät vorgegebene Größe unterschreitet, den Inhalt 707 außerdem in einen „kindgerechten“ Inhalt 709 ändern. In diesem Beispiel ändert das elektronische Gerät 200 die Inhaltpräsentation, indem es einen anderen Inhalt 709 als den ausgefilterten, d.h. den Inhalt 707, präsentiert. Hier ist der andere, nicht ausgefilterte Inhalt der Inhalt 709, nämlich Tommys Spielzeugeisenbahnparade. Dieser Inhalt 709 ist kindgerecht und wird deshalb auf dem Inhaltpräsentations-Begleitgerät 300 angezeigt. Wie in 7 gezeigt und mit Bezug auf 7 beschrieben ist, können der eine oder die mehreren Prozessoren (207) des elektronischen Geräts 200 optional über die Größe eines erkannten Augmented-Reality-Begleitgeräts feststellen, dass sich eine minderjährige Person in eine Umgebung 411 des elektronischen Geräts 200 begibt. Optionale Aktionen in Reaktion auf dieses Ereignis umfassen das Unterbrechen des Inhalts 707 und/oder das Umschalten auf kindgerechten Inhalt 709.
  • Es wird nunmehr auf 8 Bezug genommen, in der verschiedene Ausführungsformen der Erfindung dargestellt sind, und zwar in Form von beschrifteten Feldern, da die einzelnen Komponenten dieser Ausführungsformen in den vorangehenden 1-7 bereits im Detail dargestellt wurden und deren wiederholte Beschreibung an dieser Stelle entfallen kann.
  • Bei 801 umfasst ein Verfahren bei einem elektronischen Gerät, dass mit einem oder mehreren Prozessoren festgestellt wird, dass eine Kommunikationseinrichtung mit einem Inhaltpräsentations-Begleitgerät, das als primäre Anzeigeeinrichtung für das elektronische Gerät fungiert, wie auch mit einem Augmented-Reality-Begleitgerät in Verbindung steht. Bei 801 umfasst das Verfahren, dass mit Hilfe eines oder mehrerer Sensoren festgestellt wird, dass sich mehrere Personen in einer Umgebung des elektronischen Geräts befinden, während das Inhaltpräsentations-Begleitgerät als primäre Anzeigeeinrichtung für das elektronische Gerät dient.
  • Bei 801 umfasst das Verfahren, dass mit dem einen oder den mehreren Prozessoren eine von diesen mehreren Personen eine Person identifiziert wird, die das Augmented-Reality-Begleitgerät bedient. Bei 801 umfasst das Verfahren, dass mit dem einen oder den mehreren Prozessoren Zugangsdaten für das elektronische Gerät gewählt werden, die der Person zugeordnet sind, die das Augmented-Reality-Begleitgerät bedient. Bei 801 umfasst das Verfahren das automatische Einloggen mit den Zugangsdaten in ein Kontoprofil des elektronischen Geräts, das der Person zugeordnet ist, die das Augmented-Reality-Begleitgerät bedient.
  • Bei 802 erfolgt das automatische Einloggen in das Kontoprofil, das der Person zugeordnet ist, die das Augmented-Reality-Begleitgerät von 801 bedient, während mehrere Personen in der Umgebung anwesend sind.
  • Bei 803 umfasst das Verfahren 801 ferner, dass mit dem einen oder den mehreren Sensoren eine Übergabe des Augmented-Reality-Begleitgeräts von einer Person an eine andere der mehreren Personen festgestellt wird. Bei 803 umfasst das Verfahren, dass mit dem einen oder den mehreren Prozessoren die andere Person, die das Augmented-Reality-Begleitgerät nach erfolgter Übergabe bedient, unter den mehreren Personen identifiziert wird.
  • Bei 803 umfasst das Verfahren, dass mit dem einen oder den mehreren Prozessoren andere Zugangsdaten für das elektronische Gerät gewählt werden, die der Person zugeordnet sind, die das Augmented-Reality-Begleitgerät nach erfolgter Übergabe bedient. Bei 803 umfasst das Verfahren in Reaktion darauf, dass der Übergabevorgang festgestellt wurde, das automatische Einloggen mit den anderen Zugangsdaten in ein anderes Kontoprofil des elektronischen Geräts, das der anderen Person zugeordnet ist, die das Augmented-Reality-Begleitgerät bedient.
  • Bei 804 umfasst das Verfahren von 801 ferner, dass mit dem einen oder den mehreren Prozessoren eine Aktivierung einer auf dem elektronischen Gerät ausgeführten Anwendung erkannt wird. Bei 804 umfasst das Verfahren, dass mit dem einen oder den mehreren Prozessoren festgestellt wird, dass der Anwendung mehrere Anwendungsprofile zugeordnet sind, die wiederum mehreren Nutzern der Anwendung zugeordnet sind.
  • Bei 804 umfasst das Verfahren, dass mit dem einen oder den mehreren Prozessoren Anwendungsprofil-Zugangsdaten gewählt werden, die der Person zugeordnet sind, die das Augmented-Reality-Begleitgerät bedient. Bei 804 umfasst das Verfahren das automatische Einloggen mit den Anwendungsprofil-Zugangsdaten in das Anwendungsprofil der Anwendung, das der Person zugeordnet ist, die das Augmented-Reality-Begleitgerät bedient.
  • Bei 805 umfasst das Verfahren von 804, dass mit Hilfe des einen oder der mehreren Sensoren eine Übergabe des Augmented-Reality-Begleitgeräts von der Person an eine andere von den mehreren Personen festgestellt wird. Bei 805 umfasst das Verfahren, dass mit dem einen oder den mehreren Prozessoren unter den mehreren Personen die andere Person, die das Augmented-Reality-Begleitgerät nach erfolgter Übergabe bedient, identifiziert wird.
  • Bei 805 umfasst das Verfahren, dass mit dem einen oder den mehreren Prozessoren andere Anwendungsprofil-Zugangsdaten für die Anwendung gewählt werden, die der anderen Person zugeordnet sind, die das Augmented-Reality-Begleitgerät nach erfolgter Übergabe bedient. Bei 805 umfasst das Verfahren, dass in Reaktion auf das Erkennen eines Übergabevorgangs das automatische Einloggen mit den anderen Anwendungsprofil-Zugangsdaten in ein anderes Anwendungsprofil der Anwendung erfolgt, das der anderen Person zugeordnet ist, die das Augmented-Reality-Begleitgerät bedient.
  • Bei 806 umfasst das Verfahren von 801 ferner, dass mit Hilfe des einen oder der mehreren Sensoren ein Vorgang zur Übergabe der Bedienung des Augmented-Reality-Begleitgeräts von der Person an eine andere Person unter den mehreren Personen erkannt wird. Bei 806 umfasst das Verfahren, dass mit Hilfe des einen oder der mehreren Prozessoren diese andere Person, die nach Übergabe der Bedienung das Augmented-Reality-Begleitgerät bedient, unter den anderen Personen identifiziert wird. Bei 806 umfasst das Verfahren, dass mit dem einen oder den mehreren Prozessoren ein Hinweis angezeigt wird, der die Autorisierung des Übergangs des elektronischen Geräts von dem Kontoprofil, das der Person zugeordnet ist, die das Augmented-Reality-Gerät vor dem Übergang bedient, zu dem Kontoprofil der anderen Person, die das Augmented-Reality-Begleitgerät nach dem Übergang bedient, auffordert.
  • Bei 807 umfasst das Verfahren von 806, dass in Reaktion auf diese Aufforderung durch den einen oder die mehreren Prozessoren die Autorisierung erhalten wird zur Überführung des elektronischen Geräts von dem Kontoprofil, das der Person zugeordnet ist, die das Augmented-Reality-Begleitgerät vor Übergabe der Bedienung an eine andere Person bedient, zu dem Kontoprofil, das der anderen Person zugeordnet ist, die das Augmented-Reality-Begleitgerät nach erfolgter Übergabe bedient. Bei 807 umfasst das Verfahren, dass mit dem einen oder den mehreren Prozessoren andere Zugangsdaten für das elektronische Gerät gewählt werden, die der anderen Person zugeordnet sind, die das Augmented-Reality-Begleitgerät nach erfolgter Übergabe der Bedienung bedient. Bei 807 umfasst das Verfahren in Reaktion auf den erkannten Übergabevorgang das automatische Einloggen mit den anderen Zugangsdaten in ein anderes Kontoprofil des elektronischen Geräts, das der anderen Person zugeordnet ist, die das Augmented-Reality-Begleitgerät bedient.
  • Bei 808 umfasst das Verfahren 801 ferner, dass durch den einen oder die mehreren Prozessoren festgestellt wird, dass die das Augmented-Reality-Begleitgerät bedienende Person eine minderjährige Person ist. Bei 808 umfasst das Verfahren, dass durch den einen oder die mehreren Prozessoren zumindest ein Teil des Inhalts, der von dem elektronischen Gerät zur Verfügung gestellt wird, gefiltert wird, um auszuschließen, dass zumindest dieser Teil des Inhalts, der von dem elektronischen Gerät zur Verfügung gestellt wird, auf dem Inhaltpräsentations-Begleitgerät dargestellt wird.
  • Bei 809 umfasst die Feststellung bei 808, dass es sich bei der Person, die das Augmented-Reality-Begleitgerät bedient, um eine minderjährige Person handelt, dass der eine oder die mehreren Sensoren erkennen, dass eine Größe des Augmented-Reality-Begleitgeräts unterhalb einer vorgegebenen Schwellengröße liegt. Bei 810 umfasst die Feststellung bei 808, dass die Person, die das Augmented-Reality-Begleitgerät bedient, eine minderjährige Person ist, dass die Kommunikationseinrichtung das Augmented-Reality-Begleitgerät abfragt, um zu bestimmen, dass eine Größe des Augmented-Reality-Begleitgeräts unter einer vorgegebenen Schwellengröße liegt.
  • Bei 811 umfasst ein elektronisches Gerät eine Kommunikationseinrichtung, die elektronisch mit einem Inhaltpräsentations-Begleitgerät in Verbindung steht, das als primäre Anzeigeeinrichtung für das elektronische Gerät und ein Augmented-Reality-Begleitgerät fungiert. Bei 811 umfasst das elektronische Gerät einen oder mehrere Sensoren, die in einer Umgebung des elektronischen Geräts mehrere Personen erfassen, während das Inhaltpräsentations-Begleitgerät als primäre Anzeigeeinrichtung für das elektronische Gerät fungiert.
  • Bei 811 umfasst das elektronische Gerät einen oder mehrere Prozessoren, die eine das Augmented-Reality-Begleitgerät bedienende Person in das elektronische Gerät einloggen, nachdem die das Augmented-Reality-Begleitgerät bedienende Person als eine Person erkannt wird, der ein autorisiertes Kontoprofil zugeordnet ist, das aus einer Mehrzahl von Kontoprofilen gewählt wird, die auf dem elektronischen Gerät erstellt sind. Bei 812 loggen der eine oder die mehreren Prozessoren von 811 die das Augmented-Reality-Begleitgerät bedienende Person automatisch in das elektronische Gerät ein, indem Zugangsdaten für das elektronische Gerät gewählt werden, die der das Augmented-Reality-Begleitgerät bedienenden Person zugeordnet sind.
  • Bei 813 fordern der eine oder die mehreren Prozessoren von 811 die Erlaubnis an für den Wechsel von dem autorisierten Kontoprofil zu einem anderen autorisierten Kontoprofil, in Reaktion darauf, dass von dem einen oder den mehreren Sensoren eine Übergabe der Bedienung des Augmented-Reality-Begleitgeräts von der Person auf ein andere der mehreren Personen erkannt wurde. Bei 814 wechseln der eine oder die mehreren Prozessoren von 811 in Reaktion auf die von dem einen oder den mehreren Sensoren erkannte Übergabe der Bedienung des Augmented-Reality-Begleitgeräts von der Person an eine andere der mehreren Personen von dem autorisierten Kontoprofil zu einem anderen autorisierten Kontoprofil.
  • Bei 815 filtern der eine oder die mehreren Prozessoren von 811 zumindest einen Teil des Inhalts, der von dem elektronischen Gerät zur Verfügung gestellt wird, indem die Darstellung zumindest dieses Teils des Inhalts auf dem Inhaltpräsentations-Begleitgerät ausgeschlossen wird, wenn der eine oder die mehreren Prozessoren feststellen, dass eine Größe des Augmented-Reality-Begleitgeräts geringer ist als eine vorgegebene Schwellengröße eines Augmented-Reality-Begleitgeräts. Bei 816 loggen der eine oder die mehreren Prozessoren von 811 die das Augmented-Reality-Begleitgerät bedienende Person automatisch auch in eine Anwendung ein, die auf dem elektronischen Gerät ausgeführt wird, und zwar in Reaktion auf die Aktivierung der Anwendung.
  • Bei 817 umfasst ein System ein elektronisches Gerät mit einem oder mehreren Sensoren, einer Kommunikationseinrichtung und einem oder mehreren Prozessoren. Bei 817 umfasst das System ein Inhaltpräsentations-Begleitgerät, das elektronisch mit dem elektronischen Gerät in Verbindung steht. Bei 817 umfasst das System ein Augmented-Reality-Begleitgerät, das mit dem elektronischen Gerät in Verbindung steht. Bei 817 identifizieren der eine oder die mehreren Prozessoren unter den mehreren Personen eine Person, die das Augmented-Reality-Begleitgerät bedient und authentifizieren die das Augmented-Reality-Begleitgerät bedienende Person automatisch gegenüber dem elektronischen Gerät.
  • Bei 818 authentifizieren der eine oder die mehreren Prozessoren von 817 die das Augmented-Reality-Begleitgerät bedienende Person automatisch auch gegenüber einer Anwendung, die auf dem elektronischen Gerät ausgeführt wird, und zwar in Reaktion auf die Aktivierung der Anwendung. Bei 819 ermitteln der eine oder die mehreren Prozessoren ein Größe des Augmented-Reality-Begleitgeräts und filtern Inhalt im Hinblick auf die Darstellung auf dem Inhaltpräsentations-Begleitgerät, wenn die Größe des Augmented-Reality-Begleitgeräts unterhalb einer vorgegebenen Schwellengröße liegt. Bei 820 authentifizieren der eine oder die mehreren Prozessoren von 817 ein andere der mehreren Personen gegenüber dem elektronischen Gerät, wenn die das Augmented-Reality-Begleitgerät bedienende Person die Bedienung des Geräts an die andere Person übergibt.
  • In der vorstehenden Beschreibung wurden bestimmte Ausführungsformen der vorliegenden Erfindung ausführlich erläutert. Jedoch wird der Fachmann erkennen, dass innerhalb des Rahmens der Erfindung, der durch die anliegenden Ansprüche definiert wird, verschiedene Modifikationen und Änderungen möglich sind und dass die Erfindung nicht auf die dargestellten und beschriebenen Ausführungsformen beschränkt ist. Innerhalb des Grundgedankens der vorliegenden Erfindung erschließen sich dem Fachmann zahlreiche Modifikationen, Änderungen, Substitutionen und Äquivalente.
  • Solchermaßen dienen die Beschreibung wie auch die Figuren lediglich Darstellungs- und Erläuterungszwecken und stellen keine Einschränkung der Erfindung dar. Sämtliche Modifikationen fallen in den Schutzbereich der vorliegenden Erfindung. Der Nutzen, die Vorteile, die Problemlösungen und alle Elemente, die dazu führen können, dass ein solcher Nutzen oder eine solche Lösung entstehen oder stärker hervortreten, sind nicht als entscheidende, erforderliche oder wesentliche Merkmale oder Elemente eines oder aller Ansprüche zu verstehen.

Claims (20)

  1. Verfahren bei einem elektronischen Gerät, umfassend: das Erkennen mit einem oder mehreren Prozessoren, dass eine Kommunikationseinrichtung in Verbindung steht mit: sowohl einem Inhaltpräsentations-Begleitgerät, das als primäre Anzeigeeinrichtung für das elektronische Gerät fungiert; wie auch mit einem Augmented-Reality-Begleitgerät; das Erkennen mit Hilfe eines oder mehrerer Sensoren, dass sich in einer Umgebung des elektronischen Geräts mehrere Personen befinden, während das Inhaltpräsentations-Begleitgerät als primäre Anzeigeeinrichtung für das elektronische Gerät fungiert; das Identifizieren einer Person unter den mehreren Personen, die das Augmented-Reality-Begleitgerät bedient, mit dem einen oder den mehreren Prozessoren; das Wählen von Zugangsdaten für das elektronische Gerät, die der das Augmented-Reality-Begleitgerät bedienenden Person zugeordnet sind, mit dem einen oder den mehreren Prozessoren; und das automatische Einloggen mit den Zugangsdaten in ein Kontoprofil des elektronischen Geräts, das der Person zugeordnet ist, die das Augmented-Reality-Begleitgerät bedient.
  2. Verfahren nach Anspruch 1, wobei das automatische Einloggen in das Kontoprofil, das der das Augmented-Reality-Begleitgerät bedienenden Person zugeordnet ist, stattfindet, während in der Umgebung mehrere Personen anwesend sind.
  3. Verfahren nach Anspruch 1 oder 2, ferner umfassend: das Erkennen einer Übergabe der Bedienung des Augmented-Reality-Begleitgeräts von der Person an eine andere der mehreren Personen mit Hilfe des einen oder der mehreren Sensoren; das Identifizieren der anderen Person unter den mehreren Personen, die das Augmented-Reality-Begleitgerät nach erfolgter Übergabe bedient, mit dem einen oder den mehreren Prozessoren; das Wählen von anderen Zugangsdaten für das elektronische Gerät, die der anderen Person zugeordnet sind, die das Augmented-Reality-Begleitgerät nach erfolgter Übergabe bedient, mit dem einen oder den mehreren Prozessoren; und in Reaktion auf das Erkennen der Übergabe der Bedienung das automatische Einloggen mit den anderen Zugangsdaten in ein anderes Kontoprofil des elektronischen Geräts, das der anderen Person zugeordnet ist, die das elektronische Gerät bedient.
  4. Verfahren nach einem der vorangehenden Ansprüche, ferner umfassend: das Erkennen einer Aktivierung einer Anmeldung, die auf dem elektronischen Gerät ausgeführt wird, mit dem einen oder den mehreren Prozessoren; das Feststellen, dass der Anwendung eine Mehrzahl von Anwendungsprofilen zugeordnet ist, die einer Mehrzahl von Benutzern zugeordnet sind, mit dem einen oder den mehreren Prozessoren; das Wählen von Anwendungsprofil-Zugangsdaten, die der das Augmented-Reality-Begleitgerät bedienenden Person zugeordnet sind, mit dem einen oder den mehreren Prozessoren; und das automatische Einloggen mit den Anwendungsprofil-Zugangsdaten in das Anwendungsprofil der Anwendung, das der Person zugeordnet ist, die das Augmented-Reality-Begleitgerät bedient.
  5. Verfahren nach Anspruch 4, ferner umfassend: das Erkennen einer Übergabe der Bedienung des Augmented-Reality-Begleitgeräts von der Person an eine andere der mehreren Personen mittels eines oder mehrerer Sensoren; das Identifizieren der anderen Person unter den mehreren Personen, die das Augmented-Reality-Begleitgerät nach Übergabe der Bedienung bedient, mit dem einen oder den mehreren Prozessoren; das Wählen von anderen Anwendungsprofil-Zugangsdaten für die Anwendung, die der Person zugeordnet sind, die das Augmented-Reality-Begleitgerät nach der Übergabe der Bedienung bedient, mit dem einen oder den mehreren Prozessoren; und in Reaktion auf die erkannte Übergabe der Bedienung das automatische Einloggen mit den anderen Anwendungsprofil-Zugangsdaten in ein anderes Anwendungsprofil der Anwendung, das der anderen Person zugeordnet ist, die das Augmented-Reality-Begleitgerät bedient.
  6. Verfahren nach einem der vorangehenden Ansprüche, ferner umfassend: das Erkennen einer Übergabe der Bedienung des Augmented-Reality-Begleitgeräts von der Person an eine andere der mehreren Personen mit Hilfe des einen oder der mehreren Sensoren; das Identifizieren der anderen Person unter den mehreren Personen, die das Augmented-Reality-Begleitgerät nach der Übergabe der Bedienung bedient, mit dem einen oder den mehreren Prozessoren; und das Anzeigen eines Hinweises mit der Aufforderung zur Autorisierung der Überführung des elektronischen Geräts von dem Kontoprofil, das der Person zugeordnet ist, die das Augmented-Reality-Begleitgerät vor Übergabe der Bedienung bedient, zu dem Kontoprofil der anderen Person, die das Augmented-Reality-Begleitgerät nach der Übergabe der Bedienung bedient, mit dem einen oder den mehreren Prozessoren.
  7. Verfahren nach Anspruch 6, ferner umfassend: in Reaktion auf die Aufforderung das Erhalten der Autorisierung zur Überführung des elektronischen Geräts von dem Kontoprofil, das der Person zugeordnet ist, die das Augmented-Reality-Begleitgerät vor Übergabe der Bedienung bedient, zu dem Kontoprofil der anderen Person, die das Augmented-Reality-Begleitgerät nach der Übergabe der Bedienung bedient, durch den einen oder die mehreren Prozessoren; das Wählen von anderen Zugangsdaten für das elektronische Gerät, die der anderen Person zugeordnet sind, die das Augmented-Reality-Begleitgerät nach der Übergabe der Bedienung bedient, mit dem einen oder den mehreren Prozessoren; und in Reaktion auf die erkannte Übergabe der Bedienung das automatische Einloggen mit den anderen Zugangsdaten in ein anderes Kontoprofil des elektronischen Geräts, das der anderen Person zugeordnet ist, die das Augmented-Reality-Begleitgerät bedient.
  8. Verfahren nach einem der vorangehenden Ansprüche, ferner umfassend: das Bestimmen, dass die das Augmented-Reality-Begleitgerät bedienende Person eine minderjährige Person ist, durch den einen oder die mehreren Prozessoren; und das Filtern von zumindest einem Teil des Inhalts, der von dem elektronischen Gerät zur Verfügung gestellt wird, durch den einen oder die mehreren Prozessoren, um auszuschließen, dass zumindest dieser Teil des Inhalts, der von dem elektronischen Gerät zur Verfügung gestellt werden, auf dem Inhaltpräsentations-Begleitgerät präsentiert wird.
  9. Verfahren nach Anspruch 8, wobei das Bestimmen, dass die das Augmented-Reality-Begleitgerät bedienende Person eine minderjährige Person ist, umfasst, dass der eine oder die mehreren Sensoren erkennen, dass eine Größe des Augmented-Reality-Begleitgeräts unter einer vorgegebenen Schwellengröße liegt.
  10. Verfahren nach Anspruch 8, wobei das Bestimmen, dass die das Augmented-Reality-Begleitgerät bedienende Person eine minderjährige Person ist, umfasst, dass die Kommunikationseinrichtung das Augmented-Reality-Begleitgerät abfragt, um festzustellen, dass eine Größe des Augmented-Reality-Begleitgeräts unter einer vorgegebenen Schwellengröße liegt.
  11. Elektronisches Gerät, umfassend: eine Kommunikationseinrichtung, die mit einem Inhaltpräsentations-Begleitgerät, das als primäre Anzeigeeinrichtung für das elektronische Gerät fungiert, und einem Augmented-Reality-Begleitgerät in Verbindung steht; einen oder mehrere Sensoren, die in einer Umgebung des elektronischen Geräts mehrere Personen erkennen, während das Inhaltpräsentations-Begleitgerät als primäre Anzeigeeinrichtung für das elektronische Gerät fungiert; und einen oder mehrere Prozessoren, die eine das Augmented-Reality-Begleitgerät bedienende Person automatisch in das elektronische Gerät einloggen, nachdem die das Augmented-Reality-Begleitgerät bedienende Person als Person identifiziert wurde, der ein autorisiertes Kontoprofil zugeordnet ist, das aus einer Mehrzahl von Kontoprofilen gewählt wird, die auf dem elektronischen Gerät erstellt sind.
  12. Elektronisches Gerät nach Anspruch 11, wobei der eine oder die mehreren Prozessoren die das Augmented-Reality-Begleitgerät bedienende Person automatisch in das elektronische Gerät einloggen, indem Zugangsdaten für das elektronische Gerät gewählt werden, die der Person zugeordnet sind, die das Augmented-Reality-Begleitgerät bedient.
  13. Elektronisches Gerät nach Anspruch 11 oder 12, wobei der eine oder die mehreren Prozessoren in Reaktion darauf, dass der eine oder die mehreren Sensoren eine Übergabe der Bedienung des Augmented-Reality-Begleitgeräts von der Person an eine andere der mehreren Personen erkennen, eine Erlaubisanfrage für den Übergang von dem autorisierten Kontoprofil zu einem anderen autorisierten Kontoprofil stellen.
  14. Elektronisches Gerät nach einem der Ansprüche 11 bis 13, wobei der eine oder die mehreren Prozessoren in Reaktion darauf, dass der eine oder die mehreren Sensoren eine Übergabe der Bedienung des Augmented-Reality-Begleitgeräts von der Person auf eine andere der mehreren Personen erkennen, von dem autorisierten Kontoprofil zu einem anderen autorisierten Kontoprofil wechseln.
  15. Elektronisches Gerät nach einem der Ansprüche 11 bis 14, wobei der eine oder die mehreren Prozessoren zumindest einen Teil des von dem elektronischen Gerät verfügbaren Inhalts filtern, indem die Darstellung zumindest eines Teils des Inhalts auf dem Inhaltpräsentations-Begleitgerät ausgeschlossen wird, wenn der eine oder die mehreren Prozessoren eine Größe des Augmented-Reality-Begleitgeräts feststellen, die unter einer vordefinierten Schwellengröße des Augmented-Reality-Begleitgeräts liegt.
  16. Elektronisches Gerät nach einem der Ansprüche 11 bis 15, wobei der eine oder die mehreren Prozessoren die Person, die das Augmented-Reality-Begleitgerät bedient, automatisch auch in eine Anwendung einloggen, die auf dem elektronischen Gerät ausgeführt wird, und zwar in Reaktion auf eine Aktivierung der Anwendung.
  17. System, umfassend: ein elektronisches Gerät mit einem oder mehreren Sensoren, einer Kommunikationseinrichtung und einem oder mehreren Prozessoren; ein Inhaltpräsentations-Begleitgerät, das mit dem elektronischen Gerät elektronisch in Verbindung steht; und ein Augmented-Reality-Begleitgerät, das mit dem elektronischen Gerät in Verbindung steht; wobei der eine oder die mehreren Prozessoren unter mehreren Personen eine Person identifizieren, die das Augmented-Reality-Begleitgerät bedient, und die das Augmented-Reality-Begleitgerät bedienende Person automatisch gegenüber dem elektronischen Gerät authentifizieren.
  18. System nach Anspruch 17, wobei der eine oder die mehreren Prozessoren die das Augmented-Reality-Begleitgerät bedienende Person automatisch auch gegenüber einer Anwendung authentifizieren, die auf dem elektronischen Gerät ausgeführt wird, und zwar in Reaktion auf eine Aktivierung der Anwendung.
  19. System nach Anspruch 17 oder 18, wobei der eine oder die mehreren Prozessoren eine Größe des Augmented-Reality-Begleitgeräts bestimmen und Inhalte aus der Präsentation auf dem Inhaltpräsentations-Begleitgerät ausfiltern, wenn die Größe des Augmented-Reality-Begleitgeräts unter einer vordefinierten Schwellengröße liegt.
  20. System nach einem der Ansprüche 17 bis 19, wobei der eine oder die mehreren Prozessoren eine andere der mehreren Personen gegenüber dem elektronischen Gerät authentifizieren, wenn die das Augmented-Reality-Begleitgerät bedienende Person das Augmented-Reality-Begleitgerät die Bedienung des Augmented-Reality-Begleitgeräts an die andere Person übergibt.
DE102022117329.1A 2021-07-19 2022-07-12 Elektronische Geräte und entsprechende Verfahren zur automatischen Durchführung von Login-Vorgängen bei der Präsentation von Inhalten in Umgebungen mit mehreren Personen Pending DE102022117329A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/379,884 2021-07-19
US17/379,884 US11907357B2 (en) 2021-07-19 2021-07-19 Electronic devices and corresponding methods for automatically performing login operations in multi-person content presentation environments

Publications (1)

Publication Number Publication Date
DE102022117329A1 true DE102022117329A1 (de) 2023-01-19

Family

ID=84540211

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022117329.1A Pending DE102022117329A1 (de) 2021-07-19 2022-07-12 Elektronische Geräte und entsprechende Verfahren zur automatischen Durchführung von Login-Vorgängen bei der Präsentation von Inhalten in Umgebungen mit mehreren Personen

Country Status (5)

Country Link
US (1) US11907357B2 (de)
CN (1) CN115639974A (de)
BR (1) BR102022014205A2 (de)
DE (1) DE102022117329A1 (de)
GB (1) GB2612407B (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11907357B2 (en) * 2021-07-19 2024-02-20 Motorola Mobility Llc Electronic devices and corresponding methods for automatically performing login operations in multi-person content presentation environments

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8639622B1 (en) * 2009-08-31 2014-01-28 Wells Fargo Bank, N.A. Budget management system and method
US9792594B1 (en) * 2014-01-10 2017-10-17 Wells Fargo Bank, N.A. Augmented reality security applications
CN107209549B (zh) * 2014-12-11 2020-04-17 微软技术许可有限责任公司 能够实现可动作的消息传送的虚拟助理系统
CA2919101C (en) * 2015-01-27 2022-03-22 Initlive Inc. Methods and systems for managing individuals
US9565176B2 (en) * 2015-03-10 2017-02-07 Citrix Systems, Inc. Multiscreen secure content access
AU2016331934A1 (en) * 2015-10-02 2018-05-10 Joshua HEENAN A system and method for a media platform
US10341333B2 (en) * 2016-10-18 2019-07-02 Tata Consultancy Services Limited Systems and methods for generating multi-dimensional password and authenticating thereof
US10223573B2 (en) * 2016-12-13 2019-03-05 Adobe Inc. User identification and identification-based processing for a virtual reality device
US11374929B2 (en) * 2017-03-21 2022-06-28 Global E-Dentity, Inc. Biometric authentication for an augmented reality or a virtual reality device
WO2018211494A1 (en) * 2017-05-15 2018-11-22 Real View Imaging Ltd. System with multiple displays and methods of use
US10809962B2 (en) * 2017-11-28 2020-10-20 Dell Products L.P. Orienting content sent to display devices based on a position of a user relative to a computing device
US11972659B2 (en) * 2018-10-05 2024-04-30 Aristocrat Technologies, Inc. System and method for changing beacon identifiers for secure mobile communications
US20200112759A1 (en) * 2018-10-08 2020-04-09 Motorola Mobility Llc Control Interface Accessory with Monitoring Sensors and Corresponding Methods
US11418357B2 (en) * 2019-04-04 2022-08-16 eXp World Technologies, LLC Virtual reality systems and methods with cross platform interface for providing support
US11082402B2 (en) * 2019-04-25 2021-08-03 Motorola Mobility Llc Controlling computing device virtual private network usage with a wearable device
US11521262B2 (en) * 2019-05-28 2022-12-06 Capital One Services, Llc NFC enhanced augmented reality information overlays
US11521189B1 (en) * 2019-11-15 2022-12-06 Worldpay Limited Methods and systems for collecting and releasing virtual objects between disparate augmented reality environments
US20210166804A1 (en) * 2019-12-02 2021-06-03 International Business Machines Corporation Anxiety detection using wearables
US10956122B1 (en) 2020-04-01 2021-03-23 Motorola Mobility Llc Electronic device that utilizes eye position detection for audio adjustment
US11589124B1 (en) * 2020-04-14 2023-02-21 Worldpay Limited Methods and systems for seamlessly transporting objects between connected devices for electronic transactions
US11062098B1 (en) * 2020-08-11 2021-07-13 Capital One Services, Llc Augmented reality information display and interaction via NFC based authentication
US11463499B1 (en) * 2020-12-18 2022-10-04 Vr Edu Llc Storage and retrieval of virtual reality sessions state based upon participants
US11907357B2 (en) * 2021-07-19 2024-02-20 Motorola Mobility Llc Electronic devices and corresponding methods for automatically performing login operations in multi-person content presentation environments

Also Published As

Publication number Publication date
GB2612407A (en) 2023-05-03
US11907357B2 (en) 2024-02-20
CN115639974A (zh) 2023-01-24
GB2612407B (en) 2023-12-06
US20230019529A1 (en) 2023-01-19
BR102022014205A2 (pt) 2023-01-31
GB202210337D0 (en) 2022-08-31

Similar Documents

Publication Publication Date Title
US10264177B2 (en) Methods and systems to obtain desired self-pictures with an image capture device
US11443742B2 (en) Method and apparatus for determining a dialog state, dialog system, computer device, and storage medium
US9927948B2 (en) Image display apparatus and image display method
US9317113B1 (en) Gaze assisted object recognition
JP6574937B2 (ja) 通信システム、制御方法、および記憶媒体
CN109600678B (zh) 信息展示方法、装置及系统、服务器、终端、存储介质
US10019962B2 (en) Context adaptive user interface for augmented reality display
DE102017115315A1 (de) Elektronisches Gerät mit Gestenbetätigung von Begleitgeräten und entsprechende Systeme und Verfahren
CN105204642A (zh) 虚拟现实交互画面的调节方法和装置
US20210333865A1 (en) Methods, and devices for generating a user experience based on the stored user information
US9088668B1 (en) Configuring notification intensity level using device sensors
US20210211575A1 (en) Adjusting image capture parameters via machine learning
US10521013B2 (en) High-speed staggered binocular eye tracking systems
CN109005627A (zh) 一种灯光控制方法、装置、终端及存储介质
CN105430269B (zh) 一种应用于移动终端的拍照方法及装置
CN111901633B (zh) 视频的播放处理方法、装置、电子设备及存储介质
DE102022117329A1 (de) Elektronische Geräte und entsprechende Verfahren zur automatischen Durchführung von Login-Vorgängen bei der Präsentation von Inhalten in Umgebungen mit mehreren Personen
KR20190024333A (ko) 전자 장치 및 그 제어 방법
CN111182280A (zh) 一种投影方法、投影装置、音箱设备及存储介质
US12002435B1 (en) Electronic devices and corresponding methods for identifying a companion device type
US20240107092A1 (en) Video playing method and apparatus
US11320897B2 (en) Adjustable user preference settings using a virtual reality device
US11836179B1 (en) Multimedia query system
US11245840B2 (en) Method and system for dynamically adjusting camera shots
CN117640977A (zh) 直播内容的调整方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
R012 Request for examination validly filed