DE102022201351A1 - Verfahren zu einer Nutzeraktivitätserkennung für Datenbrillen und Datenbrille - Google Patents

Verfahren zu einer Nutzeraktivitätserkennung für Datenbrillen und Datenbrille Download PDF

Info

Publication number
DE102022201351A1
DE102022201351A1 DE102022201351.4A DE102022201351A DE102022201351A1 DE 102022201351 A1 DE102022201351 A1 DE 102022201351A1 DE 102022201351 A DE102022201351 A DE 102022201351A DE 102022201351 A1 DE102022201351 A1 DE 102022201351A1
Authority
DE
Germany
Prior art keywords
user
data glasses
data
unit
user activity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022201351.4A
Other languages
English (en)
Inventor
Johannes Meyer
Thomas Alexander Schlebusch
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102022201351.4A priority Critical patent/DE102022201351A1/de
Priority to US18/162,980 priority patent/US11868528B2/en
Publication of DE102022201351A1 publication Critical patent/DE102022201351A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Abstract

Die Erfindung geht aus von einem Verfahren zu einer Nutzeraktivitätserkennung für Datenbrillen (10), mit einer, zumindest eine integrierte Sensoreinheit (12) umfassenden Datenbrille (10), wobei in zumindest einem durch eine Klassifiziereinheit (14) vorgenommenen Nutzeraktivitätserkennungsschritt (16) eine Aktivität eines Nutzers der Datenbrille (10) mittels einer Auswertung von Daten, die durch die integrierte Sensoreinheit (12) erfasst werden, erkannt wird.Es wird vorgeschlagen, dass die Klassifiziereinheit (14) bei der Durchführung des Nutzeraktivitätserkennungsschritts (16) Informationen berücksichtigt, die in einem, insbesondere dem Nutzeraktivitätserkennungsschritt (16) zeitlich vorangehenden, vorzugsweise nutzerspezifischen, Anlernschritt (18) durch Anlernen der Klassifiziereinheit (14) ermittelt wurden.

Description

  • Stand der Technik
  • Es ist bereits ein Verfahren zu einer Nutzeraktivitätserkennung für Datenbrillen, mit einer, zumindest eine integrierte Sensoreinheit umfassenden Datenbrille, wobei in zumindest einem durch eine Klassifiziereinheit vorgenommenen Nutzeraktivitätserkennungsschritt eine Aktivität eines Nutzers der Datenbrille mittels einer Auswertung von Daten, die durch die integrierte Sensoreinheit erfasst werden, erkannt wird, vorgeschlagen worden.
  • Offenbarung der Erfindung
  • Die Erfindung geht aus von einem, vorzugsweise nutzerindividualisierten, Verfahren, insbesondere computerimplementierten Verfahren, zu einer Nutzeraktivitätserkennung für Datenbrillen, mit einer, zumindest eine integrierte Sensoreinheit umfassenden Datenbrille, wobei in zumindest einem durch eine Klassifiziereinheit vorgenommenen Nutzeraktivitätserkennungsschritt eine Aktivität eines Nutzers der Datenbrille mittels einer Auswertung von Daten, die durch die integrierte Sensoreinheit erfasst werden, erkannt wird.
  • Es wird vorgeschlagen, dass die Klassifiziereinheit bei der Durchführung des Nutzeraktivitätserkennungsschritts Informationen berücksichtigt, die in einem, insbesondere dem Nutzeraktivitätserkennungsschritt zeitlich vorangehenden, vorzugsweise nutzerspezifischen, Anlernschritt durch Anlernen der Klassifiziereinheit ermittelt wurden. Dadurch kann vorteilhaft eine besonders zuverlässige und exakte Nutzeraktivitätserkennung erreicht werden. Vorteilhaft kann eine Aktivitätserkennung präzise auf einen jeweiligen Nutzer zugeschnitten werden. Vorteilhaft können bei der Ermittlung von Nutzeraktivitäten nutzerspezifische Verhalten u.dgl. mitberücksichtigt werden. Vorteilhaft kann ein besonders hoher Nutzerkomfort erreicht werden. Zudem kann vorteilhaft eine besonders hohe Alltagstauglichkeit und/oder Verkehrssicherheit für eine Datenbrille erreicht werden.
  • Unter einer „Datenbrille“ soll insbesondere ein Wearable (Head-Mounted Display) verstanden werden, mittels welchem Informationen zum Sichtfeld eines Nutzers hinzugefügt werden können. Vorzugsweise ermöglichen Datenbrillen Augmented-Reality- und/oder Mixed-Reality-Anwendungen. Datenbrillen werden landläufig auch als Smartglasses bezeichnet. Die Sensoreinheit kann einen oder mehrere Sensoren gleichen oder verschiedenen Typs umfassen. Beispielsweise kann die Sensoreinheit einen Eye-Tracking-Sensor, ein oder mehrere Mikrofone, ein oder mehrere Inertialsensoren (Gyrosensoren o.dgl.), insbesondere zur Durchführung eines Head-Trackings, ein Navigationsmodul (GPS o.dgl.), eine oder mehrere Kameras, etc. umfassen. Die Sensoren der Sensoreinheit können dabei beispielsweise zumindest teilweise in einen Brillenrahmen der Datenbrille integriert sein oder an den Brillenrahmen oder an die Brillengläser der Datenbrille befestigt sein. Zudem kann in dem Brillenrahmen der Datenbrille eine Bilderzeugungseinheit der Datenbrille, über welche die Bilder in das Sichtfeld des Nutzers eingebracht werden (z.B. eine Laser-Projektoreinheit), zumindest teilweise angeordnet sein. Insbesondere umfasst die Datenbrille eine Steuer- und/oder Regeleinheit, welche zumindest dazu vorgesehen ist, die Daten der Sensoren zu verwalten (z.B. zu erhalten und vorzuverarbeiten), die Ausgabe der Bilddaten zu steuern und/oder eine Kommunikation mit der Umgebung oder dem Internet (z.B. über WLAN oder Mobilfunkprotokolle) zu organisieren. Unter einer „Steuer- und/oder Regeleinheit“ soll insbesondere eine Einheit mit zumindest einer Steuerelektronik verstanden werden. Unter einer „Steuerelektronik“ soll insbesondere eine Einheit mit einem Prozessor und mit einem Speicher sowie mit einem in dem Speicher gespeicherten Betriebsprogramm verstanden werden. Dabei ist denkbar, dass die Steuer- und/oder Regeleinheit einstückig mit der Klassifiziereinheit ausgebildet ist oder zumindest mit einer getrennt von der Steuer- und/oder Regeleinheit, insbesondere sogar getrennt von der Datenbrille, ausgebildeten Klassifiziereinheit kommuniziert. Insbesondere ist die Datenbrille dazu vorgesehen, immer weiter zu lernen / die Klassifiziereinheit immer weiter zu trainieren, insbesondere immer dann, wenn zusätzlich zu den durch die Sensoreinheit erfassten internen Sensordaten gerade externe Sensordaten zur Verfügung stehen, welche vorzugsweise Rückschlüsse auf eine gerade durchgeführte Aktivität erlauben. Vorteilhaft kann nach dem nutzerspezifischen Anlernen die Erkennung/Klassifizierung von Aktivitäten ohne externe Daten zuverlässig erfolgen. Unter „vorgesehen“ soll insbesondere speziell programmiert, ausgelegt und/oder ausgestattet verstanden werden. Darunter, dass ein Objekt zu einer bestimmten Funktion vorgesehen ist, soll insbesondere verstanden werden, dass das Objekt diese bestimmte Funktion in zumindest einem Anwendungs- und/oder Betriebszustand erfüllt und/oder ausführt.
  • Ferner wird vorgeschlagen, dass in dem Anlernschritt die Klassifiziereinheit unter Zuhilfenahme von Messdaten, insbesondere durch ein Auswerten von Messdaten, zumindest eines dem Nutzer zugeordneten und von der Datenbrille getrennt ausgebildeten externen Sensors angelernt wird. Dadurch kann vorteilhaft eine Nutzeraktivitätserkennung optimiert werden. Vorteilhaft kann eine hohe Abdeckung von Aktivitäten und/oder eine hohe Klassifizierungsgenauigkeit erreicht werden. Vorteilhaft kann ein besonders großes Reservoir an Sensordaten zum Anlernen der Klassifiziereinheit bereitgestellt werden. Vorteilhaft kann eine einfache und/oder leichtbauende Ausführung der Datenbrille ermöglicht werden. Vorteilhaft kann ein Energiebedarf der Datenbrille gering gehalten werden. Der externe Sensor kann dabei insbesondere ein Teil eines, vorzugsweise mobilen, Computer-/Sensorsystems sein. Der externe Sensor ist insbesondere getrennt von der Datenbrille ausgebildet und angeordnet. Der externe Sensor kann dabei den Nutzer oder die Nutzerumgebung überwachen. Der externe Sensor kann dabei dem Nutzer oder Bewegungen des Nutzers zumindest teilweise folgen. Der externe Sensor ist vorzugsweise tragbar und/oder mobil ausgebildet. Der externe Sensor kann dabei dem Nutzer oder einem mit dem Nutzer mitbewegten System, z.B. Fahrzeug, zugeordnet sein. Außerdem ist denkbar, dass die Klassifiziereinheit unter Mitwirkung mehrerer externer Sensoren angelernt wird. Optional können in dem Anlernschritt Sensorinformationen aus mehreren Quellen zur Aktivitätserkennung kombiniert werden. Optional können in dem Anlernschritt Sensorinformationen aus mehreren Quellen zum Anlernen der Klassifiziereinheit kombiniert werden.
  • Wenn der externe Sensor zumindest Teil eines, insbesondere dem Nutzer zugeordneten, Smartphones, von einer Datenbrille verschiedenen Wearables oder Fahrzeugs ist, kann vorteilhaft eine hohe Nutzerfreundlichkeit erreicht werden. Vorteilhaft können Daten eines Systems verwendet werden, welches der Nutzer sowieso bereits besitzt und/oder mitführt. Insbesondere wird aus den externen Sensordaten die sogenannte „ground truth“ ermittelt. Insbesondere besitzt der externe Sensor eine, vorzugsweise drahtlose, Datenkommunikationsschnittstelle, welche zu einem Datenaustausch mit der Datenbrille, insbesondere mit der Klassifiziereinheit der Datenbrille, vorgesehen ist. Insbesondere kann der externe Sensor mit dem Internet verbunden sein.
  • Zusätzlich wird vorgeschlagen, dass die Klassifiziereinheit ein neuronales Netz oder einen statischen Klassifikator umfasst, welches in dem Anlernschritt trainiert wird. Dadurch kann vorteilhaft die Nutzeraktivitätserkennung optimiert werden. Vorteilhaft kann dadurch die Erkennung der Nutzeraktivität besonders effektiv und gezielt individualisiert werden. Insbesondere wird das neuronale Netz oder der statische Klassifikator dadurch trainiert, dass ein Abgleich der (zuverlässiger) durch den externen Sensor ermittelten Aktivität (z.B. ein Erkennen eines Supermarktbesuchs anhand von GPS-Daten des externen Sensors) mit einer durch die internen Sensordaten ermittelten Aktivität erfolgt. Bei einer Übereinstimmung der ermittelten Aktivitäten wird dann z.B. eine positive Rückmeldung an die Klassifiziereinheit gegeben und bei einer Abweichung der ermittelten Aktivitäten eine negative Rückmeldung und/oder eine Korrektur. Insbesondere kann das neuronale Netz über eine beliebige, dem Fachmann bekannte Topologie verfügen. Insbesondere kann der statische Klassifikator als ein naiver Bayes-Klassifikator, als ein Nächste-Nachbarn-Klassifikator, als ein Entscheidungsbaum-Klassifikator, als eine Support Vector Machine oder als eine weitere geeignete statische Klassifikationsmethode ausgebildet sein.
  • Außerdem wird vorgeschlagen, dass in dem Anlernschritt aus den Sensordaten des externen Sensors Nutzer-Kontextinformationen ermittelt werden, welche zur Validierung der zeitgleich durch die Klassifiziereinheit aus den Messdaten der integrierten Sensoreinheit bestimmten momentanen Aktivität herangezogen werden. Dadurch kann vorteilhaft die Nutzeraktivitätserkennung optimiert werden. Vorteilhaft kann dadurch die Erkennung der Nutzeraktivität besonders effektiv und gezielt individualisiert werden. Insbesondere sollen auch Daten, die der externe Sensor über die Internetverbindung erhält, als externe Sensordaten verstanden werden. Beispielsweise kann ein Aufenthalt in einem Empfangsbereich eines bestimmten WLAN-Netzwerks, z.B. von einem Flughafen oder Bahnhof, nutzbare Kontextinformationen liefern. Die aus den externen Sensordaten ermittelten Nutzer-Kontextinformationen können dann beispielsweise als „Label“ für die internen Sensordaten dienen. Aus einem Ermitteln von ähnlichen internen Sensordaten in der Zukunft kann dann auf ein erneutes Durchführen der Aktivität geschlossen werden ohne, dass externe Sensordaten zwingend notwendig wären.
  • Des Weiteren wird vorgeschlagen, dass in dem Anlernschritt die Klassifiziereinheit unter Zuhilfenahme / durch eine Auswertung der von durch den Nutzer ausgeführten Funktionen und/oder Programmen der Datenbrille und/oder des externen Sensors angelernt wird. Dadurch kann vorteilhaft die Nutzeraktivitätserkennung optimiert werden. Vorteilhaft kann dadurch die Erkennung der Nutzeraktivität besonders effektiv und gezielt individualisiert werden. Verwendet beispielsweise der Nutzer eine integrierte Straßen-Navigationsapp eines Smartphones oder hat der Nutzer sein Smartphone mit dem Auto verbunden, lässt sich daraus die Aktivität „Autofahren“ ableiten. Die Datenbrille sammelt dann in der Folge interne Sensordaten aus den integrierten Sensoren, um diese Aktivität zu erlernen und in der Zukunft wiederzuerkennen. Die Kontextinformationen dienen in diesem Zusammenhang insbesondere als Labels für die internen Sensordaten, die von der Datenbrille aufgezeichnet werden. Anschließend kann die Aktivität dann vorteilhaft lediglich aus den internen Sensordaten erkannt werden, auch wenn die zusätzlichen Kontextinformationen fehlen (bspw. die Straßen-Navigationsapp nicht verwendet wird). Ein weiteres Ausführungsbeispiel ist die Nutzung eines GPS-Sensors und von Kartenmaterial in einem mit der Datenbrille kommunizierenden Smartphone, um die Position eines Nutzers zu ermitteln und diese mit Kontextinformationen zu ergänzen, beispielsweise zu identifizieren, ob der Nutzer sich in einem Supermarkt befindet. Diese Kontextinformation könnte dann dazu verwendet werden, um die aufgezeichneten internen Sensordaten der Datenbrille zu verwenden, das Label „Einkaufen“ hinzuzufügen, bzw. die Klassifiziereinheit zu trainieren die Aktivität „Einkaufen“ zu erkennen. Interne Sensordaten, die so mit der Aktivität „Einkaufen“ verbunden werden könnten, sind bestimmte typische Töne, wie das Piepsen einer Kasse oder das Surren eines Kühlfachs oder typische Kopf- und/oder Augenbewegungen, die entstehen, wenn Waren in einem Regal beobachtet/ gesucht werden. Die Aktivität „Einkaufen“ könnte beispielsweise auch durch ein Aufrufen eines Einkaufszettels oder einer Produktinformation mit der Datenbrille mit dem externen Sensor verknüpft werden.
  • Wenn außerdem der Nutzeraktivitätserkennungsschritt und/oder der Anlernschritt zumindest unabhängig von jeglicher mit der Datenbrille, insbesondere physisch, verbundenen Weltkamera durchgeführt wird/werden, kann vorteilhaft ein geringer Energieverbrauch erzielt werden. Zudem kann vorteilhaft eine Akzeptanz der Datenbrille im öffentlichen Raum erhöht werden. Insbesondere wird der Nutzeraktivitätserkennungsschritt und/oder der Anlernschritt zumindest unabhängig von jeglichem mit der Datenbrille verbundenen Kamerasensor durchgeführt.
  • Zudem wird vorgeschlagen, dass die Klassifiziereinheit in die Datenbrille integriert ist, z.B. als Teil der Steuer- und/oder Regeleinheit, oder dass die Klassifiziereinheit zumindest teilweise in einer Cloud ausgeführt wird. Dadurch kann vorteilhaft ein besonders energieeffizienter Betrieb der Datenbrille ermöglicht werden. Beispielsweise kann das Training des neuronalen Netzes und/oder des statischen Klassifikators und/oder die Auswertung der internen Sensordaten in der Cloud stattfinden. Beispielsweise können die internen Sensordaten an die Cloud übertragen werden, eine Klassifizierung anhand dieser Daten dann in der Cloud vorgenommen werden und ein Ergebnis der Klassifizierung an die Datenbrille zurückgesandt werden.
  • Weiterhin wird vorgeschlagen, dass eine durch eine Ausgabeeinheit der Datenbrille dargestellte Bildausgabe in Abhängigkeit von der in dem Nutzeraktivitätserkennungsschritt ermittelten Nutzeraktivität angepasst wird und/oder dass basierend auf der in dem Nutzeraktivitätserkennungsschritt ermittelten Nutzeraktivität eine bestimmte Funktion und/oder ein bestimmtes Programm der Datenbrille ausgeführt und/oder beendet wird. Dadurch kann vorteilhaft ein Nutzerkomfort verbessert werden. Vorteilhaft kann eine erhöhte Alltagstauglichkeit der Datenbrille erreicht werden. Insbesondere kann die Ausgabeeinheit der Datenbrille als eine virtuelle Netzhautanzeige (Retinal Scan Display, RSD) oder als eine andere, für den Einsatz in Datenbrillen geeignete Anzeigetechnologie ausgebildet sein. Insbesondere kann eine Position der Bildausgabe im Blickfeld eines Nutzers der Datenbrille in Abhängigkeit von der in dem Nutzeraktivitätserkennungsschritt ermittelten Nutzeraktivität angepasst werden. Wenn beispielsweise die Nutzeraktivität Autofahren erkannt wird, dann werden keine Bilder in einer Mitte des Blickfelds erzeugt. Insbesondere kann eine Position der Bildausgabe im Blickfeld eines Nutzers der Datenbrille in Abhängigkeit von der in dem Nutzeraktivitätserkennungsschritt ermittelten Nutzeraktivität angepasst werden. Insbesondere kann ein im Blickfeld eines Nutzers der Datenbrille aufgerufenes Programm in Abhängigkeit von der in dem Nutzeraktivitätserkennungsschritt ermittelten Nutzeraktivität aufgerufen, bedient oder voreingestellt werden. Wenn beispielsweise die Nutzeraktivität Einkaufen erkannt wird, dann werden Einkaufshilfen, wie Einkaufszettel, Wegbeschreibungen, Preise, etc. in das Blickfeld des Nutzers projiziert. Insbesondere kann ein im Blickfeld eines Nutzers der Datenbrille dargestellter Anzeigeinhalt in Abhängigkeit von der in dem Nutzeraktivitätserkennungsschritt ermittelten Nutzeraktivität angepasst werden.
  • Ferner wird die Datenbrille mit der integrierten Sensoreinheit und ein System mit der Datenbrille und dem zumindest einen mit der Datenbrille kommunizierenden externen Sensor vorgeschlagen. Dadurch kann vorteilhaft kann ein besonders hoher Nutzerkomfort erreicht werden. Zudem kann vorteilhaft eine besonders hohe Alltagstauglichkeit und/oder Verkehrssicherheit für eine Datenbrille erreicht werden.
  • Das erfindungsgemäße Verfahren, die erfindungsgemäße Datenbrille und das erfindungsgemäße System soll hierbei nicht auf die oben beschriebene Anwendung und Ausführungsform beschränkt sein. Insbesondere kann das erfindungsgemäße Verfahren, die erfindungsgemäße Datenbrille und das erfindungsgemäße System zu einer Erfüllung einer hierin beschriebenen Funktionsweise eine von einer hierin genannten Anzahl von einzelnen Elementen, Bauteilen und Einheiten sowie Verfahrensschritten abweichende Anzahl aufweisen. Zudem sollen bei den in dieser Offenbarung angegebenen Wertebereichen auch innerhalb der genannten Grenzen liegende Werte als offenbart und als beliebig einsetzbar gelten.
  • Figurenliste
  • Weitere Vorteile ergeben sich aus der folgenden Zeichnungsbeschreibung. In der Zeichnung ist ein Ausführungsbeispiel der Erfindung dargestellt. Die Zeichnung, die Beschreibung und die Ansprüche enthalten zahlreiche Merkmale in Kombination. Der Fachmann wird die Merkmale zweckmäßigerweise auch einzeln betrachten und zu sinnvollen weiteren Kombinationen zusammenfassen.
  • Es zeigen:
    • 1 Eine schematische Darstellung eines Systems mit einer Datenbrille und mit einem externen Sensor und
    • 2 ein schematisches Ablaufdiagramm für ein Verfahren zu einer Nutzeraktivitätserkennung für Datenbrillen.
  • Beschreibung des Ausführungsbeispiels
  • Die 1 zeigt ein System 26 mit einer Datenbrille 10. Die Datenbrille 10 umfasst ein Brillengestell 28. Die Datenbrille 10 umfasst Brillengläser 30, 30'. Die Datenbrille 10 umfasst eine Ausgabeeinheit 24. Die Ausgabeeinheit 24 ist zu einer Ausgabe eines Bilds in ein Blickfeld eines Nutzers/Trägers der Datenbrille 10 vorgesehen. Die Ausgabeeinheit 24 ist als ein Retinal Scan Display ausgebildet. Die Ausgabeeinheit 24 umfasst eine Projektoreinheit 32. Die Projektoreinheit 32 erzeugt einen gescannten Laserstrahl, welcher durch Wechselwirkung mit einem in zumindest einem der Brillengläser 30, 30' integrierten optischen Element (z.B. ein holographisch-optisches Bauelement, HOE, nicht dargestellt) direkt auf einer Netzhaut eines Nutzer-Auges das Bild erzeugt. Die Datenbrille 10 umfasst eine Sensoreinheit 12. Die Sensoreinheit 12 ist zumindest teilweise in der Datenbrille 10 / in dem Brillengestell 28 integriert. Die Sensoreinheit 12 umfasst einen Eye-Tracking Sensor 34. Die Sensoreinheit 12 umfasst ein Mikrofon 36. Die Sensoreinheit 12 umfasst einen Trägheitssensor 38 (Inertialsensor). Der Trägheitssensor 38 dient als Head-Tracking-Sensor. Die Sensoreinheit 12 umfasst ein GPS-Modul 40.
  • Die Datenbrille 10 umfasst ein Cellular-Modul 42. Das Cellular Modul 42 ist dazu vorgesehen, eine drahtlose Datenverbindung mit extern herzustellen und/oder zu verwalten. Das Cellular Modul 42 ist dazu vorgesehen, drahtlose Verbindungen mit externen Sensoren 20 und/oder einer Cloud 22 des Systems 26 herzustellen. Das Cellular-Modul 42 ist als ein Mobilfunkmodul ausgebildet, welches beispielsweise mittels eines Mobilfunkprotokolls wie GPRS mit extern kommuniziert. Alternative oder zusätzliche Kommunikationsprotokolle wie Bluetooth, WLAN etc. sind denkbar. Die Datenbrille 10 umfasst eine Steuer- und/oder Regeleinheit 44. Die Steuer- und/oder Regeleinheit 44 ist dazu vorgesehen, die Messdaten der Sensoreinheit 12 zu empfangen. Die Steuer- und/oder Regeleinheit 44 ist dazu vorgesehen, die Messdaten der Sensoreinheit 12 zu versenden. Die Steuer- und/oder Regeleinheit 44 ist dazu vorgesehen, die Messdaten der Sensoreinheit 12 zumindest teilweise zu verarbeiten. Die Steuer- und/oder Regeleinheit 44 ist dazu vorgesehen, die Kommunikation des Cellular-Moduls 42 zu steuern. Die Steuer- und/oder Regeleinheit 44 ist dazu vorgesehen, die Projektoreinheit 32 zu steuern. Die Steuer- und/oder Regeleinheit 44 ist dazu vorgesehen, die Ausgabeeinheit 24 zu steuern. Die Steuer- und/oder Regeleinheit 44 ist dazu vorgesehen, Programme, deren Ausgaben über die Ausgabeeinheit 24 darstellbar sind, aufzurufen und/oder zu steuern. Es ist denkbar, dass die Steuer- und/oder Regeleinheit 44 aus mehreren einzelnen Recheneinheiten oder Controllern zusammengesetzt ist. Zudem ist denkbar, dass einzelne elektronische Bauelemente der Datenbrille 10 eigene Controller aufweisen, welche insbesondere miteinander oder mit einer zentralen Steuer- und/oder Regeleinheit 44 vernetzt sind. Die Steuer- und/oder Regeleinheit 44 umfasst eine Klassifiziereinheit 14. Die Klassifiziereinheit 14 ist dazu vorgesehen, verschiedene Nutzeraktivitäten zu identifizieren.
  • Das System 26 umfasst einen externen Sensor 20. Der externe Sensor 20 ist von der Datenbrille 10 getrennt ausgebildet. Die Datenbrille 10 kommuniziert mit dem externen Sensor 20. Der externe Sensor 20 ist zumindest ein Teil einer dem Nutzer zugeordneten externen Vorrichtung 58, wie ein Smartphone, eines Wearables oder eines Fahrzeugs. Der externe Sensor 20 ist ein in der, dem Nutzer zugeordneten Vorrichtung 58 enthaltener Sensor, beispielsweise ein GPS-Sensor, ein Lagesensor, ein Beschleunigungssensor, ein Kamerasensor, ein Mikrofon, ein Helligkeitssensor, ein Regensensor, etc. Das System 26 umfasst die Cloud 22. Das Cellular-Modul 42 ist dazu vorgesehen, mit dem externen Sensor 20 zu kommunizieren. Das Cellular-Modul 42 ist dazu vorgesehen, Sensordaten des externen Sensors 20 zu empfangen und vorzugsweise an die Klassifiziereinheit 14 weiterzuleiten. Das Cellular-Modul 42 ist dazu vorgesehen, Sensordaten von dem externen Sensor 20 anzufragen. Das Cellular-Modul 42 ist dazu vorgesehen, ein Vorhandensein externer Sensoren 20 zu erkennen und automatisch Datenverbindungen aufzubauen und/oder zu trennen, wenn nötig. Die Steuer- und/oder Regeleinheit 44 ist dazu vorgesehen, basierend auf den Sensordaten der Sensoreinheit 12 Features zu extrahieren, welche anschließend für die Klassifizierung von Nutzeraktivitäten verwendet werden können, wobei die Sensordaten der externen Sensoren 20 zur Optimierung und/oder Bestätigung der jeweiligen Klassifikationen dienen. Die Datenbrille 10, insbesondere die Sensoreinheit 12 der Datenbrille 10, ist frei von jeglichen Kamerasensoren. Alternativ ist jedoch auch eine Datenbrille 10 mit integrierter Weltkamera denkbar.
  • Die 2 zeigt ein schematisches Ablaufdiagramm eines Verfahrens zu einer Nutzeraktivitätserkennung für die Datenbrillen 10. In zumindest einem Verfahrensschritt 46 wird die Datenbrille 10 von dem Nutzer aufgesetzt. In zumindest einem Verfahrensschritt 48 wird die Datenbrille 10 aktiviert. In zumindest einem Verfahrensschritt 50 wird ein Programm durch die Datenbrille 10 aufgerufen. In dem Verfahrensschritt 50 wird durch das Programm eine Bildausgabe für die Ausgabeeinheit 24 erzeugt. In dem Verfahrensschritt 50 wird das erzeugte Bild von der Ausgabeeinheit 24 ausgegeben. In zumindest einem Verfahrensschritt 52 werden Sensordaten der Sensoreinheit 12 von der Klassifiziereinheit 14 empfangen und verarbeitet. In einem Anlernschritt 18 wird die Klassifiziereinheit 14 angelernt. In dem Anlernschritt 18 wird die Klassifiziereinheit 14 unter Zuhilfenahme der Messdaten des dem Nutzer zugeordneten und von der Datenbrille 10 getrennt ausgebildeten externen Sensors 20 angelernt. Die Klassifiziereinheit 14 umfasst ein neuronales Netz oder einen statischen Klassifikator, welches/welcher in dem Anlernschritt 18 trainiert wird. Das neuronale Netz/der statische Klassifikator ist dazu vorgesehen, Muster in den empfangenen Sensordaten der Sensoreinheit 12 zu erkennen und bestimmten Nutzeraktivitäten zuzuordnen. Die Sensordaten des externen Sensors 20 werden in dem Anlernschritt 18 dazu verwendet die von dem neuronalen Netz oder von dem statischen Klassifikator ermittelten Nutzeraktivitäten zu validieren und dadurch insbesondere die Nutzeraktivitätserkennung durch eine Rückkoppelung zu optimieren. Dazu werden in dem Anlernschritt 18 aus den Sensordaten des externen Sensors 20 Nutzer-Kontextinformationen ermittelt, welche dann wiederum zur Validierung der zeitgleich durch die Klassifiziereinheit 14 aus den Messdaten der integrierten Sensoreinheit 12 bestimmten momentanen Aktivität herangezogen werden. Alternativ oder zusätzlich werden dabei in dem Anlernschritt 18 die von dem Nutzer ausgeführten Funktionen und/oder Programme der Datenbrille 10 zu dem Anlernen der Klassifiziereinheit 14 herangezogen. Das Ziel des Anlernschritts 18 ist dadurch erreichen zu können, dass die Erkennung der Nutzeraktivität auch ohne ein Vorhandensein externer Sensordaten rein aus den intern durch die Sensoreinheit 12 ermittelten Sensordaten zuverlässig und nutzerspezifisch abgestimmt ermöglicht wird. Der Anlernschritt 18 wird unabhängig von jeglicher mit der Datenbrille 10 physisch verbundenen Weltkamera durchgeführt. Der Anlernschritt 18 kann vollständig von der Steuer- und/oder Regeleinheit 44 der Datenbrille 10 oder zumindest teilweise in der Cloud 22 ausgeführt werden.
  • In zumindest einen Nutzeraktivitätserkennungsschritt 16 wird eine Aktivität des Nutzers der Datenbrille 10 mittels einer Auswertung (ausschließlich) der Daten, die durch die integrierte Sensoreinheit 12 erfasst werden, erkannt. Der Nutzeraktivitätserkennungsschritt 16 wird dabei durch die Klassifiziereinheit 14 vorgenommen. Der Nutzeraktivitätserkennungsschritt 16 wird unabhängig von jeglicher mit der Datenbrille 10 physisch verbundenen Weltkamera durchgeführt. Die Klassifiziereinheit 14 berücksichtigt bei der Durchführung des Nutzeraktivitätserkennungsschritts 16 Informationen, die in dem, dem Nutzeraktivitätserkennungsschritt 16 zeitlich vorangehenden nutzerspezifischen Anlernschritt 18 durch das Anlernen der Klassifiziereinheit 14 ermittelt wurden. Der Nutzeraktivitätserkennungsschritt 16 kann vollständig von der Steuer- und/oder Regeleinheit 44 der Datenbrille 10 oder zumindest teilweise in der Cloud 22 ausgeführt werden.
  • In zumindest einem weiteren Verfahrensschritt 54 wird die durch die Ausgabeeinheit 24 der Datenbrille 10 dargestellte Bildausgabe in Abhängigkeit von der in dem Nutzeraktivitätserkennungsschritt 16 ermittelten Nutzeraktivität angepasst. In zumindest einem weiteren Verfahrensschritt 56 wird basierend auf der in dem Nutzeraktivitätserkennungsschritt 16 ermittelten Nutzeraktivität eine bestimmte Funktion und/oder ein bestimmtes Programm der Datenbrille 10 ausgeführt und/oder beendet.

Claims (11)

  1. Verfahren zu einer Nutzeraktivitätserkennung für Datenbrillen (10), mit einer, zumindest eine integrierte Sensoreinheit (12) umfassenden Datenbrille (10), wobei in zumindest einem durch eine Klassifiziereinheit (14) vorgenommenen Nutzeraktivitätserkennungsschritt (16) eine Aktivität eines Nutzers der Datenbrille (10) mittels einer Auswertung von Daten, die durch die integrierte Sensoreinheit (12) erfasst werden, erkannt wird, dadurch gekennzeichnet, dass die Klassifiziereinheit (14) bei der Durchführung des Nutzeraktivitätserkennungsschritts (16) Informationen berücksichtigt, die in einem, insbesondere dem Nutzeraktivitätserkennungsschritt (16) zeitlich vorangehenden, vorzugsweise nutzerspezifischen, Anlernschritt (18) durch Anlernen der Klassifiziereinheit (14) ermittelt wurden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass in dem Anlernschritt (18) die Klassifiziereinheit (14) unter Zuhilfenahme von Messdaten zumindest eines dem Nutzer zugeordneten und von der Datenbrille (10) getrennt ausgebildeten externen Sensors (20) angelernt wird.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass der externe Sensor (20) zumindest Teil eines, insbesondere dem Nutzer zugeordneten, Smartphones, Wearables oder Fahrzeugs ist.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Klassifiziereinheit (14) ein neuronales Netz oder einen statischen Klassifikator umfasst, welches in dem Anlernschritt (18) trainiert wird.
  5. Verfahren nach den Ansprüchen 2 und 4, dadurch gekennzeichnet, dass in dem Anlernschritt (18) aus den Sensordaten des externen Sensors (20) Nutzer-Kontextinformationen ermittelt werden, welche zur Validierung der zeitgleich durch die Klassifiziereinheit (14) aus den Messdaten der integrierten Sensoreinheit (12) bestimmten momentanen Aktivität herangezogen werden.
  6. Verfahren nach einem der Ansprüche 1 oder 4, dadurch gekennzeichnet, dass in dem Anlernschritt (18) die Klassifiziereinheit (14) unter Zuhilfenahme von durch den Nutzer ausgeführten Funktionen und/oder Programmen der Datenbrille (10) angelernt wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Nutzeraktivitätserkennungsschritt (16) und/oder der Anlernschritt (18) zumindest unabhängig von jeglicher mit der Datenbrille (10), insbesondere physisch, verbundenen Weltkamera durchgeführt wird/werden.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Klassifiziereinheit (14) in die Datenbrille (10) integriert ist oder dass die Klassifiziereinheit (14) zumindest teilweise in einer Cloud (22) ausgeführt wird.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine durch eine Ausgabeeinheit (24) der Datenbrille (10) dargestellte Bildausgabe in Abhängigkeit von der in dem Nutzeraktivitätserkennungsschritt (16) ermittelten Nutzeraktivität angepasst wird und/oder dass basierend auf der in dem Nutzeraktivitätserkennungsschritt (16) ermittelten Nutzeraktivität eine bestimmte Funktion und/oder ein bestimmtes Programm der Datenbrille (10) ausgeführt und/oder beendet wird.
  10. Datenbrille (10), welche zumindest zu einer Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche vorgesehen ist, mit zumindest einer integrierten Sensoreinheit (12).
  11. System (26), welches zumindest zu einer Durchführung eines Verfahrens nach dem Anspruch 2 vorgesehen ist, mit der Datenbrille (10) nach Anspruch 10 und mit zumindest einem mit der Datenbrille (10) kommunizierenden externen Sensor (20).
DE102022201351.4A 2022-02-09 2022-02-09 Verfahren zu einer Nutzeraktivitätserkennung für Datenbrillen und Datenbrille Pending DE102022201351A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102022201351.4A DE102022201351A1 (de) 2022-02-09 2022-02-09 Verfahren zu einer Nutzeraktivitätserkennung für Datenbrillen und Datenbrille
US18/162,980 US11868528B2 (en) 2022-02-09 2023-02-01 Method for a user activity recognition for data glasses, and data glasses

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022201351.4A DE102022201351A1 (de) 2022-02-09 2022-02-09 Verfahren zu einer Nutzeraktivitätserkennung für Datenbrillen und Datenbrille

Publications (1)

Publication Number Publication Date
DE102022201351A1 true DE102022201351A1 (de) 2023-08-10

Family

ID=87312681

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022201351.4A Pending DE102022201351A1 (de) 2022-02-09 2022-02-09 Verfahren zu einer Nutzeraktivitätserkennung für Datenbrillen und Datenbrille

Country Status (2)

Country Link
US (1) US11868528B2 (de)
DE (1) DE102022201351A1 (de)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5966510B2 (ja) * 2012-03-29 2016-08-10 ソニー株式会社 情報処理システム
CN110637274B (zh) * 2017-05-24 2022-05-03 索尼公司 信息处理设备、信息处理方法以及程序
US11145096B2 (en) * 2018-03-07 2021-10-12 Samsung Electronics Co., Ltd. System and method for augmented reality interaction
US11632454B2 (en) * 2021-04-19 2023-04-18 Meta Platforms Technologies, Llc Head-worn wearable devices for automatically ceasing the capture of video data, and methods of use thereof

Also Published As

Publication number Publication date
US11868528B2 (en) 2024-01-09
US20230251708A1 (en) 2023-08-10

Similar Documents

Publication Publication Date Title
US10525984B2 (en) Systems and methods for using an attention buffer to improve resource allocation management
CN108803604A (zh) 车辆自动驾驶方法、装置以及计算机可读存储介质
CN111709264A (zh) 驾驶员注意力监测方法和装置及电子设备
DE102018102194A1 (de) Elektronische Einrichtung, Informationsverarbeitungsverfahren und Programm
JP2019535089A (ja) 視覚配分管理を提供するシステムおよび方法
WO2015155029A1 (de) Lokalisierung eines head-mounted displays (hmd) im fahrzeug
DE102015101358B4 (de) Verfahren zum Erfassen einer Fahreraufmerksamkeit gegenüber Objekten
WO2017040519A1 (en) Method and system for monitoring driving behaviors
EP3956807A1 (de) Neuronales netzwerk zur kopfhaltungs- und blickschätzung mittels fotorealistischer synthetischer daten
DE102019122267A1 (de) Blickrichtungsnachverfolgung eines fahrzeuginsassen
CN110547807A (zh) 驾驶行为分析方法、装置、设备及计算机可读存储介质
CN115690750A (zh) 一种驾驶员分心检测方法和装置
WO2021170421A1 (de) Verfahren zum betreiben einer datenbrille in einem kraftfahrzeug sowie system mit einem kraftfahrzeug und einer datenbrille
CN112954486B (zh) 基于视线注意力的车载视频留痕处理方法
CN111989915A (zh) 用于视觉推断的动态图像区域选择
DE102022201351A1 (de) Verfahren zu einer Nutzeraktivitätserkennung für Datenbrillen und Datenbrille
CN116543266A (zh) 注视行为知识引导的自动驾驶智能模型训练方法及装置
CN115257564A (zh) 车载显示屏角度自调节系统及方法
KR101005339B1 (ko) 개인화된 템플릿 기반의 지능형 졸음운전 감시시스템
DE112021001872T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, und programm
KR20110065304A (ko) 개인화된 템플릿 기반의 지능형 졸음운전 감시시스템 및 방법
WO2020193392A1 (de) Verfahren zur zielführung zu einer zielperson, elektronische vorrichtung der zielperson und elektronische vorrichtung des abholers sowie kraftfahrzeug
DE102018211973A1 (de) Proaktive kontextbasierte Bereitstellung von Diensteempfehlungen in Fahrzeugen
CN113408431B (zh) 基于眼球追踪的智能驾驶评估训练方法、系统
CN114454889B (zh) 用于远程驾驶的行驶路面状况反馈方法、装置和无人车