DE102019008548A1 - Sensordatenverwaltung - Google Patents

Sensordatenverwaltung Download PDF

Info

Publication number
DE102019008548A1
DE102019008548A1 DE102019008548.5A DE102019008548A DE102019008548A1 DE 102019008548 A1 DE102019008548 A1 DE 102019008548A1 DE 102019008548 A DE102019008548 A DE 102019008548A DE 102019008548 A1 DE102019008548 A1 DE 102019008548A1
Authority
DE
Germany
Prior art keywords
sensor data
sequences
data elements
activity
label sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019008548.5A
Other languages
English (en)
Inventor
Tuomas Hapola
Mikko Martikka
Timo Eriksson
Erik Lindman
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suunto Oy
Original Assignee
Amer Sports Digital Services Oy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/228,981 external-priority patent/US20190142307A1/en
Application filed by Amer Sports Digital Services Oy filed Critical Amer Sports Digital Services Oy
Publication of DE102019008548A1 publication Critical patent/DE102019008548A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0062Monitoring athletic performances, e.g. for determining the work of a user on an exercise apparatus, the completed jogging or cycling distance
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0223Magnetic field sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/029Humidity sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/002Monitoring the patient using a local or closed circuit, e.g. in a room or building
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1112Global tracking of patients, e.g. by using GPS
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7242Details of waveform analysis using integration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/7257Details of waveform analysis characterised by using transforms using Fourier transforms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0062Monitoring athletic performances, e.g. for determining the work of a user on an exercise apparatus, the completed jogging or cycling distance
    • A63B2024/0071Distinction between different activities, movements, or kind of sports performed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • G06F2218/16Classification; Matching by matching signal segments

Abstract

Gemäß einem beispielhaften Aspekt der vorliegenden Erfindung wird eine persönliche Multisensorvorrichtung bereitgestellt, die Folgendes umfasst: einen Speicher, der zum Speichern mehrerer Sequenzen von Sensordatenelementen konfiguriert ist, und mindestens einen Verarbeitungskern , der für Folgendes konfiguriert ist: Ableiten mehrerer Sensordatensegmente aus den mehreren Sequenzen von Sensordatenelementen, wobei jedes Sensordatensegment zeitlich ausgerichtete Sensordatenelement-Teilsequenzen aus mindestens zwei der Sequenzen von Sensordatenelementen umfasst, und Zuordnen eines Etiketts zu mindestens einigen der Sensordatensegmente, basierend auf den Sensordatenelementen, die in den jeweiligen Sensordatensegmenten enthalten sind, um eine Etikettensequenz zu erhalten.

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft die Verwaltung von Benutzerdaten, die von Sensorvorrichtungen erzeugt werden.
  • HINTERGRUND
  • Benutzersitzungen, wie Aktivitätssitzungen, können beispielsweise in Notizbüchern, Tabellenkalkulationen oder anderen geeigneten Medien aufgezeichnet werden. Aufgezeichnete Trainingseinheiten ermöglichen ein systematischeres Training, und Fortschritte bei der Erreichung festgelegter Ziele können anhand der so erstellten Aufzeichnungen bewertet und verfolgt werden. Solche Aufzeichnungen können zur späteren Bezugnahme gespeichert werden, um beispielsweise den Fortschritt zu beurteilen, den eine Person als Ergebnis des Trainings erzielt. Eine Aktivitätssitzung kann eine Trainingssitzung oder einen anderen Typ von Sitzung umfassen.
  • Persönliche Sensorvorrichtungen, wie zum Beispiel Sensorknöpfe, Smartwatches, Smartphones oder Smartschmuck, können konfiguriert sein, um Sensordaten für Sitzungsaufzeichnungen zu erzeugen. Solche aufgezeichneten Sitzungen können nützlich sein, um das körperliche Training, die Sicherheit von Kindern oder berufliche Zwecke zu steuern. Aufgezeichnete Sitzungen oder allgemein sensorgestütztes Aktivitätsmanagement können unterschiedlicher Art sein, beispielsweise Laufen, Gehen, Skifahren, Kanufahren, Wandern oder Unterstützung älterer Menschen.
  • Aufgezeichnete Sitzungen können beispielsweise unter Verwendung eines Personalcomputers angezeigt werden, wobei Aufzeichnungen von einer Personalvorrichtung auf den Personalcomputer kopiert werden können. Dateien auf einem Personalcomputer können zum Beispiel durch Passwörter und/oder Verschlüsselung geschützt werden.
  • Persönliche Vorrichtungen können mit Sensoren ausgestattet sein, die beispielsweise zum Bestimmen eines Orts, einer Beschleunigung oder einer Drehung der persönlichen Vorrichtung verwendet werden können. Beispielsweise kann ein Satelliten-Positionssensor Positionsinformationen von einer Satellitenkonstellation empfangen und daraus ableiten, wo sich die persönliche Vorrichtung befindet. Eine aufgezeichnete Trainingseinheit kann eine Route umfassen, die durch wiederholtes Bestimmen des Standorts der persönlichen Vorrichtung während der Trainingseinheit bestimmt wird. Eine solche Route kann später beispielsweise mit einem Personalcomputer beobachtet werden.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die Erfindung wird durch die Merkmale der unabhängigen Ansprüche definiert. Einige spezifische Ausführungsformen sind in den abhängigen Ansprüchen definiert.
  • Gemäß einem ersten Aspekt der vorliegenden Erfindung wird eine persönliche Multisensorvorrichtung bereitgestellt, die Folgendes umfasst: einen Speicher, der zum Speichern mehrerer Sequenzen von Sensordatenelementen konfiguriert ist, und mindestens einen Verarbeitungskern, der für Folgendes konfiguriert ist: Ableiten mehrerer Sensordatensegmente aus den mehreren Sequenzen von Sensordatenelementen, wobei jedes Sensordatensegment zeitlich ausgerichtete Sensordatenelement-Teilsequenzen aus mindestens zwei der Sequenzen von Sensordatenelementen umfasst, und Zuordnen eines Etiketts (bzw. eines Labels) zu mindestens einigen der Sensordatensegmente, basierend auf den Sensordatenelementen, die in den jeweiligen Sensordatensegmenten enthalten sind, um eine Etikettensequenz zu erhalten.
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird ein Verfahren in einer persönlichen Multisensorvorrichtung bereitgestellt, das Folgendes umfasst: Speichern mehrerer Sequenzen von Sensordatenelementen, Ableiten mehrerer Sensordatensegmente aus den mehreren Sequenzen von Sensordatenelementen, wobei jedes Sensordatensegment zeitlich ausgerichtete Sensordatenelement-Teilsequenzen aus mindestens zwei der Sequenzen von Sensordatenelementen umfasst, und Zuordnen eines Etiketts zu mindestens einigen der Sensordatensegmente, basierend auf den Sensordatenelementen, die in den jeweiligen Sensordatensegmenten enthalten sind, um eine Etikettensequenz zu erhalten.
  • Gemäß einem dritten Aspekt der vorliegenden Erfindung wird eine Servervorrichtung bereitgestellt, die einen Empfänger umfasst, der zum Empfangen einer Etikettensequenz konfiguriert ist, die basierend auf Sensordatenelementen zugewiesen werden, wobei die Sensordatenelemente nicht in der Etikettensequenz enthalten sind und mindestens ein Verarbeitungskern dafür konfiguriert ist, auf der Grundlage der Etikettensequenz einen Aktivitätstyps zu bestimmen, an dem ein Benutzer teilgenommen hat.
  • Gemäß einem vierten Aspekt der vorliegenden Erfindung wird ein Verfahren in einer Servervorrichtung bereitgestellt, das Folgendes umfasst: Empfangen einer Etikettensequenz, die basierend auf Sensordatenelementen zugewiesen wurden, wobei die Sensordatenelemente nicht in der Etikettensequenz enthalten sind, und auf der Grundlage der Etikettensequenz Bestimmen eines Aktivitätstyps, an dem ein Benutzer teilgenommen hat.
  • Gemäß einem fünften Aspekt der vorliegenden Erfindung wird ein Computerprogramm bereitgestellt, das dafür konfiguriert ist, zu bewirken, dass ein Verfahren gemäß dem zweiten und/oder dem vierten Aspekt durchgeführt wird.
  • Figurenliste
    • 1 zeigt ein beispielhaftes System gemäß mindestens einigen Ausführungsformen der vorliegenden Erfindung;
    • 2A zeigt eine beispielhafte multisensorielle Zeitreihe;
    • 2B zeigt eine zweite beispielhafte multisensorielle Zeitreihe;
    • 3 veranschaulicht eine beispielhafte Vorrichtung, die in der Lage ist, zumindest einige Ausführungsformen der vorliegenden Erfindung zu unterstützen;
    • 4 zeigt eine Signalisierung gemäß zumindest einigen Ausführungsformen der vorliegenden Erfindung und
    • 5 ist ein Flussdiagramm eines Verfahrens gemäß mindestens einigen Ausführungsformen der vorliegenden Erfindung.
  • AUSFÜHRUNGSFORMEN
  • In einer Benutzervorrichtung erzeugte Sensordaten können aufgrund ihres großen Volumens beim Speichern oder Verarbeiten Ressourcen verbrauchen. Folglich ist es von Interesse, die Menge solcher Sensordaten zu verringern. Das Verringern der Menge der Sensordaten sollte darauf abzielen, die Menge der Sensordaten zu verringern, während die Nutzbarkeit der Sensordaten erhalten bleibt. Hierin werden Verfahren zum Ersetzen von Rohdaten des Sensors durch semantische Interpretationen der Rohdaten des Sensors in Form von Etiketten beschrieben, die Segmenten der Sensordaten zugeordnet sind, wodurch das Datenvolumen stark reduziert wird, während seine Bedeutung erhalten bleibt.
  • 1 zeigt ein beispielhaftes System gemäß mindestens einigen Ausführungsformen der vorliegenden Erfindung. Das System umfasst eine Vorrichtung 110, die zum Beispiel eine Multisensorvorrichtung wie zum Beispiel eine persönliche Multisensorvorrichtung wie zum Beispiel eine persönliche Biosensorvorrichtung wie eine intelligente Uhr oder eine digitale Uhr, eine Sensortaste oder eine andere geeignete Vorrichtung umfassen kann. Im Allgemeinen kann eine Biosensorvorrichtung beispielsweise eine Fitnesssensorvorrichtung oder eine Therapiesensorvorrichtung umfassen. In dem dargestellten Beispiel ist die Vorrichtung 110 am Knöchel des Benutzers angebracht, sie kann jedoch auch anderweitig mit dem Benutzer verbunden sein, beispielsweise indem sie um das Handgelenk getragen wird. Eine Sensortaste ist eine Vorrichtung mit einer Reihe von Sensoren und einer Kommunikationsschnittstelle, die so konfiguriert sind, dass von jedem Sensor eine Sequenz von Sensordatenelementen erzeugt wird. Ein Sensorknopf kann von einer Batterie gespeist werden oder seine Energie zum Beispiel aus Bewegungen des Benutzers beziehen. Die MultisensorVorrichtung kann beispielsweise eine Internet der Dinge-, IoT-, Vorrichtung, umfassen.
  • Die Sensoren können dafür konfiguriert sein, beispielsweise Beschleunigung, Drehung, Feuchtigkeit, Druck und/oder andere Variablen zu messen. In einer spezifischen Ausführungsform sind die Sensoren dafür konfiguriert, die Beschleunigung entlang drei zueinander orthogonalen Achsen und die Drehung um drei zueinander orthogonale Achsen zu messen. Die Sensoren können einachsige oder mehrachsige Magnetfeldsensoren, Hautsignal-EMG-, EKG-, Herzschlag- und/oder optische Impulssensoren umfassen. Zusätzlich oder alternativ kann die menschliche Aktivität durch Bewegung oder Verwendung von Sportvorrichtungen, Werkzeugen, Maschinen und/oder Vorrichtungen erfasst werden. Insgesamt würden solche Sensoren sechs Sequenzen von Sensordatenelementen erzeugen, so dass in jeder Sequenz die Sensordatenelemente in chronologischer Sequenz vorliegen und einmal pro Abtastintervall erhalten werden. Die Abtastintervalle der Sensoren müssen nicht gleich sein.
  • Die Vorrichtung 110 kann direkt oder indirekt mit einem Kommunikationsnetz kommunikativ gekoppelt sein. Beispielsweise ist in 1 die Vorrichtung 110 über eine drahtlose Verbindung 112 mit der Basisstation 120 gekoppelt. Die Basisstation 120 kann eine zellulare oder nicht-zellulare Basisstation umfassen, wobei eine nicht-zellulare Basisstation als Zugangspunkt bezeichnet werden kann. Beispiele für Mobilfunktechnologien umfassen WCDMA (Wide Band Code Division Multiple Access) und LTE (Long Term Evolution), während Beispiele für nicht-Mobilfunktechnologien WLAN (Wireless Local Area Network) und WiMAX (Worldwide Interoperability for Microwave Access) umfassen. Die Basisstation 120 kann über die Verbindung 123 mit dem Netzwerkknoten 130 gekoppelt sein. Die Verbindung 123 kann beispielsweise eine Drahtleitungsverbindung sein. Der Netzwerkknoten 130 kann zum Beispiel eine Steuerung oder eine Gateway-Vorrichtung umfassen. Der Netzwerkknoten 130 kann über die Verbindung 134 mit dem Netzwerk 140 verbunden sein, das beispielsweise das Internet oder ein Unternehmensnetzwerk umfassen kann. Das Netzwerk 140 kann über die Verbindung 141 mit weiteren Netzwerken gekoppelt sein. Das Netzwerk 140 kann zum Beispiel einen Back-End-Server umfassen oder mit diesem kommunikativ gekoppelt sein.
  • Die Vorrichtung 110 kann dafür konfiguriert sein, direkt oder indirekt von der Satellitenkonstellation 150 Satellitenpositionsinformationen über die Satellitenverbindung 151 zu empfangen. Die Satellitenkonstellation kann beispielsweise das globale Positionsbestimmungssystem, GPS oder die Galileo-Konstellation umfassen. Die Satellitenkonstellation 150 kann mehr als einen Satelliten umfassen, obwohl aus Gründen der Klarheit in 1 nur ein Satellit dargestellt ist. Ebenso kann das Empfangen der Positionsinformation über die Satellitenverbindung 151 das Empfangen von Daten von mehr als einem Satelliten umfassen.
  • Wenn die Vorrichtung 110 indirekt mit dem Kommunikationsnetz und/oder der Satellitenkonstellation 150 gekoppelt ist, kann sie dafür eingerichtet sein, mit einer persönlichen Vorrichtung des Benutzers 101 zu kommunizieren, beispielsweise einem Smartphone, das eine Konnektivität mit dem Kommunikationsnetz und/oder der Satellitenkonstellation 150 aufweist. Die Vorrichtung 110 kann mit der persönlichen Vorrichtung beispielsweise über eine Nahbereichskommunikationstechnologie wie die Bluetooth- oder Wibree-Technologie oder in der Tat über ein Kabel kommunizieren. Die persönliche Vorrichtung und die Vorrichtung 110 können als ein persönliches Netzwerk PAN betrachtet werden.
  • Alternativ oder zusätzlich zum Empfangen von Daten von einer Satellitenkonstellation kann die Vorrichtung 110 oder die persönliche Vorrichtung Positionsinformationen durch Interaktion mit einem Netzwerk erhalten, in dem die Basisstation 120 enthalten ist. Zum Beispiel können zellulare Netzwerke verschiedene Methoden zum Positionieren einer Vorrichtung verwenden, wie zum Beispiel Trilateration, Multilateration oder Positionieren basierend auf der Identität einer Basisstation, mit der eine Verbindung möglich ist oder besteht. Ebenso kann eine nicht-zellulare Basisstation oder ein Zugangspunkt ihren eigenen Standort kennen und der Vorrichtung 110 oder der persönlichen Vorrichtung zur Verfügung stellen, wodurch die Vorrichtung 110 und/oder die persönliche Vorrichtung sich innerhalb des Kommunikationsbereichs dieses Zugangspunkts positionieren können. Die Vorrichtung 110 oder die persönliche Vorrichtung dafür können konfiguriert sein, eine aktuelle Zeit von der Satellitenkonstellation 150, der Basisstation 120 oder beispielsweise durch Anfordern von dem Benutzer zu erhalten.
  • Die Vorrichtung 110 oder die persönliche Vorrichtung können dafür konfiguriert sein, eine Aktivitätssitzung bereitzustellen. Eine Aktivitätssitzung kann einem Aktivitätstyp zugeordnet sein. Beispiele für Aktivitätstypen sind Rudern, Paddeln, Radfahren, Joggen, Wandern, Jagen, Schwimmen und Gleitschirmfliegen. In einer einfachen Form kann eine Aktivitätssitzung das Speichern von Sensordaten umfassen, die mit Sensoren erzeugt wurden, die beispielsweise in der Vorrichtung 110, der persönlichen Vorrichtung oder einem Server enthalten sind. Es kann bestimmt werden, dass eine Aktivitätssitzung zu bestimmten Zeitpunkten gestartet und beendet wurde, sodass die Bestimmung anschließend oder gleichzeitig mit dem Start und/oder Ende erfolgt. Mit anderen Worten, kann die Vorrichtung 110 Sensordaten speichern, um eine nachfolgende Identifizierung von Aktivitätssitzungen basierend zumindest teilweise auf den gespeicherten Sensordaten zu ermöglichen.
  • Eine Aktivitätssitzung kann ein Dienstprogramm verbessern, das ein Benutzer aus der Aktivität erhalten kann, wenn beispielsweise die Aktivität eine Bewegung im Freien umfasst, kann die Aktivitätssitzung eine Aufzeichnung der Aktivitätssitzung bereitstellen. Eine Aufzeichnung einer Aktivitätssitzung kann in einigen Ausführungsformen dem Benutzer kontextbezogene Informationen bereitstellen. Solche Kontextinformationen können zum Beispiel lokal relevante Wetterinformationen umfassen, die zum Beispiel über die Basisstation 120 empfangen werden. Solche Kontextinformationen können mindestens eines der Folgenden umfassen: eine Regenwamung, eine Temperaturwarnung, eine Anzeige der verbleibenden Zeit vor Sonnenuntergang, eine Anzeige eines für die Aktivität relevanten Dienstes in der Nähe, eine Sicherheitswarnung, eine Anzeige von in der Nähe befindlichen Benutzern und einen Anzeige eines nahe gelegenen Ortes, an dem mehrere andere Benutzer Fotos gemacht haben. Kontextinformationen können während einer Aktivitätssitzung angezeigt werden.
  • Eine Aufzeichnung einer Aktivitätssitzung kann Informationen über mindestens eines der Folgenden umfassen: eine während der Aktivitätssitzung zurückgelegte Route, eine Stoffwechselrate oder einen Stoffwechseleffekt der Aktivitätssitzung, eine Zeit, die die Aktivitätssitzung dauerte, eine während der Aktivitätssitzung verbrauchte Energiemenge, eine während der Aktivitätssitzung erhaltene Tonaufnahme und eine Höhenkarte entlang der Länge der Route, die während der Aktivitätssitzung genommen wurde. Eine Route kann zum Beispiel basierend auf Positionsinformationen bestimmt werden. Stoffwechseleffekt und verbrauchte Energie können zumindest teilweise auf der Grundlage von Sensordaten bestimmt werden, die vom Benutzer 101 während der Aktivitätssitzung erhalten wurden. Eine Aufzeichnung kann auf der Vorrichtung 110, der persönlichen Vorrichtung oder auf einem Server oder einem anderen Cloud-Datenspeicherdienst gespeichert sein. Eine auf einem Server oder in einer Cloud gespeicherte Aufzeichnung kann vor der Übertragung an den Server oder die Cloud verschlüsselt werden, um die Privatsphäre des Benutzers zu schützen. Eine Aufzeichnung kann auch dann erstellt werden, wenn der Benutzer nicht angegeben hat, dass eine Aktivitätssitzung begonnen hat, da ein Beginn und ein Ende einer Aktivitätssitzung nach Beendigung der Sitzung, beispielsweise zumindest teilweise basierend auf Sensordaten, bestimmt werden können.
  • Nachdem eine Aktivität beendet wurde, können in der Vorrichtung 110 oder in einem Speicher, auf den die Vorrichtung 110 Zugriff hat, mehrere Sequenzen von Sensordatenelementen gespeichert sein. Die gespeicherten Sequenzen von Sensordatenelementen können in chronologischer Sequenz als Zeitreihe gespeichert werden, die die Aktivitätssitzung sowie die Zeit vor und/oder nach der Aktivitätssitzung umfasst. Der Anfangs- und Endzeitpunkt der Aktivitätssitzung kann vom Benutzer aus der Zeitreihe oder dynamisch von der Vorrichtung 110 ausgewählt werden. Wenn zum Beispiel in der Zeitreihe Beschleunigungssensordaten beginnen, aktivere Bewegungen der Vorrichtung 110 anzuzeigen, kann ein Anfangspunkt einer Aktivitätssitzung ausgewählt werden. Eine solche Änderung kann einer Zeit in der Zeitreihe entsprechen, zu der der Benutzer das Autofahren eingestellt und beispielsweise mit dem Joggen begonnen hat. Ebenso kann eine Phase in der Zeitreihe, in der die aktiveren Bewegungen enden, als Endpunkt der Aktivitätssitzung ausgewählt werden.
  • Wie oben beschrieben, können die mehreren Sequenzen von Sensordatenelementen Daten von mehr als einem Sensor umfassen, wobei der mehr als eine Sensor Sensoren von mindestens zwei unterschiedlichen Typen umfassen kann. Beispielsweise können mehrere Sequenzen von Sensordatenelementen Sequenzen von Beschleunigungssensor-Datenelementen und Rotationssensor-Datenelementen umfassen. Weitere Beispiele sind Schallvolumensensordaten, Feuchtigkeitssensordaten und elektromagnetische Sensordaten. Im Allgemeinen kann jede Sequenz von Sensordatenelementen Daten von einem und nur einem Sensor umfassen.
  • Ein Aktivitätstyp kann zumindest teilweise basierend auf den Sensordatenelementen bestimmt werden. Diese Bestimmung kann erfolgen, wenn die Aktivität auftritt oder wenn anschließend die Sensordaten analysiert werden. Der Aktivitätstyp kann von der Vorrichtung 110 oder von einem serverseitigen Computer bestimmt werden, der beispielsweise Zugriff auf die Sensordaten hat, oder von einem Server, der Zugriff auf die Sensordaten erhält. Wenn einem Server Zugriff auf die Sensordaten gewährt wird oder wenn in einigen Ausführungsformen eine Aktivitätstyperkennung an der Vorrichtung 110 oder der persönlichen Vorrichtung durchgeführt wird, können die Sensordaten zu einer Etikettensequenz verarbeitet werden.
  • Eine Etikettensequenz kann den Inhalt von Sensordaten charakterisieren. Wenn die Sensordatenelemente beispielsweise numerische Werte sind, die während des Joggens erhalten werden, kann eine Etikettensequenz, die von diesen Sensordatenelementen abgeleitet werden, eine Etikettensequenz umfassen: {Jogging-Schritt, Jogging-Schritt, Jogging-Schritt, Jogging-Schritt, Jogging-Schritt, ...}. Ebenso kann, wenn die Sensordatenelemente während eines Weitsprungs erhaltene numerische Werte sind, eine Etikettensequenz, die von diesen Sensordatenelementen abgeleitet sind, eine Etikettensequenz umfassen: {Sprintschritt, Sprintschritt, Sprintschritt, Sprintschritt, Sprintschritt, Sprung, Stopp}. Ebenso kann, wenn die Sensordatenelemente während eines Dreifachsprungs erhaltene numerische Werte sind, eine Folge von Etiketten, die von diesen Sensordatenelementen abgeleitet sind, eine Folge von Etiketten umfassen: {Sprintschritt, Sprintschritt, Sprintschritt, Sprintschritt, Sprung, Sprung, Sprung, Stopp}. Die Sequenzen von Markierungen können somit zur Identifizierung des Aktivitätstyps verwendet werden, beispielsweise zur Unterscheidung zwischen Weitsprung und Dreisprung anhand der Anzahl der Sprünge.
  • Die Etiketten können in natürlicher Sprache oder als Indizes zu einer vordefinierten Tabelle ausgedrückt werden, die dynamisch aktualisiert werden kann, wenn neue Typen von Trainingsgrundelementen bekannt werden. Zum Beispiel kann in der Tabelle ein Jogging-Schritt als 01 dargestellt werden, ein Sprintschritt (d. h. ein Schritt, der viel schneller als das Joggen ist) als 02, ein Sprung als 03 und ein Anhalten der Bewegung kann als 04 dargestellt werden. Somit würde der Dreisprung als eine Etikettensequenz {02, 02, 02, 02, 03, 03, 03, 04} dargestellt. Die Aktivität, zum Beispiel ein Dreisprung, kann an den Etiketten erkannt werden, während die Etikettensequenz deutlich weniger Platz beansprucht als die ursprünglichen Sequenzen der Sensordatenelemente.
  • Um die Sequenzen von Sensordatenelementen zu einer Etikettensequenz zu verarbeiten, können Sensordatensegmente aus den Sequenzen von Sensordatenelementen abgeleitet werden. Jedes Sensordatensegment kann dann einem Trainingsgrundelement zugeordnet und mit einem Etikett versehen werden, um die Etikettensequenz zu erhalten. Jedes Sensordatensegment kann zeitlich ausgerichtete Sensordatenelement-Teilsequenzen aus mindestens zwei der Sequenzen von Sensordatenelementen umfassen. Mit anderen Worten werden Segmente von Sensordaten abgeleitet, wobei jedes solche Segment eine Zeitscheibe von ursprünglichen Sequenzen von Sensordatenelementen umfasst. Dies kann so konzipiert werden, dass ein Multisensor-Datenstrom, der beim Joggen erfasst wird, in die einzelnen Schritte zerlegt wird, aus denen die Jogging-Sitzung besteht. Ebenso können andere Aktivitätssitzungen zeitlich in Trainingsprimitive unterteilt werden, aus denen sich die Aktivität zusammensetzt.
  • Um die Segmente abzuleiten, kann die Vorrichtung 110 oder eine andere Vorrichtung dafür konfiguriert sein, die Sequenzen von Sensordatenelementen zu analysieren, um darin Einheiten zu identifizieren. Jedes Segment kann Schichten der Sequenzen von Sensordatenelementen umfassen, wobei die Schichten zeitlich ausgerichtet sind, d. h. zur gleichen Zeit von den jeweiligen Sensoren erhalten werden.
  • Beispielsweise sind Laufschritte wiederholender Natur, weshalb das Identifizieren eines Musters in den Sequenzen von Sensordatenelementen, das sich mit einer bestimmten Frequenz wiederholt, ein Hinweis darauf ist, dass die Sequenzen gemäß dieser Frequenz segmentiert werden können. Eine Frequenz kann zum Beispiel identifiziert werden, indem eine schnelle Fouriertransformation (Fast Fourier Transform, FFT) an jeder der Sequenzen von Sensordatenelementen durchgeführt wird und dann das resultierende Spektrum gemittelt wird, um eine Gesamtfrequenzcharakteristik der Sequenzen von Sensordatenelementen zu erhalten.
  • Im Falle einer Bewegung besteht eine Möglichkeit, die Sensordaten zu segmentieren, darin, zu versuchen, eine relative Trajektorie der Sensorvorrichtung zu konstruieren. Eine Möglichkeit, diese Trajektorie abzuschätzen, besteht darin, die x-, y- und z-Komponenten der Beschleunigungssensorausgänge doppelt zu integrieren. In diesem Prozess können schwerkraftbedingte Tendenzen entfernt werden. Mathematisch kann dies durch Berechnen der Grundlinie jeder Ausgabe erfolgen. Eine Möglichkeit besteht darin, die Daten wie in der nächsten Gleichung zu filtern. acc_i_baseline = acc_i_baseline + coeff_a* ( acc_i acc_i_baseline )
    Figure DE102019008548A1_0001
  • Acc oben bezieht sich auf die Beschleunigungsmessung und i bezieht sich auf ihre Komponenten x, y und z. Diese gefilterten Werte können von den tatsächlichen Messungen abgezogen werden: acc_i_without_G = acc_i - acc_i_baseline. Dies ist eine grobe Schätzung der tatsächlichen Linearbeschleunigung, aber dennoch eine schnelle und zuverlässige Möglichkeit, diese zu schätzen. Die Integration dieser linearen Beschleunigungswerte führt zur Schätzung der Geschwindigkeit der Sensorvorrichtung im dreidimensionalen 3D-Raum. Die Geschwindigkeitskomponenten weisen aufgrund der unvollständigen linearen Beschleunigungsschätzung Tendenzen auf. Diese Tendenzen können wie in der vorherigen Gleichung entfernt werden: v_i_baseline = v_i_baseline + coeff_v* ( v_i v_i_baseline )
    Figure DE102019008548A1_0002
  • V oben bezieht sich auf die Geschwindigkeitsschätzung und I auf seine Komponenten x, y und z. Diese Geschwindigkeitskomponenten sind keine wahren Geschwindigkeiten der Sensorvorrichtung, sondern einfach und robust berechnete Schätzungen derselben. Die Basislinienkomponenten können vor der Integration von den Geschwindigkeitsschätzungen subtrahiert werden: v_i_wo_bias = v_i - v_i_baseline. Da das bisherige Verfahren unvollständig ist, erzeugen die Integrale der Geschwindigkeitskomponenten vorgespannte Positionsschätzungen p_x, p_y und p_z. Daher müssen diese Verzerrungen wie in den vorherigen Gleichungen beseitigt werden: p_i_baseline = p_i_baseline + coeff_p* ( p_i p_i_baseline )
    Figure DE102019008548A1_0003
  • P oben bezieht sich auf die Positionsschätzung und i bezieht sich auf seine Komponenten. Da diese Prozedur effektiv 0-Mittelwerte erzeugt, ist die natürliche Referenz der Position p_x_ref = 0, p_y_ref = 0 und p_z_ref = 0. Die euklidischen Abstände der gemessenen Werte sqrt(p_x_ti**2 + p_y_ti**2 + p_z_ti**2) bilden eine Zeitreihe, die von 0 bis zu einem bestimmten Maximalwert variiert, ti bezieht sich auf den Index in der Zeitreihe. Diese Maximalwerte können leicht erkannt werden. Der Zeitpunkt des Maximalwerts beginnt und der nächste Maximalwert beendet das Segment (und startet das nächste Segment). Die Erkennung des Maximalwerts kann bedingt sein, d. h. der Maximalwert wird erst dann als Start-/Stopp-Marker akzeptiert, wenn er ein bestimmtes Niveau überschreitet.
  • Das oben beschriebene Verfahren zum Berechnen der relativen Flugbahn kann auch präziser sein, indem die Gyroskope verwendet werden und z.B. ergänzende Filterung verwendet wird.
  • Andere Möglichkeiten zum Segmentieren der Daten, d. h. zum Ableiten der Segmente, können das Anpassen an ein periodisches Modell umfassen, beispielsweise unter Verwendung eines geeignet trainierten künstlichen neuronalen Netzwerks oder unter Verwendung eines separaten Segmentierungssignals, das über eine Funk- oder Drahtleitungsschnittstelle bereitgestellt wird. Das Segmentierungssignal kann zeitlich mit den Sequenzen von Sensordatenelementen korreliert werden, um die Segmente zu erhalten. Ein Segmentierungssignal kann beispielsweise von einem Videoerkennungssystem oder einem Druckkissensystem gesendet oder bereitgestellt werden. Ein solches Videoerkennungssystem kann beispielsweise so konfiguriert sein, dass es Schritte identifiziert.
  • Nachdem die Segmente abgeleitet wurden, kann jedem Segment eine Bezeichnung zugewiesen werden. Das Zuweisen des Etiketts kann das Identifizieren des Segments umfassen. Die Identifizierung kann das Vergleichen der in dem Segment enthaltenen Sensordaten mit einer Bibliothek von Referenzsegmenten, beispielsweise im Sinne der kleinsten Quadrate, und das Auswählen eines Referenzsegments, das dem zu beschriftenden Segment am ähnlichsten ist, aus der Bibliothek von Referenzsegmenten umfassen. Die dem Segment zugewiesene Bezeichnung ist dann eine Bezeichnung, die dem nächstgelegenen Referenzsegment in der Bibliothek der Referenzsegmente zugeordnet ist.
  • In einigen Ausführungsformen wird eine Vielzahl von Referenzsegmentbibliotheken verwendet, so dass eine erste Phase der Identifizierung die Auswahl einer Referenzsegmentbibliothek ist. Wenn beispielsweise zwei Referenzsegmentbibliotheken verwendet werden, kann eine für kontinuierliche Aktivitätstypen und eine zweite für diskontinuierliche Aktivitätstypen verwendet werden. Der kontinuierliche Aktivitätstyp wird ausgewählt, wenn die Sequenzen von Sensordatenelementen eine sich wiederholende Aktion widerspiegeln, die sich häufig wiederholt, z. B. Joggen, Gehen, Radfahren oder Rudern. Der diskontinuierliche Aktivitätstyp wird gewählt, wenn die Aktivität durch kurze zeitlich voneinander getrennte Aktionssequenzen gekennzeichnet ist, beispielsweise der oben genannte Dreisprung oder Stabhochsprung. Sobald die Referenzsegmentbibliothek ausgewählt ist, werden alle Segmente mit Beschriftungen aus der ausgewählten Referenzsegmentbibliothek gekennzeichnet.
  • Ein Vorteil, zuerst eine Referenzsegmentbibliothek auszuwählen, besteht in einer effektiveren Etikettierung, da ein geringeres Risiko besteht, dass Segmenten falsche Etikettierungen zugewiesen werden. Dies ist der Fall, da die Anzahl der Referenzsegmente, mit denen die Sensordatensegmente verglichen werden, geringer ist und die Wahrscheinlichkeit steigt, dass ein korrektes Segment ausgewählt wird.
  • Sobald die Segmente markiert wurden, kann eine Syntaxprüfung durchgeführt werden, bei der beurteilt wird, ob die Etikettensequenz sinnvoll ist. Wenn beispielsweise die Etikettensequenz mit bekannten Aktivitätstypen übereinstimmt, ist die Syntaxprüfung bestanden. Umfasst die Etikettensequenz dagegen Etiketten, die nicht zusammenpassen, kann ein Syntaxfehler generiert werden. Beispielsweise würde eine Sequenz von Jogging-Schritten, in die einige Paddelbewegungen eingemischt sind, einen Syntaxfehler erzeugen, da der Benutzer nicht wirklich gleichzeitig joggen und paddeln kann. In einigen Ausführungsformen kann ein Syntaxfehler behoben werden, indem die nicht passenden Etiketten aus der Etikettensequenz entfernt werden, falls sie in der Etikettensequenz nur selten, beispielsweise mit einer Rate von weniger als 2%, auftreten.
  • Die Referenzsegmentbibliotheken können Angaben darüber enthalten, welche Etiketten zusammenpassen, um die Behandlung von Syntaxfehlersituationen zu ermöglichen.
  • Unterschiedliche Trainingsprimitive können mit unterschiedlichen charakteristischen Frequenzen assoziiert sein. Beispielsweise können Beschleunigungssensordaten eine höhere charakteristische Frequenz widerspiegeln, wenn der Benutzer gelaufen ist, als wenn er gegangen ist. Somit kann die Etikettierung der Segmente in einigen Ausführungsformen zumindest teilweise darauf beruhen, zu entscheiden, welches Referenzsegment eine charakteristische Frequenz aufweist, die am ehesten mit einer charakteristischen Frequenz eines Abschnitts der Sequenz von zu untersuchenden Sensordatenelementen übereinstimmt. Alternativ oder zusätzlich können Beschleunigungssensordaten verwendet werden, um eine charakteristische Bewegungsamplitude zu bestimmen.
  • Die Referenzsegmentbibliotheken können multisensorielle Referenzdatensätze enthalten, so dass jedes Referenzsegment Daten enthält, die mit jedem verfügbaren Sensordatentyp verglichen werden können. Wenn beispielsweise die Vorrichtung 110 zum Kompilieren einer Zeitreihe von Beschleunigungs- und Schallsensordatentypen konfiguriert ist, können die Referenzsegmente Referenzdatensätze umfassen, wobei jedes Referenzsegment einem Etikett entspricht, wobei jedes Referenzsegment Daten umfasst, die mit den Beschleunigungsdaten verglichen werden können, und Daten, die zum Beispiel mit den Tondaten verglichen werden können. Das ermittelte Etikett kann beispielsweise als das Etikett bestimmt werden, das dem multisensoriellen Referenzsegment zugeordnet ist, das dem von der Vorrichtung 110 gespeicherten Segment am ehesten entspricht. Die Vorrichtung 110 kann zum Beispiel Mikrofone und Kameras umfassen. Darüber hinaus kann ein Funkempfänger in einigen Fällen so konfiguriert werden, dass er elektrische oder magnetische Feldeigenschaften misst. Die Vorrichtung 110 kann im Allgemeinen einen Funkempfänger umfassen, wobei die Vorrichtung 110 mit einer drahtlosen Kommunikationsfähigkeit ausgestattet ist.
  • Ein Beispiel für die Identifizierung von Aktivitätstypen durch Segmentieren und Etikettieren ist Schwimmen, wobei die Vorrichtung 110 Sequenzen von Sensordatenelementen speichert, die Feuchtesensor-Datenelemente und Magnetfeldsensor-Datenelemente umfassen. Die Feuchtigkeitssensor-Datenelemente, die das Vorhandensein von Wasser anzeigen, würden die Verwendung einer Wassersport-Referenzsegmentbibliothek verursachen. Das Schwimmen kann elliptische Bewegungen eines Arms beinhalten, an dem die Vorrichtung 110 angebracht sein kann, die als periodisch variierende Magnetfelddaten erfassbar sein können. Mit anderen Worten kann die Richtung des Erdmagnetfeldes in der Zeitreihe periodisch vom Standpunkt des Magnetfeldsensors abweichen. Dies würde es ermöglichen, die Segmente beispielsweise als Brustschwimmbewegungen zu kennzeichnen.
  • Insgesamt kann ein bestimmter oder abgeleiteter Aktivitätstyp als geschätzter Aktivitätstyp angesehen werden, bis der Benutzer bestätigt hat, dass die Bestimmung korrekt ist. In einigen Ausführungsformen können dem Benutzer einige wenige, beispielsweise zwei oder drei, wahrscheinlichste Aktivitätstypen als geschätzte Aktivitätstypen präsentiert werden, aus denen der Benutzer den richtigen Aktivitätstyp auswählen kann. Die Verwendung von zwei oder mehr Sensordatentypen erhöht die Wahrscheinlichkeit, dass der geschätzte Aktivitätstyp korrekt ist. Sobald der Benutzer einen bestimmten Aktivitätstyp bestätigt oder auswählt, kann die Etikettierung von Segmenten erzwungen werden, um mit diesem Aktivitätstyp übereinzustimmen. Dies kann beispielsweise bedeuten, dass die Menge der Referenzsegmente, mit denen die Sensordatensegmente verglichen werden, auf Referenzdatensegmente beschränkt ist, die mit diesem Aktivitätstyp übereinstimmen.
  • Wenn die Vorrichtung 110 oder eine persönliche Vorrichtung die Etiketten zuweist, kann die Etikettensequenz beispielsweise zur Speicherung an einen Netzwerkserver übertragen werden. Die Vorrichtung 110, die persönliche Vorrichtung oder der Server können basierend auf den Etiketten einen Gesamtaktivitätstyp bestimmen, an dem der Benutzer beteiligt ist. Dies kann beispielsweise auf einer Bibliothek von Referenzetikettensequenzen basieren.
  • Im Allgemeinen kann die Vorrichtung 110 oder die persönliche Vorrichtung einen maschinenlesbaren Befehl, wie beispielsweise ein ausführbares Programm oder ein ausführbares Skript, vom Server oder einer anderen Netzwerkeinheit empfangen. Der maschinenlesbare Befehl kann verwendet werden, um den Aktivitätstyp aus der Etikettensequenz zu bestimmen und/oder den Etiketten Sensordatensegmenten zuzuweisen. Im letzteren Fall kann der maschinenlesbare Befehl als Etikettierungsbefehl bezeichnet werden.
  • Der Prozess kann adaptiv lernen, basierend auf den maschinenlesbaren Befehlen, Etiketten genauer zuzuweisen und/oder Aktivitätstypen zu bestimmen. Ein Server kann Zugriff auf Informationen von einer Vielzahl von Benutzern und eine hohe Verarbeitungsfähigkeit aufweisen und ist daher vorteilhafter in der Lage, die maschinenlesbaren Befehle zu aktualisieren als beispielsweise die Vorrichtung 110.
  • Die maschinenlesbaren Befehle können vom Server angepasst werden. Beispielsweise können einem Benutzer, der zuerst eine Vorrichtung 110 erhält, als Reaktion auf von der Vorrichtung 110 gesendete Nachrichten zunächst maschinenlesbare Befehle bereitgestellt werden, die eine durchschnittliche Benutzerpopulation widerspiegeln. Danach, wenn der Benutzer an Aktivitätssitzungen teilnimmt, können die maschinenlesbaren Befehle angepasst werden, um die Verwendung durch diesen bestimmten Benutzer genauer wiederzugeben. Beispielsweise kann die Länge der Gliedmaßen die periodischen Eigenschaften von Sensordaten beeinflussen, die erfasst werden, während der Benutzer schwimmt oder läuft. Um die Anpassung zu ermöglichen, kann der Server beispielsweise periodisch Sensordaten von der Vorrichtung 110 anfordern und so erhaltene Sensordaten mit den maschinenlesbaren Befehlen vergleichen, um die Befehle für die zukünftige Verwendung mit diesem bestimmten Benutzer zu verfeinern. Auf diese Weise wird ein vorteilhafter Effekt durch weniger falsch beschriftete Segmente und eine effektivere und genauere Komprimierung der Sensordaten erzielt.
  • 2A zeigt ein Beispiel für mehrere Sequenzen von Sensordatenelementen. Auf der oberen Achse 201 ist eine Sequenz von Feuchtigkeitssensor-Datenelementen 210 dargestellt, während die untere Achse 202 eine Zeitreihe 220 der Abweichung des magnetischen Nordens von einer Achse der Vorrichtung 110 darstellt, d. h. eine Sequenz von Datenelementen des Magnetsensors.
  • Die Feuchtigkeitssequenz 210 zeigt einen anfänglichen Teil niedriger Feuchtigkeit, gefolgt von einem raschen Anstieg der Feuchtigkeit, der dann auf einem relativ konstanten, erhöhten Niveau bleibt, bevor er mit einer geringeren Geschwindigkeit als der Zunahme abzunehmen beginnt, wenn die Vorrichtung 110 trocknet.
  • Die magnetische Abweichungssequenz 220 zeigt eine anfängliche, unregelmäßige Sequenz von Abweichungsänderungen aufgrund der Bewegung des Benutzers an, während er beispielsweise ein Umkleideraumschloss betätigt, gefolgt von einer Periode von ungefähr periodischen Bewegungen, bevor eine unregelmäßige Sequenz erneut beginnt. Die Wellenlänge der sich periodisch wiederholenden Bewegung wurde in 2 übertrieben dargestellt, um die Darstellung klarer zu machen.
  • Ein Schwimmaktivitätstyp kann als geschätzter Aktivitätstyp bestimmt werden, beginnend mit Punkt 203 und endend mit Punkt 205 der Sequenzen. Im Detail können die Sequenzen in zwei Segmente unterteilt werden, zum einen von Punkt 203 bis Punkt 204 und zum anderen von Punkt 204 bis Punkt 205. Da der Feuchtigkeitssensor Wassersport anzeigt, werden die Segmente in einer Wassersport-Referenzsegmentbibliothek beispielsweise als Freischwimmsegmente gekennzeichnet. Die Etikettensequenz wäre also {Freischwimmen, Freischwimmen}. Natürlich wäre beim tatsächlichen Schwimmen die Anzahl der Segmente viel höher, aber der Einfachheit halber sind in 2 zwei Segmente dargestellt. Insgesamt umfassen die beiden Sensordatensegmente 203 bis 204 und 204 bis 205 zeitlich ausgerichtete Sensordatenelement-Teilsequenzen aus den Sequenzen 210 und 220.
  • 2B zeigt ein zweites Beispiel mehrerer Sequenzen von Sensordatenelementen. In 2B bezeichnet eine gleiche Nummerierung gleiche Elemente wie in 2A. Anders als in 2A werden in der Zeitreihe von 2B nicht eine, sondern zwei Aktivitätssitzungen bestimmt. Es wird nämlich bestimmt, dass eine Radfahrsitzung am Anfangspunkt 207 beginnt und am Punkt 203 endet, wenn die Schwimmsitzung beginnt. So kann sich die zusammengesetzte Aktivitätssitzung zum Beispiel auf Triathlon beziehen. Beim Radfahren bleibt die Feuchtigkeit gering und die magnetische Abweichung ändert sich nur langsam, beispielsweise wenn der Benutzer auf einem Velodrom fährt. Die Segmente würden somit zwei Segmente zwischen den Punkten 207 und 203 und drei Segmente zwischen den Punkten 203 und 205 umfassen. Die Etikettensequenz kann {Radfahren, Radfahren, Freischwimmen, Freischwimmen, Freischwimmen} sein. Auch hier ist die Anzahl der Segmente aus Gründen der Klarheit der Darstellung drastisch reduziert.
  • 3 veranschaulicht eine beispielhafte Vorrichtung, die in der Lage ist, zumindest einige Ausführungsfonnen der vorliegenden Erfindung zu unterstützen. Dargestellt ist die Vorrichtung 300, die beispielsweise die Vorrichtung 110 von 1 umfassen kann. In der Vorrichtung 300 ist ein Prozessor 310 enthalten, der beispielsweise einen Einkern- oder Mehrkernprozessor umfassen kann, wobei ein Einkernprozessor einen Verarbeitungskern umfasst und ein Mehrkernprozessor mehr als einen Verarbeitungskern umfasst. Der Prozessor 310 kann mehr als einen Prozessor umfassen. Ein Verarbeitungskern kann zum Beispiel einen Cortex-A8-Verarbeitungskern umfassen, der von ARM Holdings hergestellt wird, oder einen Excavator-Verarbeitungskern, der von Advanced Micro Devices Corporation hergestellt wird. Der Prozessor 310 kann mindestens einen Qualcomm Snapdragon- und/oder Intel Atom-Prozessor umfassen. Der Prozessor 310 kann mindestens eine anwendungsspezifische integrierte Schaltung, ASIC, umfassen. Der Prozessor 310 kann mindestens ein feldprogrammierbares Gate-Array (FPGA) umfassen. Der Prozessor 310 kann eine Einrichtung zum Durchführen von Verfahrensschritten in der Vorrichtung 300 sein. Der Prozessor 310 kann zumindest teilweise durch Computerbefehle dafür konfiguriert sein, Aktionen auszuführen.
  • Die Vorrichtung 300 kann einen Speicher 320 umfassen. Der Speicher 320 kann einen Direktzugriffsspeicher und/oder einen permanenten Speicher umfassen. Der Speicher 320 kann mindestens einen RAM-Chip umfassen. Der Speicher 320 kann zum Beispiel einen Festkörper-, magnetischen, optischen und/oder holographischen Speicher umfassen. Der Speicher 320 kann dem Prozessor 310 zumindest teilweise zugänglich sein. Der Speicher 320 kann zumindest teilweise im Prozessor 310 enthalten sein. Der Speicher 320 kann eine Einrichtung zum Speichern von Informationen sein. Der Speicher 320 kann Computerbefehle umfassen, für deren Ausführung der Prozessor 310 konfiguriert ist. Wenn Computerbefehle, die dafür konfiguriert sind, den Prozessor 310 zu veranlassen, bestimmte Aktionen auszuführen, in dem Speicher 320 gespeichert werden und die Vorrichtung 300 insgesamt dafür konfiguriert ist, unter dem Befehl des Prozessors 310 unter Verwendung von Computerbefehlen aus dem Speicher 320 auszuführen, kann angenommen werden, dass der Prozessor 310 und/oder sein mindestens ein Verarbeitungskern dafür konfiguriert sind, die bestimmten Aktionen auszuführen. Der Speicher 320 kann zumindest teilweise im Prozessor 310 enthalten sein. Der Speicher 320 kann zumindest teilweise außerhalb der Vorrichtung 300 sein, aber für die Vorrichtung 300 zugänglich sein.
  • Die Vorrichtung 300 kann einen Sender 330 umfassen. Die Vorrichtung 300 kann einen Empfänger 340 umfassen. Der Sender 330 und der Empfänger 340 können dafür konfiguriert sein, Informationen gemäß mindestens einem zellularen oder nicht-zellularen Standard zu senden bzw. zu empfangen. Der Sender 330 kann mehr als einen Sender umfassen. Der Empfänger 340 kann mehr als einen Empfänger umfassen. Der Sender 330 und/oder der Empfänger 340 können dafür konfiguriert sein, in Übereinstimmung mit dem globalen System für Mobilkommunikation, GSM, Breitband-Codemultiplex-Vielfachzugriff (Wideband Code Division Multiple Access, WCDMA), Langzeitentwicklung (Long Term Evolution, LTE), IS-95, drahtloses lokales Netzwerk (Wireless Local Area Network, WLAN), Ethernet und/oder weltweite Interoperabilität für beispielsweise Mikrowellenzugang- (Worldwide interoperability for Microwave Access, WiMAX) Standards zu arbeiten.
  • Die Vorrichtung 300 kann einen Nahfeldkommunikations-NFC-Sendeempfänger 350 umfassen. Der NFC-Sendeempfänger 350 unterstützt möglicherweise mindestens eine NFC-Technologie, wie beispielsweise NFC, Bluetooth, Wibree oder ähnliche Technologien.
  • Die Vorrichtung 300 kann eine Benutzerschnittstelle UI 360 umfassen. Die UI 360 kann eine Anzeige, eine Tastatur, einen Touchscreen, einen Vibrator, der dafür ausgelegt ist, einem Benutzer zu signalisieren, indem die Vorrichtung 300 zum Vibrieren gebracht wird, einen Lautsprecher und/oder ein Mikrofon umfassen. Ein Benutzer kann möglicherweise die Vorrichtung 300 über die Benutzeroberfläche 360 bedienen, um beispielsweise Aktivitätssitzungen zu verwalten.
  • Die Vorrichtung 300 kann ein Benutzeridentitätsmodul 370 umfassen oder so angeordnet sein, dass sie dieses akzeptiert. Das Benutzeridentitätsmodul 370 kann zum Beispiel eine Teilnehmeridentitäts- (Subscriber Identity Module, SIM) Karte umfassen, die in der Vorrichtung 300 installierbar ist. Ein Benutzeridentitätsmodul 370 kann Informationen umfassen, die ein Abonnement eines Benutzers der Vorrichtung 300 identifizieren. Ein Benutzeridentitätsmodul 370 kann kryptografische Informationen umfassen, die zur Überprüfung der Identität eines Benutzers des Vorrichtung 300 und/oder zur Erleichterung der Verschlüsselung der übermittelten Informationen und der Abrechnung des Benutzers des Vorrichtung 300 für die über die Vorrichtung 300 ausgeführte Kommunikation verwendet werden können.
  • Der Prozessor 310 kann mit einem Sender ausgestattet sein, der Informationen vom Prozessor 310 über elektrische Leitungen innerhalb der Vorrichtung 300 an andere in der Vorrichtung 300 enthaltene Vorrichtungen ausgibt. Ein solcher Sender kann einen seriellen Bussender umfassen, der dafür ausgelegt ist, zum Beispiel Informationen über mindestens eine elektrische Leitung zum Speicher 320 auszugeben, um darin gespeichert zu werden. Alternativ zu einem seriellen Bus kann der Sender einen Parallelbussender umfassen. Ebenso kann der Prozessor 310 einen Empfänger umfassen, der dafür angeordnet ist, Informationen im Prozessor 310 über elektrische Leitungen innerhalb der Vorrichtung 300 von anderen in der Vorrichtung 300 enthaltenen Vorrichtungen zu empfangen. Ein solcher Empfänger kann einen seriellen Busempfänger umfassen, der zum Beispiel Informationen über mindestens eine elektrische Leitung vom Empfänger 340 zur Verarbeitung im Prozessor 310 empfängt. Alternativ zu einem seriellen Bus kann der Empfänger einen Parallelbusempfänger umfassen.
  • Die Vorrichtung 300 kann weitere Vorrichtungen umfassen, die in 3 nicht dargestellt sind. Wenn die Vorrichtung 300 beispielsweise ein Smartphone umfasst, kann sie mindestens eine Digitalkamera umfassen. Einige Vorrichtungen 300 können eine nach hinten gerichtete Kamera und eine nach vorne gerichtete Kamera umfassen, wobei die nach hinten gerichtete Kamera für die digitale Fotografie und die nach vorne gerichtete Kamera für die Videotelefonie vorgesehen sein kann. Die Vorrichtung 300 kann einen Fingerabdrucksensor umfassen, der dafür ausgelegt ist, zumindest teilweise einen Benutzer der Vorrichtung 300 zu authentifizieren. In einigen Ausführungsformen fehlt der Vorrichtung 300 mindestens eine oben beschriebene Vorrichtung. Beispielsweise fehlt einigen Vorrichtungen 300 möglicherweise ein NFC-Sendeempfänger 350 und/oder ein Benutzeridentitätsmodul 370.
  • Der Prozessor 310, der Speicher 320, der Sender 330, der Empfänger 340, der NFC-Sendeempfänger 350, die UI 360 und/oder das Benutzeridentitätsmodul 370 können auf eine Vielzahl verschiedener Arten durch elektrische Leitungen innerhalb der Vorrichtung 300 miteinander verbunden sein. Beispielsweise kann jede der vorgenannten Vorrichtungen separat mit einem internen Master-Bus der Vorrichtung 300 verbunden sein, damit die Vorrichtungen Informationen austauschen können. Wie Fachleute jedoch erkennen, ist dies nur ein Beispiel und abhängig von der Ausführungsform können verschiedene Arten der Verbindung von mindestens zwei der oben genannten Vorrichtungen ausgewählt werden, ohne vom Schutzumfang der vorliegenden Erfindung abzuweichen.
  • 4 zeigt eine Signalisierung gemäß zumindest einigen Ausführungsformen der vorliegenden Erfindung. Auf den vertikalen Achsen ist links die Vorrichtung 110 von 1 und rechts ein Server-SRV angeordnet. Die Zeit läuft von oben nach unten. Anfänglich erhält die Vorrichtung 110 in Phase 410 Sensordaten von mindestens einem und in einigen Ausführungsformen von mindestens zwei Sensoren. Die Sensordaten können Sequenzen von Sensordatenelementen umfassen, wie hierin oben beschrieben. Der Sensor oder die Sensoren können zum Beispiel in der Vorrichtung 110 enthalten sein. Die Sensordaten können in einer Zeitreihe gespeichert werden, beispielsweise mit einer Abtastfrequenz von 1 Hz, 10 Hz, 1 kHz oder einem anderen Abtastintervall. Das Abtastintervall muss in den verschiedenen Sequenzen der Sensordatenelemente nicht identisch sein.
  • Die Phase 410 kann eine oder mehrere Aktivitätssitzungen von mindestens einem Aktivitätstyp umfassen. Wenn mehrere Aktivitätssitzungen vorhanden sind, können sie vom gleichen Aktivitätstyp oder von verschiedenen Aktivitätstypen sein. Der Benutzer muss der Vorrichtung 110 zumindest in einigen Ausführungsformen nicht anzeigen, dass Aktivitätssitzungen laufen. Während der Phase 410 kann die Vorrichtung 110 Aktivitätstypen oder Sitzungen identifizieren, muss dies jedoch in einigen Ausführungsformen nicht. Die Sequenzen von Sensordatenelementen, die während der Phase 410 kompiliert wurden, können beispielsweise 10 Minuten oder 2 Stunden dauern. Als spezifisches Beispiel kann die Zeitreihe von den vorherigen Zeitsensordaten andauern, die von der Vorrichtung 110 auf eine andere Vorrichtung heruntergeladen wurden, wie zum Beispiel den Personalcomputer PC1.
  • Ferner segmentiert die Vorrichtung 110 in Phase 410 die Sequenzen von Sensordatenelementen in mehrere Sensordatensegmente, wie hierin oben beschrieben. Diesen Segmenten werden dann Beschriftungen zugewiesen, um eine Umwandlung der Sequenzen von Sensordatenelementen in eine Sequenz von Beschriftungen zu erhalten.
  • In der Phase 420 wird die Etikettensequenz dem Server SRV zumindest teilweise bereitgestellt. Diese Phase kann ferner das Bereitstellen optionaler Aktivitäts- und/oder Ereignisreferenzdaten an den Server SRV umfassen. Das Bereitstellen kann beispielsweise über die Basisstation 120 erfolgen. Die Etikettensequenz kann auf dem Weg zum Server verschlüsselt werden, um die Privatsphäre des Benutzers zu schützen.
  • In der Phase 430 kann der Server SRV zumindest teilweise basierend auf der Etikettensequenz in der Nachricht der Phase 420 einen zugeordneten maschinenlesbaren Befehl bestimmen. Der maschinenlesbare Befehl kann sich zum Beispiel auf eine verbesserte Etikettierung von Segmenten beziehen, die sich auf Aktivitäten beziehen, die sich auf die Etiketten in der Etikettensequenz beziehen, die in Server SRV von Vorrichtung 110 in Phase 420 empfangen wurden.
  • In der Phase 440 wird der in Phase 430 bestimmte maschinenlesbare Befehl an die Vorrichtung 110 geliefert, wodurch in Phase 450 eine genauere Etikettierung von Segmenten von Sensordaten ermöglicht wird.
  • 5 ist ein Flussdiagramm eines Verfahrens gemäß mindestens einigen Ausführungsformen der vorliegenden Erfindung. Die Phasen des dargestellten Verfahrens können beispielsweise in der Vorrichtung 110, einer Hilfsvorrichtung oder einem Personalcomputer oder in einer Steuervorrichtung ausgeführt werden, die dafür konfiguriert ist, deren Funktion zu steuern, wenn sie darin implantiert sind.
  • Die Phase 510 umfasst das Speichern mehrerer Sequenzen von Sensordatenelementen. Die Phase 520 umfasst das Ableiten mehrerer Sensordatensegmente aus den mehreren Sequenzen von Sensordatenelementen, wobei jedes Sensordatensegment zeitlich ausgerichtete Sensordatenelement-Teilsequenzen aus mindestens zwei der Sequenzen von Sensordatenelementen umfasst. Schließlich umfasst die Phase 530 das Zuweisen eines Etiketts zu mindestens einem Teil des Sensordatensegments basierend auf den Sensordatenelementen, die in dem jeweiligen Sensordatensegment enthalten sind, um eine Etikettensequenz zu erhalten.
  • Es versteht sich, dass die offenbarten Ausführungsformen der Erfindung nicht auf die hierin offenbarten speziellen Strukturen, Verfahrensschritte oder Materialien beschränkt sind, sondern auf Äquivalente davon ausgedehnt sind, wie dies für Fachleute auf dem relevanten Gebiet erkennbar wäre. Es versteht sich auch, dass die hierin verwendete Terminologie nur zum Zwecke der Beschreibung bestimmter Ausführungsformen verwendet wird und nicht einschränkend sein soll.
  • Eine Bezugnahme in dieser Beschreibung auf eine bestimmte Ausführungsform oder eine Ausführungsform bedeutet, dass ein bestimmtes Merkmal, eine Struktur oder eine Eigenschaft, die in Verbindung mit der Ausführungsform beschrieben wurden, in mindestens einer Ausführungsform der vorliegenden Erfindung enthalten ist. Daher beziehen sich die Ausdrücke „in einer bestimmten Ausführungsform“ oder „in einer Ausführungsform“ an verschiedenen Stellen in dieser Beschreibung nicht unbedingt alle auf dieselbe Ausführungsform. Wenn unter Verwendung eines Begriffs wie beispielsweise ungefähr oder im Wesentlichen auf einen numerischen Wert Bezug genommen wird, wird auch der genaue numerische Wert offenbart.
  • Wie hierin verwendet, kann eine Vielzahl von Elementen, Strukturelementen, Zusammensetzungselementen und/oder Materialien der Einfachheit halber in einer gemeinsamen Liste dargestellt werden. Diese Listen sollten jedoch so ausgelegt werden, als ob jedes Mitglied der Liste einzeln als separates und eindeutiges Mitglied identifiziert wird. Somit sollte kein einzelnes Mitglied einer solchen Liste als de facto gleichwertig mit einem anderen Mitglied derselben Liste angesehen werden, und zwar allein aufgrund ihrer Darstellung in einer gemeinsamen Gruppe, ohne dass auf das Gegenteil hingewiesen wird. Darüber hinaus kann hier auf verschiedene Ausführungsformen und Beispiele der vorliegenden Erfindung zusammen mit Alternativen für die verschiedenen Komponenten davon Bezug genommen werden. Es versteht sich, dass solche Ausführungsformen, Beispiele und Alternativen nicht als faktische Äquivalente voneinander aufzufassen sind, sondern als separate und autonome Darstellungen der vorliegenden Erfindung anzusehen sind.
  • Weiterhin können die beschriebenen Merkmale, Strukturen oder Eigenschaften in einer oder mehreren Ausführungsformen auf jede geeignete Weise kombiniert werden. In der vorhergehenden Beschreibung werden zahlreiche spezifische Details bereitgestellt, wie beispielsweise Beispiele für Längen, Breiten, Formen usw., um ein gründliches Verständnis der Ausführungsformen der Erfindung zu ermöglichen. Fachleute werden jedoch erkennen, dass die Erfindung ohne eines oder mehrere der spezifischen Details oder mit anderen Verfahren, Komponenten, Materialien usw. ausgeführt werden kann. In anderen Fällen werden bekannte Strukturen, Materialien oder Vorgänge nicht detailliert gezeigt oder beschrieben, um ein Verschleiern von Aspekten der Erfindung zu vermeiden.
  • Während die vorstehenden Beispiele die Prinzipien der vorliegenden Erfindung in einer oder mehreren speziellen Anwendungen veranschaulichen, ist es für Fachleute offensichtlich, dass zahlreiche Modifikationen in Form, Verwendung und Details der Implementierung ohne die Ausübung von erfinderischer Fähigkeit, und ohne von den Prinzipien und Konzepten der Erfindung abzuweichen vorgenommen werden können. Dementsprechend ist es nicht beabsichtigt, dass die Erfindung beschränkt wird, außer durch die unten dargelegten Ansprüche.
  • Die Verben „umfassen“ und „einschließen“ werden in diesem Dokument als offene Einschränkungen verwendet, die das Vorhandensein von ebenfalls nicht genannten Merkmalen weder ausschließen noch erfordern. Sofern nicht ausdrücklich anders angegeben, sind die in den abhängigen Ansprüchen aufgeführten Merkmale frei miteinander kombinierbar. Darüber hinaus versteht es sich, dass die Verwendung von „ein“ oder „eine“, d. h. einer Singularform, in diesem Dokument eine Vielzahl nicht ausschließt.
  • GEWERBLICHE ANWENDBARKEIT
  • Zumindest einige Ausführungsformen der vorliegenden Erfindung finden gewerbliche Anwendung bei der Erleichterung der Analyse von Sensordaten.
  • AKRONYMENLISTE
  • GPS
    Globales Positionierungssystem (Global Positioning System)
    LTE
    Langzeitentwicklung (Long Term Evolution)
    NFC
    Nahfeldkommunikation (Near-Field Communication)
    WCDMA
    Breitband-Codemultiplexverfahren (Wideband Code Division Multiple Access)
    WiMAX
    Weltweite Interoperabilität für Mikrowellenzugriff (Worldwide Interoperability for Microwave Access)
    WLAN
    Drahtloses lokales Netz (Wireless Local Area Network)
  • Bezugszeichenliste
  • 110
    Vorrichtung
    120
    Basisstation
    130
    Netzwerkknoten
    140
    Netzwerk
    150
    Satellitenkonstellation
    201, 202
    Achsen in 2
    203, 205, 207
    Endpunkte der Aktivitätssitzung in 2 und 2B
    210, 220
    Sensordaten-Zeitreihen in 2 und 2B
    310-370
    Struktur, die in 3 dargestellt ist
    410-430
    Phasen des Verfahrens von 4
    510-530
    Phasen des Verfahrens von 5

Claims (17)

  1. Persönliche Multisensorvorrichtung, umfassend: - einen Speicher, der zum Speichern mehrerer Sequenzen von Sensordatenelementen konfiguriert ist, und - mindestens einen Prozessorkern, der für Folgendes konfiguriert ist: ■ Ableiten mehrerer Sensordatensegmente aus den mehreren Sequenzen von Sensordatenelementen, wobei jedes Sensordatensegment zeitlich ausgerichtete Sensordatenelement-Teilsequenzen aus mindestens zwei der Sequenzen von Sensordatenelementen umfasst, und ■ Zuordnen eines Etiketts zu mindestens einigen der Sensordatensegmente, basierend auf den Sensordatenelementen, die in den jeweiligen Sensordatensegmenten enthalten sind, um eine Sequenz von Etiketten zu erhalten, - wobei die Vorrichtung ferner dafür konfiguriert ist, basierend auf der Sequenz von Etiketten einen Aktivitätstyp zu bestimmen, an dem ein Benutzer teilgenommen hat, während die Sequenzen von Sensordaten erhalten wurden.
  2. Vorrichtung nach Anspruch 1, wobei die Vorrichtung ferner dafür konfiguriert ist, die Etikettensequenz an einen Knoten im Netzwerk zu übertragen.
  3. Vorrichtung nach Anspruch 1, wobei die Vorrichtung dafür konfiguriert ist, von einem Knoten in einem Netzwerk einen maschinenlesbaren Befehl zu empfangen und den maschinenlesbaren Befehl zum Bestimmen des Aktivitätstyps zu verwenden.
  4. Vorrichtung nach Anspruch 3, wobei der maschinenlesbare Befehl mindestens eines der Folgenden umfasst: ein ausführbares Programm und ein ausführbares Skript.
  5. Vorrichtung nach einem der Ansprüche 1 bis 4, wobei die Vorrichtung dafür konfiguriert ist, von einem Netzwerk mindestens einen Etikettierungsbefehl zu empfangen und den mindestens einen maschinenlesbaren Etikettierungsbefehl bei der Zuordnung des Etiketts zu jedem Sensordatensegment zu verwenden.
  6. Vorrichtung nach Anspruch 5, wobei der maschinenlesbare Etikettierungsbefehl mindestens eines der Folgenden umfasst: ein ausführbares Programm und ein ausführbares Skript.
  7. Vorrichtung nach einem der Ansprüche 1 bis 6, wobei jede der mehreren Sequenzen von Sensordatenelementen Sensordatenelemente umfasst, die von genau einem Sensor stammen.
  8. Vorrichtung nach einem der Ansprüche 1 bis 7, wobei die mehreren Sequenzen von Sensordatenelementen mindestens drei Sequenzen von Sensordatenelementen umfassen.
  9. Vorrichtung nach einem der Ansprüche 1 bis 8, wobei die mehreren Sequenzen von Sensordatenelementen mindestens neun Sequenzen von Sensordatenelementen umfassen.
  10. Vorrichtung nach einem der Ansprüche 1 bis 9, wobei die Vorrichtung so konfiguriert ist, dass sie die mehreren Sensordatensegmente zumindest teilweise unter Verwendung eines geeignet trainierten künstlichen neuronalen Netzwerks ableitet.
  11. Verfahren in einer persönlichen Multisensorvorrichtung, das Folgendes umfasst: - Speichern mehrerer Sequenzen von Sensordatenelementen; - Ableiten mehrerer Sensordatensegmente aus den mehreren Sequenzen von Sensordatenelementen, wobei jedes Sensordatensegment zeitlich ausgerichtete Sensordatenelement-Teilsequenzen aus mindestens zwei der Sequenzen von Sensordatenelementen umfasst, - Zuordnen eines Etiketts zu mindestens einigen der Sensordatensegmente, basierend auf den Sensordatenelementen, die in den jeweiligen Sensordatensegmenten enthalten sind, um eine Etikettensequenz zu erhalten, und - Bestimmen eines Aktivitätstyps, an dem ein Benutzer teilgenommen hat, während die Sequenzen von Sensordaten erhalten wurden, basierend auf der Etikettensequenz.
  12. Verfahren nach Anspruch 11, das ferner das Übertragen der Etikettensequenz an einen Knoten im Netzwerk umfasst.
  13. Verfahren nach Anspruch 11, das ferner das Empfangen eines maschinenlesbaren Befehls von einem Knoten in einem Netzwerk und das Verwenden des maschinenlesbaren Befehls beim Bestimmen des Aktivitätstyps umfasst.
  14. Servervorrichtung, die Folgendes umfasst: - einen Empfänger, der zum Empfangen einer Etikettensequenz konfiguriert ist, die basierend auf Sensordatenelementen zugewiesen wurden, wobei die Sensordatenelemente nicht in der Etikettensequenz enthalten sind, und die Etiketten, nicht die Sensordatenelemente enthalten, und - mindestens einen Prozessorkern, der für Folgendes konfiguriert ist: ■ Bestimmen eines Aktivitätstyps, an dem ein Benutzer teilgenommen hat, während die Sensordatenelemente erhalten wurden, basierend auf der Etikettensequenz.
  15. Servervorrichtung nach Anspruch 14, wobei die Servervorrichtung dafür konfiguriert ist, den Aktivitätstyp basierend auf dem Vergleichen der empfangenen Etikettensequenz mit einer Liste von Etikettensequenzen, die in der Servervorrichtung gespeichert sind, und durch Auswahl eines Aktivitätstyps, der einer Etikettensequenz in der Liste zugeordnet ist, die der empfangenen Etikettensequenz entspricht, zu bestimmen.
  16. Verfahren in einer Servervorrichtung, das Folgendes umfasst: - Empfangen einer Etikettensequenz, die basierend auf Sensordatenelementen zugewiesen wurden, wobei die Sensordatenelemente nicht in der Etikettensequenz enthalten sind und die Etiketten die Sensordatenelemente nicht enthalten, und - Bestimmen, auf der Grundlage der Etikettensequenz, eines Aktivitätstyps, an dem ein Benutzer teilgenommen hat, während die Sensordatenelemente erhalten wurden.
  17. Computerprogramm, das dafür konfiguriert ist, die Durchführung eines Verfahrens nach mindestens einem der Ansprüche 11-13 oder 16 zu veranlassen.
DE102019008548.5A 2018-12-21 2019-12-10 Sensordatenverwaltung Pending DE102019008548A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/228,981 2018-12-21
US16/228,981 US20190142307A1 (en) 2015-12-21 2018-12-21 Sensor data management

Publications (1)

Publication Number Publication Date
DE102019008548A1 true DE102019008548A1 (de) 2020-06-25

Family

ID=69147143

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019008548.5A Pending DE102019008548A1 (de) 2018-12-21 2019-12-10 Sensordatenverwaltung

Country Status (5)

Country Link
CN (1) CN111351524A (de)
DE (1) DE102019008548A1 (de)
FI (1) FI129882B (de)
GB (1) GB2581014B (de)
TW (1) TWI729596B (de)

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2425180B (en) * 2005-04-14 2009-03-18 Justin Pisani Monitoring system
JP5028751B2 (ja) * 2005-06-09 2012-09-19 ソニー株式会社 行動認識装置
US8187182B2 (en) * 2008-08-29 2012-05-29 Dp Technologies, Inc. Sensor fusion for activity identification
WO2010083562A1 (en) * 2009-01-22 2010-07-29 National Ict Australia Limited Activity detection
EP2539837A4 (de) * 2010-02-24 2016-05-25 Jonathan Edward Bell Ackland Klassifizierungssystem und -verfahren
CN103154954B (zh) * 2010-08-09 2018-06-05 耐克创新有限合伙公司 用于记录和追踪运动活动的系统和方法
US8774499B2 (en) * 2011-02-28 2014-07-08 Seiko Epson Corporation Embedded optical flow features
US20150119728A1 (en) * 2011-12-02 2015-04-30 Fitlinxx, Inc. Health monitor
WO2014118767A1 (en) * 2013-02-03 2014-08-07 Sensogo Ltd. Classifying types of locomotion
JP5803962B2 (ja) * 2013-03-22 2015-11-04 ソニー株式会社 情報処理装置、センサ装置、情報処理システムおよび記録媒体
KR101500662B1 (ko) * 2013-10-18 2015-03-09 경희대학교 산학협력단 모바일 단말을 이용한 활동 인식 장치 및 인식 방법
CN104680046B (zh) * 2013-11-29 2018-09-07 华为技术有限公司 一种用户活动识别方法及装置
WO2015084839A1 (en) * 2013-12-02 2015-06-11 Nike Innovate C.V. Flight time
CN103970271B (zh) * 2014-04-04 2017-06-20 浙江大学 融合运动和生理传感数据的日常活动识别方法
CN108133742B (zh) * 2014-09-02 2020-04-14 苹果公司 身体活动和健身监视器
EP3227802A1 (de) * 2014-12-02 2017-10-11 Koninklijke Philips N.V. System und verfahren zur erzeugung von gesundheitsdaten durch messungen einer am körper tragbaren vorrichtung
WO2017040319A1 (en) * 2015-08-28 2017-03-09 Focus Ventures, Inc. System and method for automatically time labeling repetitive data
CN105242779B (zh) * 2015-09-23 2018-09-04 歌尔股份有限公司 一种识别用户动作的方法和移动智能终端
US20170232294A1 (en) * 2016-02-16 2017-08-17 SensorKit, Inc. Systems and methods for using wearable sensors to determine user movements
US9830516B1 (en) * 2016-07-07 2017-11-28 Videoken, Inc. Joint temporal segmentation and classification of user activities in egocentric videos

Also Published As

Publication number Publication date
GB2581014A (en) 2020-08-05
GB2581014B (en) 2021-09-22
FI20196079A1 (en) 2020-06-22
TWI729596B (zh) 2021-06-01
GB201917731D0 (en) 2020-01-15
FI129882B (en) 2022-10-14
TW202032327A (zh) 2020-09-01
CN111351524A (zh) 2020-06-30

Similar Documents

Publication Publication Date Title
DE102015017461B4 (de) Tragbare Sportüberwachungsausrüstung und Verfahren zum Charakterisieren von Sport-Verrichtungen oder Sport-Personen
DE102017105786A1 (de) Identifizierung eines Fahrers eines Fahrzeugs
DE102016015695A1 (de) Aktivitätsintensitätspegel-Bestimmung
DE112012000853T5 (de) Entdeckung, Erkennung und Bookmarking von Gesichtern in Videos
DE102017010210A1 (de) Bild-Matting mittels tiefem Lernen
DE112016005006T5 (de) Automatische videozusammenfassung
EP2624752B1 (de) Verfahren und vorrichtung zur erfassung der gemütszustände eines pferdes
DE102015222901A1 (de) Ad-hoc-Ereignisse
DE102007045082A1 (de) Vorrichtung und Verfahren zum Aktualisieren von Kartendaten
DE102015207415A1 (de) Verfahren und Gerät zum Verknüpfen von Bildern in einem Video einer Aktivität einer Person mit einem Ereignis
DE202014011528U1 (de) System zur Zeitmessung und zum Fotografieren eines Ereignisses
DE112018004673T5 (de) System und verfahren zur bilderkennungsregistrierung eines athleten bei einem sportereignis
DE112010003869B4 (de) Verfahren und System zum Ermitteln der Position von einer sich bewegenden drahtlosen Kommunikationseinheit
DE202015009732U1 (de) Plattform einer virtuellen Liga und Online-Trainingsplattform für eine Sportaktivität
DE102019100065B4 (de) Verkehrsinformationsbereitstellungssystem und Verkehrsinformationsbereitstellungsverfahren
DE102009007684B4 (de) Verfahren und Vorrichtung zur Lokalisierung von Objekten
DE102015120042A1 (de) Tragbare Sportüberwachungsausrüstung mit Kontext-Bestimmungsmöglichkeiten und entsprechendes Verfahren
DE112015006877T5 (de) Verhaltens-Identifizierungseinrichtung, Klimaanlage und Robotersteuerung
DE102020007082A1 (de) Integrierte systeme und verfahren für passive authentifizierung
DE102019008548A1 (de) Sensordatenverwaltung
DE102020007511A1 (de) Verfahren zum Steuern einer Anzeige
EP3477981B1 (de) Verhaltensbasierte authentifizierung unter berücksichtigung von umweltparametern
DE102013009958A1 (de) Soziales Vernetzungssystem und Verfahren zu seiner Ausübung unter Verwendung einer Computervorrichtung die mit einem Benutzerprofil korreliert
DE112015003843T5 (de) Betätigungsinformationsmessvorrichtung, Programm und Steuerverfahren
DE202012013537U1 (de) Erfassung von Lebensmustern

Legal Events

Date Code Title Description
R081 Change of applicant/patentee

Owner name: SUUNTO OY, FI

Free format text: FORMER OWNER: AMER SPORTS DIGITAL SERVICES OY, VANTAA, FI