-
I. Gebiet der Erfindung
-
Die vorliegende Erfindung bezieht sich auf ein Verfahren und System zum Verknüpfen von Bildern in einem Video einer Aktivität einer Person mit einem Ereignis.
-
II. Technischer Hintergrund
-
Die Analyse von menschlichen Aktivitäten wird für verschiedene Anwendungen, wie medizinische Bewertung, intelligente Umgebungen und Sportanwendungen, benötigt. Sportanwendungen sind von speziellem Interesse für professionelle Verwendung und Freizeitnutzung. Dies beinhaltet Koordination- und Leistungsanalyse von Athleten. Das Beobachten von Athleten während dem Training oder dem Wettkampf ist unerlässlich, um einschlägiges Feedback bereitzustellen. Außerdem kann ein Feedbacksystem motivieren, um tägliche Sportaktivitäten zu erhöhen und individuelle Fitness zu verbessern.
-
Zum Beispiel wünschen sich Athleten, die in einem Match spielen, eine Videozusammenfassung ihrer Leistung, z. B. ein Video, das ihre Fußballschüsse oder Tricks zeigt, zu erhalten, um Feedback zu erhalten und ihre Fähigkeiten zu verbessern. Jedoch ist das Anschauen der gesamten Sportaktivitäten, z. B. ein Fußballspiel, um die relevanten Sequenzen manuell für jeden Spieler herauszuschneiden, um ihm eine Videozusammenfassung bereitzustellen, eine zeitraubende Aufgabe. Somit wird diese Art der Analyse nur im professionellen Bereich (z. B. Erste-Ligen-Fußballklubs) benutzt, wo eine Belegschaft von Trainern und Assistenten die Athleten unterstützt. Im Bereich des Massensports und Freizeitsports sind solche Arten der Videoanalyse und Videozusammenfassungen wegen ihrer zeitraubenden und aufwendigen Art nicht etabliert.
-
Auf der anderen Seite können auch am Körper getragene Trägheits-Magnetsensoren auch zum Analysieren von menschlichen Aktivitäten verwendet werden. Sie können die Kinematik der menschlichen Bewegung durch Auswerten der Bewegung einer integrierten Masse erfassen. Die Bewegung wird durch Trägheitskräfte veranlasst. Alternativ können Sie die Ausrichtung der menschlichen Bewegung erfassen durch Auswerten einer Ausrichtung eines Magnetsensors in Bezug auf externe Magnetfelder. Solche Sensoren bieten Vorteile wie Miniaturisierung, sind leicht und preiswert. Sie können in Sportbekleidung integriert werden und sammeln Bewegungs- und Ausrichtungsdaten über eine lange Zeitperiode in ungezwungenen Umgebungen. Die Daten, die durch solche Sensoren gesammelt werden, können entweder in Echtzeit verarbeitet werden (z. B. Onlineverarbeitung) oder können für spätere Verarbeitung abgespeichert werden, wenn die eigentliche Aktivität beendet ist (Offlineverarbeitung).
-
Ein Beispielszenario für Echtzeitverarbeitung ist ein Athlet, der einen Körpersensornetzwerk trägt, welches Trägheit- und/oder Magnetsensoren beinhaltet, welche die Beschleunigungen und Winkelgeschwindigkeiten an verschiedenen Teilen des Körpers messen. Die gesammelten Daten werden zu einem Mobilgerät durch drahtlose Technologie wie Bluetooth®, BTLE (Bluetooth low energy), WLAN, ZigBee®, ANT®, Ant+ und dergleichen gesendet. Das Gerät kann durch Echtzeitverarbeitung die Daten auswerten und interpretieren. Parameter wie Anzahl der Schritte, Schrittgrößen, Laufgeschwindigkeit, Laufdistanz, Geschwindigkeit, Energieaufwand oder desgleichen können berechnet werden. Schließlich kann ein Leistungsfeedback visuell, durch Sprache, Vibration oder desgleichen an den Athleten gegeben werden. Echtzeitfähigkeit verlangt ein Feedback bis zu einem bestimmten Zeitstempel.
-
Für Offlineverarbeitung werden Daten von den Sensoren in einem Speicher abgespeichert. Zum Beispiel können die Sensoren durch dünne Drähte zu einem Datenlogger verbunden werden. Alternativ können die Sensoren die Daten zu dem Datenlogger drahtlos senden, zum Beispiel mittels der oben erwähnten drahtlosen Technologien. Nach der Aktivität wird der Datenlogger mit einem Computer verbunden, zum Beispiel durch USB oder jeder anderen passenden Verbindung, und die Daten werden zu dem Computer für Offlineverarbeitung übertragen. Die Daten werden dann auf dem Computer verarbeitet, um zum Beispiel Laufdistanz, Geschwindigkeit, Energieaufwand oder dergleichen zu erhalten.
-
Aktuelle Online- und Offlineverarbeitungsverfahren auf sensorbasierten Daten quantifizieren Aktivitäten, welche über eine lange Zeit dauern, wie Laufen. Somit bestimmen diese Verfahren keine kurzen, oft wiederkehrenden Ereignisse im Sport wie Schießen im Fußball, Tennisschläge, Korbleger im Basketball oder dergleichen. Ein Ereignis wird als ein Teil einer menschlichen Aktivität definiert, welcher eine kurze und beschränkte Dauer hat.
-
Zusammenfassend sind aktuell videobasierte Systeme, um eine menschliche Aktivität zu analysieren, insbesondere eine Sportaktivität, und um ein Videofeedback oder Zusammenfassung bereitzustellen, zeitraubend und sind dem professionellen Bereich vorbehalten. Auf der anderen Seite liefern aktuelle Verfahren, die Daten verarbeiten, welche von am Körper getragenen Sensoren gesammelt werden, eine zusammenfassende Statistik, die sich auf die gesamte Aktivität bezieht (z. B. ein Spiel), aber sich nicht auf bestimmte Ereignisse (z. B. Schüsse) konzentriert. Außerdem ist es nicht möglich eine Bewegungssequenz (z. B. einen Schuss) im Detail zu analysieren basierend auf Daten, welche von am Körper getragenen Sensoren eingesammelt werden.
-
US 2012123733 A1 bezieht sich zum Beispiel auf ein Verfahren zur Erkennung der menschlichen Bewegung, umfassend die Schritte von: Abfragen von aufeinanderfolgenden Messdaten zur Erkennung menschlicher Bewegung von einer Trägheitsmeßeinheit; Aufteilen der aufeinanderfolgenden Messdaten, um zumindest ein Muster einer Wellenform einer menschlichen Bewegung zu generieren, falls die aufeinanderfolgenden Messdaten zu einem speziellen Muster menschlicher Bewegung passen; Quantifizieren des zumindest einen Musters einer Wellenform einer menschlichen Bewegung, um zumindest eine Sequenz einer menschlichen Bewegung zu generieren und Bestimmen einer menschlichen Bewegung entsprechend zur Trägheitsmeßeinheit durch Vergleichen zumindest einer Sequenz menschlicher Bewegung und einer Vielzahl von Refe renzsequenzen menschlicher Bewegung.
-
US 20120167684 A1 offenbart eine selektive Bewegungserkennungsvorrichtung, die einen Trägheitssensor verwendet. Die selektive Bewegungserkennungsvorrichtung, die einen Trägheitssensor verwendet, beinhaltet: eine Sensoreinheit; eine Auswahleinheit, die ein Sensor-Auswahl-Signal ausgibt und eine Bewegungsdetektionseinheit, die eine Winkelgeschwindigkeitsensordaten- und Beschleunigungssensordatenausgabe von der Sensoreinheit empfängt.
-
US 8702516 B2 ist gerichtet auf die Erkennung von Ereignissen innerhalb von Bewegungsdaten, welche Bewegungserfassungsdaten beinhalten, aber nicht darauf begrenzt sind, welche von tragbaren drahtlosen Bewegungserfassungselemente wie visuelle Markierer und Sensoren, Radiofrequenz-Identifikationstags und Bewegungssensoren in Mobilgerätcomputersystemen erhalten werden oder welche basierend auf einer analysierten Bewegung berechnet werden, die mit dem gleichen Benutzer, einem anderen Benutzer, historischem Benutzer oder einer Gruppe von Benutzern verknüpft ist.
-
Gemäß
US 2013/027 4635 A1 ist ein Sensormodul physisch an ein Objekt während einer sportlichen Aktivität, von einem Benutzer durchgeführt wird, gekoppelt. Ein Verfahren zur Überwachung einer sportlichen Aktivität zum Gebrauch mit den Sensormodulen beinhaltet die Schritte des Detektierens der Bewegung des Objektes, Aufnehmen der Bewegungsdaten, Identifizieren eines Abgleichs der sportlichen Bewegung von einer Vielzahl von Referenzbewegungen durch Vergleichen der Bewegungsdaten zu den Daten, die mit der Vielzahl von Referenzbewegungen verknüpft sind, und Bereitstellen einer Ausgabe an den Benutzer, welche die Identifizierung des Abgleichs der sportlichen Bewegung vermittelt.
-
US 2013/027 4904 A1 ist gerichtet auf ein Verfahren zum Überwachen eines Individuums, das eine Sportaktivität durchführt, beinhaltend Detektieren der Bewegung des Individuums zu einer ersten Zeit, Benutzen eines an das Individuum gekoppelten Sensormoduls, Bestimmen, dass die Bewegung des Individuums zu einer vorbestimmten Aktivierungsbewegung korrespondiert, Betreten eines Aktivierungsstatus des Sensormoduls in Antwort zu der Bestimmung, dass die Bewegung des Individuums zu einer vorbestimmten Aktivierungsbewegungen korrespondiert und Detektieren der Bewegung des Individuums zu einer zweiten Zeit, Verwenden des Sensormoduls in dem aktiven Zustand.
-
Es ist daher ein Ziel der vorliegenden Erfindung ein Verfahren bereitzustellen zum Bereitstellen einer Videozusammenfassung einer Aktivität einer Person, insbesondere einer Sportaktivität, welche einfach ist, schnell ist und die Videozusammenfassung unmittelbar nach der Aktivität, ohne zeitraubendes manuelles Schneiden von Videos, bereitstellt. Ein weiteres Ziel der vorliegenden Erfindung bezieht sich auf das Bereitstellen eines entsprechenden Systems.
-
Diese und andere Ziele, welche deutlich werden, wenn die folgende Beschreibung gelesen wird, werden durch das Verfahren nach Anspruch 1 und einem System nach Anspruch 28 gelöst.
-
III. Zusammenfassung der Erfindung
-
Gemäß einem ersten Aspekt der vorliegenden Erfindung umfasst ein Verfahren zum Verknüpfen von Bildern in einem Video einer Aktivität einer Person mit einem Ereignis die Schritte: (a.) Aufnehmen eines Videos einer Aktivität einer Person; (b) Abspeichern einer Zeitreihe von Sensordaten, die von eine Sensorbaugruppe bezogen werden, umfassend zumindest einen Sensor, der an die Person gekoppelt ist während die Person die Aktivität durchführt; (c.) Synchronisieren des Videos mit den Sensordaten; (d.) Detektieren eines Ereignisses in der Zeitreihe; und (e.) Verknüpfen des Ereignisses mit zumindest einem zugehörigen Bild im Video, das das Ereignis zeigt.
-
Das Verfahren gemäß der Erfindung stellt eine Videozusammenfassung einer Aktivität einer Person bereit, insbesondere einer Sportaktivität, welche einfach ist, schnell ist und die Videozusammenfassung unmittelbar bereitstellt. Insbesondere müssen die Bilder des Videos, welche die gewünschten Ereignisse (z. B. Schüsse oder Tricks) von z. B. einem Fußballspieler zeigen, nicht manuell geschnitten werden, aber werden basierend auf der abgespeicherten Zeitreihe der Sensordaten identifiziert und ausgewählt. Zu diesem Zweck wird ein Ereignis (z. B. ein Schuss oder ein Trick) in der Zeitreihe detektiert und mit zumindest einem zugehörigen Bild im Video, welches das Ereignis zeigt, verknüpft. Um eine exakte Abbildung der Ereignisse, welche in der Zeitreihe detektiert wurden, zu den relevanten Bildern in dem Video zu ermöglichen, werden das Video und die Sensordaten synchronisiert.
-
Das Verfahren gemäß der Erfindung ermöglicht einen Highlightvideoclip (oder einen „Showvideoclip”) nach einer Aktivität, z. B. einem Fußballspiel, automatisch zu erhalten. „Highlightvideoclip” oder „Showvideoclip” werden im Zusammenhang der vorliegenden Erfindung als eine Sammlung von Videosequenzen, welche ein gemeinsames Merkmal teilen, verstanden. Ein gemeinsames Merkmal könnte zum Beispiel sein, dass alle Videosequenzen des Highlightvideoclips Schüsse und/oder Pässe und/oder Tricks usw. eines bestimmten Spielers zeigen. Ein anderer Highlightvideoclip könnte alle Defensivereignisse eines Torwarts zeigen. Außerdem könnte ein Highlightvideoclip spezielle Tricks, die ein Spieler gemacht hat, zeigen, zum Beispiel Ball hochhalten oder Around-the-world. Das Merkmal bezieht sich nicht notwendigerweise auf einen bestimmten Spieler. Es könnte zum Beispiel auch möglich sein, dass das Highlightvideoclip alle Schüsse über einer bestimmten Ballgeschwindigkeit (z. B. 100 km/h) unabhängig von dem Spieler zeigt, welche in einem Spiel gemacht worden sind.
-
Eine Sensorbaugruppe im Zusammenhang der vorliegenden Erfindung wird als so verstanden, dass sie zumindest eines Sensors enthält. Die Sensorbaugruppe kann weiter zusätzliche Komponenten zur Unterstützung des Sensors umfassen, wie z. B. ein Gehäuse, Netzteil, Analog-Digital Konverter, Prozessor oder Mikrokontroller, Speicher, usw. Die Sensorbaugruppe kann auch eine Vielzahl von Sensoren umfassen, wie z. B. einen Beschleunigungsmesser, ein Gyroskop, ein Magnetfeldsensor, usw. In diesem Fall können die Daten von den verschiedenen Sensoren in einer Zeitreihe kombiniert werden. Die Sensorbaugruppe kann auch einen Speicher zum Abspeichern der Zeitreihe der Sensordaten umfassen.
-
Das Verfahren kann weiter den Schritt umfassen des Verwendens des zumindest einen Bildes, um ein zweites Video zu generieren, welches vorgegebene Ereignisse der Aktivität der Person zeigt. Dadurch kann ein Athlet, z. B. ein Fußballspieler, ein Video erhalten, welches seine Aktionen während eines Spiels, in welche er interessiert ist, enthält. Zum Beispiel kann das Video all seine Schüsse und Passe zeigen. Ein weiteres Beispiel ist ein Video, welches ein Highlightvideo von vordefinierten Spielern zeigt, ein Highlightvideo für alle Schüsse während eines Spieles oder ein Highlightvideo für alle Tricks. Ein anderes Beispiel ist ein Video, das alle Schüsse des besten Freundes eines bestimmten Spielers zeigt.
-
Der Schritt des Synchronisierens des Videos mit den Sensordaten kann Detektieren eines vorgegebenen Synchronisationsereignisses in der Zeitreihe und in zumindest einem Bild des Videos umfassen. Zum Beispiel kann ein Fußballspieler eine bestimmte vorgegebene Bewegung durchführen, welche einfach in dem Video und in der Zeitreihe der Sensordaten detektiert werden kann. Die detektierten Datenpunkte in der Zeitreihe und die detektierten Bilder in dem Video können dann den gleichen Zeitstempel erhalten, um das Video mit der Zeitreihe zu synchronisieren. Dadurch wird eine einfache Synchronisation erreicht.
-
Der Schritt des Synchronisierens des Videos mit den Sensordaten kann alternativ oder zusätzlich den Schritt umfassen: Empfangen eines drahtlosen Signals von einem Sender (oder einem Sender-Empfänger, d. h. einem kombinierten Sender und Empfänger), welcher in der Sensorbaugruppe enthalten ist. Zum Beispiel kann die Sensorbaugruppe ein RFID, NFC, Bluetooth (BT), Bluetooth Low energy (BTLE) oder WLAN-Modul zum Senden solch eines Signals umfassen. Wenn zum Beispiel die Person einen Sportplatz betritt, empfängt ein entsprechendes Empfängermodul, welches an dem Sportplatz installiert ist, das drahtlose Signal des Senders, welcher in der Sensorbaugruppe enthalten ist, und synchronisiert die Kamera mit dem Sensor.
-
Das drahtlose Signal kann einen Zeitstempel einer Echtzeituhr (RTC), die in der Sensorbaugruppe enthalten ist, umfassen. Dieser Zeitstempel ermöglicht der Kamera mit der RTC der Sensorbaugruppe, z. B. durch Einstellen ihrer RTC zu dem empfangenen Zeitstempel, zu synchronisieren. Die Ausführungs- und/oder Verarbeitungszeit des Zeitstempels könnte berücksichtigt werden und zu dem Zeitstempel hinzugefügt werden, um eine genauere Synchronisation zu erhalten. Die Sensorbaugruppe speichert auch die aktuelle Zeit von zwei Entnahmepunkten des aufgenommenen Videos (zum Beispiel das erste und das zweite Bild) ab. Falls ein Ereignis in den Sensordaten detektiert wird, kann der zugehörige Zeitpunkt basierend auf den abgespeicherten Zeiten der beiden Entnahmepunkte bestimmt werden.
-
Alternativ wird ein drahtloses Signal mit einem Zeitstempel von einer RTC der Kamera oder von dem System, mit der die Kamera verbunden ist, zu der Sensorbaugruppe durch z. B. RFID, NFC, Bluetooth (BT), Bluetooth Low Energy (BTLE) oder WLAN gesendet. Dieses Signal ermöglicht der Sensorbaugruppe mit der Kamera zu synchronisieren, z. B. durch Einstellen ihrer RTC zu dem Zeitstempel. Die Ausführungs- und/oder Verarbeitungszeit des Zeitstempels könnte berücksichtigt werden und zu dem Zeitstempel hinzugefügt werden, um eine genauere Synchronisation zu erhalten.
-
Die Aktivität kann eine Sportaktivität sein. Videoanalysen und Zusammenfassungen sind besonders wünschenswert für Sportaktivitäten und können in Massen- und Freizeitsport verwendet werden. Das Verfahren gemäß der Erfindung ist insbesondere passend für Sportaktivitäten wie Fußball, Football, Rugby, Tennis oder Basketball.
-
Die Aktivität kann Fußball sein. Fußball ist besonders passend für Nachberichtvideozusammenfassungen, da es den Spielern ermöglicht Training-Feedback zu erhalten und ihre Leistung mit anderen Spielern zu vergleichen. Aufgrund seiner Vielfalt von verschiedenen Bewegungen (Schuss, gezielter Schuss, langer Pass, Kurzpass, Kontrolle, Dribbling, Eckball, Freistoß, usw.) ist Fußball eine Aktivität, welche sich sehr gut für die vorliegende Erfindung eignet.
-
Das Ereignis kann ein Schuss, ein Kurzpass, ein langer Pass, ein gezielter Schuss oder Ballkontrolle sein. Diese Arten von Ereignisse sind z. B. in Fußball die Relevantesten und stellen das nützlichste Feedback für den Spieler bereit.
-
Der zumindest eine Sensor kann ein Beschleunigungsmesser, ein Gyroskope oder ein Magnetfeldsensor sein. Diese Arten von Sensoren stellen die erforderlichen Informationen bzgl. der Bewegung und Ausrichtung des Körpers oder Teile des Körpers bereit. Daten, die durch diese Arten von Sensoren bereitgestellt werden, ermöglichen eine zuverlässige Detektion von Ereignissen. Insbesondere verbessert eine Kombination von verschiedenen Sensoren (z. B. Beschleunigungsmesser und Gyroskop) die Zuverlässigkeit des erfindungsgemäßen Verfahrens. Sensoren können durch Vereinigen ihrer Sensordaten kombiniert werden und um Ereignisse basierend auf den vereinigten Sensordaten zu detektieren.
-
Die Sensorbaugruppe kann zwei oder mehrere Sensoren umfassen und die Sensordaten von den zwei oder mehreren Sensoren können in der Zeitreihe kombiniert werden. Dadurch kann die Genauigkeit des Schrittes der Ereignisdetektion verbessert werden, da die Daten, auf welchen die Detektion basiert ist, präziser werden. Zum Beispiel könnten die Daten des Beschleunigungsmessers mit den Daten von einem Gyroskop kombiniert werden, um die Beschleunigung und die Ausrichtung der Sensorbaugruppe zu erhalten. Eine Zeitreihe basierend auf Beschleunigung und Ausrichtung ermöglicht eine zuverlässigere Detektion der Ereignisse als eine Zeitreihe, welche entweder auf Beschleunigung oder auf Ausrichtung basiert.
-
Die Sensorbaugruppe kann auch ein Satellitennavigationssystem-Modul umfassen, welches dazu fähig ist Daten entsprechend zu dem Standort der Person bereitzustellen. Die Satellitennavigationssystem-Daten können benutzt werden, um die Detektion des Ereignisses zu verbessern. Außerdem können die Satellitennavigationssystem-Daten benutzt werden, um die Aktivität der Person mit der zugehörigen Geoortung zu verknüpfen. Zum Beispiel kann ein Bild des Videos, das ein bestimmtes detektiertes Ereignis enthält, welches während der Aktivität der Person (z. B. ein Schuss eines Fußballspiels) ausgeführt wird, mit der zugehörigen Geoortung verknüpft werden. Daher könnte ein Video, welches bestimmte detektiert Ereignisse zeigt, mit der zugehörigen Geoortung verknüpft werden. Das Satellitennavigationssystem-Modul kann basieren auf GPS, Galileo, Glonass oder einer Kombination davon. Die Geoortung kann nur aktualisiert werden, falls der Benutzer eine Taste auf der Sensorbaugruppe drückt oder ein bestimmtes Ereignis in den Sensordaten detektiert wird, z. B. ein Schuss, Pass, Trick, usw. um Akkuleistung zu schonen.
-
Die Satellitennavigationssystem-Daten könnten auch benutzt werden, um eine Heatmap der Bewegungen der Person zu generieren. Eine Heatmap in diesem Kontext wird als eine Abbildung verstanden, die mit jedem Standort die Dauer verknüpft, welche die Person an diesem bestimmten Standort verbracht hat. Die Dauer wird dann auf ein Farbschema abgebildet. Zum Beispiel wird eine lange Dauer durch die Farbe Rot angegeben, wobei eine kurze Dauer durch die Farbe Blau angegeben wird. Dazwischenliegende Werte werden durch entsprechende zwischenliegende Farben (z. B. Farben von einem Spektrum der natürlichen Farben) angegeben. Die Heatmap kann verwendet werden, um zu analysieren wo die Personen tatsächlich die meiste Zeit, z. B. während eines Spiels, verbracht hat. Zu diesem Zweck könnte die Heatmap mit einem Bild oder einer schematischen Zeichnung des Spielfeldes (z. B. ein Fußballplatz, Tennisplatz, Basketballfeld, usw.) überlagert werden. Dadurch kann die Heatmap die bevorzugte Position der Person anzeigen. Der Schritt des Detektierens eines Ereignisses in der Zeitreihe kann umfassen: Vorverarbeiten der Zeitreihe, Segmentieren der Zeitreihe in eine Mehrzahl von Fenstern, Detektieren von Ausreißern, Extrahieren einer Vielzahl von Merkmalen von der Zeitreihe in jeder der Vielzahl von Fenstern und Abschätzen einer Ereignisklasse, die mit der Vielzahl von Fenstern verknüpft wird basierend auf der Vielzahl von Merkmalen, die von der Zeitreihe in jedem der Vielzahl von Fenstern extrahiert wurde.
-
Diese Sequenz von Schritten um ein Ereignis in der Zeitreihe zu detektieren, ist zuverlässig, erfordert wenig Rechenleistung, ist fähig für Echtzeitverarbeitung und kann für ein großes Spektrum von Aktivitäten, insbesondere Sportaktivitäten, angewendet werden. Diese Vorteile werden durch die besondere Kombination der Schritte erreicht. So können die Daten durch Vorverarbeiten der Zeitreihe mit geeigneten Filtern und Signalverarbeitung für die folgenden Verfahrensschritte optimal vorbereitet werden. Durch Segmentieren der Zeitreihe, die durch zumindest den einen Sensor abgefragt wurde, in eine Vielzahl von Fenstern, kann das Verarbeiten der Daten auf eine begrenzte Menge von Daten, welche durch die Fenstergröße gegeben sind, fokussiert werden. Durch Detektieren von Ausreißern können ungewünschte Fenster entfernt werden. Durch Extrahieren einer Vielzahl von Merkmalen von den Sensordaten in jedem der Fenster kann die Dimension des Problems reduziert werden. Falls zum Beispiel jedes Fenster ein paar hundert Datenpunkten umfasst, resultiert das Extrahieren von etwa einem Dutzend von relevanten Merkmalen in eine signifikante Reduktion der Rechnerkosten. Außerdem muss der nachfolgende Schritt des Abschätzen einer Ereignisklasse, die mit der Vielzahl von Fenstern verknüpft ist, nur auf dem extrahierten Merkmalen funktionieren, aber nicht auf dem vollen Satz der Datenpunkten in jedem Fenster.
-
Da wenig Rechenleistung erfordert wird, ist die Sequenz von Schritten besonders passend für Echtzeitverarbeitung von Sensordaten. Somit kann das Verfahren in die Sensorbaugruppe selbst implementiert werden, welche zum Beispiel an einen Schuh, Kleidungsstück, tragbares Gerät (ein Computer, der in Bekleidungsstücke eingearbeitet ist und Accessoires, welche angenehm auf dem Körper getragen werden können), usw. befestigt oder integriert werden, welche durch die Person getragen werden oder welche direkt an die Person gekoppelt werden, z. B. an ihre Haut. Zum Beispiel kann die Sensorbaugruppe auf dem Schuh platziert werden, in dem Schuh (z. B. Schuhoberteil, Mittelsohle, Außensohle), in die Einlegesohle (Innensohle, welche entfernt werden kann). Das Gerät könnte auch ein tragbares Gerät sein. Ein tragbares Gerät wird als ein elektronisches Gerät verstanden, welches durch eine Person getragen werden kann und welches an den Körper der Person entweder direkt oder indirekt befestigt wird. Ein tragbares Gerät könnte zum Beispiel eine Uhr, ein Armband, eine Brille, ein Hut, Kleidung, Bekleidung, ein Gurt, der an eine Extremität getragen wird, usw. sein.
-
Die Sensorbaugruppe könnte an dem unteren Bein, z. B. Schienbeinbereich oder Knöchel, getragen werden. Abhängig von der Art der Sportarten könnte die Sensorbaugruppe auch in der Nähe des Handgelenkes (zum Beispiel für Sportarten wie Tennis oder Basketball) getragen werden. Die Sensorbaugruppe kann auch in Sportausrüstung integriert werden, welche der Athlet verwendet zum Durchführen der interessierenden Aktivitäten, z. B. in einem Tennisschläger, Fußball, Basketball oder Skateboard.
-
Die Sensorbaugruppe kann eine zentrale Verarbeitungseinheit umfassen, welche dazu fähig ist die genannte Sequenz der Schritte durchführen. Zu diesem Zweck könnte die Verarbeitungseinheit entsprechende computerlesbare Anweisungen ausführen.
-
Der Schritt des Vorverarbeitens kann Tiefpassfiltern und Downsampling umfassen. Tiefpassfiltern wird zur Rauschminderung angewendet. Downsampling reduziert die zu verarbeitende Datenmenge und erlaubt eine effizientere Implementierung.
-
Ein Vorverarbeitungsschritt kann die Berechnung des Signalgrößenvektors (SMV) der Beschleunigungsdaten beinhalten. Ein Grenzwertverfahren kann für den SMV angewendet werden, um energiereiche Regionen im Signal zu bestimmen. Die Zeitreihe kann in eine Vielzahl von Fenstern mit einer festen Größe, z. B. um die zuvor genannten energiereichen Regionen, segmentiert werden. Zum Beispiel können die Fenster bei Spitzenwerten der Zeitreihe zentriert werden. Diese Fenster mit einer festen Größe können einfach implementiert werden und erfordern wenig Rechenleistung. Alternativ kann die Fenstergröße an die Form und/oder die Länge des Ereignisses angepasst werden. Da die Länge der Ereignisse unterschiedlich sein kann, z. B. Kontrolle gegenüber gezielten Schuss, ist das Finden einer optimalen Fenstergröße herausfordernd. Daher kann die Fenstergröße an die Form und/oder die Länge des Ereignisses angepasst werden. Die Fenster mit einem Spitzenwert im Zentrum unterhalb eines Grenzwertes können entfernt werden. Dadurch kann das Verfahren sich auf diese Fenster fokussieren, welche zuversichtliche Kandidaten zum Enthalten eines relevanten Ereignisses sind.
-
Die Zeitreihe kann auch in eine Vielzahl von Fenstern segmentiert werden, die Abgleichen mit einer Vorlage eines Ereignisses verwenden, welches durch Verwendung bekannter Signale von vorheraufgenommenen Ereignissen definiert ist. Das Abgleichen kann basieren auf Korrelation, Matchedfiltering, Dynamic Time Warping oder Longest Common Subsequence (LCSS) und seine Schiebefenstervariante, Warping LCSS).
-
Die segmentierten Fenster können auch ungewollte Bewegungen, z. B. Laufen, Gehen und Tackling, beinhalten. Deshalb kann eine Ausreißer-Detektionsprozedur angewendet werden, z. B. durch regelbasierte Systeme oder One-class Support Vector Machines. Segmentierte Fenster, welche die Ausreißer-Detektionsprozedur passieren, werden weiterverarbeitet.
-
Die Ereignisklasse kann zumindest das zu bestimmende Ereignis umfassen und eine Ausreißerklasse, welche mit den Sensordaten, die nicht zu einem speziellen Ereignis gehören, verknüpft wird. Dadurch kann eine Unterscheidung zwischen jenen Ereignissen, die interessant sind und alle anderen Ereignissen gemacht werden. Die Merkmale können zumindest basieren auf einer zeitlichen, raum-zeitlicher, spektraler oder Ensemblestatistik durch Anwenden von zum Beispiel Waveletanalyse, schneller Fourier Transformation (FFT) oder Hauptkomponentenanalyse (PCA). Die genannten Statistiken und Transformationen sind passend, um Merkmale von der Zeitreihe in jedem der Fenster zu erhalten, welche so nicht redundant wie möglich sind und eine zuverlässige Bestimmung der Ereignisse ermöglichen.
-
Die Merkmale können basieren auf einem von einfachen Mittelwert, normalisierte Signalenergie, Bewegungsintensität, Signalgrößenfläche, Korrelation zwischen Achsen, Maximalwert in einem Fenster, Minimalwert in einem Fenster, maximaler Detailkoeffizient von einer Wavelet-Transformation, Korrelation mit einer Vorlage, Projektion auf eine Hauptkomponente von einer Vorlage oder Entfernung zu einem Eigenraum von einer Vorlage, spektraler Schwerpunkt, Bandbreite, dominierender Frequenz. Für diese Arten von Merkmalen wurden festgestellt, dass sie eine zuverlässige Bestimmung der Ereignisse, die mit menschlicher Bewegung verknüpft sind, zu ermöglichen.
-
Das Verfahren kann weiter den Schritt des Reduzierens der Anzahl von Merkmalen durch Merkmal-Auswahl-Prozeduren umfassen. Reduzieren der Anzahl von Merkmalen durch Fokussierung auf die relevanten Merkmale reduziert Rechenkomplexität. Zum Beispiel können die Merkmale basierend auf sequenzieller Vorwärtsselektion ausgewählt werden.
-
Die Ereignisklasse kann abgeschätzt werden basierend auf einem Bayes-Klassifikator, wie ein naiver Bayes-Klassifikator, einem maximalen Randklassifikator wie etwa Support Vector Machine, einem Ensemble-Lern Algorithmus wie etwa AdaBoost-Klassifikator und Random-Forest-Klassifikator, ein Nächster-Nachbar-Klassifikator, einem Neuronalen-Netzwerk-Klassifikator, einem regelbasierten Klassifikator oder einen baumbasierten Klassifikator. Für diese Verfahren wurde festgestellt, dass sie eine zuverlässige Klassifikation der Ereignisse, welche mit menschlicher Aktivität verknüpft wird, bereitzustellen.
-
Die Ereignisklasse kann auch durch Vereinigung der Entscheidungen der oben beschriebenen Klassifikatoren (Entscheidungsebene Vereinigung) bestimmt werden, um eine zuverlässigere Klassifikation zu erhalten.
-
Das Verfahren kann weiter den Schritt des Detektierens des Ereignisses durch Abgleichen einer Vorlage, die Korrelation, Matchedfiltering, Dynamic Time Warping oder Longest Common Subsequence (LCSS) und seine Schiebefenstervariante, Warping LCSS, verwendet.
-
Abschätzen der Ereignisklasse kann umfassen: Unterscheiden zwischen zusammengelegten Ereignisgruppen, die Ereignisse enthalten, welche in ihrer Form ähneln und Unterscheiden zwischen einzelnen Ereignissen, die zu einer spezifischen Gruppe gehören. Somit wird die Klassifikation von unterschiedlichen Ereignissen in einer hierarchischen Art durchgeführt. Ereignisse können in Falle mit ähnlicher Signalform gruppiert werden, z. B. Kontrolle und Kurzpass oder langer Pass und Schuss. Unterschiedliche Klassifikationssysteme können verwendet werden, um zuerst Gruppen von Ereignissen zu klassifizieren und dann weiter zwischen einzelnen Ereignisklassen einen Unterschied zu machen.
-
Der Schritt des Abschätzens kann basieren auf einem Klassifikator, welcher basierend auf überwachtem Lernen trainiert worden ist. Überwachtes Lernen ermöglicht das Anpassen des Klassifikators an bestimmte Ereignisklassen (z. B. Schüsse, gezielte Schüsse, Passe, usw.) und/oder zu bestimmten Typen von Athleten (z. B. Profi, Amateur, Freizeit) oder sogar an eine spezielle Person.
-
Weitere Verbesserung der Systemleistung kann durch Onlinelernen erreicht werden. Onlinelernen ermöglicht dem System sich an den Benutzer ohne menschliche Interaktion anzupassen. Das System wird mit zusätzlichen detektieren Ereignissen, z. B. in einem Spiel, umgeschult.
-
Das Verfahren kann in Echtzeit ausgeführt werden. Echtzeitanalyse kann verwendet werden, um bestimmte Ereignisse vorherzusagen und um bestimmte Maßnahmen zu initiieren. Zum Beispiel kann Sportausrüstung für einen Schuss oder Schlag vor dem Eintreffen des z. B. Balles angepasst werden. Echtzeitanalyse ist auch wichtig, um Echtzeit-Feedback für die Person bereitzustellen. Zum Beispiel kann die Person sofort über übermäßiger Beanspruchung oder andere ungesunde Bedingungen gewarnt werden.
-
Die Sensorbaugruppe kann an einen Gurt angebracht sein, um an eine Extremität des Körpers der Person getragen zu werden. Solch eine Anordnung hat den Vorteil, dass die Bewegungen der Extremitäten unmittelbar gemessen werden können und bestimmte Ereignisse, wie etwa Schüsse im Fußball, zuverlässig bestimmt werden können. Außerdem ist das Sammeln von Sensordaten unabhängig des Schuhwerkes und anderer Ausrüstung, z. B. ein Fußballspieler kann egal welchen Schuh und/oder Schienbeinschoner, welche er bevorzugt, verwenden. Der Gurt kann aus einem Textilmaterial, Leder, Kunstleder, Kunststoff oder dergleichen gemacht sein. Ein Gurt wird als jede schleifenförmige Anordnung verstanden, welche fähig ist an eine Extremität des Körpers der Person getragen zu werden, z. B. Arm und/oder Bein. Ein anderes Beispiel sind am Handgelenk getragene Wearables für Sportarten wie etwa Tennis (für Vorhand-/Rückhanddetektion), Golf (für voller Schwung, halber Schwung, Puttdetektion) sowie für Schlägersportarten.
-
Die Sensorbaugruppe kann permanent an den Kurt befestigt oder integriert werden, z. B. durch Kleben, Schweißen oder Vernähen. Alternativ könnte die Sensorbaugruppe abnehmbar an den Kurt, z. B. durch einen Klettverschluss, Druckknopf oder ähnlich, befestigt sein.
-
Außerdem kann die Sensorbaugruppe befestigt oder integriert werden in einen Schuh oder Kleidungsstück, welches durch die Person getragen wird, oder welches direkt an die Person gekoppelt ist, z. B. an ihre Haut. Zum Beispiel kann der Sensor auf einen Schuh, in den Schuh (z. B. Schuhoberteil, Mittelsohle, Außensohle) und in der Einlegesohle (Innensohle, welche entfernt werden kann) platziert werden. Der Schuh könnte einen Hohlraum umfassen in welcher die Sensor Baugruppe platziert wird. Die Sensorbaugruppe könnte auch befestigt oder integriert werden in ein tragbares Gerät wie eine Uhr, Armband oder Uhr ähnliches Gerät, welches die aktuelle Zeit zeigen kann. Die Sensorbaugruppe könnte am unteren Bein, z. B. Schienbeinbereich oder Knöchel, getragen werden.
-
Die Sensorbaugruppe kann auch in Sportausrüstung integriert werden, welche der Athlet zum Durchführen der interessierenden Aktivitäten, z. B. in einem Tennisschläger, Fußball, Basketball oder Skateboard, verwendet.
-
Die Sensordaten von unterschiedlichen Geräten von unterschiedlichen Körperpositionen können vereinigt werden, um die Genauigkeit des Systems zu erhöhen. Zum Beispiel kann ein Fußballspieler mehrere Sensoren haben, die an seinem Bein angeordnet sind (z. B. einen am Fuß, einen am Schienbein und einen am Oberschenkel) und ein Tennis- oder Golfspieler kann mehrere Sensoren haben, die an seinem Arm (z. B. einen am Handgelenk und einen am Oberarm) und optional zusätzlich an seinem Bein angeordnet sind. Die Sensordaten dieser unterschiedlichen Sensoren werden dann vereinigt, d. h. das Ereignis wird detektiert basierend auf kombinierten Sensordaten, um eine bessere Abschätzung der Art von Bewegungen, die durch den Spieler ausgeführt werden, zu erhalten.
-
Feedback kann an die Person basierend auf dem abgeschätzten Ereignis bereitgestellt werden. Somit kann die Person über z. B. ihre Leistung während dem Training oder eines Spiels informiert werden. Ein solches Feedback kann in Echtzeit bereitgestellt werden. Zum Beispiel könnte Feedback auf einer Anzeige eines Smartphones (z. B. Anzeige der Laufdistanz, Anzahl der Schüsse, usw.), auf einer Anzeige einer Uhr, auf einer Anzeige der Sensorbaugruppe oder einer externen Anzeige, welche z. B. auf einem Sportplatz angeordnet ist, bereitgestellt werden.
-
Feedback kann auch nicht in Echtzeit bereitgestellt werden. Zum Beispiel könnte Feedback nach einer Aktivität (z. B. nach einem Spiel oder Training) z. B. in einem Umkleideraum (auf einer Anzeige, welche an der Wand befestigt ist oder auf einer Anzeige eines elektronischen Geräts einer Person wie etwa einem Smartphone, Tablet PC, usw.) oder Zuhause bereitgestellt werden. Zu diesem Zweck könnten die Feedbackdaten in einer Datenbank oder Cloud-Speicher abgespeichert werden.
-
Zusammenfassende Statistik kann basierend auf dem detektierten Ereignis bereitgestellt werden. Dadurch können Statistiken für spezielle Klassen von Ereignissen angepasst werden. Zum Beispiel können in einer Fußballanwendung Statistik über die Anzahl und Intensität der gezielten Schüsse, Schussgeschwindigkeit, Zeit am Ball, Anzahl der Langpässe und Kurzpässe, Dauer der Dribblings, usw. bereitgestellt werden. Zusammenfassende Statistik für Basketball kann umfassen: die Anzahl von Korblegern, Pässen und Dribblings, die Zeit in Ballbesitz, Intensität der Sprünge, usw. Zusammenfassende Statistik für Tennis kann umfassen: die Anzahl von Schlägen, ab geschätzte Ballgeschwindigkeiten, der Prozentsatz von Vorhand- und Rückhandschlägen, die Anzahl und Intensität von Aufschlägen, usw. Solche Statistik kann bereitgestellt werden, falls der Tennisspieler mit einer Sensorbaugruppe in der Nähe seiner Hand ausgerüstet wird. Falls der Tennisspieler zusätzlich mit einer Sensorbaugruppe in der Nähe von einem seiner beiden Füße ausgestattet wird, kann auch Laufstatistik wie etwa die Gesamtentfernung, Anzahl der Sprints (z. B. zum Netz), usw. bereitgestellt werden.
-
Die zusammenfassende Statistik kann mit einem Video, welches detektierte Ereignisse eines bestimmten Spielers (z. B. all seine gezielten Schüsse) zeigt, kombiniert werden. Dadurch wird eine kombinierte Zusammenfassung oder Feedback erhalten.
-
Zusammenfassende Statistik basierend auf dem detektierten Ereignis (und optional ein generiertes Video von bestimmten Ereignissen) könnte zu anderen Personen, wie einem Trainer, Zuschauer oder anderen Personen, die in diese Statistik interessiert sind, übertragen werden. Die Übertragung könnte über das Internet durch einen Livestream sein. Die Übertragung könnte basieren auf Medien wie etwa Wifi, WLAN, BT, BTLE, NFC, RFID, USB, Ethernet, Thunderbolt oder dergleichen. Basierend auf der zusammenfassenden Statistik (und optional dem generierten Video von bestimmten Ereignissen) könnte der Spieler Feedback von z. B. einem Trainer oder einem Talentsucher erhalten.
-
Außerdem könnte basierend auf zusammenfassender Statistik (und optional generiertem Video von bestimmten Ereignissen) ein spezieller Bereich in einem Geschäft oder einem Stadion entsperrt werden, d. h. abhängig davon wie gut der Spieler gespielt hat. Falls zum Beispiel der Spieler eine bestimmte Anzahl von Ballkontakten während eines Spiels erreichte, wird er mit Zugang zu einem bestimmten Bereich in einem Geschäft oder Stadion ausgezeichnet.
-
Die Sensordaten können auch verwendet werden, um bereitzustellen einen Trickzähler (d. h. die Anzahl von Tricks wie Übersteiger, Around-the-worlds, usw., die gespielt wurden), einem Fußballaktivitätsüberwacher, einem Ball-hochhalten-Zähler (d. h. Ballkontakte zählen während der Ball jongliert wird), „Around the world” (d. h. den Ball mit einem Bein hochhalten und versuchen das andere Bein um den Ball herum zu bewegen bevor er den Boden berührt) oder einen eins-gegen-eins Zähler (d. h. Zählen wie oft der Spieler, der in eine eins-gegen-eins Situation auf dem Platz kommt, zum Beispiel versucht den Gegenspieler zu umgehen und/oder auszutricksen). Zum Beispiel könnten die Sensordaten analysiert werden, um die Anzahl der Ballkontakte zu bestimmen, die ein Spieler hatte ohne dass der Ball den Boden berührt (Ball hochhalten) zu bestimmen. Die oben genannte Statistik könnte basierend auf entsprechenden detektierten Ereignissen bestimmt werden, d. h. ein Ereignis könnte der Kontakt eines Fußes mit dem Ball (zum Ball Hochhalten) oder einer Kreisbewegung (für Around-the-world) sein. Falls ein Ereignis detektiert wird, welches mit einem Schuss verknüpft ist, kann die Ballgeschwindigkeit basierend auf den Sensordaten abgeschätzt werden. Somit kann die Person Feedback über ihre Schussleistung erhalten. Die Ballgeschwindigkeit kann durch Vorverarbeiten, Merkmalextrahierung und Regression abgeschätzt werden. Die Sensordaten können segmentiert werden und Merkmale können für jede segmentierte Regionen berechnet werden. Unterschiedliche Regressionstechniken können angewendet werden, welche die berechneten Merkmale als Eingabe verwenden wie es noch genauer weiter unten beschrieben wird.
-
Das Verfahren kann weiter Erhalten von Feedback bezüglich des detektierten Ereignisses umfassen. Zum Beispiel kann das Ereignis ein bestimmter Fußballtrick sein, welcher durch einen Spieler durchgeführt wird. Die Sensordaten, welche gesammelt werden während der Trick durchgeführt wurde, können analysiert werden um zu bestimmen wie gut der Trick durchgeführt wurde. Zum Beispiel kann der Spieler ein Smartphone, Tablet-PC, Notebook, Smartwatch, usw. verwenden, welches den zu durchführenden Trick zeigt. Der Spieler führt den Trick durch und bekommt ein Feedback wie genau seine Bewegungen waren. Das zu dem Trick zugehörige Ereignis kann bestimmt werden wie zuvor beschrieben.
-
Ein System zum Verknüpfen von Bildern in einem Video einer Aktivität einer Person mit einem Ereignis kann angepasst werden, um ein oben beschriebenes Verfahren durchzuführen.
-
Zusätzlich zu der automatischen Detektion von Ereignissen/Aktionen kann die Person wichtige Szenen selbst bestimmen. Deshalb muss eine Bewegung definiert werden, z. B. durch Tippen auf die Sensorbaugruppe. Zu diesem Zweck kann die Sensorbaugruppe eine Taste oder Schalter oder einen berührungsempfindlichen Bereich haben. Um auf die gewünschte Bewegung an die Sensorbaugruppe hinzuweisen, kann der Benutzer angehalten sein ein doppeltes oder dreifaches Tippen durchzuführen. Alternativ kann die Sensorbaugruppe in Kommunikation mit einem mobilen Gerät sein (z. B. einem Smartphone, Tablet PC, usw.) und die Person kann auf die gewünschte Bewegung an die Sensorbaugruppe durch das mobile Gerät hinweisen. Zum Beispiel kann das mobile Gerät Tasten bezeichnend „go” und „stop” auf seiner Anzeige zeigen, welche der Benutzer drücken kann, um auf den Beginn und das Ende eines bestimmten Ereignisses hinzuweisen. Es ist auch möglich, dass eine bestimmte Kraft auf einen berührungsempfindlichen Bereich ausgeübt werden muss oder dass eine bestimmte Geste darauf durchgeführt wird.
-
Die Sensordaten der speziellen Bewegung können verwendet werden, um ein Klassifikationssystem zu trainieren, welches z. B. Hidden-Markov-Model oder One-class Support Vector Machine beinhaltet. Das trainierte System kann in die oben beschriebene Algorithmuslinie integriert werden.
-
Ein weiterer Aspekt der vorliegenden Erfindung bezieht sich auf einen System zum Verknüpfen von Bildern in einem Video einer Aktivität einer Person mit einem Ereignis, umfassend: (a.) Zumindest eine Kamera zum Aufnehmen eines Videos einer Aktivität einer Person; (b.) eine Sensorbaugruppe umfassend zumindest einen Sensor, welcher fähig ist an eine Person gekoppelt zu sein während die Person die Aktivität ausführt; (c.) Speicher zum Abspeichern einer Zeitreihe von Sensordaten, die von zumindest dem einen Sensor erhalten wurden; und (d.) einen Prozessor zum Synchronisieren des Videos mit den Sensordaten, zum Detektieren eines Ereignisses in der Zeitreihen und zum Verknüpfen des Ereignisses mit zumindest einem zugehörigen Bild im Video, das das Ereignis zeigt.
-
Die Sensorbaugruppe kann angepasst werden, um an den Körper der Person gekoppelt zu sein. Das ermöglicht eine direkte und unmittelbare Übertragung von Kräften vom Körper zum Sensor, welche die Genauigkeit der gemessenen Daten verbessert.
-
Die Sensorbaugruppe kann angepasst werden, um an einen Schuh befestigt zu sein. Solch eine Anordnung hat den Vorteil, dass die Bewegungen des Schuhs unmittelbar gemessen werden können und bestimmte Ereignisse, wie etwa Schüsse, zuverlässig bestimmt werden können. Der Schuh kann zum Beispiel ein Fußball-, Rugby- oder Footballschuh sein.
-
Die Sensorbaugruppe kann angepasst werden, um an einen Schienbeinschoner befestigt zu sein. Mit solch einer Anordnung können bestimmte Ereignisse, wie etwa Schüsse, zuverlässig bestimmt werden, während das Gerät unabhängig von den durch die Person getragenen Schuhen ist.
-
Außerdem kann die Sensorbaugruppe befestigt oder integriert werden in einem Schuh oder Kleidungsstück, welches durch die Person getragen wird, oder welches direkt an die Person gekoppelt ist, z. B. an ihre Haut. Zum Beispiel kann der Sensor auf einen Schuh, in den Schuh (z. B. Schuhoberteil, Mittelsohle, Außensohle) und in der Einlegesohle (Innensohle, welche entfernt werden kann) platziert werden. Der Schuh könnte einen Hohlraum umfassen in welcher die Sensorbaugruppe platziert wird. Die Sensorbaugruppe könnte auch befestigt oder integriert werden in ein tragbares Gerät wie eine Uhr, ein Armband oder ein Uhr ähnliches Gerät, welches die aktuelle Zeit zeigen kann. Die Sensorbaugruppe könnte am unteren Bein, z. B. Schienbeinbereich oder Knöchel, getragen werden.
-
Die Sensorbaugruppe kann auch in Sportausrüstung integriert werden, welche der Athlet zum Durchführen der interessierenden Aktivitäten, z. B. in einem Tennisschläger, Fußball, Basketball oder Skateboard, verwendet.
-
Das System kann weiter ein tragbares Gerät umfassen, welches den Sensor und den Speicher umfasst. Tragbare Geräte ermöglichen ein kultiges Aussehen und können auch in einem städtischen Kontext getragen werden.
-
Das System kann weiter ein Funkmodul umfassen, welches mit dem Sensor verknüpft ist. Das Funkmodul kann ein RFID-, NFC-, BT-, BTLE, Wifi- oder WLAN-Modul sein. Zum Beispiel könnten die Sensorbaugruppe, der Speicher und das Funkmodul befestigt oder integriert sein in ein tragbares Gerät und das Funkmodul könnte verwendet werden, um andere drahtlose Geräte in der Nähe aufzuspüren. Außerdem könnten sportrelevante Bereiche, wie etwa Fußballplätze oder Stadien, mit drahtlosen Bakensignalen oder RFID/NFC-Tags ausgerüstet werden und durch das tragbare Gerät erkannt werden. Als Antwort könnte das drahtlose Gerät eine Aktion, wie etwa Synchronisieren des Sensors mit einer Kamera (z. B. welche auf dem Fußballplatz oder in dem Stadion installiert ist), durchführen.
-
Synchronisieren der Sensordaten mit dem Video kann Empfangen eines Funksignals vom Funkmodul umfassen. Wenn zum Beispiel die Person, welche das tragbare Gerät trägt, einen Sportplatz betritt, empfängt ein zugehöriges Funkempfänger-Modul, welches auf dem Sportplatz installiert ist, das Funksignal vom Funkmodul, welches im tragbaren Gerät enthalten ist, und synchronisiert die Kamera mit dem Sensor. Das drahtlose Signal kann ein Zeitstempel einer Echtzeituhr (RTC), die in der Sensorbaugruppe oder im tragbaren Gerät enthalten ist, umfassen. Dieser Zeitstempel ermöglicht der Kamera mit der RTC der Sensorbaugruppe oder des tragbaren Geräts, z. B. durch Einstellen ihrer RTC zu dem empfangenen Zeitstempel, zu synchronisieren. Die Ausführungs- und/oder Verarbeitungszeit des Zeitstempels könnte berücksichtigt werden und zu dem Zeitstempel hinzugefügt werden, um eine genauere Synchronisation zu erhalten. Die Sensorbaugruppe oder das tragbare Gerät speichern auch die aktuelle Zeit von zwei Entnahmepunkten des aufgenommenen Videos (zum Beispiel das erste und letzte Bild) ab. Falls ein Ereignis in den Sensordaten detektiert wird, kann der zugehörige Zeitpunkt basierend auf den abgespeicherten Zeiten der beiden Abtastpunkten bestimmt werden.
-
Alternativ kann ein drahtloses Signal mit einem Zeitstempel einer RTC der Kamera oder des Systems mit welchem die Kamera verbunden ist zu dem Drahtlosgerät gesendet werden durch z. B. RFID, NFC, Bluetooth (BT), Bluetooth Low Energy (BTLE) oder WLAN. Dieses Signal ermöglicht der Sensorbaugruppe oder dem tragbaren Gerät sich mit der Kamera zu synchronisieren, z. B. durch Einstellen ihrer RTC zu dem Zeitstempel. Die Ausführungs- und/oder Verarbeitungszeit des Zeitstempels könnte berücksichtigt werden und zu dem Zeitstempel hinzugefügt werden, um eine genauere Synchronisation zu erhalten.
-
Die Sensorbaugruppe kann einen Speicher umfassen. Zum Beispiel können die Sensorbaugruppe und der Speicher in einem gemeinsamen Gehäuse beinhaltet sein. Somit wird ein kompaktes Gerät erhalten, welches einfach an z. B. Kleidung, einem Kurt, einem Schuh, usw. befestigt werden kann.
-
Ein noch weiterer Aspekt der vorliegenden Erfindung bezieht sich auf ein Computerprogramm umfassend Anweisungen, welche, wenn ausgeführt, einen Computer dazu veranlassen ein wie oben beschriebenes Verfahren auszuführen.
-
IV. Beschreibung der Figuren
-
Im Folgenden werden beispielhafte Ausführungsformen der Erfindung beschrieben in Bezug zu den Figuren, in welchen:
-
1 eine schematische Abbildung einer beispielhaften Ausführungsform der vorliegenden Erfindung, zeigt;
-
2 eine schematische Abbildung der Verwendung von mehreren Kameras im Kontext der vorliegenden Erfindung, zeigt;
-
3 eine schematische Abbildung einer Sensorbaugruppe gemäß der vorliegenden Erfindung, zeigt;
-
4 ein Beispiel einer Sensorbaugruppe, welche an einen Gurt befestigt ist, zeigt;
-
5 verdeutlicht wie ein Video, welches gemäß der Erfindung generiert wurde, an Verbrauchergeräte verteilt wird;
-
6 verdeutlicht wie ein Video, welches gemäß der Erfindung generiert wurde, einem Benutzer vorliegen kann;
-
7 eine beispielhafte Präsentation eines Videos auf einem Mobilgerät, welches gemäß der Erfindung generiert wurde, zeigt;
-
8 eine beispielhafte Sequenz von Schritten um ein Ereignis von einer Zeitreihe von Sensordaten gemäß der vorliegenden Erfindung zu detektieren, zeigt;
-
9 einen Plot einer beispielhaften Zeitreihe, welche durch einen 3-Achsen-Beschleunigungsmesser erhalten wurde, zeigt;
-
10 einen Plot des Signalgrößenvektors, welcher von dem in 9 gezeigten 3-Achsen-Beschleunigungsmesser berechnet wurde, zeigt;
-
11 zeigt eine Abbildung einer Support Vector Machine; und
-
12 eine beispielhafte Zwei-Schritte-Ereignisklassifikation, welche Ereignisgruppen verwendet zeigt.
-
V. Beschreibung von bevorzugten Ausführungsformen
-
Ein beispielhaftes Verfahren und System gemäß der Erfindung wird in Bezug der schematischen Abbildung von 1 erklärt. Das Verfahren gemäß der Erfindung umfasst den Schritt (a.) Aufnehmen eines Videos einer Aktivität einer Person. Wie in 1 gezeigt, kann das Video mit einer Kamera 11 aufgenommen werden. Die Kamera 11 kann die Kamera eines Smartphones sein, eines Tablet-PCs, einer Webcam, einer Videokamera, eine Actionkamera oder einer Kamera, welche zum Aufnehmen von Sportaktivitäten geeignet ist. Im Allgemeinen ist jede Kamera passend, welche eine Sequenz von Bildern aufnehmen kann. Die Kamera kann z. B. an einem Stadion oder Sportplatz gefestigt werden. Alternativ kann die Kamera 11 Teil einer temporären Installation sein oder kann sogar durch eine Person getragen werden. In jedem Fall ist die Kamera 11 so angeordnet, dass sie die Aktivität der Person aufnimmt.
-
Anstatt einer einzelnen Kamera 11 können mehrere Kameras verwendet werden, welche die Szene von verschiedenen Winkeln erfassen wie in 2 verdeutlicht. In diesem Beispiel sind fünf Kameras 11a, 11b, 11c, 11d und 11e um ein Spielfeld angeordnet, welches in diesem Beispiel ein Fußballfeld ist, aber auch im Allgemeinen jeder Platz sein könnte, um eine Sportaktivität durchzuführen, z. B. ein Basketballfeld, ein Tennisplatz oder sogar eine Straße. Im Beispiel von 2 werden die Kameras 11a und 11e hinter den Toren positioniert. Deshalb sind diese Kameras speziell passend um Schüsse auf das Tor und Torwartaktionen zu erfassen. Die Kameras 11b und 11d werden in der Nähe der Eckfahnen positioniert und liefern eine Schrägansicht des Spielfeldes. Außerdem können sie sehr gut Eckbälle erfassen. Kamera 11c wird auf der Projektion der Mittellinie positioniert. Deshalb erfasst diese Kamera Aktivitäten in der Mitte des Spielfeldes so wie etwa den Anstoß.
-
Jede der Kameras erfasst ihren eigenen Videostream, d. h. im Beispiel von 2 werden fünf Videostreams generiert. Die Videostreams können entweder bei der entsprechenden Kamera abgespeichert oder können zu einer zentralen Abspeichereinheit für spätere Verarbeitung wie sie weiter unten beschrieben wird übertragen werden. Übertragen der Videostreams kann entweder durch eine Kabelverbindung (z. B. einem Videokabel) oder drahtlos (z. B. durch WLAN, Bluetooth, usw.) sein.
-
Im Allgemeinen können die Anzahl und Position der Kameras unterschiedlich von dem Beispiel wie in 2 gezeigt sein und können von der Sportaktivität abhängen. Zum Beispiel kann ein Golfplatz mit einer viel höheren Anzahl von Kameras ausgestattet sein. In jedem Fall helfen mehrere Kameras die Szene von verschiedenen Winkeln zu erfassen und können auch Aktivitäten erfassen, welche durch Spieler im Vordergrund versteckt sein könnten, falls nur eine einzelne Kamera verwendet werden würde. Trotzdem kann die vorliegende Erfindung mit nur einer einzigen Kamera ausgeübt werden.
-
Die Aktivität kann eine Sportaktivität sein wie etwa ein Fußball-, Basketball- oder Tennisspiel. Im Allgemeinen ist die vorliegende Erfindung für jede Form von Sport anwendbar. Außerdem kann die vorliegende Erfindung in Trainingssituationen, in einem Spiel, Freizeitaktivitäten oder dergleichen verwendet werden.
-
Das Verfahren umfasst weiter den Schritt (b.) des Abspeicherns einer Zeitreihe von Sensordaten, die von einer Sensorbaugruppe 12 bezogen werden, umfassend zumindest einen Sensor, der an die Person gekoppelt ist während die Person die Aktivität ausführt. Wie 1 gezeigt, trägt die Person eine Sensorbaugruppe 12 an ihrem Knöchel. Die Sensorbaugruppe kann umfassen einen einzelnen Sensor wie etwa einen Beschleunigungsmesser, ein Gyroskop oder einen Magnetfeldsensor, oder kann mehrere Sensoren umfassen, d. h. eine Kombination der vorhergenannten Sensoren. Im Allgemeinen ist der zumindest eine Sensor fähig die Bewegung der Person zu messen, d. h. ist sensitiv für Veränderungen des Bewegungszustandes des Körpers, oder Teile des Körpers der Person. Diese Veränderungen können Veränderungen in der Bewegung sein, d. h. eine Beschleunigung oder Verlangsamung, oder Veränderungen in der Ausrichtung, d. h. eine Rotation. Der Sensor generiert ein elektrisches Signal, welches diesen Veränderungen des Bewegungszustandes entspricht. Im Allgemeinen wird/werden eine Spannung, ein Strom oder beides gemäß den Bewegungen verändert.
-
Der zumindest eine Sensor der Sensorbaugruppe 12 kann in mehreren Dimensionen sensitiv sein. Zum Beispiel kann ein Beschleunigungsmesser in alle drei Raumrichtungen, d. h. Achsen, sensitiv sein. Ein Gyroskop kann sensitiv zu den Rotationen um die drei Raumrichtungen, d.h. Achsen, sein. Ein Magnetometer kann Abweichungen eines Magnetfelds (z. B. das Erdmagnetfeld) spüren. Diese Abweichungen können verwendet werden, um die Ausrichtung und Rotation relativ zu dem Magnetfeld zu bestimmen, ähnlich wie bei einem Kompass.
-
Das elektrische Signal, welches durch den zumindest einen Sensor abgegeben wird, kann durch einen Analog-Digital-(AD)-Konverter abgetastet werden bei einer bestimmten Abtastrate, z. B. zwischen 100 und 10000 Hz, bevorzugt bei ungefähr 1000 Hz. Das analoge elektrische Signal wird durch eine Reihe von diskreten Werten dargestellt. Falls zum Beispiel die Auflösung des AD-Konverters 10 Bits ist, wird das elektrische Signal bei jedem Abtastpunkt durch 210 = 1024 möglichen Werten dargestellt. Dadurch wird eine Zeitreihe von Sensordaten des zumindest einen Sensor der Sensorbaugruppe 12, welche an die Person gekoppelt ist, erhalten.
-
In der beispielhaften Ausführungsform von 1 wird die Sensorbaugruppe 12 an den Knöchel der Person gekoppelt. Jedoch ist es allgemein möglich, dass die Sensorbaugruppe 12 an unterschiedliche Teile des Körpers gekoppelt wird, z. B. das Handgelenk, die Brust, den Kopf, das Schienbein, usw. Außerdem kann die Sensorbaugruppe 12 befestigt oder integriert werden in einen Schuh, Bekleidung, tragbares Gerät, usw., welches durch die Person getragen wird, oder welches direkt an die Person gekoppelt ist, z. B. an ihre Haut. Zum Beispiel die Sensorbaugruppe 12 auf einen Schuh, in den Schuh (z. B. Schuhoberteil, Mittelsohle, Außensohle) und in der Einlegesohle (Innensohle, welche entfernt werden kann) platziert werden. Die Sensorbaugruppe 12 könnte auch befestigt oder integriert werden in einem Gerät wie etwa einem tragbaren Gerät wie einen Gurt, Uhr, Armband, Uhr ähnliches Gerät. Der Schuh könnte einen Hohlraum umfassen in welchen die Sensorbaugruppe 12 platziert wird. Die Sensorbaugruppe 12 könnte am unteren Bein, z. B. Schienbeinbereich oder Knöchel, getragen werden. Die Sensorbaugruppe 12 kann auch in Sportausrüstung integriert werden, welche der Athlet verwendet um interessierende Aktivitäten durchzuführen, z. B. in einem Tennisschläger, Fußball, Basketball oder Skateboard.
-
Falls der zumindest eine Sensor sensitiv zu Bewegungen und/oder Rotationen und/oder Ausrichtung in einer Dimension (oder Achse) ist, ist die Zeitreihe eine geordnete Sequenz von einzelnen Sensordatenwerten, welche bei aufeinanderfolgenden Entnahmepunkten in der Zeit beobachtet wird. Falls der zumindest eine Sensor sensitiv zu Bewegungen und/oder Rotationen in mehr als eine Dimension (oder Achsen) ist oder falls mehr als ein Sensor verwendet wird, ist die Zeitreihe eine geordnete Sequenz von Sensordatenvektoren, welche bei aufeinanderfolgenden Abtastpunkten in der Zeit beobachtet werden.
-
Die Sensorbaugruppe 12 kann auch sein oder umfassen ein Satellitennavigationssystem-Modul, welches fähig ist um Daten bereitzustellen, welche dem Standort der Person entsprechen. Das Satellitennavigationssystem-Modul kann basieren auf GPS, Galileo, Glonass oder einer Kombination davon. Die Geoortung kann nur aktualisiert werden, falls der Benutzer eine Taste drückt oder bei vordefinierten Zeitintervallen (z. B. alle 60 Sekunden, 5 Minuten, 10 Minuten, usw.), um Akkuleistung zu schonen. Im Falle eines Zeitintervalls kann der Benutzer das Zeitintervall einstellen, z. B. durch einen Schalter, Taste oder berührungsempfindlichen Bildschirm auf der Sensorbaugruppe 12 oder durch ein Smartphone, Tablet-PC, Computer, usw. Im letzteren Fall könnte das Zeitintervall zu der Sensorbaugruppe 12 gesendet werden durch eine Kabelverbindung (z. B. USB, Ethernet, Thunderbolt, usw.) oder eine drahtlose Verbindung (z. B. Wifi, WLAN, BT, BTLE, NFC, RFIT, ANT®, ANT+, ZigBee®, usw.). Alternativ wird das Satellitennavigationssystem-Modul separat von dem Sensormodul 12 angeordnet, z. B. in einem Smartphone, Armbanduhr, usw., welche durch die Person getragen wird. Im letzteren Fall könnte die Geoortung zu der Sensorbaugruppe 12 gesendet werden durch eine Kabelverbindung (z. B. dünnes Kabel) oder eine drahtlose Verbindung (z. B. Wifi, WLAN, BT, BTLE, NFC, RFIT, ANT®, ANT+, ZigBee®, usw.).
-
Wie in der beispielhaften Ausführungsform von 1 gezeigt, wird die Zeitreihe in einem Speicher 13 für späteres Verarbeiten abgespeichert. Zum Beispiel kann die Zeitreihe abgefragt werden, nachdem die Aktivität beendet wurde, durch Auslesen der abgespeicherten Zeitreihe der Sensordaten vom Speicher 13. Auslesen kann drahtlos ausgeführt werden, z. B. durch Wifi, WLAN, Bluetooth (BT), Bluetooth Low Energy (BTLE), ANT®, ANT+, ZigBee®, oder dergleichen oder durch eine Kabelverbindung, z. B. USB, Lightning Adapter, RJ-45 oder ähnlich.
-
Die Daten können von dem zumindest einen Sensor zu dem Speicher 13 drahtlos gesendet werden (z. B. durch Wifi, WLAN, Bluetooth (BT), Bluetooth Low Energy (BTLE), ANT®, ANT+, ZigBee®,) oder durch eine Kabelverbindung (z. B. USB, Lightning Adapter, RJ-45 oder ähnlich). Während der Speicher 13 in der beispielhaften Ausführungsform von 1 am Bein der Person angeordnet wird, ist es auch möglich, dass der Speicher 13 in irgendeiner Art nicht an die Person verbunden wird, aber separat angeordnet wird, z. B. in einem zweckbestimmten Gehäuse. In diesem Fall werden die Sensordaten von dem zumindest einen Sensor zu dem Speicher 13 durch eine drahtlose Verbindung gesendet.
-
Außerdem kann der Speicher 13 befestigt oder integriert werden zusammen mit der Sensorbaugruppe 12 in einem Schuh, Kleidungsstück, tragbaren Gerät, usw., welches durch Person getragen wird. Zum Beispiel kann der Speicher auf einen Schuh, in den Schuh (z. B. Schuhoberteil, Mittelsohle, Außensohle) und in der Einlegesohle (Innensohle, welche entfernt werden kann) platziert werden. Der Schuh könnte einen Hohlraum umfassen in welcher der Speicher 13 platziert wird. Der Speicher 13 könnte auch befestigt oder integriert werden zusammen mit der Sensorbaugruppe 12 in einem Gerät wie etwa einem tragbaren Gerät wie einem Gurt oder einer Uhr, Armband, Uhr ähnliches Gerät, usw. Der Speicher 13 könnte am unteren Bein getragen werden, z. B. Schienbeinbereich oder Knöchel. Der Speicher 13 kann auch in Sportausrüstung integriert werden, welche der Athlet verwendet zum Durchführen der interessierenden Aktivitäten, z. B. in einem Tennisschläger, Fußball, Basketball oder Skateboard.
-
Wie in der beispielhaften Ausführungsform von 3 gezeigt, kann der Speicher 13 in der Sensorbaugruppe 12 angeordnet werden und somit ist er ein Teil der Sensorbaugruppe 12. 3 zeigt eine schematische Abbildung einer Sensorbaugruppe 12 und ihrer Komponenten von denen einige optional sind. In jedem Fall umfasst die Sensorbaugruppe 12 zumindest einen Sensor. Wie in 3 gezeigt, kann dieser Sensor ein Beschleunigungsmesser 31 sein. Ein Beschleunigungsmesser misst Beschleunigung und Verlangsamung und gibt entsprechende elektronische Signale aus. Es ist auch möglich, dass die Sensorbaugruppe 12 mehr als einen Beschleunigungsmesser umfasst. In diesem Fall können die Sensordaten von den Beschleunigungsmessern in eine einzelne Zeitreihe kombiniert werden.
-
Anstatt eines Beschleunigungsmessers 31 kann die Sensorbaugruppe ein Gyroskop 32 umfassen. Ein Gyroskop misst Veränderungen in der Ausrichtung, d. h. Rotation, und gibt entsprechende elektronische Signale aus. Es ist auch möglich, dass die Sensorbaugruppe 12 mehr als ein Gyroskop umfasst. In diesem Fall können die Daten von den Gyroskopen in eine einzelne Zeitreihe kombiniert werden. Es ist auch möglich, dass die Sensorbaugruppe 12 zwei oder mehrere Sensoren eines unterschiedlichen Typs umfasst, zum Beispiel den Beschleunigungsmesser 31 und das Gyroskop 32. In diesem Fall können die Sensordaten von beiden Sensoren 31 und 33 in eine einzelne Zeitreihe kombiniert werden.
-
Die Sensorbaugruppe kann zusätzlich oder alternativ zu dem Beschleunigungsmesser 31 und/oder dem Gyroskop 32 ein Magnetometer 33 umfassen. Ein Magnetometer misst Abweichungen eines Magnetfelds (z. B. das Erdmagnetfeld). Diese Abweichungen können verwendet werden, um die Ausrichtung und Rotation relativ zu dem Magnetfeld zu bestimmen, ähnlich wie bei einem Kompass. Das Magnetometer 33 gibt elektrische Signale entsprechend zu der Ausrichtung aus.
-
Die Sensorbaugruppe 12 kann optional ein Barometer 34 umfassen, welches Luftdruck misst und ein entsprechendes elektrisches Signal ausgibt. Das Barometer 34 kann verwendet werden um die Höhenlage zu bestimmen. Die Höhenlage kann in dem Speicher 13 zusammen mit den Daten der anderen Sensoren 31, 32, 33 abgespeichert werden und als weitere statistische Informationen an den Träger bereitgestellt werden wie weiter unten beschrieben wird. Falls die Sensorbaugruppe 12 zusätzlich ein Satellitennavigations-Modul wie weiter unten beschrieben wird umfasst, können Daten des Barometers 34 verwendet werden, um die Genauigkeit der Geoortungsdaten, welche von dem Satellitennavigation-Modul erhalten werden, zu verbessern.
-
Die Sensorbaugruppe 12 kann optional einen Temperatursensor 35 umfassen, welcher die Temperatur misst und ein entsprechendes elektrisches Signal ausgibt. Die gemessene Temperatur kann verwendet werden, um die Genauigkeit des Barometers 34 zu verbessern, da die Temperatur die vom Barometer ausgelesen Werte beeinflussen kann. Alternativ oder zusätzlich kann die gemessene Temperatur als weitere statistische Information dem Träger bereitgestellt werden wie weiter unten beschrieben wird.
-
Daten von dem zumindest einen Sensor 31, 32, 33, 34, 35 werden einer zentralen Verarbeitungseinheit 36 bereitgestellt, welche in einem Mikroprozessor, eines Mikrokontrollers, anwendungsspezifischen integrierten Schaltkreis (ASIC), Field-Programmable Gate Array (FPGA) oder einer ähnlichen Einheit mit Verarbeitungsmöglichkeiten, sein kann. Die zentrale Verarbeitungseinheit 36 kann einen Analog-Digital-Konverter (ADC) umfassen, welcher die elektrischen Signale, welche von den Sensoren 31, 32, 33, 34, 35 erhalten werden, in digitale Signale umwandelt, welche durch entsprechende Software verarbeitet werden können, welche auf der zentralen Verarbeitungseinheit 36 oder programmierbaren Logik-Bausteinen im Falle von einem FPGA ausgeführt werden. Alternativ kann der ADC in der Sensorbaugruppe 12 als eine separate Komponente bereitgestellt werden.
-
Wie oben erwähnt umfasst auch die Sensorbaugruppe 12 in der beispielhaften Abbildung von 3 den Speicher 13. Jedoch ist es auch möglich, dass der Speicher 13 kein Teil der Sensorbaugruppe 12 ist, sondern eine separate Komponente ist, welche mit der Sensorbaugruppe 12 drahtlos verbunden ist (z. B. durch Wifi, WLAN, Bluetooth (BT), Bluetooth Low Energy (BTLE), ANT®, ANT+, ZigBee® oder dergleichen) oder durch ein elektrisches Kabel (z. B. USB, Lightning Adapter, RJ-45 oder ähnlich).
-
Der Speicher 13 wird an die in 3 gezeigte zentrale Verarbeitungseinheit gekoppelt. Somit kann die zentrale Verarbeitungseinheit 36 die von den Sensoren 31, 32, 33, 34, 35 empfangenen Daten im Speicher 13 abspeichern. Optional kann die zentrale Verarbeitungseinheit die Sensordaten vor dem Abspeichern im Speicher 13 verarbeiten. Zum Beispiel kann die zentrale Verarbeitungseinheit 36 ein Vorverarbeiten durchführen und Hochfrequenzkomponenten von den Daten filtern, welche von Rauschen oder Niedrigfrequenzkomponenten verursacht werden, welche von einem bestimmten Bias der Sensoren 31, 32, 33, 34, 35 verursacht werden. Die zentrale Verarbeitungseinheit 36 kann auch die Daten von zwei oder mehreren Sensoren 31, 32, 33, 34, 35 in einer einzelnen Zeitreihe kombinieren zum Abspeichern im Speicher 13.
-
Außerdem kann die zentrale Verarbeitungseinheit 36 die empfangenen Sensordaten mit einem Zeitstempel bereitstellen. Zu diesem Zweck kann die Sensorbaugruppe 12 eine Echtzeituhr (RTC) 37 umfassen, welche mit der zentralen Verarbeitungseinheit 36 verbunden ist. Die Echtzeituhr 37 generiert ein Zeitsignal, welches der aktuellen Zeit entspricht. Die Echtzeituhr 37 kann auch verwendet werden um die Sensorbaugruppe 12 (und somit die Zeitreihe, welche im Speicher 13 abgespeichert ist) mit der Kamera 11 oder Kameras 11a, 11b, 11c, 11d, 11e zu synchronisieren, wie weiter unten beschrieben wird.
-
Die Sensorbaugruppe 12 kann weiter einen Verbinder 38 umfassen, welcher eine optionale Komponente ist. Der Verbinder kann verwendet werden um die Sensorbaugruppe 12 an einen Computer, Tablet PC, Smartphone, usw. zu verbinden, um die Sensordaten, welche im Speicher 13 abgespeichert sind, zum Verarbeiten zu übertragen gemäß der vorliegenden Erfindung. Der Verbinder kann ein USB, Lightning, Rj-45 Anschluss, Verbinder oder dergleichen sein. Der Verbinder 38 kann auch verwendet werden um die Sensorbaugruppe 12 mit elektronischer Energie aufzuladen.
-
Die Sensorbaugruppe 12 kann weiter einen drahtlosen Sender-Empfänger 39 umfassen, welcher verwendet werden kann, um die Sensordaten, welche im Speicher 13 abgespeichert sind, an einen Computer, Tablet-PC, Smartphone, usw. zu übertragen. Der drahtlose Sender-Empfänger 39 kann alternativ oder zusätzlich zum Synchronisieren der Sensorbaugruppe 12 mit der Kamera 11 oder Kameras 11a, 11b, 11c, 11d, 11e verwendet werden wie weiter unten beschrieben wird. Der drahtlose Sender-Empfänger kann ein Wifi-, WLAN-, Bluetooth (BT), Bluetooth Low Energy (BTLE), ANT®, ANT+, ZigBee®-Sender-Empfänger oder dergleichen sein.
-
Außerdem könnte der drahtlose Sender-Empfänger 39 verwendet werden um ähnliche Geräte um ihn herum aufzuspüren. Bestimmte Bereiche (z. B. ”Fußball Hotspots”, ein Stadion, Football- oder Fußballfeld, usw.) können mit z. B. RFID/NFC-Tags oder Bluetooth-Baken ausgerüstet werden und durch die Sensorbaugruppe 12 erkannt werden. Somit kann eine Kennzeichnung, welche mit dem Bereich verknüpft ist, durch die Sensorbaugruppe 12 abgespeichert werden zusammen mit den Daten vom Beschleunigungsmesser 31 und/oder dem Gyroskop 32 und/oder dem Magnetometer 33, um die gemessenen Daten mit dem Bereich zu verknüpfen oder einfach zu registrieren, dass die Person, welche die Sensorbaugruppe 12 trägt, einen bestimmten Standort, z. B. ein Stadion oder Geschäft, besucht hat. Anstatt eines Sender-Empfängers 39 kann die Sensorbaugruppe 12 mit einem Sender und/oder Empfänger als separate Komponente ausgerüstet werden.
-
Die Sensorbaugruppe 12 kann eine Batterie 310 umfassen, welche elektronische Energie für die elektronischen Komponenten der Sensorbaugruppe bereitstellt, d. h. den Sensoren 31, 32, 33, 34, 35, der Echtzeituhr 37, dem Sender-Empfänger 39 und weiteren optionalen Komponenten, welche weiter unten beschrieben werden. Die Batterie 310 kann eine austauschbare Batterie sein, eine wieder aufladbare Batterie, welche austauschbar oder in der Sensorbaugruppe 12 permanent fixiert sein kann, ein Kondensator oder dergleichen. Im Falle einer wieder aufladbaren Energiequelle (z. B. eine wieder aufladbare Batterie oder ein Kondensator) kann die Batterie 310 durch den Verbinder 38 aufgeladen werden. Die Sensorbaugruppe 12 kann alternativ oder zusätzlich eine induktive Spule 311 umfassen, welche einen Ladestrom für die Batterie 310 bereitstellt. Zu diesem Zweck kann die Sensorbaugruppe 12 in der Nähe einer entsprechenden Sendespule platziert werden, welche Energie zu der induktiven Spule 311 durch ein zeitlich veränderndes elektromagnetisches Feld überträgt.
-
Wie bereits erwähnt kann die Sensorbaugruppe 12 ein Satellitennavigation-Modul 312 umfassen. Dieses Modul empfängt elektromagnetische Signale von Satelliten im Orbit der Erde und kann den Standort der Sensorbaugruppe 12 auf der Oberfläche der Erde (Geoortung) von diesen Signalen ableiten. Zusätzlich kann das Satellitennavigation-Modul 312 die Höhenlage der Sensorbaugruppe 12 ableiten. Das Satellitennavigation-Modul 312 kann basieren auf Satellitennavigationssystem (GPS), dem Glonasssystem oder dem europäischen Galileosystem oder einer Kombination von diesen Systemen.
-
Die Sensorbaugruppe 12 kann optional eine Anzeige 311 umfassen. Die Anzeige kann dem Benutzer Informationen angeben wie etwa verbleibende Akkuleistung, Zeit, verbleibende Speicherkapazität im Speicher 13, den Status „An/Aus”, usw. Die Anzeige kann auch Feedback an den Benutzer bereitstellen basierend auf den Sensordaten, welche von den Sensoren 31, 32, 33, 34, 35 erhalten werden wie weiter unten beschrieben wird.
-
Die Sensorbaugruppe 12 kann einen Schalter 314 umfassen. Der Schalter kann eine Drück-Taste sein, welche nach dem Drücken in ihren vorherigen Zustand zurückgeht. Alternativ kann der Schalter ein Schiebeschalter sein, welcher zwischen zwei oder mehreren Positionen verschoben wird. Der Schalter 314 kann zum Beispiel verwendet werden um die Sensorbaugruppe 12 zu aktivieren oder bestimmte Einstellungen der Sensorbaugruppe 12 zu verändern. Zum Beispiel kann der Benutzer die aktuelle Uhrzeit einstellen oder eine bestimmte Betriebsart einstellen. Eine andere Verwendung für den Schalter 314 ist Aktualisieren der Geoortung der Sensorbaugruppe 314 mittels des Satellitennavigationssystem-Moduls 312, falls der Benutzer den Schalter 314 aktiviert.
-
Das Verfahren gemäß der Erfindung umfasst weiter den Schritt (c.) des Synchronisierens des Videos mit den Sensordaten. Synchronisieren kann durchgeführt werden durch Verknüpfen eines Datenpunktes in der Zeitreihe, z. B. ein Fenster, mit einem zugehörigen Bild des Videos. Zum Beispiel könnten die Datenpunkte und das zugehörige Videobild mit dem gleichen Zeitstempel verknüpft werden. Zu diesem Zweck kann ein drahtloses Signal durch den Sender-Empfänger 39 in der Sensorbaugruppe 12 gesendet werden zum Beispiel durch RFID, NFC, Bluetooth (BT), Bluetooth Low Energy (BTLE) oder WLAN. Wenn die Person zum Beispiel einen Sportplatz betritt, empfangt ein zugehöriges Empfängermodul, welches auf dem Sportplatz (z. B. in einer Matte oder Tor) installiert ist, das drahtlose Signal vom Sender-Empfänger 39 und synchronisiert die Kamera 11 oder die Kameras 11a, 11b, 11c, 11d und 11e mit der Sensorbaugruppe 12.
-
Das drahtlose Signal kann einen Zeitstempel der Echtzeituhr (RTC) 37 umfassen, welche in der Sensorbaugruppe 12 enthalten ist. Dieser Zeitstempel ermöglicht der Kamera 11 oder den Kameras 11a, 11b, 11c, 11d und 11e mit der RTC 37 der Sensorbaugruppe 12 zu synchronisieren, z. B. durch Einstellen ihrer eigenen RTC zu dem empfangenen Zeitstempel. Die Ausführungs- und/oder Verarbeitungszeit des Zeitstempels könnte berücksichtigt werden und zu dem Zeitstempel hinzugefügt werden, um eine genauere Synchronisation zu erhalten. Die Sensorbaugruppe 12 speichert auch die aktuelle Zeit von zwei Abtastpunkten des aufgenommenen Videos (zum Beispiel das erste und letzte Bild) ab. Falls ein Ereignis in den Sensordaten detektiert wird, kann der zugehörige Zeitpunkt basierend auf den abgespeicherten Zeiten der beiden Abtastpunkte bestimmt werden.
-
Alternativ wird ein drahtloses Signal mit einem Zeitstempel von einer RTC der Kamera 11 oder Kameras 11a, 11b, 11c, 11d und 11e oder von dem System, mit welchen die Kamera 11 oder Kameras 11a, 11b, 11c, 11d und 11e verbunden sind, zu der Sensorbaugruppe 12 durch z. B. RFID, NFC, Bluetooth (BT), Bluetooth Low Energy (BTLE) oder WLAN gesendet. Das Signal kann z. B. durch ein Tor oder eine Matte, welche im Stadion, Sportplatz, usw. installiert ist, gesendet werden. Das Signal kann durch den Sender-Empfänger 39 empfangen werden und durch die zentrale Verarbeitungseinheit 36 verarbeitet werden. Dieses Signal ermöglicht der Sensorbaugruppe 12 mit der Kamera 11 oder Kameras 11a, 11b, 11e, 11d und 11e zu synchronisieren, z. B. durch Einstellen ihrer RTC 37 zu dem Zeitstempel. Die Ausführungs- und/oder Verarbeitungszeit des Zeitstempels könnte berücksichtigt werden und zu dem Zeitstempel hinzugefügt werden, um eine genauere Synchronisation zu erhalten.
-
Alternativ können die Sensorbaugruppe 12 und die Kamera 11 oder Kameras 11a, 11b, 11c, 11d und 11e durch Bestimmen eines Synchronisationsereignisses in der Zeitreihe und in zumindest einem Bild des Videos synchronisiert werden. Zum Beispiel kann ein Spieler, welcher die Sensorbaugruppe 12 trägt, eine gewisse vorbestimmte Bewegung durchführen wie etwa das Klatschen auf seine Schuhe oder das Klatschen auf die Sensorbaugruppe 12 klatschen. Solch ein Ereignis kann viel einfacher in dem Video und in der Zeitreihe der Sensordaten detektiert werden, da es höhere Spitzenwerte in den Sensordaten produziert. Die detektieren Datenpunkte in der Zeitreihe und die detektieren Bilder in dem Video können dann den gleichen Zeitstempel erhalten, um das Video mit der Zeitreihe zu synchronisieren.
-
Das Verfahren umfasst den Schritt (d.) des Detektierens eines Ereignisses in der Zeitreihe. Ein Ereignis ist definiert als ein Teil einer menschlichen Bewegung, die eine kurze und beschränkte Dauer hat. Zum Beispiel könnte ein Ereignis ein Fußballschuss oder Pass sein, ein Schlag eines Tennisballs oder ein Golfschwung. Das Ereignis kann in der Zeitreihe durch passende Verfahren, wie sie weiter unten beschrieben werden, detektiert werden.
-
Schließlich umfasst das Verfahren den Schritt (e.) des Verknüpfens des Ereignisses mit zumindest einem zugehörigen Bild im Video, das das Ereignis zeigt. Basierend auf der Synchronisation der Sensordaten und des Videos können die Bilder, die einem detektieren Ereignis entsprechen, in dem Video identifiziert werden.
-
Im Allgemeinen können das aufgenommene Video und die Sensordaten, welche im Speicher 13 abgespeichert sind, zu einem Gerät 14 übertragen werden, welches passend ist, um die relevanten Verfahrensschritte durchzuführen, d. h. die Detektion der Ereignisse und Verknüpfen der detektieren Ereignisse mit zugehörigen Videobildern. Solch ein Gerät 14 kann ein Smartphone, ein Tablet PC, ein Server oder ein dafür bestimmtes Computergerät sein. Das Video kann zu dem Gerät 14 drahtlos übertragen werden, z. B. durch WLAN, Bluetooth, Bluetooth Low Energy oder dergleichen, oder durch eine Kabelverbindung, z. B. USB, Firewire, Thunderbolt oder ähnlich. Das Video und/oder die Sensordaten können zu dem Gerät 14 übertragen werden während der Aktivität, z. B. durch drahtlose Verbindungen, oder nachdem die Aktivität beendet ist. Im letzteren Fall könnten Kabelverbindungen (wie etwa USB) anstatt drahtloser Verbindungen verwendet werden.
-
Das Gerät 14 kann umfassen einen Prozessor 15, welcher das Video mit den Sensordaten synchronisieren kann, um ein Ereignis in der Zeitreihe zu detektieren und das Ereignis mit zumindest einem zugehörigen Bild in dem Video, das das Ereignis zeigt, zu verknüpfen. Zu diesem Zweck können computerausführbare Anweisungen in den Prozessor 15 geladen werden, z. B. von einem Speicher 16 (wie etwa eine Festplatte, eine Solid State Drive, Flash-Speicher, usw.), um den Prozessor 15 dazu zu veranlassen die relevanten Verfahrensschritte durchzuführen. Der Speicher 16 könnte auch verwendet werden um ein Video und/oder die Sensordaten für späteres Verarbeiten durch den Prozessor 15 gemäß des beschriebenen Verfahrens abzuspeichern.
-
4 zeigt eine beispielhafte Ausführungsform eines tragbaren Gerätes 41 in der Form eines Gurtes 41, welcher eine Sensorbaugruppe 12 umfasst. Die Sensorbaugruppe 12 könnte eine Sensorbaugruppe 12 sein, wie in Bezug zu 3 beschrieben. Zum Beispiel könne die Sensorbaugruppe 12 auch den Speicher 13 zum Abspeichern der Sensordaten beinhalten. Die Sensorbaugruppe 12 kann abnehmbar an den Gurt 41 befestigt sein, zum Beispiel durch einen Klettverschluss, einen Druckknopf, einen Magnetverschluss, usw. Alternativ kann die Sensorbaugruppe permanent an den Gurt 14 z. B. durch Kleben, Schweißen oder Vernähen befestigt sein. Der Gurt 41 hat den Vorteil, dass er unabhängig zum Schuhwerk ist, d. h. kann sogar ohne Schuhe verwendet werden (z. B. auf Sand oder auf Rasen).
-
Der Gurt 41 kann gefertigt sein aus textilen Material, Leder, Kunstleder, Kunststoff oder dergleichen. Ein Gurt wird als jede schleifenförmige Anordnung verstanden, welche fähig ist an eine Extremität des Körpers einer Person getragen zu werden, z. B. Arm und/oder Bein. Somit kann der Gurt 41 an einem Bein, z. B. in der Nähe des Knöchels, getragen werden. Die Genauigkeit des Verfahrens der Erfindung kann verbessert werden, falls ein Gurt mit einer weiteren Sensorbaugruppe 12 am anderen Bein getragen wird. Dies kann insbesondere für eine Fußballanwendung vorteilhaft sein, weil Fußballspieler üblicherweise den Ball mit beiden Füßen behandeln. Die Sensordaten von den beiden Sensorbaugruppen 12 können in eine einzelne Zeitreihe kombiniert werden. Zu diesem Zweck könnte eine Sensorbaugruppe 12 seine Sensordaten zu einer anderen Sensorbaugruppe senden, zum Beispiel drahtlos durch Verwendung des Sender-Empfänger-Moduls 39. Die Sensordaten können durch die zentrale Verarbeitungseinheit 36 in der empfangenden Sensorbaugruppe 12 kombiniert werden. Alternativ senden beide Sensorbaugruppen die Sensordaten zu dem Gerät 14, z. B. durch das drahtlose Sender-Empfänger-Modul 39 oder den Verbinder 38 wie oben beschrieben. Die Sensordaten von beiden Sensorbaugruppen könnten dann im Gerät 14 kombiniert werden.
-
Es kann vorteilhaft sein mehr als eine Sensorbaugruppe auch während anderer Sportaktivitäten zu tragen. Zum Beispiel kann ein Tennisspieler eine erste Sensorbaugruppe 12 an seinem Arm, z. B. am Handgelenk, tragen und eine zweite Sensorbaugruppe 12 an einem seiner Beine, z. B. in der Nähe des Knöchels. Die erste Sensorbaugruppe 12 kann Sensordaten aufnehmen, welche stellvertretend für seine Armbewegungen und Ballschläge sind, wobei die zweite Sensorbaugruppe 12 Sensordaten aufnimmt, welche für seine Bewegungen auf dem Tennisplatz stellvertretend sind. Die Sensordaten können von beiden Sensorbaugruppen wie oben beschrieben kombiniert werden. Somit stellen die Sensordaten, welche durch beide Sensorbaugruppen aufgenommen werden, ein vollständigeres Aufnehmen seiner Tennisaktivität dar.
-
Wie bereits erwähnt kann die Sensorbaugruppe 12 zusätzlich mit einem Satellitennavigationsmodul 312 ausgerüstet werden, um den Standort des Benutzers zu verfolgen oder um Daten zu messen, welche für das Detektieren bestimmter Ereignisse relevant sind. Somit können Wegpunkte mit der vorliegenden Erfindung verwendet werden oder können durch den Speicher 13 abgespeichert werden zusammen mit den Daten des Beschleunigungsmessers, und/oder des Gyroskops und/oder des Magnetometers, um die gemessenen Daten mit einer Geoortung zu verknüpfen. Die Verwendung der Wegpunkte kann von dem Benutzer abhängig sein, welcher den Schalter 314 wie oben beschrieben aktiviert.
-
Das Verfahren gemäß der Erfindung kann weiter den Schritt umfassen des Verwendens des zumindest einen Bildes um ein zweites Video zu generieren, welches vorgegebene Ereignisse der Aktivität der Person zeigt. Alle Bilder, welche mit dem entsprechenden detektieren Ereignis verknüpft sind, können somit in ein Video kompiliert werden. Das Video stellt Feedback oder eine Zusammenfassung an den Spieler bereit und kann als ein „Highlightvideoclip” oder „Showvideoclip” seiner Leistung betrachtet werden. „Highlightvideoclip” oder „Showvideoclip” werden im Zusammenhang der vorliegenden Erfindung als eine Sammlung von Videosequenzen, welche eine gemeinsame Eigenschaft teilen, verstanden. Eine gemeinsame Eigenschaft könnte zum Beispiel sein, dass alle Videosequenzen des Highlightvideoclips Schüsse und/oder Passe und/oder Tricks usw. eines bestimmten Spielers zeigen. Ein anderes Highlightvideoclip könnte alle Defensivereignisse eines Torwarts zeigen. Außerdem könnte ein Highlightvideoclip spezielle Tricks, die ein Spieler gemacht hat, zeigen, zum Beispiel Ball hochhalten oder Around-the-world. Die Eigenschaft bezieht sich nicht notwendigerweise auf einen bestimmten Spieler. Es könnte zum Beispiel auch möglich sein, dass den Highlightvideoclip alle Schüsse über einer bestimmten Ballgeschwindigkeit (z. B. 50, 60, 80, 100 km/h) unabhängig des Spielers zeigt, welche in einem Spiel gemacht worden sind.
-
Die Videozusammenfassung kann auf dem Gerät 14 generiert werden und kann zu Servern im Internet oder direkt auf Verbrauchergeräten wie etwa Smartphones, Tablet-Computer, PCs, Smartwatches oder dergleichen hochgeladen werden.
-
5 zeigt eine beispielhafte Ausführungsform wie das Video von dem Gerät 14 zu den Verbrauchergeräten 51a, 51b, 51c, 51d übertragen werden kann. Zuerst können das Video und/oder zusätzliche zusammenfassende Statistik von dem Gerät 14 in eine Cloud 52 übertragen werden. Dementsprechend wird das Gerät 14 auch mit dem Internet verbunden, z. B. durch eine Kabelverbindung (z. B. Ethernet, USB, Thunderbolt, usw.) oder eine drahtlose Verbindung (z. B. Wifi, WLAN, BT, usw.). Die Cloud 52 kann in einen einzelnen Server oder in einer Serverfarm, welche mit dem Internet verbunden ist, implementiert werden. ”Cloud” im Kontext der vorliegenden Erfindung wird als jeden Server verstanden, welcher fähig ist das Video und/oder zusammenfassende Statistik abzuspeichern und das gleiche an Verbrauchergeräte bereitzustellen.
-
Auf das Video und/oder auf zusammenfassende Statistik können auf der Cloud 52 durch die Geräte 51a, 51b, 51c, 51d zugegriffen werden. Zum Beispiel sind die Geräte 51a und 51b Mobilgeräte wie etwa Smartphones, Tablet-PCs, Smartwatches oder dergleichen. Die Geräte 51a und 51b werden mit dem Internet verbunden durch eine drahtlose Verbindung wie etwa 3G, 4G, UMTS, LTE, Wifi, WLAN, BT, BTLE, usw. Zum Herunterladen und Präsentieren des Videos und/oder der zusammenfassenden Statistik von der Cloud 52, kann eine Anwendung (oft bezeichnet als „App” im Kontext von Mobilgeräten) auf den Mobilgeräten 51a und 51b installiert werden. Solche Apps können von einem virtuellen Geschäft (wie etwa Apple iTunes®, google play®, usw.) heruntergeladen werden. Die App verbindet sich mit der Cloud 52 und lädt das Video und/oder die zusammenfassende Statistik von der Cloud 52 herunter. Alternativ kann das Video von der Cloud 52 zu dem Mobilgerät ohne Herunterladen (d. h. ohne das Video auf dem Mobilgerät abzuspeichern) gestreamt werden. Das Video und/oder die zusammenfassende Statistik können dann dem Benutzer präsentiert werden wie genauer weiter unten beschrieben wird.
-
Anstatt auf einer App, kann ein Internetbrowser, welcher auf dem Mobilgeräten 51a, 51b installiert ist, auch zum Verbinden mit der Cloud 52 verwendet werden. Zu diesem Zweck leitet der Benutzer den Browser zu einer bestimmten Webseite und gibt z. B. einen Benutzername und Passwort ein. Nachdem der Benutzer der Zugang gewährt wurde, kann er entweder direkt das Video und/oder die zusammenfassende Statistik im Browser anschauen oder er kann das Video und/oder die zusammenfassende Statistik tickt für späteres Anschauen herunterladen.
-
Auf das Video und/oder auf die zusammenfassende Statistik können auch von einem Desktop-PC 51c und/oder einem Notebook 51d zugegriffen werden. Zu diesem Zweck kann eine Software Anwendung zum Zugreifen auf die Cloud 52 und zum Herunterladen und Präsentieren des Videos und/oder der zusammenfassenden Statistik auf dem Desktop-PC 51c und/oder Notebook 51d installiert werden. Alternativ kann das Video von der Cloud 52 zu dem Gerät ohne Herunterladen (d. h. ohne das Video auf dem Mobilgerät abzuspeichern) gestreamt werden. Der Desktop-PC 51c und das Notebook 51d können mit dem Internet verbunden werden durch eine drahtlose Verbindung wie etwa 3G, UMTS, LTE, Wifi, WLAN, BT, usw. oder durch eine Kabelverbindung wie etwa Ethernet, USB, Thunderbolt, usw.
-
Anstatt in einer Softwareanwendung, kann ein Internetbrowser, welcher auf dem Desktop-PC 51c und/oder Notebook 51d installiert ist, auch zum Verbinden mit der Cloud 52 verwendet werden. Zu diesem Zwecke leitet der Benutzer den Browser zu einer bestimmten Webseite und gibt z. B. einen Benutzername und Passwort ein. Nachdem dem Benutzer der Zugang gewährt wurde kann er entweder direkt das Video und/oder die zusammenfassende Statistik im Browser anschauen oder er kann das Video und/oder die zusammenfassende Statistik für späteres Anschauen herunterladen.
-
Als eine Alternative zu der beispielhaften Ausführungsform von 5, können die Geräte 51a, 51b, 51c und 51d direkt mit dem Gerät 14 verbunden werden, um das Video und/oder die zusammenfassende Statistik herunterzuladen. Die Verbindung kann durch eine drahtlose Verbindung wie etwa Wifi, WLAN, BT, BTLE, usw. oder durch eine Kabelverbindung wie etwa Ethernet, USB, Thunderbolt, usw. verbunden werden. Zum Beispiel kann das Gerät 14 an einem Stadion oder Sportplatz installiert werden. Nachdem die Person, welche die Sensorbaugruppe 12 trägt, eine Sportaktivität durchgeführt hat, werden die Sensordaten, welche im Speicher 13 abgespeichert sind, zu dem Gerät 14, wie oben beschrieben, übertragen und auf dem Gerät 14 verarbeitet, um eine Videozusammenfassung (ein „Highlightvideoclip” oder „Showvideoclip”) und optional eine zusätzliche zusammenfassende Statistik zu produzieren. Dann kann die Person z. B. ihr Smartphone, Tablet-PC, Smartwatch oder dergleichen verwenden, um sich mit dem Gerät 14 zu verbinden, um das Video und optional die zusammenfassende Statistik herunterzuladen. Alternativ wird das Video von dem Gerät 14 zu den Geräten 51a, 51b, 51c und 51d ohne Herunterladen (d. h. ohne abspeichern des Videos auf den Geräten 51a, 51b, 51c und 51d) gestreamt.
-
Das Video und/oder die zusammenfassende Statistik können auch auf sozialen Medienplattformen (wie etwa YouTube, Instagram, Vine, Twitter, Facebook, usw.) geteilt werden. Zum Beispiel könnte die Cloud 52 Teil einer solchen sozialen Medienplattform sein. Alternativ werden das Video und/oder die zusammenfassende Statistik von dem Gerät 14 oder von der Cloud 52 zu einem Server auf einer sozialen Medienplattform übertragen. Sobald zum Beispiel eine Videozusammenfassung und/oder zusammenfassende Statistik auf dem Gerät 14 generiert worden ist, wird das Video und/oder die zusammenfassende Statistik automatisch zu einem sozialen Medienprofil einer Person hinzugefügt. Andere Personen, mit welchen die Person durch die soziale Medienplattform verbunden ist, können dann auf das Video und/oder die zusammenfassende Statistik zugreifen und können z. B. Kommentare beitragen oder das Video und/oder die zusammenfassende Statistik mit anderen Personen teilen.
-
6 verdeutlicht wie das Video und/oder die zusammenfassende Statistik einem Benutzer auf einem Mobilgerät 51a, 51b, wie etwa einem Smartphone, Tablet-PC, Smartwatch, usw.), einem Desktop-PC 51c, Notebook 51d oder im Allgemeinen jedem Gerät, welches eine Anzeige 61 umfasst, präsentiert werden. Das Video wird dem Benutzer auf einer Anzeige 61 auf dem Gerät 51a, 51b, 51c, 51d präsentiert. Der Benutzer kann mehrere Möglichkeiten haben, um zu beeinflussen wie das Video präsentiert wird. Zum Beispiel wird im oberen Bereich der Anzeige 61, genau über dem Video, eine Szenenauswahlleiste 62 gezeigt. Der Benutzer kann zwischen unterschiedlichen Szenen des Videos umschalten, welche unterschiedlichen Ereignissen entsprechen, welche er während seiner Aktivität durchgeführt hat. Zum Beispiel zeigt die erste Szene den Benutzer wie er einen Anstoß durchführt. Die zweite, dritte und vierte Szene können den Benutzer zeigen, wie er Pässe macht. Die fünfte und sechste Szene können den Benutzer zeigen, wie er auf das Tor schießt und so weiter. Der Benutzer kann jede dieser Szenen auswählen durch Tippen oder Klicken einer der entsprechenden Tasten in der Szenenauswahlleiste 62. Die Anzahl von Szenen kann sich von dem Beispiel wie in 6 gezeigt unterschieden. Die Position der Szenenauswahlleiste 62 kann unterschiedlich sein, zum Beispiel in dem unteren Bereich der Anzeige 61 oder an den Seiten. Außerdem kann die Anzeige 61 überhaupt keine Szenenauswahlleiste 62 anzeigen.
-
Unterhalb der Szenenauswahlleiste 62 ist ein Zeit-Schieberegler 63. Dieser Schieberegler 63 läuft entlang eines vordefinierten Pfades, wobei der Beginn des Pfades dem Beginn des Videos entspricht und das Ende des Pfades dem Ende des Videos entspricht. Somit beginnt der Pfad in dem Beispiel von 6 bei 0 Sekunden und endet bei Minute 1 und 10 Sekunden. Die Position des Schiebereglers 63 auf dem Pfad entspricht der aktuellen Position des Videos. Falls zum Beispiel der Schieberegler 63 die Mitte des Pfades erreicht, ist das Video zur Hälfte vorbei und die andere Hälfte ist im Begriff zu starten. Der Benutzer kann tippen oder klicken und den Schieberegler 63 halten, um ihn zu einem beliebigen Punkt zwischen dem Beginn und Ende des Videos zu schieben, um das Video von dem entsprechenden Zeitpunkt zu zeigen. Die Position des Schiebereglers 63 kann unterschiedlich sein, zum Beispiel im unteren Bereich der Anzeige 61 oder an den Seiten. Außerdem kann die Anzeige 61 überhaupt gar keinen Schieberegler 63 zeigen.
-
Im unteren Bereich der Anzeige 61 wird eine Kamera-Auswahlleiste 64 gezeigt. Die Kamera-Auswahlleiste 64 ermöglicht dem Benutzer die Kameraposition des Videos auszuwählen. Somit kann der Benutzer in der beispielhaften Ausführungsform von 6 zwischen fünf verschiedenen Kameras 51a, 51b, 51c, 51d, 51e auswählen, welche die entsprechende Szene seiner Aktivität von fünf unterschiedlichen Winkeln zeigen. Die Anzahl der Kameras kann unterschiedlich sein und kann von einer einzigen Kamera bis zu Dutzenden von Kameras sich bewegen. Der Benutzer wählt die Kamera durch Tippen oder Klicken auf die entsprechende Taste aus, welche mit der Kamera verknüpft ist. Die Position der Kamera-Auswahlleiste 64 kann unterschiedlich sein, zum Beispiel im unteren Bereich der Anzeige 61 oder an den Seiten. Außerdem kann die Anzeige 61 überhaupt gar keine Kamera-Auswahlleiste 64 zeigen.
-
Auf der rechten Seite der Anzeige wird ein Feedback- und Statistikbereich 65 gezeigt. In diesem Bereich wird Statistik und Feedback gezeigt, welche extrahiert werden gemäß der Erfindung von den Sensordaten, welche von zumindest einem Sensor 31, 32, 33, 34, 35 der Sensorbaugruppe 12, die durch den Benutzer während der Aktivität getragen wird, erhalten wird. Somit zeigen in der beispielhaften Ausführungsform von 6 der Feedback- und Statistikbereich 65 die Geschwindigkeit eines Balls, z. B. während einer Szene, welche ein Schuss zeigt, der durch den Benutzer durchgeführt wird an. In der Mitte zeigt der Feedback- und Statistikbereich 65 den Namen des Tricks, welcher der Benutzer in einer Szene durchgeführt hat, z. B. Around-the-world, jonglieren mit dem Ball und dergleichen an. Außerdem stellt der Feedback- und Statistikbereich 65 einen Aktions-Zähler bereit, welcher zum Beispiel alle gezielten Schüsse auf das Tor, alle eins-gegen-eins Situationen, alle Dribblings, Pässe usw. zählt. Somit ist der Zähler zu Beginn des Videos bei null und erhöht sich mit jeder einzelnen Aktion, d. h. Ereignis, welcher der Benutzer in dem Video durchführt. Der Inhalt des Feedback- und Statistikbereiches 65 kann unterschiedlich sein zum Beispiel kann man nur die Ballgeschwindigkeit zeigen oder nur die durchgeführte Aktion (z. B. Trick, Pass, gezielter Schuss, usw.) oder beides zeigen. Daher kann die Position des Feedback- und Statistikbereiches 65 unterschiedlich sein, zum Beispiel im unteren Bereich der Anzeige 61 oder an den Seiten. Außerdem kann die Anzeige 61 überhaupt gar keinen Feedback- und Statistikbereich 65 zeigen.
-
7 verdeutlicht wie die Videozusammenfassung (oder „Showvideoclip” oder „Highlightvideoclip”) insbesondere einem Benutzer auf einem Mobilgerät 51a, 51b, wie etwa zum Beispiel einem Smartphone oder Tablet-PC, dargestellt werden kann. Das Mobilgerät 51a, 51b umfasst eine Anzeige 71, auf dem das Video gezeigt wird. In dem Beispiel von 7 basiert die Videozusammenfassung auf Videos, welche durch sieben Kameras gemacht wurden. Die Kameras wurden um ein Hallenfußballfeld herum angeordnet, ähnlich zu dem in 2 gezeigten Aufbau. Eine unterschiedliche Anzahl von Kameras kann auch verwendet werden, wie etwa fünf, drei, zwei oder nur eine einzige Kamera. Die Hauptansicht der Anzeige 61 zeigt ein Video von einer speziellen Kamera in einer vergrößerten Ansicht, welche nahezu den ganzen Bildschirm ausfüllt.
-
Wie in 7 gezeigt, trägt jeder der Spieler zumindest eine Sensorbaugruppe in der Nähe eines Knöchels, von denen eine beispielhaft mit dem Bezugszeichen 12 bezeichnet worden ist. Die Sensorbaugruppe 12 speichert Sensordaten ab während die Spieler in einem Spiel (wie etwa Fünfer-Team Spiel in dem Beispiel von 7) beschäftigt sind, wie im Detail in dieser Beschreibung beschrieben. Die Sensordaten werden, wie im Detail in dieser Beschreibung beschrieben, verarbeitet, um bestimmte Ereignisse wie etwa Schüsse, Pässe, gezielte Schüsse, Dribblings, eins-gegen-eins Situationen, usw. zu detektieren. Die Ereignisse werden mit zugehörigen Videobildern in den Videos verknüpft, welche durch die Kameras (sieben in dem Beispiel von 7) gemacht sind, um eine Videozusammenfassung (oder „Highlightvideoclip” oder „Showvideoclip”), wie im Detail in dieser Spezifikation beschrieben, zu erhalten. Das Video wird einem Benutzer auf einem Mobilgerät, wie in Bezug zu 7 verdeutlicht, dargestellt.
-
In dem Beispiel von 7 wird ein Kamera-Auswahlbereich 72 im unteren Bereich des Bildschirmes gezeigt. Die Position des Kamera-Auswahlbereiches 72 kann unterschiedlich sein, zum Beispiel im oberen Bereich der Anzeige 71 oder an den Seiten. Außerdem kann die Anzeige 71 überhaupt keinen Kamera-Auswahlbereich 72 zeigen. Der Kamera-Auswahlbereich 72 umfasst ein Piktogramm einer Kamera, welches die Nummer der Kamera zeigt, die aktuell als die Hauptkamera (d. h. Kamera wird mit dem vergrößerten Video, welches nahezu den gesamten Bildschirm ausfüllt, verknüpft) ausgewählt ist. In dem Beispiel von 7 ist diese Nummer sieben, aber es könnte irgendein Wert in den Bereich von eins bis sieben sein. Dieser Bereich könnte unterschiedlich sein, falls eine unterschiedliche Anzahl von Kameras verwendet worden ist. Für jede Kamera wird ein Punkt im Kamera-Auswahlbereich 72 gezeigt. Der Benutzer kann die Hauptkamera entweder durch Tippen oder Klicken auf einen der Punkte ändern oder durch Verschieben mit einem oder mehreren Fingern über die Anzeige, zum Beispiel von links nach rechts, von rechts nach links, von oben nach unten oder von unten nach oben.
-
In dem Beispiel von 7 wird auch ein Kamera-Übersichtsbereich 73 im oberen Bereich der Anzeige 71 gezeigt. Die Position des Kamera-Übersichtsbereiches 73 kann unterschiedlich sein, zum Beispiel im oberen Bereich der Anzeige 71 oder an den Seiten. Außerdem kann die Anzeige 71 überhaupt gar keinen Kamera-Übersichtsbereich 73 zeigen. Der Kamera-Übersichtsbereich 73 kann ein kleinskaliertes Video von jeder der übrigen Kameras zeigen, welche nicht in der vergrößerten Ansicht der Anzeige 73 gezeigt werden. Somit werden in dem Beispiel von 7 sechs kleine Videos gleichzeitig in dem Kamera-Übersichtsbereich 73 gezeigt.
-
Wenn der Benutzer die Hauptkamera wie oben beschrieben verändert, wird das Video der vorherigen Kamera in dem Kamera-Übersichtsbereich 73 gezeigt anstatt auf dem vergrößerten Bereich des Bildschirms. Stattdessen wird das Video der neu ausgewählten Hauptkamera auf dem vergrößerten Bereich des Bildschirms gezeigt und vom Kamera-Übersichtsbereich entfernt. Da zum Beispiel der Benutzer die Hauptkamera von Kamera sieben zu Kamera sechs durch Verschieben über die Anzeige 73 verändert, kann das Video der Kamera sechs durch das Video von Kamera sieben in dem Kamera-Übersichtsbereich 73 ersetzt werden. Zur gleichen Zeit wird das Video der Kamera sieben, welches den größten Bereich des Bildschirms bedeckt, durch das Video von Kamera sechs ersetzt.
-
Es ist anzumerken dass zusätzliche Information auch auf der Anzeige 71 gezeigt werden können, wie etwa Feedback- und Statistik-Informationen wie in Bezug zu 6 erklärt wurde. Zum Beispiel kann die Ballgeschwindigkeit basierend auf den Sensordaten abgeschätzt werden, welche von einer Sensorbaugruppe 12 von einem der Spieler erhalten wird, und können als eine Überlagerung über das Video der Hauptkamera zum Beispiel in km/h oder mph gezeigt werden, während die Videos den zugehörigen Schuss zeigen.
-
Die Sensorbaugruppe 12 könnte auch als eine Art von Aktivitätstracker verwendet werden. Zu diesem Zweck könnte die Sensorbaugruppe 12 zum Beispiel an einen Gurt befestigt werden (wie etwa der in 4 gezeigte Gurt 41), eine Armband oder dergleichen und könnte z. B. am Handgelenk oder Knöchel getragen werden. Die Sensordaten, welche durch den zumindest einen Sensor 31, 32, 33, 34, 35 in der Sensorbaugruppe 12 erhalten werden, könnten verwendet werden um Schritte, Entfernung, verbrannte Kalorien, usw. zu zählen. Daher könnten die Sensordaten verwendet werden um zum Beispiel Fußball verwandte Tricks (wie etwa Around-the-world, jonglieren des Balls, usw.), welche eine Person, die die Sensorbaugruppe 12 trägt, während eines Tages durchgeführt hat, zu zählen. Falls die Sensorbaugruppe 12 mit einem Satellitennavigations-Modul 312 ausgestattet wird, könnte die Sensorbaugruppe 12 auch die Geoortung speichern wo die Tricks durchgeführt wurden und/oder wo die Person andere Sportaktivitäten wie Laufen, usw. durchführte. Die gesammelte Aktivitätsstatistik könnte an Verbrauchergeräte und/oder soziale Medienplattformen, wie in Bezug zu 5 beschrieben wurde, verteilt werden.
-
8 stellt eine beispielhafte Sequenz 81 der Schritte zum Detektieren eines Ereignisses in der Zeitreihe der Sensordaten 82 dar. Die Sensordaten 82 werden von zumindest einem Sensor 31, 32, 33, 34, 35 in einer Sensorbaugruppe 12, wie in Bezug zu 3 beschrieben, erhalten. Die Sequenz der Schritte umfasst Vorverarbeiten 83 der Zeitreihe, Segmentieren 84 der Zeitreihe in eine Vielzahl von Fenstern, Detektieren 85 von Ausreißern, Extrahieren 86 einer Vielzahl von Merkmalen von der Zeitreihe in jedem der Vielzahl von Fenstern und Detektieren 87 einer Ereignisklasse, die mit der Vielzahl von Fenstern verknüpft ist basierend auf der Vielzahl von Merkmalen, die von der Zeitreihe in jedem der Vielzahl von Fenstern extrahiert wurde. Im Folgenden wird jeder dieser Schritte genauer beschrieben.
-
Die Zeitreihe kann geschrieben werden als T = (s[0], s[1], ..., s[N – 1]), wobei N die Anzahl der Abtastungen und s[k] die Amplitude der Sensordaten auf einer Achse beim Abtastpunkt k bezeichnet.
-
Eine beispielhafte Zeitreihe, welche von einem 3-Achsenbeschleunigungsmesser erhalten wurde, wird in 9 gezeigt. In diesem Plot bezeichnet die Abszisse die Zeit in Sekunden wobei die Ordinate die Beschleunigung zeichnet, welche in Einheiten der Erdgravitationsbeschleunigung g gemessen wurde. Der Plot zeigt die zeitliche Entwicklung der Beschleunigungen in aller der drei Dimensionen (drei Achsen). Diese beispielhafte Zeitreihe wurde durch ein Beschleunigungsmesser erhalten, welcher in einem Fußballschuh platziert wurde, während der Fußballspieler, der den Schuh getragen hat, zwei aufeinanderfolgende Kurzpässe gemacht hat
-
In einem ersten Sequenzschritt 83 wird die Zeitreihe der Sensordaten vorverarbeitet, z. B. durch Tiefpassfiltern, Downsampling, Butterworthfiltern, Generieren eines gleitenden Durchschnitts oder ähnliche Verfahren. Tiefpassfiltern entfernt die Hochfrequenzkomponenten von dem Signal, welche im Wesentlichen durch Rauschen verursacht werden. Downsampling bildet eine Zeitreihe, welche mit einer hohen Frequenz (z. B. 1–1000 Hz, vorzugsweise 1000 Hz) abgetastet wurde, auf eine niedrigere Frequenzzeitreihe (z. B. 1–1000 Hz, vorzugsweise 100 Hz) ab durch Kombinieren von angrenzenden Abtastpunkten. Neben Entfernen von Hochfrequenzkomponenten reduziert dies auch Rechenkomplexität da weniger Datenpunkte verarbeitet werden müssen.
-
Für den Schritt
84 des Segmentierens kann der Signalgrößenvektor SMV der drei Achsen s
1, s
2, s
3 des Beschleunigungsmesser gemäß SMV [k] =
berechnet werden.
-
Mehr Informationen über SMV können in
Shaoyan Zhang, Alex V. Rowlands, Peter Murray, and Tina L. Hurst, "Physical Activity Classification Using the GENEA Wrist-Worn Accelerometer", Medicine & Science in Sports & Exercise, 44(4): 742–748, 2012, gefunden werden. Der Signalgrößenvektor wird verwendet um energiereiche Regionen in dem Signal zu bestimmen. Ereignisse, wie Kurzpässe, werden durch hohe Spitzenwerte, wie es in
10 gesehen werden kann, dargestellt.
-
Zum weiteren Verarbeiten werden nur Signalteile verarbeitet, in welchen der SMV einen vordefinierten Grenzwert überschreitet. Diese Prozedur minimiert die Anzahl von Fenstern, welche weiterverarbeitet werden. Aufeinanderfolgende Abtastungen, für welche die Amplituden über dem Grenzwert sind, werden als ein Signalpatch bezeichnet.
-
Für jedes Signalpatch bestimmt der Zeitpunkt, welcher dem maximalen SMV entspricht, das Zentrum eines Fensters mit fester Größe, welches für das Weiterverarbeiten verwendet wird. 10 zeigt zwei Beispiele von Fenstern.
-
Finden einer optimalen Fenstergröße für alle Ereignisse ist herausfordernd, da die Länge von Ereignissen sich unterscheiden kann, z. B. gezielter Schuss und Kontrolle. Deshalb wird eine neue und intelligente Fenstergrößen-Bestimmungs-Prozedur vorgeschlagen, welche die Fenstergröße an die Länge des Ereignisses anpasst. Der SMV von einem Signalpatch wird durch eine Gaußkurve modelliert. Die Parameter der Gaußkurve können verwendet werden um eine optimale Fenstergröße für jedes Ereignis abzuschätzen.
-
Die Zeitreihe kann auch in Schritt 84 in eine Vielzahl von Fenstern segmentiert werden, welche Abgleichen mit einer Vorlage von einem Ereignis verwendet, welches definiert ist als Verwenden bekannter Signale von vorher aufgenommenen Ereignissen. Das Abgleichen kann basieren auf Korrelation, Matchedfiltering, Dynamic Time Warping oder Longest Common Subsequence (LCSS) und seine Schiebefenstervariante, Warping LCSS.
-
Die Sensordaten (Beschleunigung, Winkelgeschwindigkeit, usw.) des Fensters sind die Eingabe eines Ausreißer-Detektieren-Schritts
85. Das Ziel ist Fenster zu entfernen, welche Beispiele von ungewünschten Aktionen, z. B. Joggen, Laufen oder Tackling, beinhalten. Das vorgeschlagene Verfahren benutzt ein regelbasiertes System, welches die Plausibilität der Parameter der Gaußkurve bewertet, und One-class Support Vector Machines für jedes gewünschte Ereignis. Details von One-class Support Vector Machines können in
Bernhard Schölkopf, John C. Platt, John Shawe-Taylor, Alex J. Smola and Robert C. Williamson, "Estimating the Support of a High-Dimensional Distribution", Neural Computation, 13(7): 1443–1471, 2001, gefunden werden.
-
Der nächste Schritt wie in 8 gezeigt ist Merkmal-Extraktion 86. In diesem Schritt 86 wird eine Vielzahl von Merkmalen von den Sensordaten in jedem der Fenster extrahiert. Merkmale, auch als charakteristische Variable bezeichnet, werden extrahiert um das bestimmte Fenster in einer niedrigeren Dimension darzustellen.
-
Die extrahierten Merkmale können zum Beispiel basieren auf einem oder mehrerer von zeitlicher Statistik, räumlich-zeitlicher Statistik (d. h. Statistik über Zeit und Orte von mehr als einem Sensor), spektraler oder Ensemblestatistik durch Anwenden von zum Beispiel Wavelettransformation, Hauptkomponentenanalyse (PCA), Koeffizienten eines Linear-prädiktiven Kodierers (LPC), Koeffizienten (z. B. spektraler Schwerpunkt und Bandbreite) einer schnellen Fourier Transformation (FFT). Andere Merkmale können auch verwendet werden.
-
Merkmale basierend auf zeitlicher Statistik werden durch Anwenden von Multivariate Analysen auf ein Fenster extrahiert, um eine niedrigere dimensionale Darstellung des Fensters zu erhalten. Verfahren von Multivariaten Analysen werden zum Beispiel in Alvin C. Rencher and William F. Christensen, Methods of multivariate analysis, 3rd edition, John Wiley & Sons, 2012, zusammengefasst.
-
Menschliche Bewegung hat analog zu menschlichen Gelenken begrenzte Freiheitsgrade, welche zu redundanten Beobachtungen von mehreren Sensorachsen führen. Zum Beispiel stehen Körperachsen miteinander in Beziehung während des Zurückbewegens zum Initiieren eines Schusses. Die lineare Beziehung zwischen Sensorachsen, d. h. unterschiedliche Dimensionen von Beobachtungen, können durch die Abtastkorrelation gemessen werden. Der Korrelationskoeffizient zwischen zwei Sensorachsen kann durch den Pearson-Korrelationskoeffizienten abgeschätzt werden.
-
Der Abtastmittelwert eines Fensters wird durch Mittel der Datenabtastungen in einer Dimension definiert, d. h. die Daten, welche mit einer Sensorachse verknüpft sind. Außerdem sagt die Signalenergie etwas über die Bewegungsintensität aus. Menschliche Ereignisse können somit durch Reflektieren der Intensität analysiert werden: zum Beispiel wird im Fußball vermutet, dass das Schussereignis eine höhere Energie hat als andere Ereignisse wie Kurzpässe oder Dribbling-Aktionen. Die Signalenergie in einem Beobachtungsfenster in Dimension d (d. h. Sensorachse d) wird durch
bewertet.
-
Um die gesamte Intensität der menschlichen Bewegung zu erfassen, wird die Bewegungsintensität, MI, als Ansammlung der normalisierte Energien über alle Dimensionen D eineführt:
Zusätzlich wird der normalisierte Signalgrößenbereich, SMA, definiert als
durch Addieren der Absolutwerte |s
d[k]|. Statistik höherer Ordnung, wie Wölbung und Schiefe, können auch verwendet werden.
-
Zusätzlich oder alternativ können räumlich-zeitliche Merkmale, wie etwa Minimal- und Maximalwert entlang der Dimensionen des Fensters, Informationen von intensiven Spitzenwerten im Signal erfassen. Somit beinhaltet beispielhafte zeitliche und räumlich-zeitliche Statistik den Abtastmittelwert, normalisierte Signalenergie, Bewegungsintensität, Signalgrößenbereich, Korrelation zwischen Achsen, Maximalwert in einem Fenster und Minimalwert in einem Fenster.
-
Zusätzlich oder alternativ zu zeitlicher oder räumlich-zeitlicher Statistik kann auch Waveletanalyse für Merkmal-Extraktion
86 verwendet werden. Waveletanalyse kann nicht stationäre Signale charakterisieren dessen spektrale Statistik sich über die Zeit ändert. Außerdem hat sie die Eigenschaft von transienten Ereignissen zu reflektieren, da sie zeitliche und spektrale Merkmale eines Signals gleichzeitig erfasst. Wavelettransformation wird durchgeführt durch Verwenden einer einzelnen Prototypfunktion, welche Wavelet genannt wird, welche äquivalent zu einem Bandpassfilter ist. Mehrfach skalierte Versionen des Wavelets werden mit dem Signal zusammengefaltet um seine Hoch-/Niedrigfrequenzkomponenten durch eine verengte/gelöschte Version des Wavelets zu extrahieren. Wenn ein Fenster von Sensordaten-Beobachtung gegeben wird, wird eine Mehrfachauflösungs-Analyse im Zeit-Frequenzbereich durch Weiten des Basiswavelets durchgeführt. Die Wavelettransformation bietet höhere zeitliche Auflösung der Hochfrequenzkomponenten an und eine höhere Frequenzauflösung der Niedrigfrequenzkomponenten. Details der Waveletanalyse können in
Martin Vetterli and Cormac Herley, "Wavelets and filter banks: Theory and design", IEEE Transactions on Signal Processing, 40(9): 2207–2232, 1992, gefunden werden.
-
Diskrete Wavelettransformation kann verwendet werden um die Charakteristiken von menschlicher Bewegung zu erfassen. Sie kann effizient als schnelle Wavelettransformation implementiert werden. Sie wird durch eine Filterbank dargestellt, welche die Signale durch eine Reihe von Tiefpass- und Hochpassfiltern zerlegt. Bei jedem Level i wird das Eingangssignal s[k] durch einen Tiefpassfilter g
i[k] und einen Hochpassfilter h
i[k] gefiltert. In aufeinanderfolgenden Leveln wird das tiefpassgefilterte Signal nacheinander in eine niedrigere Auflösung zerlegt, in dem es durch einen Faktor von zwei downgesamplet wird, wobei die hochpassgefilterten Signale als Detailkoeffizienten q
i dienen, welche als ein Merkmal des entsprechenden Fensters verwendet werden können. Somit werden die Sensordaten des Fensters durch Detailkoeffizienten q
i dargestellt, welche als Merkmale dienen. Die Waveletzerlegung stellt auch Approximationskoeffizienten (letzte Zerlegung) dar, welche auch als Merkmale verwendet werden können. Außerdem können Merkmale, welche auf Approximations-/Detailkoeffizienten basieren, berechnet werden (wie die zuvor genannten: Signalenergie, usw.). Falls das Hochpasssignal gleich zerlegt wird, wird die Transformation Wavelet-Paketzerlegung genannt. Details der diskreten Wavelettransformation um Details der menschlichen Bewegung zu erfassen, können in
Martin Vetterli and Cormac Herley, "Wavelets and filter banks: Theory and design", IEEE Transactions on Signal Processing, 40(9): 2207–2232, 1992, gefunden werden.
-
Daubechies-Wavelets können in dem Zusammenhang der vorliegenden Erfindung verwendet werden, weil sie effizient berechenbar implementiert werden können. Zum Beispiel kann ein Daubechies-Wavelet der siebten Ordnung für Merkmalextrahieren verwendet werden.
-
Somit kann eine Vielzahl von Merkmalen extrahiert werden basierend auf zeitlicher, räumlich-zeitlicher, spektraler oder Ensemblestatistik durch Anwenden von Waveletanalyse, Hauptkomponentenanalyse und dergleichen. Beispielhafte Merkmale beinhalten Abtastmittelwert, normalisierte Signalenergie Ed, Bewegungsintensität (MI), Signalgrößenbereich (SMA) Korrelation zwischen Achsen, Maximalwert in einem Fenster, Minimalwert in einem Fenster, maximaler Detailkoeffizient qi am Level l, welcher durch eine Wavelettransformation erhalten wurde.
-
Wenn ein Merkmalsatz von allen extrahierten Merkmalen gegeben ist, sollten die relevantesten und nicht redundanten Merkmale ausgewählt werden um die Komplexität der Implementation des Verfahrens zu reduzieren. Jegliche Redundanz zwischen Merkmalen kann in unnötige erhöhte Rechenzeit resultieren. Gleichzeitig sollte diese Untermenge von Merkmalen zu der besten Klassifikationsleistung führen. Man kann zwischen unterschiedlichen Auswahltechniken unterschieden: Wrapper-Verfahren, Auswahlfilter und eingebettete Ansätze.
-
Wrapper-Verfahren evaluieren die Leistungen des Verfahrens gemäß der Erfindung durch Verwenden unterschiedlicher Merkmalsuntermengen. Zum Beispiel fügt aufeinanderfolgende Vorwärtsauswahl die Merkmale mit den besten Ergebnissen iterativ hinzu. Auswahlfilter sind ein schnelles Verfahren um die wichtigsten Merkmale zu finden, da kein Klassifikator in die Auswahlprozedur involviert ist. Die gegenseitigen Informationen können auf die Relevanz von Merkmalsuntermengen hinweisen und können durch unterschiedliche Filtertechniken abgeschätzt werden.
-
Schließlich kann eine eingebettete Auswahl verwendet werden, um vollständige Suche durch Wrapper-Verfahren und die Abschätzung der Wahrscheinlichkeits-Dichte-Funktion durch Auswahlfiltern zu vermeiden. Eingebettete Auswahl ist vernünftig da einige Klassifikatoren, welche bereits im Verfahrensschritt 87 verwendet wurden, eine Bewertung der Merkmalswichtigkeit beinhalten.
-
Zum Beispiel können Random-Forest-Klassifikatoren für Merkmalsauswahl verwendet werden. Ein Random-Forest kann als ein Ensemble von Entscheidungsbaum-Klassifikatoren beschrieben werden, der durch zufällig gewählte Merkmale der Trainingsdaten wächst. Für jeden Baum wird eine Untermenge von Trainingsdaten vom ganzen Trainingssatz mit Zurücklegen (Bootstrapping) gezeichnet. Innerhalb dieser Untermenge werden Merkmale zufällig ausgewählt und Grenzwerte werden mit ihren Werten bei jedem Abzweigungsknoten des Entscheidungsbaums gebaut. Während der Klassifikation entscheidet jeder Baum für die wahrscheinlichste Klasse eines beobachteten Merkmalsvektors und fügt die Ausgaben aller Bäume zusammen. Die Klasse mit den meisten Stimmen ist das finale Ergebnis des Klassifikators (Mehrheit der Abstimmung). Details zu Random-Forest-Klassifikatoren können in
Leo Breiman, "Random forests", Machine learning, 45(1): 5–32, 2001, gefunden werden.
-
Wie in 8 gezeigt, wird in dem nächsten Schritt 87 der Sequenz gemäß der Erfindung eine Ereignisklasse, welche mit jedem der Fenster verknüpft ist basierend auf der Vielzahl von Merkmalen, die von den Sensordaten in den entsprechenden Fenster extrahiert wurde, abgeschätzt. Dieser Schritt wird auch als Klassifikation bezeichnet.
-
Mehrere Klassifikatoren können verwendet werden wie etwa naiver Bayes-Klassifikator, Support Vector Machine und Random-Forest, AdaBoost-Klassifikator, einem Nächster-Nachbar-Klassifikator, einem Neuronalen-Netzwerk-Klassifikator, einem Perzeptron-Klassifikator, einem regelbasierten Klassifikator oder einem baumbasierten Klassifikator.
-
In dem naiven Baes-Ansatz kann die bedingte Wahrscheinlichkeits-Dichte-Funktion geschrieben werden als
unter der Verwednung des Satzes von Bayes. Anstatt des Maximierens der hinteren Wahrscheinlichkeits-Dichte-Funktion kann die klassenbedingte Wahrscheinlichkeits-Dichte-Funktion p(x ~/y ~) maximiert werden, um die Klasse y ~:
abzuschätzen. Naive Bayes-Klassifikation löst diese Gleichung unter der Annahme, dass alle Komponenten des Merkmalvektors x ~ untereinander unabhängig sind. Dies führt zu der Vereinfachung:
-
Die bedingten Wahrscheinlichkeits-Dichte-Funktionen der Klasse, d. h. das Auftauchen des Merkmals x ~f bei der gebenden Klasse y ~, werden als gaußsche WahrscheinlichkeitDichte-Funktionen angenommen: p(x ~f|y ~) ~ N(x ~f; μf, σ 2 / f). Somit werden die Wahrscheinlichkeit-Dichte-Funktionen nur durch ihre Mittelwerte μf und Varianzen σ 2 / f definiert.
-
Wenn jetzt ein ungekennzeichneter Merkmalsvektor x ~ im Verfahrensschritt
140 gegeben ist, werden die Gaußverteilungen p(x ~
f|y ~) für jede Klasse y ~ ∊ Y bei jedem Merkmalswert von x ~ ausgewertet. Dann wird die Klasse durch die oben abeleitete Gleichung abgeschätzt:
um y ~ zu erhalten. Dadurch kann die Ereignisklasse in Verfahrensschritt
87 basierend auf einem naiven Bayes-Klassifikator abgeschätzt werden. Eine Übersicht des naiven Bayesansatzes zur Klassifikation kann in
Sergios Theodoridis and Konstantinos Koutroumbas, Pattern Recognition, 4th edition, Elsevier, 2008 gefunden werden.
-
Ein anderer Klassifikator, welcher in Verfahrensschritt 87 verwendet werden kann, basiert auf einer Support Vector Machine (SVM). SVMs fokussieren sich direkt auf die Klassengrenzen, d. h. im Fall von linearer SVM auf die Klassengrenzen des originalen Merkmalraums. Der Merkmalraum wird definiert als die Abbildung der Merkmalsvektoren in ein multidimensionales System, wo jede Dimension des Merkmals Vektor einer Koordinatenachse entspricht. Das Konzept ist den größten linearen Rand zwischen den Merkmalsvektoren von zwei Klassen zu finden wie in 11 verdeutlicht. In diesem Fall sind die zweidimensionalen Merkmalssätze linear trennbar. Die Merkmalsvektoren 111, 112 und 113, welche auf den Rändern 114 und 115 liegen, welche Supportvektoren genannt werden, definieren die optimale Hyperebene.
-
Wenn ein Trainingdatensatzes D gegeben wird, werden die Merkmalsvektoren des Ereignisses in dem Merkmalsraum analysiert. Ein maximaler Rand wird durch die SVM gefunden, welcher die Klassen mit einem maximalen Abstand trennt. Dieser Abstand gleicht dem maximalen Abstand zwischen den konvexen Hüllen der Merkmalssätze. Neben dem Verwenden eines linearen Kernels, können andere Kerneltypen angewendet werden, z. B. polynomial oder RBF (Radiale Basisfunktion). Eine detaillierte Beschreibung kann z. B. in
Richard O. Duda, Peter E. Hart and David G. Stork, "Pattern Classification", 2nd edition, John Wiley & Sons, 2000, gefunden werden.
-
Wenn jetzt ein ungekennzeichneter Merkmalsvektor x ~ im Verfahrensschritt 87 gegeben ist, so wird dieser im Merkmalsraum analysiert. Der Abstand und die Lage in Bezug zur trennenden Hyperebene sagen etwas über die bedingten Wahrscheinlichkeiten aus. Jedoch werden die Wahrscheinlichkeiten nicht direkt bereitgestellt, da nur Entfernungen gemessen werden. Das Vorzeichen der Zeilfunktion entspricht der wahrscheinlichsten Klasse und wird als Abschätzung y ~ verwendet. Im Falle, dass mehr als ein Ereignis bestimmt wird, müssen die Abstandsvektoren zu mehreren Hyperebenen, welche den Merkmalsraum trennen, betrachtet werden.
-
Ein weiterer Ansatz, welcher in Verfahrensschritt 87 verwendet werden kann, basiert auf Random-Forests. Wie bereits erwähnt, involviert ein Random-Forest ein Ensemble von Entscheidungsbaumklassifikatoren, welche durch zufällig gewählte Merkmale von dem Trainingsdatensatz wachsen.
-
Wenn ein Trainingsdatensatz D gegeben ist, können die Bäume gebaut werden wie beschrieben z. B. in Trevor Hastie, Robert Tibshirani, Jerome Friedman, "The elements of statistical learning, volume 2, Springer 2009. Für jeden Baum wird eine Untermenge von Daten von dem Trainingsdatensatz durch Ersetzen (Urladendaten) gezeichnet. Dann wird jeder Baum anhand von Bootstrapingdaten wachsen gelassen durch rekursives Wiederholen der folgenden Schritte bis die minimale Knotengröße erreicht wird: Zuerst wird eine Untermenge von Merkmalen zufällig ausgewählt. Zweitens wird aus der Untermenge das Merkmal, welches das beste Aufteilen zwischen Klassen bereitstellt, ausgewählt, um den Grenzwert bei dem aktuellen Knoten zu bauen. Das gewählte Merkmal wird für die nächste Iteration ausgelassen. Drittens wird dieser Knoten in Tochterknoten aufgeteilt.
-
Wenn nun ein ungekennzeichneter Merkmalvektors x ~ in Schritt 87 gegeben ist, wird die Klasse y ~ gemäß der abgeschätzten Klasse von allen Bäumen abgeschätzt. Die Klasse mit der Mehrzahl von Stimmen entspricht der Abschätzung des Random-Forest y ~.
-
Die Klassifikation von gewünschten Ereignissen, z. B. Kurzpass (SP), langer Pass (LP), Kontrolle (CO) und gezielten Schuss (ST) wird in einer hierarchischen Art durchgeführt.
-
Wie in 12 gezeigt, kann der Verfahrensschritt 87 zuerst zwischen zwei Ereignisgruppen („SP/CO” und „LP/ST”) unterscheiden. In einem weiteren Klassifikationsschritt, falls einer der Ereignisgruppen in den ersten Klassifikationsschritt bestimmt worden ist, wird eines der Ereignisse in dieser Gruppe bestimmt. Somit wird das Ereignis „SP” oder „CO” im Beispiel von 12 in der Gruppe „SPCO” bestimmt und ddas Ereignis „LP” und „ST” in der Gruppe „LPST” bestimmt. Im ersten Level kann also eine MISC/NULL-Klasse modelliert werden, welche Aktionen wie Laufen/Joggen/Tackeln beinhaltet, welche nicht in der vorher angewandten Ausreißer-Detektionsprozedur entfernt wurden. Somit können zwei Klassifikationsschritte in diesem Beispiel verwendet werden. Im Allgemeinen können jedoch nur ein einzelner Klassifikationsschritt oder mehr als zwei Klassifikationsschritte gemäß der vorliegenden Erfindung verwendet werden.
-
Basierend auf dem Ereignis, das wie oben beschrieben detektiert wird, kann Feedback an die Person bereitgestellt werden. Somit kann die Person informiert werden über z. B. ihre Leistung während dem Training oder eines Spiels. Vorzugsweise wird solch ein Feedback in Echtzeit bereitgestellt.
-
Zum Beispiel kann während die Person, welche die Sensorbaugruppe 12 trägt, eine Sportaktivität durchführt, die zentrale Verarbeitungseinheit 36 in der Sensorbaugruppe 12 die Sensordaten verarbeiten und bestimmte Feedbackdaten generieren, wie etwa Schritte, die gemacht wurden, Laufdistanz, verbrannte Kalorien, eine Zählung von Schüssen, Pässen, gezielten Schüssen, usw.
-
Feedback kann an die Person basierend auf dem abgeschätzten Ereignis bereitgestellt werden. Somit kann die Information über z. B. ihre Leistung während dem Training oder eines Spiels informiert werden. Solch ein Feedback könnte in Echtzeit bereitgestellt werden. Zum Beispiel könnte Feedback auf einer Anzeige 313 der Sensorbaugruppe 12 bereitgestellt werden oder auf einem Smartphone (z. B. welches Laufdistanz, Anzahl der gezielten Schüsse, usw. zeigt), auf eine Anzeige einer Uhr oder einer externen Anzeige, welche z. B. auf einem Sportplatz angeordnet ist.
-
Feedback kann auch nicht in Echtzeit bereitgestellt werden. Zum Beispiel könnte Feedback nach einer Aktivität bereitgestellt werden (z. B. nach einem Spiel oder Training) z. B. in einer Umkleidekabine (auf eine Anzeige, welche an einer Wand befestigt ist oder auf einem elektronischen Gerät einer Person wie etwa einem Smartphone, Tablet-PC, usw.), Sportbereich (z. B. eine Anzeige in einem Stadion, Halle, Feld, usw.) oder Zuhause. Zu diesem Zweck könnten die Feedbackdaten in einer Datenbank oder Cloud-Speicher, wie oben beschrieben, abgespeichert werden.
-
Außerdem könnte zusammenfassende Statistik basierend auf dem bestimmten Ereignis bereitgestellt werden. Dadurch kann die Statistik auf spezifische Ereignisklassen zugeschnitten werden. Zum Beispiel kann in einer Fußball-Anwendungsstatistik über die Anzahl und Intensität von gezielten Schüssen, Schussgeschwindigkeit, Zeit am Ball, Anzahl von langen Pässen und Kurzpässen, Länge der Dribblings, Laufzeiten mit/ohne Ball, Zeit des Nichtbewegens, jonglieren, durchgeführte Tricks, usw. bereitgestellt werden. Zusammenfassende Statistik für Basketball kann umfassen die Anzahl von Korblegern, Pässe und Dribblings, die Zeit in Ballbesitz, Intensität der Sprünge, usw. Zusammenfassende Statistik für Tennis kann umfassen die Anzahl von Schlägen, geschätzte Ballgeschwindigkeiten, der Prozentsatz von Vorhand- und Rückhandschlägen, die Anzahl und Intensität von Aufschlägen, usw. Diese Statistiken können bereitgestellt werden, falls der Tennisspieler mit einer Sensorbaugruppe 12 in der Nähe seiner Hand ausgerüstet ist. Falls der Tennisspieler zusätzlich mit einer Sensorbaugruppe 12 in der Nähe einer oder beider seiner Füße ausgerüstet ist, kann auch Laufstatistik bereitgestellt werden, wie etwa die Gesamtentfernung, Anzahl von Sprints (z. B. zum Netz) usw.
-
Ein beispielhafter Algorithmus zur Abschätzung der Ballgeschwindigkeit umfasst Vorverarbeiten, Merkmalsextraktion und Regression. In dem Vorverarbeitungsschritt wird ein Fenster mit fester Größe, z. B. um die energiereichen Bereiche der Sensordaten herum, definiert. Merkmale werden berechnet basierend auf den Sensordaten in dem Fenster, z. B. Anzahl von Extrempunkten, Mittelwert, Varianz, Schiefe, Wölbung, Spline-Interpolation oder maximale Amplitude. Zusätzliche Merkmale können berechnet werden, z. B. auf dem Signal des Signalgrößenvektors des Beschleunigungsmessers. In dem Regressionsschritt können unterschiedliche Ansätze angewendet werden, z. B. Support Vector Regression oder lineare Regression. Details zu Support Vector Regression können in
Alex J. Smola and Bernhard Schölkopf, "A tutorial on support vector regression", Statistics and Computing, 14(3): 199–222, gefunden werden.
-
Wie in 9 gesehen werden kann, kann der Maximalbereich des Sensors während eines Hochintensitätsereignisses erreicht werden. Um den Nachteil der Sättigung zu überwinden kann ein Sensor mit einem größeren Bereich verwendet werden. Durch Verwenden von nur einem Sensor, z. B. einem Beschleunigungsmesser, muss ein Kompromiss zwischen einem niedrigen Sensorbereich, aber einer hohen Auflösung, und einem hohen Sensorbereich, aber einer niedrigen Auflösung, gefunden werden. Um die Vorteile von beiden Sensortypen zu benutzen, können Sensor-Fusionstechniken angewendet werden.
-
Anstatt die oben genannte Regressionarten zu verwenden, kann Hauptkomponenten-Regression verwendet werden, welche die Reduktion von Merkmalsdimensionen ermöglicht und mit dem Problem der Multikollinearität umgeht. Eine detaillierte Übersicht der Hauptkomponentenregression kann in
William F. Massy, "Principal Components Regression in Exploratory Statistical Research", Journal of the American Statistical Association, 60(309): 234–256, 1965, gefunden werden.
-
Die zusammenfassende Statistik kann mit einem Video kombiniert werden, welches detektierte Ereignisse eines bestimmten Spielers (z. B. all seine gezielte Schüsse) zeigt. Dadurch wird eine kombinierte Zusammenfassung oder Feedback erhalten. Die Kombination von Video und Statistik kann auf dem Gerät 14 durchgeführt werden oder kann auf einem Verbrauchergerät durchgeführt werden wie etwa einem Mobilgerät 51a, 51b (z. B. ein Smartphone, Tablet-PC, Smartwatch), Desktop-PC 51c oder Notebook 51d.
-
Zusammenfassende Statistik basierend auf dem detektierten Ereignis (und optional ein generierten Video von bestimmten Ereignissen) könnte zu anderen Menschen übertragen werden wie einem Trainer, Zuschauer oder anderen Menschen, welche in diese Statistik interessiert sind. Die Übertragung könnte über das Internet durch einen Livestream sein. Die Übertragung könnte auf Medien basiert sein wie etwa Wifi, WLAN, BT, BTLE, NFC, RFID, USB, Ethernet, Thunderbolt und dergleichen. Basierend auf der zusammenfassenden Statistik (und optional dem generierten Video von bestimmten Ereignissen) könnte der Spieler Feedback von z. B. einem Trainer oder einem Talentsucher erhalten wie weiter unten beschrieben wird.
-
Außerdem könnte basierend auf der zusammenfassenden Statistik (und optional auf dem generierten Video von bestimmten Ereignissen) ein spezieller Bereich in einem Geschäft oder einem Stadion geöffnet werden, d. h. abhängig davon wie gut der Spieler gespielt hat. Falls zum Beispiel der Spieler eine bestimmte Anzahl von Ballkontakten werden eines Spiels erreichte, wird er mit dem Zugang zu einem bestimmten Bereich in einem Geschäft oder Stadion ausgezeichnet.
-
Die Sensordaten können auch verwendet werden um bereitzustellen einen Übersteiger-Zähler (d. h. die Anzahl der Übersteiger), einem Fußballaktivitätüberwacher, einem Ball Hochhalten-Tracker (d. h. Ballkontakte zählen während der Ball jongliert wird), „Around-the-world” (d. h. den Ball mit einem Bein hochhalten und versuchen das Bein um den Ball herum zu bewegen bevor dieser den Boden berührt) oder einen eins-gegen-eins Zähler (d. h. Zählen wie oft der Spieler in einer eins-gegen-eins Situation auf dem Feld verwickelt war, zum Beispiel beim Verusch den Gegener zu umgehen und/oder auszutricksen). Zum Beispiel könnten die Sensordaten analysiert werden um die Anzahl von Ballkontakten, welche ein Spieler hatte, ohne dem Ball zu erlauben den Boden zu berühren (Ball Hochhalten), zu bestimmen. Die oben genannte Statistik könnte bestimmt werden basierend auf zugehörigen detektierten Ereignissen, d. h. ein Ereignis könnte der Kontakt eines Fußes mit dem Ball (für Ball Hochhalten) oder eine Kreisbewegung (für „Around-the-wold”) sein.
-
Falls ein Ereignis, welches mit einem Schuss verknüpft ist, detektiert wird, kann die Ballgeschwindigkeit basierend auf den Sensordaten abgeschätzt werden. Somit kann die Person Feedback über ihre Schussleistung erhalten. Die Ballgeschwindigkeit kann durch Vorverarbeiten, Merkmalsextraktion und Regression abgeschätzt werden. Die Sensordaten können segmentiert werden und Merkmale können für jeden Segmentierungsbereich berechnet werden. Unterschiedliche Regressionstechniken können angewendet werden, welche die berechneten Merkmale als Eingabe verwenden
-
Nach einem Spiel (z. B. einem Fußballspiel von zwei Mannschaften, einem Tennisspiel von zwei Spielern, usw.) kann eine zusammenfassende Statistik zusammen mit einem Video, welches von den detektierten Ereignissen kompiliert wurde, automatisch zu einer globalen Datenbank gesendet werden wie etwa einer Cloud für Trainer, Talentsucher oder anderen Menschen um die zusammenfassende Statistik und das Video zu überprüfen. Details von solchen Datenübertragungen sind in Bezug zu 5 bereitgestellt worden. Ein Trainer oder Talentsucher könnte dann auf die Cloud zugreifen mit einem Mobilgerät 51a, 51b, einem Desktop-PC 51c oder einem Notebook 51d, wie in Bezug zu 5 beschrieben, und das Video und/oder zusammenfassende Statistik studieren, welche gemäß der vorliegenden Erfindung generiert wurden. Basierend darauf könnten der Trainer oder Talentsucher Feedback an die Spieler bereitstellen, welche im Video gekennzeichnet sind (z. B. durch Posten eines Kommentars oder einer Privatnachricht durch eine soziale Medienplattform oder durch E-Mail, SMS, usw.). Ein Talentsucher könnte den Spieler für eine weitere Bewertung auswählen.
-
Heatmaps könnten basierend auf Daten erstellt werden, welche durch einen Satellitennavigationssystemmodul 312 im Kontext der vorliegenden Erfindung bereitgestellt werden, sodass auf einer Karte andere Personen sehen können wo und wann Tricks, gezielte Schüsse, usw. wo gemacht worden sind. Eine Heatmap in diesem Kontext wird als eine Karte verstanden, die mit jedem Standort die Dauer verknüpft, welche die Person an diesem bestimmten Standort verbracht hat. Die Dauer wird dann auf einem Farbschema abgebildet. Zum Beispiel wird eine lange Dauer durch die Farbe Rot angegeben, wohingegen eine kurze Dauer durch die Farbe Blau angegeben wird. Dazwischenliegende Werte werden durch entsprechende zwischenliegende Farben (z. B. Farben von einem Spektrum der natürlichen Farben) angegeben. Die Heatmap kann verwendet werden, um zu analysieren wo die Personen aktuell die meiste Zeit, z. B. während eines Spiels, verbracht hat. Zu diesem Zweck könnte die Heatmap mit einem Bild oder einer schematischen Zeichnung des Spielfeldes (z. B. ein Fußballplatz, Tennisplatz, Basketballfeld, usw.) überlagert werden. Dadurch kann die Heatmap die bevorzugte Position der Person anzeigen.
-
Tricks, welche durch einen professionellen Spieler durchgeführt wurden, könnten durch eine Sensorbaugruppe 12 und der Kamera 11 oder den Kameras 11a, 11b, 11c, 11d, 11e aufgenommen werden. Andere Personen werden dann gefragt den Trick zu wiederholen und werden dann belohnt oder ausgezeichnet abhängig davon wie gut sie den Trick wiederholten. Anstatt von einem professionellen Spieler könnte der Trick durch einen Amateur, Freizeitspieler oder jeden anderen Spieler oder Person durchgeführt werden.
-
Basierend auf den aufgenommenen Sensordaten könnte die Person Punkte oder Punktzahlen erhalten Zum Beispiel abhängig davon wie lange und wie intensiv die Person eine bestimmte Aktivität, z. B. Fußball, Basketball oder Tennis durchführte, wird sie mit Punkten oder Punktzahlen ausgezeichnet. Falls zum Beispiel der Benutzer Fußball oder Basketball in einem Park oder auf der Straße spielte, Tricks ausführte oder sogar ein Fußball-, Basketball- oder Tennisspiel auf einem PC oder Spielekonsole, wo er durch einen Avatar dargestellt wird, kann er mit entsprechenden Punkten oder Punktzahlen ausgezeichnet werden. Es ist auch möglich bestimmte Ereignisse zu zählen (z. B. gezielte Schüsse, lange Passe, Kurzpässe, Dribblings, Tricks, usw.), welche von den Sensordaten extrahiert werden, und darauf basieren Vorteile, Auszeichnungen und/oder Belohnungen an die Person bereitzustellen, falls er eine bestimmter Menge von Ereignissen erreicht hat.
-
Punkte oder Punktzahlen könnten im Allgemeinen ausgezeichnet werden, falls der Benutzer aktiv ist. Die Sensorbaugruppe 12 arbeitet dann wie ein Aktivitätstracker wie es vorher beschrieben worden ist. Je mehr Bewegungen der Benutzer durchführt desto mehr Punkte oder Punktzahlen erhält er.
-
Die Punkte oder Punktzahlen können einen speziellen Bereich in einem Geschäft freischalten. Falls zum Beispiel die Person eine bestimmte Anzahl von Punkten oder Punktzahlen (z. B. 1000) erreichte, kann eine spezieller Bereich in einem Geschäft für ihn freigeschaltet werden, d. h. ihm wird Zugang zu diesem Bereich gewährt. Der Bereich kann spezielle Angebote wie limitierte Editionen oder Sammlerstücke beinhalten. Der Bereich kann verschlossen für andere Personen durch eine automatische Tür oder Barriere sein. Falls die Person sich an die Tür oder Barriere nähert, kann ein drahtloses Sender-Empfänger-Modul 39 in der Sensorbaugruppe 12 ein drahtloses Signal (z. B. durch Wifi, WLAN, Bluetoth, Bluetooth Low Energy, Zigbee, ANT, ANT+) zu einem Empfänger in der Nähe der Tür oder Barriere senden, welches die Person identifiziert. Falls die Person genügend Punkte oder Punktzahlen hat, kann die Tür oder Barriere sich öffnen und der Person kann der Zugang zu dem speziellen Bereich gewährt werden.
-
Alternativ kann der spezielle Bereich Teil eines Online-Stores sein. Der Server, auf dem der Online-Store beherbergt ist, fragt die Identität der Person ab, z. B. durch Name und/oder Passwort und fragt nachfolgend die Anzahl von Punkten oder Punktzahlen ab, welche mit der Person von einem anderen Server verknüpft sind, z. B. einem Cloud-Server 52. Falls die Person genügend Punkte oder Punktezahlen hat, kann ihr erlaubt werden in einen speziellen Bereich in dem Online-Store nur mit speziellen Angeboten wie limitierte Editionen oder Sammlerstücken zu navigieren.
-
Im Kontext eines Geschäfts oder Online-Stores ist es auch möglich die Person mit Rabatten basierend auf ihren Punkten oder Punktzahlen zu belohnen. Zum Beispiel kann ein Rabatt für jeden Punkt oder Punktzahl entweder in Prozent (z. B. ein Prozent pro 100 Punkten/Punktzahlen) oder als einen festen Betrag (z. B. 1 Euro oder 1 Dollar pro 100 Punkten/Punktzahlen) belohnt werden.
-
Außerdem ist es möglich Zugang zu exklusivem Medieninhalt basierend auf den Punkten oder Punktzahlen zu gewähren. Falls zum Beispiel die Person eine bestimmte Minimalmenge von Punkten/Punktzahlen (z. B. 1000) hat, wird sie mit dem Zugang zu speziellen Sportmedien (Videoclips, Workout- Musik, Fotos, usw.) auf einem Medieserver ausgezeichnet.
-
Die Punkte oder Punktzahlen könnten auch verwendet werden um den Spieler mit Online-Batches auszuzeichnen. Falls zum Beispiel der Spieler 1000 Punkte oder Punktzahlen anhäufte, wird er mit einem Bronze-Batch ausgezeichnet, falls der Spieler 5000 Punkte anhäufte, wird er mit einem Silber-Batch ausgezeichnet und falls der Spieler 10.000 Punkte anhäufte, wird er mit einem Gold-Batch ausgezeichnet. Die Batches könnten in einem sozialen Medienprofil des Spielers (z. B. Facebook, Twitter usw.) gezeigt werden.
-
Die Punkte oder Punktzahlen können auch mit der Leistung eines Avatars eines Spielers verknüpft werden, welchen er in einem Computerspiel benutzt. Je mehr Punkte oder Punktzahlen der Spieler durch bestimmte Aktivitäten (z. B. Fußball, Basketball, Tennis, Alltags-Aktivitäten, usw.) anhäuft, je höher kann die Leistung des Avatars sein. Zum Beispiel kann der Avatar bestimmte Fähigkeiten und/oder Ausrüstung erhalten, falls eine bestimmte Anzahl von Punkten oder Punktzahlen erreicht wird. Ein Beispiel würde ein Fußball-Avatar sein, der die Fähigkeit erhält einen Fallrückzieher durchzuführen und/oder ein besseres Paar Schuhe, falls der Spieler z. B. 1000 Punkte erreicht. Es ist auch möglich, dass die Leistung eines gesamten Teams von Avataren erhöht wird, falls ihre verknüpften Spieler ihre Anzahl von Punkten oder Punktzahlen erhöhen. Zum Beispiel könnte die Leistung eines Teams von Fußballspielern in einem echten Siel die Leistung ihres Teams von Avataren in einem Fußballspiel bestimmen.
-
Die Sensorbaugruppe 12 könnte auch verwendet werden um zu verfolgen, wenn die Person ein Stadion besucht, um ein Spiel anzuschauen. Das Stadion könnte zum Beispiel mit einem RFID/NFC-Tag, einem Bluetoot- oder BTLE-Baken, einem WLAN-Hotspot, usw. ausgerüstet werden, um mit der Sensorbaugruppe 12 durch ein drahtloses Sender-Empfänger-Modul 39 zu kommunizieren. Dadurch könnte ein Kennzeichner, welcher mit dem Stadion verknüpft ist, zu der Sensorbaugruppe 12 gesendet werden und in dem Speicher 13 abgespeichert werden. Diese Information könnte später zu z. B. einem sozialen Medienprofil des Benutzers (z. B. durch das drahtlose Sender-Empfänger-Modul 39 oder durch einen Verbinder 38) gesendet werden. Somit würde das soziale Medienprofil die Information zeigen, dass die Person das Stadion besichtigt hat, um ein bestimmtes Spiel anzusehen.
-
Es ist auch möglich, dass die Sensorbaugruppe 12 einen Kennzeichner, der mit der Sensorbaugruppe 12 verknüpft ist, an einen Empfänger sendet, der in dem Stadio installiert ist, und dass der Kennzeichner weiter von dem Empfänger zu einem Server im Internet (z. B. einem Server einer sozialen Medienplattform) sendet, welche die Information zeigt, dass die Person das Spiel sah.
-
Anstatt eines Stadions könnte ein Sportausrüstungsgeschäft mit einem RFID/NFC-Tag, einem Bluetooth- oder BTLE-Baken, einem WLAN-Hotspot, usw. ausgerüstet werden, um mit der Sensorbaugruppe 12 der Person zu kommunizieren. In der oben beschriebenen Art könnte die Information, dass die Person das Geschäft besuchte, automatisch auch auf dem sozialen Medienprofil der Person gepostet werden.
-
Die vorliegende Erfindung kann mit einem großen Spektrum von Aktivitäten, insbesondere Sportaktivitäten verwendet werden. Wenn zum Beispiel Basketball gespielt wird, könnten sinnvolle Aktionen oder Ereignisse während des Spielens detektiert werden, wie etwa einen Dunk, Sprungwurf, 360, Crossover, Wurf, Shotblock. Ein Highlightvideoclip eines Basketballspiels könnte generiert werden basierend auf dem Verfahren und System der vorliegenden Erfindung. Im Falle von Basketball könnten mehr als eine Sensorbaugruppe 12 durch den Spieler getragen werden, z. B. eine Sensorbaugruppe 12 könnte an einem seiner Arme getragen werden, eine andere Sensorbaugruppe 12 könnte an einem seiner Beine getragen werden. Im Allgemeinen könnten Sensorbaugruppen 12 an beliebigen Stellen des Körpers, z. B. an den Hüften, getragen werden. Wie zuvor beschrieben, können die Sensordaten von mehr als einer Sensorbaugruppe 12 in eine einzelne Zeitreihe kombiniert werden.
-
Es ist auch möglich, dass eine Sensorbaugruppe 12 befestigt oder integriert in ein Basketball wird, um die Bewegung des Basketballs aufzunehmen. Die Sensordaten des Basketballs könnten dann verwendet werden, um die Detektion von Ereignissen zu verbessern durch Kombinieren der Sensordaten vom Basketball mit den Sensordaten der Sensorbaugruppe 12, welche durch die Basketballspieler getragen werden.
-
Weitere beispielhafte Sportaktivitäten sind Laufen und Tennis. Falls die vorliegende Erfindung für Tennis angewendet wird, könnte ein zusammenfassendes Video („Highlightvideoclip” oder „Showvideoclip”) z. B. alle Vorhand- oder alle Rückanschläge und/oder alle Aufschläge eines Spieles zeigen. Falls die Erfindung während eines Doppels benutzt wird, ist es auch möglich das Video die genannten Ereignisse nur eines bestimmten Spielers aufweisen zu lassen.
-
Die Sensorbaugruppe 12 könnte von einem Läufer getragen werden (z. B. in der Nähe eines oder beider seiner Knöchel) und Sensordaten könnten in dem Speicher 13 während eines Laufes abgespeichert werden. Die Sensordaten könnten dann später wie hierin beschriebenen analysiert werden, um die Lauftechnik des Läufers zu analysieren. Zum Beispiel könnten die Sensordaten verwendet werden, um zu detektieren wie sein Fuß den Untergrund berührt und wie er proniert und supiniert. Veränderungen seiner Bewegungen könnten im Laufe der Zeit identifiziert werden. Dadurch könnte bestimmt werden, wann der Läufer anfing Ermüdungserscheinungen zu bekommen. Es ist auch möglich den Energieverbrauch zu berechnen oder die verbrannten Kalorien des Läufers im Laufe der Zeit zu berechnen oder eine Gesamtzahl des Energieverbrauchs zu erhalten.
-
Wie bereits beschrieben könnten die Kamera 11 oder die Kameras 11a, 11b, 11c, 11d, 11e, welche im Kontext der vorliegenden Erfindung verwendet werden, eine Smartphone-Kamera sein. Außerdem könnte die Kamera eines Tablet PCs, Notebooks, Kamerastabes, Smartwatch, usw. verwendet werden. Ebenso könnte eine Actionkamera wie etwa GoPro® verwendet werden. Falls die Sensordaten auf einem Gerät verarbeitet werden (zur Ereignisdetektion und Verknüpfung eines Ereignisses mit einem Videobild), welches getrennt von der Kamera ist, kann das Video an das Gerät gesendet werden durch eine Kabelverbindung (z. B. USB, Ethernet, Thunderbolt, usw.) oder eine drahtlose Verbindung (z. B. Wifi, WLAN, BT, BTLE, NFC, RFID, ANT®, ANT+, ZigBee®, usw.).
-
Das Video, das von dem zumindest einen Videobild generiert wurde, welche mit den dem detektierten Ereignis verknüpft wird, d. h. das zusammenfassende Video, „Highlightvideoclip” oder „Showvideoclip”, kann auf eine Videowand bei zum Beispiel einem Fußballplatz gezeigt werden. Zu diesem Zweck können das Gerät 14, welche die Sensordaten und das aufgenommene Video oder Videos verarbeitet, an die Videowand verbunden werden durch eine Kabelverbindung (z. B. USB, Ethernet, Thunderbolt, usw.) oder eine drahtlose Verbindung (z. B. Wifi, WLAN, BT, BTLE, NFC, RFID, ANT®, ANT+, ZigBee®, usw.), um das zusammenfassende Video an die Videowand zu übertragen.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- US 2012123733 A1 [0009]
- US 20120167684 A1 [0010]
- US 8702516 B2 [0011]
- US 2013/0274635 A1 [0012]
- US 2013/0274904 A1 [0013]
-
Zitierte Nicht-Patentliteratur
-
- Shaoyan Zhang, Alex V. Rowlands, Peter Murray, and Tina L. Hurst, ”Physical Activity Classification Using the GENEA Wrist-Worn Accelerometer”, Medicine & Science in Sports & Exercise, 44(4): 742–748, 2012 [0158]
- Bernhard Schölkopf, John C. Platt, John Shawe-Taylor, Alex J. Smola and Robert C. Williamson, ”Estimating the Support of a High-Dimensional Distribution”, Neural Computation, 13(7): 1443–1471, 2001 [0163]
- Alvin C. Rencher and William F. Christensen, Methods of multivariate analysis, 3rd edition, John Wiley & Sons, 2012 [0166]
- Martin Vetterli and Cormac Herley, ”Wavelets and filter banks: Theory and design”, IEEE Transactions on Signal Processing, 40(9): 2207–2232, 1992 [0171]
- Martin Vetterli and Cormac Herley, ”Wavelets and filter banks: Theory and design”, IEEE Transactions on Signal Processing, 40(9): 2207–2232, 1992 [0172]
- Leo Breiman, ”Random forests”, Machine learning, 45(1): 5–32, 2001 [0178]
- Sergios Theodoridis and Konstantinos Koutroumbas, Pattern Recognition, 4th edition, Elsevier, 2008 [0183]
- Richard O. Duda, Peter E. Hart and David G. Stork, ”Pattern Classification”, 2nd edition, John Wiley & Sons, 2000 [0185]
- Trevor Hastie, Robert Tibshirani, Jerome Friedman, ”The elements of statistical learning, volume 2, Springer 2009 [0188]
- Alex J. Smola and Bernhard Schölkopf, ”A tutorial on support vector regression”, Statistics and Computing, 14(3): 199–222 [0197]
- William F. Massy, ”Principal Components Regression in Exploratory Statistical Research”, Journal of the American Statistical Association, 60(309): 234–256, 1965 [0199]