LU103344B1 - Vorrichtung und Verfahren für Bewegungsfeedback beim Laufen - Google Patents
Vorrichtung und Verfahren für Bewegungsfeedback beim LaufenInfo
- Publication number
- LU103344B1 LU103344B1 LU103344A LU103344A LU103344B1 LU 103344 B1 LU103344 B1 LU 103344B1 LU 103344 A LU103344 A LU 103344A LU 103344 A LU103344 A LU 103344A LU 103344 B1 LU103344 B1 LU 103344B1
- Authority
- LU
- Luxembourg
- Prior art keywords
- person
- time interval
- data
- evaluation
- module
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Die Erfindung umfasst eine Vorrichtung und ein Verfahren zur Erfassung und Bewertung von Bewegungen einer Person und zur Generierung von Feedback, umfassend die Erfassung der Bewegungen einer Person mittels eines Bewegungserfassungssensors, die Generierung eines Beobachtungspunkte-Modells von Beobachtungspunkten für die erfasste Person, die Bewertung der erfassten Bewegungen hinsichtlich definierter Bewegungsabweichungen auf Basis von Beobachtungspunkten des Beobachtungspunkte-Modells in einem ersten Zeitintervall, was weiter die folgenden Verfahrensschritte umfasst: Ermittlung von Schritten aus der Bewertung des Bewegungsablaufs während des ersten Zeitintervalls, Summierung der Schritte und Vergleich der Schritte mit einem Schwellwert, Beenden des ersten Zeitinterfalls, wenn die summierten Schritte den Schwellwert erreicht haben, die Ermittlung von Bewegungsabweichungen im ersten Zeitintervall, sowie die Ausgabe von Feedback an die Person in einem zweiten Zeitintervall.
Description
24-Beispiel
LU103344
Gebiet der Erfindung:
[0001] Die grundlegende erfinderische Aufgabe ist die ressourceneffiziente, komplexitätsreduzierte und zugleich auch robuste Auswertung der Bewegungen einer Person im Zeitablauf, in einem Aspekt mittels eines mobilen Serviceroboters, und die Ausgabe von Feedback zum Bewegungsablauf an die erfasste Per- son. Dies geht einher mit einer effizienten Datenprozessierung, die bspw. die Energieressourcen des Sys- tems schont, welches die Datenauswertung vornimmt. Dabei soll das System wie bspw. ein mobiler Ser- viceroboter robust und effizient Sensordaten auswerten und sich in seiner Arbeitsumgebung mit Men- schen und Gegenständen, die sich jeweils bewegen können, einbinden lassen. Zugleich soll auch der Pro- zess der Feedbackausgabe die Mensch-Maschine-Kommunikation vereinfachen. Als Rahmenbedingung kommt hinzu, dass die Anwendung diverse Bewegungsabweichungen bewerten können soll und zudem über eine Drahtlosschnittstelle mit Anbindung an das Internet bei ggf. begrenzter Bandbreite aktualisiert werden können soll. Weiterhin soll ein angemessenes Kosten-Nutzen-Verhältnis angestrebt werden bei der sicherheitstechnischen Absicherung des Systems.
Hintergrund der Erfindung und Stand der Technik
[0002] Im Stand der Technik sind hier verschiedene Serviceroboter bekannt, die bspw. Bewegungsab- läufe erfassen, auswerten, und dazu Feedback geben (WO2020144175A1, WO2021038109A1 und
WO2019070388A2 oder Scheidig et al. 2019 (DOI: 10.1109/ICORR.2019.8779369) bzw. Trinh et al. 2020 (DOI: 10.1109/RO-MAN47096.2020.9223482)), welche prinzipiell die Erfassung der Bewegungs- abläufe einer Person und die Ausgabe von Feedback beschreiben. Die Erfassung und Auswertung der Be- wegungen einer Person ist bspw. in WO2019228977 oder WO2014151700 beschrieben. Steuerungsme- chanismen von mobilen Robotern finden sich bspw. in WO2021069674.
Allgemeine Beschreibung der erfinderischen Teilaufgaben, der Erfindung und ihrer Komponenten
[0003] Die erfinderische Teilaufgabe in diesem Beispiel ist die effiziente und komplexitätsreduzierte
Auswertung der Bewegungen einer erfassten Person im Zeitablauf insbesondere mit Verfahren aus dem
Bereich Motion Capture und bevorzugt implementiert auf einem mobilen Serviceroboter, um dieser er- fassten Person Feedback zum Bewegungsablauf zu geben.
[0004] Die Implementierung zur Lösung dieses technischen Problems umfasst ein computer-implemen- tiertes Verfahren zur Erfassung und Bewertung von Bewegungen einer Person, umfassend die Identifizie- rung einer Person auf Basis erkannter Muster innerhalb erfasster Sensordaten, die Erfassung der Person mittels eines Bewegungserfassungssensors, die Generierung eines Beobachtungspunkte-Modells von Be- obachtungspunkten für die erfasste Person mittels Musterauswertung und im Speicher hinterlegter Regeln und Zuweisung von (Raum-)koordinaten zu den Beobachtungspunkten des Beobachtungspunkte-Modells, 1
24-Beispiel die Bewertung der erfassten Bewegungen auf Basis der Beobachtungspunkte des Beobachtungspunkte-
Modells und mittels im Speicher hinterlegten Regeln. Die Erfassung der Bewegungen der Person LU103344 und/oder die Regeln, die mit der identifizierten Person assoziiert sind, sind bevorzugt mit Positionen in einem Koordinatensystem einer Karte assoziiert. So können unterschiedliche Koordinaten der Karte mit- tels unterschiedlicher Konfigurationen eines Uberwachungsprofils und mit unterschiedlichen Regeln hin- terlegt sein, so dass je nach Koordinaten unterschiedliche Uberwachungen bspw. von Bewegungen statt- finden kénnen. Es wird von der Person mittels des Bewegungserfassungssensors bevorzugt eine repetitive
Bewegung im Zeitablauf erfasst, beginnend mit einer initialen Pose, intermediären Posen, sowie einer fi- nalen Pose, die jeweils mindestens durch ein Subset an Beobachtungspunkten definiert werden, und wo- bei die finale Pose wiederum als Startpose für die nächste repetitive Bewegung dient. Hierbei umfasst die
Verarbeitung der erfassten Bewegungen im Zeitablauf bevorzugt eine Verarbeitung zeitdiskreter Mess- werte. Die initiale Pose und/oder finale Pose wird durch Vergleich mit im Speicher hinterlegen Regeln wie klassifizierten Posen ermittelt. Für einige Bewegungsbewertungen wird zwischen initialer Pose und finaler Pose ein Bewertungspunkt ermittelt durch Auswertung des Zeitverlaufs der Posen der Person in- nerhalb der repetitiven Bewegung, der eine Bewertung der repetitiven Bewegung erlaubt. Der Bereich, in dem sich die Beobachtungs- und/oder Bewertungspunkte befinden, ist bevorzugt mit einem vordefinierten
Bereich in einem Koordinatensystem einer Karte assoziiert. Fiir die identifizierte Person wird ein Uber- wachungsprofil vorgehalten, dass mit im Speicher hinterlegten Regeln zur Bewertung der Bewegungen der identifizierten Person assoziiert ist. Die Regeln, die mit der identifizierten Person assoziiert sind, wer- den bevorzugt über eine Drahtlosschnittstelle getriggert, womit ein übertragenes Uberwachungsprofil dort im Speicher abgelegte Regeln auf dem Serviceroboter aufruft. Um die Regeln auf dem Serviceroboter zu aktualisieren, werden diese über die Drahtlosschnittstelle zur Verfügung gestellt. Weiterhin erfolgt fiir ei- nige repetitive Bewegungen aus einem Repertoire von zu bewertenden Bewegungen die gemeinsame Be- wertung zweier subsequenter repetitiver Bewegungen gemeinsam jeweils mit mindestens einem Bewer- tungspunkt, der jeweils innerhalb der repetitiven Bewegungen ermittelt worden ist, durch Vergleich ge- messener Werte mit im Speicher hinterlegten Bewertungsregeln. Weiterhin erfolgt fiir einige repetitive
Bewegungen aus einem Repertoire von zu bewertenden Bewegungen die Bewertung einer repetitiven Be- wegung bspw. mittels Ermittlung des Abstands zwischen mindestens zwei Beobachtungspunkten und Ver- gleich des ermittelten Abstands mit im Speicher hinterlegten Bewertungsregeln statt. Weiterhin erfolgt für einige repetitive Bewegungen aus einem Repertoire von zu bewertenden Bewegungen die Bewertung ei- ner repetitiven Bewegung durch die Ermittlung des Abstands zwischen mindestens zwei Beobachtungs- punkten und mindestens eines Bewertungspunkts und Vergleich des ermittelten Abstands mit im Speicher hinterlegten Bewertungsregeln. Die Datenberechnung erfolgt innerhalb von Prozessknoten, womit auch
Sensordaten des Bewegungserfassungssensor über einen Prozessknoten andere Prozessknoten, insbeson- dere zur Generierung des Beobachtungspunkte-Modells, über einen Datenkanal zur Verfügung gestellt werden. Die Datenbereitstellung eines Prozessknotens triggert zudem auch eine Zustandsmaschine. Die
Erfindung umfasst weiterhin eine Vorrichtung zur Durchführung des vorgenannten Verfahrens, die bspw. als mobiler Serviceroboter ausgestaltet ist. Weiterhin umfasst die Erfindung ein System mit einem 2
24-Beispiel
Bewegungserfassungssensor zur Erfassung der Bewegung einer Person, eine Recheneinheit und einen
Speicher, ein Personenidentifizierungsmodul im Speicher zur Identifizierung einer Person auf Basis er- LU103344 kannter Muster innerhalb erfasster Sensordaten,ein Beobachtungspunkte-Modell-Generierungsmodul im
Speicher zur Generierung von Beobachtungspunkten fiir die erfasste Person mittels Musterauswertung durch die Recheneinheit und im Speicher hinterlegter Regeln und Zuweisung von Koordinaten zu den Be- obachtungspunkten des Beobachtungspunkte-Modells durch die Recheneinheit, ein Beobachtungspunkt-
Bewertungsmodul im Speicher mit Regeln zur Bewertung mindestens einer erfassten Bewegung auf Basis von Beobachtungspunkten des Beobachtungspunkte-Modells, eine Drahtlosschnittstelle, konfiguriert für die Übertragung des Überwachungsprofils, wobei für die identifizierte Person im Speicher ein Überwa- chungsprofil vorgehalten wird, das mit Regeln zur Bewertung der Bewegungen der identifizierten Person assoziiert ist. Diese Regeln beschreiben Übungen oder Assessments, die mit der jeweiligen Person durch- geführt werden sollen. Das System umfasst weiter ein Posen-Ermittlungsmodul im Speicher mit Regeln zur Detektion von Posen durch Vergleich mit hinterlegten Posen basierend auf mindestens einem Subset an Beobachtungspunkten des Beobachtungspunkte-Modells sowie ein Bewertungspunkt-Ermittlungsmo- dul im Speicher, das assoziiert ist mit dem Beobachtungspunkt-Bewertungsmodul, in einem Aspekt mit
Regeln zur Ermittlung und Bewertung eines Bewertungspunkts auf Basis der Auswertung von Beobach- tungspunkten zwischen initialer Pose und finaler Pose durch eine von der Recheneinheit vorgenommenen
Auswertung des Zeitverlaufs der Posen der Person innerhalb der repetitiven Bewegung. Ferner umfasst das System optional ein Kartenmodul im Speicher, das Koordinaten zur Verfügung stellt, welche mit der
Erfassung der Bewegungen der Person und/oder der Bewertung der Bewegungen der Person jeweils auf
Basis von im Speicher hinterlegten Regeln assoziiert sind. Der Bewegungserfassungssensor stellt bevor- zugt generierte Daten mittels eines Prozessknoten über einen Datenkanal mindestens einem weiteren Pro- zessknoten zur Verfügung. Der Prozessknoten, der die Daten des Bewegungserfassungssensors zur Verfü- gung stellt, triggert bevorzugt auch den Zustand einer Zustandsmaschine.
[0005] Die erfinderische Teilaufgabe ist die effiziente und zugleich auch robuste Auswertung der Bewe- gungen einer Person im Zeitablauf bevorzugt mittels eines mobilen Serviceroboters, wenn bspw. das Um- feld der zu erfassenden Person ebenfalls durch weitere Sensoren ausgewertet werden muss und sich dadurch Abhängigkeiten zwischen den durch die jeweiligen Sensoren erfassten Umfeldcharakteristiken ergeben wie die Position der erfassten Person aber auch sich in deren Umfeld befindlichen Hindernissen.
Das gilt insbesondere dann, wenn die Erfassung der Person über einen mobilen Serviceroboter erfolgt, der sein Umfeld zum Zweck der Hindernisvermeidung ebenfalls beobachten muss.
[0006] Die Implementierung der technischen Lösung umfasst ein computer-implementiertes Verfahren zur Erfassung und Bewertung von Bewegungen einer Person, mit der Ausführung von Berechnungen mit- tels einer Recheneinheit, umfasst die Erfassung des räumlichen Umfelds der Person mittels mindestens eines Umfelderfassungssensors, der Sensordaten innerhalb eines ersten Koordinatensystems verarbeitet und Umfelddaten generiert; die Zuweisung von Koordinaten des ersten Koordinatensystems zu den 3
24-Beispiel erfassten Umfelddaten innerhalb einer Karte, welche Umfelddaten abbildet; die Erfassung der Person mit- tels eines Bewegungserfassungssensors, der Sensordaten innerhalb eines zweiten Koordinatensystems LU103344 verarbeitet; die Generierung eines Beobachtungspunkte-Modells von Beobachtungspunkten fiir die er- fasste Person mittels Musterauswertung und im Speicher hinterlegter Regeln; die Zuweisung von (Raum- )koordinaten zu den Beobachtungspunkten des Beobachtungspunkte-Modells aus dem zweiten Koordina- tensystem; die Verarbeitung der Daten des erfassten Umfelds der Person sowie der Beobachtungspunkte der Person innerhalb eines einheitlichen Koordinatensystems sowie die Bewertung der Bewegungen der
Person basierend auf im Speicher hinterlegten Regeln. Die Daten des Umfelderfassungssensors und des
Bewegungserfassungssensors werden über jeweils einen Prozessknoten mindestens einem anderen Pro- zessknoten zur Verfügung gestellt. Die Bewertung der Bewegungen der erfassten Person erfolgt bevor- zugt innerhalb mindestens eines Prozessknotens. Weiterhin umfasst, in einem Aspekt, die Erfassung durch den Bewegungserfassungssensor eine Erfassung zeitdiskreter Messwerte. Weiterhin umfasst bspw. das erste Koordinatensystem zwei oder drei Dimensionen sowie das zweite Koordinatensystem drei Dimensi- onen. Die Verarbeitung der Daten des erfassten Umfelds der Person sowie der Person innerhalb eines ein- heitlichen Koordinatensystems erfolgt bspw. auf Basis der Transformation der Koordinaten aus einem der beiden Koordinatensysteme in das jeweils andere Koordinatensystem, das damit zum einheitlichen Koor- dinatensystem wird. In einem alternativen Aspekt erfolgt die Verarbeitung der Daten des erfassten Um- felds der Person sowie der Person innerhalb eines einheitlichen Koordinatensystems auf Basis der Trans- formation der Koordinaten beider Koordinatensysteme in ein einheitliches Koordinatensystem. In einem
Aspekt überlappen der Frfassungsbereich des Bewegungserfassungssensors und des Umfelderfassungs- sensors nicht oder nur an den Randbereichen. Vom Bewegungserfassungssensor wird, in einem Aspekt, innerhalb des computer-implementierten Verfahrens von der Person eine repetitive Bewegung im Zeitab- lauf erfasst, beginnend mit einer initialen Pose, intermediären Posen, sowie einer finalen Pose, die jeweils mindestens durch ein Subset an Beobachtungspunkten charakterisiert werden, und wobei die finale Pose wiederum als Startpose für die nächste repetitive Bewegung dient. So wird bspw. hier eine initiale Pose und/oder eine finale Pose durch Vergleich mit im Speicher hinterlegen, klassifizierten Posen ermittelt. Die nächste repetitive Bewegung ist grundsätzlich identisch oder alternativ grundsätzlich nicht identisch mit der vorangegangenen repetitiven Bewegung. In einem Aspekt wird zwischen initialer Pose und finaler
Pose ein Bewertungspunkt ermittelt durch Auswertung des Zeitverlaufs der Posen der Person innerhalb der repetitiven Bewegung, der eine Bewertung der repetitiven Bewegung erlaubt. So ist bspw. der Be- reich, in dem sich die Beobachtungs- und/oder Bewertungspunkte befinden, mit einem vordefinierten Be- reich im einheitlichen Koordinatensystem oder im ersten Koordinatensystem assoziiert. Die erfasste Per- son wird bspw. durch Vergleich erfasster Muster mit hinterlegten Mustern identifiziert und fiir die identi- fizierte Person wird ein Uberwachungsprofil vorgehalten, dass mit im Speicher hinterlegten Bewertungs- regeln zur Bewertung der Bewegungen der identifizierten Person assoziiert ist. Die im Speicher hinterleg- ten Bewertungsregeln, die mit der identifizierten Person assoziiert sind, können über eine Drahtlosschnitt- stelle zur Verfügung gestellt oder getriggert werden. So sind, in einem Aspekt, die im Speicher hinterleg- ten Bewertungsregeln, die mit der identifizierten Person assoziiert sind, ebenfalls mit Positionen in 4
24-Beispiel einheitlichen oder im ersten Koordinatensystem assoziiert. Die Koordinaten können bspw. die Ausgabe einer Ausgabeeinheit triggern. Es erfolgt weiter bspw. die gemeinsame Bewertung zweier subsequenter LU103344 repetitiver Bewegungen gemeinsam jeweils mit mindestens einem Bewertungspunkt, der jeweils inner- halb der repetitiven Bewegungen ermittelt worden ist, durch Vergleich gemessener Werte mit hinterlegten
Bewertungsregeln und/oder die Bewertung einer repetitiven Bewegung mittels Ermittlung des Abstands mindestens zweier Beobachtungspunkte und Vergleich des ermittelten Abstands mit im Speicher hinter- legten Bewertungsregeln und/oder die Bewertung einer repetitiven Bewegung durch die Ermittlung des
Abstands mindestens zweier Beobachtungspunkte und mindestens eines Bewertungspunkts und Vergleich des ermittelten Abstands mit im Speicher hinterlegten Bewertungsregeln. Beim Bewegungserfassungs- sensor kann es sich um eine 2D- oder 3D-Kamera, einen Radarsensor, oder eine Kombination handelt, wobei bei einer Kombination eine Sensordatenfusion erfolgt. Die Erfindung umfasst ferner eine Vorrich- tung zur Durchführung des hier in seinen verschiedenen optionalen Ausfithrungsformen beschriebenen
Verfahrens, wobei in einem Aspekt es sich bei der Vorrichtung um einen mobilen Serviceroboter handelt.
Die Erfindung umfasst ferner ein System mit einer Recheneinheit und einen Speicher, einen Umfelderfas- sungssensor zur Erfassung des Umfelds einer Person in einem ersten Koordinatensystem und zur Zuwei- sung von Koordinaten zu den erfassten Umfelddaten mittels der Recheneinheit, ein Koordinatensystem-
Transformationsmodul zur Transformation der Koordinaten aus einem Koordinatensystem eines ersten
Sensors in das jeweils andere Koordinatensystem eines zweiten Sensors mittels der Recheneinheit oder zur Transformation der Koordinaten zweier Sensoren in ein einheitliches, neues Koordinatensystem mit- tels der Recheneinheit. Weiterhin kann das System ein Beobachtungspunkte-Modell-Generierungsmodul, ein Posen-Ermittlungsmodul, ein Beobachtungspunkte-Bewertungsmodul, ein Feedback-Generierungs- modul und/oder ein Distanz-Haltemodul enthalten. In einem Aspekt erfolgt die Zur-Verfügung-Stellung der Daten des Umfelderfassungssensors und des Bewegungserfassungssensors für die Weiterverarbeitung
Jeweils mittels eines Prozessknotens. Das Beobachtungspunkt-Bewertungsmodul kann, in einem Aspekt, innerhalb eines Prozessknotens implementiert sein, der Daten über einen Datenkanal zur Verarbeitung zur
Verfügung gestellt bekommt und nach Verarbeitung auch wieder über einen Datenkanal zur Verfügung stellt. Dabei kann der Prozessknoten mit den Beobachtungspunkt-Bewertungsmodul die Daten bspw. von einem Prozessknoten erhalten, der ein Beobachtungspunkt-Modell-Generierungsmodul, bspw. ebenfalls als Prozessknoten, zur Verfügung stellt. Die genannten Module können jeweils einzeln oder in Kombina- tion innerhalb eines Prozessknotens realisiert sein und Daten synchron oder asynchron mittels eines Da- tenkanals austauschen.
[0007] Die erfinderische Teilaufgabe in diesem Beispiel ist die Analyse der Bewegungen einer Person und die Generierung von Feedback bei einem System zur Bewegungsauswertung (bevorzugt einem mobi- len Serviceroboter), mit dem eine Person erfasst wird und das die Bewegungen der Person ermittelt, aus- wertet und der Person zu den erfassten Bewegungen ein Feedback gibt. Fine hierbei auftretende Heraus- forderung ist, eine Vielzahl von detektierten Bewegungsabweichungen mit unterschiedlichem Feedback zu orchestrieren. 5
24-Beispiel
[0008] Die Implementierung der technischen Lösung umfasst ein computer-implementiertes Verfahren zur Erfassung und Bewertung von Bewegungen einer Person im Zeitablauf und zur Generierung von LU103344
Feedback an die Person, umfassend die Erfassung einer Person mittels eines Bewegungserfassungs- sensors, die Generierung eines Beobachtungspunkte-Modells von Beobachtungspunkten fiir die erfasste
Person mittels Musterauswertung und im Speicher hinterlegter Regeln, die Bewertung der erfassten Be- wegungen hinsichtlich definierter Bewegungsabweichungen auf Basis von Beobachtungspunkten des Be- obachtungspunkte-Modells und/oder daraus abgeleiteten Bewertungspunkten und zu diesen im Speicher hinterlegten Regeln in einem ersten Zeitintervall, und die Ausgabe von Feedback an die Person mittels einer Ausgabeeinheit in einem zweiten, sich dem ersten Zeitintervall anschließenden Zeitintervall zur er- mittelten Bewegungsabweichung. Weiter umfasst das Verfahren ein drittes Zeitintervall, in welchem kein
Feedback ausgegeben wird. Daran schließt sich ein viertes Zeitintervall an, in dem die im ersten Zeitinter- vall identifizierte und im zweiten Zeitintervall mit Feedback assoziierte Bewegungsabweichung als Ab- weichungstyp erneut bewertet wird, sowie die Ausgabe von Feedback in einem sich dem vierten Zeitinter- vall anschließenden fünften Zeitintervall zu der im vierten Zeitintervall bewerteten Bewegungsabwei- chung. In einer speziellen Ausfithrungsvariante beträgt die zeitliche Länge des dritten Zeitintervalls null.
Es erfolgt eine Priorisierung ermittelter Bewegungsabweichungen im ersten Zeitintervall und einer Aus- gabe von Feedback im zweiten Zeitintervall zur im ersten Zeitintervall am höchsten priorisierten Bewe- gungsabweichung. Weiterhin erfolgt bevorzugt die Ausgabe von Feedback im fünften Zeitintervall, das auf unterschiedlich priorisierten Bewegungsabweichungen basiert als das im zweiten Zeitintervall ausge- gebene Feedback. Sofern jeweils gleich priorisierte Bewegungsabweichungen im ersten und im vierten
Zeitintervall ermittelt werden, erfolgt bevorzugt dennoch unterschiedliches Feedback im zweiten und fünften Zeitintervall. Bevorzugt werden mehrere Schleifen aus den Zeitintervallen eins bis fünf durchlau- fen, bei denen insgesamt Feedback auf Basis von mindestens zwei unterschiedlich priorisierten und de- tektierten Bewegungsabweichungen erfolgt. Im Anschluss an die Erfassung der Bewegungen der Person schließt sich ein finales Zeitintervall an zur Ausgabe von Feedback über die Ausgabeeinheit, welches auf
Basis von mindestens zwei unterschiedlich priorisierten und detektierten Bewegungsabweichungen er- folgt unter Involvierung des Statistikmoduls. Vor der Generierung eines Beobachtungspunkte-Modells erfolgt bevorzugt eine Identifizierung der erfassten Person durch Erfassung von Personenmerkmalen der
Person und Vergleich der erfassten Personenmerkmale mit in einem Speicher hinterlegten Merkmalen.
Weiterhin erfolgt bevorzugt eine Re-Identifizierung der Person im Zeitablauf während der Erfassung der
Bewegungen der Person. Die Bewertung der erfassten Bewegungen der Person erfolgt auf Basis von im
Speicher hinterlegten Bewertungsregeln für die Bewegungsabweichungen, die mit der identifizierten Per- son assoziiert sind. Die im Speicher hinterlegten Bewertungsregeln, die mit der identifizierten Person as- soziiert sind, sind bevorzugt mit Positionen in einem Koordinatensystem einer Karte assoziiert. Die Be- reitstellung erfasster Bewegungsdaten, Personenidentifizierungsdaten, Beobachtungspunkte, Beobach- tungspunkte-Bewertungen, Pfadplanungsdaten, Kartendaten und Ausgabedaten wird bevorzugt über Pro- zessknoten und mittels Datenkanäle realisiert. 6
24-Beispiel
[0009] Die Erfindung umfasst ferner ein System zur Erfassung und Bewertung von Bewegungen einer
Person im Zeitablauf und zur Generierung von Feedback umfassend einen Bewegungserfassungssensor LU103344 zur Erfassung der Bewegung einer Person, eine Recheneinheit und ein Speicher, ein Beobachtungs- punkte-Modell-Generierungsmodul im Speicher zur Generierung eines Beobachtungspunkte-Modells aus
Beobachtungspunkten der Person durch die Recheneinheit, ein Beobachtungspunkte-Bewertungsmodul im Speicher mit Regeln zur Bewertung mindestens einer erfassten Bewegung auf Basis eines überwach- ten Beobachtungs- und/oder Bewertungspunkts in der Recheneinheit, eine Ausgabeeinheit zur Ausgabe von Feedback basierend auf einem sich im Speicher befindlichen Feedback-Generierungsmodul, wobei das Beobachtungspunkte-Bewertungsmodul konfiguriert ist für die Bewertung der erfassten Bewegungen in einem ersten Zeitintervall und das Feedback-Generierungsmodul die Ausgabe von Feedback zur detek- tierten Bewegungsabweichung mittels Ausgabemodul über die Ausgabeeinheit in einem zweiten Zeitin- tervall initiiert. Das Beobachtungspunkte-Bewertungsmodul ist konfiguriert fiir die erneute Bewertung von Bewegungen in einem vierten Zeitintervall und die Ausgabe von Feedback in einem sich dem vierten
Zeitintervall anschließenden fünften Zeitintervall zu der im vierten Zeitintervall bewerteten Bewegungs- abweichung. Bevorzugt erfolgt im vierten Zeitintervall eine erneute Bewertung der im ersten Zeitintervall identifizierten und im zweiten Zeitintervall mit Feedback assoziierte Bewegungsabweichung als Abwei- chungstyp. Das Feedback-Generierungsmodul triggert bevorzugt mindestens zwei Feedbacks zu unter- schiedlich priorisierten Bewegungsabweichungen. Es triggert bevorzugt im zweiten Zeitintervall Feed- back zur detektierten und am höchsten priorisierten Bewegungsabweichungen aus dem ersten Zeitinter- vall. Es triggert bevorzugt im fünften Zeitintervall eine Feedbackausgabe für ein Feedback, das auf unter- schiedlich priorisierten Bewegungsabweichungen basiert als im zweiten Zeitintervall oder unterschiedli- ches Feedback bei jeweils im ersten und vierten Zeitintervall detektierten und gleich priorisierten Bewe- gungsabweichungen. Es gibt ferner nach mehreren weiteren, sich an das fünfte Zeitintervall anschließen- den Zeitintervallen ein finales Zeitintervall, in welchem auf Basis von mindestens zwei unterschiedlich priorisierten und detektierten Bewegungsabweichungen (und bevorzugt mittels eines Statistikmoduls)
Feedback ausgegeben wird. Das Trigger des Feedback-Generierungsmodul löst jeweils eine Feedback- ausgabe mittels Ausgabemodul und der Ausgabeeinheit aus. Das System verfügt weiter bevorzugt über ein Personenidentifizierungsmodul zur Identifizierung der Person bevorzugt vor Generierung des Be- obachtungspunkte-Modells und mittels des RFID-Lesegerits. In einer alternativen Ausfithrungsvariante erfolgt die Personenidentifikation mittels Bewegungserfassungssensor. Das System verfügt weiter über ein Personen-Re-Identifizierungsmodul zur Re-Identifizierung der Person im Zeitverlauf, bevorzugt mit- tels des Bewegungserfassungssensors, wobei für die identifizierte Person mittels Regeln im Speicher eine
Assoziation der Bewegungsbewertung im Beobachtungspunkte-Bewertungsmodul mit der re-identifizier- ten Person umgesetzt wird. Das System umfasst weiter bevorzugt ein Posen-Ermittlungsmodul im Spei- cher mit Regeln zur Detektion von Posen, eine Drahtlosschnittstelle zum Datenaustausch sowie ein Kar- tenmodul im Speicher, das Koordinaten zur Verfügung stellt, welche mit der Erfassung der Bewegungen der Person, der Verarbeitung der erfassten Bewegungserfassungssensordaten und/oder der Bewertung der
Bewegungen der Person jeweils auf Basis von im Speicher hinterlegten Regeln assoziiert sind. Die Daten- 7
24-Beispiel
Bereitstellung des Bewegungserfassungssensor und/oder mindestens eines der erwähnten Module ist als
Prozessknoten ausgebildet, der anderen Prozessknoten Daten über einen Datenkanal zur Verfügung stellt 1103344
[0010] Die erfinderische Teilaufgabe in diesem Beispiel ist die effiziente und zugleich auch robuste Aus- wertung der Bewegungen einer Person im Zeitablauf unter Einsparung von Berechnungsaufwand, bevor- zugt für einen mobilen Serviceroboter, indem ortsabhängige Regeln implementiert werden, die den Um- fans bestimmter, rechenintensiver Operationen auf definierte Operationsbereiche des mobilen Servicero- boters reduzieren.
[0011] Fine technische Lösung für dieses Problem wird durch Beschränkung der Berechnung auf be- stimmte räumliche Positionen des Serviceroboters beschrieben. Konkret wird durch ein computer-imple- mentiertes Verfahren zur Steuerung eines mobilen Serviceroboters realisiert, der Bewegungen einer Per- son überwacht, umfassend die Identifizierung einer Person am mobilen Serviceroboter auf Basis erkann- ter Muster innerhalb erfasster Sensordaten, die Assoziierung der 1dentifizierten Person mit einem hinter- legten Überwachungsprofil, die Erfassung der Person mittels eines Bewegungserfassungssensors, wäh- rend der mobile Serviceroboter einen Pfad zurücklest, die Generierung von Beobachtungspunkten für die erfasste Person, die Bewertung der erfassten Bewegungen der Person basierend auf den Beobachtungs- punkten, dem hinterlegten Überwachungsprofil und assoziierten Regeln, das Aufrufen von Positionsdaten als Koordinaten einer Karte, die mit Bestandteilen des Überwachungsprofils assoziiert sind sowie die au- tomatische Ausgabe von Hinweisen über eine Ausgabeeinheit des mobilen Serviceroboters an die erfasste und identifizierte Person, sobald der mobile Serviceroboter beim Zurücklegen seines Pfads eine definierte
Position oder einen Mindestabstand zu einer mit Regeln im Speicher assoziierten Position im Koordina- tensystem der Karte. Bei dieser Ausgabe handelt es sich bevorzugt nicht um ein Feedback zu einer Bewe- gungsanalyse. Weiter erfolgt die Ausgabe von Hinweisen innerhalb eines definierten Zeitintervalls ab Er- reichen des Mindestabstands zur assoziierten Position. Bei der Ausgabe handelt es sich um eine Sprach- ausgabe über einen Lautsprecher, eine Displayausgabe über ein Display und/oder eine Signalisierung ei- nes Leuchtelements. Die Personenerfassung und/oder die Sensordatengenerierung für die Erstellung des
Identifikationsprofils erfolgen durch den Bewegungserfassungssensor. Das Uberwachungsprofil ist bevor- zugt mit Bewertungsregeln zur Bewertung der Bewegungen der identifizierten Person assoziiert. Das
Überwachungsprofil ist mit mindestens zwei Positionen auf einer Karte zum Erreichen durch dem mobi- len Serviceroboter assoziiert. Zwischen den einzelnen Positionen auf der Karte erfolgt eine Pfadplanung durch das Pfadplanungsmodul des Serviceroboters. Bevorzugt handelt es sich bei einer der beiden Positi- onen um eine Startposition und bei der anderen Position um eine Wendeposition, bei dessen Erreichen der
Serviceroboter sich wieder zurück zur Startposition bewegt. Die im Rahmen des computer-implementier- ten Verfahrens umgesetzte Überwachung umfasst als Bestandteile vorzugsweise die Überwachung von
Bewegungen mittels eines Bewegungserfassungssensors und dabei optional die Überwachung von Vital- parametern mittels eines Vitaldatenerfassungssensors basierend auf im Speicher hinterlegten Regeln. Das erwähnte Überwachungsprofil wird bevorzugt über eine Schnittstelle auf dem mobilen Serviceroboter 8
24-Beispiel übertragen. Sofern neben der identifizierten Person mindestens eine weitere Person während des Absol- vierens eines Pfads durch den Bewegungserfassungssensor erfasst und enthalten die vom Bewegungs- LU103344 sensor generierten Sensordaten der mindestens einen weiteren erfassten Person ein Gesicht der erfassten
Person, dann wird bevorzugt dieses Gesicht getrackt und verblindet. Optional erfolgt zum Zweck des Ab- gleichs der aufgerufenen Positionsdaten der Karte mit der Position des Serviceroboters auf der Karte eine
Positionsermittlung des Serviceroboters über eine Odometneeinheit und/oder oder mittels eines Umfel- derfassungssensors, jeweils basierend auf einem ersten Koordinatensystem, und die Erfassung der Person durch einen Bewegungserfassungssensor mit einem zweiten Koordinatensystem, wobei die Auswertung der Bewegungen auf Basis von Koordinaten stattfindet, die innerhalb eines einheitlichen Koordinatensys- tems erfolgt auf Basis der Transformation der Koordinaten aus einem der beiden Koordinatensysteme in das jeweils andere Koordinatensystem oder auf Basis der Transformation der Koordinaten beider Koordi- natensysteme in ein einheitliches Koordinatensystem. Von der erfassten Person wird eine repetitive Bewe- gung mittels im Speicher hinterlegter Regeln im Zeitablauf erfasst, beginnend mit einer initialen Pose, intermediären Posen, sowie einer finalen Pose, die jeweils mindestens durch ein Subset an Beobachtungs- punkten definiert werden, und wobei die finale Pose wiederum als Startpose für die nächste repetitive Be- wegung dient. Je nach Art der zu erfassenden und auszuwertenden repetitiven Bewegung erfolgt die Be- wertung der repetitiven Bewegung durch die Ermittlung des Abstands mindestens zweier Beobachtungs- punkte und/oder an einem Bewertungspunkt, der durch Auswertung des Zeitverlaufs der Posen der Person innerhalb der repetitiven Bewegung und Vergleich mit im Speicher 2 hinterlegten Bewertungsregeln er- mittelt wird. Diese Bewertungsregeln, die mit der identifizierten Person assoziiert sind, werden bevor- zugt über eine Drahtlosschnittstelle getriggert, wenn sie auf dem Serviceroboter abgespeichert sind, ins- besondere durch Assoziation des Überwachungsprofils mit dem Bewertungsregeln, wobei das Überwa- chungsprofil wiederum mit der zu überwachenden Person assoziiert ist. Ferner werden die Bewertungsre- geln bevorzugt über eine Drahtlosschnittstelle dem mobilen Serviceroboter zur Verfügung gestellt. Die
Erfassung der Bewegungen der Person und/oder die mit der identifizierten Person assoziierten Bewer- tungsregeln im Überwachungsprofil sind bevorzugt mit Positionen in einem Koordinatensystem einer
Karte assoziiert, an denen eine Personenerfassung zum Zweck der Bewertung erfasster Posen der Person vorgenommen wird. Beim Bewegungserfassungssensor handelt es sich z.B. um eine 2D oder 3D-Kamera) einen Radarsensor, oder eine Kombination, wobei bei einer Kombination eine Sensordatenfusion erfolgt.
Im Rahmen des hier beschriebenen computer-implementierten Verfahrens erfolgt die Bereitstellung er- fasster Bewegungsdaten, Personenidentifizierungsdaten, Beobachtungspunkte, Beobachtungspunkte-Be- wertungen, Pfadplanungsdaten, Kartendaten und/oder Ausgabedaten bevorzugt mindestens anteilig über einen Prozessknoten und mittels eines Datenkanals. Die technische Lösung umfasst ferner eine Vorrich- tung zur Durchführung des Verfahrens hier beschriebenen Verfahrens, bspw. einen mobilen Servicerobo- ter. Weiterhin umfasst die technische Lösung auch ein System umfassend eine Recheneinheit und einen
Speicher, einen Bewegungserfassungssensor zur Erfassung der Bewegung einer Person, ein Perso- nenidentifizierungsmodul im Speicher zur Identifizierung einer Person auf Basis erkannter Muster inner- halb erfasster Sensordaten, ein im Speicher hinterlegtes Überwachungsprofil der Person, das mit Regeln 9
24-Beispiel zur Bewertung der Bewegungen der erfassten Person assoziiert ist oder diese Regeln beinhaltet, ein Be- obachtungspunkte-Modell-Generierungsmodul im Speicher zur Generierung von Beobachtungspunkten LU103344 für die erfasste Person durch die Recheneinheit und im Speicher hinterlegter Regeln, ein Beobachtungs- punkt-Bewertungsmodul im Speicher mit Regeln zur Bewertung mindestens einer Bewegung auf Basis des Uberwachungsprofils aus dem Speicher unter Zuhilfenahme einer Recheneinheit, ein Kartenmodul im
Speicher mit Koordinaten, die mindestens anteilig mit dem Uberwachungsprofil assoziiert ist, ein
Pfadplanungsmodul im Speicher zur Planung der Bewegung des mobilen Serviceroboters entlang eines
Pfads mittels Koordinaten aus dem Kartenmodul (das z.B. Daten zu Zielpositionen und stationären Hin- dernissen aufzeigt) mittels einer Recheneinheit, ein Ausgabemodul im Speicher mit Hinweisen für die er- fasste Person zur Ausgabe der Hinweise über eine Ausgabeeinheit, mit im Speicher hinterlegten Regeln zum Trigger einer Ausgabe an die erfasste Person mittels Ausgabemodul und Ausgabeeinheit, wobei die
Regeln mit Positionen der im Kartenmodul hinterlegten Karte assoziiert sind und optional automatisiert die Ausgabe triggern, wenn der Serviceroboter eine definierte Position auf der Karte erreicht. Bei dieser
Ausgabe handelt es sich bevorzugt nicht um ein Feedback zu einer Bewegungsanalyse. Die Ausgabe an die erfasste Person mittels Ausgabemodul und Ausgabeeinheit ist mit Regeln aus dem sich im Speicher befindlichen Uberwachungsprofil assoziiert. Weiterhin verfügt das System bevorzugt über ein Anonymi- sierungsmodul zum Verblinden von vom Bewegungserfassungssensor erfassten Daten eines Gesichts ei- ner weiteren Person. Das System verfügt zudem über eine Drahtlosschnittstelle konfiguriert zur Übertra- gung eines Überwachungsprofils der Person. Die Bereitstellung von Daten des Bewegungserfassungs- sensors erfolgt bevorzugt mindestens anteilig über einen Prozessknoten und einen Datenkanal. Die ge- nannten Module des Systems sind bevorzugt innerhalb eines oder mehrerer Prozessknoten implementiert und stellen einem anderen Prozessknoten Daten mittels eines Datenkanals zur Verfügung. Zudem erfolgt die Datenbereitstellung des Bewegungserfassungssensors bevorzugt mittels eines Prozessknotens.
[0012] Die erfinderische Teilaufgabe in einem Aspekt die effiziente Ausgabe von Feedback eines Sys- tems zur Erfassung der Bewegungen einer Person, bevorzugt eines Serviceroboters, um eine Mensch-Ma- schine-Interaktion während einer Übung mit einem mobilen Serviceroboter nutzerfreundlich zu gestalten.
[0013] Dies wird realisiert durch die nachfolgende Darstellung, bei der die Inhalte mehrerer Zeitinter- valle abweichend sind von Inhalten anderer, gleich bezeichneter Zeitintervalle an anderen Stellen in die- sem Dokument, insbesondere das dritte und fortfolgende Zeitintervalle. Die technische Lösung umfasst ein computer-implementiertes Verfahren zur Erfassung und Bewertung von Bewegungen einer Person im
Zeitablauf und zur Generierung von Feedback an die Person, umfassend die Erfassung der Bewegungen einer Person mittels eines Bewegungserfassungssensors, die Generierung eines Beobachtungspunkte-Mo- dells von Beobachtungspunkten für die erfasste Person, die Bewertung der erfassten Bewegungen hin- sichtlich definierter Bewegungsabweichungen auf Basis von Beobachtungspunkten des Beobachtungs- punkte-Modells und/oder daraus abgeleiteten Bewertungspunkten und zu diesen im Speicher hinterlegten
Regeln in einem ersten Zeitintervall, was auch die folgenden Verfahrensschritte umfasst: die Ermittlung 10
24-Beispiel von Schritten aus der Bewertung des Bewegungsablaufs während des ersten Zeitintervalls; (Auf)summie- rung der Schritte und Vergleich der (auf)summierten Schritte mit einem Schwellwert; das Beenden des LU103344 ersten Zeitinterfalls, wenn die (auf)summierten Schritte den Schwellwert erreicht haben; die Ermittlung von Bewegungs- und/oder Posenabweichungen im ersten Zeitintervall; sowie die Ausgabe von Feedback an die Person in einem zweiten Zeitintervall basierend auf den ermittelten Bewegungs- und/oder Posenab- weichungen. Bevorzugt erfolgt nach Ermittlung von Bewegungs- und/oder Posenabweichungen im ersten
Zeitintervall eine Prionsierung der Bewegungs- und/oder Posenabweichungen erfolgt und die Ausgabe von Feedback an die Person zur am höchsten prionsierten Bewegungs- und/oder Posenabweichung im zweiten Zeitintervall. Weiter umfasst das Verfahren die Erfassung der Bewegungen einer Person mittels eines Bewegungserfassungssensors, die Generierung eines Beobachtungspunkte-Modells von Beobach- tungspunkten für die erfasste Person, die Bewertung der erfassten Bewegungen hinsichtlich definierter
Bewegungsabweichungen auf Basis von Beobachtungspunkten des Beobachtungspunkte-Modells und/oder daraus abgeleiteten Bewertungspunkten und zu diesen im Speicher hinterlegten Regeln in einem dritten Zeitintervall, was auch die folgenden Verfahrensschritte umfasst: Ermittlung von Schritten aus der
Bewertung des Bewegungsablaufs während des dntten Zeitintervalls, Summierung der Schritte und Ver- gleich der Schritte mit einem Schwellwert, und Beenden des dritten Zeitinterfalls, wenn die aufsummier- ten Schritte den Schwellwert erreicht haben. Das Verfahren umfasst weiter: Ausgabe von Feedback an die
Person mit Bezug zu einer im dritten Zeitintervall detektierten Bewegungs- und/oder Posenabweichung in einem vierten Zeitintervall, wobei es sich bei der Bewegungs- und/oder Posenabweichung um die im ers- ten Zeitintervall am höchsten priorisierte Abweichung handelt, sowie die Ausgabe von Feedback in einem vierten Zeitintervall basierend auf mit im dritten Zeitintervall detektierten Bewegungs- und/oder Posenab- weichungen. Diese Verfahrensschritte werden, in Abhängigkeit der auszuwertenden Bewegungen, inner- halb eines in einem Uberwachungsprofil definierten Zeitfensters mehrmals durchlaufen. Es gibt bevor- zugt weiterhin ein finales Zeitintervall, welches nach Abschluss der Erfassung der Bewegungen der Per- son die Ausgabe von in vorangegangenen Zeitintervallen erfasste Bewegungsabweichungen und/oder in vorangegangenen Zeitintervallen ausgegebenes Feedback über eine Ausgabeeinheit umfasst. Dieses finale
Zeitintervall erfolgt bevorzugt nach mehreren Zeitintervallen, in denen die Person beobachtet wurde und in denen sie, basierend auf den ausgewerteten Beobachtungen, ein Feedback zu der ausgewerteten Be- obachtung erhalten hat. In einem Aspekt erfolgt das finale Zeitintervall, wenn sich der Serviceroboter auf einer Position verharrt, bspw. auf der Startposition, wenn er zu dieser nach Absolvieren der Wegstrecke zurückgekehrt ist. Bei den ausgegebenen Bewegungsabweichungen und/oder dem ausgegebenen Feed- back handelt es sich um über mindestens ein Zeitintervall aggregierte Bewegungsabweichungen und/oder
Feedback, bspw. als statistische Auswertung in Form von Tabellen oder Grafiken. Die zu erfassenden Be- wegungsabweichungen, die zu erfassenden Bewegungen und/oder Posen und/oder die Zeitdauer der Er- fassung der Bewegungsabweichungen sind in einen Uberwachungsprofil gespeichert oder mit diesem as- soziiert, wobei das Uberwachungsprofil iiber eine Drahtlosschnittstelle zur Verfiigung gestellt wird. In einem Aspekt ist das dritte Zeitintervall kürzer ist als das erste Zeitintervall. In einer bevorzugten Ausfüh- rungsform sind Koordinaten zur Durchführung mindestens eines der vorangenannten Schritte im 11
24-Beispiel
Überwachungsprofil hinterlegt oder mit diesem assoziiert und ein automatisiertes Triggern der Erfassung der Bewegung der Person erfolgt, wenn ein Vergleich der im Überwachungsprofil hinterlegten oder mit LU103344 diesem assoziierten Koordinaten mittels Sensorik (bspw. mittels mindestens einem Umfelderfassungs- sensor und/oder mittels einer Odometrieeinheit) ermittelten Koordinaten auf einer Karte ein Erreichen dieser Koordinaten ergibt. Assoziiert heißt in diesem Kontext, dass im Uberwachungsprofil z.B. eine
Übung definiert ist und über diese Übung wiederum auf einem System, welches die Übung überwacht, dafür ein Areal definiert wurde, wo diese Übung durchgeführt werden soll. Die Verarbeitung der Daten zur Generierung von Beobachtungspunkten und die Bewegungsauswertung erfolgt bevorzugt innerhalb von Prozessknoten, die ihre Ausgangsdaten bspw. wiederum anderen Prozessknoten zur Verfügung stel- len. Neben diesen Verfahrensschritten ist auch eine Vorrichtung zur Durchführung des zuvor beschriebe- nen computer- implementiertes Verfahren umfasst, bspw. einen mobile Serviceroboter.
[0014] Die erfinderische Teilaufgabe ist die effiziente und komplexitätsreduzierende Datenverarbeitung von erfassten Bewegungsdaten einer Person zur Ausgabe von idealerweise Echtzeitfeedback, wobei die
Datenverarbeitung auf einem mobilen Serviceroboter oder einem mobilen Endgerät erfolgen soll. Da die
Datenverarbeitung eine Vielzahl von Anwendungen adressieren können soll, muss die Systemarchitektur dahinter dies entsprechend abbilden können. Dazu soll ein Update des Systems über eine Drahtlosschnitt- stelle und perspektivisch das Internet möglich sein. Letzteres führt darauf hinaus, eine modulare Architek- tur zu haben, welche auf Modulebene aktualisiert werden kann, womit auch das für die Aktualisierung notwendige Datenvolumen begrenzt werden kann. Dies führt im Nebeneffekt auch zu einem geringeren
Speicherbedarf der mit der Datenverarbeitung assoziierten Algorithmen.
[0015] Eine technische Lösung für das Problem ist ein computer-implementiertes Verfahren zur Erfas- sung und Bewertung von Bewegungen einer Person, umfassend die Erfassung einer Person mittels eines
Bewegungserfassungssensors, die Generierung eines Beobachtungspunkte-Modells von Beobachtungs- punkten für die erfasste Person mittels Musterauswertung und im Speicher hinterlegter Regeln und Zu- weisung von Koordinaten zu den Beobachtungspunkten des Beobachtungspunkte-Modells mittels eines
Beobachtungspunkte-Modell-Generierungsmoduls, Ermittlung von Posen mittels eines Posen-Ermitt- lungsmoduls auf Basis der Beobachtungspunkte aus dem Beobachtungspunkte-Modell und Bewertung der Beobachtungspunkte mittels eines Beobachtungspunkte-Bewertungsmoduls, wobei der Bewegungser- fassungssensor Daten mittels eines Prozessknotens über mindestens einen Datenkanal mindestens einem anderen Prozessknoten zur Verfügung stellt und/oder von mindestens einem anderen Prozessknoten emp- fängt. Das Posen-Ermittlungsmodul und/oder das Beobachtungspunkte-Bewertungsmodul stellen einzeln oder in Kombination einen Prozessknoten dar, der bzw. die Daten über mindestens einen Datenkanal min- destens einem anderen Prozessknoten zur Verfügung stellt/stellen und/oder Daten von mindestens einem anderen Prozessknoten empfängt/empfangen. Die Erfassung und/oder Bewertung von Bewegungen der
Person wird bevorzugt automatisch durchgeführt, wenn eine bestimmte Position auf einer Karte erreicht wird und sich die Person im Erfassungsbereich des Bewegungserfassungssensors befindet. Das System 12
24-Beispiel umfasst weiter bevorzugt eine Ausgabe von Feedback an die erfasste Person basierend auf der Bewertung der Beobachtungspunkte. Bevorzugt vor der Erfassung der Person mittels des Bewegungserfassungs- LU103344 sensors erfolgt eine Identifizierung der erfassten Person auf Basis fiir die Person mittels hinterlegter Mus- ter durch ein Personenidentifizierungsmodul und/oder ein Personen-Re-Identifizierungsmodul zur Re-
Identifizierung der Person während der Erfassung durch den Personenerfassungssensor mittels im Spei- cher hinterlegter Muster. In diesem Fall wird für die erfasste und identifizierte Person ein Überwachungs- profil vorgehalten, dass mit im Speicher hinterlegten Regeln zur Bewertung der Bewegungen der 1dentifi- zierten Person durch das Beobachtungspunkte-Bewertungsmoduls assoziiert ist. Das Beobachtungs- punkte-Bewertungsmodul wertet bevorzugt mehrere Beobachtungspunkte gemeinsam aus. Die von einem
Prozessknoten generierten Daten stellen bevorzugt Zeitsignale und/oder Messreihen dar. Fin Datenkanal ist bevorzugt für eine asynchrone Datenkommunikation ausgelegt. Die Daten, die einem Datenkanal zur
Verfügung gestellt werden, weisen bevorzugt einen TCP/IP- oder UDP-Header auf. Alternativ und/oder ergänzend erfolgt das Bereitstellen und/oder Empfangen von Daten zwischen mindestens zwei Prozess- knoten mittels shared memory oder Remote Procedure Calls. Eine asynchrone Datenkommunikation stellt in einem Aspekt das zeitversetzte Schreiben von Daten in die Datenkanäle durch einen Prozessknoten dar, während mindestens ein weiterer Prozessknoten (zugleich oder zeitversetzt) Daten des Datenkanals aus- liest. Die erwähnten Beobachtungspunkte sind bevorzugt mit (Raum-)koordinaten assoziiert. Dine Daten- übermittlung vom Bewegungserfassungssensor an das Beobachtungspunkte-Modell-Generierungsmodul, vom Beobachtungspunkte-Modell-Generierungsmodul an das Posen-Ermittlungsmodul und/oder vom Po- sen-Ermittlungsmodul an das Beobachtungspunkte-Bewertungsmodul erfolgt bevorzugt durch Daten, die einen TCP/IP- oder UDP-Header aufweisen. Die Erfassung der Person durch den Bewegungserfassungs- sensor, das Beobachtungspunkte-Modell-Generierungsmodul, das Posen-Ermittlungsmodul, das Beobach- tungspunkte-Bewertungsmodul und/oder Kombinationen daraus werden bevorzugt durch eine Zustands- maschine als ein Zustand aufgerufen. Bevorzugt ist die Erfassung und/oder Bewertung von Bewegungen der Person mit mindestens einer Position auf einer Karte assoziiert. Hierbei wird ein Zustand einer Zu- standsmaschine durch mindestens einen Prozessknoten basierend auf Koordinaten aufgerufen, wobei die
Koordinaten mit einer Karte des Kartenmoduls assoziiert sind. Die technische Lösung umfasst ferner eine
Vorrichtung zur Durchführung des beschriebenen, computer-implementierten Verfahrens, wobei es sich in einem Aspekt bei der Vorrichtung um einen mobilen (Service)roboter handelt. In einem Ausführungsform erfolgt die Erfassung und/oder Bewertung von Bewegungen der Person automatisch, wenn der mobile (Service)roboter die mindestens eine mit der Karte assoziierte Position erreicht. Die technische Lösung umfasst ferner ein System zur Erfassung und Bewertung von Bewegungen einer Person, mit einer Re- cheneinheit und einem Speicher, einen Bewegungserfassungssensor zur Erfassung der Bewegungen einer
Person, und im Speicher ein Beobachtungspunkte-Modell-Generierungsmodul zur Generierung eines Be- obachtungspunkte-Modells von Beobachtungspunkten für die erfasste Person mittels Musterauswertung und im Speicher hinterlegter Regeln und Zuweisung von (Raum-)koordinaten zu den Beobachtungspunk- ten des Beobachtungspunkte-Modells, ein Posen-Ermittlungsmodul, sowie ein Beobachtungspunkte-Be- wertungsmodul, wobei das Posen-Ermittlungsmodul zur Ermittlung von Posen auf Basis der 13
24-Beispiel
Beobachtungspunkte aus dem Beobachtungspunkte-Modell sowie das Beobachtungspunkte-Bewertungs- modul zur Bewertung der Beobachtungspunkte, wobei der Bewegungserfassungssensor Daten mittels eit 1103344 nes Prozessknotens über mindestens einen Datenkanal mindestens einem anderen Prozessknoten zur Ver- fügung stellt und/oder Daten von mindestens einem anderen Prozessknoten empfängt. Das Posen-Ermitt- lungsmodul und/oder das Beobachtungspunkte-Bewertungsmodul stellen einzeln oder in Kombination einen Prozessknoten dar, der oder die Daten über mindestens einen Datenkanal mindestens einem anderen
Prozessknoten zur Verfügung stellt bzw. stellen en und/oder Daten von mindestens einem anderen Pro- zessknoten empfängt/empfangen. Hierbei weisen die Daten des mindestens einen Prozessknotens, die ei- nem Datenkanal zur Verfügung gestellt werden, bevorzugt einen TCP/IP- Header auf. Die Daten, die ein
Beobachtungspunkte-Modell-Generierungsmodul als Prozessknoten über einen Datenkanal zur Verfügung stellt, umfassen mindestens anteilig ein Beobachtungspunkte-Modell auf Basis von mindestens zwei Be- obachtungspunkten. Die Daten, die ein Posen-Ermittlungsmodul als Prozessknoten über einen Datenkanal zur Verfügung stellt, stellen Posen oder aus von diesen abgeleiteten Größen bevorzugt als Zeitsignale dar.
Ein Prozessknoten, der ein Beobachtungspunkte-Bewertungsmodul darstellt, stellt bevorzugt bewertete
Bewegungsdaten als Zeitsignale dar. Das System umfasst weiter im Speicher eine Zustandsmaschine, de- ren Zustände durch Daten, die mittels des Beobachtungspunkte-Modell-Generierungsmoduls, des Posen-
Ermittlungsmoduls, sowie des Beobachtungspunkte-Bewertungsmoduls als einen oder mehrere Prozess- knoten aufgerufen werden. Die Erfassung und/oder Bewertung von Bewegungen der Person durch den
Bewegungserfassungssensor und das Beobachtungspunkte-Bewertungsmodul wird bevorzugt automatisch durchgeführt, wenn das System eine mit einer Karte aus dem Kartenmodul assoziierte Position erreicht und sich die Person bevorzugt auch im Erfassungsbereich des Bewegungserfassungssensors befindet. Das
System umfasst weiter bevorzugt ein Feedback-Generierungsmodul zur Generierung von Feedback basie- rend auf der Bewertung der Beobachtungspunkte durch das Beobachtungspunkte-Bewertungsmodul und eine Ausgabeeinheit zur Ausgabe des generierten Feedbacks an die erfasste Person. Weiter verfügt das
System über ein Personenidentifizierungsmodul zur Identifizierung der Person vor Erfassung durch den
Bewegungserfassungssensor mittels im Speicher hinterlegter Muster und/oder einer Re-Identifizierung der Person während der Erfassung durch den Personenerfassungssensor mittels hinterlegter Muster durch ein Personen-Re-Identifizierungsmodul.
[0016] Die erfinderische Teilaufgabe in diesem Beispiel ist die effiziente und komplexitätsreduzierte Da- tenverarbeitung von erfassten Bewegungsdaten einer Person bevorzugt auf einem mobilen Serviceroboter oder einem mobilen Endgerät. Da die Datenverarbeitung eine Vielzahl von Anwendungen adressieren können soll, muss die Systemarchitektur dahinter dies entsprechend abbilden können. Dazu soll ein Up- date des Systems über eine Drahtlosschnittstelle und perspektivisch das Internet möglich sein. Letzteres führt darauf hinaus, eine modulare Architektur zu haben, welche auf Modulebene aktualisiert werden kann, womit auch das für die Aktualisierung notwendige Datenvolumen begrenzt werden kann. Dies führt im Nebeneffekt auch zu einem geringeren Speicherbedarf. 14
24-Beispiel
[0017] Eine Lösung des technischen Problems wird insbesondere durch die Nutzung von Prozessknoten zur verteilten Datenverarbeitung und Reduktion der Code-Komplexität realisiert. Die Lösung umfasst ein 09344 computer-implementiertes Verfahren zur Erfassung und Bewertung von Bewegungen einer Person, wobei die Bewertung von Bewegungen einer Person innerhalb mindestens eines Prozessknotens erfolgt, umfas- send die Erfassung einer Person mittels eines Bewegungserfassungssensors, die Generierung eines Be- obachtungspunkte-Modells von Beobachtungspunkten für die erfasste Person mittels Musterauswertung und im Speicher hinterlegter Regeln und Zuweisung von Koordinaten zu den Beobachtungspunkten des
Beobachtungspunkte-Modells mittels eines Beobachtungspunkte-Modell-Generierungsmoduls und die
Bewertung der Bewegungen der Person auf Basis mindestens eines Anteils der generierten Beobachtungs- punkte durch Regeln mittels eines Beobachtungspunkte-Bewertungsmoduls, wobei das Beobachtungs- punkte-Bewertungsmodul ganz oder anteilig einen Prozessknoten darstellt, der mit mindestens einem weiteren Prozessknoten direkt oder indirekt zum Austausch von Daten verbunden ist. Das Verfahren um- fasst weiter bevorzugt die Ausgabe von Hinweisen oder Feedback zur ausgewerteten Bewegung der Per- son, wobei Hinweise bzw. Feedback durch einen Zustand einer Zustandsmaschine mittels Daten eines
Prozessknotens, die über einen Datenkanal zur Verfügung gestellt werden, getriggert wird. Alternativ und/oder ergänzend erfolgt die Bewertung von Bewegungen einer Person innerhalb mindestens eines Pro- zessknotens, umfassend die Erfassung einer Person mittels eines Bewegungserfassungssensors, die Gene- rierung eines Beobachtungspunkte-Modells von Beobachtungspunkten für die erfasste Person mittels
Musterauswertung und im Speicher hinterlegter Regeln und Zuweisung von Koordinaten zu den Be- obachtungspunkten des Beobachtungspunkte-Modells mittels eines Beobachtungspunkte-Modell-Gene- rierungsmoduls, die Bewertung der Bewegungen der Person auf Basis mindestens eines Anteils der gene- rierten Beobachtungspunkte durch Regeln mittels eines Beobachtungspunkte-Bewertungsmoduls, und die
Generierung von Feedback mittels eines Feedback-Generierungsmoduls und dessen Ausgabe über ein
Ausgabemodul und eine Ausgabeeinheit, wobei das Feedback-Generierungsmodul und das Ausgabemo- dul eine Zustandsmaschine innerhalb eines Prozessknotens enthalten, und wobei die Zustandsmaschine mindestens ein Feedback triggert. Der weitere Prozessknoten umfasst ein Ausgabemodul, dass durch die
Zustandsmaschine beim Erreichen einer Position des Serviceroboters auf einer Karte, die im Speicher hinterlegt ist, aufgerufen wird. Für die erfasste und identifizierte Person wird ein Überwachungsprofil vorgehalten, dass mit im Speicher hinterlegten Regeln zur Bewertung der Bewegungen der identifizierten
Person durch das Beobachtungspunkte-Bewertungsmoduls assoziiert ist. Die Daten, die dem Datenkanal zur Verfügung gestellt werden, weisen bevorzugt einen TCP/IP- oder UDP-Header auf. Das Senden und/oder Empfangen von Daten zwischen mindestens zwei Prozessknoten erfolgt alternativ durch das Be- reitstellen der Daten in einem shared memory oder mittels remote procedure calls. Die Datenkanäle und die Prozessknoten sind bevorzugt für eine asynchrone Datenkommunikation ausgelegt, was das zeitver- setzte Schreiben oder Lesen von Daten in die Datenkanäle durch bzw. für einen oder mehrere Prozesskno- ten impliziert. Die technische Lösung umfasst ebenfalls eine Vorrichtung zur Durchführung des beschrie- benen, computer-implementierten Verfahrens, wobei es sich in einem Aspekt bei der Vorrichtung um ei- nen Serviceroboter handelt. Weiter umfasst die technische Lösung auch ein System zur Erfassung und 15
24-Beispiel
Bewertung von Bewegungen einer Person, umfassend eine Recheneinheit und einen Speicher, einen Be- wegungserfassungssensor zur Erfassung der Bewegungen einer Person, ein Beobachtungspunkte-Modell 09344
Generierungsmodul im Speicher zur Generierung von eines Beobachtungspunkte-Modells von Beobach- tungspunkten für die erfasste Person mittels Musterauswertung durch die Recheneinheit und im Speicher hinterlegter Regeln und Zuweisung von Koordinaten zu den Beobachtungspunkten des Beobachtungs- punkte-Modells durch die Recheneinheit, ein Beobachtungspunkte-Bewertungsmoduls im Speicher zur
Bewertung eines Anteils der generierten Beobachtungspunkte mittels der Recheneinheit durch Regeln, wobei die Regeln in mindestens einem Prozessknoten hinterlegt sind und mehrere Prozessknoten über ei- nen Datenkanal mit mindestens einem weiteren Prozessknoten direkt oder indirekt zum Austausch von
Daten verbunden sind. Weiter umfasst das System bevorzugt einen weiteren Prozessknoten, der ein Aus- gabemodul umfasst zur Ausgabe von Hinweisen oder Feedback zur ausgewerteten Bewegung der Person über eine Ausgabeeinheit, sowie mindestens eine Zustandsmaschine im Speicher, die den Prozessknoten mit dem Ausgabemodul triggert durch Daten, die über einen Datenkanal der Zustandsmaschine von einem
Prozessknoten zur Verfügung gestellt werden. Weiterhin umfasst das System ein Feedback-Generierungs- modul zur Generierung von Feedback mittels eines Ausgabemodul über eine Ausgabeeinheit, wobei das
Feedback-Generierungsmodul und das Ausgabemodul eine Zustandsmaschine innerhalb eines Prozess- knotens enthalten, und wobei die Zustandsmaschine mindestens ein Feedback triggert. Das System um- fasst weiter ein im Speicher hinterlegtes Überwachungsprofil für die erfasste und identifizierte Person, dass mit im Speicher hinterlegten Regeln zur Bewertung der Bewegungen der identifizierten Person durch das Beobachtungspunkte-Bewertungsmoduls assoziiert ist und das über eine Drahtlosschnittstelle übertra- gen werden kann. Der Datenkanal ermöglicht eine asynchrone Datenkommunikation und der mindestens ein Prozessknoten eine asynchrone Datenverarbeitung. Das Beobachtungspunkte-Bewertungsmodul ist bevorzugt ganz oder anteilig innerhalb eines Prozessknotens realisiert wie auch das Beobachtungspunkte-
Bewertungsmodul, das Bewertungspunkt-Ermittlungsmodul und das Posen-Ermittlungsmodul. Die Daten, die als Ergebnis einer Datenverarbeitung eines Prozessknotens generiert werden, rufen bevorzugt Zu- stände einer Zustandsmaschine auf. Die Daten, die dem Datenkanal zur Verfügung gestellt werden, wei- sen bevorzugt einen TCP/IP- Header auf. In einer Ausführungsvariante ist ein computer-implementiertes
Verfahren zur Erfassung und Bewertung von Bewegungen einer Person mit mindestens einer Zustands- maschine implementiert, umfassend die Erfassung einer Eingabe über eine Eingabeeinheit wie bspw. ein
Display; Trigger der Erfassung einer Person mittels eines Bewegungserfassungssensors, der als Prozess- knoten Daten anderen Prozessknoten über einen Datenkanal zur Verfügung stellt, mittels einer Zustands- maschine und auf Basıs der Erfassung der Eingabe; Auswertung der Bewegungsdaten der vom Bewe- gungserfassungssensor erfassten und über einen Datenkanal zur Verfügung gestellten Daten in mindestens einem weiteren Prozessknoten wie bspw. ein Beobachtungspunkte-Modell-Generierungsmodul; Bewer- tung der vom Bewegungserfassungssensor im mindestens einen weiteren Prozessknoten ausgewerteten
Bewegungsdaten innerhalb eines mindestens eines weiteren Prozessknotens, der diese Daten über einen
Datenkanal zur Verfügung gestellt bekommt, sowie Triggern, in Abhängigkeit vom Bewertungsergebnis des mindestens einen letztgenannten Prozessknotens eines Ausgabemoduls zur Ausgabe von Feedback zu 16
24-Beispiel einer bewerteten Bewegung, wobei das Triggern über eine Zustandsmaschine erfolgt. In einem Aspekt wird die Zustandsmaschine durch über mindestens einen Datenkanal zur Verfügung gestellte Daten ge- LU103344 triggert, welche durch mindestens einen Prozessknoten generiert werden. Zugleich ist auch eine Vorrich- tung zur Durchfithrung dieses Verfahrens umfasst. Dariiber hinaus ist dies in einem System implemen- tiert, mit einer Zustandsmaschine zum Triggern von mehreren Prozessknoten, mit einer Emgabeeinheit zur Erfassung einer Eingabe, die wiederum die Zustandsmaschine triggert, einem Bewegungserfassungs- sensor, der als Prozessknoten anderen Prozessknoten Daten über einen Datenkanal zur Verfügung stellt, mindestens einen weiteren Prozessknoten, der ein Bewegungserfassungsdatenverarbeitungsmodul bein- haltet, und einer Ausgabemodul, das aufgrund des Triggers der Zustandsmaschine auf Basis von Daten des Bewegungserfassungsdatenverarbeitungsmoduls eine Ausgabe tätigt.
[0018] In einem Aspekt ist die erfindungsgemäße Teilaufgabe, einen Serviceroboter so konfiguriert, dass er eine ressourceneffiziente Betriebszeitplanung umsetzt, um die Betriebsdauer des Serviceroboters zu maximieren. Dazu minimiert der Serviceroboter seine Fahrzeiten und die damit verbundene Wegstrecke, was auch wiederum zu weniger Verschleiß bspw. an den Räder führt.
[0019] Diese Teilaufgabe wurde wie folgt gelöst: Sie umfasst ein computer-implementiertes Verfahren zur Pfadplanung eines mobilen Serviceroboters, umfassend einen Abruf eines Überwachungsprofils zur
Überwachung einer Person aus einem Speicher. Aus diesem Überwachungsprofil wird eine Zeitdauer aus- gelesen, über die der Serviceroboter mit der Person eine Wegstrecke zurücklegen und/oder die Person überwachen soll. Es erfolgt eine Bewegung des Serviceroboters, bevorzugt zusammen mit der Person, über eine Wegstrecke zwischen einer Startposition und einer Wendeposition, wobei der Serviceroboter an der Wendeposition eine Wende ausführt. Es erfolgt eine Festlegung einer neuen Wendeposition, an der der
Serviceroboter einen Richtungswechsel vornimmt und sich zu einer hinterlegten Position bewegt. Es gibt nun mindestens zwei verschiedene Ausführungsformen zur Festlegung der neuen Wendeposition.
[0020] In der ersten Ausführungsform erfolgt vor Festlegung der neuen Wendeposition eine Ermittlung der Durchschnittsgeschwindigkeit des Serviceroboters oder der Person während des Zurücklegens der
Wegstrecke, eine Ermittlung der verbleibenden Distanz, nach der bei der ermittelten Durchschnittsge- schwindigkeit innerhalb der ausgelesenen Zeitdauer das Abfahren der Wegstrecke beendet werden soll, sowie eine Ermittlung einer Restdistanz. Die Ermittlung einer Restdistanz erfolgt bevorzugt als Differenz aus der offenen Distanz und ganzzahligen Vielfachen der Distanz zwischen einer Startposition und der
Wendeposition und bei der Festlegung einer neuen Wendeposition, an der der Serviceroboter einen Rich- tungswechsel vornimmt und sich zu einer hinterlegten Position bewegt, die Distanz zwischen der Startpo- sition und der neuen Wendeposition bevorzugt in etwa der halben Restdistanz entspricht. Die erwähnte
Durchschnittsgeschwindigkeit wird bevorzugt nach 50% oder mehr von der Zeit ermittelt, die im Über- wachungsprofil hinterlegt ist, gemessen seit Beginn des Absolvierens der Wegstrecke mit der Person.
[0021] In der zweiten Ausführungsform findet vor Festlegung der neuen Wendeposition eine Ermittlung der bereits verstrichenen Zeit des Absolvierens der Wegstrecke und/oder des Überwachens der Person, eine Ermittlung der Bewegungsrichtung des Serviceroboters, eine Ermittlung der Differenz aus 17
24-Beispiel ausgelesener Zeitdauer und der bereits verstrichenen Zeitdauer, und ein Triggern einer Aktion bei Unter- schreitung des Zeitschwellwerts statt. Bevorzugt löst das Triggern als Aktion, wenn der Serviceroboter LU103344 sich auf dem Weg zu seiner Startposition befindet, das Beenden des Absolvierens der Wegstrecke bzw. der Überwachung der Person aus, wenn der Serviceroboter erneut die Startposition erreicht hat. Weiterhin löst das Triggern bevorzugt dann, wenn der Serviceroboter sich auf dem Weg zur Wendeposition befindet, das Setzen einer neuen Wendeposition aus, die dichter an der Startposition liegt als die ursprüngliche
Wendeposition.
[0022] Unabhängig von diesen mindestens zwei Ausführungsformen soll bevorzugt nach der Zeitdauer aus dem Überwachungsprofil das Zurücklegen eines Pfads mit der Person beendet sein. Weiterhin pendelt der Serviceroboter in einer bevorzugten Ausführungsform, je nach ausgelesener Zeitdauer und Distanz zwischen Startposition und Wendeposition, zwischen diesen beiden Positionen hin- und her. Zudem führt der Serviceroboter bevorzugt die Wende an der Wendeposition aus, wenn die ermittelte Zeitdifferenz aus ausgelesener Zeitdauer und bereits verstrichener Zeitdauer über dem Schwellwert liegt. Weiter erfolgt be- vorzugt während des Zurücklegens der Wegstrecke eine Erfassung der Person durch mindestens einen
Sensor zu Überwachungszwecken. Die technische Lösung umfasst weiter, in einer bevorzugten Ausfüh- rungsform, nach Erfassung der Person die Ermittlung des Abstands des Serviceroboters zur Person, die sich vor dem Serviceroboter vorausbewegt oder dem Serviceroboter folgt, während der Serviceroboter die
Wegstrecke zurücklegt, sowie das Einhalten eines Abstandsintervalls oder in etwa konstanten Abstands des Serviceroboters zur Person. Bevorzugt liegt das Abstandsintervall oder der in etwa konstante Abstand des Serviceroboters zur Person zwischen 60 cm und 5,5 m. Bevorzugt findet das Absolvieren einer Weg- strecke zwischen mindestens zwei Wegpunkten statt, deren Koordinaten mittels einer Karte im Kartenmo- dul definiert sind und zwischen denen der Serviceroboter mittels Pfadplanungsmodul mindestens eine
Wegstrecke ermittelt. Der Serviceroboter pendelt bevorzugt innerhalb der im Überwachungsprofil hinter- legten Zeit zwischen zwei Wegpunkten und legt dabei die Distanz zwischen den beiden Wegpunkten ein- mal nur anteilig zurück. Vor oder während des Absolvierens der Wegstrecke erfolgt bevorzugt ein Aufru- fen von Positionsdaten als Koordinaten einer Karte, die mit Bestandteilen des Überwachungsprofils asso- ziiert sind, und basierend auf den aufgerufenen Koordinaten das Triggern von Ausgaben über die Ausga- beeinheit des Serviceroboters basierend auf einem Vergleich von im Überwachungsprofil vorgehaltenen
Positionsdaten und aktuellen Positionsdaten des Serviceroboters. In einer bevorzugten Ausführungsform findet während des Absolvierens der Wegstrecke eine Erfassung der Person mittels eines Bewegungser- fassungssensors, eine Generierung eines Beobachtungspunkte-Modells von Beobachtungspunkten für die erfasste Person mittels Musterauswertung und ım Speicher hinterlegter Regeln, sowie eine Bewertung der erfassten Bewegungen auf Basis von Beobachtungspunkten des Beobachtungspunkte-Modells und mittels im Speicher hinterlegten Regeln statt. Die Regeln zur Bewertung der erfassten Bewegungen auf Basis von
Beobachtungspunkten des Beobachtungspunkte-Modells umfassen bevorzugt die Ermittlung und Bewer- tung von Posen durch ein Posen-Ermittlungsmodul. Bevorzugt wird zudem eine repetitive Bewegung be- wertet durch Ermittlung einer initialen Pose, einer finalen Pose und eines Bewertungspunkts zwischen diesen beiden Posen. Die Bewertung der erfassten Bewegungen findet hinsichtlich definierter 18
24-Beispiel
Bewegungsabweichungen auf Basis von Beobachtungspunkten des Beobachtungspunkte-Modells und/oder daraus abgeleiteten Bewertungspunkten und zu diesen im Speicher hinterlegten Regeln bevor- LU103344 zugt in einem ersten Zeitintervall statt und die Ausgabe von Feedback an die Person mittels einer Ausga- beeinheit in einem zweiten, sich dem ersten Zeitintervall anschließenden Zeitintervall zur ermittelten Be- wegungsabweichung. Weiter umfasst die technische Lösung bevorzugt eine Erfassung der Person mittels eines Bewegungserfassungssensors, eine Generierung eines Beobachtungspunkte-Modells von Beobach- tungspunkten fir die erfasste Person mittels Musterauswertung und im Speicher hinterlegter Regeln, so- wie eine Bewertung der erfassten Bewegungen auf Basis von Beobachtungspunkten des Beobachtungs- punkte-Modells und mittels im Speicher hinterlegten Regeln erfolgt in einem weiteren Zeitintervall, in dem die im ersten Zeitintervall identifizierte und im zweiten Zeitintervall mit Feedback assoziierte Bewe- gungsabweichung erneut bewertet wird, und Ausgabe von Feedback in einem sich dem genannten Zeitin- tervall anschlieBenden weiteren Zeitintervall zu der im genannten Zeitintervall bewerteten Bewegungsab- weichung. Das ausgegebene Feedback erfolgt bevorzugt auf Basis einer Priorisierung detektierter Bewe- gungsabweichungen. Die Bewertung der Beobachtungspunkte findet in einem Beobachtungspunkte-Be- wertungsmodul, das bevorzugt ganz oder anteilig einen Prozessknoten darstellt, statt, der über einen Da- tenkanal mit einem weiteren Prozessknoten direkt oder indirekt verbunden ist und mindestens eine Zu- standsmaschine durch über den Datenkanal übertragene Daten triggert. Bevorzugt erfolgt vor Absolvieren der Wegstrecke eine (initiale) Identifizierung der Person am mobilen Serviceroboter auf Basis erkannter
Muster innerhalb erfasster Sensordaten und eine Assoziierung der identifizierten Person mit einem hinter- legten Uberwachungsprofil. Alternativ und/oder ergänzend findet eine Re-Identifizierung der Person wäh- rend der Erfassung durch den Personenerfassungssensor mittels hinterlegter Muster, um insbesondere si- cherzustellen, dass stets die Person überwacht wird, die sich zuvor am Serviceroboter identifiziert hat.
Dazu erfolgt bevorzugt ein Tracking der erfassten Person im Zeitverlauf und eine Re-Identifizierung über erfasste Muster, die Merkmale wie Gesicht, Kleidung, etc. wiedergeben. Die initiale Identifizierung der
Person kann bspw. mittels RFID-Transponder oder an anderer Stelle in diesem Dokument genannte An- sätze erfolgen. Die technische Lösung umfasst ferner eine Vorrichtung zur Durchführung des Verfahrens.
[0023] Die technische Lösung umfasst ferner einen Serviceroboter mit einer Recheneinheit, einem Sen- sor zu Überwachungszwecken und einem Speicher mit einem Überwachungsprofil mit einer Zeitdauer, über der Serviceroboter mit der Person eine Wegstrecke zurücklegen und/oder die Person überwachen soll, wobei nach dieser Zeitdauer das Zurücklegen eines Pfads mit der Person beendet sein soll, ein
Pfadplanungsmodul, konfiguriert zur Ermittlung eines vom Serviceroboter zurückzulegenden Wegstrecke zwischen einer Start- und einer Wendeposition, und einer dynamischen Wendepositionsermittlung, die eine neue Wendeposition setzt, die dichter an der Startposition liegt als der zuvor genutzte Wendeposition.
Die dynamische Wendepositionsermittlung kann basierend auf a) der Durchschnittsgeschwindigkeit des
Serviceroboters und einer verbliebenen Restzeit, b) der Bewegungsrichtung des Serviceroboters und/oder c) der bereits verstrichenen Zeit und der Zeitdauer aus dem Überwachungsprofil eine neue Wendeposition setzen, die dichter an der Startposition liegt als der zuvor genutzte Wendeposition. Weiter umfasst der
Serviceroboter bevorzugt ein Kartenmodul, welches Koordinaten für die Positionsdaten der Startposition 19
24-Beispiel und der Wendeposition bereitstellt oder passend zum Überwachungsprofil zum Triggern von Ausgaben über die Ausgabeeinheit des Serviceroboters basierend auf einem Vergleich von im Uberwachungsprofil | 03344 vorgehaltenen Positionsdaten und aktuellen Positionsdaten des Serviceroboters. Der Serviceroboter um- fasst bevorzugt weiter ein Distanzhaltemodul zum Einhalten einer Mindestdistanz zwischen Servicerobo- ter und der erfassten Person. Bei einem der Sensoren handelt es sich bevorzugt um einen Bewegungser- fassungssensor zur Erfassung der Bewegungen einer Person. Weiter umfasst der Serviceroboter in einer bevorzugten Ausführungsform ein Beobachtungspunkte-Modell-Generierungsmodell zur Generierung von Beobachtungspunkten der erfassten Person, einem Beobachtungspunkte-Bewertungsmodul zur Be- wertung der Bewegungen der erfassten Person, einem Posen-Ermittlungsmodul zur Ermittlung von Posen der Person sowie bevorzugt weiter ein Feedback-Generierungsmodul zum Triggem von Feedback auf Ba- sis von priorisierten Bewegungsabweichungen mittels eines Ausgabemoduls und einer Ausgabeeinheit.
Bevorzugt weist der Serviceroboter zudem ein Personenidentifizierungsmodul zur Identifizierung der Per- son am mobilen Serviceroboter auf Basis hinterlegter Muster innerhalb erfasster Sensordaten sowie be- vorzugt ein Personen-Re-Identifizierungsmodul zur Re-Identifizierung der Person während der Erfassung durch den Personenerfassungssensor mittels hinterlegter Muster auf. In einer bevorzugten Ausführungs- form ist der Serviceroboter so konfiguriert, dass eine Zustandsmaschine die Ausgaben einer Ausgabeein- heit über einen Lautsprecher und/oder ein Display triggert, wenn der Serviceroboter eine Wendeposition erreicht hat.
[0024] In einem Aspekt kann es vorkommen, dass der Serviceroboter während seines Betriebs im Weg herumsteht, bspw. wenn er auf ein Hindernis trifft. In dem Fall soll er leicht weggeschoben werden kôn- nen. Dies kann jedoch durch Standard-Modi der Sicherheitsbewegungssteuerung möglicherweise er- schwert werden, weil der mechanische Widerstand des Motors mit Blick auf ein Schieben möglicherweise so hoch ist, dass das Schieben nur mit erheblichem Aufwand realisierbar ist. Die erfinderische Lösung wird über eine Sicherheitsbewegungssteuerung implementiert, welche hardwareseitig Schutzmechanis- men realisiert, die in überwiegend computer-implementiert einen erhöhten Entwicklungsaufwand bedeu- ten wiirden, weil der Softwarecode sehr intensiv getestet und mit etlichen internen Sicherheitsmechanis- men versehen werden müsste, was durch eine hardwarenahe Implementierung vermieden werden kann.
Diese erfinderische Teilaufgabe ist also das vereinfachte Verschieben eines bspw. wird wie folgt gelöst:
[0025] Die Sicherheitsbewegungssteuerung ist konfiguriert, mindestens einen Motor eines mobilen Ro- boters direkt oder indirekt anzusteuern, mit einem ersten, zweiten, dritten und vierten Zustand, wobei im ersten Zustand die Stromversorgung des mindestens einen Motors derart regelt wird, dass die durch den
Stromfluss im Motor hervorgerufene und die auf die Position des mobilen Roboters in horizontaler Ebene einwirkende Kraft größer der Summe der in horizontaler Ebene einwirkenden Trégheitskrifte des mobilen
Roboters ist; im zweiten Zustand der Stromfluss im mindestens einen Motor derart geregelt wird, dass eine negative Beschleunigung des mobilen Roboters bis zu einer Geschwindigkeit von null erfolgt; im dritten Zustand der Stromfluss im mindestens einen Motor derart geregelt wird, dass die vom mindestens 20
24-Beispiel einen Motor hervorgerufene und die auf die Position des mobilen Roboters in horizontaler Ebene ein- wirkende Kraft in etwa der Summe aus Rollwiderstand und Rotorträgheit des mindestens einen Motors LU103344 entspricht, so dass der mobile Roboter im Wesentlichen auf seiner Position in horizontaler Ebene ver- bleibt; und der vierte Zustand durch das Auslösen eines Schalters aktiviert wird. Hierbei wird im vierten
Zustand der Stromfluss im mindestens einen Motor so geregelt, dass die durch den Stromfluss im mindes- tens einen Motor hervorgerufene und die auf die Position des mobilen Roboters in horizontaler Ebene ein- wirkende Kraft in etwa der Summe der in horizontaler Ebene einwirkende Gegenkrifte entspricht, die durch die Trägheit des mobilen Roboters hervorgerufen werden. Alternativ und/oder ergänzend wird im vierten Zustand der Stromfluss im mindestens einen Motor bevorzugt so geregelt, dass die durch den
Stromfluss im mindestens einen Motor hervorgerufene Kraft im Wesentlichen die Rotorträgheit des min- destens einen Motors ausgleicht. Der zweite Zustand wird bevorzugt durch die Detektion eines Hindernis- ses, durch Assoziierung mit einer definierten Position und/oder durch eine Nutzerinteraktion während des ersten Zustands getriggert. Im dritten Zustand wird der Stromfluss im mindestens einen Motor bevorzugt derart geregelt, dass die vom Motor hervorgerufene und die auf die Position des mobilen Roboters in ho- rizontaler Ebene einwirkende Kraft in etwa der Summe aus Rollwiderstand, Rotorträgheit und mindestens einer weiteren Kraft entspricht, so dass der mobile Roboter im Wesentlichen auf seiner Position in hori- zontaler Ebene verbleibt. Hierbei wird die weitere Kraft bevorzugt mittels eines Inertialsensors ermittelt.
Die weitere Kraft wirkt von außen auf den mobilen Roboter oder ergibt sich im Wesentlichen aus der
Schwerkraft, weil sich der mobile Roboter auf einer schiefen Ebene befindet. Der dritte Zustand wird be- vorzugt bei Erreichen einer Geschwindigkeit von null erreicht. Die Sicherheitsbewegungssteuerung ermit- telt (direkt oder indirekt über einen Motorcontroller) bevorzugt mittels eines Drehwinkelsensors eine Ge- schwindigkeit oder Beschleunigung, die proportional zur Umdrehungsgeschwindigkeit oder Beschleuni- gung mindestens eines Antriebsrads des mobilen Roboters ist. Die gemessenen Kräfte werden bevorzugt mittels Drehungen ermittelt, die der Drehwinkelsensor erfasst oder mittels Messung einer Beschleunigung durch den Inertialsensor. Die Sicherheitsbewegungssteuerung hat entweder selbst einen Speicher oder Zu- griff auf einen Speicher, der Werte für mindestens eine maximale Geschwindigkeit eines Roboters spei- chert, wobei die Geschwindigkeit des Roboters von der Sicherheitsbewegungssteuerung direkt oder indi- rekt (mittels eines Motorcontrollers) mittels Drehwinkelsensor und/oder Umfelderfassungssensor ermit- telt wird. Bei Uberschreiten dieser maximalen Geschwindigkeit durch den Roboter wird der Stromfluss im mindestens einen Motor durch die Sicherheitsbewegungssteuerung begrenzt. Diese mindestens eine maximale Geschwindigkeit ist bevorzugt abhängig von der Größe eines Schutzfelds, dass einen Uberwa- chungsbereich des Umfelderfassungssensors definiert. Die Erfindung umfasst zudem eine Vorrichtung mit der beschriebenen Sicherheitsbewegungssteuerung. Weiterhin umfasst die Erfindung ein Verfahren zur
Steuerung eines mobilen Roboters mittels einer Sicherheitsbewegungssteuerung umfassend das Absolvie- ren eines Pfads in einer Umgebung mit stationären und mobilen Hindernissen, das Abbremsen des mobi- len Roboters bis auf eine Geschwindigkeit von null, sowie das Triggern der Sicherheitsbewegungssteue- rung durch Auslösung eines Schalters wie eines Not-Halts nach Abbremsen des mobilen Roboters auf die
Geschwindigkeit von null. Bevorzugt impliziert das Triggern der Sicherheitsbewegungssteuerung den 21
24-Beispiel
Stromfluss im mindestens einen Motor derart, dass die durch den Stromfluss im mindestens einen Motor hervorgerufene Kraft im Wesentlichen die Rotorträgheit ausgleicht. Das Triggern der Sicherheitsbewe- LU103344 gungssteuerung veranlasst die Regelung des Stromflusses im mindestens einen Motor derart, dass die durch den Stromfluss im mindestens einen Motor hervorgerufene und die auf die Position des mobilen
Roboters in horizontaler Ebene einwirkende Kraft in etwa der Summe der in horizontaler Ebene ein- wirkende Gegenkrifte entspricht, die durch die Trägheit des mobilen Roboters hervorgerufen werden.
Das Abbremsen erfolgt bevorzugt durch Detektion mindestens eines mobilen Hindernisses im Erfas- sungsbereich des Umfelderfassungssensors, jedoch auch durch das Erreichen einer Zielposition und/oder eine Nutzerinteraktion mit einer Person. Hierbei befindet sich das mindestens eine mobile Hindernis be- vorzugt im Erfassungsbereich und insbesondere innerhalb des Schutzfelds des Umfelderfassungssensors.
Das Absolvieren eines Pfads durch den mobilen Roboter erfolgt bevorzugt in einem ersten Zustand der
Sicherheitsbewegungssteuerung, das Abbremsen bevorzugt in einem zweiten Zustand, das Einnehmen einer Stillstandsposition bevorzugt im dritten Zustand, und das Einnehmen eines vierten Zustands bevor- zugt nach Auslösung eines Schalters wie eines Not-Halts. Weiterhin umfasst die Erfindung einen Mobiler
Roboter mit einer Sicherheitsbewegungssteuerung wie beschrieben. Dieser mobile Roboter weist einen
Bewegungserfassungssensor, einen Vitaldatenerfassungssensor und/oder einen Radarsensor auf. Weiter umfasst der mobile Roboter bevorzugt ein Personenidentifizierungsmodul, ein Bewegungserfassungsda- tenverarbeitungsmodul mit bevorzugt einem Beobachtungspunkte-Modell-Generierungsmodul, einem Be- obachtungspunkte-Bewertungsmodul sowie ein Feedback-Generierungsmodul. Hierbei werden die Sens- ordaten des Bewegungserfassungssensors, des Vitaldatenerfassungssensors und/oder des Radarsensors bevorzugt über einen Prozessknoten zur Verfügung gestellt. Das Feedback-Generierungsmodul bzw. die
Ausgabe von Feedback wird bevorzugt mittels einer Zustandsmaschine getriggert.
[0026] Die hier aufgeführte Erfindung erstreckt sich nicht nur auf einen Serviceroboter mit Sicherheits- bewegungssteuerung, sondern auch auf eine Sicherheitsbewegungssteuerung als einzelnes System, dass dafür konfiguriert ist, einen Serviceroboter oder einen anderweitigen mobilen Roboter anzusteuern.
[0027] Eine weitere technische Herausforderung ist es, die technischen Risiken für eine Person, die mit einem mobilen Serviceroboter interagiert, entsprechend zu minimieren, während auch der Entwicklungs- aufwand sowie der Umfang an Hardwarekomponenten und die Komplexität der Sicherheit der Datenver- arbeitung auf dem mobilen Serviceroboter sich in Grenzen halten soll. Die technische Lösung ist hier eine
Entkoppluns der sicherheitskritischen Systeme von der Anwendungsebene, die wie folgt umgesetzt wird:
Der mobiler Serviceroboter weist eine Recheneinheit und einen Speicher sowie eine Sicherheitsbewe- gungssteuerung, wobei die Sicherheitsbewegungssteuerung auf Basis von Sensordaten die Geschwindig- keit des Serviceroboters reduziert oder die Bewegungsrichtung des mobilen Serviceroboters beeinflusst, wenn mindestens ein die Sensordaten bereitstellender Umfelderfassungssensor ein Hindernis detektiert, wobei die Recheneinheit auf die Sicherheitsbewegungssteuerung oder einen Motorcontroller über min- destens eine Schnittstelle zugreift, und wobei der Zugriff der Recheneinheit auf die Sicherheitsbewe- gungssteuerung oder den Motorcontroller Einflüsse der Sicherheitsbewegungssteuerung basierend auf der 22
24-Beispiel
Hindernisdetektion auf die Geschwindigkeit oder Bewegungsrichtung des mobilen Serviceroboters nicht überschreiben kann. Bevorzugt erfolgt die Geschwindigkeitsreduktion oder Bewegungsrichtungsänderung” | 09344 des mobilen Serviceroboters mittels Regelung des Stromflusses im mindestens einen Motor des Service- roboters und wird, ebenfalls bevorzugt, durch einen Motorcontroller vorgenommen. Die Sensordaten wer- den von einem Umfelderfassungssensor bereitgestellt, bei dem es sich um eine 2D- oder 3D-Kamera, ei- nen Radarsensor, einen Laserscanner und/oder eine Schutzkontaktleiste handelt. Bevorzugt werden hier mindestens zwei Umfelderfassungssensoren genutzt. Bevorzugt befindet sich Hindernis in einem Schutz- feld eines Umfelderfassungssensors, insbesondere eines Laserscanners, oder es löst die Schutzkontakt- leiste aus. Die Sicherheitsbewegungssteuerung erfüllt bevorzugt die Anforderungen der ISO 13849, IEC 62061 und/oder IEC 61508 und hier, bevorzugt das Performance Level d der ISO 13849 oder mindestens das Sicherheitsintegritätslevel 2 der IEC 61508 oder IEC 62061. Die Sicherheitsbewegungssteuerung kann auch nach der ISO 13849-2, der IEC 62061 und/oder der IEC 61508 validiert worden sein. Mindes- tens eine Anwendungen im Speicher erfüllt die Anforderungen der Software-Sicherheitsklasse A der IEC 62304. Optional erfüllt mindestens eine Anwendung im Speicher mindestens anteilig die Anforderungen der Software-Sicherheitsklasse B der IEC 62304. Bevorzugt jedoch erfüllen alle Anwendungen im Spei- cher die Software-Sicherheitsklasse A und zugleich nicht die Anforderungen der Software-Sicherheits- klasse B oder C der IEC 62304. Bei der mindestens einen Anwendung im Speicher handelt es sich bevor- zugt um ein Navigationsmodul und/oder ein Pfadplanungsmodul. Bevorzugt handelt es sich zudem bei der mindestens einen Anwendung um ein Beobachtungspunkte-Bewertungsmodul, ein Feedback-Generie- rungsmodul und/oder ein Ausgabemodul sowie um ein Personenidentifizierungsmodul und/oder ein Per- sonen-Re-Identifizierungsmodul.
[0028] Die Lösung umfasst ferner einen mobilen Serviceroboter mit einer Sicherheitsbewegungssteue- rung, wobei die Sicherheitsbewegungssteuerung die Anforderungen der ISO 13849, IEC 62061 und/oder
IEC 61508 erfüllt, und einer Anwendungsebene, wobei die Anwendungsebene mindestens anteilig An- wendungen umfasst, die die Anforderungen der Software-Sicherheitsklasse À und nicht der Software-Si- cherheitsklasse B und C der IEC 62304 erfüllen. Bevorzugt umfassen alle diese Anwendungen die Soft- ware-Sicherheitsklasse A. Die Sicherheitsbewegungssteuerung regelt bevorzugt vorranging auf Basis der
Auswertung von Sensordaten eines Umfelderfassungssensors den Stromfluss im mindestens einen Motor des mobilen Serviceroboters mittels eines Motorcontrollers derart, dass der mobile Serviceroboter das
Hindernis vermeidet und/oder zum Stehen kommt. Bevorzugt werden durch die Sicherheitsbewegungs- steuerung Steuer- oder Regelbefehle einer Recheneinheit, initiiert durch eine Anwendung, nachrangig nach Steuer- oder Regelbefehlen behandelt, die auf Basis einer Auswertung der Daten eines Umfelderfas- sungssensors getriggert werden. Die Sicherheitsbewegungssteuerung weist bevorzugt mindestens das Per- formance Level d der ISO 13849 oder das Sicherheitsintegritätslevel 2 der IEC 61508 oder IEC 62061 auf. Bei der genannten mindestens einen Anwendung im Speicher des Serviceroboters handelt es sich be- vorzugt um ein Navigationsmodul und/oder Pfadplanungsmodul, um ein Beobachtungspunkte-Bewer- tungsmodul, ein Feedback-Generierungsmodul und/oder ein Ausgabemodul und/oder um ein Perso- nenidentifizierungsmodul und/oder ein Personen-Re-Identifizierungsmodul. 23
24-Beispiel
Zeichnungen:
LU103344
Fig. 1: Sicht auf den Serviceroboter von außen
Fig. 2: Hardwarekomponenten des Serviceroboters
Fig. 3: Softwarekomponenten des Serviceroboters
Fig. 4: Datenverarbeitung: Prozessknoten und Datenaustausch
Fig. 5: Datenverarbeitung: Softwaremodule, Prozessknoten und Datenkanäle
Fig. 6: Auszug Zustandsmaschine
Fig. 7: Bewertung der Bewegungen einer erfassten Person
Fig. 8: Bewertungspunktermittlung
Fig. 9: Bewertung von Bewegungen und Feedback
Fig. 10:positionsabhängiges Feedback
Fig. 11: Wendepositionsermittlung
Fig. 12: alternative Wendepositionsermittlung
Fig. 13: Sicherheitsbewegungssteuerung und assoziierte Abläufe
Fig. 14: Komponenten im Kontext der Sicherheitsbewegungssteuerung
Fig. 15: technisches Risikomanagement mittels Sicherheitsbewegungssteuerung 24
24-Beispiel
Detaillierte Beschreibung:
LU103344
[0029] Der mobile Serviceroboter 1 verfügt über einen Speicher 2, eine Recheneinheit 3 (bspw. einen PC mit bspw. einer Grafikprozessoreinheit) und eine Drahtlosschnittstelle 4 wie bspw. WLAN, Mobilfunk oder ähnlich. Weiterhin verfügt der mobile Serviceroboter über mindestens einen Bewegungserfassungs- sensor 5. Bei diesem kann es sich um eine 2D oder 3D Kamera 8 (z.B. eine Microsoft Kinect), einen Ra- darsensor 9 oder eine Kombination daraus handeln. Der Bewegungserfassungssensor wird vorzugsweise dafür genutzt, Bewegungen einer Person zu erfassen. Er kann aber auch für Navigationszwecke eingesetzt werden, um das Umfeld des Serviceroboters 1 zu erfassen, um dort bspw. statische und/oder dynamische
Hindernisse zu detektieren und diese in einer Karte im Kartenmodul 31 abzulegen. Weiterhin verfügt der
Serviceroboter |, in einem bevorzugten Aspekt, über mindestens einen Umfelderfassungssensor 6 wie eine 2D oder 3D Kamera, einen Radarsensor 9 oder einen Laserscanner 13. Der Umfelderfassungssensor 13 dient dazu, das Umfeld des Serviceroboters 1 zu erfassen, dieses zu kartieren und stationäre bzw. dy- namische Hindernisse in diesem Umfeld zu detektieren. In einem Aspekt ist der Umfelderfassungssensor 13 in Fahrtrichtung des Serviceroboters 1 orientiert, während der Bewegungserfassungssensor 5 entgegen der Fahrtrichtung ausgerichtet ist. Basierend auf diesen Hindernissen kann der mobile Serviceroboter 1 dann mittels eines im Speicher 2 vorhandenen Pfadplanungsmoduls 30 Wege planen, die er von A nach B zurücklegt, bspw. während des Trainings einer Person, das die Person mit dem mobilen Serviceroboter durchführt. In einem optionalen Aspekt verfügt der Serviceroboter 1 über ein Distanzhaltemodul 37 zur
Ermittlung der Distanz zwischen dem Serviceroboter 1 und einer erfassten Person und zum Triggern der
Geschwindigkeit des Serviceroboters derart, dass der Serviceroboter 1 einen in etwa konstanten Abstand zur Person einhält. Dieser konstante Abstand wird bspw. definiert aus dem vertikalen Erfassungswinkel des Bewegungserfassungssensors 5 und der Größe der zu erfassenden Person. Ist diese Person bspw. 1,8m hoch und der vertikale Erfassungswinkel ist 40°, der Bewegungserfassungssensor in einer Höhe von 90cm über dem Boden angebracht und seine Erfassungsachse ist in etwa waagerecht, dann beträgt der
Abstand mindestens 90cm/tan(20°) = 2,47 m. In einem weiteren Aspekt kann der Serviceroboter 1 über einen Vitaldatenerfassungssensor 7 verfügen, welcher es erlaubt, Vitalparameter einer Person zu erfassen wie Herzrate, Atmung, Körpertemperatur usw. Hierbei kann es sich ebenfalls um eine 2D- oder 3D-Ka- mera 8, einen Radarsensor 9 oder bspw. einen Temperatursensor 14 handeln (insbesondere einen Infra- rotsensor). Weiterhin verfügt der mobile Serviceroboter 1 über eine Ausgabeeinheit 10 wie einen Laut- sprecher 11 und/oder ein Display 12. Optional kann der Serviceroboter 1 über ein Leuchtelement 18 ver- fügen, dass sich bspw. oben auf dem Serviceroboter 1 befindet, oder aber das als das Gehäuse umlaufend ausgelegt ist, welches in einem Aspekt ebenfalls aus Ausgabeeinheit 10 fungieren kann.
[0030] Weiterhin weist der mobile Serviceroboter 1 eine Odometrieeinheit 13 auf, die dazu dient, die Po- sition des mobilen Serviceroboters 1 in seinem Umfeld zu ermitteln, in einem Aspekt in Verbindung mit dem mindestens einen Umfelderfassungssensor 6. Die erfasste Position wird dabei bspw. auf einer Karte des im Speicher 2 abgelegten Kartenmoduls 31 ermittelt und sie wird im Rahmen der Pfadplanung durch das im Speicher vorhandene Pfadplanungsmodul 30 ausgewertet. Das Halten des in etwa konstanten Ab- stands zwischen Serviceroboter 1 und erfasster Person kann bspw. dadurch erreicht werden, dass die 25
24-Beispiel
Distanz fortlaufend ermittelt wird und bei Unter- oder Überschreiten eines Schwellwerts die Geschwin- digkeit des Serviceroboters 1 entweder erhöht oder reduziert wird. Die Distanz selbst kann mittels der LU103344
Koordinaten der mittels Bewegungserfassungssensor 5 erfassten Person und den Koordinaten des Ser- viceroboters 1, bspw. mittels der Odometrieeinheit 13, in einem Aspekt in Kombination mit dem Umfel- derfassungssensor 6, ermittelt und über das Navigationsmodul 38 zur Navigation verfügbar gemacht, er- rechnet werden. In einem Aspekt ist das Pfadplanungsmodul 30 Bestandteil des Navigationsmoduls 38.
Hierbei kann fiir die Lokalisierung des Serviceroboters 1 bspw. ein aus dem Stand der Technik bekanntes
SLAM- Verfahren genutzt werden (SLAM — Simultaneous Localization and Mapping), wobei alternativ und/oder ergänzend zur Odometrieeinheit 13 auch der Umfelderfassungssensor 6 zur Positionsermittlung eingesetzt werden kann. Die Hohe der Person wiederum, welche den Abstand ebenfalls bestimmt, kann bspw. aus dem Uberwachungsprofil ausgelesen werden und/oder iiber die Koordinaten der erfassten Per- son, die über den Bewegungserfassungssensor 5 bereitgestellt werden. Hierbei können bspw. Distanzen zwischen Beobachtungspunkten der Person genutzt werden, die sich aus den Koordinaten ergeben, bspw. ermittelt als Distanz zwischen Beobachtungspunkten, die Fuß und Kopf der Person beschreiben.
[0031] Auf der Softwareseite verfügt der Serviceroboter 1 im Speicher 2 über ein Personenidentifizie- rungsmodul 20 zur Personenidentifizierung. Dabei erfolgt bspw. die Identifizierung der erfassten Person auf Basis erkannter Muster innerhalb erfasster Sensordaten, insbesondere durch einen Mustervergleich der erfassten Muster mit im Speicher 2 hinterlegten Mustern. Die Sensordaten stammen bspw. vom Be- wegungserfassungssensor 5 wie bspw. einer 2D oder 3D Kamera 8. In einem Aspekt erfolgt die Identifi- zierung der Person über das Auslesen eines RFID-Transponders 16, der an ein RFID-Lesegerät 17 des
Serviceroboters durch die zu identifizierende Person gehalten wird, wobei das RFID-Lesegerät 17 als
Sensor fungiert. Dabei entspricht das erkannte Muster einem Code des RFID-Transponders und das hin- terlegte Muster entspricht einem hinterlegten Code. Mit Blick auf die Nutzung der 2D oder 3D-Kamera 8 umfasst der Identifizierungsvorgang den Vergleich der erfassten Sensordaten (z.B. eines Fotos der Per- son, das mittels der 2D oder 3D-Kamera 8 aufgenommen wurde mit einem hinterlegten Foto, wobei bei einem hinterlegten Foto jeweils einzelne Merkmale des Fotos und nicht notwendigerweise das komplette
Foto verglichen werden). Der Code des RFID-Transponders 16 und/oder das Foto oder Video bzw. die mit diesen assoziierten Merkmale des Fotos bzw. Videos werden im Speicher 2 des Serviceroboters 1 vorgehalten. In einem Aspekt kann die Personenidentifizierung auch mittels eines Barcodes verfügen, der mit der Person assoziiert ist. Im Endeffekt kommen als Sensoren für die Personenidentifizierung neben dem RFID-Lesegerät 17, der 2D- oder 3D-Kamera 8 auch der Bewegungserfassungssensor 5 und ggf. auch der Vitaldatenerfassungssensor 7 oder der Radarsensor 9 infrage oder alternative Sensoren, die für den Fachmann naheliegend sind.
[0032] Weiterhin verfügt der Serviceroboter 1 bspw. über ein Personen-Re-Identifizierungsmodul 21 im
Speicher 2. Hierbei erfolgt, in einem Aspekt, die Personenerfassung und Identifizierung mittels des Bewe- gungserfassungssensor 5, vornehmlich über eine 2D- oder 3D-Kamera 8. Die von diesem Sensor aufge- nommenen Daten werden dann, wie das für das Personenidentifizierungsmodul 20 oben für Kameradaten beschrieben ist, durch Mustervergleich klassifizierter Bildmerkmale in der Recheneinheit 3 ausgewertet. 26
24-Beispiel
Die Personen-Re-Identifizierung kann a) laufend während der Erfassung der Person mittels des Bewe- gungserfassungssensors erfolgen. Hierbei findet zudem ein Tracking der Person statt, bspw. in festen ze 103344 abständen (z.B. alle 10 frames, die die 2D- oder 3D-Kamera 8 zur Verfügung stellt), b) im Fall eines Tra- ckingabrisses, der bspw. dadurch erfolgt, dass die Person den Erfassungsbereich des Bewegungserfas- sungssensors 5 verlassen hat. Das Tracking wird in einem Aspekt dadurch vorgenommen, dass die Person mittels der Beobachtungspunkte detektiert wird und innerhalb von Bilddaten als Person erkannt wird.
[0033] Das erwähnte, im Speicher hinterlegte Beobachtungspunkte-Modell-Generierungsmodul 23 gene- riert Beobachtungspunkte fiir die erfasste Person mittels von der Recheneinheit 3 durchgeführten Muster- auswertung und im Speicher 2 hinterlegte Regeln. Hierbei erfolgt eine Segmentierung der erfassten Sens- ordaten des Bewegungserfassungssensors 5. Dabei wird bspw. eine erfasste Silhouette einer Person mit- tels Mustervergleich detektiert, in einem Aspekt bspw. mittels Machine-Learning-Modelle wie Random
Forest. Es findet weiterhin eine Subsegmentierung einzelner Kôrperelemente der detektierten Silhouette statt, wobei bspw. Kopf und Gelenken der Person wie Knie, Hüfte, Ellbogen, Hand usw. Beobachtungs- punkte zugewiesen werden. Im Beobachtungspunkte-Modell-Generierungsmodul 23 werden den einzel- nen Beobachtungspunkte zudem in einem Zusammenhang dargestellt, dass die die räumliche Struktur ei- ner Person wiedergeben, z.B. durch Verbindung der jeweiligen Beobachtungspunkte, die einen Arm dar- stellen oder ein Bein. Damit wird ein Beobachtungspunkte-Modell erzeugt, dass es erlaubt, Bewegungen einer Person auszuwerten. Den einzelnen Beobachtungspunkten des Beobachtungspunkte-Modells wer- den zudem mittels der Recheneinheit 3 (Raum-)koordinaten zugewiesen, womit eine räumliche Auswer- tung des Bewegungsverlaufs der durch den Bewegungserfassungssensor 5 erfassten Person möglich wird wie bspw. auch eine Approximierung der Größe der Person durch Ermittlung der Distanz zwischen (Raum-)koordinaten von Beobachtungspunkten, die mit Kopf und Fuß einer Person assoziiert sind. Diese können bspw. auch im Distanzhaltemodul 37 genutzt werden wie weiter oben schon beschrieben. Eine weitere Anwendung der (Raum-)koordinaten ergibt sich bspw. auch im Beobachtungspunkte-Überwa- chungsmodul 24, wo die Detektion von Beobachtungspunkten, die mit bestimmten Körperteilen der Per- son assoziiert sind, mittels Regeln verglichen werden und hier bspw. die Ermittlung eines Fußgelenk- punkts vertikal oberhalb eines mit einem Kopf assoziierten Beobachtungspunkts als unplausibel erkannt werden kann, was auf einen Auswertungsfehler hindeutet und damit eine Re-Identifizierung triggern kann.
[0034] Der Begriff der Regel ist allgemein breit auszulegen. Eine solche Regel kann bspw. bedeuten, dass ein Vergleich eines konkreten Werts mit hinterlegten Werten, bspw. eines Wertintervalls, erfolgt, im
Sinne von: wenn A, dann B. Der Begriff der Regel umfasst aber auch die Nutzung von Klassifikatoren, wie sie mittels Verfahren des maschinellen Lernens erzeugt werden, bspw. durch Regressionsmodelle wie logistischer Regression, Support Vector Machines, Neuronalen Netzen, etc. Hierbei muss ein Vergleich nicht deterministisch sein, es können auch Ahnlichkeitswerte genutzt werden, Fuzzy Logic, etc.
[0035] Der Serviceroboter 1 verfügt weiter über ein im Speicher 2 hinterlegtes Posen-Ermittlungsmodul 27 mit Regeln zur Detektion von Posen durch Vergleich mit im Speicher 2 hinterlegten Posen basierend 27
24-Beispiel auf mindestens einem Subset an Beobachtungspunkten des Beobachtungspunkte-Modells. Eine Pose kann hierbei definiert sein durch einen Klassifikator, der bspw. mittels Machine Learning generiert wurde zB 03344
SciKit Learn als Werkzeug) oder durch neuronale Netze, z.B. Convolutional Neural Networks, oder aber mittels regelbasierten Ansätzen, wobei eine Pose dabei definiert wird bspw. über die Orientierung von
Vektoren zwischen Beobachtungspunkten und Winkeln zwischen diesen Vektoren. So kann bspw. eine
Sitzpose über eine Klassifizierung mittels neuronaler Netze basierend auf Vergleichsposen, in denen Per- sonen als sitzend gelabelt wurde, erfolgen, wie auch durch Schwellwerte von Winkeln. Bei letzterem kann die Sitzpose bspw. dadurch regelbasiert ermittelt werden, dass der Kniewinkel in etwa 90 Grad beträgt (mit einer Bandbreite von bspw. 20 Grad), sowie eine in etwa vertikale Orientierung eines Vektors vor- liegt, der von der Hüfte bzw. unterer Wirbelsäule in Richtung Kopf reicht, wiederum definiert mit be- stimmten maximalen Abweichungen (z.B. 15° seitlich, nach hinten 10°, und nach vorne 25°, um einer möglichen Neigung der Person nach vorne Rechnung zu tragen).
[0036] Eine Pose kann dabei auch aus einem Subset an Beobachtungspunkten des Beobachtungspunkte-
Modells definiert sein. Um repetitive Bewegungen zu erkennen, verfügt das Posen-Ermittlungsmodul 27 über Regeln, um eine initiale Pose, ggf. eine intermediäre Pose, sowie eine für die repetitive Bewegung finale Pose zu erkennen, die jeweils mindestens durch ein Subset an Beobachtungspunkten definiert wer- den. Die Erkennung dieser initialen, ggf. intermediären und finalen Pose kann ebenfalls durch Vergleich mit im Speicher 2 hinterlegen, klassifizierten Posen durch die Recheneinheit 3 ermittelt werden. Dabei können, in einem Aspekt, als intermediäre Posen auch Übergangsposen definiert sein, welche Abweichun- gen der initialen Pose hin zur finalen Pose darstellen, wobei zeitliche Verläufe von Beobachtungspunkten berücksichtigt werden. So kann bspw. eine repetitive Bewegung, die das Aufstehen aus dem Sitzen heraus und das dann Sich-wieder-Setzen darstellt, bspw. durch Abweichungen der Winkel des Kniegelenks im
Zeitverlauf definiert sein, wobei auf einem Winkel in der Größenordnung von 90% ein Winkel von deut- lich über 90° folgt, während ein Winkel von deutlich kleiner 90° keine intermediäre Pose darstellen würde, die die repetitive Bewegung mit definieren würde.
[0037] In einem Aspekt verfügt der Serviceroboter 1 weiterhin im Speicher 2 über ein Bewertungspunkt-
Ermittlungsmodul 26. Dieses Modul ermittelt via Recheneinheit 3 bspw. zwischen mitialer Pose und fina- ler Pose einen oder mehrere Bewertungspunkte durch Auswertung des Zeitverlaufs der Posen der Person innerhalb der repetitiven Bewegung, wobei der eine oder die mehreren Bewertungspunkte eine Auswer- tung der repetitiven Bewegung erlauben. Dies geschieht bspw. durch das Tracken mindestens eines Be- obachtungspunkts im Zeitverlauf und den Vergleich des Beobachtungspunkts mit im Speicher 2 hinterleg- ten Regeln. Eine solche Regel, die die Auswertung bzw. Ermittlung eines Bewertungspunkts beschreibt, kann bspw. das Maximum des Beobachtungspunkts über dem Boden innerhalb eines Intervalls, definiert über eine Start- und eine Endpose bzw. finale Pose, darstellen. Damit handelt es sich bei einem Bewer- tungspunkt also bspw. um einen Beobachtungspunkt zu einem definierten Zeitpunkt. Dieses Maximum über dem Boden kann dazu genutzt werden, eine Übung zu bewerten, in der eine Person die Arme hoch- nehmen und wieder absenken soll, was wiederum eine repetitive Bewegung darstellt. Wenn also die Be- obachtungspunkte, die die gehobenen Hände darstellen, ein Maximum über dem Boden erreichen 28
24-Beispiel innerhalb des Intervalls, und dieses Maximum bspw. einen Schwellwert überschreitet, kann darüber er- mittelt werden, ob die Übung korrekt ausgeführt wurde. Diese Bewertung der korrekten Ausführung re- LU103344 präsentiert eine Bewertung, dic am Bewertungspunkt — dem Maximum über dem Boden - stattfindet. Wei- terhin kann es sich bspw. auch um mathematische Ableitungen der Bewegungen bspw. der Geschwindig- keit der Beobachtungspunkte handeln (d.h. bspw. um Beschleunigungen), welche wiederum einen Mini- malwert oder einen Maximalwert erreichen. Demnach handelt es sich beim Bewertungspunkt bspw. um einen Extremwert, alternativ auch einen Wendepunkt eines über die Zeit getrackten Beobachtungspunkts.
Auf Basis des ermittelten Bewertungspunkts kann bspw. eine repetitive Bewertung durch das sich im
Speicher 2 befindliche Beobachtungspunkte-Bewertungsmodul 25 bewertet werden. Hierbei können so- wohl ermittelte Bewertungspunkte, Beobachtungspunkte, oder bspw. vom Posen-Ermittlungsmodul 27 auf Basis von bspw. Beobachtungspunkten ermittelte Posen bewertet werden. So kann diese Bewertung in dem genannten Beispiel der nach oben gestreckten Arme bspw. bedeuten, dass überprüft wird, ob die Per- son entsprechend vom Serviceroboter 1 ausgegebenen Anweisungen die Arme eine definierte Zeit nach oben gestreckt gehalten und damit diese spezifische Pose gehalten hat. Abgesehen von einem Bewer- tungspunkt kann durch das Beobachtungspunkte-Bewertungsmodul 25 auch ohne Ermittlung eines Be- wertungspunkts eine Bewertung einer Pose oder eine Bewegung auf Basis erfasster Beobachtungspunkte erfolgen, bspw. die Dauer des Sitzens, wieweit das Sitzen einer Vorgabe entspricht (bspw. definiert durch
Winkel, die bestimmte definierte Schwellwerte nicht überschreiten dürfen, etc.) Dabei können Posen bzw. diesen zugrunde liegende Winkel, aber auch aus diesen abgeleitete Größen wie bspw. Distanzen zwischen
Beobachtungspunkten im Zeitablauf (welche bspw. Schrittlängen ergeben definiert über bspw. die Raum- position von Fußgelenkpunkten im Zeitablauf), aber auch durch den Bewegungserfassungssensor 5 er- fasste Hilfsmittel, die die Person nutzt und die durch Mustervergleich detektiert werden und die bspw. zu- sammenhängend mit Beobachtungspunkten ausgewertet werden, in die mittels Recheneinheit 3 vorge- nommene Beobachtungspunkte-Bewertung mit einfließen. In einem Aspekt kann es sich bei der Bewer- tung des Beobachtungspunkte-Bewertungsmodul 25 um eine gemeinsame Bewertung zweier subsequen- ter repetitiver Bewegungen handeln jeweils mit mindestens einem Bewertungspunkt, der jeweils inner- halb der repetitiven Bewegungen ermittelt worden ist, und durch Vergleich gemessener Werte mit im
Speicher 2 hinterlegten Bewertungsregeln. Um beim Beispiel der Armstreckung nach oben zu bleiben, wird hierbei bspw. bewertet, ob bei der zweiten Streckübung die Hände vergleichbar hoch gestreckt wur- den wie bei der vorangegangenen Streckübung. Alternativ und/oder ergänzend kann die Bewertung einer repetitiven Bewegung durch das Beobachtungspunkte-Bewertungsmodul 25 mittels Ermittlung des Ab- stands mindestens zweier Beobachtungspunkte und Vergleich des ermittelten Abstands mit im Speicher 2 hinterlegten Bewertungsregeln durch die Recheneinheit 3 erfolgen, wobei das Beobachtungspunkte-Be- wertungsmodul 25 hierbei bspw. das Minimum der FuBgelenkpunkte über die Zeit ermittelt und beim Er- reichen zweier subsequenter Minima den basierend auf den (Raum-)koordinaten definierten Abstand der
Bewertungspunkte als Schrittlinge definiert. In einem Aspekt erfolgt die Bewertung einer repetitiven Be- wegung durch die Ermittlung des Abstands zwischen mindestens zwei Beobachtungspunkten und mindes- tens einem Bewertungspunkts, der bspw. innerhalb einer repetitiven Bewegung ermittelt wurde, und 29
24-Beispiel
Vergleich des ermittelten Abstands mit im Speicher 2 hinterlegten Bewertungsregeln. Ein Beispiel hierfür wäre die Ermittlung der Schrittlänge wie bereits beschrieben, die eine Mindestlänge aufweisen muss LU103344 („großer Schritt“) bei zugleich gehobenen Armen, die wiederum beim Laufen gehoben und gesenkt wer- den. Dabei wird ein Maximum eines Beobachtungspunkts, z.B. des Handgelenk-Skelettmodell-Punkts, über dem Boden zusammen mit der Schrittlänge ausgewertet. Die Distanzen zwischen den Fußgelenk- punkten als Beobachtungspunkte und dem sich in einem lokalen im Zeitverlauf befindlichen Maximums über dem Boden befindlichen Handgelenkpunkts können hierbei wiederum eine Pose darstellen, die es auszuwerten gilt. Die Regeln des Beobachtungspunkte-Bewertungsmoduls 25 können in einem Aspekt über eine Drahtlosschnittstelle 4 dem Serviceroboter 1 zur Verfügung gestellt werden, um diese bspw. zu aktualisieren, neu zu definieren, oder aber speziell einem Nutzer zuzuweisen (letzteres kann mittels eines
Überwachungsprofils passieren). Alternativ und/oder ergänzend können die Regeln, bspw. durch Über- mittlung des Überwachungsprofils über die Drahtlosschnittstelle 4, getriggert werden. Dies heißt bspw., dass das übertragene Überwachungsprofil bestimmte, auf dem Serviceroboter 1 hinterlegte Regeln auf- ruft. Die Regeln können weiterhin mit einer identifizierten Person assoziiert sein. Dies bedeutet, dass bspw. über die Drahtlosschnittstelle 4 dem Serviceroboter 1 ein Überwachungsprofil zur Verfügung ge- stellt oder ein solches im Speicher 2 vorgehaltenes Profil aktualisiert werden kann. Ein Überwachungs- profil ist mit hinterlegten Regeln zur Bewertung der Bewegungen der vom Personenidentifizierungsmo- dul 20 identifizierten Person assoziiert. Das heißt, im Überwachungsprofil ist bspw. beschrieben, welche
Bewegungen der vom Serviceroboter 1 erfassten Person durch das Beobachtungspunkte-Bewertungsmo- dul 25 bewertet werden sollen, wie bspw. die Übung, bei der die Person Schritte einer bestimmten Länge macht und dabei die Arme repetitiv gestreckt werden. Weiterhin können Parameter im Überwachungspro- fil hinterlegt sein wie bspw. die Größe der zu überwachenden Person. Mit dem Überwachungsprofil bzw.
Bestandteilen davon können bspw. auch Koordinaten einer Karte, die im Kartenmodul 31 des Servicero- boters 1 hinterlegt ist, assoziiert sein, und damit wiederum bestimmte Regeln. In einem Aspekt sind in diesem Kontext ortsabhängige Regeln mit Blick auf an bestimmten Orten durchzuführende Übungen, bspw. zu überwachende Übungen wie auch Charakteristika der zu überwachenden Person und/oder Kom- binationen abgelegt. In einem alternativen Aspekt stellt das Überwachungsprofil — bspw. charakterisiert über eine ID - lediglich einen Link her zwischen einem bspw. pseudonymisierten Profil, dass personenbe- zogene Charakteristika enthält, die für die Überwachung der Person relevant sind, wie bspw. deren Größe, zwischen Überwachungsregeln wie bspw. die Observation bestimmter Bewegungen bzw. Posen und/oder deren Dauer, und/oder zwischen ortsabhängigen Regeln, die bspw. bestimmte Navigationsmanöver des
Serviceroboters beschreiben, bzw. zwischen Kombinationen aus Überwachungsregeln und ortsabhängi- gen Regeln. In einem Aspekt impliziert dies, dass beim Erreichen einer bestimmten Position (operationa- lisiert durch Koordinaten) des Serviceroboters 1 auf der Karte, gemessen bspw. über die Odometrieeinheit 13 und/oder mit Auswertung der Daten des Umfelderfassungssensors 6, bestimmte im Speicher 2 hinter- legte Bewertungsregeln bspw. als Teil eines definierten Trainingsplans oder eines vom Serviceroboter ausgeführten Assessments getriggert werden, oder aber bestimmte Ausgaben des Serviceroboters 1 über das Ausgabemodul 32 und mindestens eine Ausgabeeinheit 10 (z.B. Display 12 und/oder Lautsprecher 30
24-Beispiel 11). Das im Speicher 2 befindliche Ausgabemodul 32 kann hier bestimmte Ausgaben wie Anweisungen zum Ausführen von Bewegungen umfassen, aber auch Feedback zu den erfassten und vom Beobach- LU103344 tungspunkte-Bewertungsmodul 25 bewertete Übungen. Ausgaben des Serviceroboters (z.B. Sprache mit- tels Lautsprecher 11) können bspw. mittels Text-to-Speech-System generiert werden und Anweisungen und/oder Feedback zu ausgewerteten Bewegungen umfassen sowie sonstige Hinweise. Das besagte Trig- gern beim Erreichen bestimmter Positionen kann dabei, in einem Aspekt, automatisch erfolgen. In einem weiteren Aspekt wird, basierend auf den mit dem Überwachungsprofil assoziierten Koordinaten der
Karte, die Erfassung der Bewegungen der Person getriggert, was bedeutet, dass hierbei der Serviceroboter 1, ggf. automatisiert, bestimmte Positionen (Koordinaten) auf der Karte des Kartenmoduls 31 einnimmt, um bspw. eine Person mit einem definierten Erfassungswinkel zu erfassen. Alternativ und/oder ergänzend erfolgt die Bewertung der Bewegungen der Person durch im Speicher 2 hinterlegte Bewertungsregeln durch die Recheneinheit 3 bei Erreichen bestimmter Koordinaten auf der Karte durch den Serviceroboter 1. Die Ausgabe des Serviceroboters 1 oder das Triggern der Regeln kann, in einem Aspekt, bei Erreichen exakter Koordinatenwerte der Karte aus dem Kartenmodul 31 erfolgen (bspw. bei Detektion, dass sich der
Serviceroboter 1 innerhalb eines definierten Koordinatenbereichs befindet), oder aber bei Erreichen defi- nierter Schwellwerte bzw. Abstände zu Koordinatenpunkten.
[0038] Die Koordinaten der Karte des Kartenmoduls 31 können aus einem einheitlichen Koordinatensys- tem stammen, dass Flächen- oder Raumkoordinaten aller vom Roboter genutzter und Koordinaten bereit- stellender Sensoren vereinheitlicht hat, oder aber auf (Raum-)koordinaten basieren, die dem Bewegungs- erfassungssensor 5 oder einem Umfelderfassungssensor 6 entstammen. In diesem Kontext verfügt der
Serviceroboter 1 in einem Aspekt im Speicher 2 über ein Koordinatensystem-Transformationsmodul 28 zur Transformation der Koordinaten aus einem Koordinatensystem eines ersten Sensors 5, 6 in das je- weils andere Koordinatensystem eines zweiten Sensors 5, 6 oder zur Transformation der Koordinaten zweier Sensoren 5, 6 in ein einheitliches, neues Koordinatensystem. Das kann bspw. bedeuten, dass die
Koordinaten des Personenerfassungssensors 5, die den generierten Beobachtungspunkten der Person zu- gewiesen sind, in das Koordinatensystem des Umfelderfassungssensors 6 transformiert werden bzw. um- gekehrt, oder aber die Koordinaten des Bewegungserfassungssensors 5 und des Umfelderfassungssensors 6 in ein neues, einheitliches Koordinatensystem transformiert werden, wo sie dann für die Weiterverarbei- tung zur Verfügung stehen, bspw. zur gemeinsamen Auswertung von Positionsdaten des Serviceroboters 1 auf der Karte und von (Raum-)koordinaten der Beobachtungspunkten der Person. Die hierbei stattfinden- den Rechenoperationen erfolgen in der Recheneinheit 3.
[0039] Der Serviceroboter 1 plant seine Bewegungen auf der Karte des Kartenmoduls 31 mittels eines sich im Speicher 2 befindlichen Pfadplanungsmoduls 30, das die Existenz stationärer und dynamischer
Hindernisse berücksichtigt. In einem Aspekt ist das Uberwachungsprofil mit mehreren Positionen auf der
Karte oder mit Pfaden, die sich aus der Karte ergeben, assoziiert. Das heißt, dass eine Person, die sich am
Serviceroboter 1 über das Personenidentifizierungsmodul 20 identifiziert hat, über das Überwachungspro- fil durch Regeln des Beobachtungspunkte-Bewertungsmoduls 25 in ihren Bewegungsabläufen überwacht wird, wobei diese Bewegungsabläufe entsprechend durch das Beobachtungspunkte-Bewertungsmoduls 25 31
24-Beispiel bewertet werden. Dabei ist bspw. der Erfassungsbereich für die Person über ein Areal auf der Karte defi- niert, in einem Aspekt entlang eines Pfads, den der Serviceroboter 1 beim Erfassen der Person zurücklegt 09344
Dies bedeutet, dass dem Areal Koordinaten zugewiesen werden, die aus einer Karte stammen, jedoch das
Areal selbst nicht innerhalb der Karte definiert werden muss. Hierbei kann der Serviceroboter 1 bspw. auch Wendepositionen auf der Karte einnehmen, bei denen er eine Fahrtrichtungsänderung (bspw. in die
Gegenrichtung) ausführt, und an denen Ausgaben des Serviceroboters 1 getriggert werden und/oder die
Erfassung der Person in definierten Erfassungswinkeln erfolgt.
[0040] Ein Ziel der Erfassung und Bewertung von Bewegungen einer Person im Zeitablauf ist die Gene- rierung von Feedback an die erfasste Person. Hierbei sind die erfassten Bewegungsabweichungen auf Ba- sis von Beobachtungspunkten des Beobachtungspunkte-Modells und/oder daraus abgeleiteten Bewer- tungspunkten im Speicher 2 mit Regeln assoziiert, die eine Priorisierung der erfassten Bewegungsabwei- chungen bedeuten. Damit gibt es bspw. bestimmte Bewegungsabweichungen, die mit einer höheren Prio- rität ein Feedback (definiert über Regeln im Speicher 2) erhalten sollen als andere detektierte Bewegungs- abweichungen. Dies ist insofern relevant, als dass parallel oder sequentiell mehrere Bewegungsabwei- chungen detektiert werden können, aber nur Feedback zu einer Bewegungsabweichung ausgegeben wer- den soll.
[0041] Die Ausgabe von Feedback an die Person erfolgt mittels einer Ausgabeeinheit 10. Während des
Zeitablaufs erfolgt zunächst die Bewertung der Bewegungen der Person während eines ersten Zeitinter- valls 51. In einem zweiten, sich daran anschließenden Zeitintervall 52 findet die Feedbackausgabe für eine detektierte und am höchsten priorisierte Bewegungsabweichung statt, gefolgt von einem dritten Zeit- intervall 53, in welchem keine Feedbackausgabe erfolgt und die Person, die das Feedback empfängt, bspw. versuchen kann, das Feedback selbst motorisch umzusetzen, ohne sofort wieder neues Feedback zu erhalten. So ist bspw. die zeitliche Länge des dritten Zeitintervalls 53 kürzer ist als die Summe aus der
Länge des ersten Zeitintervalls 51 und zweiten Zeitintervalls 52. Sie kann, in einer Konfiguration, auch null betragen, bspw. wenn die betreffende Bewegungsabweichung zu einem früheren Zeitpunkt bereits detektiert und dazu ein Feedback ausgegeben wurde, bspw. in einer früheren Übung. Die hierzu notwen- digen Daten können sich im Speicher 2 des Serviceroboters 1 befinden. Es gibt ein sich an das dritte Zeit- intervall 53 anschließendes viertes Zeitintervall 54, in dem die 1m ersten Zeitintervall 51 identifizierte Be- wegungsabweichung erneut bewertet wird und in einem fünften, sich daran anschließenden Zeitintervall 55 ein erneutes Feedback zu dieser Bewegungsabweichung erfolgt. Die erneute Bewertung bezieht sich vorzugsweise auf den gleichen Abweichungstyp, z.B. die Bewertung der Schrittlänge (vs. bestimmter Kri- terien). Dagegen wäre die Bewertung der Schrittlänge in einem Zeitintervall und die Bewertung der Nei- gung des Oberkörpers (vs. bestimmte Kriterien) in einem anderen Zeitintervall ein anderer Abweichungs- typ. In einem Aspekt können auch weitere Bewegungsabweichungen im vierten Zeitintervall 54 bewertet werden. In einer Ausführungsform wird während der Zeitintervalle 51-54 jeweils eine Erfassung der Be- wegungen der Person und eine Bewegungsbewertung vorgenommen, während sich das ausgegebene
Feedback nur auf Bewegungsbewertungen in den Zeitintervallen 51 und 53 bezieht. Dies gilt auch für an- dere in diesem Dokument beschriebene Bewegungserfassungen und -bewertungen, für die Feedback 32
24-Beispiel ausgegeben wird und die mehr Zeitintervalle umfassen, bspw. in Beispiel 4. Weiterhin erfolgt eine Priori- sierung von Bewegungsabweichungen bevorzugt lediglich für solche, für die ein Feedback ausgegeben LU103344 werden soll, was mittels des Feedback-Generierungsmoduls 34 umgesetzt wird. Sofern es sich bei der er- fassten Bewegung der Person um eine laufende Person handelt, deren Laufbewegungen bewertet werden sollen, ergibt sich die zeitliche Länge der Zeitintervalle sich bspw. aus der Anzahl von der Person ge- machten Schritte. In einem Aspekt ist die zeitliche Länge des ersten Zeitintervalls 51 länger (bzw. die An- zahl der Schritte größer) als die des vierten Zeitintervalls 54, womit also zunächst eine längere initiale Be- obachtung der Bewegungen der Person erfolgt und eine kürzere Bewertung nach erfolgtem Feedback. In einem Aspekt kann auch die zeitliche Länge des zweiten Zeitintervalls 52 länger sein als die des fünften
Zeitintervalls 55. In einer Ausfithrungsvariante beträgt die zeitliche Länge des vierten 54 und fünften
Zeitintervalls 55 null, womit keine explizite Nachkontrolle der detektierten und mit Feedback assoziierten
Bewegungen der Person erfolgt. Es sind auch unterschiedliche Konfigurationen von Feedback-Ausgaben im zweiten und/oder fünften Zeitintervall (52, 55) möglich. So kann bspw. im fünften Zeitintervall 55 un- terschiedlich priorisiertes Feedback im Vergleich zum zweiten Zeitintervall 52 erfolgen. Alternativ und/oder ergänzend erfolgt eine Ausgabe von Feedback im fünften Zeitintervall 55, das auf unterschied- lich priorisierten Bewegungsabweichungen basiert als das im zweiten Zeitintervall 52 ausgegebene Feed- back. Dies wire bspw. dann der Fall, wenn zunächst im zweiten Zeitintervall Feedback zu einer im ersten
Zeitintervall 51 detektierten, hoch priorisierten Bewegungsabweichung ausgegeben wird und dann im vierten Zeitintervall 54 eine niedriger prionsierte Bewegungsabweichung detektiert wird. Weiterhin kann bei sequentieller Detektion gleich priorisierter Bewegungsabweichungen, bspw. im Zeitintervall 51 und 54, jeweils unterschiedliches Feedback ausgegeben werden, bspw. in Zeitintervall 52 und 55. Weiterhin kann ein finales Zeitintervall 56 zur Ausgabe von Feedback über die Ausgabeeinheit 10 erfolgen, welches auf Basis von mindestens zwei unterschiedlich priorisierten und detektierten Bewegungsabweichungen erfolgt. Dieses finale Zeitintervall 56 ist in einem Aspekt länger als die Zeitintervalle 51-55. Zwischen dem fünften Zeitintervall 55 und dem finalen Zeitintervall 56 können bspw. mehrere Zeitintervalle liegen, in denen der Serviceroboter 1 die Person erfasst, Bewegungen auswertet und Feedback gibt. Das finale
Zeitintervall 56 kann bspw. in der Phase der Nutzerinteraktion auftreten, wenn sich der Serviceroboter 1 nicht mehr mit der Person zusammen entlang einer Wegstrecke bewegt, sondern wenn er sich an einer festen Position befindet, bspw. der Startposition, sofern er nach dem Absolvieren der Wegstrecke wieder zu dieser zurückkehrt. Alternativ könnte das finale Zeitintervall 56 auch an einer anderen räumlichen Po- sition ausgeführt werden. Insgesamt sind im Speicher 2 im Feedback-Generierungsmodul 34 Regeln zur
Priorisierung der Bewertung mindestens einer erfassten Bewegung auf Basis eines Beobachtungs- und/oder Bewertungspunkts hinterlegt. Die Regeln im Feedback-Generierungsmodul 34 umfassen Regeln zur Generierung von mindestens zwei Feedbacks zu einem erfassten Typ von Bewegungsabweichungen, die mit unterschiedlich langen Zeitintervallen assoziiert sind, wie das oben bspw. für die Zeitintervalle 51-55 beschrieben wurde. Unter Typen von Bewegungsabweichungen werden hierbei bspw. verschieden- artig priorisierte Bewegungsabweichungen verstanden wie bspw. eine unterschiedliche Schrittfolge, Nei- gungen des Körpers, Armbewegungen, wobei ein oder mehrere Körperteile einzeln oder in Kombination 33
24-Beispiel betroffen sein können, etc. Das Ausgabemodul 32 selbst beinhaltet Ausgaben bspw. in Form von Ausga- bemedien wie Anweisungen an das Display 12, Audiofiles für die Sprachausgabe mittels Lautsprecher 1 103344 in einem Aspekt auch eine Sprachsynthetisierungsfunktion fiir die Generierung von Sprachausgaben mit- tels Lautsprecher 11 etc. Priorisierungen detektierter Bewegungsabweichungen werden bspw. im Feed- back-Generierungsmodul 34 vorgenommen. Sie könnten, in einem Aspekt, aber auch im Beobachtungs- punkte-Bewertungsmodul 25 erfolgen.
[0042] Die gesamte Erfassung und Verarbeitung von Bewegungsdaten, umgesetzt durch die im Speicher 2 vorgehaltenen Module (zusammen oder anteilig das Beobachtungspunkte-Modell-Generierungsmodul 23, das Beobachtungspunkte-Uberwachungsmodul 24, das Beobachtungspunkte-Bewertungsmodul 25, das Bewertungspunkt-Ermittlungsmodul 26 und/oder das Posen-Ermittlungsmodul 27) kann, in einem
Aspekt, innerhalb eines Bewegungserfassungsdatenverarbeitungsmoduls 22 erfolgen, welches wiederum auf Sensordaten des Bewegungserfassungssensors 5 zugreift.
[0043] In einem Aspekt erfolgen wesentliche Schritte der Datenverarbeitung auf dem Serviceroboter 1 innerhalb von Prozessknoten 40, welche Daten fir eine Weiterverarbeitung durch andere Prozessknoten 40 generieren. So können das Personenidentifizierungsmodul 20, das Personen-Re-Identifizierungsmodul 21, das Bewegungserfassungsdatenverarbeitungsmodul 22, das Beobachtungspunkte-Modell-Generie- rungsmodul 23, das Beobachtungspunkte-Uberwachungsmodul 24, das Beobachtungspunkte-Bewer- tungsmodul 25, das Bewertungspunkt-Ermittlungsmodul 26, das Posen-Ermittlungsmodul 27, das Koor- dinaten-Transformationsmodul 28, das Ausgabemodul 32, das Feedback-Generierungsmodul 34, das Ano- nymisierungsmodul 35, das Statistikmodul 36, das Distanzhaltemodul 37 und/oder das Navigationsmodul 38 einzeln oder anteilig in Kombination Prozessknoten 40 darstellen. In einem Aspekt ist auch die Anbin- dung von Sensoren (z.B. 5, 6) über Prozessknoten 40 realisiert. Die Umsetzung in Form von Prozesskno- ten 40 sorgt für ein hohes Maß an Modularität. Im Grunde lassen sich auch innerhalb der hier direkt ge- nannten Prozessknoten 40 wie bspw. dem Beobachtungspunkte-Bewertungsmodul 25 verschiedene Pro- zessknoten 40 realisieren. Diese Modularität erlaubt effizient, diverse Bewegungsanalysen zu entwickeln, indem einzelne Prozessknoten 40 effizient über Datenkanäle 41 miteinander verbunden sein kônnen. Dies spart im Vergleich zu monolithischen Ansätzen (im Extremfall eine Anwendung Je zu analysierender Be- wegung) Speicherbedarf. Darüber erlaubt dies auch, im Zeitverlauf eine Applikation effizient zu erwei- tern, indem weitere Prozessknoten 40 in die vorhandenen Prozessknoten 40 integriert oder die vorhande- nen Prozessknoten 40 mit diesen weiteren Prozessknoten 40 verknüpft werden. Darüber lässt sich bspw. das Spektrum an zu analysierenden Bewegungen wie auch des Feedbacks leicht erweitern. Dies spart auch dann Bandbreite ein, wenn diese Erweiterungen als Softwarepakete über das Internet und eine
Drahtlosschnittstelle 4 auf ein System wie einen mobilen Serviceroboter 1 übertragen werden. Ein Pro- zessknoten 40 zeichnet sich bspw. dadurch aus, dass er bestimmte Berechnungen durchführt. Am Beispiel des Beobachtungspunkte-Bewertungsmoduls 25 können das bspw. Berechnungen bestimmter Körperpo- sen oder mit diesen assozlierte Parameter sein. So kann bspw. die Ermittlung, ob eine Person sitzt, wie das oben beschrieben wurde, innerhalb eines Prozessknotens 40 erfolgen. Es kann bspw. die Standdauer einer Person, Schrittlänge, etc., aber auch eine Bewertung solcher Größen wie bspw. eine Überprüfung, 34
24-Beispiel ob die ermittelte Standdauer oder Schrittlänge innerhalb bestimmter Wertebereiche liegt, als Parameter über einen Prozessknoten 40 ermittelt werden. Damit können also die oben erwähnten Regeln auch inne 09344 halb von Prozessknoten 40 hinterlegt sein. Damit werden innerhalb von Prozessknoten 40 bspw. Rechen- operationen ausgeführt, um Bewegungen einer Person zu bewerten. Die Berechnungsergebnisse eines
Prozessknotens 40 werden als solche Daten ausgegeben, die bspw. ein Beobachtungspunkte-Modell auf
Basıs von Beobachtungspunkten, einen oder mehrere Beobachtungspunkte, Posen oder aus von diesen abgeleiteten Größen wie Schrittlänge, Standdauer, usw. abbilden, bzw. allgemein Zeitsignale und/oder
Messreihen. Diese Daten, die von einem Prozessknoten 40 bereitgestellt werden, können durch andere, bevorzugt innerhalb eines Verarbeitungsprozesses nachfolgende Prozessschritte abgerufen werden, insbe- sondere über Datenkanäle 41, über die sie von den Prozessknoten 40, die diese Daten berechnen, zur Ver- fügung gestellt werden. Dies erlaubt eine feingranulare Prozessarchitektur, bei der bevorzugt viele kleine
Prozessknoten 40 die relevanten Berechnungsschritte ausführen.
[0044] Der Datenaustausch zwischen Prozessknoten 40 bzw. das Bereitstellen von Daten eines Prozess- knotens 40 erfolgt über mindestens einen Datenkanal 41, der mindestens zwei Prozessknoten 40 mitei- nander verbindet. Hierbei kann ein erster Prozessknoten 40 die Daten an einen zweiten Prozessknoten 40 senden bzw. der zweite Prozessknoten 40 Daten vom ersten Prozessknoten 40 empfangen, oder anders ausgedrückt: ein Prozessknoten 40 stellt einem oder mehreren anderen Prozessknoten 40 die Daten über einen Datenkanal zur Verfügung. Hierbei ist eine asynchrone Datenverarbeitung innerhalb der Prozess- knoten 40 möglich, d.h. es erfolgt das zeitversetzte Lesen bzw. Schreiben von Daten in mindestens einen
Datenkanal 41 durch einen Prozessknoten 40. Damit ermöglicht ein Prozessknoten 40 bzw. ein Datenka- nal 41 eine asynchrone Datenverarbeitung. In einem Aspekt werden die Datenkanäle 41 durch das Bereit- stellen der Daten eines Prozessknotens 40 über ein shared memory 42 realisiert, auf das ein weiterer Pro- zessknoten 40, der diese Daten verarbeiten soll, Zugriff hat, und/oder die Daten, die durch einen Prozess- knoten 40 einem anderen Prozessknoten 40 zur Verfügung gestellt werden, weisen bspw. einen TCP/IP oder UDP-Header auf.
[0045] In einem Aspekt verfügt der Serviceroboter 1 im Speicher 2 über mindestens eine Zustandsma- schine 43, die verschiedene Verhaltensweisen des Serviceroboters 1 abbildet. Diese Zustandsmaschine 43 ruft in einem Aspekt Prozessknoten 40 auf, wie bspw. die Erfassung der Person durch den Bewegungser- fassungssensor 5, das Beobachtungspunkte-Modell-Generierungsmodul 23, das Posen-Ermittlungsmodul 27, das Beobachtungspunkte-Bewertungsmodul 25, Teilkomponenten davon und/oder Kombinationen da- raus als einen Zustand. In einem Aspekt ruft die mindestens eine Zustandsmaschine 43 mindestens einen
Prozessknoten 40 auf, z.B. basierend auf den Positionsdaten des Serviceroboters 1. Dabei kann, in einem
Aspekt, ein durch eine Zustandsmaschine 43 aufgerufener Prozessknoten 40 eine Ausgabeeinheit 32 um- fassen und/oder Regeln zur Bewertung der Bewegungen und/oder Posen der erfassten Person. Weiterhin kann eine Zustandsmaschine 43 auch innerhalb eines Prozessknotens definiert sein.
[0046] Wird bspw. während der Erfassung der identifizierten Person eine weitere Person durch den Be- wegungserfassungssensor 5 erfasst, und handelt es sich beim Bewegungserfassungssensor um eine RGB- 35
24-Beispiel
Kamera 8, dann werden die Sensordaten derart modifiziert, dass eine Anonymisierung oder Pseudonymi- sierung von solchen Sensordaten mindestens anteilig erfolgt, die eine Identifizierung der Person ermoglic "| 03344 chen. In einem Aspekt wird hierzu der Bereich in den Sensordaten identifiziert, der den Kopf der Person darstellt. Hierzu wird ein Vergleich mit hinterlegten Mustern vorgenommen, in einem optionalen Aspekt unter Zuhilfenahme des Beobachtungspunkte-Modells, das es erlaubt, bestimmte Körperregionen der Per- son zu identifizieren und somit den Suchraum in den Sensordaten entsprechend einzugrenzen, was eine schnellere Datenverarbeitung ermöglicht. Sofern eine bestimmte Körperregion identifiziert wurde, bspw. der Kopf, wird dieser entsprechend in den Sensordaten, in dem Fall RGB-Videodaten, verpixelt. Als Soft- warewerkezeuge kann hier einerseits eine Gesichtserkennungssoftware wie der Gesichtsdetektor von O- penVINO eingesetzt werden, andererseits das Microsoft Kinect SDK für die Generierung von Beobach- tungspunkte-Modellen, was in Zusammenhang mit einer Microsoft Kinect als 3D-Bewegungserfassungs- sensor funktioniert. Für die Verpixelung kann bspw. mittels des Tools OpenCV erfolgen, entweder durch einen einfachen Mittelwertfilter/Gauß'scher Weichzeichner (in der Variante "unscharf" machen) oder ein
Runterskalieren der Auflösung innerhalb des identifizierten Bereichs gefolgt von einem Hochskalieren ohne Interpolation (für den "Verpixelungs-Look" bspw. mit großen, homogene Blöcken). Die Anonymi- sierung bzw. Pseudonymisierung erfolgt innerhalb eines Anonymisierungsmoduls 35, das sich im Spei- cher 2 befindet. Die Differenzierung zwischen mehreren erfassten Personen, um davon mindestens eine zu verpixeln, kann mittels Personentracking und Personen-Re-Identifizierung erfolgen, wobei eine re- identifizierte Person bevorzugt nicht verpixelt wird, sondern vielmehr eine oder mehrere weitere Personen im Erfassungsbereich des Bewegungserfassungsensors 5. In einem Aspekt wird zudem der Abstand der
Personen zum Bewegungserfassungssensor 5 mit ausgewertet, und Personen, die außerhalb eines Ab- standsintervalls oder eines bestimmten Abstandsfelds liegen, werden nicht verpixelt.
[0047] In einem Aspekt verfügt der Serviceroboter 1 über eine Sicherheitsbewegungssteuerung 60. Diese
Sicherheitsbewegungssteuerung 60 ist so konfiguriert, dass sie, je nach Ausgestaltung, direkt oder indi- rekt (mittels eines Motorcontrollers 68)mindestens einen Motor 61 eines mobilen Roboters (z.B. 1) mit einem ersten, zweiten, dritten und vierten Zustand ansteuert, wobei der erste Zustand die Stromversor- gung des mindestens einen Motors 61 derart regelt, dass die durch den Stromfluss im Motor 61 hervorge- rufene und die auf die Position des mobilen Roboters (z.B. 1) in horizontaler Ebene einwirkende Kraft größer der Summe der in horizontaler Ebene einwirkenden Trägheitskräfte des mobilen Roboters (z.B. 1) ist. Im weiten Zustand wird der Stromfluss im mindestens einen Motor 61 derart geregelt, dass eine nega- tive Beschleunigung des mobilen Roboters (z.B. 1) bis zu einer Geschwindigkeit von null erfolgt. Im drit- ten Zustand wird der Stromfluss im mindestens einen Motor 61 derart geregelt, dass die vom mindestens einen Motor 61 hervorgerufene und die auf die Position des mobilen Roboters (z.B. 1) in horizontaler
Ebene einwirkende Kraft in etwa der Summe aus Rollwiderstand und Rotorträgheit des mindestens einen
Motors 61 entspricht, so dass der mobile Roboter (z.B. 1) im Wesentlichen auf seiner Position in horizon- taler Ebene verbleibt. Der vierte Zustand wird durch das Auslösen eines Schalters wie bspw. eines Not-
Halts 65 aktiviert. In einem Aspekt wird im vierten Zustand der Stromfluss im mindestens einen Motor 61 36
24-Beispiel so geregelt, dass die durch den Stromfluss im mindestens einen Motor 61 hervorgerufene und die auf die
Position des mobilen Roboters (z.B. 1) in horizontaler Ebene einwirkende Kraft in etwa der Summe der ne 03344 horizontaler Ebene einwirkende Gegenkräfte entspricht, die durch die Trägheit des mobilen Roboters (z.B. 1) hervorgerufen werden. Alternativ und/oder ergänzend wird im vierten Zustand der Stromfluss im mindestens einen Motor 61 so geregelt, dass die durch den Stromfluss im mindestens einen Motor 61 her- vorgerufene Kraft im Wesentlichen die Rotorträgheit des mindestens einen Motors 61 ausgleicht. So kann, in einem Aspekt, die Rotorträgheit mindestens 150g/cm?, in einem bevorzugten Aspekt mindestens 270g/cm?® betragen. Weiterhin kann bspw. der zweite Zustand durch die Detektion eines Hindernisses, durch Assoziierung mit einer definierten Position und/oder durch eine Nutzerinteraktion während des ers- ten Zustands getriggert werden. Der Halt des mobilen Roboters (z.B. 1) erfolgt z.B. durch die Detektion eines Hindernisses (was den mobilen Roboter (z.B. 1) zur Geschwindigkeitsreduktion bis auf 0 zwingen kann). Die Assoziierung mit einer definierten Position kann ebenfalls einen Halt hervorrufen, z.B. wenn bei deren Erreichen, was sich bspw. durch Auswertung der Daten der Odometrieeinheit 13 und/oder des
Umfelderfassungssensors 6 ergeben kann, so dass der mobile Roboter (z.B. 1) beim Abgleich dieser Da- ten mit einer Karte aus dem Kartenmodul 31 anhält. Alternativ und/oder ergänzend kann der Halt durch eine Nutzerinteraktion getriggert werden, wobei die Nutzerinteraktion bspw. das Anhalten einer Person bedeuten kann, die dem mobilen Roboter (z.B. 1) bspw. folgt, währenddessen der mobile Roboter (z.B. 1) einen in etwa konstanten Abstand zur Person mittels eines Distanzhaltemoduls 37 einhält, so dass das
Einhalten des in etwa konstanten Abstands nur dadurch erreicht werden kann, wenn der mobile Roboter (z.B. 1) ebenfalls anhält. Bspw. wird im dritten Zustand dagegen der Stromfluss im mindestens einen Mo- tor 61 derart geregelt, dass die vom Motor 61 hervorgerufene und die auf die Position des mobilen Robo- ters (z.B. 1) in horizontaler Ebene einwirkende Kraft in etwa der Summe aus Rollwiderstand, Rotorträg- heit und mindestens einer weiteren Kraft entspricht, so dass der mobile Roboter (z.B. 1) im Wesentlichen auf seiner Position in horizontaler Ebene verbleibt. Dabei kann die weitere Kraft mittels eines Iner- tialsensors 62 ermittelt werden. Diese weitere Kraft kann bspw. von außen auf den mobilen Roboter (z.B. 1) wirken oder sich im Wesentlichen aus der Schwerkraft ergeben, weil sich der mobile Roboter (z.B. 1) auf einer schiefen Ebene befindet. In diesem Fall würde die Schwerkraft ebenfalls eine Bewegung des mobilen Roboters (z.B. 1) hervorrufen. Dieser dritte Zustand kann, in einem Aspekt, bei Erreichen einer
Geschwindigkeit des mobilen Roboters (z.B. 1) von null erreicht werden. Die Sicherheitsbewegungssteu- erung 60 oder der Motorcontroller 68 ermitteln bspw. mittels eines Drehwinkelsensors 64 eine Geschwin- digkeit oder Beschleunigung, die proportional zur Umdrehungsgeschwindigkeit oder Beschleunigung mindestens eines Antnebsrads 63 des mobilen Roboters ist. Die gemessenen Kräfte oder Beschleunigun- gen konnen, in einem Aspekt, mittels Drehungen ermittelt werden, die der Drehwinkelsensor 64 misst.
Als Drehwinkelsensor 64 kommen Hall-Sensoren, Inkrementgeber, Encoder etc. infrage, die an der Welle eines Antriebsrads 63 oder bspw. innerhalb eines Motorgetriebes die Umdrehungen abgreifen. In einem
Aspekt ist der mindestens eine Drehwinkelsensor 64 zugleich auch Teil der Odometrieeinheit 31 bzw. wird von dieser ebenfalls genutzt. Alternativ und/oder ergänzend kann diese Kraftmessung oder Be- schleunigungsmessung auch mittels eines Inertialsensors 62 erfolgen. Aus Geschwindigkeit und 37
24-Beispiel
Beschleunigung lassen sich für den Fachmann entsprechend die Kräfte ableiten, um den mindestens einen
Motor 61 entsprechend anzusteuern. Weiterhin kann, in einem Aspekt, die Sicherheitsbewegungssteue- LU103344 rung 60 mit einem Steuerungsspeicher 66 ausgestattet sein, der Werte für mindestens eine maximale Ge- schwindigkeit speichert. Die Geschwindigkeit des mobilen Roboters (z.B. 1) wiederum wird mittels
Drehwinkelsensor 64 oder Umfelderfassungssensor 6 ermittelt, und bei Uberschreiten der mindestens ei- nen maximalen Geschwindigkeit wird der Stromfluss im mindestens einen Motor 61 durch die Sicher- heitsbewegungssteuerung 60 oder durch den Motorcontroller 68 bevorzugt auf Initiative der Sicherheits- bewegungssteuerung 60 begrenzt. Die maximale Geschwindigkeit wiederum ist abhängig ist von der
Größe eines Schutzfelds, dass einen Uberwachungsbereich des Umfelderfassungssensors 6 definiert, bspw. eines Laserscanners 14. In einem Aspekt hat die Sicherheitsbewegungssteuerung 60 Zugriff auf ei- nen Speicher (z.B. 66) oder diesen Wert selbst abgelegt im Sicherheitssteuerungsspeicher 66, der Werte für mindestens eine maximale Geschwindigkeit speichert, die der Roboter (z.B. 1) dann vorweisen darf, wenn sich ein Hindemis in einem Schutzfeld des Umfelderfassungssensors 6 befindet und auf die die Si- cherheitsbewegungssteuerung 60 den Roboter (z.B. 1) durch Regelung des Stromflusses im Motor 61 di- rekt oder bspw. indirekt mittels des Motorcontrollers 68 entsprechend abbremst. Dieser Speicher kann bspw. auch innerhalb des Umfelderfassungssensors 6 vorhanden sein, auf den die Sicherheitsbewegungs- steuerung 60 über eine Sicherheitsbewegungssteuerungsschnittstelle 67 zugreift. Diese Sicherheitsbewe- gungssteuerung 60 wiederum ist, in einem Aspekt, in einem mobilen Roboter (z.B. 1) implementiert. Die- ser umfasst weiter einen Bewegungserfassungssensor 5, einen Vitaldatenerfassungssensor 7 und/oder ei- nen Radarsensor 9. In einem Aspekt verfügt der mobile Roboter (z.B. 1) weiter über ein Personenidentifi- zierungsmodul 20, ein Bewegungserfassungsdatenverarbeitungsmodul 22 und/oder ein Beobachtungs- punkte-Modell-Generierungsmodul 23, ein Beobachtungspunkte-Bewertungsmodul 25 und/oder ein
Feedback-Generierungsmodul 34. Die Sensordaten des Bewegungserfassungssensors 5, des Vitaldatener- fassungssensors 7 und/oder des Radarsensors 9 werden, in einem Aspekt, über einen Prozessknoten 40 zur Verfügung gestellt. Der mobiler Roboter (z.B. 1) verfügt, in einem Aspekt, über ein Feedback-Gene- rierungsmodul 34, welches mittels einer Zustandsmaschine 43 getriggert wird. Die technische Lösung umfasst ferner ein Verfahren zur Steuerung eines mobilen Roboters (z.B. 1) mittels einer Sicherheitsbe- wegungssteuerung 60, umfassend das Absolvieren eines Pfads durch einen mobilen Roboter (z.B. 1) in einer Umgebung mit stationären und mobilen Hindernissen, das Abbremsen des mobilen Roboters (z.B. 1) bis auf eine Geschwindigkeit von null, und das Triggern der Sicherheitsbewegungssteuerung 60 durch
Auslösung eines Schalters wie eines Not-Halts 65 nach Abbremsen des mobilen Roboters (z.B. 1) auf die
Geschwindigkeit von null. Das Triggern der Sicherheitsbewegungssteuerung 60 regelt bspw. den Strom- fluss im mindestens einen Motor 61 direkt (oder indirekt mittels eines Motorcontrollers 68) so, dass die durch den Stromfluss im mindestens einen Motor 61 hervorgerufene und die auf die Position des mobilen
Roboters (z.B. 1) in horizontaler Ebene einwirkende Kraft in etwa der Summe der in horizontaler Ebene einwirkende Gegenkräfte entspricht, die durch die Trägheit des mobilen Roboters (z.B. 1) hervorgerufen werden. Das Triggem der Sicherheitsbewegungssteuerung 60 kann, alternativ und/oder ergänzend, den
Stromfluss im mindestens einen Motor 61 direkt (oder indirekt über den Motorcontroller 68) so regeln, 38
24-Beispiel dass die durch den Stromfluss im mindestens einen Motor 61 hervorgerufene Kraft im Wesentlichen die
Rotorträgheit ausgleicht. Das Abbremsen des mobilen Roboters (z.B. 1) erfolgt z.B. durch Detektion min 09344 destens eines mobilen Hindernisses im Erfassungsbereich des Umfelderfassungssensors 6, durch das Er- reichen einer Zielposition oder eine Nutzerinteraktion mit einer Person. Dabei erfolgt, in einem Aspekt, die Detektion des mindestens einen mobilen Hindernisses im Erfassungsbereich des Umfelderfassungs- sensors 6 sich im Schutzfeld des Umfelderfassungssensors 6 und, in einem Aspekt, zugleich auch auf dem
Pfad, den der mobile Roboter (z.B. 1) zurücklegt. Das Absolvieren eines Pfads erfolgt, in einem Aspekt, in einem ersten Zustand der Sicherheitsbewegungssteuerung 60, das Abbremsen in einem zweiten Zu- stand, das Einnehmen einer Stillstandsposition im dritten Zustand, und das Einnehmen eines vierten Zu- stands nach Auslösung des Schalters (insbesondere eines Not-Halts 65).
[0048] Eine technische Herausforderung ist es, die technischen Risiken für eine Person, die mit einem mobilen Serviceroboter interagiert, entsprechend zu minimieren, während auch der Entwicklungsaufwand sowie der Umfang an Hardwarekomponenten und die Komplexität der Sicherheit der Datenverarbeitung auf dem mobilen Serviceroboter 1 sich in Grenzen halten soll. Die technische Lösung ist hier eine Ent- kopplung der sicherheitskritischen Systeme von der Anwendungsebene, auf welcher die Nutzerinteraktion primär stattfindet. Dies sorgt für erheblich geringere Anforderungen an die Sicherheit der Applikation, bspw. Verzicht auf doppelt vorhandene Komponenten zwecks Ausfallkompensation, weniger komplexe
Sensordatenauswertung, weniger komplexe Systemtests, usw. Konkret wird dies wie folgt umgesetzt: Der mobile Serviceroboter 1 weist, wie bereits beschrieben, eine Recheneinheit 3 und einen Speicher 2 auf.
Diese führen zusammen vor allem Aktivitäten auf der Anwendungsebene aus, d.h. bspw. hinsichtlich der
Navigation mit dem Navigationsmodul 38 und der damit zusammenhängenden Pfadplanung durch das
Pfadplanungsmodul 30, nutzen aber auch die in den in diesem Dokument genannten Beispielen (bis auf die zur Sicherheitsbewegungssteuerung 60) aufgezeigten technischen Lösungen innerhalb von Applikatio- nen, bspw. um eine Bewegungsanalyse mit Feedback über einen mobilen Serviceroboter 1 zu realisieren.
Die hiermit verbundene mindestens eine Anwendung muss Geschwindigkeit und Bewegungsrichtung des mobilen Serviceroboters 1 beeinflussen können. Dagegen verfügt der mobile Serviceroboter 1 über eine
Sicherheitsebene, auf der eine hardwarenahe Verarbeitung sicherheitsrelevanter Daten erfolgt. Diese Si- cherheitsebene ist von der Anwendungsebene weitestgehend entkoppelt. Auf der Sicherheitsebene werden bspw. durch mindestens einen Umfelderfassungssensor 6 erfasste Sensordaten ausgewertet mit Blick auf mögliche oder tatsächlich erfolgte Kollisionen mit Hindernissen. Zugleich können auf der Sicherheits- ebene auch einige Komponenten doppelt vorhanden sein, oder es werden verschiedene Komponenten ge- nutzt bspw. auf dem Weg der Triangulation, wie ein Laserscanner 14 und eine 3D-Kamera 8 jeweils zur
Hindernisdetektion. Die auf dieser Ebene verarbeiteten Sensordaten beeinflussen vorrangig die Bewegung des mobilen Serviceroboters 1, und zwar derart, dass Hindernisdetektionen, die als kritisch eingestuft werden, dafür sorgen, dass Steuersignale der Anwendungsebene nicht umgesetzt werden. Sofern bspw. die Anwendungsebene ein Steuersignal an den Motor 61 senden möchte, was bevorzugt über einen Mo- torcontroller 68 realisiert wird, dann wird dieses Steuersignal ignoriert bzw. überschrieben, wenn zugleich ein Hindernis durch mindestens einen Umfelderfassungssensor 6 detektiert wird, welches bspw. eine 39
24-Beispiel
Kollision verursachen könnte, insbesondere dann, wenn der mobile Serviceroboter 1 die Steuersignale der
Anwendungsebene so umsetzt, wie das von der Anwendungsebene geplant ist. Hierbei spielt die bereits LU103344 erwähnte Sicherheitsbewegungssteuerung 60 eine entscheidende Rolle. Diese Sicherheitsbewegungssteu- erung 60 priorisiert die Ergebnisse der Auswertung der Umfelderfassungssensordaten und steuert direkt oder indirekt (über einen Motorcontroller 68) den mindestens einen Motor 61 des mobilen Servicerobo- ters 1 derart an, dass eine Hinderniskollision vermieden wird (oder, sofern sie bereits erfolgt ist — bspw. detektiert mittels einer Schutzkontaktleiste 69 — der mobile Serviceroboter 1 zum Sillstand gebracht wird). Dies erlaubt es, auf Anwendungsebene geringere Sicherheitsanforderungen zu realisieren, bspw. lediglich die Sicherheitsklasse A nach der IEC 62304. Dabei können einzelne Anwendungen über die Si- cherheitsklasse A hinausgehen, jedoch ohne notwendigerweise bereits die nächsthöhere Sicherheitsklasse
B zu erreichen.
[0049] Konkret verfügt der mobile Serviceroboter 1 also über eine Recheneinheit 3 und einen Speicher 2 sowie eine Sicherheitsbewegungssteuerung 60, wobei die Sicherheitsbewegungssteuerung 60 auf Basis von Sensordaten die Geschwindigkeit des Serviceroboters 1 reduziert oder die Bewegungsrichtung des mobilen Serviceroboters 1 beeinflusst, wenn mindestens ein die Sensordaten bereitstellender Umfelder- fassungssensor 6 ein Hindernis detektiert. Dies kann bspw. ein Abbremsen umfassen oder eine Ausweich- bewegung. Zudem greift die Recheneinheit 3 auf die Sicherheitsbewegungssteuerung 60 oder einen Mo- torcontroller 68 über mindestens eine Schnittstelle (67, 70) zu, wobei der Zugriff der Recheneinheit 3 auf die Sicherheitsbewegungssteuerung 60 oder den Motorcontroller 68 Einflüsse der Sicherheitsbewegungs- steuerung 60 basierend auf der Hindernisdetektion auf die Geschwindigkeit oder Bewegungsrichtung des mobilen Serviceroboters 1 nicht beeinflussen kann. Die Geschwindigkeitsreduktion oder Bewegungsrich- tungsänderung des mobilen Serviceroboters 1 erfolgt bevorzugt mittels Regelung des Stromflusses im mindestens einen Motor 61 des Serviceroboters 1. Je nach Ausgestaltung der Sicherheitsbewegungssteue- rung 60 verfügt diese über einen integrierten Motorcontroller 68 zur Ansteuerung mindestens eines Mo- tors 61 oder greift über eine Schnittstelle (67, 70) auf einen Motorcontroller 68 zur Ansteuerung des min- destens einen Motors 61 zu. Dieser Motorcontroller 68 nimmt bevorzugt die Geschwindigkeitsreduktion oder Bewegungsnchtungsänderung des mobilen Serviceroboters 1 vor. Die Sensordaten werden von ei- nem Umfelderfassungssensor 6 bereitgestellt, bei dem es sich um eine 2D- oder 3D-Kamera 8, einen Ra- darsensor 9, einen Laserscanner 14 und/oder eine Schutzkontaktleiste 69 handelt. Es kann sich auch um alternative Sensoren handeln auf Basis von Ultraschall oder Infrarot, die ein Fachmann sinnvollerweise für die Umfelderfassung einsetzen würde. Der Umfelderfassungssensor 6 agiert hier unabhängig von der
Recheneinheit 3, wobei jedoch auch die Recheneinheit 3, in einem Aspekt, Daten des Umfelderfassungs- sensors 6 einsetzen kann, bspw. fiir die Navigation und Pfadplanung. In einem Aspekt befindet sich jewei- lige Hindernis, welches die Sicherheitsbewegungssteuerung 60 dazu veranlasst, die Bewegungsrichtung oder Geschwindigkeit des mobilen Serviceroboters 1 zu beeinflussen, in einem Schutzfeld eines Umfel- derfassungssensors 6 wie bspw. eines Laserscanners 14. Bevorzugt erfüllt die Sicherheitsbewegungssteu- erung 60 und/oder der Motorcontroller 68 die Anforderungen der ISO 13849, IEC 62061 und/oder IEC 61508. In einem Aspekt weist hierbei die Sicherheitsbewegungssteuerung 60 und/oder der
24-Beispiel
Motorcontroller 68 mindestens das Performance Level d der ISO 13849 auf bzw. das Sicherheitsintegri- tätslevel 2 der IEC 61508 oder IEC 62061. In einem Aspekt ist die Sicherheitsbewegungssteuerung 60 LU103344 und/oder der Motorcontroller 68 nach der ISO 13849-2, der IEC 62061 und/oder der IEC 61508 validiert worden. Dies impliziert jeweils, dass der mobile Serviceroboter 1 hohe Sicherheitsanforderungen erfüllt mit Blick auf die Nutzerinteraktion, weil das Gefährdungsrisiko nur gering ist.
[0050] Die Anwendungen im Speicher erfüllen dagegen die Anforderungen der IEC 62304, welche prin- zipiell in drei Risikoklassen eingeteilt sind, mit A für geringes Risiko, B für mittleres und C für ein hohes
Risiko. Der mobile Serviceroboter 1 erfüllt bei mindestens einer der Anwendungen 1m Speicher 2, die ebenfalls Finfluss nehmen kônnen auf die Bewegungen des mobilen Serviceroboters 1, die Anforderun- gen der Software-Sicherheitsklasse À der IEC 62304. In einem Aspekt erfüllt mindestens einer Anwen- dungen im Speicher 2 mindestens anteilig die Anforderungen der Software-Sicherheitsklasse B der IEC 62304. Bevorzugt jedoch erfüllen alle Anwendungen im Speicher 2 lediglich die Sicherheitsklasse À der
IEC 62304 und zugleich keine Anwendung die Anforderungen der Software-Sicherheitsklasse B und C der IEC 62304. Damit werden bspw. die technischen Anforderungen an die Verarbeitung der Bewegungs- erfassungssensordaten deutlich reduziert und der Risikominimierungsaufwand in weiten Teilen auf die
Sicherheitsebene mit der Sicherheitsbewegungssteuerung 60 verlagert. Bei der mindestens einen Anwen- dungen handelt es sich um das Navigationsmodul 38 und/oder das Pfadplanungsmodul 30 und/oder das
Beobachtungspunkte-Bewertungsmodul 25, das Feedback-Generierungsmodul 34 und/oder das Ausgabe- modul 32 und/der das Personenidentifizierungsmodul 21 und/oder das Personen-Re-Identifizierungsmo- dul 21. Das Feedback-Generierungsmodul gibt bspw. Feedback aus auf Basis unterschiedlich priorisierter und detektierter Bewegungsabweichungen. Der mobile Serviceroboter 1 verfügt jedoch über weitere Mo- dule auf Anwendungsebene wie bspw. in Fig. 3 1llustriert, die ebenfalls mit integriert werden kônnen. Ne- ben einem mobilen Serviceroboter 1 ist auch mindestens eine Schnittstelle (67, 70) konfiguriert zur Da- tenübertragung zwischen der Anwendungsebene und Sicherheitsebene, wie dies hier zuvor beschrieben wurde.
[0051] Die hier beschriebene Sicherheitsbewegungssteuerung 60 bzw. die Anordnung in Anwendungs- und Sicherheitsebene, mit hohen Sicherheitsanforderungen auf der Sicherheitsebene und geringen Sicher- heitsanforderungen auf der Anwendungsebene, kann mit den verschiedenen Ausführungsbeispielen in die- sem Dokument bevorzugt kombiniert werden.
[0052] Bei einem Serviceroboter 1 kann es sich um einen Roboter handeln, der sich auf Rädern fortbe- wegt, wie nachfolgend in Fig. 1 illustriert, oder aber um einen Roboter, der sich auf Beinen fortbewegt wie bspw. ein sogenannter humanoider Roboter. Letzterer Fall impliziert, dass ich etwaige Fahrbewegun- gen eines mobilen Serviceroboters und Ansprüche darauf ebenfalls auf die Fortbewegung durch Laufen anstelle von Fahren beziehen können. In einem Aspekt kann es sich dabei auch um eine Drohne handeln.
[0053] System und Verfahren werden nun anhand mehrerer Zeichnungen beschrieben. Die Darstellungen sind exemplarisch zu sehen und einige Verfahrensschritte wie auch Systemkomponenten können auch 41
24-Beispiel optional sein. Weiterhin können alle Systeme und Verfahren innerhalb eines einzigen Serviceroboters 1 implementiert sein. LU103344
[0054] Fig. 1 zeigt einen mobilen Serviceroboter 1 mit mindestens einem Bewegungserfassungssensor 5 (in dieser Darstellung sind hier zwei solche Sensoren zu erkennen, deren Bereiche auf der äußeren Hülle des Serviceroboters 1 umrandet dargestellt sind). Der Bewegungserfassungssensor 5 kann in einem As- pekt eine 2D und/oder 3D-Kamera 8 sein oder ein Radarsensor 9. Der Bewegungserfassungssensor 5 kann in einem Aspekt auch als Vitaldatenerfassungssensor 7 fungieren, realisiert durch eine 2D und/oder 3D-Kamera 8 oder einen Radarsensor 9. Alternativ kann der Vitaldatenerfassungssensor 7 auch alternativ oder ergänzend zum Bewegungserfassungssensor 5 vorhanden sein. In einem Aspekt ist auch ein Tempe- ratursensor 15 (bspw. ein Infrarotsensor) auf dem Serviceroboter 1 verbaut, der dazu konfiguriert ist, die
Kôrpertemperatur einer Person zu erfassen, die in einem Aspekt mit dem Serviceroboter 1 interagiert. Die
Position von Bewegungserfassungssensor 5, Vitaldatenerfassungssensor 6 und/oder Temperatursensor 15 befindet sich in einem Aspekt unterhalb vom Display 12 des Serviceroboters 1, in einem Aspekt darüber.
Weiterhin verfügt der Serviceroboter auch über mindestens einen Lautsprecher 11 sowie mindestens einen
Umfelderfassungssensor 6, bei dem es sich bspw. um einen Laserscanner 14, eine 2D und/oder 3D-Ka- mera 8 oder einen Radarsensor 9 handeln kann. Weiterhin kann, in einem Aspekt, der Serviceroboter 1 auch über eine Leuchtelement 18 verfügen, welches an unterschiedlichen Positionen des Serviceroboters 1 positioniert sein kann.
[0055] Fig. 2 stellt eine andere Sichtweise auf die Hardware-Komponenten des Serviceroboters 1 dar, die teilweise in Fig. 1 nicht abgebildet waren, weil sie sich unter dem Gehäuse des Serviceroboters 1 befin- den. Diese Hardwarekomponenten können in dieser Kombination vorhanden sein, müssen es aber nicht, d.h. es können auch weniger als die hier aufgezeigten Hardwarekomponenten vorhanden sein. Das gilt auch für Fig. 1. Zu den auf den Serviceroboter 1 vorhandenen Hardwarekomponenten zählen eine Re- cheneinheit 3 und ein Speicher 2, der mit der Recheneinheit 3 interagiert und wobei die Recheneinheit 3 bspw. im Speicher 2 hinterlegte Daten oder Softwaremodule ausführt. Der Serviceroboter 1 verfügt bspw. über eine Drahtlosschnittstelle 4 zum Datenaustausch. Weiterhin illustriert Fig. 2 auch, dass der Service- roboter 1 über umfangreiche Sensorik verfügt, wie bereits oben für Fig. 1 anteilig erläutert. Der Service- roboter verfügt zudem über mindestens eine Ausgabeeinheit 10 wie einen Lautsprecher 11, ein Display 12, oder ein Leuchtelement 18. Daneben weist der Serviceroboter 1 eine Odometrieeinheit 13 auf zur Po- sitionsermittlung wie aus dem Stand der Technik hinlänglich bekannt. Weiterhin verfügt der Servicerobo- ter 1 noch optional über ein RFID-Lesegerät 17 zum Lesen (und ggf. beschreiben) von RFID-Transpon- dern 16, die bspw. bestimmte Aktionen auf dem Serviceroboter 1 triggern können. Weiterhin zeigt Fig. 2 eine Sicherheitsbewegungssteuerung 60 (die auch nochmal in Fig. 13 und 14 näher erläutert wird). Diese steuert den mindestens einen Motor 61 des Serviceroboters 1 in unterschiedlichen Zuständen an. Die Si- cherheitsbewegungssteuerung 60 reduziert bspw. bei Detektion eines Hindernisses durch einen Umfelder- fassungssensor 6 die Geschwindigkeit eines sich fortbewegenden Serviceroboters 1, in einem Aspekt bis auf 0 Meter pro Sekunde, um eine Kollision mit dem Hindernis zu vermeiden. Die Sicherheitsbewegungs- steuerung 60 greift auf einen Inertialsensor 62 zu, der sich in einem Aspekt innerhalb der 42
24-Beispiel
Sicherheitsbewegungssteuerung 60 befindet. Dabei kann der Inertialsensor 62 zur Ermittlung von auf den
Serviceroboter 1 einwirkende Kräfte ermitteln, sei es bspw. eine Kraft, die durch das Schieben des Ser- LUT03344 viceroboters 1 entsteht, oder aber eine Kraft, die den Serviceroboter 1 auf einer schiefen Ebene in Bewe- gung setzt. Sie kann über unterschiedliche Zustände verfügen, wie an anderer Stelle näher beschrieben, und damit den mindestens einen Motor 61 unterschiedlich ansteuern. Die Sicherheitsbewegungssteuerung 60 verfügt über einen Steuerungsspeicher 66, in dem bspw. Maximalgeschwindigkeiten des Servicerobo- ters 1 hinterlegt sind. Die Sicherheitsbewegungssteuerung 60 wertet z.B. mindestens einen Drehwin- kelsensor 64 und/oder den Inertialsensor 62 aus, um darüber die Geschwindigkeit des Serviceroboters 1 und/oder auf diesen einwirkende Kräfte zu ermitteln. Die Sicherheitsbewegungssteuerung 60 ist mit ei- nem Not-Halt 65 verbunden, der einen der Betriebsmodi aktivieren und deaktivieren kann. Dieser durch den Not-Halt 65 aktivierbare Betriebszustand sorgt dafür, dass der Strom im mindestens einen Motor 61 durch die Sicherheitsbewegungssteuerung 60 so geregelt wird, dass die Rotorkräfte des Motors 61 in etwa so groß sind wie die Kräfte, die der Trägheit des Serviceroboters 1 in der horizontalen Ebene entsprechen, und zwar ohne Einwirkung einer äußeren Kraft auf den Serviceroboter 1 bspw. durch Schieben. In einem dritten Betriebszustand sind die auf den Rotor des Motors einwirkenden Kräfte höher als im zweiten Zu- stand und sie bewirken, dass eine Schiebebewegung den Serviceroboter 1 nur schwer bewegen lässt, d.h. dass mindestens eine Kraft von 25 Newton zum Schieben notwendig ist, präferiert mindestens 40 New- ton.
[0056] Sofem die Sicherheitsbewegungssteuerung 60 allein betrachtet wird, umfasst sie den Steuerungs- speicher 66 und, in einem Aspekt, den Inertialsensor 62, und über mindestens eine Sicherheitsbewegungs- steuerungsSchnittstelle 67 hin zum Motor 61 bzw. eine Motorcontroller-Schnittstelle 70 zwischen einem
Motorcontroller 68 (der den Stromfluss im mindestens einen Motor 61 regelt) und dem mindestens einen
Motor 61, zum Drehwinkelsensor 64, zum Not-Halt 65 und/oder zu einem Umfelderfassungssensor 6.
[0057] Wie Fig. 3 darstellt, verfügt der Serviceroboter 1 in seinem Speicher 2 über eine Reihe von Soft- waremodulen, die mittels der Recheneinheit 3 ausgeführt werden. Diese Module können, müssen aber nicht alle in Kombination vorhanden sein. Zu diesen Softwaremodulen gehören ein Bewegungserfas- sungsdatenverarbeitungsmodul 22, das bspw. ein Beobachtungspunkte-Modell-Generierungsmodul 23 zur
Generierung von Beobachtungspunkten (bspw. bestimmten Gelenkpunkten einer erfassten Person und de- ren (Raum-)koordinaten), ein Beobachtungspunkte-Überwachungsmodul 24 zur Überwachung der Posi- tion oder Anzahl erkannter Beobachtungspunkte, ein Beobachtungspunkte-Bewertungsmodul 25 bspw. zur Bewertung der Position von Beobachtungspunkten im Zeitverlauf, ein Bewertungspunkt-Ermittlungs- modul 26 zur Identifikation spezifischer Beobachtungspunkte oder aus Beobachtungspunkten abgeleiteter
Größen und bspw. deren Tracking im Zeitverlauf unter Abgleich mit hinterlegten Mustern, und/oder ein
Posen-Ermittlungsmodul 27 umfassen zur Identifikation von bestimmten Körperposen basierend auf er- mittelten Beobachtungs- und/oder Bewertungspunkten, in einem Aspekt im Zeitverlauf. Als Input in das
Bewegungserfassungsdatenverarbeitungsmodul 22 bzw. das Beobachtungspunkte-Modell-Generierungs- modul 23 werden bevorzugt Sensordaten des Bewegungserfassungssensors 5 genutzt. 43
24-Beispiel
[0058] In einem Aspekt verfügt der Serviceroboter 1 über ein Personenidentifizierungsmodul 20 und ein
Personen-Re-Identifizierungsmodul 21. Beide Module (20, 21) können bspw. ebenfalls Daten des Bewet 03344 gungserfassungssensors 5, einer 2D- bzw. 3D-Kamera 8 und/oder Daten vom RFID-Lesegerät 17 verar- beiten. In diesem Fall kann das Personenidentifizierungsmodul 20 auch unterschiedliche Submodule fiir diese unterschiedlichen Datenarten aufweisen. Darüber hinaus verfügt der Serviceroboter 1 bspw. über ein Koordinatensystem-Transformationsmodul 28, welches die von einem Sensor (bspw. 5 bis 9 bzw. 14) zur Verfügung gestellten 3D-Koordinaten in Koordinaten eines anderen Sensors (bspw. 5 bis 9 bzw. 14) transformiert. So können hierbei bspw. Raumkoordinaten einer 3D-Kamera 8 in Raumkoordinaten des
Radarsensors 9 oder des Laserscanners 14 transformiert werden oder umgekehrt.
[0059] Daneben weist der Serviceroboter 1 ein Pfadplanungsmodul 30 auf, welches bspw. einen Pfad zwischen zwei Positionen auf einer Karte plant, die aus dem Kartenmodul 31 stammt. Die Positionen können im Speicher 2 hinterlegt sein, im Überwachungsprofil, oder aber im Speicher 2 hinterlegt und mit- tels des Überwachungsprofils aufgerufen werden. Weiterhin weist der Serviceroboter 1 ein Ausgabemodul 32 zur Ausgabe von bspw. Feedback an eine Person auf, die mit dem Serviceroboter 1 interagiert. Dieses
Feedback kann bspw. über Display 12 oder Lautsprecher 11 ausgegeben werden. Hierbei kann zur Erzeu- gung einer Lautsprecherausgabe bspw. ein Text-to-Speech-System 33 zum Einsatz kommen. Die Ausgabe wiederum kann in einem Aspekt durch ein Ausgabemodul 32 erzeugt oder (als fertig abgespeicherte Feed- backs in Text-, Video- oder Audioform) aufgerufen werden, bspw. ein Hinweis, dem Serviceroboter 1 zu folgen oder bestimmte Körperposen einzunehmen, die in einem Aspekt über das Posen-Ermittlungsmodul 27 erfasst und/oder erkannt werden. Das Feedback-Generierungsmodul 34 nimmt, in einem Aspekt, auch eine Auswahl von möglichen Feedbacks vor basierend auf unterschiedlich priorisierten Bewegungsabwei- chungen, die vom Beobachtungspunkte-Bewertungsmodul 25 ermittelt wurden und deren Priorisierung bspw. im Feedback-Generierungsmodul 34 auf Basis hinterlegter Regeln erfolgt. In einem Aspekt verfügt der Serviceroboter 1 noch über ein Anonymisierungsmodul 35, welches insb. 2D-Daten einer Kamera wie
Bilder oder eine Videosequenz anonymisiert oder pseudonymisiert, indem bspw. auf diesen Bildern oder in dieser Videosequenz beinhaltete Körperregionen einer Person wie bspw. deren Kopf verpixelt werden.
Daneben kann, in einem Aspekt, der Serviceroboter über ein Statistikmodul 36 verfügen, das bspw. vom
Feedback-Generierungsmodul generiertes Feedback statistisch aufbereitet, oder aber vom Beobachtungs- punkte-Bewertungsmodul 25 bewertete Bewegungsabläufe statistisch aufbereitet und optional über die
Schnittstelle 4 oder über das Ausgabemodul 32 zur Verfügung stellt. Vom Statistikmodul 36 können aber auch Daten zur Verfügung gestellt werden, die der Serviceroboter 1 über die Drahtlosschnittstelle 4 erhal- ten hat. Der Serviceroboter 1 verfügt, in einem Aspekt, über ein Distanzhaltemodul 37 zum Einhalten ei- ner in etwa konstanten Distanz zur Person, die durch den Bewegungserfassungssensor 5 oder den Vitalda- tenerfassungssensor 7 erfasst wird, bspw. wenn sie sich hinter dem Serviceroboter 1 herbewegt. Weiterhin verfügt der Serviceroboter 1 über ein Navigationsmodul 38, dass mit dem Pfadplanungsmodul 30 und dem Kartenmodul 31 interagiert sowie bspw. mit der Odometrieeinheit 13 und/oder dem Umfelderfas- sungssensor 6, und wobei das Navigationsmodul 38 die aktuelle Position des Serviceroboters 1 für Navi- gationszwecke, aber auch zum Triggern ortsabhängiger Aktivitäten des Serviceroboters 1 zur Verfügung 44
24-Beispiel stellt. Weiterhin verfügt der Serviceroboter 1 über ein Verblindungsmodul 39 bestimmter personenbezo- gener Daten bevorzugt mittels Verpixelung. Die beispielhafte Umsetzung dessen wurde an anderer Stell 1103344 in diesem Dokument bereits beschrieben.
[0060] Fig. 4 illustriert einen Aspekt der Datenverarbeitung auf dem Serviceroboter 1. Hierbei wird in einem Prozessknoten 40 eine Rechenoperation durchgeführt und es werden bspw. generierte Daten über einen Datenkanal 41 mit einem anderen Prozessknoten 40 ausgetauscht, wobei der Austausch eine Bereit- stellung der Daten durch den ersten Prozessknoten 40 an den zweiten Prozessknoten 40 ist. In einem As- pekt werden hierbei generierte Daten eines Prozessknotens 40 bspw. über Remote Procedure Calls oder einen REST-Service , mittels UDP oder TCP/IP-Header, shared memory, etc. über einen Datenkanal 41 bspw. einem anderen Prozessknoten 40 zur Verfügung gestellt. In Fig. 4 a) zeigt auf, dass Datenkanäle 41 mittels shared memory realisiert werden kônnen. In Fig. 4 b) wird der Datenkanal bspw. mittels Aus- tausch über einen TCP/IP oder UDP-Stack realisiert. In einem Aspekt stellt ein Prozessknoten 40 Daten in unterschiedlichen Formaten über mehrere Datenkanäle 41 zur Verfügung.
[0061] Fig. 5 stellt exemplarisch dar, wie die Datenverarbeitung zwischen Softwaremodulen im Speicher 2 und den Prozessknoten sowie Datenkanälen 41 funktioniert. So ist bspw. das Beobachtungspunkte-Be- wertungsmodul 25 in einem Prozessknoten 40 implementiert. Dieses führt mittels der Recheneinheit 3
Berechnungen aus, um die Bewertung der vom Beobachtungspunkte-Modell-Generierungsmodul 23 ge- nerierten Beobachtungspunkte, vom Posen-Ermittlungsmodul 27 auf Basis von Beobachtungspunkten er- mittelten Posen und/oder vom Bewertungspunkt-Ermittlungsmodul 26 auf Basis von Beobachtungspunk- ten und/oder Posen ermittelten Bewertungspunkte auszuwerten. Als Ergebnis kann hierbei bspw. ein Be- wegungsfehler ausgegeben werden, der beschreibt, dass von der erfassten Person ein Arm zu niedrig ge- halten wird. Die Daten, die das Ergebnis des Prozessknotens 40 darstellen, haben bspw. einen TCP/IP-
Header oder UDP-Header oder werden alternativ über shared memory oder für Remote Procedure Calls über einen Datenkanal 41 zur Verfügung gestellt. Einer dieser anderen Prozessknoten kann das Ausgabe- modul 32 triggern, was in einem weiteren Prozessknoten 40 enthalten ist und eine Ausgabe triggert. Diese
Daten, die das „Ausgabe triggern“ charakterisieren, können wiederum über einen Datenkanal 41 einem
Prozessknoten 40 zur Verfügung gestellt werden, der ein Feedback-Generierungsmodul 34 und/oder ein
Ausgabemodul 32 beinhaltet, dass dann als Ergebnis eine Ausgabe triggert, bspw. mittels Lautsprecher 11 eine Sprachausgabe, bspw. den Arm hôher zu heben. In einem môglichen parallelen Strang zu den beiden vorgenannten Prozessknoten kann bspw. das Ergebnis „Arm zu niedrig“ auch über einen Datenkanal 41, der identisch oder nicht identisch ist mit dem Datenkanal hin zum Prozessknoten 40 mit dem Ausgabemo- dul 32, einem weiteren Prozessknoten 40 zur Verfügung stellen, der das Statistikmodul 36 beinhaltet. Die- ses Statistikmodul 36 ermittelt bspw. auf Basis von Regeln deskriptive Ergebnisse über vom Beobach- tungspunkte-Bewertungsmodul 25 ermittelte Bewegungsfehler und stellt diese als Ergebnis über einen
Datenkanal 41 dem Ausgabemodul 32 (implementiert in einem Prozessknoten) zur Verfügung, das als Er- gebnis die Ausgabe von Fehlerstatistiken auf dem Display 12 triggert. Je nach Komplexität der Feedback-
Generierung kann das Feedback-Generierungsmodul 34 und/oder das Ausgabemodul 32 auch durch meh- rere Prozessknoten 40 implementiert sein.
24-Beispiel
[0062] Fig. 6 a) zeigt ein Beispiel auf, wie Zustandsmaschine 43, Datenkanäle 41 und Prozessknoten 40 miteinander wirken. Es wurde eine Zustandsmaschine 43p innerhalb eines Prozessknotens 40z realisiert” 09344
Im Zustand A wartet die Zustandsmaschine 1 Sekunde auf Nachrichten im Datenkanal, die vom Prozess- knoten “Sensor” (40s) und demzufolge als Sensordaten zur Verfügung gestellt werden sollen. Werden in- nerhalb der Wartezeit von 1s über den Datenkanal 41 keine solchen Sensordaten zur Verfügung gestellt, schaltet die Zustandsmaschine 43p in den Zustand B, in welchem ein Neustart des Prozessknotens “Sen- sor” (40s) erfolgt, welcher bspw. Sensordaten des Bewegungserfassungssensors 5 zur Verfügung stellt.
Der Neustart erfolgt durch den Aufruf der Funktion "restart" des Prozessknoten "Sensor" (40s), bspw. durch einen Remote Procedure Call. Wenn der Rückgabewert der Funktion "restart" keinen Fehler signa- lisiert, schaltet die Zustandsmaschine 43p in den Zustand C und wartet hier 5 Sekunden auf den Neustart des Prozessknotens “Sensor” (40s). Danach schaltet die Zustandsmaschine 43p erneut in den Zustand A.
Signalisiert jedoch der Rückgabewert der Funktion "restart" einen Fehler, dann schaltet die Zustandsma- schine 43p in den Zustand D, was bspw. über einen Datenkanal 41 einem weiteren Prozessknoten 40w zur
Weiterverarbeitung wie bspw. einer Ausgabe über eine Ausgabeeinheit 10 zur Verfügung gestellt werden kann.
[0063] Fig. 6 b) zeigt diesen Sachverhalt noch einmal aus einer anderen Perspektive: Da ist zunächst die
Implementierung der Zustandsmaschine 43p innerhalb eines Prozessknotens 40z sowie weiter die Imple- mentierung eines weiteren Prozessknotens “Sensor” (40s). Der Prozessknoten “Sensor” (40s) stellt Sens- ordaten über den Datenkanal 41 der im Prozessknoten 40z implementierten Zustandsmaschine 43p zur
Verfügung, bspw. vom Bewegungserfassungssensor 5. Die Zustandsmaschine 43p im Prozessknoten 40z wartet im Zustand A auf Sensordaten des Prozessknotens 40s. Dauert dieser Zustand A länger als 1 Se- kunde, dann wechselt die Zustandsmaschine 43p in den Zustand B und triggert den Neustart des Prozess- knotens „Sensor“ (40p) durch das Aufrufen der Funktion restart. Da die Funktion , restart” nach Aufruf den Rückgabewert „Restarting“ zurückgibt, wechselt die Zustandsmaschine 43p im Prozessknoten 40z in den Zustand C und wartet 5 Sekunden auf den Neustart des Prozessknotens ,, Sensor” (40s), der Sensorda- ten liefern soll. Nach der Wartezeit von 5s wechselt die Zustandsmaschine 43p in den Zustand A und war- tet auf Sensordaten, die über den Datenkanal 41 vom Prozessknoten „Sensor“ (40s) zur Verfügung gestellt werden. Die Umsetzung einer Zustandsmaschine 43 erfolgt hierbei bspw. in SCXML oder ist direkt in
C++ implementiert.
[0064] Fig. 7 zeigt den Ablauf der Bewertung der Bewegungen einer Person, wie er in verschiedenen Va- rianten, bspw. auch mit Erweiterungen oder Verkürzungen, an anderer Stelle in diesem Dokument be- schrieben wird. Im Schritt 705 erfolgt die Identifizierung einer Person. Dieser Schritt kann vor oder nach dem Erfassung der Bewegungen einer Person (Schritt 715) erfolgen, was auch vom gewählten Verfahren zur Identifikation der Person abhängt. In einem Aspekt erfolgt dieser Schritt 705 mittels eines RFID-
Transponders 16 und vor der Erfassung der Person mittels eines Bewegungserfassungssensors (Schritt 715), wobei der RFID-Transponder 16 mit der Person assoziiert ist, bspw. ein Code, der im RFID Trans- ponder gespeichert ist. Alternativ zum RFID-Transponder 16 könnte auch ein Barcode infrage kommen, der mit der Person assoziiert ist. Sofern die Erfassung der Person mittels eines 46
24-Beispiel
Bewegungserfassungssensors (Schritt 715) vor der Identifizierung der Person (Schritt 705) erfolgt, kann bspw. die Identifizierung der Person mittels RGB-Daten (Bildern) und Vergleich mit hinterlegten Bildern U103344 der Person erfolgen.
[0065] Nach Erfassung der Person mittels eines Bewegungserfassungssensors (Schritt 715) erfolgt die
Genenerung eines Beobachtungspunktemodells (Schritt 720) und die Zuweisung von (Raum-)koordinaten zu den Beobachtungspunkten (Schritt 725). In einem Aspekt kann bspw. dieser Schritt auch optional sein, bspw. wenn die Auswertung der Bewegungen lediglich in der Sagittalebene der Person erfolgen soll. In diesem Fall können anstelle von Raumkoordinaten auch Koordinaten innerhalb der Sagittalebene genutzt werden. Die Erfassung der Bewegungen und/oder Posen der Person kann im Zeitverlauf bis einschließlich
Schritt 775 erfolgen, in einem Aspekt mit mehreren Unterbrechungen.
[0066] Auf Basis der Beobachtungspunkte kann ein Tracking der Person erfolgen, was wiederum dafür genutzt werden kann, um die Person einfacher zu re-identifizieren, weil die Beobachtungspunkte erlau- ben, den Gesichtsbereich einzugrenzen (z.B. im Kopfbereich), der für die Re-Identifizierung genutzt wird.
Als Ergebnis dieser Regelprüfung kann optional eine Re-Identifizierung der erfassten Person erfolgen (Schritt 710). In dem Sinne läuft während des weiteren Ablaufs der Erfassung der Person mit einem Be- wegungserfassungssensor die Re-Identifizierung der erfassten Person (Schritt 710) optional mit.
[0067] Auf die Zuweisung von (Raum-)koordinaten zu den Beobachtungswerten (Schritt 725) oder die optionale Überwachung der Generierung der Beobachtungspunkte durch Regeln (Schritt 730), welcher die Re-Identifikation der erfassten Person (Schritt 710) bspw. als eine Art Parallelprozess triggert, schließt sich die Bewertung der erfassten Bewegungen mittels ermittelter Beobachtungs- und/oder Bewertungs- punkte hinsichtlich Bewegungsabweichungen (Schritt 750) an. Diesem vorgelagert kann die Posenermitt- lung (Schritt 735) und/oder die Bewertungspunkt-Ermittlung (Schritt 740) sein. Je nach Auswertung kann hierbei entweder zunächst Schritt 735, dann Schritt 740 und danach Schritt 750 erfolgen, Schritt 740 kann herausgelassen werden, oder aber sowohl Schritt 735 als auch Schritt 740 werden herausgelassen und es findet eine Bewertung ohne Posenermittlung 735 und Bewertungspunkt-Ermittlung 740 statt. In einem
Aspekt erfolgt für die Bewertung im Schritt 750 ein optionaler Abgleich mit einem Überwachungsprofil (Schritt 755).
[0068] Als Ergebnis des Schritts 750 wird die Existenz und bspw. der Grad von Bewegungsabweichun- gen detektiert. Es erfolgt dann im Schritt 760 eine Priorisierung der detektierten Bewegungsabweichun- gen und im Folgeschritt 765 eine Feedback-Ausgabe bspw. für die am höchsten priorisierte Bewegungs- abweichung. In einem optionalen Aspekt entfällt Schritt 760, und das Feedback wird für die detektierte
Bewegungsabweichung je nach ihrem Grad ausgegeben. Der Grad kann bspw. über die Abweichung von einem bestimmten Wert definiert sein, bspw. als Abweichung von einem Winkel zwischen zwei Gliedma- ßen an einem Gelenk.
[0069] In einem nächsten Schritt 770 erfolgt die Bewertung der erfassten Bewegungen mittels ermittelter
Beobachtungs- und/oder Bewertungspunkte hinsichtlich der im Schritt 760 am höchsten priorisierten Be- wegungsabweichung. Wurden also im Schritt 750 verschiedene Bewegungsabweichungen detektiert, von 47
24-Beispiel denen eine am höchsten priorisiert wurde im Schritt 760, dann erfolgt das Feedback also lediglich für diese im Schritt 765, und im Schritt 770 wird auch lediglich bewertet, ob diese Bewegungsabweichung LU103344 dann auftaucht, um im Schritt 775 dazu eine Feedbackausgabe zu triggem. Allerdings können im Schritt 770 durchaus weitere Bewegungsabweichungen ermittelt werden, fiir die jedoch in Schritt 775 kein Feed- back erfolgt. Diese Bewegungsabweichungen aus Schritt 770, aber auch die aus Schritt 750, welche nicht hoch priorisiert wurden, also in einem Aspekt alle detektierten Bewegungsabweichungen, werden in
Schritt 780 gemeinsam ausgewertet, wie auch die ausgegebenen Feedbacks 765 und 775. Diese Auswer- tung kann bspw. eine statistische Zusammenfassung identifizierter, ggf. auch priorisierter Bewegungsab- weichungen umfassen wie auch eine statistische Zusammenfassung der Feedbacks. Die in Fig 7 aufge- zeigte Darstellung umfasst jeweils Regeln und Prozedere hinter den einzelnen Schritten, die sich für den
Fachmann aus dem Stand der Technik ergeben.
[0070] Fig. 8 greift die Bewertungspunktermittlung aus Schritt 740 auf und stellt diese etwas genauer dar: Es wird hier auf der Posenermittlung im Schritt 735 aufgebaut und eine initiale Pose ermittelt (Schritt 736), eine finale Pose (Schritt 737), und dann erfolgt eine Ermittlung eines Zeitintervalls fiir eine repeti- tive Bewegung (Schritt 745), das sich zeitlich zwischen der initialen und finalen Pose erstreckt. Der min- destens eine Bewertungspunkt wird dann innerhalb des Zeitintervalls ermittelt als Extremwert oder Wen- depunkt (Schritt 746). So kann bspw., wenn das Zeitintervall über einen Schritt läuft, jeweils der Boden- aufsetzpunkt eines Fußes als initiale und finale Pose fungieren und der als Bewertungspunkt der Zeit- punkt herausgegriffen werden, an dem der Fuß die maximale Hohe über dem Boden aufweist. Zu diesem
Zeitpunkt kann dann diese Hohe entsprechend bewertet werden. In einem Aspekt impliziert diese Vorge- hensweise eine zeitversetzte Bewertung, bei der der Bewertungspunkt erst nach Abschluss der Ermittlung der repetitiven Bewegung erfolgt.
[0071] Fig. 9 stellt nun die Schritte 750-775 aus Fig. 7 ausführlicher in einer Variante dar, die den zeitli- chen Ablauf näher berücksichtigt. So erfolgt in Schritt 910 die Erfassung und Bewertung des Bewegungs- ablaufs und/oder mindestens einer Pose einer Person im ersten Zeitintervall 51, was z.B. identisch sein kann mit Schritt (715-)750. Dabei kann z.B. eine Ermittlung von Schritten der Person aus der Bewertung des Bewegungsablaufs (Schritt 920) erfolgen, die Aufsummierung der Schritte der Person (Schritt 925) und, wenn die Summe der Schritte der Person einen Schwellwert erreicht, wird das Ende des Zeitinter- valls 51 getriggert (Schritt 930). Innerhalb des Zeitintervalls 51 erfolgt dann eine Ermittlung von Bewe- gungs- und/oder Posenabweichungen im ersten Zeitintervall 51 (Schritt 940), wobei für diese ermittelten
Abweichungen eine Priorisierung der Bewegungs- und/oder Posenabweichungen im Schritt 945 erfolgt.
Daran schließt sich dann die Ausgabe von Feedback an die Person zur am höchsten priorisierten Bewe- gungs- und/oder Posenabweichung in einem zweiten Zeitintervall 52 an (Schritt 950), was z.B. Schritt 765 in Fig. 7 entsprechen kann. Anschließend erfolgt im dritten Zeitintervall 53 eine erneute Erfassung und Bewertung des Bewegungsablaufs und/oder mindestens einer Pose einer Person (Schritt 955), in ei- nem Aspekt identisch mit den Schritten 715 + 770 in Fig. 7. Erneut wird die Länge des Zeitintervalls, über die die Erfassung und Bewertung erfolgt, über die Anzahl der Schritte der Person definiert, d.h. es erfolgt wieder eine Ermittlung von Schritten der Person aus der Bewertung des Bewegungsablaufs 48
24-Beispiel (Schritt 920), eine Summierung der Schritte der Person (Schritt 925) sowie ein Vergleich der ermittelten
Schrittsumme mit einem Schwellwert, bei dessen Erreichen das Ende des Zeitintervalls 53 markiert wird U103344 (Schritt 935). Die Schwellwerte können sich hier fir die Zeitintervalle 51 und 53 unterscheiden. Die Aus- gabe von Feedback an die Person fiir eine im dritten Zeitintervall 53 detektierten Bewegungs- und/ oder
Posenabweichung erfolgt in einem vierten Zeitintervall 54, wobei es sich bei der Bewegungs- und/ oder
Posenabweichung bevorzugt um die im Schritt 945 am höchsten priorisierte Abweichung handelt und be- vorzugt innerhalb des Zeitintervalls 53 (Schritt 960). Danach erfolgt die Ausgabe von Feedback in einem vierten Zeitintervall 54 (Schritt 965), z.B. identisch mit Schritt 775 in Fig. 7. Danach kann sich z.B. der
Schritt 780 anschließen, bei dem durch das Statistikmodul 36 eine Zusammenfassung detektierter Bewe- gungsabweichungen und/oder ausgegebener Feedbacks erfolgt, bspw. über das Display 12.
[0072] Fig. 10 wiederum stellt eine Form der Bewegungsanalyse und -bewertung dar, die an die in Fig. 7 ankniipft und einen Teilaspekt herausgreift, nämlich das ortsgebundene Triggern von Hinweisen an eine
Person, die mit einem Serviceroboter 1 interagiert, der bspw. mit der Person Übungen durchführt, die eine
Bewegungserfassung und -auswertung involvieren. Einige der genannten Schritte sind identisch oder ähn- lich zu solchen aus Fig. 7 oder Fig. 9. So erfolgt in Schritt 1205 die Identifizierung einer Person (z.B. identisch zu Schritt 705 in Fig. 7). Daran schließt sich die Assoziierung der identifizierten Person mit ei- nem Uberwachungsprofil an (Schritt 1210). Dieses Uberwachungsprofil kann Hinweise und Regeln ent- halten, welche Bewegungen der Person überwacht werden sollen, wie lange, welche Bewegungsabwei- chungen ermittelt werden sollen, wie diese priorisiert sind, wo die Uberwachung stattfinden soll, usw. Be- vorzugt jedoch enthält das Uberwachungsprofil Verweise auf entsprechende Regeln, die im Speicher 2 des Serviceroboters 1 hinterlegt sind (auch als Assoziation des Uberwachungsprofils mit Regeln bezeich- net). An diesen Schritt schließt sich die Erfassung von Bewegungen der Person (Schritt 1220) an, bspw. identisch mit Schritt 715 aus Fig. 7. Es erfolgt die Generierung von Beobachtungspunkten der Person (Schritt 1220, z.B. identisch zu Schritt 720 in Fig. 7) sowie die Bewertung der Bewegungen der Person basierend auf den generierten Beobachtungspunkten (Schritt 1230, in einem Aspekt identisch mit Schritt 750 in Fig. 7). In einem Folgeschritt werden aus dem Uberwachungsprofil Positionsdaten aufgerufen (Schritt 1235). Der Serviceroboter ermittelt seine räumliche Position auf der Karte (Schritt 1240), bspw. mittels der Odometrieeinheit 13 und/oder des Umfelderfassungssensors 6. Es wird dann der Abstand des
Serviceroboters 1 zu den Positionsdaten aus dem Uberwachungsprofil (Schritt 1245) vorgenommen bzw. ein Vergleich der Position des Serviceroboters 1 auf seiner Karte mit der im Uberwachungsprofil hinter- legten Position (Schritt 1250), wobei beide Schritte 1245 und 1250 auch identisch sein können. Anschlie-
Bend erfolgt eine automatische Ausgabe von Hinweisen bei Unterschreitung eines Mindestabstands des
Serviceroboters 1 zur Position aus dem Uberwachungsprofil bzw. bei Erreichen der Position aus dem
Uberwachungsprofil (Schritt 1255). In einem Aspekt handelt es sich bei der Positionsschätzung um eine probabilistische Schätzung. Die Schritte 1220 und 1225 können parallel zu den Schritten 1230-1255 (ganz oder anteilig) erfolgen. In einer Ausfithrungsvariante erfasst der mobile Serviceroboter 1 nicht etwa
Bewegungen der Person, sondern Vitalparameter der Person wie z.B. Atmung, Pulsrate, Herzfrequenz, wobei die zu erfassenden Parameter bspw. im Uberwachungsprofil hinterlegt sind. In einem Aspekt 49
24-Beispiel entfallen dabei die Schritte 1220 und 1230, die mit der Bewegungserfassung der Person assoziiert sind.
Stattdessen können hier Schritte erfolgen, die eine Vitaldatenerfassung umfassen. Alternativ und/ oder eV] 03344 gänzend kann, anstelle der Ausgabe von Hinweisen im Schritt 1255 eine Vitaldatenerfassung erfolgen.
[0073] In Fig. 11 ist ein computer-implementiertes Verfahren beschrieben zur Pfadplanung eines mobilen
Serviceroboters 1, der sich mit einer Person entlang eines Pfads bewegt. Das eigentliche Verfahren um- fasst die folgenden Schritte, die in einem Aspekt erweitert oder gekürzt werden können, z.B. um eine Per- sonenidentifikation, bspw. im Kontext einer Registrierung am Serviceroboter 1, in deren Zusammenhang auch ein Uberwachungsprofil übertragen werden kann. Es sind jedoch auch andere Erweiterungen denk- bar: Im Schritt 1310 erfolgt ein Auslesen einer Zeitdauer, bspw. fiir eine Ubung, aus einem Uberwa- chungsprofil, das bspw. mit der zu überwachendenden und zu erfassenden Person assoziiert ist. Im Schritt 1110 erfolgt die Erfassung der Person, die an anderer Stelle in diesem Dokument bereits ausführlicher be- schrieben wurde. Der Serviceroboter 1 bewegt sich auf einem Pfad bzw. entlang einer Wegstrecke zwi- schen einer Startposition und einer Wendeposition (Schritt 1320). Währenddessen erfolgt eine Ermittlung des Abstands zwischen Serviceroboter 1 und der Person, die sich vor dem Serviceroboter 1 vorausbewegt oder ihm folgt (Schritt 1325), und dabei eine Einhaltung eines in etwa konstanten Abstands zwischen dem
Serviceroboter und Person (Schritt 1330). Die Schritte 1325 und 1330 sind hierbei optional. Währenddes- sen erfolgt zudem die Ermittlung der Durchschnittsgeschwindigkeit des Serviceroboters und/oder der Per- son während des Zuriicklegens des Pfads (Schritt 1340), über die der Serviceroboter 1 mit der Person eine
Wegstrecke zuriicklegen soll. Sofern der Serviceroboter 1 hierbei die Durchschnittsgeschwindigkeit der
Person ermittelt, geschieht dies bspw. über eine Ermittlung der Position der Person auf einer Karte, der
Ermittlung von Abständen, die diese Person auf der Karte zuriicklegt, und die Auswertung der hierfür be- nôtigten Zeit. Der Serviceroboter 1 ermittelt die verbleibende Zeit und Distanz, nach deren Zurücklegen die Begleitung der Person beendet werden soll (Schritt 1350). Dies geschieht bspw., indem zunächst die verbleibende Zeit ermittelt wird basierend aus der verstrichenen Zeit seit Verlassen der Startposition, und der momentanen Position des Serviceroboters 1, und dann die Differenz ermittelt wird zur ausgelesenen
Zeitdauer in Schritt 1310. Fur diese ermittelte, verbleibende Zeit wird dann, basierend auf der ermittelten
Durchschnittsggeschwindigkeit, die Restdistanz berechnet (Schritt 1360). Diese kann bspw. als Differenz aus der offenen Distanz und ganzzahligen Vielfachen der Distanz zwischen einer Startposition und der
Wendeposition definiert sein; und die Festlegung einer neuen Wendeposition (Schritt 1370), an dem der
Serviceroboter 1 einen letzten Richtungswechsel vornimmt und sich zu einer hinterlegten Position bewegt (bspw. der Startposition), wobei die Distanz zwischen der Startposition und der neuen Wendeposition in etwa der halben Restdistanz entspricht.
[0074] Innerhalb des Schritts 1325 kann eine Ermittlung der Größe der Person erfolgen, sofern diese In- formation bspw. nicht Bestandteil des Überwachungsprofils oder mit diesem assoziiert ist. Die Person kann hierzu bspw. mittels des Bewegungserfassungssensors 5 erfasst werden, die erfassten Daten können mittels Beobachtungspunkt-Modell-Generierungsmodul 23 verarbeitet werden, so dass für die Person Be- obachtungspunkte vorliegen, auf deren Basis bspw. die Größe der Person dadurch ermittelt werden kann, dass zwischen Beobachtungspunkten, die mit den Füßen der Person assoziiert sind, und
24-Beispiel
Beobachtungspunkten, die mit dem Kopf der Person assoziiert sind, die Distanz aus den mit diesen Be- obachtungspunkten assoziierten Koordinaten gebildet wird. Die Ermittlung der Durchschnittsgeschwin- LU103344 digkeit des Serviceroboters 1 kann bspw. mittels der Odometrieeinheit 13 und/oder dem Umfelderfas- sungssensor 6 erfolgen, indem die Zeit erfasst wird über eine zurückgelegte Wegstrecke, die bspw. durch die Odometrieeinheit 13 ermittelt wurde. Die Durchschnittsgeschwindigkeit der Person kann bspw. ermit- telt werden mittels des Bewegungserfassungssensors 5 und dem Beobachtungspunkte-Modell-Generie- rungsmodul 23, welches Beobachtungspunkten der Person Koordinaten zuweist, und der Ermittlung der
Distanz zwischen zwei bspw. identischen Beobachtungspunkten und der Zeit zwischen deren Ermittlung.
In beiden Fällen entspricht die Geschwindigkeit dem Distanzintervall geteilt durch das Zeitintervall.
[0075] Fig. 12 beschreibt eine Variante des in Fig. 11 beschriebenen Verfahrens, dem bspw. die Schritte 1205 und 1210 vorgelagert sein können. Es erfolgt, wie bereits an anderer Stelle beschrieben, das Ausle- sen einer Zeitdauer aus einem Überwachungsprofil (Schritt 1310), die Erfassung einer (zu überwachen- den) Person (Schritt 1110) sowie die Bewegung über eine Wegstrecke zwischen einer Start- und einer
Wendeposition (Schritt 1320). Parallel dazu erfolgt optional die Ermittlung des Abstands des Servicerobo- ters 1 zur (überwachten) Person (Schritt 1325) sowie optional die Einhaltung eines in etwa konstanten
Abstands zwischen dem Serviceroboter 1 und der Person (Schritt 1330). Daran schließt sich die Ermitt- lung der bereits verstrichenen Zeit an (Schritt 1440), vorzugsweise seit Verlassen der Startposition, und eine Ermittlung der Zeitdifferenz aus der in Schritt 1310 ausgelesenen Zeit und der verstrichenen Zeit aus
Schritt 1440, was als Schritt 1460 dargestellt ist. Weiterhin wird die Bewegungsrichtung des Servicerobo- ters 1 ermittelt (Schritt 1450). Daraufhin wird in Schritt 1470 eine Aktion getriggert, die auf folgendem
Vergleich basiert: Liegt die ermittelte Zeitdifferenz im Schritt 1460 unter einem Schwellwert, bspw. 30
Sekunden, und bewegt sich der Serviceroboter 1 auf dem Weg zur Startposition (Ergebnis der Berechnung des Schritts 1450), dann verbleibt der Serviceroboter 1 nach Eintreffen an der Startposition (Schritt 1480).
Somit wird keine neue Wendeposition festgelegt. Befindet sich der Serviceroboter 1 jedoch, wenn die er- mittelte Zeitdifferenz im Schritt 1460 unter einem Schwellwert liegt, auf dem Weg zur Wendeposition (Ergebnis der Berechnung im Schritt 1450), setzt der Serviceroboter 1 eine neue Wendeposition, bei deren
Erreichen er zur Startposition zurückkehrt (Schritt 1490). Alternativ zur Startposition kann auch eine al- ternative Position infrage kommen, an der die mit der Person durchgeführte Übung beendet werden soll.
Der Schwellwert kann bspw. in Abhängigkeit von der zu erwarteten Durchschnittsgeschwindigkeit des
Serviceroboters 1 und der Distanz zwischen Startposition und Wendeposition ermittelt festgelegt werden.
Weiterhin kann der im Schritt 1490 ermittelte Wendepunkt an einer Position gesetzt werden, die der Ser- viceroboter 1 in weniger als 30% des in Schritt 1470 genutzten Zeitschwellwerts erreicht. Für diese Be- rechnung kann bspw. auch eine Ermittlung der Durchschnittsgeschwindigkeit herangezogen werden, die für Fig. 11 bspw. bereits aufgezeigt wurde.
[0076] Das in Fig. 11 und Fig. 12 dargestellte Verfahren kann mit den vorangenannten Verfahren oder
Teilen davon entsprechend kombiniert werden, so dass es im Grunde während der Zeit erfolgt, in der die
Erfassung der Bewegungen einer Person (Schritt 1220) vonstattengeht und/oder eine Personenerfassung durch mindestens einen Sensor (5, 7-9) stattfindet, wie das bspw. bereits kurz beschrieben wurde zur 51
24-Beispiel
Ermittlung der Größe der Person. In einem optionalen Aspekt kann zuvor ein Überwachungsprofil aus einem Speicher 2 aufgerufen werden. Das Überwachungsprofil kann wiederum mit Positionsdaten einer“) 09344
Wendeposition, nicht jedoch mit denen der neuen, zu ermittelnden Wendeposition, assoziiert sein.
[0077] Fig. 13 beschreibt die Funktionsweise der Sicherheitsbewegungssteuerung 60. Hierbei absolviert ein mobiler Roboter (z.B. 1) einen Pfad (Schritt 1510). Dabei befindet sich die Sicherheitsbewegungs- steuerung in einem ersten Zustand. Hierbei ist die durch den Stromfluss im Motor 61 des mobilen Robo- ters (z.B. 1) hervorgerufene und die auf die Position des mobilen Roboters (z.B. 1) in horizontaler Ebene einwirkende Kraft größer der Summe der in horizontaler Ebene einwirkenden Trägheitskräfte des mobilen
Roboters (z.B. 1). Es kann nun verschiedene Gründe geben, warum der mobile Roboter (z.B. 1) in einen zweiten Zustand wechselt und dabei abbremst (Schritt 1535). Beim Abbremsen wird der Stromfluss im mindestens einen Motor 61 derart geregelt, dass eine negative Beschleunigung des mobilen Roboters (z.B. 1) bis zu einer Geschwindigkeit von null erfolgt. Ein Grund hierfür kann eine Nutzerinteraktion im
Schritt 1520. Dabei kann es bspw. der Fall sein, dass der mobile Roboter (z.B. 1) einen konstanten Ab- stand zu einer Person einhält, vor der er vorwegbewegt oder die ihm folgt, und diese Person stehenbleibt, wodurch der mobile Roboter (z.B. 1) ebenfalls abbremst im Schritt 1535 und stehenbleibt, wie das auch an anderer Stelle in diesem Dokument beschrieben wurde. Weiterhin kann es sein, dass der mobile Robo- ter (z.B. 1) eine Zielposition erreicht (Schritt 1525), wie bspw. einen Wendepunkt oder eine Startposition, wie das auch an anderer Stelle in diesem Dokument beschrieben wurde, und deshalb ebenfalls abbremst (Schritt 1535) und stehenbleibt. Je nach Konfiguration der Sicherheitsbewegungssteuerung 60 erfolgt das
Triggern des Abbremsens durch die Sicherheitsbewegungssteuerung 60 selbst oder durch eine übergeord- nete Anwendungsebene des mobilen Roboters (z.B. 1). Es kann aber auch passieren, dass der mobile Ro- boter (z.B. 1) ein Hindernis detektiert, dass sich im Erfassungsbereich seines Umfelderfassungssensors 6 befindet und dort bspw. innerhalb eines Schutzfelds. Dies hat zur Folge, dass die Sicherheitsbewegungs- steuerung 60 den mobilen Roboter (z.B. 1) abbremst (Schritt 1535, zweiter Zustand). Ist nach Abbremsen aufeine Geschwindigkeit von Null der mobile Roboter (z.B. 1) stehengeblieben, befindet er sich im drit- ten Zustand. Hier wird der eingestellte Stromfluss im mindestens einen Motor 61 derart geregelt, dass die vom mindestens einen Motor 61 hervorgerufene und die auf die Position des mobilen Roboters (z.B. 1) in horizontaler Ebene einwirkende Kraft in etwa der Summe aus Rollwiderstand und Rotorträgheit des min- destens einen Motors 61 entspricht, so dass der mobile Roboter (z.B. 1) im Wesentlichen auf seiner Posi- tion in horizontaler Ebene verbleibt. Nach Abbremsen bis auf Null und demnach im dritten Zustand wird ein Zustand der Sicherheitsbewegungssteuerung 60 dadurch getriggert, dass ein Schalter wie bspw. der
Not-Halt 65 ausgelöst wird. Dies hat zur Folge, dass der Stromfluss im mindestens einen Motor 61 die
Rotorträgheit des Motors 61 ausgleicht (Schritt 1550). Dies kann identisch sein damit, dass die Kraft aus dem Stromfluss im mindestens einen Motor 61 durch die Regelung des Stromflusses der Summe der Ge- genkrifte entspricht, die durch Trägheit des mobilen Roboters (z.B. 1) entstehen (Schritt 1560). Mit ande- ren Worten: hier kann die hervorgerufene und die auf die Position des mobilen Roboters (z.B. 1) in hori- zontaler Ebene einwirkende Kraft in etwa der Summe aus Rollwiderstand und Rotorträgheit des mindes- tens einen Motors 61 entsprechen, so dass der mobile Roboter (z.B. 1) durch die Regelung des 52
24-Beispiel
Stromflusses im mindestens einen Motor 61 im Wesentlichen auf seiner Position in horizontaler Ebene verbleibt. LU103344
[0078] Fig. 14 zeigt die mit der Sicherheitsbewegungssteuerung 60 assoziierten Komponenten. Die Si- cherheitsbewegungssteuerung 60 verfügt über einen Inertialsensor 62, der sich bevorzugt innerhalb der
Sicherheitsbewegungssteuerung 60 befindet, in einem Aspekt jedoch auch außerhalb, wobei er dann über eine Sicherheitsbewegungssteuerungs-Schnittstelle 67 mit der Sicherheitsbewegungssteuerung 60 verbun- den ist. Weiterhin verfügt die Sicherheitsbewegungssteuerung 60 über einen Sicherheitsbewegungssteue- rungsspeicher 66. In diesem können Werte wie bspw. eine maximale Geschwindigkeit hinterlegt sein, die der mobile Roboter (z.B. 1) einnehmen darf, z.B. wenn er sich zwischen zwei Positionen bewegt. Hierbei kann es sich zum einen um die maximale Geschwindigkeit des mobilen Roboters (z.B. 1) handeln, nach- folgend als erste maximale Geschwindigkeit bezeichnet. Diese kann bspw. durch die Größe eines Schutz- felds bestimmt sein, dass den Erfassungsbereich eines Umfelderfassungssensors 6 segmentiert. Befindet sich ein Hindernis innerhalb dieses Schutzfelds, so reduziert sich die maximale Geschwindigkeit des mo- bilen Roboters (z.B. 1) auf diese zweite maximale Geschwindigkeit. Diese zweite maximale Geschwin- digkeit kann entweder im Steuerungsspeicher 66 hinterlegt sein oder in einem Speicher, auf den die Si- cherheitsbewegungssteuerung 60 über eine Sicherheitsbewegungssteuerungsschnittstelle 67 zugreift. Bei- spielsweise kann es sich hier um einen Speicher des Umfelderfassungssensors 6 handeln. Die Sicherheits- bewegungssteuerung 60 greift über eine Sicherheitsbewegungssteuerungsschnittstelle 67 auf den Motor 61 zu, um dessen Stromfluss zu regeln, sowie auf einen Drehwinkelsensor 64, der die Umdrehungen eines
Antnebsrads 63 des mobilen Roboters (z.B. 1) ermittelt. Sofern es sich um einen Roboter handelt, der ohne Räder ausgestattet 1st, dann entfällt für den Fachmann notwendigerweise dieses Merkmal und die
Geschwindigkeit wird auf andere Art und Weise ermittelt, bspw. mittels Auswertung der Umfelderfas- sungssensordaten. In einem Aspekt verfügt die Sicherheitsbewegungssteuerung 60 über einen Motorcon- troller 68 oder greift auf einen solchen über die Sicherheitsbewegungssteuerungsschnittstelle 67 zu. Die- ser Motorcontroller 68 nimmt konkret die Regelung des Stromflusses im mindestens einen Motor 61 über eine Motorcontroller-Schnittstelle 70 vor und liest in einem Aspekt auch den Drehwinkelsensor 64 aus.
[0079] Fig. 15 illustriert die Trennung von Anwendungsebene und Sicherheitssteuerung 60. Hierbei wird in Fig. 15 a) und Fig. 15 b) jeweils zwischen zwei Szenarien unterschieden. In Fig. 15 a) ist der der Mo- torcontroller 68 in der Sicherheitsbewegungssteuerung 60 integriert. Die Sicherheitsbewegungssteuerung 60 hat, über eine Sicherheitsbewegungssteuerungsschnittstelle 67, Zugriff auf mindestens einen Umfel- derfassungssensor 6, z.B. eine 2D- oder 3D-Kamera 8, einen Radarsensor 9, einen Laserscanner 14 oder eine Schutzkontaktleiste 69. Letztere wird bei Direktkontakt des Serviceroboters 1 mit einem Hindernis ausgelöst. Die Sicherheitsbewegungssteuerung 60 regelt, bevorzugt über den Motorcontroller 68, die
Stromzufuhr im mindestens einen Motor 61 des Serviceroboters 1 bevorzugt über die Motorcontroller-
Schnittstelle 70 derart, dass dieser bei Hindemisdetektion im Fall des Auslôsens der Schutzkontaktleiste 69 direkt stoppt oder dann stoppt, wenn sich das Hindernis innerhalb eines definierten Bereichs befindet, der durch die Sensoren (8, 9, 14) erfasst wird. In einem Aspekt befindet sich das Hindernis innerhalb ei- nes Schutzfelds eines der Sensoren, bevorzugt innerhalb des Schutzfelds eines Laserscanners 14. Anstelle 53
24-Beispiel des Abbremsens kann der mobile Serviceroboters 1 auch ausweichen. Unabhängig davon agiert die An- wendungsebene, die über eine Schnittstelle (in dem Fall die Sicherheitssteuerungsschnittstelle 67) Ein- LU103344 fluss auf die Ansteuerung des Motors 61 nehmen kann, um darüber z.B. Navigationsaufgaben vorzuneh- men mittels des Navigationsmoduls 38 in Kombination mit dem Pfadplanungsmodul 30. Dies erfordert auch das Ansteuern bestimmter Positionen und damit den Motoreinsatz. Weiterhin können weitere Mo- dule von der Anwendungsebene direkt oder indirekt einen Motorzugriff auslösen, insbesondere das Dis- tanzhaltemodul 37 zum Einhalten einer Distanz zwischen einem Nutzer und dem Serviceroboter 1. Dies hat z.B. zur Folge, dass eine Geschwindigkeitsanderung des Nutzers, wenn der Nutzer dem Servicerobo- ter 1 folgt oder ihm vorausgeht, indirekt auch die Geschwindigkeit des Serviceroboters 1 mittels der Si- cherheitsbewegungssteuerung 60 bzw. des Motorcontrollers 68 beeinflusst. Genauso können Nutzennter- aktionen im Rahmen der Bewegungsanalyse (die z.B. über das Bewegungserfassungsdatenverarbeitungs- modul 22, das Beobachtungspunkte-Modell-Generierungsmodul 23 (bspw. dem Microsoft Kinect SDK), dem Beobachtungspunkte-Bewertungsmodul 25, dem Bewertungspunkt-Ermittlungsmodul 26, dem Po- sen-Ermittlungsmodul 27, dem Feedback-Generierungsmodul 34 und dem Ausgabemodul 32 einzeln oder in Kombination, bspw. in Abhängigkeit der damit zusammenhängenden Nutzermenüführung für Bewe- gungen des mobilen Serviceroboters 1 sorgen. Dies gilt zB. auch für das Personenidentifizierungsmodul 20. Diese und ggf. weitere Module können über die Sicherheitsbewegungssteuerung 60 bzw. über die Si- cherheitsbewegungssteuerungsschnittstelle 67 Einfluss auf den Motorcontroller 68 nehmen, um die Ge- schwindigkeit bzw. indirekt auch die Fahrtrichtung des mobilen Serviceroboters 1 über den mindestens einen Motor 61 zu beeinflussen. Die Fahrtrichtung wird bspw. durch das unterschiedliche Ansteuern von mindestens zwei Antriebsrädern 63 erreicht. Allerdings haben diese ganzen Ansteuerungen über die An- wendungsebene gemein, dass sie unabhängig erfolgen von der Ansteuerung des mindestens einen Motors 61 durch die Sicherheitsbewegungssteuerung 60 bzw. indirekt durch die Sicherheitsbewegungssteuerung 60 mittels des Motorcontrollers 68, welche auf der Detektion von z.B. Hindernissen beruhen, die durch mindestens einen Umfelderfassungssensor 6 detektiert werden. Damit kann die Sicherheitsbewegungs- steuerung z.B. die Geschwindigkeit reduzieren, in einem Aspekt bis auf null, wenn ein Hindernis durch den mindestens einen Umfelderfassungssensor 6 detektiert wird, obwohl auf der Anwendungsebene eine
Anwendung mit mindestens einem der genannten Module bzw. einem der Module aus Fig. 15 direkt oder indirekt andere Ansteuerungssignale an die Sicherheitsbewegungssteuerung 60 bzw. den Motorcontroller 68 über die Sicherheitsbewegungssteuerungsschnittstelle 67 sendet, welche, in einem Aspekt, bspw. gar ein Beschleunigen des Serviceroboters 1 implizieren kônnten. Diese Ansteuerungssignale werden also durch die von der Sicherheitsbewegungssteuerung 60 mit Blick auf die Hindemisdetektion ausgelôsten
Signale niedriger priorisiert bzw. überschrieben und demzufolge nicht umgesetzt. Fig. 15 b) beschreibt dagegen ein Szenario, in dem der Motorcontroller 68 nicht in die Sicherheitsbewegungssteuerung 60 inte- griert ist. Hier verfügt dieser über eine Schnittstelle (z.B. 67, 70) hin zur Sicherheitsbewegungssteuerung 60 sowie eine Schnittstelle (z.B.70) hin zur Anwendungsebene und auch hin zum mindestens einen Motor 61. Die Sicherheitsbewegungssteuerung 60 greift wieder auf den mindestens einen Umfelderfassungs- sensor 6 zurück, wie bereits beschrieben. Die Anwendungsebene wiederum hat, über die Motorcontroller- 54
24-Beispiel
Schnittstelle 70, Zugriff auf dem Motorcontroller 68 zum Ansteuern des mindestens einen Motors 61, um diesen in Abhängigkeit von den Anwendungen entsprechend anzusteuern. Mit Blick auf die Hindernisde- 03344 tektion erfolgt ebenfalls wie in Fig. 15 a), dass die Hindernisdetektion und daraus abgeleitete Steuerungs- befehle auf den Motorcontroller 68 Steuerbefehle der Anwendungsebene bevorzugt überschreibt.
[0080] Die nachfolgenden Beispiele greifen Teilaspekte der Erfindung heraus. Die in den Beispielen ge- nannten Merkmale kann der Fachmann mit den anderen, in der Beschreibung genannten Merkmalen kom- binieren.
Beispiel 1: Bewegungsauswertung einer Person
[0081] Die erfinderische Teilaufgabe in diesem Beispiel ist die effiziente und zugleich auch robuste Aus- wertung der Bewegungen einer erfassten Person im Zeitablauf insbesondere mit Verfahren aus dem Be- reich Motion Capture bzw. Pose Estimation, um dieser erfassten Person bspw. Feedback zu Bewegungs- ablauf zu geben.
SKMI1. Computer-implementiertes Verfahren zur Erfassung und Bewertung von Bewegungen einer Per- son, umfassend e Identifizierung einer Person auf Basis erkannter Muster innerhalb erfasster Sensordaten, e Erfassung der Person mittels eines Bewegungserfassungssensors 5, e Generierung eines Beobachtungspunkte-Modells von Beobachtungspunkten für die erfasste Person mittels Musterauswertung und im Speicher 2 hinterlegter Regeln, e Bewertung der erfassten Bewegungen auf Basis von Beobachtungspunkten des Beobachtungspunkte-
Modells und mittels 1m Speicher 2 hinterlegten Regeln.
SKM2. Computer-implementiertes Verfahren zur Erfassung und Bewertung von Bewegungen einer Per- son, umfassend e Erfassung der Person mittels eines Bewegungserfassungssensors 5, e Identifizierung einer Person auf Basis erkannter Muster innerhalb erfasster Sensordaten, e Generierung eines Beobachtungspunkte-Modells von Beobachtungspunkten für die erfasste Person mittels Musterauswertung und im Speicher 2 hinterlegter Regeln, e Bewertung der erfassten Bewegungen auf Basis von Beobachtungspunkten des Beobachtungspunkte-
Modells und mittels 1m Speicher 2 hinterlegten Regeln.
SKM3: Computer-implementiertes Verfahren nach SKM1-SKM2, wobei für die identifizierte Person ein
Uberwachungsprofil vorgehalten wird, dass mit im Speicher 2 hinterlegten Regeln zur Bewertung der Be- wegungen der identifizierten Person assoziiert ist.
SKM4: Computer-implementiertes Verfahren nach SKM1-SKM3, wobei die Regeln, die mit der identifi- zierten Person assoziiert sind, mit Positionen in einem Koordinatensystem einer Karte assoziiert sind.
SKM5: Computer-implementiertes Verfahren nach SKM1-SKM4, wobei der Bereich, in dem sich die Be- obachtungs- und/oder Bewertungspunkte befinden, mit einem vordefinierten Bereich in einem Koordina- tensystem assoziiert ist.
24-Beispiel
SKM6: Computer-implementiertes Verfahren nach SKM1-SKM5, wobei die Regeln, die mit der identifi- zierten Person assoziiert sind, über eine Drahtlosschnittstelle 4 zur Verfügung gestellt oder getriggert wer 103344 den.
SKM7. Computer-implementiertes Verfahren nach SKM1-SKM6, wobei das Uberwachungsprofil, das mit der identifizierten Person assoziiert ist, über eine Drahtlosschnittstelle 4 zur Verfügung gestellt wird.
SKM8: Computer-implementiertes Verfahren nach SKM1-SKM7, wobei die Verarbeitung der erfassten
Bewegungen im Zeitablauf eine Verarbeitung zeitdiskreter Messwerte umfasst.
SKM9: Computer-implementiertes Verfahren nach SKM1-SKM8, wobei von der Person eine repetitive
Bewegung mittels des Bewegungserfassungssensors 5 im Zeitablauf erfasst wird, beginnend mit einer ini- tialen Pose, intermediären Posen, sowie einer finalen Pose, die jeweils mindestens durch ein Subset an
Beobachtungspunkten definiert werden, und wobei die finale Pose wiederum als Startpose fiir die nächste repetitive Bewegung dient.
SKM10: Computer-implementiertes Verfahren nach SKM9, wobei eine initiale Pose und/oder eine finale
Pose durch Vergleich mit im Speicher 2 hinterlegen, klassifizierten Posen ermittelt wird.
SKMI11: Computer-implementiertes Verfahren nach SKM9, wobei die nächste repetitive Bewegung grundsätzlich identisch oder nicht identisch ist mit der vorangegangenen repetitiven Bewegung.
SKM12: Computer-implementiertes Verfahren nach SKM9, wobei zwischen initialer Pose und finaler
Pose ein oder mehrere Bewertungspunkte ermittelt werden durch Auswertung des Zeitverlaufs der Posen der Person innerhalb der repetitiven Bewegung, der eine Bewertung der repetitiven Bewegung erlaubt.
SKM13: Computer-implementiertes Verfahren nach SKM 12, wobei eine gemeinsame Bewertung mindes- tens zweier subsequenter repetitiver Bewegungen gemeinsam jeweils mit mindestens einem Bewertungs- punkt, der jeweils innerhalb der repetitiven Bewegungen ermittelt worden ist, durch Vergleich gemessener
Werte mit im Speicher 2 hinterlegten Bewertungsregeln erfolgt.
SKM14: Computer-implementiertes Verfahren nach SKM 12-SKM 13, wobei die Bewertung einer repetiti- ven Bewegung mittels Ermittlung des Abstands zwischen mindestens zwei Beobachtungspunkten und
Vergleich des ermittelten Abstands mit im Speicher 2 hinterlegten Bewertungsregeln erfolgt.
SKM15: Computer-implementiertes Verfahren nach SKM 12-SKM 14, wobei die Bewertung einer repetiti- ven Bewegung durch die Ermittlung der Abstände zwischen mindestens zweier Beobachtungspunkten und mindestens eines Bewertungspunkts und Vergleich des ermittelten Abstands mit im Speicher 2 hinter- legten Bewertungsregeln erfolgt.
SKM16: Computer-implementiertes Verfahren nach SKM4, wobei die im Speicher 2 hinterlegten Bewer- tungsregeln, die mit der identifizierten Person assoziiert sind, über eine Drahtlosschnittstelle 4 zur Verfü- gung gestellt oder getriggert werden.
SKM17. Computer-implementiertes Verfahren nach SKM 1-SKM16, wobei die Sensordaten des Bewe- gungserfassungssensors 5 über einen Prozessknoten 40 und einen Datenkanal 41 mindestens einem ande- ren Prozessknoten 40 zur Verfügung gestellt werden.
SKM18: Vorrichtung zur Durchführung des Verfahrens nach SKM1-SKM17. 56
24-Beispiel
SKM19: Vorrichtung zur Durchführung des Verfahrens nach SKM18, wobei es sich um einen mobilen
Serviceroboter 1 handelt. LU103344
SKM20: System zur Erfassung und Bewertung von Bewegungen einer Person, umfassend e cine Recheneinheit 3 und einen Speicher 2, e cin Personenidentifizierungsmodul 20 im Speicher 2 zur Identifizierung einer Person auf Basis er- kannter Muster innerhalb erfasster Sensordaten, e einen Bewegungserfassungssensor 5 zur Erfassung der Bewegung einer Person, e ein Beobachtungspunkte-Modell-Generierungsmodul 23 im Speicher 2 zur Generierung von Be- obachtungspunkten fur die erfasste Person mittels Musterauswertung durch die Recheneinheit 3 und im Speicher 2 hinterlegter Regeln und Zuweisung von Koordinaten zu den Beobachtungspunkten des
Beobachtungspunkte-Modells durch die Recheneinheit 3, e ein Beobachtungspunkte-Bewertungsmodul 25 im Speicher 2 mit Regeln zur Bewertung mindestens einer erfassten Bewegung auf Basis von Beobachtungspunkten des Beobachtungspunkte-Modells,
SKM21. System nach SKM20, weiter umfassend eine Drahtlosschnittstelle 4, konfiguriert für die Uber- tragung des Uberwachungsprofils, wobei für die identifizierte Person im Speicher 2 ein Uberwachungs- profil vorgehalten wird, das mit Regeln zur Bewertung der Bewegungen der identifizierten Person und/oder mit Positionen in einem Koordinatensystem einer Karte assoziiert ist.
SKM22. System nach SKM20-SKM21, weiter umfassend ein Posen-Ermittlungsmodul 27 im Speicher 2 mit Regeln zur Detektion von Posen durch Vergleich mit hinterlegten Posen basierend auf mindestens ei- nem Subset an Beobachtungspunkten des Beobachtungspunkte-Modells
SKM23. System nach SKM20-SKM22, weiter umfassend ein Bewertungspunkt-Ermittlungsmodul 26 im
Speicher 2 mit Regeln zur Ermittlung eines Bewertungspunkts auf Basis der Auswertung von Beobach- tungspunkten zwischen initialer Pose und finaler Pose durch Auswertung des Zeitverlaufs der Posen der
Person innerhalb der repetitiven Bewegung durch die Recheneinheit 3.
SKM24. System nach SKM20-SKM23, weiter umfassend ein Personen-Re-Identifizierungsmodul 2 im
Speicher 2 zur Re-Identifizierung einer Person auf Basis erkannter Muster innerhalb erfasster Sensordaten durch die Recheneinheit 3.
SKM25. System nach SKM20-SKM24, weiter umfassend im Speicher 2 ein Kartenmodul 31, welches
Koordinaten zur Verfügung stellt, welche mit der Erfassung der Bewegungen der Person, der Verarbei- tung der erfassten Bewegungserfassungssensordaten und/oder der Bewertung der Bewegungen der Person jeweils auf Basis von im Speicher 2 hinterlegten Regeln assoziiert sind.
SKM26. System nach SKM20-SKM25, wobei der Bewegungserfassungssensor 5 generierte Daten als
Prozessknoten 40 mindestens einem anderen Prozessknoten über einen Datenkanal 41 zur Verfügung stellt oder einen Zustand einer Zustandsmaschine 42 triggert.
Beispiel 2: Feedback bei einem System zur Bewegungsanalyse und -korrektur
[0082] Die erfinderische Teilaufgabe in diesem Beispiel ist die Analyse der Bewegungen einer Person und die Generierung von Feedback bei einem System zur Bewegungsauswertung, mit dem eine Person 57
24-Beispiel erfasst wird und das die Bewegungen der Person ermittelt, auswertet und der Person zu den erfassten Be- wegungen ein Feedback gibt. Eine hierbei auftretende Herausforderung ist, eine Vielzahl von detektierten | 09344
Bewegungsabweichungen mit unterschiedlichem Feedback zu „synchronisieren“.
FS1. Computer-implementiertes Verfahren zur Erfassung und Bewertung von Bewegungen einer Person im Zeitablauf und zur Generierung von Feedback an die Person, umfassend a) Erfassung einer Person mittels eines Bewegungserfassungssensors 5, b) Generierung eines Beobachtungspunkte-Modells von Beobachtungspunkten für die erfasste Per- son mittels Musterauswertung und im Speicher 2 hinterlegter Regeln, c) Bewertung der erfassten Bewegungen hinsichtlich definierter Bewegungsabweichungen auf Basis von Beobachtungspunkten des Beobachtungspunkte-Modells und/oder daraus abgeleiteten Be- wertungspunkten und zu diesen im Speicher 2 hinterlegten Regeln in einem ersten Zeitintervall 51, d) Ausgabe von Feedback an die Person mittels einer Ausgabeeinheit 10 in einem zweiten, sich dem ersten Zeitintervall 51 anschließenden Zeitintervall 52 zur ermittelten Bewegungsabweichung.
FS2. Computer-implementiertes Verfahren nach FS1, weiter umfassend ein drittes Zeitintervall 53, in welchem kein Feedback ausgegeben wird.
FS3. Computer-implementiertes Verfahren nach FS1-FS2, weiter umfassend e Durchlaufen der Schritte a) - c) aus FS1 in einem vierten Zeitintervall 54, e Ausgabe von Feedback in einem sich dem vierten Zeitintervall 54 anschließenden fünften Zeitinter- vall 55 zu der im vierten Zeitintervall 54 bewerteten Bewegungsabweichung.
FS4. Computer-implementiertes Verfahren nach FS2, wobei die zeitliche Länge des dritten Zeitintervalls 53 null beträgt.
FS5. Computer-implementiertes Verfahren nach FS2, wobei die zeitliche Länge des dritten Zeitintervalls 53 kürzer ist als die Summe aus der Länge des ersten Zeitintervalls 51 und zweiten Zeitintervalls 52.
FS6. Computer-implementiertes Verfahren nach SF1-FS5, wobei die Länge eines Zeitintervalls (51-55) über die Anzahl der gemachten Schritte der erfassten Person definiert ist.
FS7. Computer-implementiertes Verfahren nach SF6, wobei die Anzahl der gemachten Schritte der Person mittels einer Bewertung des Beobachtungspunkte-Bewertungsmoduls 25 ermittelt wird.
FS8. Computer-implementiertes Verfahren nach FS3, wobei im vierten Zeitintervall 54 die im ersten Zeit- intervall 51 identifizierte und im zweiten Zeitintervall 52 mit Feedback assoziierte Bewegungsabwei- chung als Abweichungstyp erneut bewertet wird.
FS9. Computer-implementiertes Verfahren nach FS1, mit einer Priorisierung ermittelter Bewegungsab- weichungen im ersten Zeitintervall 51 und einer Ausgabe von Feedback im zweiten Zeitintervall 52 zur im ersten Zeitintervall 51 am höchsten priorisierten Bewegungsabweichung.
FS10. Computer-implementiertes Verfahren nach FS1-FS9, mit einer Ausgabe von Feedback im fünften
Zeitintervall 55, das auf unterschiedlich priorisierten Bewegungsabweichungen basiert als das im zweiten
Zeitintervall 52 ausgegebene Feedback. 58
24-Beispiel
FS11. Computer-implementiertes Verfahren nach FS1-FS10, mit unterschiedlichem Feedback in Zeitinter- vall 52 und Zeitintervall 55 bei jeweils detektierten und gleich priorisierten Bewegungsabweichungen. LU103344
FS12. Computer-implementiertes Verfahren nach FS1-FS11, umfassend das wiederholte Durchlaufen der
Zeitintervalle (51) bis (55) und dabei, in mindestens zwei fiir Feedback vorgesehenen Zeitintervallen, die
Ausgabe von Feedback zu mindestens zwei unterschiedlich priorisierten und detektierten Bewegungsab- weichungen.
FS13. Computer-implementiertes Verfahren nach FS1-FS12, weiter umfassend ein finales Zeitintervall 56 nach einem oder mehreren, sich an das Zeitintervall 55 anschließende Zeitintervallen, zur Ausgabe von
Feedback über die Ausgabeeinheit 10, welches auf Basis von mindestens zwei unterschiedlich priorisier- ten und detektierten Bewegungsabweichungen erfolgt.
FS14. Computer-implementiertes Verfahren nach FS1-FS13, wobei vor der Generierung eines Beobach- tungspunkte-Modells eine Identifizierung der erfassten Person durch Erfassung von Personenmerkmalen der Person und Vergleich der erfassten Personenmerkmale mit in einem Speicher 2 hinterlegten Merkma- len erfolgt sowie Re-Identifizierung der Person im Zeitablauf.
FS15. Computer-implementiertes Verfahren nach FS1-FS14, wobei die Bewertung der erfassten Bewe- gungen auf Basis von im Speicher 2 hinterlegten Bewertungsregeln fiir die Bewegungsabweichungen er- folgt, die mit der identifizierten Person assoziiert sind.
FS16. Computer-implementiertes Verfahren nach FS1-FS15, wobei die Erfassung der Bewegungen der
Person und/oder die im Speicher 2 hinterlegten Bewertungsregeln, die mit der identifizierten Person asso- ziiert sind, mit Positionen in einem Koordinatensystem einer Karte assoziiert sind.
FS17: Computer-implementiertes Verfahren nach FS14-FS16, wobei für die identifizierte Person ein
Uberwachungsprofil vorgehalten wird, dass mit im Speicher 2 hinterlegten Regeln zur Bewertung der Be- wegungen der identifizierten Person assoziiert ist.
FS18. Computer-implementiertes Verfahren nach FS17, wobei das Uberwachungsprofil, das mit der iden- tifizierten Person assoziiert ist, über eine Drahtlosschnittstelle 4 zur Verfügung gestellt wird.
FS19. Computer-implementiertes Verfahren nach FS17-FS18, wobei das Überwachungsprofil mit min- destens zwei Positionen auf einer Karte assoziiert ist und zwischen den beiden Positionen eine Pfadpla- nung erfolgt.
FS20. Computer-implementiertes Verfahren nach FS1-FS19, wobei jedes Zeitintervall über einen Zustand einer Zustandsmaschine 43 definiert ist.
FS21. Computer-implementiertes Verfahren nach FS1-FS20, wobei die Daten des Bewegungserfassungs- sensors 5 über einen Prozessknoten 40 und einen Datenkanal 41 anderen Prozessknoten 40 zur Verfügung gestellt werden.
FS22. Computer-implementiertes Verfahren nach FS21, wobei die Datenbereitstellung über den Datenka- nal41 mittels shared memory, remote procedure calls, und/oder mittels Datenpaketen erfolgt, die die ei- nen TCP/IP oder UDP-Header aufweisen.
FS23. Computer-implementiertes Verfahren nach Anspruch FS1-FS22, mit einer Bereitstellung erfasster
Bewegungsdaten, Personenidentifizierungsdaten, Beobachtungspunkte, Beobachtungspunkte- 59
24-Beispiel
Bewertungen, Pfadplanungsdaten, Kartendaten und/oder Ausgabedaten mindestens anteilig über einen
Prozessknoten 40 und mittels eines Datenkanals 41. LU103344
FS24. Vorrichtung zur Durchführung des Verfahrens nach FS1-FS23.
FS25. Vorrichtung zur Durchführung des Verfahrens nach FS24, wobei es sich bei der Vorrichtung um ei- nen mobilen Serviceroboter 1 handelt.
FS26. System zur Erfassung und Bewertung von Bewegungen einer Person im Zeitablauf und zur Gene- rierung von Feedback umfassend e einen Bewegungserfassungssensor 5 zur Erfassung der Bewegung einer Person, e cine Recheneinheit 3 und ein Speicher 2, e ein Beobachtungspunkte-Modell-Generierungsmodul 23 im Speicher 2 zur Generierung eines Be- obachtungspunkte-Modells aus Beobachtungspunkten der Person durch die Recheneinheit 3, e ein Beobachtungspunkte-Bewertungsmodul 25 im Speicher 2 mit Regeln zur Bewertung mindestens einer erfassten Bewegung auf Basis eines überwachten Beobachtungs- und/oder Bewertungspunkts in der Recheneinhent 3, e ein Aussabemodul (32) und eine Ausgabeeinheit 10 zur Ausgabe von Feedback basierend auf einem sich im Speicher 2 befindlichen Feedback-Generierungsmodul 34, e wobei das Beobachtungspunkte-Bewertungsmodul 23 konfiguriert ist für die Bewertung der erfassten
Bewegungen in einem ersten Zeitintervall 51 und das Feedback-Generierungsmodul 34 die Ausgabe von Feedback zur detektierten Bewegungsabweichung mittels Ausgabemodul 32 über die Ausgabe- einheit 10 in einem zweiten Zeitintervall 52 initiiert.
FS27. System nach SF26, wobei während eines Zeitintervalls (bspw. 52 oder 55) das Feedback durch Be- rechnungsergebnisse eines Prozessknotens 40 mittels einer Zustandsmaschine 43 getriggert wird.
FS28. System nach SF26-SF27, wobei die die Lange eines Zeitintervalls über die Anzahl der gemachten
Schritte der erfassten Person definiert ist, welche mittels des Beobachtungspunkte-Bewertungsmoduls 25 und/oder eines Posen-Ermittlungsmoduls 27 ermittelt wird.
FS29. System nach FS26-FS28, mit einer Priorisierung von detektierten Bewegungsabweichungen im
Feedback-Generierungsmodul 34.
SF30. System nach SF26-SF29, wobei das Beobachtungspunkte-Bewertungsmodul 23 konfiguriert ist für die erneute Bewertung der im ersten Zeitintervall 51 identifizierte und im zweiten Zeitintervall 52 mit
Feedback assoziierte Bewegungsabweichung als Abweichungstyp in einem vierten Zeitintervall 54 und die Ausgabe von Feedback in einem sich dem vierten Zeitintervall 54 anschließenden fünften Zeitintervall 55 zu der im vierten Zeitintervall 54 bewerteten Bewegungsabweichung.
SF31. System nach SF26-SF30, wobei das Feedback-Generierungsmodul 34 a) mindestens zwei Feedbacks zu unterschiedlich prionsierten Bewegungsabweichungen triggert, b) Feedback zur detektierten und am höchsten priorisierten Bewegungsabweichungen aus dem ers- ten Zeitintervall 51 im zweiten Zeitintervall 52 triggert; c) im fünften Zeitintervall 55 eine Feedbackausgabe für ein Feedback triggert, das auf unterschied- lich priorisierten Bewegungsabweichungen basiert als im zweiten Zeitintervall 52; 60
24-Beispiel d) unterschiedliches Feedback in Zeitintervall 52 und Zeitintervall 55 bei jeweils detektierten und gleich priorisierten Bewegungsabweichungen triggert; und/oder LU103344 ¢) ein Feedback in einem finalen Zeitintervall 56 nach einem oder mehreren, sich an das Zeitinter- vall 55 anschlieBende Zeitintervallen triggert, welches auf Basis von mindestens zwei unter- schiedlich priorisierten und detektierten Bewegungsabweichungen basiert und das mittels eines
Statistikmoduls 38 ermittelt wird, und wobei ein Triggern in den Szenarien a)-e) jeweils eine Feedbackausgabe mittels des Ausga- bemoduls 32 und der Ausgabeeinheit 10 zur Folge hat.
SF32. System nach SF26-SF31, weiter umfassend ein Personenidentifizierungsmodul 20 zur Identifizie- rung der Person vor Generierung des Beobachtungspunkte-Modells und einem Personen-Re-Identifizie- rungsmodul 21 zur Re-Identifizierung der Person im Zeitverlauf, wobei für die identifizierte Person mit- tels Regeln im Speicher 2 eine Assoziation der Bewegungsbewertung im Beobachtungspunkte-Bewer- tungsmodul 25 erfolgt.
FS33. System nach FS26-FS32, weiter umfassend ein Posen-Ermittlungsmodul 27 im Speicher 2 mit Re- geln zur Detektion von Posen, eme Drahtlosschnittstelle 4 zum Datenaustausch sowie ein Kartenmodul 31 im Speicher 2, das Koordinaten zur Verfügung stellt, welche mit der Erfassung der Bewegungen der
Person, der Verarbeitung der erfassten Bewegungserfassungssensordaten und/oder der Bewertung der Be- wegungen der Person jeweils auf Basis von im Speicher 2 hinterlegten Regeln assoziiert sind.
FS34. System nach FS26-FS33, wobei die Daten-Bereitstellung des Bewegungserfassungssensor 5 und/oder mindestens eines der Module (23, 25, 27, 31, 32 und/oder 34) als Prozessknoten 40 ausgebildet sind.
FS35. System nach FS34, wobei die Datenbereitstellung über den Datenkanal 41 mittels shared memory,
Remote Procedure Calls, und/oder mittels Datenpaketen erfolgt, die die einen TCP/IP oder UDP-Header aufweisen.
Beispiel 3: Navigation
[0083] Die erfinderische Teilaufgabe in diesem Beispiel ist die effiziente und zugleich auch robuste Aus- wertung der Bewegungen einer Person im Zeitablauf unter Einsparung von Berechnungsaufwand. Dies soll unter Einbezug von ortsabhängigen Regeln für einen mobilen Serviceroboter 1 umgesetzt werden, der die Auswertungen nur an bestimmten Positionen durchführt. In der nachfolgenden Darstellung der Lö- sung kann der Serviceroboter jeweils über eine oder mehrere Recheneinheiten (3) und einen oder mehrere
Speicher 2 verfügen, die zur Implementierung der Lösung aus Sicht des Fachmanns genutzt werden.
NAV1. Computer-implementiertes Verfahren zur Steuerung eines mobilen Serviceroboters 1, der Bewe- gungen (wie bspw. eine Bewegungsiibung) einer Person überwacht, umfassend e Identifizierung der Person am mobilen Serviceroboter 1 auf Basis erkannter Muster innerhalb erfass- ter Sensordaten, e Assoziierung der identifizierten Person mit einem hinterlegten Überwachungsprofil, e Erfassung von Bewegungen der Person mittels eines Bewegungserfassungssensors 5, während der 61
24-Beispiel mobile Serviceroboter 1 einen Pfad zurücklegt, e Generierung von Beobachtungspunkten für die erfasste Person auf Basis hinterlegter Regeln und zur 03344 weisung von Koordinaten zu den Beobachtungspunkten, e Bewertung der erfassten Bewegungen der Person basierend auf den Beobachtungspunkten, dem hin- terlegten Uberwachungsprofil und assoziierten Regeln, e Aufrufen von Positionsdaten als Koordinaten einer Karte, die mit Bestandteilen des Uberwachungs- profils assoziiert sind sowie e automatische Ausgabe von Hinweisen über eine Ausgabeeinheit 10 des mobilen Serviceroboters 1 an die erfasste und identifizierte Person, sobald der mobile Serviceroboter 1 beim Zurücklegen seines
Pfads eine definierte Position oder einen Mindestabstand zu einer mit Regeln im Speicher 2 assoziier- ten Position im Koordinatensystem der Karte erreicht hat.
NAV2. Computer-implementiertes Verfahren nach NAV1, wobei die Ausgabe von Hinweisen innerhalb eines definierten Zeitintervalls ab Erreichen des Mindestabstands zur assoziierten Position getriggert wird.
NAV3. Computer-implementiertes Verfahren nach NAV1-NAV2, wobei die Ausgabe eine Sprachausgabe über einen Lautsprecher 11, eine Displayausgabe über ein Display 12 und/oder eine Signalisierung eines
Leuchtelements 18 darstellt.
NAV4. Computer-implementiertes Verfahren nach NAV1-NAV3, wobei die Ausgabe mittels Machine
Learning als Sprachsynthese mittels eines Text-to-Speech-Systems 33 generiert wird.
NAV5. Computer-implementiertes Verfahren nach NAV1-NAV4, wobei die Personenerfassung und die
Sensordatengenerierung für die Erstellung des Identifikationsprofils durch den Bewegungserfassungs- sensor 5 erfolgt.
NAV6. Computer-implementiertes Verfahren nach NAV1-NAV5, wobei ein Überwachungsprofil mit min- destens zwei Positionen auf einer Karte zum Erreichen durch den mobilen Serviceroboter 1 assoziiert ist und zwischen den einzelnen Positionen jeweils eine Pfadplanung erfolgt.
NAV7. Computer-implementiertes Verfahren nach NAV1-NAV6, wobei eine Überwachung als Bestand- teile die Überwachung von Bewegungen mittels eines Bewegungserfassungssensors 5 und/oder Vitalpara- metern mittels eines Vitaldatenerfassungssensors 7 basierend auf hinterlegten Regeln umfasst.
NAVS. Computer-implementiertes Verfahren nach NAV1-NAV7, wobei ein Überwachungsprofil über eine Schnittstelle auf dem mobilen Serviceroboter 1 übertragen wird.
NAV9 Computer-implementiertes Verfahren nach NAV1-NAV8, wobei neben der identifizierten Person mindestens eine weitere Person während des Absolvierens eines Pfads durch den Bewegungserfassungs- sensor 5 erfasst wird, diese Sensordaten der mindestens einen weiteren Person ein Gesicht enthalten, wel- ches detektiert und dann verblindet wird.
NAVI10. Computer-implementiertes Verfahren nach NAV1-NAV9, wobei zum Zweck des Abgleichs der aufgerufenen Positionsdaten der Karte mit der Position des Serviceroboters 1 auf der Karte eine Positi- onsermittlung des Serviceroboters 1 über eine Odometrieeinheit 13 und/oder oder mittels eines Umfelder- fassungssensors 6 erfolgt, jeweils basierend auf einem ersten Koordinatensystem, und die Erfassung der 62
24-Beispiel
Person durch einen Bewegungserfassungssensor 5 mit einem zweiten Koordinatensystem, wobei die Aus- wertung der Bewegungen auf Basis von Koordinaten erfolgt, die innerhalb eines einheitlichen Koordina U103344 tensystems erfolgt auf Basis der Transformation der Koordinaten aus einem der beiden Koordinatensys- teme in das jeweils andere Koordinatensystem oder auf Basis der Transformation der Koordinaten beider
Koordinatensysteme in ein einheitliches Koordinatensystem.
NAV11. Computer-implementiertes Verfahren nach NAVI-NAV 10, wobei von der erfassten Person eine repetitive Bewegung mittels im Speicher 2 hinterlegter Regeln im Zeitablauf erfasst wird, beginnend mit einer initialen Pose, intermediären Posen, sowie einer finalen Pose, die jeweils mindestens durch ein Sub- set an Beobachtungspunkten definiert werden, und wobei die finale Pose wiederum als Startpose fiir die nächste repetitive Bewegung dient.
NAV 12. Computer-implementiertes Verfahren nach NAV1-NAV11, wobei die Bewertung einer repetiti- ven Bewegung durch die Ermittlung des Abstands zwischen mindestens zweier Beobachtungspunkten und/oder an einem Bewertungspunkt erfolgt, der durch Auswertung des Zeitverlaufs der Posen der Person innerhalb der repetitiven Bewegung ermittelt wurde, und Vergleich mit im Speicher 2 hinterlegten Bewer- tungsregeln ermittelt wird.
NAV13. Computer-implementiertes Verfahren nach NAV1-NAV 12, wobei die Bewertungsregeln, die mit der identifizierten Person assoziiert sind, über eine Drahtlosschnittstelle 4 zur Verfügung gestellt oder ge- triggert werden.
NAV14. Computer-implementiertes Verfahren nach NAV1-NAV13, wobei die Erfassung der Bewegungen der Person und/oder die Bewertungsregeln im Überwachungsprofil, die mit der identifizierten Person as- soziiert sind, mit Positionen in einem Koordinatensystem einer Karte assoziiert sind, an denen eine Perso- nenerfassung zum Zweck der Bewertung erfasster Posen der Person vorgenommen wird.
NAV15. Computer-implementiertes Verfahren nach NAV1-NAV14, wobei für die identifizierte Person ein
Überwachungsprofil vorgehalten wird, dass mit im Speicher 2 hinterlegten Regeln zur Bewertung der Be- wegungen der identifizierten Person assoziiert ist.
NAV16. Computer-implementiertes Verfahren nach NAV1-NAV15, wobei das Uberwachungsprofil, das mit der identifizierten Person assoziiert ist, über eine Drahtlosschnittstelle 4 zur Verfügung gestellt wird.
NAV17. Computer-implementiertes Verfahren nach NAV1-NAV16, mit einer Bereitstellung erfasster Be- wegungsdaten, Personenidentifizierungsdaten, Beobachtungspunkte, Beobachtungspunkte-Bewertungen,
Pfadplanungsdaten, Kartendaten und/oder Ausgabedaten mindestens anteilig über einen Prozessknoten (40) und mittels eines Datenkanals (41).
NAV18. Vorrichtung zur Durchführung des Verfahrens nach NAV1-NAV17.
NAV19. Vorrichtung zur Durchführung des Verfahrens nach NAV 18, wobei es sich bei der Vorrichtung um einen Serviceroboter 1 handelt.
NAV20. System umfassend e cine Recheneinheit 3 und einen Speicher 2, e einen Bewegungserfassungssensor 5 zur Erfassung der Bewegung einer Person, e cin Personenidentifizierungsmodul 20 im Speicher 2 zur Identifizierung einer Person auf Basis 63
24-Beispiel erkannter Muster innerhalb erfasster Sensordaten mittels der Recheneinheit 3, e ein im Speicher 2 hinterlegtes Überwachungsprofil der Person, das mit Regeln zur Bewertung der Be 199344 wegungen der erfassten Person assoziiert ist oder diese Regeln beinhaltet, e ein Beobachtungspunkte-Modell-Generierungsmodul 23 im Speicher 2 zur Generierung von Be- obachtungspunkten für die erfasste Person durch die Recheneinheit 3 und im Speicher 2 hinterlegter
Regeln und Zuweisung von Koordinaten zu den Beobachtungspunkten des Beobachtungspunkte-Mo- dells durch die Recheneinheit 3, e ein Beobachtungspunkte-Bewertungsmodul 25 im Speicher 2 mit Regeln zur Bewertung mindestens einer Bewegung auf Basis des Überwachungsprofils aus dem Speicher 2 unter Zuhilfenahme der Re- cheneinheit 3, e ein Kartenmodul 31 im Speicher 2 mit Koordinaten, die mindestens anteilig mit dem Überwachungs- profil assoziiert ist, e einem Pfadplanungsmodul 30 im Speicher 2 zur Planung der Bewegungen entlang eines Pfads des mobilen Serviceroboters 1 auf Basıs von Koordinaten aus dem Kartenmodul 31 mittels der Rechen- einheit 3, wobei die Koordinaten Zielpositionen, fixe und/oder mobile Hindernisse beschreiben, e cin Ausgabemodul 32 im Speicher 2 mit Hinweisen für die erfasste Person zur Ausgabe der Hinweise über eine Ausgabeeinheit 10, e mit im Speicher 2 hinterlegten Regeln zum Triggern einer Ausgabe an die erfasste Person mittels
Ausgabemodul (32) und Ausgabeeinheit (10), wobei die Regeln mit Positionen der im Kartenmodul (31) hinterlegten Karte assoziiert sind und automatisiert die Ausgabe triggern, wenn der Servicerobo- ter (1) eine definierte Position auf der Karte erreicht.
NAV21. System nach NAV20, wobei die Ausgabe mit den Regeln aus dem sich im Speicher (2) befindli- chen Überwachungsprofil der Person assoziiert ist.
NAV22. System nach NAV20, weiter umfassend eine Drahtlosschnittstelle (4) konfiguriert zur Übertra- gung eines Überwachungsprofils der Person.
NAV23. System nach NAV20-NAV22, weiter umfassend ein Anonymisierungsmodul (35) zum Verblin- den von vom Bewegungserfassungssensor erfassten Daten eines Gesichts einer weiteren Person.
NAV24. System nach NAV20, wobei die Zur-Verfügung-Stellung von Daten des Bewegungserfassungs- sensors 5 mindestens anteilig über einen Prozessknoten 40 und einen Datenkanal 41 erfolgt.
NAV25. System nach NAV20-NAV24, wobei der Bewegungserfassungssensor 5 und/oder eines der Mo- dule (20, 23, 25, 30, 31, und/oder 32) als Prozessknoten 40 ausgebildet sind.
Beispiel 4: Ausgabe von Feedback im zeitlichen Verlauf
[0084] Die erfinderische Teilaufgabe in diesem Beispiel ist die effiziente Ausgabe von Feedback eines
Systems zur Erfassung der Bewegungen einer Person. Die Implementierung wurde anteilig bereits in Fig. 9 skizziert.
FT1: Computer-implementiertes Verfahren zur Erfassung und Bewertung von Bewegungen einer Person im Zeitablauf und zur Generierung von Feedback an die Person, umfassend 64
24-Beispiel e Erfassung der Bewegungen einer Person mittels eines Bewegungserfassungssensors 5, e Generierung eines Beobachtungspunkte-Modells von Beobachtungspunkten für die erfasste per 03344 son, e Bewertung der erfassten Bewegungen hinsichtlich definierter Bewegungsabweichungen auf Basis von Beobachtungspunkten des Beobachtungspunkte-Modells und/oder daraus abgeleiteten Be- wertungspunkten und zu diesen im Speicher 2 hinterlegten Regeln in einem ersten Zeitintervall 51, was weiter die folgenden Verfahrensschritte umfasst: o Ermittlung von Schritten aus der Bewertung des Bewegungsablaufs während des ersten
Zeitintervalls 51, o Summierung der Schritte und Vergleich der summierten Schritte mit einem Schwellwert, o Beenden des ersten Zeitinterfalls 51, wenn die aufsummierten Schritte den Schwellwert erreicht haben, o Ermittlung von Bewegungs- und/oder Posenabweichungen im ersten Zeitintervall 51, e Ausgabe von Feedback an die Person in einem zweiten Zeitintervall 52 basierend auf den ermit- telten Bewegungs- und/oder Posenabweichungen.
FT2: Computer-implementiertes Verfahren nach FT1, wobei nach Ermittlung von Bewegungs- und/oder
Posenabweichungen im ersten Zeitintervall 51 eine Priorisierung der Bewegungs- und/oder Posenabwei- chungen erfolgt und die Ausgabe von Feedback an die Person zur am höchsten priorisierten Bewegungs- und/oder Posenabweichung im zweiten Zeitintervall 52.
FT3: Computer-implementiertes Verfahren nach FT1, weiter umfassend e Erfassung der Bewegungen einer Person mittels eines Bewegungserfassungssensors 5, e Generierung eines Beobachtungspunkte-Modells von Beobachtungspunkten für die erfasste Per- son in einem dritten Zeitintervall 53, e Bewertung der erfassten Bewegungen hinsichtlich definierter Bewegungsabweichungen auf Basis von Beobachtungspunkten des Beobachtungspunkte-Modells und/oder daraus abgeleiteten Be- wertungspunkten und zu diesen im Speicher 2 hinterlegten Regeln in einem dritten Zeitintervall 53, was auch die folgenden Verfahrensschritte umfasst: o Ermittlung von Schritten aus der Bewertung des Bewegungsablaufs während des dritten
Zeitintervalls 53, o Summierung der Schritte und Vergleich der summierten Schritte mit einem Schwellwert, o Beenden des dritten Zeitinterfalls 53, wenn die summierten Schritte den Schwellwert er- reicht haben.
FT4: Computer-implementiertes Verfahren nach FT1-3, weiter umfassend e Ausgabe von Feedback an die Person mit Bezug zu einer im dritten Zeitintervall 53 detektierten
Bewegungs- und/oder Posenabweichung in einem vierten Zeitintervall 54, wobei es sich bei der
Bewegungs- und/oder Posenabweichung um die im Zeitintervall 51 am höchsten priorisierte Ab- weichung handelt, e Ausgabe von Feedback in einem vierten Zeitintervall 54 basierend auf den ermittelten 65
24-Beispiel
Bewegungs- und/oder Posenabweichungen im dritten Zeitintervall 53.
FT5. Computer-implementiertes Verfahren nach FT1-FT4, welches innerhalb eines in einem Überwa- LU103344 chungsprofil definierten Zeitfensters mehr als einmal durchlaufen wird.
FT6. Computer- implementiertes Verfahren nach FT1-FT5, mit einem finalen Zeitintervall 55, welches nach Abschluss der Erfassung der Bewegungen der Person die Ausgabe von in vorangegangenen Zeitin- tervallen erfasste Bewegungsabweichungen und/oder in vorangegangenen Zeitintervallen ausgegebenes
Feedback über eine Ausgabeeinheit 10 umfasst.
FT7. Computer- implementiertes Verfahren nach FT6, wobei es sich bei den in vorangegangenen Zeitin- tervallen erfassten Bewegungsabweichungen und/oder dem in vorangegangenen Zeitintervallen ausgege- benes Feedback um aggregierte Bewegungsabweichungen und/oder Feedback handelt.
FT8. Computer- implementiertes Verfahren nach FT1-FT7, wobei die zu erfassenden Bewegungsabwei- chungen, die zu erfassenden Bewegungen und/oder Posen und/oder die Zeitdauer der Erfassung der Be- wegungsabweichungen in einem Uberwachungsprofil gespeichert oder mit diesem assoziiert sind, wobei das Uberwachungsprofil über eine Drahtlosschnittstelle 4 zur Verfügung gestellt wird.
FT9. Computer- implementiertes Verfahren nach FT1-FT8, wobei das dritte Zeitintervall 53 kürzer ist als das erste Zeitintervall 51.
FT10. Computer- implementiertes Verfahren nach FT1-FT9, wobei Koordinaten zur Durchführung min- destens eines der Schritte aus FT1-FT8 mit einem Uberwachungsprofil assoziiert sind und ein automati- siertes Triggern der Erfassung der Bewegung der Person erfolgt, wenn ein Vergleich der im Uberwa- chungsprofil direkt oder indirekt hinterlegten Koordinaten mittels mindestens einem Umfelderfassungs- sensor 6 oder mittels einer Odometrieeinheit 13 ermittelten Koordinaten auf einer Karte ein Erreichen dieser Koordinaten ergibt.
FT11. Computer-implementiertes Verfahren nach FS5-FS10, wobei das Überwachungsprofil mit mindes- tens zwei Positionen auf einer Karte assoziiert ist und zwischen den beiden Positionen eine Pfadplanung erfolgt.
FT12. Computer-implementiertes Verfahren nach FT1-FT11, wobei die Bereitstellung von Daten des Be- wegungserfassungssensors 5 mindestens anteilig über einen Prozessknoten 40 und einen Datenkanal 41 erfolgt.
FT13. Vorrichtung zur Durchführung des computer- implementiertes Verfahren nach FT1-FT12, bspw. ein mobiler Serviceroboter 1.
Beispiel 5: Datenprozessierung
[0085] Die erfinderische Teilaufgabe in diesem Beispiel ist die effiziente und modulare Datenverarbei- tung von erfassten Bewegungsdaten einer Person bspw. auf einem mobilen Serviceroboter 1 oder einem mobilen Endgerät. Modularität sorgt dafür, dass bspw. verschiedene Berechnungsschritte durch Prozess- knoten 40 umgesetzt werden, die sich leicht sukzessive um weitere Prozessknoten 40 und Verknüpfungen zwischen diesen neuen und bereits vorhandenen Prozessknoten 40 erweitern lassen, was bei der Aktuali- sierung der Software bspw. auf dem mobilen Serviceroboter 1 über das Internet (übertragen über die 66
24-Beispiel
Drahtlosschnittstelle 4) dann Bandbreite und Speicherplatz spart.
LU103344
DP1. Computer-implementiertes Verfahren zur Erfassung und Bewertung von Bewegungen einer Person, umfassend e Erfassung einer Person mittels eines Bewegungserfassungssensors 5, e Generierung eines Beobachtungspunkte-Modells von Beobachtungspunkten für die erfasste Person mittels Musterauswertung und im Speicher 2 hinterlegter Regeln und Zuweisung von Koordinaten zu den Beobachtungspunkten des Beobachtungspunkte-Modells mittels eines Beobachtungspunkte-Mo- dell-Generierungsmoduls 23, e Ermittlung von Posen der erfassten Person mittels eines Posen-Ermittlungsmoduls 27 auf Basis der
Beobachtungspunkte aus dem Beobachtungspunkte-Modells und e Bewertung der Beobachtungspunkte mittels eines Beobachtungspunkte-Bewertungsmoduls 25, e wobei der Bewegungserfassungssensor 5 Daten mittels eines Prozessknotens 40 über mindestens ei- nen Datenkanal 41 mindestens einem anderen Prozessknoten 40 zur Verfügung stellt und/oder Daten von mindestens einem anderen Prozessknoten 40 empfängt.
DP2. Computer-implementiertes Verfahren zur Erfassung und Bewertung von Bewegungen einer Person, umfassend e Erfassung einer Person mittels eines Bewegungserfassungssensors 5, e Generierung eines Beobachtungspunkte-Modells von Beobachtungspunkten für die erfasste Person mittels Musterauswertung und im Speicher 2 hinterlegter Regeln und Zuweisung von Koordinaten zu den Beobachtungspunkten des Beobachtungspunkte-Modells mittels eines Beobachtungspunkte-Mo- dell-Generierungsmoduls 23, e Ermittlung von Posen mittels eines Posen-Ermittlungsmoduls 27 auf Basis der Beobachtungspunkte aus dem Beobachtungspunkte-Modells und e Bewertung der Beobachtungspunkte mittels eines Beobachtungspunkte-Bewertungsmoduls 25, e wobei das Posen-Ermittlungsmodul 27 und/oder das Beobachtungspunkte-Bewertungsmodul 25 ei- nen Prozessknoten 40 darstellen und Daten über mindestens einen Datenkanal 41 mindestens einem anderen Prozessknoten 40 zur Verfügung stellt und/oder Daten von mindestens einem anderen Pro- zessknoten 40 empfangen.
DP3. Computer-implementiertes Verfahren nach DP1-DP2, wobei das Posen-Ermittlungsmodul 27 und/oder das Beobachtungspunkte-Bewertungsmodul 25 einzeln oder in Kombination einen Prozesskno- ten 40 darstellen und Daten über mindestens einen Datenkanal 41 mindestens einem anderen Prozesskno- ten 40 zur Verfügung stellen und/oder Daten von mindestens einem anderen Prozessknoten 40 empfängt.
DP4. Computer-implementiertes Verfahren nach DP1-DP3, wobei die Erfassung und/oder Bewertung von
Bewegungen der Person automatisch durchgeführt werden, wenn eine bestimmte Position auf einer Karte erreicht wird und sich die Person im Erfassungsbereich des Bewegungserfassungssensors (5) befindet.
DP5. Computer-implementiertes Verfahren nach DP1-DP4, weiter umfassend eine Ausgabe von Feedback an die erfasste Person basierend auf der Bewertung der Beobachtungspunkte. 67
24-Beispiel
DP6. Computer-implementiertes Verfahren nach DP1-DP5, umfassend vor Erfassung der Person mittels eines Bewegungserfassungssensors 5 eine Identifizierung der erfassten Person auf Basis für die Person LU103344 mittels hinterlegter Muster durch ein Personenidentifizierungsmodul 20 und/oder ein Personen-Re-Identi- fizierungsmodul 21 zur Re-Identifizierung der Person während der Erfassung durch den Personenerfas- sungssensor 5 mittels hinterlegter Muster.
DP7. Computer-implementiertes Verfahren nach DP6, wobei die Re-Identifizierung in diskreten Zeitab- ständen erfolgt.
DP8. Computer-implementiertes Verfahren nach DP1-DP7, wobei für die erfasste und identifizierte Per- son ein Überwachungsprofil vorgehalten wird, dass mit im Speicher 2 hinterlegten Regeln zur Bewertung der Bewegungen der identifizierten Person durch das Beobachtungspunkte-Bewertungsmoduls 25 assozi- iert ist.
DP9. Computer-implementiertes Verfahren nach DP1-DP8, wobei das Beobachtungspunkte-Bewertungs- modul 25 mehrere Beobachtungspunkte gemeinsam auswertet.
DP10. Computer-implementiertes Verfahren nach DP1-DP8, wobei ein Prozessknoten 40 Daten generiert und über mindestens einen Datenkanal 41 zur Verfügung stellt.
DP11. Computer-implementiertes Verfahren nach DP1-DP10, wobei die vom Prozessknoten 40 generier- ten Daten ein Beobachtungspunkte-Modell auf Basis von Beobachtungspunkten, einen oder mehrere Be- obachtungspunkte, Posen oder aus von diesen abgeleiteten Größen abbildet.
DP12. Computer-implementiertes Verfahren nach DP1-DP11, wobei die Daten Zeitsignale und/oder
Messreihen abbildet.
DP13. Computer-implementiertes Verfahren nach DP1-DP12, wobei ein Datenkanal 41 eine asynchrone
Datenkommunikation ermöglicht.
DP14. Computer-implementiertes Verfahren nach DP1-DP13, wobei mindestens ein Prozessknoten 40 eine asynchrone Datenverarbeitung ermöglicht.
DP15. Computer-implementiertes Verfahren nach DP1-DP14, wobei die Daten, die einem Datenkanal (41) zur Verfügung gestellt werden, einen TCP/IP oder UDP-Header aufweisen.
DP16. Computer-implementiertes Verfahren nach DP1-DP15, wobei das Bereitstellen und/oder Empfan- gen von Daten zwischen mindestens zwei Prozessknoten 40 durch das Bereitstellen der Daten in einem shared memory 42 oder mittels Remote Procedure Calls erfolgt.
DP17. Computer-implementiertes Verfahren nach DP1-DP16, wobei eine asynchrone Datenkommunika- tion das Schreiben von Daten in die Datenkanäle 41 durch einen Prozessknoten 40 darstellt, während mindestens ein weiterer Prozessknoten 40 zugleich Daten des Datenkanals 41 ausliest.
DP18. Computer-implementiertes Verfahren nach DP1-DP17, wobei eine Datenübermittlung vom Bewe- gungserfassungssensor 5 an das Beobachtungspunkte-Modell-Generierungsmodul 23, vom Beobach- tungspunkte-Modell-Generierungsmodul 23 an das Posen-Ermittlungsmodul 27 und/oder vom Posen-Er- mittlungsmodul 27 an das Beobachtungspunkte-Bewertungsmodul 25 durch Daten erfolgt, die einen
TCP/IP-Header oder UDP-Header aufweisen. 68
24-Beispiel
DP19. Computer-implementiertes Verfahren nach DP1-DP18, wobei die Daten, die durch die Erfassung der Person durch den Bewegungserfassungssensor 5, das Beobachtungspunkte-Modell-Generierungsmo” U103344 dul 23, das Posen-Ermittlungsmodul 27, das Beobachtungspunkte-Bewertungsmodul 25 und/oder Kombi- nationen daraus einen Zustand einer Zustandsmaschine 43 aufrufen.
DP20. Computer-implementiertes Verfahren nach DP1-DP19, wobei die Erfassung und/oder Bewertung von Bewegungen der Person mit mindestens einer Position auf einer Karte assoziiert ist.
DP21. Computer-implementiertes Verfahren nach DP19-DP20, wobei ein Zustand einer Zustandsma- schine (43) durch mindestens einen Prozessknoten 40 basierend auf Koordinaten aufgerufen wird, wobei die Koordinaten mit einer Karte des Kartenmoduls 31 assoziiert sind.
DP22. Vorrichtung zur Durchführung des Verfahrens nach DP1-DP21.
DP23. Vorrichtung zur Durchführung des Verfahrens nach DP22, wobei es sich um einen mobilen Ser- viceroboter 1 handelt.
DP24. Vorrichtung zur Durchführung des Verfahrens nach DP23, wobei die Erfassung und/oder Bewer- tung von Bewegungen der Person nach DP1 automatisch durchgeführt wird, wenn der mobile Servicero- boter 1 die mindestens eine mit der Karte assoziierte Position erreicht und sich die Person im Erfassungs- bereich des Bewegungserfassungssensors 5 befindet.
DP25. System zur Erfassung und Bewertung von Bewegungen einer Person, umfassend e einen Bewegungserfassungssensor 5 zur Erfassung der Bewegungen einer Person, e eine Recheneinheit 3 und im Speicher 2 mit o einem Beobachtungspunkte-Modell-Generierungsmodul 23 zur Generierung eines Beobach- tungspunkte-Modells von Beobachtungspunkten fiir die erfasste Person mittels Musteraus- wertung und im Speicher 2 hinterlegter Regeln und Zuweisung von Koordinaten zu den Be- obachtungspunkten des Beobachtungspunkte-Modells, o ein Posen-Ermittlungsmodul 27 zur Ermittlung von Posen auf Basis der Beobachtungspunkte aus dem Beobachtungspunkte-Modell, sowie o ein Beobachtungspunkte-Bewertungsmodul 25 zur Bewertung der Beobachtungspunkte, wo- bei der Bewegungserfassungssensor 5 Daten mittels eines Prozessknotens 40 über mindestens einen Datenkanal 41 mindestens einem anderen Prozessknoten 40 zur Verfügung stellt und/oder Daten von mindestens einem anderen Prozessknoten 40 empfängt.
DP26. System nach DP25, wobei das Posen-Ermittlungsmodul 27 und/oder das Beobachtungspunkte-Be- wertungsmodul 25 einzeln oder in Kombination einen Prozessknoten 40 darstellen und Daten über min- destens einen Datenkanal 41 mindestens einem anderen Prozessknoten 40 zur Verfügung stellen und/oder
Daten von mindestens einem anderen Prozessknoten 40 empfangen.
DP27. System nach DP25-DP26, wobei die Erfassung und/oder Bewertung von Bewegungen der Person durch den Bewegungserfassungssensor 25 und das Beobachtungspunkte-Bewertungsmodul 25 automa- tisch durchgeführt werden, wenn das System eine mit einer Karte aus dem Kartenmodul 31 assoziierte
Position erreicht und sich die Person im Erfassungsbereich des Bewegungserfassungssensors 5 befindet. 69
24-Beispiel
DP28. System nach DP27, wobei die Positionsdaten des Systems durch das Odometrieeinheit 13 bereitge- stellt werden. LU103344
DP29. System nach DP25-DP28, weiter umfassend eine Feedback-Generierungsmodul 34 zur Generie- rung von Feedback basierend auf der Bewertung der Beobachtungspunkte durch das Beobachtungs- punkte-Bewertungsmodul 25 und eine Ausgabeeinheit 10 zur Ausgabe des generierten Feedbacks an die erfasste Person.
DP30. System nach DP25-DP29, mit einem Personenidentifizierungsmodul 20 zur Identifizierung der
Person vor Erfassung durch den Bewegungserfassungssensor 5 mittels im Speicher 2 hinterlegter Muster und/oder Re-Identifizierung der Person während der Erfassung durch den Personenerfassungssensor 5 mittels hinterlegter Muster durch ein Personen-Re-Identifizierungsmodul 21.
DP31. System nach DP25-DP30, wobei die Daten-Bereitstellung des mindestens einen Prozessknotens 40 mittels eines Datenkanals 41 durch Remote Procedure Calls oder shared memory erfolgt und/oder die Da- ten emen TCP/IP- oder UDP-Header aufweisen.
DP32. System nach DP25-DP32, wobei die Daten, die ein Prozessknoten 40 über einen Datenkanal 41 zur Verfügung stellt, Zeitsignale und/oder Messreihen abbilden.
DP33. System nach DP25-DP32, weiter umfassend im Speicher 2 eine Zustandsmaschine 43, von der mindestens ein Zustand durch Daten des Bewegungserfassungssensors 5, des Beobachtungspunkte-Mo- dell-Generierungsmoduls 23, des Posen-Ermittlungsmoduls 27, des Beobachtungspunkte-Bewertungsmo- duls 25 und/oder des Feedback-Generierungsmoduls 34 als einen oder mehrere Prozessknoten 40 aufge- rufen wird.
DP34. System nach DP25-DP33, wobei mindestens ein Zustand der Zustandsmaschine 43 durch mindes- tens einen Prozessknoten 40 basierend auf den Positionsdaten des Systems aufgerufen wird und die Posi- tionsdaten mit einer Karte des Kartenmoduls 31 assoziiert sind.
Beispiel 6: Prozessknoten und Zustandsmaschine
[0086] Die erfinderische Teilaufgabe in diesem Beispiel ist die effiziente bzw. komplexitätsreduzierte
Datenverarbeitung, für die Analyse von erfassten Bewegungsdaten einer Person bevorzugt auf einem mo- bilen Serviceroboter 1 oder einem mobilen Endgerät. Hierbei soll die Datenverarbeitung idealerweise mo- dular erfolgen, um diese einfach im Zeitverlauf erweitern zu können, idealerweise mittels zur Verfügung-
Stellung über eine Drahtlosschnittstelle 4, die Zugriff auf das Internet aufweist, und wobei die Modulari- tät dafür sorgt, dass das Datentransfervolumen begrenzt werden kann.
PZ1. Computer-implementiertes Verfahren zur Erfassung und Bewertung von Bewegungen einer Person, wobei die Bewertung von Bewegungen einer Person innerhalb mindestens eines Prozessknotens 40 er- folgt, umfassend e Erfassung einer Person mittels eines Bewegungserfassungssensors 5, e Generierung eines Beobachtungspunkte-Modells von Beobachtungspunkten für die erfasste Person mittels Musterauswertung und im Speicher 2 hinterlegter Regeln und Zuweisung von Koordinaten zu den Beobachtungspunkten des Beobachtungspunkte-Modells mittels eines Beobachtungspunkte- 70
24-Beispiel
Modell-Generierungsmoduls 23, e Bewertung der Bewegungen der Person auf Basis mindestens eines Anteils der generierten Beobach“ 1103368 tungspunkte durch Regeln mittels eines Beobachtungspunkte-Bewertungsmoduls 25, e wobei das Beobachtungspunkte-Bewertungsmodul 25 ganz oder anteilig einen Prozessknoten 40 dar- stellt, mit mindestens einem weiteren Prozessknoten 40 direkt oder indirekt zum Austausch von Daten verbunden ist.
PZ2. Computer-implementiertes Verfahren nach PZ1, weiter umfassend die Ausgabe von Hinweisen oder
Feedback zur ausgewerteten Bewegung der Person, wobei Hinweise bzw. Feedback durch einen Zustand einer Zustandsmaschine 43 mittels Daten eines Prozessknotens 40, die über einen Datenkanal 41 zur Ver- figung gestellt werden, getriggert wird.
PZ3. Computer-implementiertes Verfahren zur Erfassung und Bewertung von Bewegungen einer Person durch einen Serviceroboter 1, wobei die Bewertung von Bewegungen einer Person innerhalb mindestens eines Prozessknotens 40 erfolgt, umfassend e Erfassung einer Person mittels eines Bewegungserfassungssensors 5, e Generierung eines Beobachtungspunkte-Modells von Beobachtungspunkten für die erfasste Person mittels Musterauswertung und im Speicher 2 hinterlegter Regeln und Zuweisung von Koordinaten zu den Beobachtungspunkten des Beobachtungspunkte-Modells mittels eines Beobachtungspunkte-Mo- dell-Generierungsmoduls 23, e Bewertung der Bewegungen der Person auf Basis mindestens eines Anteils der generierten Beobach- tungspunkte durch Regeln mittels eines Beobachtungspunkte-Bewertungsmoduls 25, e Generierung von Feedback mittels eines Feedback-Generierungsmoduls 34 und dessen Ausgabe über ein Ausgabemodul 32 und eine Ausgabeeinheit 10 erfolgt, wobei das Feedback-Generierungsmodul 34 und das Ausgabemodul 32 eine Zustandsmaschine 43 innerhalb eines Prozessknotens 40 enthalten, wobei die Zustandsmaschine 43 mindestens ein Feed- back triggert.
PZ4. Computer-implementiertes Verfahren nach PZ1-PZ2, wobei der durch die Zustandsmaschine 43 auf- gerufene Zustand eine Ausgabe über ein in einem weiteren Prozessknoten 40 implementierten Ausgabe- modul 32 beim Erreichen einer Position des Serviceroboters 1 auf einer im Speicher 2 hinterlegten Karte triggert.
PZ5. Computer-implementiertes Verfahren nach PZ1-PZ4, wobei für die erfasste und identifizierte Person ein Überwachungsprofil vorgehalten wird, dass mit im Speicher 2 hinterlegten Regeln zur Bewertung der
Bewegungen der identifizierten Person durch das Beobachtungspunkte-Bewertungsmoduls 25 und/oder
Koordinaten einer Karte zur Erfassung der Bewegungen der Person assoziiert ist.
PZ6. Computer-implementiertes Verfahren nach PZ1-PZ5, wobei der Datenkanal 41 eine asynchrone Da- tenkommunikation ermöglicht.
PZ7. Computer-implementiertes Verfahren nach PZ1-PZ6, wobei mindestens ein Prozessknoten 40 eine asynchrone Datenverarbeitung ermöglicht. 71
24-Beispiel
PZ8. Computer-implementiertes Verfahren nach PZ1-PZ7, wobei die Daten, die dem Datenkanal 41 zur
Verfügung gestellt werden, einen TCP/IP- oder UDP-Header aufweisen. LU103344
PZ9. Computer-implementiertes Verfahren nach PZ1-PZ8, wobei das Senden und/oder Empfangen von
Daten zwischen mindestens zwei Prozessknoten 40 durch Bereitstellung der Daten in einem shared me- mory 42 oder mittels Remote Procedure Calls erfolgt.
PZ10. Computer-implementiertes Verfahren nach PZ1-PZ9, wobei eine asynchrone Datenkommunikation das zeitversetzte Schreiben und Lesen von Daten in mindestens einen Datenkanal 41 durch bzw. von min- destens einem Prozessknoten 40 darstellt.
PZ11. Vorrichtung zur Durchführung des Verfahrens nach PZ1-PZ10, wobei es sich in einem Aspekt bei der Vorrichtung um einen Serviceroboter handelt, der bspw. eine Drahtlosschnittstelle 4 zur Datenübertra- gung aufweist.
PZ12. System zur Erfassung und Bewertung von Bewegungen einer Person, umfassend e eine Recheneinheit 3 und einen Speicher 2, e einen Bewegungserfassungssensor 5 zur Erfassung der Bewegungen einer Person, e cin Beobachtungspunkte-Modell-Generierungsmodul 23 im Speicher 2 zur Generierung eines Be- obachtungspunkte-Modells von Beobachtungspunkten für die erfasste Person mittels Musterauswer- tung durch die Recheneinheit 3 und im Speicher 2 hinterlegter Regeln und Zuweisung von Koordina- ten zu den Beobachtungspunkten des Beobachtungspunkte-Modells durch die Recheneinheit 3, e ein Beobachtungspunkte-Bewertungsmodul 25 im Speicher 2 zur Bewertung eines Anteils der gene- rierten Beobachtungspunkte mittels der Recheneinheit 3 durch Regeln, wobei die Regeln in mindes- tens einem Prozessknoten 40 hinterlegt sind und der mindestens eine Prozessknoten 40 über einen
Datenkanal 41 mit mindestens einem weiteren Prozessknoten 40 direkt oder indirekt zum Austausch von Daten verbunden ist.
PZ13. System nach PZ12, weiter umfassend e einen Prozessknoten 40, der ein Ausgabemodul 32 umfasst zur Ausgabe von Hinweisen oder Feed- back zur ausgewerteten Bewegung der Person über eine Ausgabeeinheit 10, sowie e eine Zustandsmaschine 43 im Speicher 2, die durch Daten eines Prozessknotens 40, die über mindes- tens einen Datenkanal 41 zur Verfügung gestellt werden, in einem Zustand das Ausgabemodul 32 trig- gert.
PZ14. System nach PZ12-PZ13, weiter umfassend ein Feedback-Generierungsmodul 34 zur Generierung von Feedback mittels eines Ausgabemodul 32 über eine Ausgabeeinheit 10, wobei das Feedback-Generierungsmodul 34 und das Ausgabemodul 32 eine Zustandsmaschine 43 inner- halb eines Prozessknotens 40 enthalten, und wobei die Zustandsmaschine 43 mindestens ein Feedback triggert.
PZ15. System nach PZ12-PZ14, weiter umfassend ein im Speicher 2 hinterlegtes Überwachungsprofil für die erfasste und identifizierte Person, dass mit im Speicher 2 hinterlegten Regeln zur Bewertung der Be- wegungen der identifizierten Person durch das Beobachtungspunkte-Bewertungsmoduls 25 und/oder 72
24-Beispiel
Koordinaten einer Karte zur Erfassung der Bewegungen der Person assoziiert ist und das über eine Draht- losschnittstelle 4 übertragen werden kann. LU103344
PZ16. System nach PZ12-PZ15, wobei der Datenkanal 41 eine asynchrone Datenkommunikation und der mindestens ein Prozessknoten 40 eine asynchrone Datenverarbeitung ermöglicht.
PZ17. System nach PZ12-PZ16, wobei die Daten, die dem Datenkanal 41 zur Verfügung gestellt werden, einen TCP/IP- oder UDP-Header aufweisen oder die über ein shared memory 42 oder Remote Procedure
Calls zur Verfügung gestellt werden.
Beispiel 7: Prozessknoten und Zustandsmaschine
[0087] Die erfinderische Teilaufsabe in diesem Beispiel ist die effiziente bzw. komplexititsreduzierte
Datenverarbeitung von erfassten Bewegungsdaten einer Person bspw. auf einem mobilen Serviceroboter 1 oder einem mobilen Endgerät. Hierbei soll Nutzem zielgerichtet, basierend auf den erfassten Bewegun- gen, Feedback gegeben werden. Die Softwarearchitektur soll, wie bereits weiter oben beschrieben, ideal- erweise modular sein, um diese bspw. leicht aktualisieren oder erweitern zu können.
PXI: Computer-implementiertes Verfahren zur Erfassung und Bewertung von Bewegungen einer Person mit mindestens einer Zustandsmaschine 43, umfassend e Erfassung einer Eingabe über eine Eingabeeinheit 19, e Triggem der Erfassung einer Person mittels eines Bewegungserfassungssensors 5, der als Pro- zessknoten 40 Daten anderen Prozessknoten 40 über einen Datenkanal 41 zur Verfügung stellt, mittels einer Zustandsmaschine 43 auf Basis der Erfassung der Eingabe, e Auswertung der Bewegungsdaten der vom Bewegungserfassungssensor 5 erfassten und über ei- nen Datenkanal 41 zur Verfügung gestellten Daten in mindestens einem weiteren Prozessknoten 40, e Bewertung der vom Bewegungserfassungssensor 5 über einen Prozessknoten 40 bereitgestellten
Bewegungsdaten innerhalb eines mindestens weiteren Prozessknotens 40, der diese Daten über einen Datenkanal 41 zur Verfügung gestellt bekommt, e Triggem, in Abhängigkeit vom Bewertungsergebnis des mindestens einen letztgenannten Pro- zessknotens 40, ein Ausgabemodul 32 zur Ausgabe von Feedback zu einer bewerteten Bewegung, wobei das Triggern über eine Zustandsmaschine 43 erfolgt.
PX2: Computer-implementiertes Verfahren nach PX1, wobei die Zustandsmaschine 32 durch über min- destens einen Datenkanal 41 zur Verfügung gestellte Daten getriggert wird, welche durch mindestens ei- nen Prozessknoten 40 generiert werden.
PX3: Vorrichtung zur Durchführung des Verfahrens nach PX1-PX2.
PX4: System zur Erfassung und Bewertung von Bewegungen einer Person mit mindestens einer Zu- standsmaschine 43 zum Triggern von mehreren Prozessknoten 40, mit e einer Emgabeeinheit 19 zur Erfassung einer Eingabe und zum Triggern einer Zustandsmaschine 43, e einem Bewegungserfassungssensor 5, der als Prozessknoten 40 anderen Prozessknoten 40 Daten 73
24-Beispiel über einen Datenkanal 41 zur Verfügung stellt und der durch eine Zustandsmaschine 43 getriggert wird, LU103344 e mindestens einen weiteren Prozessknoten 40, der ein Bewegungserfassungsdatenverarbeitungs- modul 22 beinhaltet und der vom Bewegungserfassungssensor 5 über einen Datenkanal 41 bereit- gestellte Daten bewertet, e und ein Ausgabemodul 32, das aufgrund eines Triggerns der Zustandsmaschine 43 auf Basis von
Daten des Bewegungserfassungsdatenverarbeitungsmoduls 22 eine Ausgabe tätigt.
Beispiel 8: Ressourceneffiziente Betriebszeitplanung für einen mobilen Roboter mit Wegstreckenberech- nung.
[0088] Die erfinderische Teilaufgabe in diesem Beispiel ist die energieressourceneffiziente Aufgabenpla- nung für einen mobilen Serviceroboter, welcher bspw. Bewegungsübungen mit einer Person durchführt.
BZ1: Computer-implementiertes Verfahren zur Pfadplanung eines mobilen Serviceroboters 1, umfassend e Abruf eines Überwachungsprofils (bspw. für eine Person) aus einem Speicher (z.B. 2), e Auslesen einer Zeitdauer, über die der Serviceroboter 1 mit der Person eine Wegstrecke zurückle- gen und/oder die Person überwachen soll, aus dem oder mittels des Uberwachungsprofil(s), wo- bei nach dieser Zeitdauer das Zurücklegen eines Pfads mit der Person und/oder die Überwachung der Person beendet sein soll, e Bewegung über eine Wegstrecke auf einem Pfad zwischen einer Startposition und einer Wende- position, wobei der Serviceroboter (1) an der Wendeposition eine Wende ausführt, e Festlegung einer neuen Wendeposition, an der der Serviceroboter 1 einen Richtungswechsel vor- nimmt (und sich z.B. zu einer hinterlegten Position bewegt).
BZ2. Computer-implementiertes Verfahren nach BZ1, wobei vor Festlegung der neuen Wendeposition e eine Ermittlung der Durchschnittsgeschwindigkeit des Serviceroboters 1 oder der Person während des Zurücklegens der Wegstrecke, e eine Ermittlung der verbleibenden Distanz, nach der bei der ermittelten Durchschnittsgeschwin- digkeit innerhalb der ausgelesenen Zeitdauer das Abfahren der Wegstrecke beendet werden soll, sowie e cine Ermittlung einer Restdistanz erfolgt.
BZ3. Computer-implementiertes Verfahren nach BZ2, wobei die Ermittlung einer Restdistanz als Diffe- renz aus der offenen Distanz und ganzzahligen Vielfachen der Distanz zwischen einer Startposition und der Wendeposition erfolgt und bei der Festlegung einer neuen Wendeposition, an der der Serviceroboter 1 einen Richtungswechsel vornimmt und sich zu einer hinterlegten Position bewegt, die Distanz zwischen der Startposition und der neuen Wendeposition in etwa der halben Restdistanz entspricht.
BZ4. Computer-implementiertes Verfahren nach BZ2-BZ3, wobei die Durchschnittsgeschwindigkeit nach 50% oder mehr von der Zeit ermittelt wird, die im Uberwachungsprofil hinterlegt ist, gemessen seit Be- ginn des Absolvierens der Wegstrecke mit der Person.
BZ5. Computer-implementiertes Verfahren nach BZ1, wobei vor Festlegung der neuen Wendeposition 74
24-Beispiel e eine Ermittlung der bereits verstrichenen Zeit des Absolvierens der Wegstrecke und/oder des
Überwachens der Person, LU 105544 e eine Ermittlung der Bewegungsrichtung des Serviceroboters 1, e eine Ermittlung der Differenz aus ausgelesener Zeitdauer und der bereits verstrichenen Zeitdauer, und e cin Triggem einer Aktion bei Unterschreitung des Zeitschwellwerts erfolgt.
BZ6. Computer-implementiertes Verfahren nach BZ5, wobei das Triggern einer Aktion, wenn der Ser- viceroboter 1 sich auf dem Weg zu seiner Startposition befindet, das Beenden des Absolvierens der Weg- strecke bzw. der Überwachung der Person auslöst, wenn der Serviceroboter 1 erneut die Startposition er- reicht hat.
BZ7. Computer-implementiertes Verfahren nach BZ5, wobei das Triggern einer Aktion, wenn der Ser- viceroboter 1 sich auf dem Weg zur Wendeposition befindet, das Setzen einer neuen Wendeposition aus- lost, die dichter an der Startposition liegt als die urspriingliche Wendeposition.
BZ8. Computer-implementiertes Verfahren nach BZ5, wobei der Serviceroboter 1 die Wende an der Wen- deposition ausführt, wenn die ermittelte Zeitdifferenz aus ausgelesener Zeitdauer und bereits verstriche- ner Zeitdauer über dem Schwellwert liegt.
BZ9. Computer-implementiertes Verfahren nach BZ1-BZ8, wobei während des Zurücklegens der Weg- strecke eine Erfassung der Person durch mindestens einen Sensor (5, 7-9) zu Uberwachungszwecken er- folgt.
BZ10. Computer-implementiertes Verfahren nach BZ1, weiter umfassend nach Erfassung der Person die e Ermittlung des Abstands des Serviceroboters 1 zur Person, die sich vor dem Serviceroboter 1 vo- rausbewegt oder dem Serviceroboter 1 folgt, während der Serviceroboter 1 die Wegstrecke zu- ricklegt, e Einhalten eines Abstandsintervalls oder in etwa konstanten Abstands des Serviceroboters 1 zur
Person.
BZ11. Computer-implementiertes Verfahren nach BZ10, wobei das Abstandsintervall oder der in etwa konstante Abstand des Serviceroboters 1 zur Person zwischen 60 cm und 5,5 m liegt.
BZ12. Computer-implementiertes Verfahren nach BZ1-BZ11, wobei das Absolvieren einer Wegstrecke zwischen mindestens zwei Wegpunkten erfolgt, deren Koordinaten mittels einer Karte im Kartenmodul 31 definiert sind und zwischen denen der Serviceroboter 1 mittels Pfadplanungsmodul 30 mindestens eine
Wegstrecke ermittelt.
BZ13. Computer-implementiertes Verfahren nach BZ1-BZ12, wobei der Serviceroboter 1 innerhalb der im Uberwachungsprofil hinterlegten Zeit zwischen zwei Wegpunkten pendelt und dabei einmal die Dis- tanz zwischen den beiden Wegpunkten nur anteilig zurticklegt.
BZ14. Computer-implementiertes Verfahren nach BZ1-BZ13, wobei vor oder während des Absolvierens der Wegstrecke ein Aufrufen von Positionsdaten als Koordinaten einer Karte, die mit Bestandteilen des
Uberwachungsprofils assoziiert sind, erfolgt und basierend auf den aufgerufenen Koordinaten das 75
24-Beispiel
Triggern von Ausgaben über die Ausgabeeinheit 10 des Serviceroboters basierend auf einem Vergleich von im Überwachungsprofil vorgehaltenen Positionsdaten und aktuellen Positionsdaten des Servicerobo- | 03344 ters 1.
BZ15. Computer-implementiertes Verfahren nach BZ1-BZ14, wobei während des Absolvierens der Weg- strecke eine Erfassung der Person mittels eines Bewegungserfassungssensors 5, eine Generierung eines
Beobachtungspunkte-Modells von Beobachtungspunkten fiir die erfasste Person mittels Musterauswer- tung und im Speicher 2 hinterlegter Regeln, sowie eine Bewertung der erfassten Bewegungen auf Basis von Beobachtungspunkten des Beobachtungspunkte-Modells und mittels im Speicher 2 hinterlegten Re- geln erfolgt.
BZ16. Computer-implementiertes Verfahren nach BZ15, wobei die Regeln zur Bewertung der erfassten
Bewegungen auf Basis von Beobachtungspunkten des Beobachtungspunkte-Modells die Ermittlung und
Bewertung von Posen durch ein Posen-Ermittlungsmodul 26 umfassen.
BZ17. Computer-implementiertes Verfahren nach BZ16, wobei eine repetitive Bewegung bewertet wird durch Ermittlung einer initialen Pose, einer finalen Pose und eines Bewertungspunkts zwischen diesen beiden Posen.
BZ18. Computer-implementiertes Verfahren nach BZ15-BZ17, wobei die Bewertung der erfassten Bewe- gungen hinsichtlich definierter Bewegungsabweichungen auf Basis von Beobachtungspunkten des Be- obachtungspunkte-Modells und/oder daraus abgeleiteten Bewertungspunkten und zu diesen im Speicher 2 hinterlegten Regeln in einem ersten Zeitintervall 51 erfolgt und die Ausgabe von Feedback an die Person mittels einer Ausgabeeinheit 10 in einem zweiten, sich dem ersten Zeitintervall 51 anschließenden Zeitin- tervall 52 zur ermittelten Bewegungsabweichung.
BZ19. Computer-implementiertes Verfahren nach BZ18, weiter umfassend eine Erfassung der Person mit- tels eines Bewegungserfassungssensors 5, eine Generierung eines Beobachtungspunkte-Modells von Be- obachtungspunkten für die erfasste Person mittels Musterauswertung und im Speicher 2 hinterlegter Re- geln, sowie eine Bewertung der erfassten Bewegungen auf Basis von Beobachtungspunkten des Beobach- tungspunkte-Modells und mittels im Speicher 2 hinterlegten Regeln erfolgt in einem weiteren Zeitinter- vall (z.B. 54), in dem die im ersten Zeitintervall 51 identifizierte und im zweiten Zeitintervall mit Feed- back assoziierte Bewegungsabweichung erneut bewertet wird, und Ausgabe von Feedback in einem sich dem genannten Zeitintervall (z.B. 54) anschließenden weiteren Zeitintervall (z.B. 55) zu der im genannten
Zeitintervall (z.B. 54) bewerteten Bewegungsabweichung.
BZ20. Computer-implementiertes Verfahren nach BZ18-BZ19, wobei das ausgegebene Feedback auf Ba- sis einer Priorisierung detektierter Bewegungsabweichungen erfolgt.
BZ21. Computer-implementiertes Verfahren nach BZ15-BZ20, wobei die Bewertung der Beobachtungs- punkte in einem Beobachtungspunkte-Bewertungsmodul 25 erfolgt, das ganz oder anteilig einen Prozess- knoten 40 darstellt, der über einen Datenkanal 41 mit einem weiteren Prozessknoten 40 direkt oder indi- rekt verbunden ist und mindestens eine Zustandsmaschine 43 durch über den Datenkanal 41 übertragene
Daten triggert. 76
24-Beispiel
BZ22. Computer-implementiertes Verfahren nach BZ1-BZ21, wobei vor Absolvieren der Wegstrecke eine
Identifizierung der Person am mobilen Serviceroboter 1 auf Basis erkannter Muster innerhalb erfasster LU103344
Sensordaten erfolgt und eine Assoziierung der identifizierten Person mit einem hinterlegten Uberwa- chungsprofil und/oder eine Re-Identifizierung der Person während der Erfassung durch den Personener- fassungssensor 5 mittels hinterlegter Muster.
BZ23. Computer-implementiertes Verfahren nach BZZ1-BZ22, wobei nach Identifizierung der Person und/oder während des Absolvierens der Wegstrecke die Erfassung von Vitaldaten der Person erfolgt.
BZ24. Vorrichtung zur Durchführung des Verfahrens nach BZ1-BZ23.
BZ25. Serviceroboter 1 mit einer Recheneinheit 3, einem Sensor (5, 7-9) zu Uberwachungszwecken und einem Speicher 2, in dem sich befinden ein e Uberwachungsprofil mit einer Zeitdauer, über der Serviceroboter 1 mit der Person eine Wegstre- cke zurücklegen und/oder die Person überwachen soll, wobei nach dieser Zeitdauer das Zurückle- gen eines Pfads mit der Person beendet sein soll, e Pfadplanungsmodul 30, konfiguriert zur o Ermittlung eines vom Serviceroboter 1 zurückzulegenden Wegstrecke zwischen einer
Start- und einer Wendeposition, und o einer dynamischen Wendepositionsermittlung, die eine neue Wendeposition setzt, die dichter an der Startposition liegt als der zuvor genutzte Wendeposition.
BZ26. Serviceroboter 1 nach BZ25, wobei die dynamischen Wendepositionsermittlung basierend auf der
Durchschnittsgeschwindigkeit des Serviceroboters 1 und einer verbliebenen Restzeit eine neue Wendepo- sition setzt, der dichter an der Startposition liegt als der zuvor genutzte Wendeposition.
BZ27. Serviceroboter 1 nach BZ25-BZ26, wobei die dynamischen Wendepositionsermittlung basierend auf der Bewegungsrichtung des Serviceroboters 1 eine neue Wendeposition setzt, der dichter an der Start- position liegt als der zuvor genutzte Wendeposition.
BZ28. Serviceroboter 1 nach BZ25-BZ27, wobei Serviceroboter 1 nach BZ25-BZ26, wobei die dynami- schen Wendepositionsermittlung basierend auf der bereits verstrichenen Zeit und der Zeitdauer aus dem
Uberwachungsprofil eine neue Wendeposition setzt, die dichter an der Startposition liegt als der zuvor ge- nutzte Wendeposition.
BZ29. Serviceroboter 1 nach BZ25-BZ28, weiter umfassend ein Kartenmodul 31, welches Koordinaten für e die Positionsdaten der Startposition und der Wendeposition bereitstellt sowie für e das Uberwachungsprofil zum Triggern von Ausgaben über die Ausgabeeinheit 10 des Servicero- boters 1 basierend auf einem Vergleich von im Überwachungsprofil vorgehaltenen Positionsdaten und aktuellen Positionsdaten des Serviceroboters 1.
BZ30. Serviceroboter 1 nach BZ25-BZ29, weiter umfassend ein Distanzhaltemodul 37 zum Einhalten ei- ner Mindestdistanz zwischen Serviceroboter 1 und der erfassten Person.
BZ31. Serviceroboter 1 nach BZ25-BZ30, wobei es sich bei einem der Sensoren um einen Bewegungser- fassungssensor 5 zur Erfassung der Bewegungen einer Person handelt. 77
24-Beispiel
BZ32. Serviceroboter 1 nach BZ25-BZ31, weiter umfassend ein Beobachtungspunkte-Modell-Generie- rungsmodell 23 zur Generierung von Beobachtungspunkten der erfassten Person, einem Beobachtungs- LU103344 punkte-Bewertungsmodul 25 zur Bewertung der Bewegungen der erfassten Person, einem Posen-Ermitt- lungsmodul 27 zur Ermittlung von Posen der Person.
BZ33. Serviceroboter 1 nach BZ32, weiter umfassend ein Feedback-Generierungsmodul 34 zum Triggern von Feedback auf Basis von priorisierten Bewegungsabweichungen mittels eines Ausgabemoduls 32 und einer Ausgabeeinheit 10.
BZ34. Serviceroboter 1 nach Anspruch BZ25-BZ33, weiter umfassend ein e Personenidentifizierungsmodul 20 zur Identifizierung der Person am mobilen Serviceroboter 1 auf Basis hinterlegter Muster innerhalb erfasster Sensordaten sowie e cin Personen-Re-Identifizierungsmodul 21 zur Re-Identifizierung der Person während der Erfas- sung durch den Personenerfassungssensor 5 mittels hinterlegter Muster.
BZ35. Serviceroboter nach BZ25-BZ34, mit einer Zustandsmaschine 43, die Ausgaben einer Ausgabeein- heit 10 über einen Lautsprecher 11 und/oder ein Display 12 triggert, wenn der Serviceroboter 1 eine Wen- deposition erreicht hat.
BZ36. Serviceroboter nach BZ25-BZ35, wobei der Bewegungserfassungssensor 5 konfiguriert ist, mittels eines Prozessknotens 40 Daten über einen Datenkanal 41 anderen Prozessknoten 40 zur Verfügung zu stellen oder mit diesen Daten eine Zustandsmaschine 43 zu triggem.
Beispiel 9: Roboter mit angepasster Sicherheitsbewegungssteuerung
[0089] Die erfinderische Aufgabe ist es, einen mobilen Roboter, z.B. einen mobilen Serviceroboter 1, in
Situationen, in denen er mglw. in seinem Einsatzgebiet den Weg versperrt, manuell einfach aus dem Weg bewegen zu können. Bei diesem Serviceroboter 1 kann es sich um einen Roboter zum Begleiten oder Ob- servieren von Personen, zum Durchführen von mindestens einer Transportfunktion, zum Erfassen von
Objekten, etc. handeln.
SRF1. Sicherheitsbewegungssteuerung 60, die konfiguriert ist, mindestens einen Motor 61 eines mobilen
Roboters (z.B. 1) direkt oder indirekt anzusteuern, mit einem ersten, zweiten, dritten und vierten Zustand, wobei e der erste Zustand die Stromversorgung des mindestens einen Motors 61 derart regelt, dass die durch den Stromfluss im Motor 61 hervorgerufene und die auf die Position des mobilen Roboters (z.B. 1) in horizontaler Ebene einwirkende Kraft größer der Summe der in horizontaler Ebene einwirkenden Trägheitskräfte des mobilen Roboters (z.B. 1) ist, und e im zweiten Zustand der eingestellte Stromfluss im mindestens einen Motor 61 derart geregelt wird, dass eine negative Beschleunigung des mobilen Roboters (z.B. 1) bis zu einer Geschwin- digkeit von null erfolgt, e im dritten Zustand der eingestellte Stromfluss im mindestens einen Motor 61 derart geregelt wird, dass die vom mindestens einen Motor 61 hervorgerufene und die auf die Position des mobilen
Roboters (z.B. 1) in horizontaler Ebene einwirkende Kraft in etwa der Summe aus Rollwiderstand 78
24-Beispiel und Rotorträgheit des mindestens einen Motors 61 entspricht, so dass der mobile Roboter (z.B. 1) im Wesentlichen auf seiner Position in horizontaler Ebene verbleibt, und LUT03344 e der vierte Zustand durch das Auslösen eines Schalters (z.B. 65) aktiviert wird.
SRF2. Sicherheitsbewegungssteuerung 60 nach SRF1, wobei im vierten Zustand der Stromfluss im min- destens einen Motor 61 so regelt wird, dass die durch den Stromfluss im mindestens einen Motor 61 her- vorgerufene und die auf die Position des mobilen Roboters (z.B. 1) in horizontaler Ebene einwirkende
Kraft in etwa der Summe der in horizontaler Ebene einwirkende Gegenkräfte entspricht, die durch die
Trägheit des mobilen Roboters (z.B. 1) hervorgerufen werden.
SRF3. Sicherheitsbewegungssteuerung 60 nach SRF1, wobei im vierten Zustand der Stromfluss in min- destens einen Motor 61 so regelt wird, dass die durch den Stromfluss in mindestens einen Motor 61 her- vorgerufene Kraft im Wesentlichen die Rotorträgheit des mindestens einen Motors 61 ausgleicht.
SRF4. Sicherheitsbewegungssteuerung 60 nach SRF1-SRF3, wobei der zweite Zustand durch die Detek- tion eines Hindernisses, durch Assoziierung mit einer definierten Position und/oder durch eine Nutzerin- teraktion während des ersten Zustands getriggert wird.
SRF5. Sicherheitsbewegungssteuerung 60 nach SRF1, wobei im dritten Zustand der eingestellte Strom- fluss im mindestens einen Motor 61 derart geregelt wird, dass die vom Motor 61 hervorgerufene und die auf die Position des mobilen Roboters (z.B. 1) in horizontaler Ebene einwirkende Kraft in etwa der
Summe aus Rollwiderstand, Rotorträgheit und mindestens einer weiteren Kraft entspricht, so dass der mobile Roboter (z.B. 1) im Wesentlichen auf seiner Position in horizontaler Ebene verbleibt.
SRF6. Sicherheitsbewegungssteuerung 60 nach SRF5, wobei die weitere Kraft mittels eines Iner- tialsensors 62 ermittelt wird.
SRF7. Sicherheitsbewegungssteuerung 60 nach SRF5-SRF6, wobei die weitere Kraft von außen auf den mobilen Roboter (z.B. 1) wirkt oder sich im Wesentlichen aus der Schwerkraft ergibt, weil sich der mo- bile Roboter (z.B. 1) auf einer schiefen Ebene befindet.
SRF8. Sicherheitsbewegungssteuerung 60 nach SRF1-SRF7, wobei der dritte Zustand bei Erreichen einer
Geschwindigkeit von null erreicht wird.
SRF9. Sicherheitsbewegungssteuerung 60 nach SRF1-SRF8, wobei mittels eines Drehwinkelsensors 64 eine Geschwindigkeit oder Beschleunigung ermittelt wird, die proportional zur Umdrehungsgeschwindig- keit oder Beschleunigung mindestens eines Antriebsrads 63 des mobilen Roboters (z.B. 1) ist.
SRFI10. Sicherheitsbewegungssteuerung 60 nach SRF1-SRF9, wobei die auf den Roboter (z.B. 1) ein- wirkenden Kräfte mittels Drehungen ermittelt werden, die der Drehwinkelsensor 64 misst.
SRF11. Sicherheitsbewegungssteuerung 60 nach SRF1-SRF10, wobei die die auf den Roboter (z.B. 1) einwirkenden Kräfte oder Beschleunigungen mittels eines Inertialsensors 62 ermittelt werden.
SRF12. Sicherheitsbewegungssteuerung 60 nach SRF1-SRF11, mit einem Steuerungsspeicher 66, der
Werte für mindestens eine maximale Geschwindigkeit speichert, wobei die Geschwindigkeit des Roboters (z.B. 1) mittels Drehwinkelsensor 64 und/oder Umfelderfassungssensor 6 ermittelt wird, und bei Über- schreiten der maximalen Geschwindigkeit durch den Roboter (z.B. 1) wird der Stromfluss im mindestens einen Motor 61 begrenzt. 79
24-Beispiel
SRF13. Sicherheitsbewegungssteuerung 60 nach SRF12, wobei die mindestens eine maximale Geschwin- digkeit abhängig ist von der Größe eines Schutzfelds, dass einen Überwachungsbereich des Umfelderfas- | 09344 sungssensors 6 definiert.
SRF14. Sicherheitsbewegungssteuerung 60 nach SRF1-SRF13, mit einem Speicher (z.B. 66) oder Zugriff aufeinen Speicher, der Werte für mindestens eine maximale Geschwindigkeit speichert, die der Roboter (z.B. 1) vorweisen darf, wenn sich ein Hindernis in einem Schutzfeld des Umfelderfassungssensors 6 be- findet und auf die die Sicherheitsbewegungssteuerung 60 den Roboter (z.B. 1) durch Regelung des
Stromflusses im Motor 61 entsprechend abbremst.
SRF15. Mobiler Roboter (z.B. 1) mit einer Sicherheitsbewegungssteuerung nach SRF1-SRF14.
SRF16. Mobiler Roboter (z.B. 1) nach SRF15, weiter umfassend einen Bewegungserfassungssensor 5, einen Vitaldatenerfassungssensor 7 und/oder einen Radarsensor 9.
SRF17. Mobiler Roboter (z.B. 1) nach SRF15-SRF16, weiter umfassend ein Personenidentifizierungsmo- dul 20, ein Bewegungserfassungsdatenverarbeitungsmodul 22 und/oder ein Beobachtungspunkte-Modell-
Generierungsmodul 23, ein Beobachtungspunkte-Bewertungsmodul 25 und/oder ein Feedback-Generie- rungsmodul 34.
SF18. Mobiler Roboter (z.B. 1) nach SRF15-SRF17, wobei die Sensordaten des Bewegungserfassungs- sensors 5, des Vitaldatenerfassungssensors 7 und/oder des Radarsensors 9 über einen Prozessknoten 40 zur Verfügung gestellt werden.
SRF19. Mobiler Roboter (z.B. 1) nach SRF15-SRF18, mit einem Feedback-Generierungsmodul 34, wel- ches mittels einer Zustandsmaschine 43 getriggert wird.
SRF20. Verfahren zur Steuerung eines mobilen Roboters (z.B. 1) mittels einer Sicherheitsbewegungssteu- erung 60, umfassend e Absolvieren eines Pfads in einer Umgebung mit stationären und mobilen Hindernissen, eo Abbremsen des mobilen Roboters (z.B. 1) bis auf eine Geschwindigkeit von null und damit die
Einnahme einer Stillstandsposition, e Trigger der Sicherheitsbewegungssteuerung 60 durch Auslösung eines Schalters (z.B. 65) nach
Abbremsen des mobilen Roboters (z.B. 1) auf die Geschwindigkeit von null.
SRF21. Verfahren nach SRF20, wobei das Triggem der Sicherheitsbewegungssteuerung 60 den Strom- fluss im mindestens einen Motor 61 direkt oder indirekt so regelt, dass die durch den Stromfluss im min- destens einen Motor 61 hervorgerufene und die auf die Position des mobilen Roboters (z.B. 1) in horizon- taler Ebene einwirkende Kraft in etwa der Summe der in horizontaler Ebene einwirkende Gegenkräfte entspricht, die durch die Trägheit des mobilen Roboters (z.B. 1) hervorgerufen werden.
SRF22. Verfahren nach SRF20, wobei das Triggem der Sicherheitsbewegungssteuerung 60 den Strom- fluss im mindestens einen Motor 61 direkt oder indirekt so regelt, dass die durch den Stromfluss im min- destens einen Motor 61 hervorgerufene Kraft im Wesentlichen die Rotorträgheit ausgleicht.
SRF23. Verfahren nach SRF21-SRF22, wobei die Kraft durch Kraftmessung unter Zuhilfenahme eines
Inertialsensors 62 oder Drehwinkelsensors 64 erfolgt. 80
24-Beispiel
SRF24. Verfahren nach SRF20-SRF23, wobei das Abbremsen durch Detektion mindestens eines mobilen
Hindernisses im Erfassungsbereich des Umfelderfassungssensors 6 hervorgerufen wird, durch das Errei "| 09344 chen einer Zielposition und/oder eine Nutzerinteraktion mit einer Person.
SRF25. Verfahren nach SRF24, wobei die Detektion des mindestens einen mobilen Hindernisses im Er- fassungsbereich des Umfelderfassungssensors 6 sich im Schutzfeld des Umfelderfassungssensors 6 befin- det.
SRF26. Verfahren nach SRF20-SRF24, wobei das Absolvieren eines Pfads durch den mobilen Roboter (z.B. 1) in einem ersten Zustand der Sicherheitsbewegungssteuerung 60, das Abbremsen in einem zweiten
Zustand, die Einnahme einer Stillstandsposition im dritten Zustand, und weiter die Einnahme eines vier- ten Zustands nach Auslösung eines Schalters (z.B. 65) erfolgt.
SRF27. Sicherheitsbewegungssteuerung zur Durchführung des Verfahrens nach SRF20-SRF26.
SRF28. Mobiler Roboter mit einer Sicherheitsbewegungssteuerung nach SRF27.
Beispiel 10: Systementkopplung zum technischen Risikomanagement
[0090] Eine technische Herausforderung ist es, die technischen Risiken für eine Person, die mit einem mobilen Serviceroboter interagiert, entsprechend zu minimieren, während auch der Entwicklungsaufwand sowie der Umfang an Hardwarekomponenten und die Komplexität der Sicherheit der Datenverarbeitung auf dem mobilen Serviceroboter 1 sich in Grenzen halten soll. Die technische Lösung ist hier eine Ent- kopplung der sicherheitskritischen Systeme von der Anwendungsebene, auf welcher die Nutzerinteraktion primdr stattfindet. Dies sorgt für erheblich geringere Anforderungen an die Sicherheit der Applikation, bspw. Verzicht auf doppelt vorhandene Komponenten zwecks Ausfallkompensation, weniger komplexe
Sensordatenauswertung, weniger komplexe Systemtests, usw.
SI1. Mobiler Serviceroboter 1 mit einer Recheneinheit 3 und einem Speicher 2 sowie einer Sicherheitsbe- wegungssteuerung 60, wobei e die Sicherheitsbewegungssteuerung 60 auf Basis von Sensordaten die Geschwindigkeit des Ser- viceroboters 1 reduziert oder die Bewegungsrichtung des mobilen Serviceroboters 1 beeinflusst, wenn mindestens ein die Sensordaten bereitstellender Umfelderfassungssensor 6 ein Hindernis detektiert, und e die Recheneinheit 3 auf die Sicherheitsbewegungssteuerung 60 oder einen Motorcontroller 68 über mindestens eine Schnittstelle (67, 70) zugreift, e wobei der Zugriff der Recheneinheit 3 auf die Sicherheitsbewegungssteuerung 60 oder den Mo- torcontroller 68 Einflüsse der Sicherheitsbewegungssteuerung 60 basierend auf der Hindernisde- tektion auf die Geschwindigkeit oder Bewegungsrichtung des mobilen Serviceroboters 1 nicht überschreiben kann.
SI2. Mobiler Serviceroboter 1 nach SI1, wobei die Geschwindigkeitsreduktion oder Bewegungsrichtungs- änderung des mobilen Serviceroboters 1 mittels Regelung des Stromflusses im mindestens einen Motor 61 des Serviceroboters 1 erfolgt. 81
24-Beispiel
SI3. Mobiler Serviceroboter 1 nach SI2, wobei die Geschwindigkeitsreduktion oder Bewegungsrichtungs- änderung des mobilen Serviceroboters 1 durch einen Motorcontroller 68 vorgenommen wird. LU103344
SI4. Mobiler Serviceroboter 1 nach SII, wobei die Sensordaten von einem Umfelderfassungssensor 6 be- reitgestellt werden, bei dem es sich um eine 2D- oder 3D-Kamera 8, einen Radarsensor 9, einen La- serscanner 14 und/oder eine Schutzkontaktleiste 69 handelt.
SIS. Mobiler Serviceroboter 1 nach SI1, wobei sich das Hindernis in einem Schutzfeld eines Umfelderfas- sungssensors 6 befindet.
SI6. Mobiler Serviceroboter 1 nach SII, wobei die Sicherheitsbewegungssteuerung 60 die Anforderungen der ISO 13849, IEC 62061 und/oder IEC 61508 erfüllt.
SI7. Mobiler Serviceroboter 1 nach SI1, wobei die Sicherheitsbewegungssteuerung 60 mindestens das
Performance Level d der ISO 13849 aufweist.
SI8. Mobiler Serviceroboter 1 nach SI1, wobei die Sicherheitsbewegungssteuerung 60 mindestens das Si- cherheitsintegritétslevel 2 der IEC 61508 oder IEC 6206 1aufweist.
SI9. Mobiler Serviceroboter 1 nach SII, wobei die Sicherheitsbewegungssteuerung 60 nach der ISO 13849-2, der IEC 62061 und/oder der IEC 61508 validiert wurde.
SI10. Mobiler Serviceroboter 1 nach SI1, mit mindestens einer Anwendungen im Speicher 2, wobei die mindestens eine Anwendung die Anforderungen der Software-Sicherheitsklasse À der IEC 62304 erfüllt.
SI11. Mobiler Serviceroboter 1 nach SI1, mit mindestens einer Anwendungen im Speicher 2, wobei die mindestens eine Anwendung mindestens anteilig die Anforderungen der Software-Sicherheitsklasse B der
IEC 62304 erfüllt.
SI12. Mobiler Serviceroboter 1 nach SI1, wobei der Anteil der Anwendungen im Speicher 2, die die Soft- ware-Sicherheitsklasse A der IEC 62304 erfüllen und nicht die Anforderungen der Software-Sicherheits- klasse B oder C der IEC 62304 erfüllen, bei 100% liegt.
SI13. Mobiler Serviceroboter 1 nach SI10-SI12, wobei es sich bei der mindestens einen Anwendung im
Speicher 2 um ein Navigationsmodul 38 und/oder ein Pfadplanungsmodul 30 handelt.
SI14. Mobiler Serviceroboter 1 nach SI10-SI13, wobei mindestens eine Anwendung ein Beobachtungs- punkte-Bewertungsmodul 25, ein Feedback-Generierungsmodul 34 und/oder ein Ausgabemodul 32 um- fasst.
SI15. Mobiler Serviceroboter 1 nach SI10-SI14, wobei mindestens eine Anwendung ein Personenidentifi- zierungsmodul 21 und/oder ein Personen-Re-Identifizierungsmodul 21 umfasst.
SI16. Mobiler Serviceroboter 1 mit einer Sicherheitsbewegungssteuerung 60, wobei die Sicherheitsbewe- gungssteuerung 60 die Anforderungen der ISO 13849, IEC 62061 und/oder IEC 61508 erfüllt, und einer
Anwendungsebene, wobei die Anwendungsebene mindestens anteilig Anwendungen umfasst, die die An- forderungen der Software-Sicherheitsklasse À und nicht der Software-Sicherheitsklasse B und C der IEC 62304 erfüllen.
SI17. Mobiler Serviceroboter 1 nach SI16, wobei sämtliche Anwendungen die Software-Sicherheitsklasse
Ader IEC 62304 erfüllen. 82
24-Beispiel
SI18. Mobiler Serviceroboter 1 nach SI16, wobei die Sicherheitsbewegungssteuerung 60 vorranging auf
Basis der Auswertung von Sensordaten eines Umfelderfassungssensors 6 den Stromfluss im mindestens LU103344 einen Motor 61 des mobilen Serviceroboters 1 mittels eines Motorcontrollers 68 derart beeinflusst, dass der mobile Serviceroboter 1 das Hindernis vermeidet und/oder zum Stehen kommt.
SI19. Mobiler Serviceroboter 1 nach SI16-SI18, wobei die Sicherheitsbewegungssteuerung 60 Steuer- oder Regelbefehle einer Recheneinheit 3, initiiert durch eine Anwendung, nachrangig nach Steuer- oder
Regelbefehlen behandelt, die auf Basis einer Auswertung der Daten eines Umfelderfassungssensors 6 ge- triggert werden.
SI20. Mobiler Serviceroboter 1 nach SI16-SI19, wobei die Sicherheitsbewegungssteuerung 60 mindestens das Performance Level d der ISO 13849 oder das Sicherheitsintegritätslevel 2 der IEC 61508 oder IEC 6206laufweist.
SI21. Mobiler Serviceroboter 1 nach SI16-SI20, wobei es sich bei einer Anwendung um ein Navigations- modul 38 und/oder Pfadplanungsmodul 30 handelt.
SI22. Mobiler Serviceroboter 1 nach SI16-SI21, wobei eine Anwendung ein Beobachtungspunkte-Bewer- tungsmodul 25, ein Feedback-Generierungsmodul 34 und/oder ein Ausgabemodul 32 umfasst.
SI23. Mobiler Serviceroboter 1 nach SI16-SI22, wobei mindestens eine Anwendung ein Personenidentifi- zierungsmodul 21 und/oder ein Personen-Re-Identifizierungsmodul 21 umfasst. 83
24-Beispiel
Bezugszeichen
LU103344
Serviceroboter 1
Speicher 2
Recheneinheit 3
Drahtlosschnittstelle 4
Bewegungserfassungssensor 5
Umfelderfassungssensor 6
Vitaldatenerfassungssensor 7 2D oder 3D Kamera 8
Radarsensor 9
Ausgabeeinheit 10
Lautsprecher 11
Display 12
Odometrieeinheit 13
Laserscanner 14
Temperatursensor 15
RFID Transponder 16
RFID-Lesegerät 17
Leuchtelement 18
Eingabeeinheit 19
Personenidentifizierungsmodul 20
Personen-Re-Identifizierungsmodul 21
Bewegungserfassungsdatenverarbeitungsmodul 22
Beobachtungspunkte-Modell-Generierungsmodul 23
Beobachtungspunkte-Überwachungsmodul 24
Beobachtungspunkte-Bewertungsmodul 25
Bewertungspunkt-Ermittlungsmodul 26
Posen-Ermittlungsmodul 27
Koordinatensystem-Transformationsmodul 28
Pfadplanungsmodul 30
Kartenmodul 31
Ausgabemodul 32
Text-to-Speech-System 33
Feedback-Generierungsmodul 34
Anonymisierungsmodul 35
Statistikmodul 36
Distanzhaltemodul 37
Navigationsmodul 38 84
24-Beispiel
Prozessknoten 40
Prozessknoten (dediziert mit Zustandsmaschine) 40z LU103344
Prozessknoten (dediziert, der Sensordaten bereitstellt) 40s
Datenkanal 41
Shared memory 42
Zustandsmaschine 43
Zustandsmaschine (dediziert innerhalb Prozessknotens) 43p erstes Zeitintervall 51 zweites Zeitintervall 52 drittes Zeitintervall 53 viertes Zeitintervall 54 fünftes Zeitintervall 55 finales Zeitintervall 56
Sicherheitsbewegungssteuerung 60
Motor 61
Inertialsensor 62
Antriebsrad 63
Drehwinkelsensor 64
Not-Halt 65
Steuerungsspeicher 66
Sicherheitsbewegungssteuerungs-Schnittstelle 67
Motorcontroller 68
Sicherheitsschaltleiste 69
Motorcontroller-Schnittstelle 70 85
Claims (13)
- 24-Beispiel 4 Ansprüche LU103344I. Computer-implementiertes Verfahren zur Erfassung und Bewertung von Bewegungen einer Person im Zeitablauf und zur Generierung von Feedback an die Person, umfassend e Erfassung der Bewegungen einer Person mittels eines Bewegungserfassungssensors (5), e Generierung eines Beobachtungspunkte-Modells von Beobachtungspunkten für die erfasste Person, e Bewertung der erfassten Bewegungen hinsichtlich definierter Bewegungsabweichungen auf Basis von Beobachtungspunkten des Beobachtungspunkte-Modells und/oder daraus abgeleiteten Bewertungspunkten und zu diesen im Speicher (2) hinterlegten Regeln in einem ersten Zeitintervall (51), was weiter die folgenden Verfahrensschritte umfasst: o Ermittlung von Schritten aus der Bewertung des Bewegungsablaufs während des ersten Zeitintervalls (51), o Summierung der Schritte und Vergleich der Schritte mit einem Schwellwert, o Beenden des ersten Zeitinterfalls (51), wenn die summierten Schritte den Schwellwert erreicht haben, o Ermittlung von Bewegungs- und/oder Posenabweichungen im ersten Zeitintervall (51), e Ausgabe von Feedback an die Person in einem zweiten Zeitintervall (52) basierend auf den ermittelten Bewegungs- und/oder Posenabweichungen.
- 2. Computer-implementiertes Verfahren nach Anspruch 1, wobei nach Ermittlung von Bewegungs- und/oder Posenabweichungen im ersten Zeitintervall (51) eine Priorisierung der Bewegungs- und/oder Posenabweichungen erfolgt und die Ausgabe von Feedback an die Person zur am höchsten priorisierten Bewegungs- und/oder Posenabweichung im zweiten Zeitintervall (52).
- 3. Computer-implementiertes Verfahren nach Anspruch 1, weiter umfassend e Erfassung der Bewegungen einer Person mittels eines Bewegungserfassungssensors (5), e Generierung eines Beobachtungspunkte-Modells von Beobachtungspunkten für die erfasste Person, e Bewertung der erfassten Bewegungen hinsichtlich definierter Bewegungsabweichungen auf Basis von Beobachtungspunkten des Beobachtungspunkte-Modells und/oder daraus abgeleiteten Bewertungspunkten und zu diesen im Speicher (2) hinterlegten Regeln in einem dritten Zeitintervall (53), was auch die folgenden Verfahrensschritte umfasst: o Ermittlung von Schritten aus der Bewertung des Bewegungsablaufs während des dritten Zeitintervalls (53), 124-Beispiel 4 o Summierung der Schritte und Vergleich der summierten Schritte mit einem LU103344 Schwellwert, o Beenden des dritten Zeitintervalls (53), wenn die summierten Schritte den Schwellwert erreicht haben.
- 4. Computer-implementiertes Verfahren nach Anspruch1-3, weiter umfassend e Ausgabe von Feedback an die Person mit Bezug zu einer im dritten Zeitintervall (53) detektierten Bewegungs- und/oder Posenabweichung in einem vierten Zeitintervall (54), wobei es sich bei der Bewegungs- und/oder Posenabweichung um die im ersten Zeitintervall (51) am höchsten priorisierte Abweichung handelt, e Ausgabe von Feedback in einem vierten Zeitintervall (54) basierend auf den ermittelten Bewegungs- und/oder Posenabweichungen im dritten Zeitintervall (53).
- 5, Computer-implementiertes Verfahren nach Anspruch 1-4, welches innerhalb eines in einem Überwachungsprofil definierten Zeitfensters mehr als einmal durchlaufen wird.
- 6. Computer- implementiertes Verfahren nach Anspruch 1-5, mit einem finalen Zeitintervall (55), welches nach Abschluss der Erfassung der Bewegungen der Person die Ausgabe von in vorangegangenen Zeitintervallen erfasste Bewegungsabweichungen und/oder in vorangegangenen Zeitintervallen ausgegebenes Feedback über eine Ausgabeeinheit (10) umfasst.
- 7. Computer- implementiertes Verfahren nach Anspruch 6, wobei es sich bei den in vorangegangenen Zeitintervallen erfassten Bewegungsabweichungen und/oder dem in vorangegangenen Zeitintervallen ausgegebenes Feedback um aggregierte Bewegungsabweichungen und/oder Feedback handelt.
- 8. Computer- implementiertes Verfahren nach Anspruch 1-7, wobei die zu erfassenden Bewegungsabweichungen, die zu erfassenden Bewegungen und/oder Posen und/oder die Zeitdauer der Erfassung der Bewegungsabweichungen in einem Uberwachungsprofil gespeichert oder mit diesem assoziiert sind, wobei das Uberwachungsprofil über eine Drahtlosschnittstelle (4) zur Verfügung gestellt wird.
- 9. Computer- implementiertes Verfahren nach Anspruch 8, wobei das dritte Zeitintervall (53) kürzer ist als das erste Zeitintervall (51).
- 10. Computer- implementiertes Verfahren nach Anspruch 1-9, wobei Koordinaten zur Durchführung mindestens eines der Schritte aus Anspruch 1-4 mit einem Uberwachungsprofil assoziiert sind 224-Beispiel 4 und ein automatisiertes Triggern der Erfassung der Bewegung der Person erfolgt, wenn ein LU103344 Vergleich der im Uberwachungsprofil direkt oder indirekt hinterlegten Koordinaten mittels Sensorik ermittelten Koordinaten auf einer Karte ein Erreichen dieser Koordinaten ergibt.
- 11. Computer-implementiertes Verfahren nach Anspruch 1-10, wobei das Überwachungsprofil mit mindestens zwei Positionen auf einer Karte assoziiert ist und zwischen den beiden Positionen eine Pfadplanung erfolgt.
- 12. Computer-implementiertes Verfahren nach Anspruch 1-11, wobei die Bereitstellung von Daten des Bewegungserfassungssensors (5) mindestens anteilig über einen Prozessknoten (40) und einen Datenkanal (41) erfolgt.
- 13. Vorrichtung zur Durchführung des computer- implementiertes Verfahren nach Anspruch 1-12. 3
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/EP2025/070237 WO2026017691A1 (de) | 2024-07-17 | 2025-07-15 | Verfahren zum betrieb einer personenerfassungsvorrichtung |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102024120228.9A DE102024120228A1 (de) | 2024-07-17 | 2024-07-17 | Vorrichtung und Verfahren für Bewegungsfeedback beim Laufen |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| LU103344B1 true LU103344B1 (de) | 2026-01-19 |
Family
ID=92042915
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| LU103344A LU103344B1 (de) | 2024-07-17 | 2024-07-24 | Vorrichtung und Verfahren für Bewegungsfeedback beim Laufen |
Country Status (2)
| Country | Link |
|---|---|
| DE (1) | DE102024120228A1 (de) |
| LU (1) | LU103344B1 (de) |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2014151700A1 (en) | 2013-03-14 | 2014-09-25 | Microsoft Corporation | Signal analysis for repetition detection and analysis |
| WO2019070388A2 (en) | 2017-09-14 | 2019-04-11 | Sony Interactive Entertainment Inc. | ROBOT USED AS A PERSONAL COACH |
| WO2019228977A1 (en) | 2018-05-28 | 2019-12-05 | Kaia Health Software GmbH | Monitoring the performance of physical exercises |
| WO2020144175A1 (de) | 2019-01-07 | 2020-07-16 | Metralabs Gmbh Neue Technologien Und Systeme | Verfahren und system zur erfassung des bewegungsablaufs einer person |
| WO2021038109A1 (de) | 2019-08-30 | 2021-03-04 | Metralabs Gmbh Neue Technologien Und Systeme | System zur erfassung von bewegungsabläufen und/oder vitalparametern einer person |
| WO2021069674A1 (de) | 2019-10-09 | 2021-04-15 | Metralabs Gmbh Neue Technologien Und Systeme | Autonomes flurförderzeug |
-
2024
- 2024-07-17 DE DE102024120228.9A patent/DE102024120228A1/de active Pending
- 2024-07-24 LU LU103344A patent/LU103344B1/de active
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2014151700A1 (en) | 2013-03-14 | 2014-09-25 | Microsoft Corporation | Signal analysis for repetition detection and analysis |
| WO2019070388A2 (en) | 2017-09-14 | 2019-04-11 | Sony Interactive Entertainment Inc. | ROBOT USED AS A PERSONAL COACH |
| WO2019228977A1 (en) | 2018-05-28 | 2019-12-05 | Kaia Health Software GmbH | Monitoring the performance of physical exercises |
| WO2020144175A1 (de) | 2019-01-07 | 2020-07-16 | Metralabs Gmbh Neue Technologien Und Systeme | Verfahren und system zur erfassung des bewegungsablaufs einer person |
| WO2021038109A1 (de) | 2019-08-30 | 2021-03-04 | Metralabs Gmbh Neue Technologien Und Systeme | System zur erfassung von bewegungsabläufen und/oder vitalparametern einer person |
| WO2021069674A1 (de) | 2019-10-09 | 2021-04-15 | Metralabs Gmbh Neue Technologien Und Systeme | Autonomes flurförderzeug |
Non-Patent Citations (2)
| Title |
|---|
| SCHEIDIG ANDREA ET AL: "May I Keep an Eye on Your Training? Gait Assessment Assisted by a Mobile Robot*", 2019 IEEE 16TH INTERNATIONAL CONFERENCE ON REHABILITATION ROBOTICS (ICORR), IEEE, 24 June 2019 (2019-06-24), pages 701 - 708, XP033583150, DOI: 10.1109/ICORR.2019.8779369 * |
| TRINH THANH Q ET AL: "Autonomous Mobile Gait Training Robot for Orthopedic Rehabilitation in a Clinical Environment*", 2020 29TH IEEE INTERNATIONAL CONFERENCE ON ROBOT AND HUMAN INTERACTIVE COMMUNICATION (RO-MAN), IEEE, 31 August 2020 (2020-08-31), pages 580 - 587, XP033841561, DOI: 10.1109/RO-MAN47096.2020.9223482 * |
Also Published As
| Publication number | Publication date |
|---|---|
| DE102024120228A1 (de) | 2026-01-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Pavón et al. | Development of intelligent multisensor surveillance systems with agents | |
| DE102014106210B4 (de) | Probabilistische Personennachführung unter Verwendung der Mehr- Ansichts-Vereinigung | |
| DE102014105351B4 (de) | Detektion von menschen aus mehreren ansichten unter verwendung einer teilumfassenden suche | |
| DE102015104954B4 (de) | Sichtbasiertes Überwachungssystem zur Validierung von Aktivitätssequenzen | |
| DE69121369T2 (de) | Steuervorrichtung für einen sich selbständig bewegenden Körper und Verfahren zur Auswertung der Daten davon | |
| DE102021103038A1 (de) | Verfahren und System zur Beförderung eines Roboters in einem Aufzug | |
| EP3611422B1 (de) | Sensoranordnung und verfahren zum absichern eines überwachungsbereichs | |
| DE102014106211A1 (de) | Sichtbasierte Mehrkamera-Fabriküberwachung mit dynamischer Integritätsbewertung | |
| US20230042750A1 (en) | System And Method For Training A Self-Supervised Ego Vehicle | |
| DE102019122760A1 (de) | Selbstfahrende mobile roboter, die mensch-roboter-interaktionen verwenden | |
| DE112018006578T5 (de) | Wegplanung für autonome sich bewegende vorrichtungen | |
| DE112011104644T5 (de) | Mobiles Roboter-System | |
| DE112020007655T5 (de) | Lokalisierungssystem und -verfahren für ein mobiles Gerät | |
| Ivanov et al. | Software advances using n-agents wireless communication integration for optimization of surrounding recognition and robotic group dead reckoning | |
| LU103344B1 (de) | Vorrichtung und Verfahren für Bewegungsfeedback beim Laufen | |
| DE112022002019T5 (de) | Fahrvorrichtung, fahrzeug und verfahren zum automatisierten fahren und/oder assistierten fahren | |
| LU103343B1 (de) | Vorrichtung und Verfahren fiir die Bewegungsanalyse einer Person und die Feedbackgenerierung | |
| LU103345B1 (de) | Wendepositionsermittlung eines Serviceroboters | |
| CN117521422A (zh) | 一种基于沉浸式分队行为仿真系统及方法 | |
| DE102024120227A1 (de) | Verfahren zur Steuerung eines Serviceroboters mit einer Bewegungsüberwachung | |
| DE102024120234A1 (de) | Steuerungsverfahren für mobilen Roboter mittels Sicherheitsbewegungssteuerung | |
| DE102024120225A1 (de) | Vorrichtung und Verfahren zur Bewegungsauswertung einer Person | |
| DE102024120231A1 (de) | Ermittlung einer Wendeposition eines Serviceroboters | |
| DE102024132745A1 (de) | Verfahren zur Steuerung eines Serviceroboters zur Bewegungsüberwachung einer Person | |
| DE102024120232A1 (de) | Sicherheitsbewegungssteuerung für einen mobilen Roboter |