DE102022128864A1 - Object localization by a mobile robot - Google Patents

Object localization by a mobile robot Download PDF

Info

Publication number
DE102022128864A1
DE102022128864A1 DE102022128864.1A DE102022128864A DE102022128864A1 DE 102022128864 A1 DE102022128864 A1 DE 102022128864A1 DE 102022128864 A DE102022128864 A DE 102022128864A DE 102022128864 A1 DE102022128864 A1 DE 102022128864A1
Authority
DE
Germany
Prior art keywords
computer
robot
implemented method
detection
radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022128864.1A
Other languages
German (de)
Inventor
Christian STERNITZKE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tediro GmbH
Original Assignee
Tediro GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tediro GmbH filed Critical Tediro GmbH
Priority to DE102022128864.1A priority Critical patent/DE102022128864A1/en
Publication of DE102022128864A1 publication Critical patent/DE102022128864A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Manipulator (AREA)

Abstract

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Lokalisierung von Personen und/oder der Erfassung von Vitalparametern einer Person mittels eines mobilen Roboters. Hierzu werden Parameter der Erfassungssensoren entsprechend ausgerichtet, der Roboter absolviert einen Pfad, erfasst Objekte, lokalisiert diese und vergleicht Positionen mit hinterlegten Regeln, um ggf. Ereignisse zu triggern. Es wird beschrieben, wie durch Navigation des Roboters und Variation der Signalstärke der Sensoren eine Optimierung der Erfassungsqualität realisiert werden kann.The invention relates to a method and a device for locating people and/or recording a person's vital parameters using a mobile robot. To do this, parameters of the detection sensors are aligned accordingly, the robot follows a path, detects objects, localizes them and compares positions with stored rules in order to trigger events if necessary. It is described how the detection quality can be optimized by navigating the robot and varying the signal strength of the sensors.

Description

Gebiet der ErfindungField of the invention

Die Erfindung bezieht sich auf Roboter zur Überwachung von Personen, in einem Aspekt unter Überwachung der Vitalparameter.The invention relates to robots for monitoring persons, in one aspect monitoring vital parameters.

Hintergrund der Erfindung und Stand der TechnikBackground of the invention and prior art

Immer mehr Aufgaben werden heutzutage durch technische Systeme übernommen. Dazu zählen auch mobile Roboter. Diese können Objekte oder Personen überwachen (z.B. JP2019016339A ) und, in einem Aspekt, in diesem Kontext auch Vitalparameter von Personen erfassen. So kann es bspw. sein, dass bei gesundheitlich beeinträchtigten Personen eine engmaschige Überwachung notwendig ist, ohne dass hierzu stationäre Sensoren eingesetzt werden können, bspw. insbesondere dann, wenn mehrere oder gar eine Vielzahl von Personen zu überwachen ist.More and more tasks are now being taken over by technical systems. This also includes mobile robots. These can monitor objects or people (e.g. JP2019016339A ) and, in one aspect, also record vital parameters of people in this context. For example, it may be that close monitoring is necessary for people with health problems without the use of stationary sensors, for example, especially when several or even a large number of people are to be monitored.

Die technische Herausforderung ist in einem Aspekt die Überwachung von Patienten in Krankenhäusern. Es ist bekannt, dass mobile Roboter eine solche Überwachung vornehmen können. Dabei kann ein mobiler Roboter über einen Gang patrouillieren, in jedes Zimmer fahren und dort dann die Patienten überwachen. Allerdings ist es dafür notwendig, die Zimmertüren zu öffnen. Dies ist mit zusätzlichen Öffnungsmechanismen umsetzbar, die bspw. über Funk durch den Roboter angesteuert werden können. Allerdings sind die Öffnungsmechanismen sehr aufwendig zu installieren. Die Herausforderung besteht also darin, die Patientenüberwachung bei geschlossenen Türen robust zu ermöglichen.One aspect of the technical challenge is the monitoring of patients in hospitals. It is known that mobile robots can carry out such monitoring. A mobile robot can patrol a corridor, drive into each room and then monitor the patients there. However, this requires opening the room doors. This can be implemented with additional opening mechanisms that can be controlled by the robot via radio, for example. However, the opening mechanisms are very complex to install. The challenge is therefore to enable robust patient monitoring when the doors are closed.

Ein Ansatz, der im Stand der Technik verfolgt wird, ist der Einsatz von Radartechnik auf einem Roboter, um Personen hinter Wänden zu detektieren (z.B. CN113715032A oder WO2005074422A2 ). Es sind jedoch robuste Ansätze erforderlich, um dies im Klinikkontext umzusetzen. Bei CN113715032A handelt es sich um die Beschreibung eines Waffensystems, das eine sehr grobe Ortung von Personen hinter Wänden ermöglicht. WO2005074422A2 beschreibt lediglich sehr abstrakt die Möglichkeit der Personendetektion mittels eines auf einem Roboter angeordneten Radars durch Wände.One approach pursued in the state of the art is the use of radar technology on a robot to detect people behind walls (e.g. CN113715032A or WO2005074422A2 However, robust approaches are needed to implement this in the clinical context. CN113715032A This is a description of a weapon system that enables very rough location of people behind walls. WO2005074422A2 merely describes in a very abstract way the possibility of detecting people through walls using a radar mounted on a robot.

Es kann in einigen Situationen wichtig sein, Personen genau zu lokalisieren, bspw. um eine möglichst genaue Messung von Vitalparametern vornehmen zu können. Das ist insbesondere dann der Fall, wenn diese Messung berührungslos erfolgen soll und ggf. die dabei genutzten Signale mehrere Medien durchlaufen müssen. Hierbei ist mit einer entsprechenden Dämpfung der Signale zu rechnen und ggf. mit einer Feinjustierung der Signalstärke. Hierbei kann es in einigen Situationen notwendig sein, den die Überwachung vornehmenden mobilen Roboter genau zu lokalisieren. Im Kontext der Vitalparametererfassung bzw. der Personenlokalisierung kann es notwendig sein, kritische Situationen zu erkennen. Dafür sind Regeln notwendig, um eine Situationsklassifikation vorzunehmen. Weiterhin kann auch die Notwendigkeit bestehen, eine Alarmierung vorzunehmen, um bspw. in kritischen Situationen den überwachten Personen zu helfen.In some situations it can be important to locate people precisely, for example in order to be able to measure vital parameters as accurately as possible. This is particularly the case if the measurement is to be contactless and the signals used may have to pass through several media. This may result in a corresponding attenuation of the signals and, if necessary, a fine adjustment of the signal strength. In some situations it may be necessary to locate the mobile robot carrying out the monitoring precisely. In the context of vital parameter recording or person localization it may be necessary to recognize critical situations. For this purpose, rules are necessary in order to classify the situation. It may also be necessary to raise an alarm, for example in order to help the monitored people in critical situations.

Die erfindungsgemäße Aufgabe ist es nun, diese Themen entsprechend zu adressieren, um eine ausreichend genaue Personenlokalisierung einer zu überwachenden Person oder eines zu überwachenden Bereichs bzw. in einem Aspekt unter Ermittlung von Vitalparametern der zu überwachenden Person durchzuführen.The object of the invention is now to address these issues accordingly in order to carry out a sufficiently precise localization of a person to be monitored or an area to be monitored or, in one aspect, to determine vital parameters of the person to be monitored.

Sofern in diesem Dokument auf bereits etablierten Stand der Technik in Systemen, Vorrichtungen oder Verfahren zurückgegriffen wird, kann dies an diesen Stellen mit weiteren Quellen referenziert sein.If this document refers to already established state of the art in systems, devices or procedures, this may be referenced at these points with further sources.

Allgemeine Beschreibung der ErfindungGeneral description of the invention

Die Erfindung umfasst in einem Aspekt ein computer-implementiertes Verfahren zur Überwachung einer Fläche durch einen mobilen Roboter. Hierbei fährt der Roboter einen Pfad ab, erfasst eine zu überwachenden Fläche mittels mindestens einer Radarsensoreinheit, wertet die erfassten Radarsignale aus und löst ein Ereignis aus. Das Ereignis wiederum kann eine Signalübermittlung in die Cloud oder an ein Terminal umfassen. Dabei erfolgt die Erfassung der zu überwachenden Fläche durch eine Wand und/oder geschlossene Tür hindurch. In einem Aspekt erfolgt die Erfassung der zu überwachenden Fläche in etwa senkrecht zur Fahrtrichtung des Roboters. Die Signalauswertung wiederum umfasst die Identifikation von Objekten inkl. Personen und ermöglicht bspw. eine Differenzierung in bewegliche und unbewegliche Objekte, wobei es sich bei beweglichen Objekten vorzugweise um Personen handelt. Die Signalauswertung umfasst in einem Aspekt eine Ermittlung von mindestens einem Vitalparameter. Alternativ und/oder ergänzend kann die Signalauswertung eine Lokalisierung der Objektposition beinhalten. Diese Objektpositionen können bspw. mit im Speicher hinterlegten Objektpositionen und/oder Objektzonen verglichen werden. Dies kann bspw. auch sogenannte verbotene Zonen umfassen. Dies wiederum bedeutet, dass in diesen Zonen sich bspw. keine Objekte aufhalten dürfen, wie in Regeln, die im Speicher des Roboters hinterlegt sind, definiert sein kann. Sofern der Roboter Vitalparameter erfasst, erfolgt ein Vergleich ermittelter Vitalparameter mit hinterlegten Vitalparametern. Diese können bspw. für eine Person an einer lokalisierten Position erfasst werden. Der Roboter kann bspw. auch Vergleichswerte für Vitalparameter für Personen vorhalten, die durch ihn erfasst werden sollen. Dabei kann eine Person bspw. über die Zuordnung zu einer lokalen Position definiert sein. Diese kann der Roboter bspw. darüber ermitteln, dass er sich an einer bestimmten Position bspw. auf seinem Betriebspfad befindet und dieser Position entsprechende Vitalparameter zugeordnet sind, ggf. assoziiert mit mindestens einem Richtungsvektor, der in Länge und Orientierung beschriebt, wo sich die Person aufhalten darf, deren Vitalparameter gemessen und verglichen werden sollen. Die eigentliche Signalauswertung der Radarsignale wiederum umfasst bspw. den Vergleich mit Mustern. In einem Aspekt kann für die Signalauswertung ein Klassifikator genutzt werden, der mittels Imitation Learning erstellt wurde oder der Action Recognition nutzt. Die vom Roboter genutzten Positionsdaten eines Objekts und/oder einer Person, die durch Auswertung von Radarsensordaten ermittelt wurden, werden in einem möglichen Aspekt durch mittels Laserscanner, Kamera, Ultraschallsensor und/oder Odometrieeinheit ermittelten Daten normiert. In einem weiteren, optionalen Aspekt erfolgt eine Aktualisierung der Karte des Roboters durch Übernahme der mittels Radarsensoreinheit detektierten Hindernisse in eine Karte, die auf Basis von Daten eines Laserscanners, einer Kamera oder eines Ultraschallsensors erstellt wurde. In einem Aspekt nimmt der Roboter zwecks Erfassung einer Fläche mittels Radarsensoreinheit auf seinem Pfad eine Abtastposition vor einer ggf. geschlossenen Tür in einem definierten Abstand ein und führt eine Rotationsbewegung durch. Dabei kann er sich, in einem optionalen Aspekt, entlang eines konvexen Pfads vor der besagten Tür bewegen und dabei einen definierten Mindestabstand zur Tür einhalten.In one aspect, the invention comprises a computer-implemented method for monitoring an area by a mobile robot. The robot travels a path, detects an area to be monitored using at least one radar sensor unit, evaluates the detected radar signals and triggers an event. The event in turn can include a signal transmission to the cloud or to a terminal. The area to be monitored is detected through a wall and/or closed door. In one aspect, the area to be monitored is detected approximately perpendicular to the direction of travel of the robot. The signal evaluation in turn includes the identification of objects including people and enables, for example, a differentiation between moving and immobile objects, with moving objects preferably being people. In one aspect, the signal evaluation includes a determination of at least one vital parameter. Alternatively and/or additionally, the signal evaluation can include a localization of the object position. These object positions can, for example, be compared with object positions and/or object zones stored in the memory. This can also include, for example, so-called forbidden zones. This in turn means that no objects may be present in these zones, as can be defined in rules stored in the robot's memory. If the robot records vital parameters, a comparison is made between the determined vital parameters and the stored vital parameters. These can, for example, be recorded for a person at a local The robot can, for example, also hold comparison values for vital parameters for people that it is to record. A person can, for example, be defined by being assigned to a local position. The robot can determine this, for example, by being at a certain position, e.g. on its operating path, and by having corresponding vital parameters assigned to this position, possibly associated with at least one direction vector that describes in length and orientation where the person whose vital parameters are to be measured and compared is allowed to be. The actual signal evaluation of the radar signals, in turn, includes, for example, the comparison with patterns. In one aspect, a classifier that was created using imitation learning or that uses action recognition can be used for the signal evaluation. The position data of an object and/or a person used by the robot, which were determined by evaluating radar sensor data, are in one possible aspect standardized by data determined using a laser scanner, camera, ultrasound sensor and/or odometry unit. In a further, optional aspect, the robot's map is updated by incorporating the obstacles detected by the radar sensor unit into a map that was created based on data from a laser scanner, a camera or an ultrasonic sensor. In one aspect, the robot takes a scanning position in front of a possibly closed door at a defined distance in order to detect an area using the radar sensor unit on its path and performs a rotational movement. In an optional aspect, it can move along a convex path in front of the said door and maintain a defined minimum distance from the door.

In einem Aspekt umfasst das eingangs skizzierte technische Problem ein Teilproblem, nämlich die korrekte Lokalisierung von Objekten im zu überwachenden Bereich, was bspw. auch dazu förderlich ist, Vitalparametern zielgenau zu erfassen.In one aspect, the technical problem outlined at the beginning includes a sub-problem, namely the correct localization of objects in the area to be monitored, which is also beneficial, for example, for the precise recording of vital parameters.

Hierzu umfasst die Erfindung ein computer-implementiertes Verfahren zur Ermittlung, zur Korrektur oder zur Synchronisierung von Objekt-Positionsdaten, umfassend die Erstellung einer ersten Karte durch einen Roboter, die Hindernisse bzw. Objekten aufzeigt basierend auf Laserscanner-, Kamera- und/oder Ultraschallsensor-Daten, die Erstellung einer zweiten Karte durch einen Roboter mit Hindernissen bzw. Objekten basierend auf Radarsensor-Daten und einen Vergleich der Positionsdaten für in den beiden Karten jeweils enthaltenen Hindernisse bzw. Objekte. Dabei können z.B. die Positionsdaten von Objekten bzw. Hindernissen der zweiten Karte mindestens anteilig durch Positionsdaten von Objekten bzw. Hindernissen der ersten Karte korrigiert werden. So kann es sich bspw. bei den korrigierten Positionsdaten um Positionsdaten von stationären Hindernissen bzw. Objekten handeln. Die zweite Karte wird, in einem Aspekt, bevorzugt zeitlich nach der ersten Karte erstellt. Die für die Ermittlung der Radarsensor-Daten genutzte Radarsensoreinheit umfasst z.B. eine Fläche, die nicht zugleich durch den Laserscanner, Kamera oder Ultraschallsensor erfassbar ist. In einem Aspekt umfassen die Radarsensor-Daten Objekte bzw. Hindernisse hinter einer Wand oder geschlossenen Tür. Beispielsweise können in einer Variante die korrigierten Positionsdaten der zweiten Karte auch direkt in der zweiten Karte hinterlegt werden, d.h. es werden die alten Positionsdaten überschrieben. Das computerimplementierte Verfahren kann weiter umfassen das Hinzufügen von Positionsdaten beweglicher Objekte aus der zweiten Karte in die erste Karte und/oder die Erzeugung einer dritten Karte durch Übernahme stationärer und beweglicher Objekt- bzw. Hindernispositionen aus der ersten Karte und Übernahme zusätzlicher beweglicher Objekt- bzw. Hindernispositionen aus der zweiten Karte. In einem Aspekt werden hierbei für die Roboternavigation die Koordinaten der ersten Karte übernommen, und der Roboter navigiert nach der dritten Karte.For this purpose, the invention comprises a computer-implemented method for determining, correcting or synchronizing object position data, comprising the creation of a first map by a robot that shows obstacles or objects based on laser scanner, camera and/or ultrasonic sensor data, the creation of a second map by a robot with obstacles or objects based on radar sensor data and a comparison of the position data for obstacles or objects contained in the two maps. For example, the position data of objects or obstacles on the second map can be corrected at least partially by position data of objects or obstacles on the first map. For example, the corrected position data can be position data of stationary obstacles or objects. In one aspect, the second map is preferably created after the first map. The radar sensor unit used to determine the radar sensor data includes, for example, an area that cannot be simultaneously detected by the laser scanner, camera or ultrasonic sensor. In one aspect, the radar sensor data includes objects or obstacles behind a wall or closed door. For example, in one variant, the corrected position data of the second map can also be stored directly in the second map, i.e. the old position data is overwritten. The computer-implemented method can further include adding position data of moving objects from the second map to the first map and/or generating a third map by adopting stationary and moving object or obstacle positions from the first map and adopting additional moving object or obstacle positions from the second map. In one aspect, the coordinates of the first map are adopted for robot navigation, and the robot navigates according to the third map.

Auf Basis dieser teilweise optionalen Verfahrensschritte kann bspw. ein Vergleich der mit Hilfe der Radarsensoreinheit ermittelten Positionsdaten für bewegliche Objekte mit in einer Tabelle, in einer der erwähnten Karten oder in einer weiteren Karte hinterlegten Zonen für bewegliche Objekte erfolgen, wobei den Zonen jeweils Regeln zugeordnet sind. Alternativ und/oder ergänzend dazu umfasst das computerimplementierte Verfahren das Auslösen eines Ereignisses basierend auf den Regeln für die jeweilige Zone, die Nutzung der Objekt-Positionsdaten zur Anpassung der Signalstärke des Radarsignals, die Klassifizierung von Objektdaten zur Detektion von Personen, und/oder die Erfassung von mindestens einem Vitalparameter bei einer detektierten Person.Based on these partially optional process steps, for example, a comparison can be made of the position data for moving objects determined using the radar sensor unit with zones for moving objects stored in a table, in one of the maps mentioned or in another map, with rules being assigned to each zone. Alternatively and/or in addition to this, the computer-implemented method includes triggering an event based on the rules for the respective zone, using the object position data to adjust the signal strength of the radar signal, classifying object data to detect people, and/or recording at least one vital parameter for a detected person.

In einem Aspekt umfasst das eingangs skizzierte technische Problem ein Teilproblem, nämlich die zuverlässige Vitalparametererfassung einer Person über eine Distanz von mehreren Metern und durch eine Wand oder Tür bei gleichzeitig einer Minimierung der Strahlenexposition, die diese Person durch die Radarerfassung ausgesetzt ist.In one aspect, the technical problem outlined at the beginning includes a sub-problem, namely the reliable detection of a person's vital parameters over a distance of several meters and through a wall or door while at the same time minimizing the radiation exposure to which this person is exposed by radar detection.

Dazu verfügt der Roboter in einem Aspekt über ein computer-implementiertes Verfahren zur Anpassung der Signalstärke eines Radarsensors, umfassend die Bewegung des Roboters auf einem Pfad, die Erfassung von Objekten bzw. Hindernissen im Radarsignal-Erfassungsbereich, die Detektion von Personen im Radarsignal-Erfassungsbereich, die Ermittlung der Distanz zwischen Roboter und der detektierten Person und die Ermittlung einer Signalstärke für den Radarsensor auf Basis der ermittelten Distanz zwischen Roboter und der Person. Das Verfahren kann bspw. weiter umfassen die Anpassung der Signalstärke des Radarsensors (z.B. durch Erhöhung der Signalstärke), bspw. dann gefolgt von einer erneuten Anpassung der Signalstärke wie z.B. einer Absenkung. Ergänzend kann das Verfahren genutzt werden für eine radardaten-basierte Vitalparametermessung bei der detektierten Person. Die Personenposition wiederum kann in einer Karte auf dem Roboter hinterlegt sein. In einem Aspekt kann das Verfahren eine Ermittlung der notwendigen Erfassungstiefe des Radarsensors 31 durch Abgleich des zu erfassenden Bereich mit einer Karte umfassen und/oder weiter die Anpassung der Signalstärke des Radarsensors auf Basis der notwendigen Erfassungstiefe, welche eine Personendetektion im zu erfassenden Bereich ermöglicht. Ergänzend zu den vorgenannten, teilweise optionalen Verfahrensschritten kann eine Übermittlung eines Signals an ein Terminal basierend auf der Auswertung der ermittelten Vitalparameter erfolgen. Die im Verfahren genutzten Positionsdaten, die durch Auswertung von Radarsensordaten ermittelt wurden, können bspw. durch mittels Laserscanner, Kamera, Ultraschallsensor und/oder Odometrieeinheit ermittelte Daten normiert werden. In einem Aspekt befindet sich bei der Vitaldatenerfassung zwischen Roboter und detektierter Person eine Wand oder (geschlossene) Tür. Der Radarsignal-Erfassungsbereich wiederum kann z.B. im Wesentlichen senkrecht zum Pfad des Roboters ausgerichtet sein.For this purpose, in one aspect, the robot has a computer-implemented method for adjusting the signal strength of a radar sensor, comprising the movement of the robot on a path, the detection of objects or obstacles in the radar signal detection area, the detection of persons in the radar signal detection area, the determination of the distance between the robot and the detected person and the determination of a signal strength for the radar sensor based on the determined distance between the robot and the person. The method can, for example, further comprise adjusting the signal strength of the radar sensor (e.g. by increasing the signal strength), for example then followed by a further adjustment of the signal strength such as a reduction. In addition, the method can be used for a radar data-based vital parameter measurement of the detected person. The person's position can in turn be stored in a map on the robot. In one aspect, the method can comprise determining the necessary detection depth of the radar sensor 31 by comparing the area to be detected with a map and/or further adjusting the signal strength of the radar sensor based on the necessary detection depth, which enables person detection in the area to be detected. In addition to the aforementioned, partially optional method steps, a signal can be transmitted to a terminal based on the evaluation of the determined vital parameters. The position data used in the method, which were determined by evaluating radar sensor data, can be standardized, for example, by data determined using a laser scanner, camera, ultrasound sensor and/or odometry unit. In one aspect, when collecting vital data, there is a wall or (closed) door between the robot and the detected person. The radar signal detection area can, for example, be aligned essentially perpendicular to the path of the robot.

In einem Aspekt umfasst das eingangs skizzierte technische Problem ein Teilproblem, nämlich die Optimierung des Fahrtwegs des Roboters, um einerseits effizient Anomalien im Überwachungsbereich bzw. bei zu überwachenden Personen zu detektieren und dabei die Laufzeit des Roboters mit Blick auf den Akkustand zu optimieren, andererseits auch eine engmaschige Überwachung von Personen zu ermöglichen.In one aspect, the technical problem outlined at the beginning includes a sub-problem, namely the optimization of the robot's travel path in order to, on the one hand, efficiently detect anomalies in the surveillance area or in people to be monitored and, in doing so, to optimize the robot's running time with regard to the battery level, and, on the other hand, to enable close monitoring of people.

Um dieses Problem zu adressieren, verfügt der Roboter in einem Aspekt über ein computer-implementiertes Verfahren zum Triggern eines Verhaltens eines mobilen Roboters in Abhängigkeit von mittels eines Radarsensoreinheit detektierten Anomalien, umfassend die Bewegung des Roboters auf einem Pfad, die Erfassung von Objekten bzw. Hindernissen im Radar-Erfassungsbereich, die Positions- und/oder zeitbezogene Auswertung der Erfassungsergebnisse, einen Vergleich Erfassungsergebnisse mit zuvor gespeicherten Erfassungsergebnissen und die Ermittlung und Bewertung der Abweichung zwischen den Erfassungsergebnissen und den zuvor gespeicherten Erfassungsergebnissen. Das Triggerereignis kann bspw. die Anpassung der Pfadplanung des Roboters umfassen und/oder das Auslösen eines Ereignisses, bspw. die Übermittlung eines Signals über eine Drahtlosschnittstelle, z.B. an ein Terminal. Eine Anomalie umfasst z.B. Erfassungsergebnisse, die von erwarteten und/oder abgespeicherten Erfassungsergebnissen abweichen. Die in diesen Schritten beschriebenen Anomalien können mit Positionen auf einer Karte assoziiert sein, die Erfassung von Objekten im Radar-Erfassungsbereich kann die Detektion von Personen umfassen, die positions- und/oder zeitbezogene Auswertung der Erfassungsergebnisse kann basierend auf definierten Teilbereichen des von der Radarsensoreinheit insgesamt erfassten Bereichs erfolgen und diese Teilbereiche können z.B. einzeln ausgewertet werden, und/oder die positions- und/oder zeitbezogene Auswertung der Erfassungsergebnisse kann bspw. in einer Mehrebenenkarte des Roboters erfolgen. Gegenüber den bisher beschriebenen Verfahrensschritten können weitere optionale Schritte das Speichern der Positions- und/oder zeitbezogene Auswertung der Erfassungsergebnisse in einer Positions- und Regeldatenbank umfassen, wobei es sich bei den Erfassungsergebnissen bspw. um Vitalparameter einer Person handeln kann. Der Radarsignal-Erfassungsbereich kann, in einem Aspekt, im Wesentlichen senkrecht zum Betriebspfad des Roboters ausgerichtet sein. Die im Verfahren genutzten Positionsdaten, die durch Auswertung von Radarsensordaten ermittelt wurden, können bspw. durch mittels Laserscanner, Kamera, Ultraschallsensor und/oder Odometrieeinheit ermittelte Daten normiert werden. Insgesamt kann sich zwischen Roboter und detektierter Person eine Wand oder geschlossene Tür befinden.To address this problem, in one aspect the robot has a computer-implemented method for triggering a behavior of a mobile robot depending on anomalies detected by means of a radar sensor unit, comprising the movement of the robot on a path, the detection of objects or obstacles in the radar detection range, the position and/or time-related evaluation of the detection results, a comparison of detection results with previously stored detection results and the determination and evaluation of the deviation between the detection results and the previously stored detection results. The trigger event can, for example, include the adjustment of the path planning of the robot and/or the triggering of an event, e.g. the transmission of a signal via a wireless interface, e.g. to a terminal. An anomaly includes, for example, detection results that deviate from expected and/or stored detection results. The anomalies described in these steps can be associated with positions on a map, the detection of objects in the radar detection area can include the detection of people, the position- and/or time-related evaluation of the detection results can be based on defined sub-areas of the area covered by the radar sensor unit as a whole and these sub-areas can be evaluated individually, for example, and/or the position- and/or time-related evaluation of the detection results can be carried out, for example, in a multi-level map of the robot. Compared to the method steps described so far, further optional steps can include storing the position- and/or time-related evaluation of the detection results in a position and rule database, whereby the detection results can be, for example, vital parameters of a person. The radar signal detection area can, in one aspect, be aligned essentially perpendicular to the operating path of the robot. The position data used in the method, which were determined by evaluating radar sensor data, can be standardized, for example, by data determined using a laser scanner, camera, ultrasonic sensor and/or odometry unit. Overall, there can be a wall or closed door between the robot and the detected person.

In einem Aspekt umfasst das eingangs skizzierte technische Problem ein Teilproblem, nämlich eine vereinfachte Messung von Vitalparametern, ohne notwendigerweise auf Referenzwerte für die Signalstärke in einer Tabelle zurückgreifen zu müssen, weil dies wiederum weitere Schritte zur Referenzwertermittlung außerhalb des eigentlichen Messverfahrens umfassen würde, bspw. im Rahmen einer Kalibrierung.In one aspect, the technical problem outlined at the beginning includes a sub-problem, namely a simplified measurement of vital parameters without necessarily having to resort to reference values for the signal strength in a table, because this in turn would involve further steps to determine the reference value outside the actual measurement procedure, e.g. in the context of a calibration.

Es wird daher auf ein Verfahren abgestellt, dass ohne solche Referenzwerte auskommt. Dieses computer-implementierte Verfahren zur Erfassung von mindestens einem Vitalparameter durch einen mobilen Roboter umfasst die Bewegung des Roboters auf einem Pfad, die Ermittlung der aktuellen Position des Roboters, die Erfassung von Objekten bzw. Hindernissen im Radar-Erfassungsbereich, die Detektion von Personen im Radar-Erfassungsbereich, die Erfassung von Vitalparametern einer detektierten Person im Radar-Erfassungsbereich, einen Abgleich der Vitalparameter-Messergebnisse und Anpassung der Signalstärke in Abhängigkeit vom Abgleich der Vitalparameter-Messergebnisse und die Durchführung einer Vitalparameter-Bewertung. Dabei kann z.B. die Anpassung der Signalstärke (in eine Richtung) so lange vorgenommen werden, bis sich die gemessenen Vitalparameter nach einer Anpassung der Signalstärke qualitativ verschlechtern. Diese Verbesserung kann z.B. von einem Anpassungsschritt auf den nächsten ermittelt werden. Wird bspw. eine Verschlechterung festgestellt von einem Anpassungsschritt auf den nächsten, kann die Signalstärke in die andere Richtung angepasst werden. Das Verfahren kann weiter eine Vitalparameter-Bewertung umfassen, bspw. eine Positions- und/oder zeitbezogene Auswertung der Erfassungsergebnisse. Das Verfahren kann alternativ und/oder ergänzend umfassen das Auslösen eines Ereignisses wie bspw. eine Signalübermittlung in eine Cloud und/oder an ein Terminal. Ergänzend zu den vorangenannten Schritten kann eine Lokalisierung der Personenposition erfolgen, ggf. ergänzt um einen Vergleich der Objektposition mit im Speicher 15 hinterlegten Objektpositionen und/oder Objektzonen. Die Vitalparameter können z.B. für eine Person an einer lokalisierten Position erfasst werden. Die Signalauswertung erfasster Radarsignale kann bspw. einen Vergleich mit Mustern darstellen. Z.B. können die genutzten Positionsdaten, die durch Auswertung von Radarsensordaten ermittelt wurden, durch mittels Laserscanner, Kamera, Ultraschallsensor und/oder Odometrieeinheit ermittelte Daten normiert werden. In einem Aspekt nimmt der Roboter zwecks Erfassung einer Fläche mittels Radarsensoreinheit auf seinem Pfad eine Abtastposition vor einer ggf. geschlossenen Tür in einem definierten Abstand ein und führt eine Rotationsbewegung durch. Dabei kann er sich, in einem optionalen Aspekt, entlang eines konvexen Pfads vor der besagten Tür bewegen und dabei einen definierten Mindestabstand zur Tür einhalten.A method is therefore used that does not require such reference values. This computer-implemented method for recording at least one vital parameter by a mobile robot includes the movement of the robot on a path, the determination of the current position of the robot, the detection of objects or obstacles in the radar detection area, the detection of people in the radar detection area, the recording of vital parameters of a detected person in the radar detection area, a comparison of the vital parameter measurement results and adjustment of the signal strength depending on the comparison of the vital parameter measurement results and the implementation of a vital parameter evaluation. In this case, for example, the signal strength can be adjusted (in one direction) until the measured vital parameters deteriorate in quality after an adjustment of the signal strength. This improvement can be determined, for example, from one adjustment step to the next. If, for example, a deterioration is determined from one adjustment step to the next, the signal strength can be adjusted in the other direction. The method can also include a vital parameter assessment, for example a position- and/or time-related evaluation of the detection results. The method can alternatively and/or additionally include triggering an event such as a signal transmission to a cloud and/or to a terminal. In addition to the aforementioned steps, the person's position can be localized, if necessary supplemented by a comparison of the object position with object positions and/or object zones stored in memory 15. The vital parameters can, for example, be recorded for a person at a localized position. The signal evaluation of detected radar signals can, for example, represent a comparison with patterns. For example, the position data used, which were determined by evaluating radar sensor data, can be standardized by data determined using a laser scanner, camera, ultrasonic sensor and/or odometry unit. In one aspect, the robot takes a scanning position in front of a possibly closed door at a defined distance and performs a rotational movement in order to detect an area using a radar sensor unit on its path. In an optional aspect, it can move along a convex path in front of the said door and maintain a defined minimum distance from the door.

In einem Aspekt umfasst das eingangs skizzierte technische Problem ein Teilproblem, nämlich die Erfassung von Objekten und/oder Vitalparametern durch Wände hindurch, die eine hohe Dämpfung der Radarsignale verursachen und damit eine erschwerte, präzise Erfassung von Objekten und/oder Vitalparametern.In one aspect, the technical problem outlined at the beginning includes a sub-problem, namely the detection of objects and/or vital parameters through walls, which cause a high attenuation of the radar signals and thus make it difficult to detect objects and/or vital parameters precisely.

Dieses Problem wird in der folgenden Ausführungsform adressiert. Der Roboter verfügt über ein computer-implementiertes Verfahren, umfassend die Bewegung des Roboters auf einem Pfad, die Ermittlung der aktuellen Position des Roboters, das Einnehmen einer Abtastposition, und die Durchführung einer Drehbewegung, wobei an der Abtastposition eine Erfassung von Objekten und/oder Vitalparametern durch eine Radarsensoreinheit des Roboters erfolgt. Die Ermittlung der Abtastposition kann bspw. aus einer Karte oder über eine Erfassung und Auswertung von Mustern erfolgen. Die Abtastposition kann bspw. einen definierten Abstand zu einer Tür aufweisen. Der erwähnte Winkel der Drehbewegung kann z.B. mindestens 20° umfassen. Bei der Drehbewegung kann es sich, in einem Aspekt, um eine Drehbewegung um eine rotationssymmetrische Achse des Roboters handeln. Die Drehbewegung umfasst bspw. eine Rotation in eine Richtung, optional gefolgt von einer Rotation in eine andere Richtung. In einem Aspekt bewegt sich der Roboter beim Annähern an eine Tür sich parallel zu Wänden, nimmt eine Drehbewegung hin zu einer Tür vor, gefolgt vom Abfahren eines konvexen Pfads vor der Tür (mit der Konvexität gesehen von der Tür aus). Hierbei entspricht z.B. der minimale Abstand des konvexen Pfads zur Tür dem definierten Abstand zur Tür.This problem is addressed in the following embodiment. The robot has a computer-implemented method comprising moving the robot along a path, determining the current position of the robot, assuming a scanning position, and performing a rotational movement, wherein objects and/or vital parameters are detected at the scanning position by a radar sensor unit of the robot. The scanning position can be determined, for example, from a map or by detecting and evaluating patterns. The scanning position can, for example, have a defined distance from a door. The angle of the rotational movement mentioned can, for example, be at least 20°. The rotational movement can, in one aspect, be a rotational movement about a rotationally symmetrical axis of the robot. The rotational movement includes, for example, a rotation in one direction, optionally followed by a rotation in another direction. In one aspect, the robot moves parallel to walls when approaching a door, performs a rotational movement towards a door, followed by traveling along a convex path in front of the door (with the convexity seen from the door). Here, for example, the minimum distance of the convex path to the door corresponds to the defined distance to the door.

Die Ableitung von Regeln, die sich auf Positionen von Objekten, Personen und/oder mit diesen assoziierten Werten wie bspw. Vitalparameter basieren, kann einerseits implizieren, dass es sich bei den Positionen um Positionen innerhalb in einer Karte definierter Räume handelt, die bspw. im operativen Betrieb des Roboters (d.h. während einer Patrouillenfahrt), nicht betreten werden. Genauso ist es aber auch möglich, Positionen über die Positionen in solchen Flächen zu definieren, die vom Roboter im operativen Betrieb betreten/befahren werden, ggf. in Kombination mit einem Richtungsvektor, der eine Orientierung und optional definierte Länge aufweist und sich auf Koordinaten bezieht, die der Roboter einnimmt oder einnehmen kann. Ersteres bedeutet, dass ein Koordinatenwert vom Pfad des Roboters bspw. mit einem definierten Richtungsvektor oder Richtungsvektorenbereich assoziiert wird, der eine definierte Länge haben kann. Letzteres bedeutet, dass bspw. bestimmte Bereiche eines vom Roboter befahrbaren Areals mit Richtungsvektoren bzw. Richtungsvektorbereichen assoziiert sind. Dieses Vorgehen erlaubt, ohne spezifische Definition der Räume in einer Karte Regeln für diese Räume zu etablieren, so dass eine Positionsauswertung oder -bewertung für Personen oder Objekte in den Räumen möglich wird.The derivation of rules based on the positions of objects, people and/or values associated with them, such as vital parameters, can, on the one hand, imply that the positions are positions within spaces defined in a map that are not entered, for example, during the robot's operational operation (i.e. during a patrol drive). However, it is also possible to define positions via the positions in areas that are entered/traveled by the robot during operational operation, if necessary in combination with a direction vector that has an orientation and optionally defined length and refers to coordinates that the robot takes or can take. The former means that a coordinate value from the robot's path is associated, for example, with a defined direction vector or direction vector range that can have a defined length. The latter means that, for example, certain areas of an area that the robot can travel through are associated with direction vectors or direction vector ranges. This approach allows rules to be established for the rooms in a map without a specific definition of the rooms, so that a position evaluation or assessment for persons or objects in the rooms is possible.

Zeichnungendrawings

Es zeigen:

  • 1 mobiler Roboter mit Cloud-Anbindung
  • 2 Hardware-Komponenten im mobilen Roboter
  • 3 Radarsensoreinheit
  • 4 Software-Komponenten im mobilen Roboter
  • 5 Ablauf Personenüberwachung
  • 6 Ablauf Obj ektlokalisation
  • 7 Initiale Kartierung
  • 8 Anordnung Roboter bei Überwachungsvorgang
  • 9 Ablauf Vitaldatenerfassung unter Anpassung der Radarsignalstärke
  • 10 Ablauf Anomaliedetektion
  • 11 Vitalparameter-Erfassung mit Regelkreis
  • 12 Schritte der Vitalparameter-Messung
  • 13 Einnehmen Abtastposition
Show it:
  • 1 mobile robot with cloud connection
  • 2 Hardware components in the mobile robot
  • 3 Radar sensor unit
  • 4 Software components in the mobile robot
  • 5 Personal surveillance process
  • 6 Object localization process
  • 7 Initial mapping
  • 8th Arrangement of robots during monitoring process
  • 9 Vital data acquisition process with adjustment of radar signal strength
  • 10 Anomaly detection process
  • 11 Vital parameter recording with control loop
  • 12 Steps of vital parameter measurement
  • 13 Take scanning position

Detaillierte Beschreibung der ErfindungDetailed description of the invention

Beim Roboter 1 (siehe 1) handelt es sich um eine mobile Basis 2, die bspw. kommerziell verfügbar sein kann (z.B. Fetch100 OEM von Fetch Robotics, TIAGo von PAL Robotics oder die TORY-Basis von MetraLabs). Es kann entweder ein Laserscanner 10 zur Hindernisdetektion und auch Kartierung des Umfelds vorhanden sein und/oder mindestens eine 3D-Kamera 11. Diese sind bevorzugt in Fahrtrichtung des Roboters 1 angeordnet. Die mobile Basis 2 verfügt über einen Akkumulator 12 und eine Ladevorrichtung 13 für diesen Akkumulator sowie über mindestens eine Rechnereinheit 14 mit einem integrierten oder verbundenen Speicher 15 zur Steuerung des Roboters 1 sowie über eine Drahtlos-Schnittstelle 16 wie bspw. ein WLAN-Modul. Weiterhin kann die mobile Basis 2 über eine optionale Sicherheitssteuerung 17 verfügen, um den Roboter 1 bei Detektion von Hindernissen in seinem Umfeld auf eine sichere Geschwindigkeit abzubremsen. Zum Abbremsen im Fall von Kollisionen kann die mobile Basis 2 bspw. auch über eine umlaufende Schutzkontaktleiste 18 verfügen. Der Roboter verfügt ferner in einem Aspekt über zwei Antriebsräder 20, die durch einen Antriebsmotor 21 angetrieben werden, und mehrere Stützräder 24. Über die Drahtlosschnittstelle 16 ist der Roboter 1 mit einer Cloud 4 verbunden und darüber bzw. direkt mit einem Terminal 5.For robot 1 (see 1 ) is a mobile base 2, which can be commercially available, for example (e.g. Fetch100 OEM from Fetch Robotics, TIAGo from PAL Robotics or the TORY base from MetraLabs). There can be either a laser scanner 10 for obstacle detection and also mapping the environment and/or at least one 3D camera 11. These are preferably arranged in the direction of travel of the robot 1. The mobile base 2 has a battery 12 and a charging device 13 for this battery as well as at least one computer unit 14 with an integrated or connected memory 15 for controlling the robot 1 and a wireless interface 16 such as a WLAN module. Furthermore, the mobile base 2 can have an optional safety control 17 to slow the robot 1 to a safe speed when obstacles are detected in its environment. To brake in the event of a collision, the mobile base 2 can also have a circumferential protective contact strip 18. In one aspect, the robot also has two drive wheels 20, which are driven by a drive motor 21, and several support wheels 24. The robot 1 is connected to a cloud 4 via the wireless interface 16 and via this or directly to a terminal 5.

2 fasst die wichtigen Hardwarekomponenten zusammen. Hier wird bspw. auch deutlich, dass die mobile Basis 2 über die bereits beschriebenen Ausführungen hinaus eine Odometrieeinheit 23 aufweist, die an anderer Stelle beispielhaft beschrieben ist (z.B. DE102020006337A1 ). 2 summarizes the important hardware components. Here, for example, it is also clear that the mobile base 2 has, in addition to the already described embodiments, an odometry unit 23, which is described elsewhere as an example (e.g. DE102020006337A1 ).

Die mobile Basis 2 weist einen Aufbau 3 auf, womit der Roboter 1 eine Höhe von bspw. mindestens 50 cm, bevorzugt von bspw. mindestens 90 cm erreicht. Die mindestens eine Radarsensoreinheit 30 ist im Wesentlichen senkrecht zur Fahrtrichtung des Roboters 1 positioniert, bspw. in einer Höhe von 85 cm. Er befindet sich mit einem Verstärker 33 in einer Radarsensoreinheit 30 (dazu auch 3). So können, um bspw. auch Bewegungen einer zu erfassenden Person zu korrigieren, auch zwei miteinander synchronisierte Radarsensoreinheiten 30 genutzt werden,The mobile base 2 has a structure 3, with which the robot 1 reaches a height of, for example, at least 50 cm, preferably of, for example, at least 90 cm. The at least one radar sensor unit 30 is positioned essentially perpendicular to the direction of travel of the robot 1, for example at a height of 85 cm. It is located with an amplifier 33 in a radar sensor unit 30 (see also 3 ). For example, in order to correct movements of a person to be detected, two synchronized radar sensor units 30 can be used,

Der Roboter verfügt, wie 4 zu entnehmen ist, auf der Softwareebene ferner über eine Pfadplanung 40 sowie ein Kartenmodul 41 zur Erstellung und Auswertung von Karten (42-44) sowie weiterhin über ein Personenpositionsermittlungsmodul 45, ein Vitaldatenerfassungsmodul 46 und ein Objektpositions-Ermittlungsmodul 47, das bspw. komplementär zum Kartenmodul 41 sein kann. Das Objektpositions-Ermittlungsmodul 47 nutzt hierbei Daten von der Radarsensoreinheit 30 und ggf. Kamera 11 oder Laserscanner 10, um Hindernisse bzw. Objekte zu erkennen.The robot has, as 4 can be seen, on the software level also via a path planning 40 and a map module 41 for creating and evaluating maps (42-44) as well as a person position determination module 45, a vital data acquisition module 46 and an object position determination module 47, which can, for example, be complementary to the map module 41. The object position determination module 47 uses data from the radar sensor unit 30 and possibly camera 11 or laser scanner 10 to detect obstacles or objects.

Kernstück der Radarsensoreinheit 30 ist der Radarsensor 31, bei dem es sich bspw. um ein Continuous Wave-Dopplerradar, ein frequenzmoduliertes Continuous-Wave-Dopplerradar (FMCW) oder ein (Impulse Radio) Ultraweitband-Radar handeln kann, bspw. um ein UWB-Radar im Sub-10 GHz-Bereich von Novelda wie bspw. den X4 Transceiver. In einem Aspekt wird das Radarsignal von der Radarsensoreinheit 30 mittels mindestens einer Radarantenne 32 ausgesendet, bei der sich es sich bspw. um eine Richtantenne handelt, um eine bessere Rauschreduktion zu erhalten. Es können aber auch mehrere Radarantennen 32 genutzt werden, bspw. Antennenarrays. Eine Übersicht über Radarsysteme, die bspw. zur Messung der Herzrate genutzt werden können, wie auch entsprechende Messverfahren finden sich in Maleševic et al. (2020, DOI:10.3390/s20082351).The core of the radar sensor unit 30 is the radar sensor 31, which can be, for example, a continuous wave Doppler radar, a frequency-modulated continuous wave Doppler radar (FMCW) or an (impulse radio) ultra-wideband radar, e.g. a UWB radar in the sub-10 GHz range from Novelda such as the X4 transceiver. In one aspect, the radar signal is emitted by the radar sensor unit 30 by means of at least one radar antenna 32, which is, for example, a directional antenna in order to obtain better noise reduction. However, several radar antennas 32 can also be used, e.g. antenna arrays. An overview of radar systems that can be used, for example, to measure heart rate, as well as corresponding measuring methods can be found in Maleševic et al. (2020, DOI:10.3390/s20082351).

Die Überwachung von Objekten bzw. Personen, insbesondere innerhalb von bestimmten Bereichen ist als Ablauf in 5 dargelegt. Es wird bzgl. Einiger referenzierter Aspekte zugleich auf 7 verwiesen. Der Roboter 1 bewegt sich im Schritt 110 einem Aspekt entlang eines Pfads, bspw. innerhalb eines Gangs 50. Dabei emittiert und empfängt im Wesentlichen senkrecht zur Fahrtrichtung Radarsignale durch die Radarsensoreinheit 30, die dabei mindestens eine Wand 60 durchdringen und damit einen Raum abdecken 53, womit diese eine zu überwachende Fläche erfassen. Alternativ und/oder ergänzend können die Radarsignale auch dazu genutzt werden, direkt eine Person zu überwachen (insgesamt Schritt 110 - Roboter folgt Pfad und überwacht Fläche mittels Radarsensor). Die Signalstärke ist hierbei in einem optionalen Aspekt so eingestellt, dass die zu erfassende Fläche durch die Radarsignale abgedeckt wird, so dass eine Personendetektion im von der Tiefe her gesamten zu erfassenden Bereich möglich ist, bspw. mit einer Reichweite bis zur rückseitigen Raumwand 61 (z.B. durch den Radarsignal-Erfassungsbereich 59 in 8 erkennbar). Im Schritt 120 wird das Radarsignal ausgewertet, um bspw. Objekte zu identifizieren, bei denen es sich in einem Aspekt auch um Personen handelt. Ein Teilaspekt davon, die Personendetektion, wird bspw. im Schritt 340 in 10 beschrieben. Die Signalauswertung in Schritt 120, in einem Aspekt eine Klassifikation der Signale, umfasst bspw. einen Vergleich mit im Speicher 15 hinterlegten Signalen bzw. Signalcharakteristika. Bei der Klassifikation kann es sich z.B. um eine Mustererkennung handeln (siehe z.B. EP2100153A1 oder DOI: 10.1007/s00521-022-06886-2). Hierbei wird in einem optionalen Schritt 130 zwischen beweglichen und stationären Objekten differenziert. Bewegliche Objekte werden bspw. darüber identifiziert, dass sich die empfangenen Signale in ihrer Intensität im Zeitverlauf ändern bzw. dass sich die Signallaufzeit hier verändert. In einem Aspekt wird die relative Signallaufzeit verstanden, welche Bewegungen des Roboters 1 berücksichtigt. Im Schritt 140 findet eine Lokalisierung der Objektposition statt. Dies geschieht bspw. durch Auswertung der des relativen Erfassungswinkels vom Roboter aus, der Signallaufzeit bzw. ggf. Signalstärke und einem Vergleich mit der aktuellen Position bzw. Pose des Roboters 1. Unter Pose wird hier seine Orientierung im Raum verstanden. Zusammengefasst bilden die Koordinaten und die Orientierung im Raum die Roboterposition. Darüber lässt sich die Position des detektierten Objekts bzw. Hindernisses im Raum und im Koordinatensystem des Roboters bestimmen. Seine Position kann der Roboter 1 bspw. über die Odometrieeinheit 23 ermitteln, in einem Aspekt unter Einbezug weiterer Sensoren wie Laserscanner 10 oder Kamera 11 (bspw. im Rahmen eines Visual-SLAM-Verfahrens). Insgesamt finden die Schritte 120, 130 und 140 im Objektpositions-Ermittlungsmodul 47 statt. In einem optionalen Schritt 145 aktualisiert der Roboter seine Karte 42, indem er detektierte Hindernisse bzw. Objekte darin einträgt, die über die Radarsensoreinheit 30 ermittelt wurden.The monitoring of objects or persons, especially within certain areas, is a process in 5 Some of the aspects referred to are also referred to 7 The robot 1 moves in step 110 in one aspect along a path, for example within a corridor 50. In doing so, radar signals are emitted and received essentially perpendicular to the direction of travel by the radar sensor unit 30, which penetrate at least one wall 60 and thus cover a room 53, thereby detecting an area to be monitored. Alternatively and/or additionally, the radar signals can also be used to directly monitor a person (total step 110 - robot follows path and monitors area using radar sensor). The signal strength is set in an optional aspect so that the area to be detected is covered by the radar signals, so that person detection is possible in the entire area to be detected in terms of depth, for example with a range up to the rear wall 61 of the room (e.g. through the radar signal detection area 59 in 8th In step 120, the radar signal is evaluated to identify, for example, objects where One aspect of this, the person detection, is carried out in step 340 in 10 described. The signal evaluation in step 120, in one aspect a classification of the signals, includes, for example, a comparison with signals or signal characteristics stored in the memory 15. The classification can be, for example, a pattern recognition (see, for example, EP2100153A1 or DOI: 10.1007/s00521-022-06886-2). In an optional step 130, a distinction is made between moving and stationary objects. Moving objects are identified, for example, by the fact that the received signals change in their intensity over time or that the signal propagation time changes here. In one aspect, the relative signal propagation time is understood, which takes into account movements of the robot 1. In step 140, the object position is localized. This is done, for example, by evaluating the relative detection angle from the robot, the signal propagation time or, if applicable, the signal strength and a comparison with the current position or pose of the robot 1. Pose here is understood to mean its orientation in space. In summary, the coordinates and the orientation in space form the robot position. This can be used to determine the position of the detected object or obstacle in space and in the robot's coordinate system. The robot 1 can determine its position, for example, via the odometry unit 23, in one aspect by including other sensors such as laser scanner 10 or camera 11 (for example as part of a visual SLAM method). Overall, steps 120, 130 and 140 take place in the object position determination module 47. In an optional step 145, the robot updates its map 42 by entering detected obstacles or objects in it that were determined via the radar sensor unit 30.

Im Schritt 150 findet ein Vergleich der Objektposition mit im Speicher 15 hinterlegten Objektpositionen statt, in einem Aspekt eine Klassifizierung. So kann bspw. für eine Objektart wie bspw. ein Bett 54 eine Position hinterlegt sein. Es können bspw. auch Zonen in einer Tabelle bzw. einer Karte hinterlegt sein, die beschreiben, innerhalb welcher Koordinaten sich welche Objekte bzw. Personen befinden dürfen und Zonen, in denen sich bestimmte Objekte wie bspw. Personen nicht befinden dürfen (verbotene Zonen). Vergleich an dieser Stelle bedeutet beispielhaft, dass das Signalmuster, welches im Schritt 120 als Bett 54 identifiziert wird, mit einer im Speicher hinterlegten Bettposition verglichen wird oder aber einer Zone, die mit einem Bett assoziiert ist. Genauso wird ein im Schritt 120 als Person (z.B. 56-58) identifiziertes Signal mit für Personen im Speicher 15 hinterlegten Positionen verglichen. Bei Abweichungen der durch das Radarsignal identifizierten Objektpositionen von hinterlegten Objektpositionen im Schritt 160 wird ein Ereignis ausgelöst, was in hinterlegten Regeln definiert sein kann, welche sich bspw. in einer im Speicher 15 hinterlegten Tabelle befinden können und/oder in der Positions- und Regeldatenbank 48. Bei diesem Ereignis kann es sich um die Benachrichtigung einer Anwendung in der Cloud 4 oder eines Terminals 5 handeln. Dies kann bspw. eine Alarmierung umfassen. So kann z.B. in der Positions- und Regeldatenbank 48 hinterlegt sein, dass in bestimmten Zonen eines Raums 53 sich zu bestimmten Zeiten keine Person aufhalten darf bzw. umgekehrt, dass sich zu bestimmten Zeiten Personen nur in bestimmten Zonen aufhalten dürfen (wie bspw. im Bett 54).In step 150, the object position is compared with object positions stored in memory 15, in one aspect a classification. For example, a position can be stored for an object type such as a bed 54. For example, zones can also be stored in a table or a map that describe within which coordinates which objects or people may be located and zones in which certain objects such as people may not be located (forbidden zones). Comparison at this point means, for example, that the signal pattern identified as bed 54 in step 120 is compared with a bed position stored in memory or a zone that is associated with a bed. In the same way, a signal identified as a person (e.g. 56-58) in step 120 is compared with positions stored for people in memory 15. If the object positions identified by the radar signal deviate from stored object positions in step 160, an event is triggered, which can be defined in stored rules, which can be located, for example, in a table stored in the memory 15 and/or in the position and rule database 48. This event can be a notification to an application in the cloud 4 or a terminal 5. This can include, for example, an alarm. For example, the position and rule database 48 can store that no person is allowed to be in certain zones of a room 53 at certain times, or conversely, that people are only allowed to be in certain zones at certain times (such as in bed 54).

Die Signalauswertung bzw. Mustererkennung bspw. auf Basis einer Klassifikation in Schritt 120 kann durch Erfassen von Personen 57 und Personenbewegungen mittels eines Radarsensors erfolgen, der nicht notwendigerweise auf dem Roboter 1 implementiert sein muss, sondern auch in einer Laborumgebung um Einsatz ist. Hierbei können verschiedene Bewegungsmuster eintrainiert werden. In einem Aspekt kann hierbei Imitation Learning genutzt werden (siehe z.B. Wang, Borui, et al. „Imitation learning for human pose prediction.“ Proceedings of the IEEE/CVF International Conference on Computer Vision. 2019, welche jedoch Skelettdaten nutzen, um Körperposen zu klassifizieren, während hier Radarsignale genutzt werden). Beim Klassifizierungsverfahren kann es sich um Action Recognition handeln (siehe z.B. Sun et al. 2022, DOI: 10.1109/TPAMI.2022.3183112 oder Wang, Mingyang, Yimin D. Zhang, and Guolong Cui. „Human motion recognition exploiting radar with stacked recurrent neural network.“ Digital Signal Processing 87 (2019): 125-131) .The signal evaluation or pattern recognition, for example based on a classification in step 120, can be carried out by detecting people 57 and people's movements using a radar sensor, which does not necessarily have to be implemented on the robot 1, but can also be used in a laboratory environment. Various movement patterns can be trained here. In one aspect, imitation learning can be used here (see e.g. Wang, Borui, et al. "Imitation learning for human pose prediction." Proceedings of the IEEE/CVF International Conference on Computer Vision. 2019, which, however, use skeletal data to classify body poses, whereas radar signals are used here). The classification method can be action recognition (see e.g. Sun et al. 2022, DOI: 10.1109/TPAMI.2022.3183112 or Wang, Mingyang, Yimin D. Zhang, and Guolong Cui. “Human motion recognition exploiting radar with stacked recurrent neural network.” Digital Signal Processing 87 (2019): 125-131) .

In einem Aspekt umfasst die Signalauswertung in Schritt 120 alternativ und/oder ergänzend eine Ermittlung von mindestens einem Vitalparameter wie bspw. der Herz- oder Pulsrate, Atmung, etc. im Vitaldatenerfassungsmodul 41. Unter Vitalparametern werden in diesem Dokument bspw., aber nicht ausschließlich, Pulsrate, Herzratenvariabilität, usw. verstanden, deren Detektion bzw. Herleitung bspw. in WO2021038109A1 beschrieben ist. Im Stand der Technik sind zur radarbasierten Erfassung entsprechende Verfahren bekannt (z.B. Maleševic et al. (2020, DOI:10.3390/s20082351) . Es wird zudem auf 12 verwiesen. Die Ermittlung des mindestens einen Vitalparameters kann bspw. unabhängig von der Objektidentifikation und/oder Objektposition erfolgen (wobei es sich bei den Objekten um Personen handeln kann) und damit direkt (siehe rechter gestrichelter Pfeil in 5) zu einem Vergleich im Schritt 125 führen, bei dem eine Klassifikation des mindestens einen ermittelten Vitalparameters stattfindet. Der hierbei genutzte Klassifikator kann bspw. mittels Verfahren des maschinellen Lernens ermittelt worden sein und auf Kritikalität des Messwerts hindeuten (z.B. einen zu hohen oder zu niedrigen Wert). Es kann hier bspw. auch ein Schwellwertvergleich stattfinden. Im Fall dieser Kombination in der Auswertung von mindestens einem Vitalparameter und bspw. der Objektposition, in diesem Fall bspw. der Position einer Person, kann bspw. für die Person an der besagten Position der mindestens eine Vitalparameter ermittelt werden. Damit können dann ein oder zwei Vergleiche stattfinden (der des Positionsparameters in Schritt 150 und der des Vitalparameters in Schritt 125), gefolgt von Schritt 160, oder aber direkt eine Ereignisauslösung im Schritt 160. Mit Blick auf die Ereignisauslösung im Schritt 160 mit Bezug zu Vitalparametern kann dies bedeuten, dass eine Alarmierung dann stattfindet, wenn ein bei einer Person im Überwachungsbereich erfasster Vitalparameter bspw. außerhalb eines in der Positions- und Regeldatenbank 48 definierten Wertebereich liegt.In one aspect, the signal evaluation in step 120 alternatively and/or additionally comprises a determination of at least one vital parameter such as the heart or pulse rate, respiration, etc. in the vital data acquisition module 41. Vital parameters in this document are understood to mean, for example, but not exclusively, pulse rate, heart rate variability, etc., the detection or derivation of which, for example, in WO2021038109A1 In the state of the art, corresponding methods for radar-based detection are known (e.g. Maleševic et al. (2020, DOI:10.3390/s20082351) . It will also be 12 The determination of at least one vital parameter can be carried out independently of the object identification and/or object position (where the objects can be people) and thus directly (see right dashed arrow in 5 ) lead to a comparison in step 125, in which a classification of the at least one determined vital parameter takes place. The classifier used here can be determined, for example, by means of machine learning methods. and indicate that the measured value is critical (e.g. a value that is too high or too low). A threshold comparison can also take place here, for example. In the case of this combination in the evaluation of at least one vital parameter and, for example, the object position, in this case, for example, the position of a person, at least one vital parameter can be determined for the person at the said position. This can then be used to make one or two comparisons (that of the position parameter in step 150 and that of the vital parameter in step 125), followed by step 160, or an event can be triggered directly in step 160. With regard to the event triggering in step 160 with reference to vital parameters, this can mean that an alarm is triggered if a vital parameter recorded for a person in the monitoring area is, for example, outside a value range defined in the position and rule database 48.

Beispiel 1:Example 1:

Zusammengefasst lässt sich das computer-implementierte Verfahren wie folgt darstellen:

  • A1. Computer-implementiertes Verfahren zur Überwachung einer Fläche durch einen mobilen Roboter 1, umfassend
    • • Abfahren eines Betriebspfads 63,
    • • Erfassung einer zu überwachenden Fläche mittels mindestens einer Radarsensoreinheit 30,
    • • Signalauswertung erfasster Radarsignale und
    • • Auslösen eines Ereignisses basierend auf der Auswertung,
    wobei die Erfassung der zu überwachenden Fläche durch eine Wand 60 und/oder geschlossene Tür 52 hindurch erfolgt.
  • A2. Computer-implementiertes Verfahren nach A1, wobei die Erfassung der zu überwachenden Fläche in etwa senkrecht zur Fahrtrichtung des Roboters 1 erfolgt.
  • A3. Computer-implementiertes Verfahren nach A1-A2, wobei die Signalauswertung die Identifikation von Objekten inkl. Personen umfasst.
  • A4. Computer-implementiertes Verfahren nach A1-A3, wobei die Signalauswertung weiter eine Differenzierung in bewegliche und unbewegliche Objekte umfasst.
  • A5. Computer-implementiertes Verfahren nach A1-A4, wobei die Signalauswertung eine Ermittlung von mindestens einem Vitalparameter umfasst.
  • A6. Computer-implementiertes Verfahren nach A1-A3, weiter umfassend eine Lokalisierung der Objektposition.
  • A7. Computer-implementiertes Verfahren nach A3-A6, weiter umfassend ein Vergleich der Objektposition mit im Speicher 15 hinterlegten Objektpositionen und/oder Objektzonen.
  • A8. Computer-implementiertes Verfahren nach A7, wobei die im Speicher 15 hinterlegten Objektzonen verbotene Zonen sein können.
  • A9. Computer-implementiertes Verfahren nach A5, weiter umfassend der Vergleich ermittelter Vitalparameter mit hinterlegten Vitalparametern und/oder eine Vitalparameterbewertung.
  • A10. Computer-implementiertes Verfahren nach A1-A9, wobei das Auslösen eines Ereignisses eine Signalübermittlung in die Cloud 4 oder an ein Terminal 5 umfasst.
  • A11. Computer-implementiertes Verfahren nach A5, wobei die Vitalparameter für eine Person an einer lokalisierten Position erfasst werden.
  • A12. Computer-implementiertes Verfahren nach A1-A11, wobei die Signalauswertung erfasster Radarsignale einen Vergleich mit Mustern darstellt.
  • A13. Computer-implementiertes Verfahren nach A1-A12, wobei für die Signalauswertung ein Klassifikator genutzt wird, der mittels Imitation Learning erstellt wurde oder der Action Recognition nutzt.
  • A14. Computer-implementiertes Verfahren nach A6, wobei genutzte Positionsdaten, die durch Auswertung von Radarsensordaten ermittelt wurden, durch mittels Laserscanner 10, Kamera 11, Ultraschallsensor und/oder Odometrieeinheit 23 ermittelten Daten normiert werden.
  • A15. Computer-implementiertes Verfahren nach A3 oder A6, weiter umfassend die Aktualisierung der Karte 42 des Roboters 1 durch Übernahme der mittels Radarsensoreinheit 30 detektierten Hindernisse.
  • A16. Computer-implementiertes Verfahren nach A1, wobei der Roboter 1 eine Abtastposition vor einer Tür 52 in einem definierten Abstand einnimmt und eine Rotationsbewegung durchführt.
  • A17. Computer-implementiertes Verfahren nach A1, wobei der Roboter 1 sich entlang eines konvexen Pfads vor einer Tür 52 bewegt und dabei einen definierten Mindestabstand zur Tür 52 einhält.
  • A18. Vorrichtung zur Durchführung des Verfahrens nach A1-A19.
In summary, the computer-implemented procedure can be described as follows:
  • A1. Computer-implemented method for monitoring an area by a mobile robot 1, comprising
    • • Driving along an operating path 63,
    • • Detection of an area to be monitored by means of at least one radar sensor unit 30,
    • • Signal evaluation of detected radar signals and
    • • Triggering an event based on the evaluation,
    wherein the detection of the area to be monitored takes place through a wall 60 and/or closed door 52.
  • A2. Computer-implemented method according to A1, wherein the detection of the area to be monitored occurs approximately perpendicular to the direction of travel of the robot 1.
  • A3. Computer-implemented method according to A1-A2, whereby the signal evaluation includes the identification of objects including persons.
  • A4. Computer-implemented method according to A1-A3, wherein the signal evaluation further comprises a differentiation between moving and immobile objects.
  • A5. Computer-implemented method according to A1-A4, wherein the signal evaluation comprises a determination of at least one vital parameter.
  • A6. Computer-implemented method according to A1-A3, further comprising localizing the object position.
  • A7. Computer-implemented method according to A3-A6, further comprising a comparison of the object position with object positions and/or object zones stored in the memory 15.
  • A8. Computer-implemented method according to A7, wherein the object zones stored in the memory 15 can be prohibited zones.
  • A9. Computer-implemented method according to A5, further comprising the comparison of determined vital parameters with stored vital parameters and/or a vital parameter evaluation.
  • A10. Computer-implemented method according to A1-A9, wherein the triggering of an event comprises a signal transmission to the cloud 4 or to a terminal 5.
  • A11. Computer-implemented method according to A5, wherein the vital parameters for a person are recorded at a localized position.
  • A12. Computer-implemented method according to A1-A11, wherein the signal evaluation of detected radar signals represents a comparison with patterns.
  • A13. Computer-implemented method according to A1-A12, whereby a classifier created by means of imitation learning or using action recognition is used for the signal evaluation.
  • A14. Computer-implemented method according to A6, wherein used position data determined by evaluating radar sensor data are standardized by data determined by means of laser scanner 10, camera 11, ultrasonic sensor and/or odometry unit 23.
  • A15. Computer-implemented method according to A3 or A6, further comprising updating the map 42 of the robot 1 by incorporating the obstacles detected by means of the radar sensor unit 30.
  • A16. Computer-implemented method according to A1, wherein the robot 1 assumes a scanning position in front of a door 52 at a defined distance and performs a rotational movement.
  • A17. Computer-implemented method according to A1, wherein the robot 1 moves along a convex path in front of a door 52 while maintaining a defined minimum distance from the door 52.
  • A18. Device for carrying out the method according to A1-A19.

Beispiel 2: Verfahren zur Aktualisierung von Karten zu ÜberwachungszweckenExample 2: Procedure for updating maps for surveillance purposes

In einem Aspekt besteht die technische Herausforderung im bislang beschriebenen Kontext darin, Objekte im zu überwachenden Bereich richtig zu lokalisieren und bspw. auch die Erfassung von Vitalparametern zielgenau vornehmen zu können.In one aspect, the technical challenge in the context described so far is to correctly localize objects in the area to be monitored and, for example, to be able to accurately record vital parameters.

Um dieses Ziel zu erreichen, erstellt der Roboter 1 gemäß 6 im Schritt 210, wie im Stand der Technik bekannt, eine erste Karte 42 wie bspw. eine sogenannte Belegtheitskarten (Occupancy Grid Maps) für Navigationszwecke. Diese erste Karte 42 wird vorzugsweise mit Laser- und/oder Kameradaten erstellt (bspw. ergänzend oder alternativ auch mittels Ultraschallsensordaten), in einem Aspekt (lediglich auf Basis von) oder bevorzugt unter Einbezug von Odometriedaten. Das Koordinatensystem der ersten Karte 42 wird vom Roboter 1 für die Navigation genutzt. Als Verfahren für die Kartierung kann hier bspw. eine Monte-Carlo-Lokalisierung genutzt werden. Für den Zweck der Kartierung bewegt sich der Roboter 1 in seinem Einsatzgebiet und erfasst mit Laserscanner 10 bzw. Kamera 11 insbesondere in Fahrtrichtung (bevorzugt nur) ortsfeste Objekte wie z.B. Wände (60, 61), die konkret als Hindernisse fungieren. Dies kann bspw. im Rahmen eines SLAM-Verfahrens erfolgen. Dabei erfasst der Roboter idealerweise sein Einsatzgebiet komplett, um darüber die erste Karte 42 zu erstellen. Dies ist in 7 dargestellt, wo der Roboter 1 sich über einen Flur 50 bewegt, durch geöffnete Türen 51 in Räume 53 fährt. Der Explorationspfad 55, der bspw. bei initialer Kartierung des Einsatzbereichs erstellt wird, ist hierbei so gewählt, dass durch den Laserscanner-Erfassungsbereich 62 die Flächen des Einsatzbereichs vollumfänglich erfasst werden. Hierbei ist anzumerken, dass der Laserscanner-Erfassungsbereich 62 in 6 kleiner dargestellt ist als in der Realität vieler mobiler Roboter. Typischerweise beträgt die Erfassungstiefe mehrere Meter. Es kann anstelle des Laserscanners 10 auch eine Kamera 11 genutzt werden mit einem etwas anders geformten Erfassungsbereich, oder aber eine Kombination aus mehreren Sensoren gleichen oder unterschiedlichen Typs oder Funktionsprinzips.To achieve this goal, robot 1 creates according to 6 in step 210, as is known in the art, a first map 42 such as a so-called occupancy grid map for navigation purposes. This first map 42 is preferably created with laser and/or camera data (e.g. additionally or alternatively also using ultrasonic sensor data), in one aspect (only on the basis of) or preferably with the inclusion of odometry data. The coordinate system of the first map 42 is used by the robot 1 for navigation. A Monte Carlo localization can be used here, for example, as a method for mapping. For the purpose of mapping, the robot 1 moves in its area of operation and uses laser scanner 10 or camera 11 to detect stationary objects, such as walls (60, 61), in particular in the direction of travel (preferably only), which specifically function as obstacles. This can be done, for example, as part of a SLAM method. Ideally, the robot will cover its entire area of operation in order to create the first map 42. This is 7 where the robot 1 moves along a corridor 50, drives through open doors 51 into rooms 53. The exploration path 55, which is created, for example, during initial mapping of the area of operation, is selected in such a way that the areas of the area of operation are fully covered by the laser scanner detection area 62. It should be noted that the laser scanner detection area 62 in 6 smaller than in reality for many mobile robots. Typically, the detection depth is several meters. Instead of the laser scanner 10, a camera 11 with a slightly differently shaped detection area can be used, or a combination of several sensors of the same or different type or functional principle.

Bei der Kartenerstellung im Schritt 210 erfasst der Roboter 1 jeweils von seiner jeweiligen Position aus die Hindernisse in seinem Umfeld und relativ zu seiner gegenwärtigen Position und trägt sie als Hindernisse in die Karte ein. Dabei kann bspw. die aktuelle Position über eine Odometrie-Einheit ermittelt werden oder wie in WO2021254975A1 beschrieben als eine Art von SLAM-Verfahren.When creating the map in step 210, the robot 1 detects the obstacles in its surroundings and relative to its current position from its respective position and enters them as obstacles in the map. The current position can be determined using an odometry unit, for example, or as in WO2021254975A1 described as a type of SLAM method.

Im Schritt 220 wird mit Hilfe der durch die Radarsensoreinheit 30 erfassten Daten eine zweite Karte 43 erstellt, welche bewegliche und/oder stationäre Objekte im Radarsignal-Erfassungsbereich 59 beinhaltet. Derartige Kartenerstellungen sind aus dem Stand der Technik bekannt (z.B. Li, M., et al. 2018, High Resolution Radar-based Occupancy Grid Mapping and Free Space Detection., In Proceedings of the 4th International Conference on Vehicle Technology and Intelligent Transport Systems (VEHITS 2018), pages 70-81, ISBN: 978-989-758-293-6) . Dabei werden die Daten für diese zweite Karte 43 im Wesentlichen senkrecht zur Fahrtrichtung des Roboters 1 generiert. Zeitlich betrachtet erfolgt die Erstellung der zweiten Karte 43 zeitversetzt zur Erstellung der ersten Karte 42. Allerdings kann die erste Karte 42 parallel zur Erstellung der zweiten Karte aktualisiert werden insbesondere im Rahmen eines SLAM-Prozesses.In step 220, a second map 43 is created using the data acquired by the radar sensor unit 30, which includes moving and/or stationary objects in the radar signal detection area 59. Such map creations are known from the prior art (e.g. Li, M., et al. 2018, High Resolution Radar-based Occupancy Grid Mapping and Free Space Detection., In Proceedings of the 4th International Conference on Vehicle Technology and Intelligent Transport Systems (VEHITS 2018), pages 70-81, ISBN: 978-989-758-293-6) The data for this second map 43 is generated essentially perpendicular to the direction of travel of the robot 1. In terms of time, the creation of the second map 43 takes place at a later time than the creation of the first map 42. However, the first map 42 can be updated in parallel with the creation of the second map, in particular as part of a SLAM process.

Im Schritt 230 werden die ermittelten Positionsdaten der beweglichen und/oder stationären Objekte bzw. Hindernisse aus der zweiten Karte 43 mit Positionsdaten der stationären Objekte bzw. Hindernisse aus der ersten Karte 42 verglichen. Dies kann bspw. auf dem Weg der Datenfusion erfolgen. Hierbei werden die Positionsdaten der stationären Objekte bzw. Hindernisse der ersten Karte 42 als Referenzwerte genommen und die Position der in der zweiten Karte 43 dargestellten Objekte bzw. Hindernisse korrigiert (Schritt 240). Faktisch bedeutet dies eine Synchronisierung statischer Objektdaten bzw. Hindernisdaten. Dies betrifft praktisch jedoch nur Objekte bzw. Hindernisse, welche zuvor bereits vorhanden waren und demzufolge vor allem stationäre Hindernisse bzw. Objekte wie Wände (60, 61) oder bspw. Betten 54, etc. Dies führt zu einer besseren relativen Positionsschätzung der detektierten beweglichen Hindernisse bzw. Objekte in der zweiten Karte (43). In einem Aspekt erfolgt diese Korrektur nur für solche Objekte/Hindernisse, die nicht zugleich durch Laserscanner 10 bzw. Kamera 11 detektierbar sind. Das heißt z.B., dass wie in 8 dargestellt Personen 57-58 detektiert werden, die bei Erstellung der ersten Karte 42 nicht in den Räumen 53 waren. Die Position dieser Personen wird also bspw. relativ zu den Wänden (60, 61) geschätzt, die sich wiederum im Koordinatensystem befinden, dass der Roboter 1 zur Navigation nutzt.In step 230, the determined position data of the moving and/or stationary objects or obstacles from the second map 43 are compared with position data of the stationary objects or obstacles from the first map 42. This can be done, for example, by means of data fusion. The position data of the stationary objects or obstacles on the first map 42 are used as reference values and the position of the objects or obstacles shown in the second map 43 is corrected (step 240). In fact, this means a synchronization of static object data or obstacle data. In practice, however, this only affects objects or obstacles that were already present previously and therefore primarily stationary obstacles or objects such as walls (60, 61) or, for example, beds 54, etc. This leads to a better relative position estimate of the detected moving obstacles or objects in the second map (43). In one aspect, this correction is only carried out for objects/obstacles that cannot be detected at the same time by the laser scanner 10 or camera 11. This means, for example, that as in 8th persons 57-58 are detected who were not in the rooms 53 when the first map 42 was created. The position of these persons is therefore estimated, for example, relative to the walls (60, 61), which in turn are located in the coordinate system that the robot 1 uses for navigation.

Alternativ zu Schritt 240, bei dem die Position der Objekte bzw. Hindernisse in der zweiten Karte 43 korrigiert wird, können die Objekte bzw. Hindernisse aus der zweiten Karte 43, die nicht in der ersten Karte 42 enthalten waren, in die erste Karte 42 übertragen werden (Schritt 250). Dies betrifft bspw. vor allem bewegliche Objekte bzw. Hindernisse. Im Ergebnis kann die erste Karte 42 damit bewegliche Objekte bzw. Hindernisse enthalten, die durch Daten des Laserscanners 10 und/oder der Kamera 11 detektiert wurden sowie Daten, die durch die Radarsensoreinheit 30 erfasst wurden. Alternativ dazu kann auch eine dritte Karte 44 erstellt werden, die die Informationen der ersten Karte 42 als Basis nimmt und die wie beschrieben aus der Karte 43 enthaltenen zusätzlichen Hindernisse bzw. Objekte übernimmt (Schritt 260). Hierbei kann, in einem Aspekt, das Koordinatensystem der ersten Karte 42 übernommen werden und bspw. diese dritte Karte 44 als Basis für die Roboternavigation genutzt werden. Zusammenfassend kann damit festgehalten werden, dass in den Schritten 230, 240 und 250 die Positionsdaten von Objekten bzw. Hindernissen aus der zweiten Karte 43 mindestens anteilig korrigiert werden. Weiterhin impliziert das hier beschriebene Verfahren, dass die Positionsdaten für Objekte bzw. Hindernisse, die aus den Radarsensordaten ermittelt werden, durch Positionsdaten, die mittels Laserscanner 10 oder Kamera 11 (ggf. auch Ultraschallsensor(en)) und ggf. alternativ und/oder ergänzend mittels Odometriedaten ermittelt wurden, normalisiert werden, da die Positionskorrektur für stationäre Objekte bzw. Hindernisse erfolgt.As an alternative to step 240, in which the position of the objects or obstacles in the second map 43 is corrected, the objects or obstacles from the second map 43 that were not included in the first map 42 can be transferred to the first map 42 (step 250). This applies, for example, primarily to moving objects or obstacles. As a result, the first map 42 can therefore contain moving objects or obstacles that were detected by data from the laser scanner 10 and/or the camera 11 as well as data that was recorded by the radar sensor unit 30. Alternatively, a third map 44 can also be created that contains the information functions of the first map 42 as a basis and adopts the additional obstacles or objects contained in the map 43 as described (step 260). In one aspect, the coordinate system of the first map 42 can be adopted and, for example, this third map 44 can be used as a basis for robot navigation. In summary, it can be stated that in steps 230, 240 and 250 the position data of objects or obstacles from the second map 43 are at least partially corrected. Furthermore, the method described here implies that the position data for objects or obstacles determined from the radar sensor data are normalized by position data determined by means of laser scanner 10 or camera 11 (possibly also ultrasonic sensor(s)) and possibly alternatively and/or additionally by means of odometry data, since the position correction is carried out for stationary objects or obstacles.

Die Kartenfusion bzw. Kombination der detektierten Hindernisse kann bspw. erfolgen wie in Steinbaeck, Josef, et al. „Occupancy grid fusion of low-level radar and time-of-flight sensor data.“ 2019 22nd Euromicro Conference on Digital System Design (DSD). IEEE, 2019.The map fusion or combination of the detected obstacles can be carried out, for example, as in Steinbaeck, Josef, et al. “Occupancy grid fusion of low-level radar and time-of-flight sensor data.” 2019 22nd Euromicro Conference on Digital System Design (DSD). IEEE, 2019.

In einem Aspekt werden Objektdaten klassifiziert, um darüber Personen im Erfassungsbereich der Radarsensoreinheit 30 (bzw. von deren Radarantenne(n) 32 zu detektieren, wie an anderer Stelle in diesem Dokument beispielhaft beschrieben, um bspw. darüber die Position von mindestens einer Person auf Basis von Regeln auszuwerten, ggf. in Verbindung mit der Erfassung von mindestens einem Vitalparameter dieser Person.In one aspect, object data is classified in order to detect persons in the detection range of the radar sensor unit 30 (or of its radar antenna(s) 32, as described by way of example elsewhere in this document, for example in order to evaluate the position of at least one person on the basis of rules, possibly in conjunction with the detection of at least one vital parameter of this person.

Die somit ermittelten Positionsdaten für die Objekte, die durch die Radarsensoreinheit 30 erfasst wurden, können im Schritt 140 genutzt werden, der weiter oben bereits beschrieben wurde. Alternativ und/oder ergänzend werden die Positionsdaten für bewegliche Objekte, die durch Auswertung der Radarsensordaten ermittelt wurden, mit Positionsdaten von Zonen verglichen, die in einer der Karten 42-44, einer vierten Karte und/oder einer Tabelle enthalten sind. Dies entspricht bspw. dem Schritt 150. Diesen Zonen sind wiederum Regeln zugeordnet. So kann bspw. eine Regel besagen, dass bei Identifikation eines Objekts in einer Zone ein Ereignis durch den Roboter 1 ausgelöst wird. In einem nächsten Schritt kann dann ein solches Ereignis durch den Roboter 1 ausgelöst werden, bspw. die Benachrichtigung eines Terminals 5.The position data thus determined for the objects detected by the radar sensor unit 30 can be used in step 140, which was already described above. Alternatively and/or additionally, the position data for moving objects determined by evaluating the radar sensor data are compared with position data from zones contained in one of the maps 42-44, a fourth map and/or a table. This corresponds, for example, to step 150. These zones are in turn assigned rules. For example, a rule can state that when an object is identified in a zone, an event is triggered by the robot 1. In a next step, such an event can then be triggered by the robot 1, e.g. the notification of a terminal 5.

Das Verfahren stellt sich wie folgt dar:

  • B1. Computer-implementiertes Verfahren zur Ermittlung, zur Korrektur oder zur Synchronisierung von Objekt-Positionsdaten, umfassend die folgenden Schritte:
    • • Erstellung einer ersten Karte 42 durch einen mobilen Roboter 1 mit Hindernissen bzw. Objekten basierend auf Laserscanner-, Kamera- und/oder Ultraschallsensor-Daten,
    • • Erstellung einer zweiten Karte 43 durch einen mobilen Roboter 1 mit Hindernissen bzw. Objekten basierend auf Radarsensor-Daten,
    • • Vergleich der Positionsdaten für in den Karten (42, 43) jeweils enthaltenen Hindernissen bzw. Objekten,
    wobei die Positionsdaten von Objekten bzw. Hindernissen der zweiten Karte 43 mindestens anteilig durch Positionsdaten von Objekten bzw. Hindernissen der ersten Karte 42 korrigiert werden.
  • B2. Computer-implementiertes Verfahren nach B2, wobei es sich bei den korrigierten Positionsdaten um Positionsdaten von stationären Hindernissen bzw. Objekten handelt.
  • B3. Computer-implementiertes Verfahren nach B1-B2, wobei die zweite Karte 43 zeitlich nach der ersten Karte 42 erstellt wird.
  • B4. Computer-implementiertes Verfahren nach B1, wobei der für die Ermittlung der Radarsensor-Daten genutzte Radarsensoreinheit 30 eine Fläche erfasst, die nicht zugleich durch den Laserscanner 10, eine Kamera 11 oder einen Ultraschallsensor erfassbar ist.
  • B5. Computer-implementiertes Verfahren nach B1, wobei die Radarsensor-Daten Objekte bzw. Hindernisse hinter einer Wand 60 oder Tür 52 umfassen.
  • B6. Computer-implementiertes Verfahren nach B1-B5, wobei die korrigierten Positionsdaten der zweiten Karte 43 in der zweiten Karte 43 hinterlegt werden.
  • B7. Computer-implementiertes Verfahren nach B1-B5, weiter umfassend das Hinzufügen von Positionsdaten beweglicher Objekte aus der zweiten Karte 43 in die erste Karte 42.
  • B8. Computer-implementiertes Verfahren nach B1-B5, weiter umfassend die Erzeugung einer dritten Karte 44 durch Übernahme stationärer und beweglicher Objekt- bzw. Hindernispositionen der ersten Karte 42 und Übernahme zusätzlicher beweglicher Objekt- bzw. Hindernispositionen der zweiten Karte 43.
  • B9. Computer-implementiertes Verfahren nach B8, wobei die Koordinaten der ersten Karte (42) übernommen werden und der Roboter (1) nach der dritten Karte 44 navigiert.
  • B10. Computer-implementiertes Verfahren nach B 1-B9, weiter umfassend Vergleich der mit Hilfe der Radarsensoreinheit 30 ermittelten Positionsdaten für bewegliche Objekte mit in einer Tabelle, in einer der Karten (42-44) oder in einer weiteren Karte hinterlegten Zonen für bewegliche Objekte, wobei den Zonen jeweils Regeln zugeordnet sind.
  • B11. Computer-implementiertes Verfahren nach B10, weiter umfassend das Auslösen eines Ereignisses basierend auf den Regeln für die jeweilige Zone.
  • B12. Computer-implementiertes Verfahren nach B1 - B11, weiter umfassend Nutzung der Objekt-Positionsdaten zur Anpassung der Signalstärke des Radarsignals.
  • B13. Computer-implementiertes Verfahren nach B1-B12, weiter umfassend die Klassifizierung von Objektdaten zur Detektion von Personen.
  • B14. Computer-implementiertes Verfahren nach 13, weiter umfassend die Erfassung von mindestens einem Vitalparameter bei einer detektierten Person.
  • B15. Vorrichtung zur Durchführung des Verfahrens nach B1-B14.
The procedure is as follows:
  • B1. A computer-implemented method for determining, correcting or synchronizing object position data, comprising the following steps:
    • • Creation of a first map 42 by a mobile robot 1 with obstacles or objects based on laser scanner, camera and/or ultrasonic sensor data,
    • • Creation of a second map 43 by a mobile robot 1 with obstacles or objects based on radar sensor data,
    • • Comparison of the position data for obstacles or objects contained in the maps (42, 43),
    wherein the position data of objects or obstacles of the second map 43 are at least partially corrected by position data of objects or obstacles of the first map 42.
  • B2. Computer-implemented method according to B2, wherein the corrected position data are position data of stationary obstacles or objects.
  • B3. Computer-implemented method according to B1-B2, wherein the second map 43 is created chronologically after the first map 42.
  • B4. Computer-implemented method according to B1, wherein the radar sensor unit 30 used to determine the radar sensor data detects an area that cannot be simultaneously detected by the laser scanner 10, a camera 11 or an ultrasonic sensor.
  • B5. Computer-implemented method according to B1, wherein the radar sensor data comprises objects or obstacles behind a wall 60 or door 52.
  • B6. Computer-implemented method according to B1-B5, wherein the corrected position data of the second map 43 are stored in the second map 43.
  • B7. Computer-implemented method according to B1-B5, further comprising adding position data of moving objects from the second map 43 into the first map 42.
  • B8. Computer-implemented method according to B1-B5, further comprising the generation of a third map 44 by adopting stationary and moving object or obstacle positions of the first map 42 and adopting additional moving object or obstacle positions of the second map 43.
  • B9. Computer-implemented method according to B8, wherein the coordinates of the first map (42) are adopted and the robot (1) navigates according to the third map 44.
  • B10. Computer-implemented method according to B 1-B9, further comprising comparing the position data for moving objects determined with the aid of the radar sensor unit 30 with zones for moving objects stored in a table, in one of the maps (42-44) or in another map, wherein rules are assigned to each zone.
  • B11. Computer-implemented method according to B10, further comprising triggering an event based on the rules for the respective zone.
  • B12. Computer-implemented method according to B1 - B11, further comprising use of the object position data to adjust the signal strength of the radar signal.
  • B13. Computer-implemented method according to B1-B12, further comprising the classification of object data for the detection of persons.
  • B14. Computer-implemented method according to 13, further comprising the detection of at least one vital parameter of a detected person.
  • B15. Device for carrying out the method according to B1-B14.

Beispiel 3: Erfassung von Vitalparametern durch eine Wand über eine Distanz von mehreren MeternExample 3: Recording vital parameters through a wall over a distance of several meters

Die technische Aufgabenstellung ist es, im Kontext der generellen Aufgabenstellung einerseits zuverlässig Vitalparameter (wie z.B. Herzrate, Pulsrate, usw.) einer Person über eine Distanz von mehreren Metern und durch eine Wand oder Tür zu erfassen, andererseits aber auch die Strahlenexposition, die durch den hierfür genutzten Radarsensoreinheit 30 verursacht wird, bei der Person, deren Vitalparameter erfasst werden sollen, möglichst gering zu halten und zugleich auch den Energieverbrauch des Roboters 1 gering zu halten zur Optimierung seiner Reichweite bzw. Minimierung der Betriebsdauer durch Akku-Ladevorgänge.The technical task is, in the context of the general task, on the one hand to reliably record vital parameters (such as heart rate, pulse rate, etc.) of a person over a distance of several meters and through a wall or door, but on the other hand also to keep the radiation exposure caused by the radar sensor unit 30 used for this purpose for the person whose vital parameters are to be recorded as low as possible and at the same time to keep the energy consumption of the robot 1 low in order to optimize its range or minimize the operating time through battery charging processes.

Um dieses Ziel zu erreichen, verfügt die Radarsensoreinheit 30 über einen Verstärker 33, der leistungsmoduliert ist. Unter leistungsmoduliert wird verstanden, dass seine Leistung variiert wird über den Zeitverlauf. Das Verfahren zur Erfassung von Vitalparametern stellt sich wie folgt dar und wird anhand 8 und 10 illustriert:To achieve this goal, the radar sensor unit 30 has an amplifier 33 that is power modulated. Power modulated means that its power is varied over time. The method for recording vital parameters is as follows and is explained using 8th and 10 illustrated:

Der Roboter 1 bewegt sich im Schritt 310 entlang eines Pfads, auch als Betriebspfad 63 bezeichnet, da er im Gegensatz zum Explorationspfad 55 (siehe 7) den Weg des Roboters 1 im regulären Roboterbetrieb darstellt. Dieser verläuft in diesem Fall bspw. entlang eines Flurs 50, auf dessen Seite sich bspw. mehrere Räume 53 befinden. Der Roboter 1 greift zum Zweck der Selbstlokalisation auf seine Positionsdaten über seine Karte (z.B. 42) zu, die auch seine Position beschreiben, bspw. auf dem Betriebspfad 63 im Flur 50 (Schritt 320). Diese Positionsdaten werden in einem optionalen Aspekt benötigt, um den Wert für die Signalstärke zu ermitteln, mit der die Radarsensoreinheit 30 den Erfassungsbereich überwachen soll.In step 310, the robot 1 moves along a path, also referred to as the operating path 63, since, in contrast to the exploration path 55 (see 7 ) represents the path of the robot 1 in regular robot operation. In this case, this runs, for example, along a corridor 50, on the side of which there are, for example, several rooms 53. For the purpose of self-localization, the robot 1 accesses its position data via its map (eg 42), which also describes its position, e.g. on the operating path 63 in the corridor 50 (step 320). This position data is required in an optional aspect in order to determine the value for the signal strength with which the radar sensor unit 30 should monitor the detection area.

In einem nächsten optionalen Schritt 325 wird die Distanz ermittelt, die zwischen Roboterposition und dem mit Blick auf den Roboter 1 abgewandten Randbereich des zu überwachenden Areals vorliegt, auch als Ermittlung der Erfassungstiefe bezeichnet. Das ist in 8 die rückseitige Raumwand 61. Derartige Informationen sind optional im Speicher 15 des Roboters hinterlegt, bspw. mit Bezug zur Karte 42. Dieser Wert wird anschließend optional mit einem Wert in einer Tabelle verglichen, der wiederum eine geeignete Signalstärke aufweist, die durch den Roboter damit eingestellt wird (Ermittlung korrespondierender Signalstärke für Erfassungstiefe - (optionaler) Schritt 328). Diese Signalstärke ist so gewählt, dass sie eine Personendetektion und die mit der Person assoziierte Position im zu erfassenden räumlichen Bereich ausreichend ermöglicht. Sie ist im Regelfall geringer als die Signalstärke, die für eine Erfassung der Vitalparameter notwendig ist. Damit sind die Schritte 325-328 als optionale Schritte zu verstehen.In a next optional step 325, the distance between the robot position and the edge area of the area to be monitored facing away from the robot 1 is determined, also referred to as determining the detection depth. This is in 8th the rear wall 61. Such information is optionally stored in the robot's memory 15, for example with reference to the map 42. This value is then optionally compared with a value in a table, which in turn has a suitable signal strength, which is then set by the robot (determination of corresponding signal strength for detection depth - (optional) step 328). This signal strength is selected so that it sufficiently enables person detection and the position associated with the person in the spatial area to be detected. It is usually lower than the signal strength that is necessary for recording the vital parameters. Steps 325-328 are therefore to be understood as optional steps.

Der Roboter 1 emittiert und empfängt dabei im Wesentlichen senkrecht zur Fahrtrichtung Radarsignale mittels der Radarsensoreinheit 30 (Schritt 330 - Erfassung von Objekten bzw. Hindernissen im Radarsignal-Erfassungsbereich 59). Diese durchdringen dabei mindestens eine Wand 60 oder Tür 52. Dies ist bspw. durch den Signalkegel (Radarsignal-Erfassungsbereich 59) in 8 erkennbar. Die Signalstärke ist hierbei in einem optionalen Aspekt so eingestellt, dass das zu erfassende Areal durch die Radarsignale abgedeckt wird, bei der eine Erfassung von Vitalparametern einer sich im Areal befindlichen Person möglich ist. Dazu wird bspw. der Verstärker 33 genutzt, um die Signalstärke entsprechend einzustellen. Hierzu befinden sich in einem optionalen Aspekt in einem Speicher 15 abgelegte Werte, die die Signalstärke in Abhängigkeit von der Tiefe des zu erfassenden Bereichs abgelegt sind.The robot 1 emits and receives radar signals essentially perpendicular to the direction of travel by means of the radar sensor unit 30 (step 330 - detection of objects or obstacles in the radar signal detection area 59). These penetrate at least one wall 60 or door 52. This is possible, for example, through the signal cone (radar signal detection area 59) in 8th recognizable. The signal strength is set in an optional aspect so that the area to be detected is covered by the radar signals, which makes it possible to record vital parameters of a person in the area. For this purpose, the amplifier 33 is used, for example, to set the signal strength accordingly. For this purpose, in an optional aspect, there are values stored in a memory 15 that show the signal strength depending on the depth of the area to be detected.

Es wird im Schritt 340 - Personendetektion ausgewertet, ob sich eine Person (56-58) in dem zu erfassenden Bereich befindet. Hierbei werden die Radarsensor-Daten für die erfassten Objekte bzw. Hindernisse klassifiziert und/oder mit hinterlegten Werten verglichen, die sich in einem Speicher 15 (bspw. einer Objektidentifizierungs-Datenbank 49) befinden. Der genutzt Klassifikator zur Personendetektion kann auf maschinellen Lernalgorithmen basieren, wie aus dem Stand der Technik hinlänglich bekannt (z.B. EP2100153A1 oder DOI: 10.1007/s00521-022-06886-2). Dabei kann es sich einerseits um (quasi-)stationäre Objekte bzw. Hindernisse handeln wie eine Person im Bett 56 oder aber Personen außerhalb vom Bett (57-58), welche als stationäre oder bewegliche Objekte in den Radarsensordaten vorhanden sind.In step 340 - person detection, it is evaluated whether a person (56-58) is located in the area to be detected. The radar sensor data for the detected objects or obstacles are classified and/or compared with stored values that are located in a memory 15 (e.g. an object identification database 49). The classifier used for person detection can be based on machine learning algorithms, as is well known from the state of the art. known (e.g. EP2100153A1 or DOI: 10.1007/s00521-022-06886-2). On the one hand, these can be (quasi-)stationary objects or obstacles such as a person in bed 56 or people outside the bed (57-58), which are present as stationary or moving objects in the radar sensor data.

Es wird im Schritt 350 eine Positionsermittlung der Person vorgenommen. Hierfür wird einerseits die Distanz zwischen Roboter 1 und detektierter Person ermittelt, bspw. über die Signallaufzeit, wie dies aus dem Stand der Technik hinlänglich bekannt ist, und es wird aus der Pose des Roboters und dem bekannten Winkel aus Radarantennenausrichtung auf dem Roboter der Winkel abgeleitet, von dem aus sich die Person im Raum befindet. Die zugehörige Position kann in einem optionalen Schritt 355 in eine Karte (bspw. 42-44) übernommen werden. Für diese Distanz, die sich, basierend aus dem optionalen Schritt, auch aus der Karte ergeben kann, wird im Schritt 360 - Ermittlung Signalstärke - wiederum aus einem Speicher 15 (bspw. über eine dort hinterlegte Tabelle) ein Wert für die Signalstärke ausgelesen, der notwendig ist zur Erfassung der Vitalparameter bei der detektierten Person.In step 350, the position of the person is determined. To do this, the distance between robot 1 and the detected person is determined, for example via the signal propagation time, as is well known from the prior art, and the angle at which the person is located in the room is derived from the pose of the robot and the known angle from the radar antenna alignment on the robot. The associated position can be transferred to a map (for example 42-44) in an optional step 355. For this distance, which can also be determined from the map based on the optional step, in step 360 - determination of signal strength - a value for the signal strength is read out from a memory 15 (for example via a table stored there), which is necessary for recording the vital parameters of the detected person.

Es wird dann im Schritt 370 der Radarverstärker 33 so eingestellt, dass seine Ausgangsleistung eine Vitalparametermessung bei der Person ermöglicht (als Anpassung der Signalstärke bezeichnet). Diese Messung wird dann, wie an anderer Stelle in diesem Dokument referenziert, entsprechend vorgenommen (Schritt 380, an anderer Stelle Teil von Schritt 120). In vielen Fällen entspricht dies einer Erhöhung der Signalstärke gegenüber dem Wert, der zur Personendetektion genutzt wird. Anschließend wird bspw. die Signalstärke im Schritt 390 wieder auf das Niveau angepasst, das notwendig ist, um Personen im auszuwertenden Bereich zu erfassen, also im Beispiel von 8 im Raum 53, auch als Anpassung des Verstärker-Outputs bezeichnet. Dies ist in vielen Fällen eine Reduktion der Signalstärke des Radarsensors 31.The radar amplifier 33 is then adjusted in step 370 so that its output power enables a vital parameter measurement of the person (referred to as adjustment of the signal strength). This measurement is then carried out accordingly, as referenced elsewhere in this document (step 380, elsewhere part of step 120). In many cases, this corresponds to an increase in the signal strength compared to the value used for person detection. The signal strength is then adjusted again in step 390 to the level that is necessary to detect people in the area to be evaluated, i.e. in the example of 8th in room 53, also known as adjusting the amplifier output. In many cases this is a reduction in the signal strength of the radar sensor 31.

Damit wird erreicht, dass die höhere Leistung, die notwendig ist zur Vitalparametermessung, nur kurzzeitig genutzt wird und auch nur auf einem Niveau, das notwendig für die Messung ist. Somit ist bspw. die Strahlenexposition geringer, wenn sich eine Person 58 dichter am Roboter befindet als weiter weg (z.B. Person 57). Damit wird bspw. sichergestellt, dass Personen wie bspw. 58, die sich dicht am Roboter 1 befinden, nicht etwa einer Strahlenexposition ausgesetzt sind, als wenn man die Vitalparameter für eine Person weit weg vom Roboter 1 messen würde (wie bspw. bei Person 57).This ensures that the higher power required to measure vital parameters is only used for a short time and only at a level that is necessary for the measurement. This means that, for example, the radiation exposure is lower if a person 58 is closer to the robot than further away (e.g. person 57). This ensures, for example, that people such as 58 who are close to robot 1 are not exposed to radiation as if the vital parameters were measured for a person far away from robot 1 (such as person 57).

As hier beschriebene Verfahren lässt sich wie folgt darstellen:

  • C1. Computer-implementiertes Verfahren zur Anpassung der Signalstärke eines Radarsensors 31 auf einem mobilen Roboter 1, umfassend
    • Bewegung des Roboters 1 auf einem Pfad 62
    • • Ermittlung der aktuellen Position des Roboters 1
    • • Erfassung von Objekten bzw. Hindernissen im Radarsignal-Erfassungsbereich 59
    • • Detektion von Personen im Radarsignal-Erfassungsbereich 59
    • • Ermittlung der Distanz zwischen Roboter 1 und der detektierten Person und
    • • Ermittlung einer Signalstärke für den Radarsensor 31 auf Basis der ermittelten Distanz zwischen Roboter 1 und der Person.
  • C2. Computer-implementiertes Verfahren nach C1, weiter umfassend die Anpassung der Signalstärke des Radarsensors 31.
  • C3. Computer-implementiertes Verfahren nach C1-C2, weiter umfassend die Durchführung einer radardaten-basierten Vitalparametermessung bei der detektierten Person.
  • C4. Computer-implementiertes Verfahren nach C3, weiter umfassend die erneute Anpassung der Signalstärke des Radarsensors 31.
  • C5. Computer-implementiertes Verfahren nach C2, wobei die Signalstärke erhöht wird.
  • C6. Computer-implementiertes Verfahren nach C4, wobei die Signalstärke reduziert wird.
  • C7. Computer-implementiertes Verfahren nach C1, wobei die Personenposition in einer Karte (42, 43, 44) hinterlegt wird.
  • C8. Computer-implementiertes Verfahren nach C1-C7, weiter umfassend die Ermittlung der notwendigen Erfassungstiefe des Radarsensors 31 durch Abgleich des zu erfassenden Bereich mit einer Karte 42.
  • C9. Computer-implementiertes Verfahren nach C8, weiter umfassend die Anpassung der Signalstärke des Radarsensors 31 auf Basis der notwendigen Erfassungstiefe, welche eine Personendetektion im zu erfassenden Bereich ermöglicht.
  • C10. Computer-implementiertes Verfahren nach C1-C9, weiter umfassend die Übermittlung eines Signals an ein Terminal 5 basierend auf der Auswertung der ermittelten Vitalparameter.
  • C11. Computer-implementiertes Verfahren nach C1-C10, wobei genutzte Positionsdaten, die durch Auswertung von Radarsensordaten ermittelt wurden, durch mittels Laserscanner 10, Kamera 11, Ultraschallsensor und/oder Odometrieeinheit 23 ermittelte Daten normiert werden.
  • C12. Computer-implementiertes Verfahren nach C1-C11, wobei sich zwischen Roboter 1 und detektierter Person eine Wand 60 oder geschlossene Tür 52 befindet.
  • C13. Computer-implementiertes Verfahren nach C1-C11, wobei der Radarsignal-Erfassungsbereich 59 im Wesentlichen senkrecht zum Pfad des Roboters 62 ausgerichtet ist.
  • C14. Vorrichtung zur Durchführung des Verfahrens nach C1-C13.
The procedure described here can be represented as follows:
  • C1. Computer-implemented method for adjusting the signal strength of a radar sensor 31 on a mobile robot 1, comprising
    • • Movement of robot 1 on a path 62
    • • Determining the current position of the robot 1
    • • Detection of objects or obstacles in the radar signal detection range 59
    • • Detection of persons in the radar signal detection area 59
    • • Determination of the distance between robot 1 and the detected person and
    • • Determination of a signal strength for the radar sensor 31 based on the determined distance between robot 1 and the person.
  • C2. Computer-implemented method according to C1, further comprising adjusting the signal strength of the radar sensor 31.
  • C3. Computer-implemented method according to C1-C2, further comprising carrying out a radar data-based vital parameter measurement of the detected person.
  • C4. Computer-implemented method according to C3, further comprising readjusting the signal strength of the radar sensor 31.
  • C5. Computer-implemented method according to C2, whereby the signal strength is increased.
  • C6. Computer-implemented method according to C4, whereby the signal strength is reduced.
  • C7. Computer-implemented method according to C1, wherein the person position is stored in a map (42, 43, 44).
  • C8. Computer-implemented method according to C1-C7, further comprising determining the necessary detection depth of the radar sensor 31 by comparing the area to be detected with a map 42.
  • C9. Computer-implemented method according to C8, further comprising adjusting the signal strength of the radar sensor 31 on the basis of the necessary detection depth, which enables person detection in the area to be detected.
  • C10. Computer-implemented method according to C1-C9, further comprising the transmission of a signal to a terminal 5 based on the evaluation of the determined vital parameters.
  • C11. Computer-implemented method according to C1-C10, wherein used position data, which were determined by evaluating radar sensor data, are transmitted by means of a laser scanner 10, Data determined by camera 11, ultrasonic sensor and/or odometry unit 23 are standardized.
  • C12. Computer-implemented method according to C1-C11, wherein a wall 60 or closed door 52 is located between robot 1 and detected person.
  • C13. The computer-implemented method of C1-C11, wherein the radar signal detection area 59 is oriented substantially perpendicular to the path of the robot 62.
  • C14. Device for carrying out the process according to C1-C13.

Beispiel 4: Anpassung der Pfadplanung auf Basis einer AnomalieauswertungExample 4: Adaptation of path planning based on an anomaly evaluation

Im Kontext der Überwachung von Personen bzw. Patienten soll der Fahrtweg des Roboters 1 optimiert werden, um einerseits effizient Anomalien im Überwachungsbereich bzw. bei zu überwachenden Personen zu detektieren und dabei die Laufzeit des Roboters 1 mit Blick auf den Akkustand zu optimieren, andererseits auch eine engmaschige Überwachung von Personen zu ermöglichen.In the context of monitoring people or patients, the travel path of robot 1 is to be optimized in order to efficiently detect anomalies in the monitoring area or in people to be monitored and to optimize the running time of robot 1 with regard to the battery level, and to enable close monitoring of people.

In einem Aspekt, wie in 8 und 10 illustriert, bewegt sich hierzu der Roboter 1 entlang einer Route wie bspw. einem Betriebspfad 63 (Schritt 310) durch ein Gebäude, vorzugweise in einem Gang 50 mit Räumen 53 auf mindestens einer Seite. Dabei erfasst er seine gegenwärtige Position (Schritt 320 - Positionsbestimmung). Auf seiner Route erfasst der Roboter 1 mit mindestens einer Radarsensoreinheit 30 die Bereiche, die vorzugsweise im Wesentlichen senkrecht zur Fahrtrichtung des Roboters 1 befinden. Hierbei werden die Radarsignale durch die Wände 60 emittiert, hinter den Wänden 60 bspw. an Objekten wie einem Bett 54, einer Person (56-58) oder einer weiteren Wand 61 reflektiert und durch die Radarsensoreinheit 30 erfasst. Der Radarsignal-Erfassungsbereich 59, wie er in 8 skizziert ist, zeigt dies teilweise auf. Das heißt also, es findet eine Erfassung von Objekten bzw. Hindernissen im Radar-Erfassungsbereich 59 statt (Schritt 330). Dabei findet optional eine Personendetektion (Schritt 340) statt. Für die Auswertung der Ergebnisse der Erfassung nutzt der Roboter 1 in einem optionalen Aspekt eine Karte 43 und wertet Messungen der Radarsignale basierend auf in einer Karte hinterlegten Bereichen aus, d.h. es findet eine positionsbezogene Auswertung der Erfassungsergebnisse im Schritt 430 statt. Positionsbezogen heißt, die Erfassung wird mit bestimmten Koordinaten assoziiert, die auf einer Karte basieren. Diese Bereiche können bspw. in einer der vorgenannten Karten 42-44 enthalten sein oder einfach über eine Tabelle mit einer dieser Karten assoziiert sein, die jeweils Bereiche über Koordinaten definiert und diese entsprechend klassifiziert. Diese Bereiche können in einem Aspekt einzelne Räume 53 sein oder Teilbereiche der Räume 53 wie bspw. Betten 54, die sich in diesen Räumen 53 befinden. Das heißt, die erwähnten Räume 53 können auch in verschiedene Zonen partitioniert werden, die dann bzgl. der darin mittels Radarsensordaten detektierten Objekte bzw. Hindernisse einzeln ausgewertet werden können. Hierbei ist eine hierarchische Struktur möglich, die bspw. in einer Mehrebenenkarte mündet, wobei eine Kartenebene das Gesamtareal umfasst, das durch den Roboter 1 sensorisch erfasst werden kann, und weitere Karten jeweils Teilbereiche und weiter untergliederte Zonen. So kann bspw. dann in einer Positions- und Regeldatenbank 48 im Speicher 15 definiert werden, dass, z.B. abhängig von der Uhrzeit, Personen sich nur in bestimmten Bereichen oder Zonen aufhalten dürfen.In one aspect, as in 8th and 10 illustrated, the robot 1 moves along a route such as an operating path 63 (step 310) through a building, preferably in a corridor 50 with rooms 53 on at least one side. In doing so, it detects its current position (step 320 - position determination). On its route, the robot 1 uses at least one radar sensor unit 30 to detect the areas that are preferably essentially perpendicular to the direction of travel of the robot 1. The radar signals are emitted through the walls 60, reflected behind the walls 60, for example on objects such as a bed 54, a person (56-58) or another wall 61, and detected by the radar sensor unit 30. The radar signal detection area 59, as shown in 8th outlined shows this in part. This means that objects or obstacles are detected in the radar detection area 59 (step 330). Person detection (step 340) optionally takes place. To evaluate the results of the detection, the robot 1 uses a map 43 in an optional aspect and evaluates measurements of the radar signals based on areas stored in a map, i.e. a position-related evaluation of the detection results takes place in step 430. Position-related means that the detection is associated with certain coordinates that are based on a map. These areas can, for example, be contained in one of the aforementioned maps 42-44 or simply be associated with one of these maps via a table that defines areas via coordinates and classifies them accordingly. In one aspect, these areas can be individual rooms 53 or sub-areas of the rooms 53, such as beds 54, that are located in these rooms 53. This means that the aforementioned rooms 53 can also be partitioned into different zones, which can then be individually evaluated with regard to the objects or obstacles detected therein using radar sensor data. A hierarchical structure is possible here, which leads, for example, to a multi-level map, with one map level covering the entire area that can be detected by the robot 1 using sensors, and further maps covering sub-areas and further subdivided zones. For example, it can then be defined in a position and rule database 48 in the memory 15 that, for example depending on the time of day, people are only allowed to stay in certain areas or zones.

Die erfassten Radarsignale werden nach einem Erfassungsvorgang ausgewertet wie an anderer Stelle in diesem Dokument beschrieben und optional in einem Speicher 15 und dort bspw. in einer Positions- und Regeldatenbank 48 abgelegt (Schritt 440). Die ausgewerteten Ergebnisse des Erfassungsvorgangs werden mit zuvor gespeicherten Erfassungsvorgangsergebnissen (z.B. aus einer Positions- und Regeldatenbank 48) verglichen (Schritt 450). Wird bspw. ein anderes Erfassungsergebnis ermittelt als in den abgespeicherten Erfassungsvorgangsergebnissen, wird dies als Anomalie registriert. So kann bspw. in der Erfassung ein bewegliches Objekt in einem Raum (z.B. 53) oder in einem bspw. definierten Teil eines Raums (d.h. einer Zone wie bspw. einem Bett 54) detektiert werden. Es läge dann eine Anomalie vor, wenn ein früheres Erfassungsergebnis für den Raum oder den definierten Teil des Raums (d.h. der Zone) keine Personen detektiert worden ist. Alternativ kann eine Anomalie definiert sein über erfasste Vitalparameter einer mittels Radarsignalen analysierten Person, wobei der gemessene Vitalparameter abweicht von früher ermittelten Vitalparametern der Person. Eine Anomalie umfasst also Erfassungsergebnisse, die von erwarteten und/oder abgespeicherten Erfassungsergebnissen abweichen. Bei der Anomalieerkennung können hierbei Regeln hinterlegt werden, die auf eine Mindestdifferenz zwischen den Erfassungsergebnissen und den zuvor abgespeicherten Erfassungsergebnissen basieren. Wird diese Mindestdifferenz überschritten, wird das Erfassungsergebnis als Anomalie klassifiziert. Generell wird unter Anomalie eine oder mehrere Abweichungen eines Erfassungsergebnisses von einem (z.B. als Schwellwert) definierten (oder bspw. zuvor ermittelten) Erfassungsergebnis verstanden. Die Ermittlung der Mindestdifferenz kann einerseits bspw. über Verfahren des Maschinellen Lernens erfolgen, wie das bspw. für die Eventdetektion von Verkehr in Computernetzwerken aus dem Stand der Technik bekannt ist, andererseits über in einer Positions- und Regeldatenbank 48 definierte Regeln. So kann in einem Aspekt auch mehr als ein Erfassungsergebnis berücksichtigt werden, bspw. das aktuelle und die vorangegangenen zwei (abgespeicherten) Erfassungsergebnisse, die mit weiteren zuvor abgespeicherten Erfassungsergebnissen verglichen werden. So kann z.B. eine Anomalie erst dann vorliegen, wenn ein oder mehrere Erfassungsergebnisse über einem Schwellwert liegen, der sich bspw. aus einer Mindestzahl an berechneten Erfassungsabweichungen ergibt, ggf. pro Zeiteinheit und/oder ausgewerteter Zone. Dies wird insgesamt als Abweichungsermittlung und -bewertung- Schritt 460 verstanden.The detected radar signals are evaluated after a detection process as described elsewhere in this document and optionally stored in a memory 15 and there, for example, in a position and rule database 48 (step 440). The evaluated results of the detection process are compared with previously stored detection process results (e.g. from a position and rule database 48) (step 450). If, for example, a different detection result is determined than in the stored detection process results, this is registered as an anomaly. For example, a moving object can be detected in a room (e.g. 53) or in a defined part of a room (i.e. a zone such as a bed 54) during detection. An anomaly would then exist if an earlier detection result for the room or the defined part of the room (i.e. the zone) had not detected any people. Alternatively, an anomaly can be defined by recorded vital parameters of a person analyzed using radar signals, where the measured vital parameter deviates from previously determined vital parameters of the person. An anomaly therefore includes detection results that deviate from expected and/or stored detection results. When detecting anomalies, rules can be stored that are based on a minimum difference between the detection results and the previously stored detection results. If this minimum difference is exceeded, the detection result is classified as an anomaly. In general, an anomaly is understood to mean one or more deviations of a detection result from a detection result defined (e.g. as a threshold value) (or previously determined, for example). The minimum difference can be determined, for example, using machine learning methods, as is known from the state of the art for event detection of traffic in computer networks, on the other hand, via rules defined in a position and rule database 48. In one aspect, more than one detection result can be taken into account, for example the current and the previous two (saved) detection results, which are compared with other previously saved detection results. For example, an anomaly can only be present if one or more detection results are above a threshold value, which results, for example, from a minimum number of calculated detection deviations, possibly per unit of time and/or evaluated zone. This is understood as a deviation determination and evaluation step 460.

Basierend auf einer detektierten Anomalie wird die Pfadplanung des Roboters 1 angepasst (Schritt 470 - optional). Die Anpassung der Pfadplanung bewirkt, dass der Roboter 1 die Frequenz, mit der er den zu erfassenden Bereich (bspw. eine Zone wie ein Bett 54 mit einer Person 56 in einem Raum 53) passiert, bspw. erhöht. In einem Aspekt triggert der Roboter 1 zugleich auch ein Signal über eine Drahtlos-Schnittstelle 16 an ein Terminal 5, welches bspw. auf die Anomalie hinweist (Schritt 160 - Ereignisauslösung -optional).Based on a detected anomaly, the path planning of the robot 1 is adjusted (step 470 - optional). The adjustment of the path planning causes the robot 1 to, for example, increase the frequency with which it passes through the area to be detected (e.g., a zone such as a bed 54 with a person 56 in a room 53). In one aspect, the robot 1 simultaneously triggers a signal via a wireless interface 16 to a terminal 5, which, for example, indicates the anomaly (step 160 - event triggering - optional).

Mit Blick auf die räumliche bzw. zeitlich-räumliche Position von Objekten bzw. Hindernissen, die durch die Radarsensoreinheit 30 detektiert werden, können bspw. auf einer Karte des Roboters 1 bzw. in einer Tabelle mit Koordinaten solche Bereiche festgelegt werden, die jeweils einzeln durch den Roboter 1 mittels des Radarsensoreinheit 30 zu überwachen sind und die wiederum Teilbereiche oder Zonen beinhalten können, die anderen Überwachungsregeln unterliegen wie bspw. unterschiedlichen Schwellwerten für die Detektion von Anomalien, oder aber die unterschiedliche Konsequenzen im Fall einer Anomaliedetektion triggern.

  • D1. Computer-implementiertes Verfahren zum Triggern eines Verhaltens eines mobilen Roboters 1 in Abhängigkeit von mittels eines Radarsensoreinheit 30 detektierten Anomalien, umfassend
    • Bewegung des Roboters 1 auf einem Pfad 63,
    • • Erfassung von Objekten bzw. Hindernissen im Radar-Erfassungsbereich 59,
    • • Positions- und/oder zeitbezogene Auswertung der Erfassungsergebnisse,
    • • Vergleich Erfassungsergebnisse mit zuvor gespeicherten Erfassungsergebnissen und
    • • Ermittlung und Bewertung der Abweichung zwischen den Erfassungsergebnissen und den zuvor gespeicherten Erfassungsergebnissen.
  • D2. Computer-implementiertes Verfahren nach D1, weiter umfassend die Anpassung der Pfadplanung des Roboters 1.
  • D3. Computer-implementiertes Verfahren nach D1-D2, weiter umfassend das Auslösen eines Ereignisses durch den mobilen Roboter 1.
  • D4. Computer-implementiertes Verfahren nach D1-D3, wobei die Anomalien mit Positionen auf einer Karte (42, 43 und/oder 44) assoziiert sind.
  • D5. Computer-implementiertes Verfahren nach D1-D4, wobei die Erfassung von Objekten im Radar-Erfassungsbereich 59 die Detektion von Personen umfasst.
  • D6. Computer-implementiertes Verfahren nach D1 - D5, wobei die positions- und/oder zeitbezogene Auswertung der Erfassungsergebnisse basierend auf definierten Teilbereichen des von der Radarsensoreinheit 30 insgesamt erfassten Bereichs erfolgt und diese Teilbereiche einzeln ausgewertet werden.
  • D7. Computer-implementiertes Verfahren nach D1 - D6, wobei die positions- und/oder zeitbezogene Auswertung der Erfassungsergebnisse auf Basis einer Mehrebenenkarte des Roboters 1 erfolgt.
  • D8. Computer-implementiertes Verfahren nach D1-D7, weiter umfassend Speichern der Positions- und/oder zeitbezogene Auswertung der Erfassungsergebnisse in einer Positions- und Regeldatenbank 48.
  • D9. Computer-implementiertes Verfahren nach D1 - D8, wobei die Erfassungsergebnisse Vitalparameter einer Person umfassen.
  • D10. Computer-implementiertes Verfahren nach D1-D9, wobei der Radarsignal-Erfassungsbereich 59 im Wesentlichen senkrecht zum Betriebspfad 62 des Roboters 1 ausgerichtet ist.
  • D11. Computer-implementiertes Verfahren nach D1-D10, wobei genutzte Positionsdaten, die durch Auswertung von Radarsensordaten ermittelt wurden, durch mittels Laserscanner 10, Kamera 11, Ultraschallsensor und/oder Odometrieeinheit 23 ermittelte Daten normiert werden.
  • D12. Computer-implementiertes Verfahren nach D1-D11, wobei sich zwischen Roboter 1 und detektierter Person eine Wand 60 oder geschlossene Tür 52 befindet.
  • D13. Vorrichtung zur Durchführung des Verfahrens nach D1-D12.
With regard to the spatial or temporal-spatial position of objects or obstacles that are detected by the radar sensor unit 30, areas can be defined, for example on a map of the robot 1 or in a table with coordinates, which are each to be monitored individually by the robot 1 by means of the radar sensor unit 30 and which in turn can contain sub-areas or zones that are subject to other monitoring rules, such as different threshold values for the detection of anomalies, or which trigger different consequences in the event of an anomaly detection.
  • D1. Computer-implemented method for triggering a behavior of a mobile robot 1 depending on anomalies detected by a radar sensor unit 30, comprising
    • • Movement of robot 1 on a path 63,
    • • Detection of objects or obstacles in the radar detection range 59,
    • • Position and/or time-related evaluation of the recording results,
    • • Compare acquisition results with previously saved acquisition results and
    • • Determination and evaluation of the deviation between the acquisition results and the previously stored acquisition results.
  • D2. Computer-implemented method according to D1, further comprising adapting the path planning of the robot 1.
  • D3. Computer-implemented method according to D1-D2, further comprising triggering an event by the mobile robot 1.
  • D4. Computer-implemented method according to D1-D3, wherein the anomalies are associated with positions on a map (42, 43 and/or 44).
  • D5. Computer-implemented method according to D1-D4, wherein the detection of objects in the radar detection range 59 includes the detection of persons.
  • D6. Computer-implemented method according to D1 - D5, wherein the position- and/or time-related evaluation of the detection results is carried out based on defined sub-areas of the area detected by the radar sensor unit 30 as a whole and these sub-areas are evaluated individually.
  • D7. Computer-implemented method according to D1 - D6, wherein the position- and/or time-related evaluation of the detection results is carried out on the basis of a multi-level map of the robot 1.
  • D8. Computer-implemented method according to D1-D7, further comprising storing the position and/or time-related evaluation of the detection results in a position and rule database 48.
  • D9. Computer-implemented method according to D1 - D8, wherein the acquisition results comprise vital parameters of a person.
  • D10. Computer-implemented method according to D1-D9, wherein the radar signal detection area 59 is oriented substantially perpendicular to the operating path 62 of the robot 1.
  • D11. Computer-implemented method according to D1-D10, wherein used position data determined by evaluating radar sensor data are standardized by data determined by means of laser scanner 10, camera 11, ultrasonic sensor and/or odometry unit 23.
  • D12. Computer-implemented method according to D1-D11, wherein a wall 60 or closed door 52 is located between robot 1 and detected person.
  • D13. Device for carrying out the method according to D1-D12.

Beispiel 5: Adaptive Anpassung der Radar-Signalstärke zur optimierten VitalparametermessungExample 5: Adaptive adjustment of radar signal strength for optimized vital parameter measurement

In einem Aspekt kommt es auf eine vereinfachte Messung von Vitalparametern an, ohne notwendigerweise auf Referenzwerte für die Signalstärke in einer Tabelle zurückgreifen zu müssen, weil dies wiederum weitere Schritte zur Referenzwertermittlung außerhalb des eigentlichen Messverfahrens umfassen würde, bspw. im Rahmen einer Kalibrierung. Es wird daher auf ein Verfahren abgestellt, dass ohne solche Referenzwerte auskommt.In one aspect, it is important to simplify the measurement of vital parameters without necessarily having to resort to reference values for the signal strength in a table, because this would in turn involve further steps to determine the reference value outside of the actual measurement procedure, e.g. as part of a calibration. The focus is therefore on a procedure that does not require such reference values.

Dieses Verfahre basiert auf den Schritten 310-340, wie sie an anderer Stelle in diesem Dokument bereits geschildert wurden. Auf diesen Schritt folgt dann die Vitalparametermessung 380 (an anderer Stelle näher erläutert) und ein Abgleich der Vitalparameter-Messergebnisse (Schritt 375). Letzteres bedeutet ein Vergleich der ermittelten Erfassungswerte mit im Speicher 15 hinterlegten Messwerte mit Blick auf qualitative Gütekriterien der Erfassung. Ziel dieses Vergleichs ist es bspw., das Rauschen in den erfassten Daten zu reduzieren. Dazu werden die erfassten Daten mit im Speicher 15 hinterlegten Daten verglichen und es werden Abweichungen ermittelt. Liegen diese bspw. über einem Schwellwert, dann findet eine Anpassung der Signalstärke (Schritt 370) über den Verstärker 33 statt. Hierbei wird bspw. zunächst die Signalstärke erhöht, es findet dann erneut eine Vitalparameter-Messung (Schritt 380) statt und ein Abgleich der Vitalparameter-Messergebnisse (Schritt 375). Ergibt dieser letzte Schritt eine Verbesserung der Messergebnisse, erfolgt eine weitere Anpassung der Signalstärke (Schritt 370) in die gleiche Richtung, bis eine weitere Verbesserung der Messergebnisse in der Schleife (bzw. Regelkreis) aus den Schritten 380 - 375 - 370 zu keiner weiteren Verbesserung der Messung mehr führt. Es ist bspw. auch ein Absenken der Signalstärke im ersten Schritt umsetzbar mit einer sukzessiven Reduktion, bis irgendwann eine Erhöhung der Signalstärke ein besseres Messergebnis liefert. Im Schritt 385 findet eine Vitalparameter-Bewertung statt. Dies kann optional bspw. beinhalten, den besten Messwert aus den vorangegangenen Messungen zu nutzen oder den zweitbesten. Im Fall des besten Messwerts ist eine Abspeicherung der Messwerte im Zeitverlauf bspw. im Speicher 15 notwendig. Die Vitalparameter-Bewertung beinhaltet einen Abgleich (bspw. schwellwertbasiert) mit Daten aus der Positions- und Regeldatenbank 48, um bspw. kritische Vitalparameter zu identifizieren. Die Vitalparameter-Bewertung kann zudem auch eine Positions- und/oder zeitbezogene Auswertung der Erfassungsergebnisse umfassen. In einem Aspekt bedeutet das, die Auswertung des mindestens einen erfassten Vitalparameters wird im Zeitverlauf beurteilt, bspw. durch einen Vergleich mit zuvor abgelegten Vitalparametern, es findet eine Bewertung auf Basis der Position statt, die dem Vitaldatenparameter zugeordnet ist, oder eine Kombination daraus. Im Folgeschritt kann dann optional, bspw. dann, wenn ein kritischer Vitalparameter ermittelt wurde, eine Ereignisauslösung stattfinden (Schritt 160), wie an anderer Stelle definiert.This method is based on steps 310-340, as already described elsewhere in this document. This step is then followed by the vital parameter measurement 380 (explained in more detail elsewhere) and a comparison of the vital parameter measurement results (step 375). The latter means a comparison of the determined recording values with measured values stored in memory 15 with a view to qualitative quality criteria of the recording. The aim of this comparison is, for example, to reduce the noise in the recorded data. To do this, the recorded data is compared with data stored in memory 15 and deviations are determined. If these are, for example, above a threshold value, the signal strength is adjusted (step 370) via the amplifier 33. Here, for example, the signal strength is first increased, then another vital parameter measurement takes place (step 380) and a comparison of the vital parameter measurement results (step 375). If this last step results in an improvement in the measurement results, the signal strength is further adjusted (step 370) in the same direction until a further improvement in the measurement results in the loop (or control circuit) from steps 380 - 375 - 370 no longer leads to a further improvement in the measurement. For example, it is also possible to lower the signal strength in the first step and then gradually reduce it until at some point an increase in the signal strength produces a better measurement result. In step 385, a vital parameter evaluation takes place. This can optionally include, for example, using the best measurement value from the previous measurements or the second best. In the case of the best measurement value, the measurement values must be stored over time, for example in memory 15. The vital parameter evaluation includes a comparison (e.g. threshold-based) with data from the position and control database 48, for example to identify critical vital parameters. The vital parameter evaluation can also include a position- and/or time-related evaluation of the recording results. In one aspect, this means that the evaluation of the at least one recorded vital parameter is assessed over time, for example by comparing it with previously stored vital parameters, an evaluation is carried out on the basis of the position assigned to the vital data parameter, or a combination thereof. In the next step, an event can then optionally be triggered (step 160), as defined elsewhere, for example when a critical vital parameter has been determined.

Die oben beschriebene Signalauswertung selbst, bspw. zur Vitalparametererfassung im Vitaldatenerfassungsmodul 46, kann wie bspw. im Stand der Technik beschrieben erfolgen (DOI: 10.1155/2018/4832605): Auf Basis einer Bandpassfilterung des Signals (Schritt 381), werden lediglich Signale im Frequenzbereich durchgelassen, die der Frequenz des Signals entsprechen, das ausgewertet werden soll, bspw. bei der Herzfrequenz einer Frequenz von 1-3 Hz. Im Schritt 382 erfolgt bspw. eine Dimensionsreduktion der erfassten Zeitreihendaten, um die dahinter liegenden Muster zu erfassen, in einem Aspekt mit einer Principal-Component-Analyse (PCA). Bspw. Mittels Fast-Fourier-Transformation lässt sich anschließend die dominante Frequenz ermitteln (Schritt 383) und mittels Filterung wie einer Tiefpassfilterung (Schritt 384) bspw. Ausreißer glätten. Der Zeitverlauf dieser Messergebnisse gibt damit bspw. die Rate des gemessenen Vitalparameters an (invers dann dessen Frequenz). Es können jedoch auch adaptive moving target indentification Filter eingesetzt werden.The signal evaluation itself described above, e.g. for vital parameter recording in the vital data recording module 46, can be carried out as described in the prior art (DOI: 10.1155/2018/4832605): Based on a bandpass filtering of the signal (step 381), only signals in the frequency range that correspond to the frequency of the signal to be evaluated are allowed through, e.g. at the heart rate of a frequency of 1-3 Hz. In step 382, for example, a dimension reduction of the recorded time series data takes place in order to capture the underlying patterns, in one aspect with a principal component analysis (PCA). For example, the dominant frequency can then be determined using fast Fourier transformation (step 383) and outliers can be smoothed out using filtering such as low-pass filtering (step 384). The time course of these measurement results indicates, for example, the rate of the measured vital parameter (and inversely its frequency). However, adaptive moving target identification filters can also be used.

Zusammengefasst lässt sich der Ablauf wie folgt darstellen:

  • E1. Computer-implementiertes Verfahren zur Erfassung von mindestens einem Vitalparameter durch einen mobilen Roboter 1, umfassend
    • Bewegung des Roboters 1 auf einem Pfad 62,
    • • Ermittlung der aktuellen Position des Roboters 1,
    • • Erfassung von Objekten bzw. Hindernissen im Radar-Erfassungsbereich,
    • • Detektion von Personen im Radar-Erfassungsbereich,
    • • Erfassung von Vitalparametern einer detektierten Person im Radar-Erfassungsbereich.
    • • Abgleich der Vitalparameter-Messergebnisse und Anpassung der Signalstärke in Abhängigkeit vom Abgleich der Vitalparameter-Messergebnisse und
    • • Durchführung einer Vitalparameter-Bewertung.
  • E2. Computer-implementiertes Verfahren nach E1, wobei die Anpassung der Signalstärke so lange vorgenommen wird, bis sich die gemessenen Vitalparameter nach einer Anpassung der Signalstärke qualitativ verschlechtern.
  • E3. Computer-implementiertes Verfahren nach E1-E2, weiter umfassend eine Vitalparameter-Bewertung.
  • E4. Computer-implementiertes Verfahren nach E1-E3, weiter umfassend das Auslösen eines Ereignisses eine Signalübermittlung in die Cloud 4 oder an ein Terminal 5 umfasst.
  • E5. Computer-implementiertes Verfahren nach E1-E4, wobei das Auslösen eines Ereignisses eine Benachrichtigung eines Terminals umfasst.
  • E6. Computer-implementiertes Verfahren nach E3, wobei die Vitalparameter-Bewertung eine Positions- und/oder zeitbezogene Auswertung der Erfassungsergebnisse umfasst.
  • E7. Computer-implementiertes Verfahren nach E1-D6, weiter umfassend eine Lokalisierung der Personenposition.
  • E8. Computer-implementiertes Verfahren nach E7, weiter umfassend ein Vergleich der Objektposition mit im Speicher 15 hinterlegten Objektpositionen und/oder Objektzonen.
  • E9. Computer-implementiertes Verfahren nach E1-E8, wobei die Vitalparameter für eine Person an einer lokalisierten Position erfasst werden.
  • E10. Computer-implementiertes Verfahren nach E1-E9, wobei die Signalauswertung erfasster Radarsignale einen Vergleich mit Mustern darstellt.
  • E11. Computer-implementiertes Verfahren nach E7, wobei genutzte Positionsdaten, die durch Auswertung von Radarsensordaten ermittelt wurden, durch mittels Laserscanner 10, Kamera 11, Ultraschallsensor und/oder Odometrieeinheit 23 ermittelten Daten normiert werden.
  • E12. Vorrichtung zur Durchführung des Verfahrens nach E1-E11.
In summary, the process can be described as follows:
  • E1. Computer-implemented method for detecting at least one vital parameter by a mobile robot 1, comprising
    • • Movement of robot 1 on a path 62,
    • • Determination of the current position of robot 1,
    • • Detection of objects or obstacles in the radar detection area,
    • • Detection of persons in the radar detection area,
    • • Recording of vital parameters of a detected person in the radar detection area.
    • • Comparison of the vital parameter measurement results and adjustment of the signal strength depending on the comparison of the vital parameter measurement results and
    • • Conduct a vital sign assessment.
  • E2. Computer-implemented method according to E1, wherein the adjustment of the signal strength is carried out until the measured vital parameters deteriorate qualitatively after an adjustment of the signal strength.
  • E3. Computer-implemented procedure according to E1-E2, further comprising a vital parameter assessment.
  • E4. Computer-implemented method according to E1-E3, further comprising the triggering of an event comprises a signal transmission to the cloud 4 or to a terminal 5.
  • E5. The computer-implemented method of E1-E4, wherein triggering an event comprises notifying a terminal.
  • E6. Computer-implemented method according to E3, wherein the vital parameter evaluation comprises a position- and/or time-related evaluation of the acquisition results.
  • E7. Computer-implemented method according to E1-D6, further comprising localizing the person's position.
  • E8. Computer-implemented method according to E7, further comprising a comparison of the object position with object positions and/or object zones stored in the memory 15.
  • E9. Computer-implemented method according to E1-E8, wherein the vital parameters for a person are recorded at a localized position.
  • E10. Computer-implemented method according to E1-E9, wherein the signal evaluation of detected radar signals represents a comparison with patterns.
  • E11. Computer-implemented method according to E7, wherein used position data determined by evaluating radar sensor data are standardized by data determined by means of laser scanner 10, camera 11, ultrasonic sensor and/or odometry unit 23.
  • E12. Device for carrying out the method according to E1-E11.

Beispiel 6: Bewegungsanpassung Roboter zur Vermeidung hoher SignaldämpfungenExample 6: Robot movement adjustment to avoid high signal attenuation

In einem Aspekt weisen die Wände 61, durch die die Erfassung von Objekten und/oder Vitalparametern erfolgt, eine hohe Signaldämpfung auf. Um diese Effekte abzumildern, absolviert der Roboter 1 bestimmte Bewegungen und nimmt Positionen ein, um eine geringere Signaldämpfung und damit eine gesteigerte Erfassungsqualität zu erreichen.In one aspect, the walls 61 through which the detection of objects and/or vital parameters takes place have a high signal attenuation. To mitigate these effects, the robot 1 performs certain movements and assumes positions in order to achieve a lower signal attenuation and thus an increased detection quality.

Das Entlangbewegen des Roboters 1 auf einem Pfad (Schritt 310) kann in einem Aspekt wie folgt ablaufen (siehe 13): Während der Roboter einem Betriebspfad 63 folgt (Schritt 110 bzw. 310) unter Kenntnis seiner jeweiligen Position, nimmt der Roboter 1 mindestens eine Abtastposition ein (Schritt 510). Unter einer Abtastposition wird in einem Aspekt eine fixe Position des Roboters 1 (definiert durch ein Areal) verstanden, die bspw. auf einer Karte (42, 44) des Roboters 1 hinterlegt ist und sich in einem definierten Abstand von einer Tür 52 befindet die bspw. in einem Speicher 15 hinterlegt ist. Der Roboter führt an der Abtastposition mittels der Radarsensoreinheit 30 eine Erfassung von Objekten und/oder Vitalparametern vor. Der definierte Abstand zur Tür 52 beträgt in einem Aspekt weniger als 1m, bspw. weniger als 80 cm, in einem weiteren präferierten Aspekt weniger als 30 cm. Sofern die Abtastposition nicht auf der Karte (42, 44) hinterlegt ist, kann sie durch den Roboter 1 durch hinterlegte Regeln beim Abfahren des Betriebspfads 63 durch Abgleich hinterlegter Muster an von einem Laserscanner 10, einer Kamera 11 oder einem Radarsensor detektierten Mustern an (stationären) Hindernissen detektiert werden.Moving the robot 1 along a path (step 310) can, in one aspect, proceed as follows (see 13 ): While the robot follows an operating path 63 (step 110 or 310) with knowledge of its respective position, the robot 1 assumes at least one scanning position (step 510). In one aspect, a scanning position is understood to be a fixed position of the robot 1 (defined by an area), which is stored, for example, on a map (42, 44) of the robot 1 and is located at a defined distance from a door 52, which is stored, for example, in a memory 15. At the scanning position, the robot uses the radar sensor unit 30 to detect objects and/or vital parameters. In one aspect, the defined distance to the door 52 is less than 1 m, for example less than 80 cm, and in another preferred aspect less than 30 cm. If the scanning position is not stored on the map (42, 44), it can be detected by the robot 1 using stored rules when traveling along the operating path 63 by comparing stored patterns with patterns on (stationary) obstacles detected by a laser scanner 10, a camera 11 or a radar sensor.

Im Schritt 520 absolviert der Roboter 1 an der Abtastposition, insbesondere wenn es sich um einen fixen Punkt handelt und nicht um eine Serie von Punkten, eine Rotationsbewegung durch, die bspw. um eine senkrechte Achse herum erfolgt. Hierbei erfolgt die Rotation entweder zunächst in eine Richtung. Dabei dreht sich der Roboter um einen Winkel, der mindestens 20° beträgt, in einem Aspekt mindestens 45°. In einem alternativen Aspekt erfolgt eine Drehbewegung des Roboters 1 um eine Achse (die nicht notwendigerweise eine Achse sein muss, die durch den Roboter 1 verläuft). Sofern der Roboter 1 keine (mindestens nahezu vollständige) Drehung um eine Achse vorgenommen hat, findet eine gegenläufige Drehbewegung des Roboters 1 statt (optionaler Schritt 530).In step 520, the robot 1 performs a rotational movement at the scanning position, particularly if it is a fixed point and not a series of points, which takes place, for example, around a vertical axis. The rotation either initially takes place in one direction. The robot rotates through an angle of at least 20°, in one aspect at least 45°. In an alternative aspect, the robot 1 rotates around an axis (which does not necessarily have to be an axis that runs through the robot 1). If the robot 1 has not performed a (at least almost complete) rotation around an axis, the robot 1 rotates in the opposite direction (optional step 530).

Das Einnehmen einer Abtastposition kann in einem Aspekt bei einem Roboter 1, der in der Lage ist zum rotationssymmetrischen Drehen, eine Drehbewegung auf einem Punkt umfassen. Sofern die Radanordnung des Roboters 1 bspw. keine solche Drehbewegung zulässt, kann es sich um eine Drehbewegung um eine Achse handeln, die außerhalb des Roboters 1 liegt. In einem weiteren Aspekt umfasst die Abfolge der Schritte 510-530 ein Szenario, in dem der Roboter 1 beim Annähern an eine Tür 52 im Gang sich parallel zu Wänden 61 bewegt, eine Drehbewegung hin zur Tür 52, gefolgt vom Abfahren eines konvexen Betriebspfads 63 vor der Tür 52 (also das Abfahren eines Bogens mit einer Krümmung weg von der Tür) wieder senkrecht von der Tür weg, mit dem definierten Abstand des Roboters 1 zur Tür in einem Bereich, der bspw. in etwa in der Türmitte liegt.In one aspect, assuming a scanning position can comprise a rotational movement at a point for a robot 1 that is capable of rotationally symmetrical rotation. If, for example, the wheel arrangement of the robot 1 does not permit such a rotational movement, it can be a rotational movement about an axis that lies outside the robot 1. In a further aspect, the sequence of steps 510-530 comprises a scenario in which the robot 1, when approaching a door 52 in the corridor, moves parallel to walls 61, a rotational movement towards the door 52, followed by traveling along a convex operating path 63 in front of the door 52 (i.e. traveling along an arc with a curvature away from the door) again perpendicularly away from the door, with the defined distance of the robot 1 from the door in an area that is, for example, approximately in the middle of the door.

Zusammengefasst ist lässt sich der hier beschriebene Ablauf, der sich auch mit den Abläufen aus den vorangenannten Beispielen kombinierbar ist, wie folgt darstellen:

  • F1. Computer-implementiertes Verfahren zur Steuerung eines Roboters 1, umfassend
    • Bewegung des Roboters 1 auf einem Pfad,
    • • Ermittlung der aktuellen Position des Roboters 1,
    • • Einnehmen einer Abtastposition,
    • • Durchführung einer Drehbewegung,
    wobei an der Abtastposition eine Erfassung von Objekten und/oder Vitalparametern durch eine Radarsensoreinheit 30 des Roboters 1 erfolgt.
  • F2. Computer-implementiertes Verfahren nach F1, wobei die Ermittlung der Abtastposition aus einer Karte (42, 44) oder über eine Erfassung und Auswertung von Mustern erfolgt.
  • F3. Computer-implementiertes Verfahren nach F1 - 2, wobei die Abtastposition einen definierten Abstand zu einer Tür 52 aufweist.
  • F4. Computer-implementiertes Verfahren nach F1 - 3, wobei der Winkel der Drehbewegung mindestens 20° umfasst.
  • F5. Computer-implementiertes Verfahren nach F1 - 4, wobei die Drehbewegung eine Drehbewegung um eine rotationssymmetrische Achse des Roboters 1 umfasst.
  • F6. Computer-implementiertes Verfahren nach F1 - 5, wobei die Drehbewegung eine Rotation in eine Richtung, gefolgt von einer Rotation in eine andere Richtung umfasst.
  • F7. Computer-implementiertes Verfahren nach F1 - 6, wobei sich der Roboter 1 beim Annähern an eine Tür 52 sich parallel zu Wänden 61 bewegt, eine Drehbewegung hin zu einer Tür 52 vornimmt, gefolgt vom Abfahren eines konvexen Pfads 63 vor der Tür 52.
  • F8. Computer-implementiertes Verfahren nach F7, wobei der minimale Abstand des konvexen Pfads zur Tür dem definierten Abstand zur Tür 52 entspricht.
  • F9. Vorrichtung zur Durchführung des Verfahrens nach F1-F8.
In summary, the process described here, which can also be combined with the processes from the previous examples, can be represented as follows:
  • F1. Computer-implemented method for controlling a robot 1, comprising
    • • Movement of robot 1 on a path,
    • • Determination of the current position of robot 1,
    • • Taking a scanning position,
    • • Performing a rotary movement,
    wherein objects and/or vital parameters are detected at the scanning position by a radar sensor unit 30 of the robot 1.
  • F2. Computer-implemented method according to F1, wherein the determination of the scanning position is carried out from a map (42, 44) or by detecting and evaluating patterns.
  • F3. Computer-implemented method according to F1 - 2, wherein the scanning position has a defined distance to a door 52.
  • F4. Computer-implemented method according to F1 - 3, wherein the angle of the rotational movement comprises at least 20°.
  • F5. Computer-implemented method according to F1 - 4, wherein the rotational movement comprises a rotational movement about a rotationally symmetric axis of the robot 1.
  • F6. Computer-implemented method according to F1 - 5, wherein the rotational movement comprises a rotation in one direction followed by a rotation in another direction.
  • F7. Computer-implemented method according to F1 - 6, wherein the robot 1 moves parallel to walls 61 when approaching a door 52, makes a rotational movement towards a door 52, followed by traveling along a convex path 63 in front of the door 52.
  • F8. Computer-implemented method according to F7, wherein the minimum distance of the convex path to the door corresponds to the defined distance to the door 52.
  • F9. Device for carrying out the method according to F1-F8.

BezugsbezeichnungenReference designations

11
Roboterrobot
22
mobile Basismobile base
33
AufbauConstruction
44
CloudCloud
55
Terminalterminal
1010
LaserscannerLaser scanner
1111
Kameracamera
1212
Akkumulatoraccumulator
1313
LadevorrichtungCharging device
1414
RechnereinheitComputer unit
1515
SpeicherStorage
1616
DrahtlosschnittstelleWireless interface
1717
SicherheitssteuerungSafety control
1818
SchutzkontaktleisteProtective contact strip
2020
Antriebsraddrive wheel
2121
AntriebsmotorDrive motor
2222
Abdeckungcover
2323
OdometrieeinheitOdometry unit
2424
StützradSupport wheel
3030
RadarsensoreinheitRadar sensor unit
3131
RadarsensorRadar sensor
3232
RadarantenneRadar antenna
3333
Verstärkeramplifier
4040
PfadplanungPath planning
4141
KartenmodulMap module
4242
erste Kartefirst card
4343
zweite Kartesecond card
4444
dritte Kartethird card
4545
PersonenpositionsermittlungsmodulPerson position determination module
4646
VitaldatenerfassungsmodulVital data recording module
4747
Obj ektpositions-ErmittlungsmodulObject position detection module
4848
Positions- und RegeldatenbankPosition and rule database
4949
Objektidentifizierungs-DatenbankObject identification database
5050
Gangcorridor
5151
geöffnete Türopen door
5252
geschlossene Türclosed door
5353
RaumSpace
5454
BettBed
5555
ExplorationspfadExploration path
5656
Person im BettPerson in bed
57, 5857, 58
Person außerhalb vom BettPerson out of bed
5959
Radarsignal-ErfassungsbereichRadar signal detection range
6060
WandWall
6161
rückseitige Raumwandrear room wall
6262
Erfassungsbereich LaserscannerLaser scanner detection range
6363
BetriebspfadOperational path

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA accepts no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • JP 2019016339 A [0002]JP 2019016339 A [0002]
  • CN 113715032 A [0004]CN113715032A [0004]
  • WO 2005074422 A2 [0004]WO 2005074422 A2 [0004]
  • DE 102020006337 A1 [0023]DE 102020006337 A1 [0023]
  • EP 2100153 A1 [0027, 0047]EP 2100153 A1 [0027, 0047]
  • WO 2021038109 A1 [0030]WO 2021038109 A1 [0030]
  • WO 2021254975 A1 [0034]WO 2021254975 A1 [0034]

Zitierte Nicht-PatentliteraturCited non-patent literature

  • Wang, Borui, et al. „Imitation learning for human pose prediction.“ Proceedings of the IEEE/CVF International Conference on Computer Vision. 2019, welche jedoch Skelettdaten nutzen, um Körperposen zu klassifizieren, während hier Radarsignale genutzt werden). Beim Klassifizierungsverfahren kann es sich um Action Recognition handeln (siehe z.B. Sun et al. 2022, DOI: 10.1109/TPAMI.2022.3183112 [0029]Wang, Borui, et al. "Imitation learning for human pose prediction." Proceedings of the IEEE/CVF International Conference on Computer Vision. 2019, which, however, use skeletal data to classify body poses, whereas radar signals are used here). The classification method can be action recognition (see e.g. Sun et al. 2022, DOI: 10.1109/TPAMI.2022.3183112 [0029]
  • Wang, Mingyang, Yimin D. Zhang, and Guolong Cui. „Human motion recognition exploiting radar with stacked recurrent neural network.“ Digital Signal Processing 87 (2019): 125-131) [0029]Wang, Mingyang, Yimin D. Zhang, and Guolong Cui. “Human motion recognition exploiting radar with stacked recurrent neural network.” Digital Signal Processing 87 (2019): 125-131) [0029]
  • Maleševic et al. (2020, DOI:10.3390/s20082351) [0030]Maleševic et al. (2020, DOI:10.3390/s20082351) [0030]
  • Li, M., et al. 2018, High Resolution Radar-based Occupancy Grid Mapping and Free Space Detection., In Proceedings of the 4th International Conference on Vehicle Technology and Intelligent Transport Systems (VEHITS 2018), pages 70-81, ISBN: 978-989-758-293-6) [0035]Li, M., et al. 2018, High Resolution Radar-based Occupancy Grid Mapping and Free Space Detection., In Proceedings of the 4th International Conference on Vehicle Technology and Intelligent Transport Systems (VEHITS 2018), pages 70-81, ISBN: 978-989-758-293- 6) [0035]

Claims (18)

Computer-implementiertes Verfahren zur Überwachung einer Fläche durch einen mobilen Roboter 1, umfassend • Abfahren eines Pfads, • Erfassung einer zu überwachenden Fläche mittels mindestens einer Radarsensoreinheit (30), • Signalauswertung erfasster Radarsignale und • Auslösen eines Ereignisses, wobei die Erfassung der zu überwachenden Fläche durch eine Wand (60) und/oder geschlossene Tür (52) hindurch erfolgt.Computer-implemented method for monitoring an area by a mobile robot 1, comprising • traveling along a path, • detecting an area to be monitored by means of at least one radar sensor unit (30), • evaluating detected radar signals and • triggering an event, wherein the detection of the area to be monitored takes place through a wall (60) and/or closed door (52). Computer-implementiertes Verfahren nach Anspruch 1, wobei die Erfassung der zu überwachenden Fläche in etwa senkrecht zur Fahrtrichtung des Roboters 1 erfolgt.Computer-implemented method according to Claim 1 , whereby the detection of the area to be monitored takes place approximately perpendicular to the direction of travel of the robot 1. Computer-implementiertes Verfahren nach Anspruch 1-2, wobei die Signalauswertung die Identifikation von Objekten inkl. Personen umfasst.Computer-implemented method according to Claim 1 - 2 , whereby the signal evaluation includes the identification of objects including persons. Computer-implementiertes Verfahren nach Anspruch 3, wobei die Signalauswertung weiter eine Differenzierung in bewegliche und unbewegliche Objekte umfasst.Computer-implemented method according to Claim 3 , whereby the signal evaluation further includes a differentiation between moving and immobile objects. Computer-implementiertes Verfahren nach Anspruch 1-4, wobei die Signalauswertung eine Ermittlung von mindestens einem Vitalparameter umfasst.Computer-implemented method according to Claim 1 - 4 , wherein the signal evaluation comprises a determination of at least one vital parameter. Computer-implementiertes Verfahren nach Anspruch 3, weiter umfassend eine Lokalisierung der Objektposition.Computer-implemented method according to Claim 3 , further comprising a localization of the object position. Computer-implementiertes Verfahren nach Anspruch 3-6, weiter umfassend ein Vergleich der Objektposition mit im Speicher (15) hinterlegten Objektpositionen und/oder Objektzonen.Computer-implemented method according to Claim 3 - 6 , further comprising a comparison of the object position with object positions and/or object zones stored in the memory (15). Computer-implementiertes Verfahren nach Anspruch 7, wobei die im Speicher (15) hinterlegten Objektzonen verbotene Zonen sein können.Computer-implemented method according to Claim 7 , whereby the object zones stored in the memory (15) can be prohibited zones. Computer-implementiertes Verfahren nach Anspruch 5, weiter umfassend der Vergleich ermittelter Vitalparameter mit hinterlegten Vitalparametern und/oder eine Vitalparameterbewertung.Computer-implemented method according to Claim 5 , further comprising the comparison of determined vital parameters with stored vital parameters and/or a vital parameter evaluation. Computer-implementiertes Verfahren nach Anspruch 1-9, wobei das Auslösen eines Ereignisses eine Signalübermittlung in die Cloud (4) oder an ein Terminal (5) umfasst.Computer-implemented method according to Claim 1 - 9 , wherein the triggering of an event comprises a signal transmission to the cloud (4) or to a terminal (5). Computer-implementiertes Verfahren nach Anspruch 5, wobei die Vitalparameter für eine Person an einer lokalisierten Position erfasst werden.Computer-implemented method according to Claim 5 , where vital parameters for a person are recorded at a localized position. Computer-implementiertes Verfahren nach Anspruch 1, wobei die Signalauswertung erfasster Radarsignale einen Vergleich mit Mustern darstellt.Computer-implemented method according to Claim 1 , whereby the signal evaluation of detected radar signals represents a comparison with patterns. Computer-implementiertes Verfahren nach Anspruch 1-12, wobei für die Signalauswertung ein Klassifikator genutzt wird, der mittels Imitation Learning erstellt wurde oder der Action Recognition nutzt.Computer-implemented method according to Claim 1 - 12 , whereby a classifier created using imitation learning or action recognition is used for signal evaluation. Computer-implementiertes Verfahren nach Anspruch 6, wobei genutzte Positionsdaten, die durch Auswertung von Radarsensordaten ermittelt wurden, durch mittels Laserscanner 10, Kamera 11, Ultraschallsensor und/oder Odometrieeinheit 23 ermittelten Daten normiert werden.Computer-implemented method according to Claim 6 , wherein used position data, which were determined by evaluating radar sensor data, are standardized by data determined by means of laser scanner 10, camera 11, ultrasonic sensor and/or odometry unit 23. Computer-implementiertes Verfahren nach Anspruch 3 oder 6, weiter umfassend die Aktualisierung der Karte (42) des Roboters (1) durch Übernahme der mittels Radarsensoreinheit (30) detektierten Hindernisse.Computer-implemented method according to Claim 3 or 6 , further comprising updating the map (42) of the robot (1) by incorporating the obstacles detected by means of the radar sensor unit (30). Computer-implementiertes Verfahren nach Anspruch 1, wobei der Roboter 1 eine Abtastposition vor einer Tür 52 in einem definierten Abstand einnimmt und eine Rotationsbewegung durchführt.Computer-implemented method according to Claim 1 , wherein the robot 1 takes a scanning position in front of a door 52 at a defined distance and performs a rotational movement. Computer-implementiertes Verfahren nach Anspruch 1, wobei der Roboter 1 sich entlang eines konvexen Pfads vor einer Tür 52 bewegt und dabei einen definierten Mindestabstand zur Tür 52 einhält.Computer-implemented method according to Claim 1 , wherein the robot 1 moves along a convex path in front of a door 52 while maintaining a defined minimum distance from the door 52. Vorrichtung zur Durchführung des Verfahrens nach Anspruch 1-17.Device for carrying out the method according to Claim 1 - 17 .
DE102022128864.1A 2022-10-31 2022-10-31 Object localization by a mobile robot Pending DE102022128864A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022128864.1A DE102022128864A1 (en) 2022-10-31 2022-10-31 Object localization by a mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022128864.1A DE102022128864A1 (en) 2022-10-31 2022-10-31 Object localization by a mobile robot

Publications (1)

Publication Number Publication Date
DE102022128864A1 true DE102022128864A1 (en) 2024-05-02

Family

ID=90628995

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022128864.1A Pending DE102022128864A1 (en) 2022-10-31 2022-10-31 Object localization by a mobile robot

Country Status (1)

Country Link
DE (1) DE102022128864A1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005074422A2 (en) 2004-01-20 2005-08-18 Bae Systems Information And Electronic System Integration Inc. Combined radar and communications link
EP2100153A1 (en) 2007-01-24 2009-09-16 Raytheon Company Intelligent biometric radar system
JP2019016339A (en) 2017-07-03 2019-01-31 株式会社高山商事 Monitoring system
WO2021038109A1 (en) 2019-08-30 2021-03-04 Metralabs Gmbh Neue Technologien Und Systeme System for capturing sequences of movements and/or vital parameters of a person
DE102020006337A1 (en) 2019-10-09 2021-04-15 Metralabs Gmbh Neue Technologien Und Systeme Autonomous industrial truck
CN113715032A (en) 2021-05-07 2021-11-30 南京理工大学 Mobile partition wall reconnaissance robot device
WO2021254975A1 (en) 2020-06-19 2021-12-23 Metralabs Gmbh Neue Technologien Und Systeme Method of operating a mobile device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005074422A2 (en) 2004-01-20 2005-08-18 Bae Systems Information And Electronic System Integration Inc. Combined radar and communications link
EP2100153A1 (en) 2007-01-24 2009-09-16 Raytheon Company Intelligent biometric radar system
JP2019016339A (en) 2017-07-03 2019-01-31 株式会社高山商事 Monitoring system
WO2021038109A1 (en) 2019-08-30 2021-03-04 Metralabs Gmbh Neue Technologien Und Systeme System for capturing sequences of movements and/or vital parameters of a person
DE102020006337A1 (en) 2019-10-09 2021-04-15 Metralabs Gmbh Neue Technologien Und Systeme Autonomous industrial truck
WO2021254975A1 (en) 2020-06-19 2021-12-23 Metralabs Gmbh Neue Technologien Und Systeme Method of operating a mobile device
CN113715032A (en) 2021-05-07 2021-11-30 南京理工大学 Mobile partition wall reconnaissance robot device

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
FALCONER, D., FICKLIN, R., KONOLIGE, K.: Detection, location, and identification of building occupants using a robot-mounted through-wall radar. In: International Conference on Robotics and Automation (ICRA), 2000. S. 1868–1875. - ISBN 0-7803-5886-4
Li, M., et al. 2018, High Resolution Radar-based Occupancy Grid Mapping and Free Space Detection., In Proceedings of the 4th International Conference on Vehicle Technology and Intelligent Transport Systems (VEHITS 2018), pages 70-81, ISBN: 978-989-758-293-6)
Maleševic et al. (2020, DOI:10.3390/s20082351)
Wang, Borui, et al. „Imitation learning for human pose prediction." Proceedings of the IEEE/CVF International Conference on Computer Vision. 2019, welche jedoch Skelettdaten nutzen, um Körperposen zu klassifizieren, während hier Radarsignale genutzt werden). Beim Klassifizierungsverfahren kann es sich um Action Recognition handeln (siehe z.B. Sun et al. 2022, DOI: 10.1109/TPAMI.2022.3183112
Wang, Mingyang, Yimin D. Zhang, and Guolong Cui. „Human motion recognition exploiting radar with stacked recurrent neural network." Digital Signal Processing 87 (2019): 125-131)

Similar Documents

Publication Publication Date Title
DE112010003000B4 (en) Vision system for monitoring people in dynamic environments
DE102014106210B4 (en) Probabilistic person tracking using the Multi-View Association
EP1475764B1 (en) Method and apparatus for calculating the probability of a collision between a vehicle and an object
DE102014106211A1 (en) Vision-based multi-camera factory monitoring with dynamic integrity assessment
EP1418444B1 (en) Method for determining the yaw rate of a vehicle
DE102015104954A1 (en) Vision-based monitoring system for the validation of activity sequences
DE102017102506B4 (en) METHOD FOR DETECTING OTHER VEHICLES RELATIVE TO A CARRIER VEHICLE USING WHEEL DETECTION
EP1531342B1 (en) Method of detecting pedestrians
EP3782117A1 (en) Method, device and computer-readable storage medium having instructions for processing sensor data
EP3526624A1 (en) Automated open space identification by means of difference analysis for vehicles
DE102009034848A1 (en) Optoelectronic sensor
DE102019115611A1 (en) OBJECT TRACKING IN THE DEAD ANGLE
WO2022247994A1 (en) System for sensor data fusion for environmental perception
EP2215496A1 (en) Method for detecting living beings
EP3663881B1 (en) Method for controlling an autonomous vehicle on the basis of estimated movement vectors
DE102022128864A1 (en) Object localization by a mobile robot
DE102022128862A1 (en) Object localization by a mobile robot
DE102023123138A1 (en) Object localization by a mobile robot
EP2749982A2 (en) Generation and updating of reference models
DE102020116225B3 (en) Method for radar-based tracking of objects external to the vehicle, object tracking device and motor vehicle
DE60303577T2 (en) Method for monitoring the environment of a vehicle
EP3663800B1 (en) Method for detecting objects using a 3d camera
DE102019104245A1 (en) Method and system for modeling a radar detection of an environment of a vehicle
EP4105103A1 (en) Self-adjusting environment detecting device for railway vehicles
DE102017220506A1 (en) Method and device for estimating a maritime traffic condition

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R086 Non-binding declaration of licensing interest
R016 Response to examination communication