WO2021038109A1 - System zur erfassung von bewegungsabläufen und/oder vitalparametern einer person - Google Patents

System zur erfassung von bewegungsabläufen und/oder vitalparametern einer person Download PDF

Info

Publication number
WO2021038109A1
WO2021038109A1 PCT/EP2020/074240 EP2020074240W WO2021038109A1 WO 2021038109 A1 WO2021038109 A1 WO 2021038109A1 EP 2020074240 W EP2020074240 W EP 2020074240W WO 2021038109 A1 WO2021038109 A1 WO 2021038109A1
Authority
WO
WIPO (PCT)
Prior art keywords
person
service robot
detection
module
patient
Prior art date
Application number
PCT/EP2020/074240
Other languages
English (en)
French (fr)
Other versions
WO2021038109A9 (de
Inventor
Christian STERNITZKE
Anke Mayfarth
Original Assignee
Metralabs Gmbh Neue Technologien Und Systeme
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Metralabs Gmbh Neue Technologien Und Systeme filed Critical Metralabs Gmbh Neue Technologien Und Systeme
Priority to US17/639,254 priority Critical patent/US20220331028A1/en
Priority to CN202080076764.2A priority patent/CN114980810A/zh
Priority to EP20764658.9A priority patent/EP4003164A1/de
Priority to DE112020004118.2T priority patent/DE112020004118A5/de
Publication of WO2021038109A1 publication Critical patent/WO2021038109A1/de
Publication of WO2021038109A9 publication Critical patent/WO2021038109A9/de

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1176Recognition of faces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/32Surgical robots operating autonomously
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • A61B5/1117Fall detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/112Gait analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • A61B5/1122Determining geometric values, e.g. centre of rotation or angular range of movement of movement trajectories
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/70Means for positioning the patient in relation to the detecting, measuring or recording means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/08Elderly
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/07Home care
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/002Monitoring the patient using a local or closed circuit, e.g. in a room or building
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • A61B5/02055Simultaneously evaluating both cardiovascular condition and temperature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4845Toxicology, e.g. by detection of alcohol, drug or toxic products

Definitions

  • the invention comprises a service robot for the automated implementation of geriatric tests.
  • the health system suffers from a significant shortage of skilled workers.
  • This shortage of skilled workers means that there is less and less time to treat patients.
  • This lack of time not only leads to dissatisfaction on the part of both patients and medical staff, but can also lead to diseases not being adequately treated, which not only causes patient suffering but also reduces the value added of an economy.
  • These effects go hand in hand with the fact that the need to document the patient's condition continues to increase in order to have to defend oneself from a medical point of view against claims for damages that can be attributed to inadequate therapies.
  • This documentation requirement can in some cases lead to a self-reinforcing effect.
  • the service robot described in this document addresses this problem in that the service robot independently carries out geriatric tests, which are currently being performed by medical personnel, using several sensors. This service robot is also able to precisely document the completed exercises, which means that the health facility of the service robot is able to comply with the relevant documentation requirements and other compliance obligations without having to separately deploy personnel. Another effect is that the use of the Service robot standardizes the assessment of the tests, because currently the assessment of a patient is subject to the experience of the medical staff, who in turn differ from other medical staff by their individual experience. This means that different evaluations are possible for the same exercise when assessments by medical staff are made, while a uniform assessment is made when the service robot is used.
  • the service robot can, for example, collect the Barthel index, can carry out the so-called "Timed-up and Go" test and / or the mini-mental test with different characteristics, is the In one aspect, the service robot is also configured in such a way that the service robot can alternatively and additionally address other tasks in a clinic. This includes, for example, spectrometric examinations, with which various substances in or on a person's skin can be analyzed. These analyzes can be used, for example, to determine the delirium detection score.
  • the service robot is also configured to perform delirium detection and / or delirium monitoring.
  • the service robot can, in one aspect, determine possible attention disorders of the patient on the basis of the recognition of a sequence of acoustic signals.
  • the service robot can evaluate cognitive abilities based on image recognition and / or cognitive abilities via the implementation in motor skills, for example by counting fingers that the patient shows in response to a primarily visual request from the service robot .
  • the service robot is able to determine the pain status of a person. This can be done by means of emotion recognition, detection of the movements of the upper extremities, and / or pain vocalization of ventilated and / or non-ventilated patients.
  • the service robot can, in one aspect, determine the blood pressure of a patient, their breathing frequency, and use this information, apart from original diagnostic and / or therapeutic purposes, also to control their own hardware and software components.
  • the service robot is configured so that the service robot
  • Service robots can also check whether users are under mental and / or physical
  • the service robot can adapt its signal processing quality, but also the signal output, to environmental influences.
  • the use of the service robot offers a significant relief of the medical staff, which this medical staff has to perform sometimes time-consuming and sometimes monotonous work that has no direct impact on the health of a patient and thus prevents the staff from implementing measures that immediately improve a person's health.
  • CN108422427 describes a rehabilitation robot that is able to serve food on trays.
  • CN206833244 in which a service robot distributes materials in the hospital, is stored in a similar way.
  • the Chinese patent applications CN107518989 and CN101862245 which include a service robot that transports patients, similar to a wheelchair, are also in the hospital environment.
  • CN205950753 describes a robot that recognizes patients using sensors and guides them through a hospital.
  • CN203338133 describes a robot that supports the nursing staff and accompanies patients in the hospital with their daily tasks.
  • CN203527474 refers to a robot that uses its arm to support the elderly.
  • CN108073104 relates to a care robot that cares for infected patients by the care robot providing these patients with drugs or administering these drugs, massaging the patient, feeding, communicating with the patient, etc.
  • the care robot reduces the risk of infection for medical staff by using the care robot to reduce the number of patient contacts made by staff.
  • a robot for accompanying the elderly can be found in CN107598943. This robot has some monitoring functions, but most of all a floor cleaning function.
  • CN106671105 is a mobile service robot for the care of the elderly.
  • the service robot uses sensors to monitor body parameters such as temperature and facial expressions. The service robot also recognizes whether a person has fallen and can alert help accordingly via a network.
  • the oxygen determination in the blood is also carried out in CN105082149.
  • CN105078445 relates to a service robot that makes it possible to record an electrocardiogram and measure the oxygen content in the blood, especially in older people.
  • CN105078450 with an electroencephalogram measurement is located similarly.
  • Some of the health robots refer explicitly to the implementation of exercises with patients or tests.
  • a system is described in a relatively abstract manner that carries out exercises with a patient based on stored information.
  • CN108039193 describes a system for the automatic generation of health reports that is used in a robot.
  • the recording of movements / fitness exercises with the help of a robot, the recording and saving of the data of the same for analysis purposes and the transmission to external systems are described in CN107544266. At the same time, this robot is able to monitor the consumption of medication via various sensors.
  • CN106709254 describes a robot for the medical diagnosis of a patient, which at the same time, based on the diagnosis, also creates a treatment plan. To do this, the robot evaluates voice and image information and compares it with information stored in memories.
  • a neural network is used here.
  • CN106407715 describes a service robot that takes the anamnesis of a patient by means of speech processing and image recognition. In addition to querying via voice input and output devices via a touchpad, a photo of the tongue, which is taken by a camera of the robot, is used for the anamnesis.
  • CN105078449 describes a service robot with a tablet computer as a communication device, via which, among other things, cognitive function training or a cognitive-psychological test takes place in order to discover Alzheimer's in patients.
  • the tablet temporarily records a telephone call running according to a specific process the patient and a child and deduces from the course of the conversation whether the patient suffers from Alzheimer's.
  • US10268277 describes general hand gesture recognition, as does US9372546 or US9189068.
  • US9690984 for example, camera-based hand recognition is shown using a skeleton model with the aid of machine learning algorithms.
  • US9423879 is dedicated to the recognition and tracking of objects in hands and proposes using a thermal sensor to differentiate hands and fingers (due to the heat given off) from other objects (which tend to be cooler).
  • US9117274 describes how a depth camera is used to detect a sheet that a user is holding in his hand, while in a next step an image is projected onto this sheet, which is an example of a flat surface, with which the user can interact.
  • the sheet is identified by its corners, which are compared with the squares stored in the memory, which have been rotated spatially in space.
  • US 10242527 describes how gaming tables (in the casino) are monitored by automatically recognizing hand gestures, including gaming chips or playing cards that have a certain resemblance to a hand.
  • gaming chips or playing cards have a certain resemblance to a hand.
  • playing cards have rounded corners, which is usually not the case with a hand.
  • Robots have. US20170011258 explains how based on the emotional state of a
  • Facial expression of the person is assessed, which is determined by means of a histogram-of-gradients-
  • the emotional state of a person can be general about
  • Classification methods take place based on clustering, or by means of neural
  • US2019012599 describes quite generally how a multilayer convolutionary neural network is used to generate weights based on video recordings of a face, which has at least one convolutionary and at least one hidden layer, the last level of which describes a person's emotions, which determines weights for input variables at least one level, the weights in at least one feed forward process (activated process) calculated and updated as part of a backward propagation.
  • US9619613 uses a special device that works with vibrations, among other things, to evaluate a person's mental state.
  • US9659150 uses, for example, acceleration sensors to carry out the timed-up and go test.
  • stimuli are triggered in order to test the mental abilities by outputting a sequence of stimuli of defined length and recording the patient's reaction.
  • US8475171 uses, for example, a virtual reality to show a patient various images and to diagnose, for example, Alzheimer's disease via their detection.
  • US10111593 for example, uses a movement analysis to detect delirium.
  • CN103956171 tries to draw conclusions about a test score of the mini-mental test based on the pronunciation of a patient.
  • the service robot is configured in such a way that the service robot can collect further medical parameters by means of its sensor system, including the blood pressure in a contactless way, for example by means of a camera.
  • the state of the art for determining blood pressure using a camera-based evaluation is mostly at the research stage.
  • Zaunseder et al. (2016) gives an overview primarily of those methods that carry out a color evaluation of the blood flow.
  • the review by Rouast et al. (2018) goes a little further. Specifically deals with evaluation algorithms for determining blood pressure on the basis of available signal data, for example. Karylyak et. al (2013) or Wang et al. (2014), while McDuff et al.
  • the service robot can determine substances on the skin or within the skin, partly on the way through skin contact, partly also without contact.
  • Spectrometric approaches in particular come into play here.
  • Spectrometers or approaches similar to spectrometers can be found, for example, in US6172743, US6008889, US6088605, US5372135, US20190216322, US2017146455, US5533509, US5460177, US6069689, US6240306, US5222495, US8552359.
  • FIG. 1 shows a schematic structure of a service robot
  • Fig. 20 Data from the service robot are processed for therapy proposals
  • Fig. 25 Pose recognition of the hand with a view to the numbers shown
  • Fig. 58 Tampering detection based on audio signals
  • Fig. 59 System for determining scores in connection with standing up / sitting down on a chair
  • Fig. 61 System for recording and evaluating a folding exercise
  • Fig. 65 System for cognitive analysis
  • Fig. 66 System for determining the pain status
  • Fig. 72 System for determining a fall risk score
  • Fig. 73 System for determining the balance of a person
  • Fig. 74 System for determining the position of a foot
  • FIG. 85 A method for detecting the sequence of movements of a person along a line, describing the invention
  • the term user is understood to mean a person who uses the service robot 17, in this case primarily evaluated by the service robot 17 using the described apparatus. These can be people of advanced age with whom the service robot 17 carries out a geriatric test, but also relatives or third parties who, for example, support people of advanced age in interacting with the service robot 17, or those who are more advanced for the people Age to perform the test.
  • Fig. 1 shows the mobile service robot 17.
  • the service robot 17 has a laser scanner (LID AR) 1 for scanning the environment of the service robot 17.
  • LID AR laser scanner
  • Other sensors are alternatively and / or in addition also possible, for example a camera (2D and / or 3D) 185, an ultrasonic and / or radar sensor 194.
  • the service robot 17 has at least one display 2, which in one aspect is a touchpad. In the aspect illustrated in FIG. 1, the service robot 17 has two the touchpads. The touchpads in turn have, for example, a microphone 193 and a loudspeaker 192, which allow acoustic communication with the service robot 17. Furthermore, the service robot 17 has at least one sensor 3 for the contactless three-dimensional detection of the movement data of a patient. In one non-limiting example, the sensor is a Microsoft Kinect device. Alternatively, an Orbecc Astra 3D camera can also be used. Such 3D cameras have a stereo camera system for depth recognition, which enables the evaluation of a skeletal model of a patient, and mostly also an RGB camera for color recognition. In an alternative aspect, a conventional monaural camera can be used. Technologies that can be used in 3D cameras are time-of-flight sensors (ToF) or speckle sensors.
  • ToF time-of-flight sensors
  • speckle sensors speckle sensors
  • a pressure-sensitive bumper 4 around the outer shell of the service robot 17, at least in the areas which are in a possible direction of travel of the service robot 17.
  • the computer unit 9 is connected to the pressure-sensitive bumper 4 and detects collisions between the service robot 17 and an object. In the event of a collision, the drive unit 7 is stopped immediately.
  • the service robot 17 has two drive wheels 6 which are centered and arranged parallel to one another (see FIG. 2). There are two or three further support wheels 5 around it, for example on a circular path.
  • This arrangement of the support wheels 5 allows the service robot 17 to be rotated on the spot by controlling the drive wheels 6 in opposite directions.
  • the axis of the two or three support wheels 5 is mounted in such a way that the axis can rotate 360 degrees around the vertical axis.
  • the distance between the drive wheels is greater than shown in FIG. 2, so that the service robot 17 is prevented from tilting too easily.
  • the service robot 17 also has an energy source 8 for supplying the drive and computer unit 9, the sensors (laser scanner 1, sensor 3, and bumper 4) and the input and output units 2.
  • the energy source 8 is a battery or a Accumulator.
  • Alternative energy sources such as a fuel cell, including a direct methanol or solid oxide fuel cell, are also conceivable.
  • the computer unit 9 has at least one memory 10 and at least one
  • Interface 188 for data exchange.
  • These include (not shown) in an optional aspect a device to read a mobile memory (for example a transponder / RFID token).
  • this mobile memory can also be written to.
  • this or another interface 188 (such as WLAN) allows wireless communication with a network.
  • the service robot 17 has rules, described in the further course of this document, for carrying out evaluations, which are stored in the memory 10. Alternatively and / or in addition, these rules can also be stored in the memory of a cloud 18, which the service robot 17 accesses via the at least one interface 188 (such as WLAN). This does not have to be explicitly mentioned elsewhere, but is included in the disclosure.
  • the sensor 3 recognizes a person and their actions and creates a skeleton model on the basis of the person's movements.
  • the sensor 3 is also able to recognize walking aids / forearm crutches (UAGS).
  • UGS walking aids / forearm crutches
  • the service robot 17 also optionally has one or more microphones 193, which can be implemented independently of the touchpads in order to record the person's speech and evaluate it in a computer unit.
  • the navigation module 101 contains, for example, various modules. This includes a 2D or 3D environment detection module 102 which, for example, evaluates information about the environment based on various sensor data.
  • the path planning module 103 allows the service robot 17 to determine its own path that it travels.
  • the movement planner 104 uses, for example, the results of the path planning from the path planning module 103 and calculates an optimal route for the service robot, taking into account or optimizing various cost functions.
  • the self-localization module 105 allows the service robot 17 to determine its own position on a map, for example using odometry data, the comparison of captured environmental parameters from the 2D / 3D environment detection with environment parameters stored in a map from map module 107, etc.
  • the mapping module 106 allows this Service robot 17 to map its environment. Maps that have been created are stored, for example, in the map module 107, which, however, can also contain maps other than those that have been created in-house.
  • the loading module 108 for automatic loading.
  • there can be a database with room data 109 which, for example, contains information about the room in which an evaluation is to be carried out with a person, and so on
  • Movement evaluation module 120 contains, for example, a movement sequence extraction module 121 and a movement sequence evaluation module 122. These each comprise the rules for movement evaluation, which are described in more detail in the further course of this document.
  • the person identification module 110 contains, for example, a person identification module 111, which contains, for example, rules to determine from the recorded sensor data whether it is a person or something else.
  • a visual person tracking module 112 for visual person tracking is based, for example, primarily on camera data as input variables; the laser-based person tracking module 113 uses LID AR 1 accordingly.
  • a person re-identification module 114 allows, for example, a subsequently recorded one in the event of an interruption of the tracking process To classify a person as to whether it is one who was previously tracked.
  • a seat recognition module 115 makes it possible, for example, to detect a chair.
  • the service robot 17 also has a human-robot interaction module 130, comprising a graphical user interface 131, a speech synthesis unit 133 and a speech evaluation module 132.
  • an odometry unit 181 for example an interface for communication with RFID transponders, a camera 185, operating elements 186, an interface 188 such as WLAN, a charging controller 190 for the energy supply, a motor controller 191, loudspeakers 192 , at least one microphone 193, for example a radar and / or ultrasonic sensor 194, a detector 195, which will be described in more detail elsewhere, also for example a spectrometer 196 and for example a projection device 920.
  • LID AR 1, display 2 and Drive 7 have already been described.
  • FIG. 3 illustrates that the service robot 17 is connected to the cloud 18 via an interface 188.
  • a therapist has the option of accessing one in the via a terminal 13
  • Medical staff can store patient data in the patient administration module 160 or, in one aspect, import these patient data from other systems via an interface 188 (such as WLAN). These other systems include above all hospital management systems (HIS) and / or patient data management systems, as they are usually used in clinics or medical practices. In addition to the name and possibly the room number of the patient, the patient data also includes information on the general state of health, etc.
  • the computer 161 in the patient administration module 160 generates an ID for each person, which is stored in the memory 162 with the personal data.
  • the medical staff can define the tests to be performed.
  • the management system is connected to a set of rules 150 via the cloud 18, consisting of a computer unit 151 and a memory 152.
  • the set of rules 150 holds rules for performing and evaluating the exercises, which can match those of the service robot 17 and, for example, centrally in the set of rules maintained and then distributed to several service robots 178.
  • the classification of objects and movements is stored in the set of rules 150, but also the combination thereof in order to evaluate the observations for the purposes of the test.
  • the position of the legs, upper body, arms, hands, etc. is stored on the basis of a skeleton model.
  • objects that are to be evaluated as part of the test can be recognized.
  • the set of rules 150 can initially be created based on a template with the help of specialists, i.e. limit values are set for individual limbs. Fuzzy algorithms can also be used for the limit values.
  • medical staff can label individual images or image sequences, which can be translated into a skeleton model with a view to images of a person, and classifications are established using machine learning algorithms, including neural networks, which map the limit values.
  • a cloud-based navigation module 170 with a navigation computer 171 and a navigation memory 172.
  • the service robot 17 can be connected to a CI application in the cloud 18.
  • the therapist can give the person performing the test a mobile Assign a storage unit such as a token.
  • the token contains the patient ID and / or another token ID to which the person or his ID is assigned.
  • the person can identify himself on the service robot 17 with this token or the serial number and / or the ID. Identification is also possible in other ways, e.g. by entering login data in a screen-guided menu, but also by means of biometric features such as a face scan or software on a mobile device that has a code ready that is entered or read into the service robot 17.
  • the service robot 17 now downloads the test stored by the medical staff from the cloud 18, but without the personal data, via an interface 188 (such as WLAN) - the assignment is made via the person ID.
  • an interface 188 such as WLAN
  • the service robot 17 loads the data from the test in encrypted form into the patient administration module 160 - the assignment takes place via the person ID.
  • the data is only decrypted in the patient administration module 160 (see below).
  • the medical staff can then evaluate the data, as will be explained in more detail below using appropriate examples.
  • the medical staff transmits the instructions for carrying out a test or a partial component thereof to a storage medium (eg transponder in the form of an RFID tag), which the person receives in order to identify himself on the service robot 17, for which purpose this has an RFID interface 183.
  • the data is transferred from the storage medium to the service robot 17, including the person ID that was specified by the patient administration module 160.
  • the service robot 17 transfers the data back to the storage medium so that the medical staff can transfer the data to the patient administration module 160 when reading out the storage medium.
  • the data can also be transmitted in encrypted form to the patient administration module 160 via a wireless or wired interface 188 (such as WLAN).
  • a LID AR 1 and radar and / or ultrasonic sensor 194 the service robot has sensors that are not only used for navigation purposes can, but also, for example, for person detection and tracking, which is why these sensors, together with corresponding software modules, form a person detection and tracking unit 4605 on the hardware side, in which case further sensors can also be used, for example in conjunction with an inertial sensor 5620, which is located on the person to be recorded and / or tracked is located.
  • a person recognition module 110 can be used in a first step that recognizes a person from sensor data and can have various sub-modules. This includes, for example, a person identification module 111 that allows a person to be identified.
  • the person re-identification module 114 enables the person to be recognized, for example after the interruption of person tracking, which can be done by a visual person tracking module 112 (e.g. evaluating data from a camera 185) or a laser-based person tracking module 113 (e.g. evaluating data from a LID AR 1) .
  • the person can be recognized in the person re-identification module 114 by means of a pattern comparison, the patterns resulting, for example, from the stored person characteristics.
  • a movement evaluation module 120 allows various movements to be evaluated. Recorded movements can be saved in
  • Movement sequence extraction module 121 are first preprocessed, i.e. features of the movements are extracted that are classified and evaluated in the movement sequence evaluation module 122, for example in order to identify a specific movement.
  • a skeleton model can be created in the skeleton creation module 5635, which determines articulation points on the joints of the person and direction vectors between the articulation points.
  • a feature extraction based on articulation points takes place, for example, in the skeleton model-based feature extraction module 5460.
  • a number of specific feature extraction modules are listed in the document as well as a number of feature classification modules which, for example, can be based on said feature extraction modules. In one aspect, this includes the gait feature extraction module 5605, which also uses data from the skeleton creation module 5635, a gait feature classification module 5610 and a gait sequence classification module 5615.
  • wrist points are mentioned which can be used to represent the position of a hand, for example when it comes to holding a hand Evaluate person on objects.
  • finger joint points can also be understood here as far as fingers can be evaluated over the detection distance.
  • people and users are mentioned, for example.
  • a person can be understood relatively broadly, while a user is usually a person who has identified himself on the service robot 17. The terms can, however, be used synonymously in many places, but the differentiation is particularly relevant for manipulation detection.
  • threshold value comparisons there is sometimes talk of a threshold value being exceeded, which then leads to a specific assessment of a situation.
  • Various calculations can be used, some of which could lead to a contrary interpretation of the evaluation results.
  • An example is a comparison of two patterns that are used to recognize people. If, for example, a similarity coefficient is calculated here, for example a correlation, a high correlation which is above a threshold value means that, for example, there is an identity of two people. However, if there is a difference between the individual values, a high difference value means the opposite, i.e. a high dissimilarity.
  • such alternative calculations are regarded as synonymous with, for example, the first calculation via the correlation.
  • machine learning methods can, for example, make the establishment of explicit threshold values, for example for motion sequences, superfluous in favor of a pattern evaluation. That is, instead of threshold value comparisons, for example for dedicated distances of an articulation point from a skeleton model, pattern comparisons take place which evaluate several articulation points at the same time. If a threshold comparison is referred to below, in particular with a view to a movement sequence, a way for a pattern comparison can also be found in the case of the use of machine learning algorithms.
  • a pattern comparison for example, body poses of a movement sequence, whether correct or incorrect, can be recorded over time and evaluated in a coherent manner.
  • a classifier can be created which then compares it with other recorded body poses that are specified as correct or incorrect and the courses of the articulation points derived therefrom. Survey of the Barthel index
  • the service robot 17 can carry out in any of the tests that the service robot 17 can carry out.
  • this Barthel test an assessment of the basic abilities of independence or need for care such as eating and drinking, personal hygiene, mobility and stool / urine control is carried out on the basis of behavioral observation.
  • the service robot 17 is configured in such a way that a user is asked questions about these subject areas via the communication devices.
  • the user can be the person to be assessed.
  • other persons, for example relatives can also be asked questions on these topics via the communication device.
  • the question is asked here either via menu guidance on a display 2 of the service robot 17 or via a voice interface.
  • a separate display 2 connected to the service robot 17 via an interface 188 (such as WLAN), such as a tablet computer, can be used, which the person holds in the hand or put it on a table, which makes answering and completing the exercises easier.
  • an interface 188 such as WLAN
  • a differentiation between the person to be assessed and, for example, relatives is made via the questionnaire.
  • differentiations according to the approaches are also possible, which are described in more detail, for example, in the section on manipulation detection.
  • One of the tests that can be carried out by means of the service robot 17 is the so-called “Timed Up and Go” test.
  • a person to be evaluated sits in an armchair, stands up and walks ten feet to turn around and sit down again. The time used for this is recorded and, based on a table, converted into a score.
  • the service robot 17 scans the room in which the service robot 17 is located with a laser scanner 1, calculates the distances to the walls and creates a virtual map as part of the mapping by the mapping module 106, which reproduces the outlines of the room, but also objects that are located between the laser scanner 1 and the walls are also noted in the XY plane.
  • the created map is saved in Card module 107 deposited. If the laser scanner 1 does not have an all-round view, the service robot 17 carries out travel movements in such a way that the service robot 17 scans its surroundings by approximately 360 °.
  • the service robot 17 carries out this scanning, for example, from different positions in space, in order, for example, to recognize isolated obstacles.
  • the service robot 17 is able to recognize the room again by scanning a part of the room again. This further scanning is the more precise the more the space is scanned.
  • the service robot 17 records, for example, the path it has covered and measures the distances, so that the service robot 17 can determine its position in space.
  • the distance covered can also be measured by evaluating the rotational movement of the wheels in connection with their circumference.
  • the position can be determined more easily, since characteristic dimensions are recognized not only in the XY plane, but also in the Z plane, which means that unique dimensions within space can be found more quickly let identify than this identification is only possible in a two-dimensional representation.
  • More than just one sensor can also be used in the room mapping by the mapping module 106, for example the combination of the LID AR 1 and the sensor 3, the sensor 3 being an RGB camera, for example the coloring recorded in space and assigned a color value to each point in the XY plane recorded by the LID AR 1.
  • the computer unit of the service robot 17 performs image processing in such a way that a Z coordinate is initially assigned to each point in the XY plane, which is represented by the inclination of the LIDAR and its height relative to the ground.
  • the RGB camera in turn, has a known relative position to the LID AR as well as a known alignment angle and a known recording angle, so that this results in the distance in the image, for example a horizontal, straight line that is at a distance of 2m and 50cm above the ground.
  • These parameters can be used to assign a pixel from the RGB image to each spatial coordinate that the LID AR 1 determines, and thus also the color values of the pixel.
  • the LIDAR 1 By means of the LIDAR 1 it is possible to determine the position in the room where a chair is presumably located.
  • the detection method is described in FIG. 4.
  • Chairs typically have one to four legs, whereas one-legged chairs are Office swivel chairs, which due to their possible rotation around the Z-axis, are less suitable for people of advanced age who may have mobility impairments.
  • Chairs with two or four legs are much more likely, although two-legged chairs could in most cases be so-called cantilever chairs.
  • Chair legs are further characterized by the fact that the chair legs are isolated in the XY plane, with which the LID AR 1 detects isolated objects in step 405.
  • the chair legs primarily have a homogeneous cross section in the XY plane with a constant Z (step 410).
  • the diameter of the objects is between 0.8 cm and 15 cm, for example between 1 cm and 4 cm, and is determined in step 415.
  • the distance between the objects, which may stand out as chair legs, from one another in the XY plane is typically approximately 40 cm 420.
  • the legs are also primarily arranged in the form of a rectangle (step 425). This means that two objects with the same diameter indicate the existence of a free oscillator with two legs (step 430). If the front legs of the chair and the rear legs of the chair have the same cross-section, the chair is presumably a four-legged chair (step 435).
  • the service robot 17 is now able, on the basis of these characteristics (two or four objects, which are isolated, which have an approximately symmetrical cross-section, which are about 40 cm apart and which may be approx. are arranged in a rectangle) to assign the attribute “chair” to these objects and to define those positions of the chairs in step 440 in which are located in the virtual map that was created using LID AR 1 and / or one or more additional sensor (s) are likely to have one or more stools.
  • Each chair identified is also assigned a spatial orientation in step 445.
  • the chairs are mostly located approximately parallel to a wall and usually have a distance from it that is between two and 20 cm, this distance being applicable to the back of the chair.
  • the line between two of the chair legs, which is parallel to the wall, and which is typically 40-70 cm from the wall, is assigned the property “front of chair” 450, the two areas that are orthogonal to it labeled as "backs" of the chair in step 455.
  • the side further away from the nearest wall can also be recognized as the front.
  • a 2D or 3D camera 185 can also be used to recognize the chairs.
  • the computer unit sends the recordings via an interface 188 (such as WLAN) and an API, if necessary to a web service in the cloud 18, which is set up to carry out image classifications, or the computer unit accesses those stored in the memory 10 of the service robot 17
  • Image classification algorithms that are able to recognize a chair in the recordings made by the 2D or 3D camera 185, including a chair with armrests.
  • There are a large number of algorithms that initially carry out such classifications and create a model that is then applied to the 2D or 3D camera 185 of the service robot 17 either in the web service in the cloud 18 or in the memory 10 of the service robot 17 can, including neural networks such as convolutionary neural networks.
  • the service robot 17 is able to save the position of a chair regardless of the type of chair identification, eg in its own memory 10, which interacts 465 with the navigation module 101 of the service robot 17.
  • the service robot 17 also detects the number of chairs in the Room 470 and counts these chairs in a clockwise order. Alternatively, a different order is also possible. From this sequence, the chairs receive a number that is stored as an object ID 475.
  • the service robot 17 is able to map a room including existing chairs, i.e. to determine the position of the chairs in the room including their orientation. In order to carry out the Timed Up and Go test, however, it is necessary for a person to be on one of the chairs, which may also be over
  • the position and the orientation of the chair in the room is identified via the preceding method in FIG. 5 in step 505.
  • Service robot 17 roughly at least 20 °, for example at least 45 °, ideally at least 90 ° around the location where a chair is located 510, the LID AR 1 and / or one or more further sensors being oriented in the direction of the chair is / are (step
  • the service robot 17 maintains a distance of more than 50 cm, for example more than 80 cm from a 520. This increases the accuracy of the prognosis that the chair legs will move from the chair Service robot 17 are recognized and thus allows a conclusion that a person is on the chair.
  • the computer unit 9 in the service robot 17 is able to identify 550 the identified objects as walking aids. If the majority of these features are not detected, no walking aids are identified 585. Naive Bayes estimates, for example, can be used for this purpose.
  • steps 525-550 are optional and / or not necessary in order to identify the person in a chair by means of the LIDAR 1.
  • the legs of the person sitting on the chair are presumably located around the front legs of the chair.
  • One or both legs can be positioned in front of, between the front chair legs, or behind the front chair legs. This results in an approximately funnel-shaped area that extends approximately radially forwards from approximately the center of the chair and extends up to a maximum of approximately 50 cm above the connecting line of the two chair legs 555.
  • the data recorded by the LID AR 1 are evaluated to the effect that in Identify 570 two roughly round to elliptical objects 565 which have a diameter of 6-30 cm, for example 7-20 cm, 570 in this area.
  • the legs can also be stored between the front chair legs or even behind these chair legs. The closer the objects are to the line between the two front chair legs, the closer the shape of the objects corresponds to a circular shape 575. If these criteria are largely met, the set of rules 150 stored in the service robot 17 recognizes a person on the basis of the LIDAR data the chair 580. Alternatively, no person is recognized 590 in the chair
  • the person and walking aids can also be recognized via a general image classification, as already described, for example, a little earlier.
  • the service robot 17 also improves the forecast accuracy by the Service robot 17 takes aim at the chair from several positions, so that the 2D or 3D camera 185 can record the chair, in a manner similar to, for example, explained in the previous paragraph.
  • the methods (SDKs) adequately described in the prior art can also be used for person recognition via 2D or 3D cameras 185, which function on skeleton recognition, e.g. the Kinect SDK, Astra Orbbec SDK, Open Pose, PoseNet from Tensorflow, etc.
  • the service robot 17 is also able to identify 605 a person in the room, for which different, alternative and / or supplementary approaches can be used Cross-sections are identified which have a diameter of at least 5 cm, for example at least 7 cm, which are not exactly round and statically have a distance of at least 3 cm, for example at least 5 cm.
  • a person can be identified on the basis of an image classification by means of the 2D or 3D cameras 185, it being possible for example to use the SDKs already mentioned in the previous section. The classification as a person occurs with a higher probability in one aspect if the position in space changes over time.
  • the service robot 17 also uses algorithms from the prior art which, via the SDKs of the sensors (such as cameras 185) and / or third-party software, make it possible to create a skeleton model of the person and to track it over time 610, for example by means of the visual Person tracking module 112 and / or the laser-based person tracking module 113. If a person is identified who is not on the chair 615, the service robot 17 prompts this person to sit on the chair, for example acoustically and / or visually takes place 620. The service robot 17 tracks the movement of the person in the direction of the chair 625.
  • the service robot 17 If the service robot 17 does not detect any movement in the direction of the chair 630, the service robot 17 changes its position 635 Is gone or the sensors may not have correctly detected the person. If the detection was erroneously assumed by a person, this process is interrupted, alternatively continued (not shown in FIG. 6). The service robot 17 then asks the person again in step 640 to sit down. The service robot 17 tracks the movement 645 again, for example by means of the visual person tracking module 112 and / or the laser-based person tracking module 113. If the service robot 17 does not detect any movement in step 650 in the direction of the chair, the service robot 17 requests the Person again to sit down, but with increased intensity of the request, e.g.
  • the service robot 17 transmits an interface 188 (such as WLAN) sends information to a computer which interacts with medical staff via a display 2 and requests the medical staff to move to the service robot 17 and to support this service robot 17 670.
  • an interface 188 such as WLAN
  • the service robot 17 detects the degree of person detection, ie the service robot 17 uses internal rules to determine the detection quality such as deviations from detection threshold values and, based on this, determines a number of requests that the service robot 17 directs to the person.
  • the service robot 17 Since there can be more than one chair in the room on which the person can sit, and there cannot be enough space in front of each chair to cover the necessary distance of 3 m, the service robot 17 has a correction mechanism.
  • This correction mechanism provides that the service robot 17 identifies from the set of identified chairs 705 those chairs in front of which there is a free area without obstacles in the orthogonal direction to the front of the chair, which is at least 3.5 m long, e.g. at least 4 m 710. If there is the corresponding free area in front of a chair that is necessary to carry out the test, this property is stored 715 as an attribute in the memory 10 of the service robot 17.
  • This information is used or is used when a user navigates to the chair This information ensures that the person is on a chair that is suitable for performing the test with sufficient space in front of the chair.
  • the chair can also be identified via a floor mark, which is identified below, for example, a few paragraphs.
  • the service robot 17 can point this person to suitable chairs in step 720.
  • the service robot 17 can also request the person to stand up again and sit in another chair 725.
  • this chair is identified in more detail in step 730.
  • the service robot 17 uses the object IDs and the order in which the chairs are positioned.
  • the information is available within the memory 10 of the service robot 17 that, for example, the person is sitting on chair no. 6, but only chairs no. 4 and 7 are eligible for performing the test because there is enough space in front of them.
  • the service robot 17 can then integrate the information in the request to the person to move that the person can position himself on a chair, for example two places to the left of the service robot 17 or one place to the right of the service robot 17.
  • the service robot 17 is able, through the orientation in space that the person and service robot 17 occupies, to correct such information in such a way that the information output relates to the orientation or perspective of the person. In the example mentioned, this would be two places to the right of the person or one place to the left.
  • the service robot 17 can also use the coordinates of a standing person and a suitable chair to refer this standing person to this chair, for example in the manner of “please sit down on the chair at an angle to the left in front of you”, if necessary below Mention of a distance.
  • color information about the chair for example, can also flow in, which was previously collected, for example, via an RGB camera.
  • the service robot 17 positions itself, for example, at a distance of more than one meter from the chair.
  • the service robot 17 also has information about the direction from which a patient can approach via its navigation module 101. On the one hand, this information can be explicitly stored in the system.
  • the service robot 17 is able to recognize doors or passages.
  • the service robot 17 recognizes via the LID AR 1 either a plane which adjoins one of the edges in the XY direction with a length of approx. 77-97 cm 815 and an angle to the edge of 1-178 ° 820, an angle that 825 is variable over time, and / or there is a distance of at least 90 cm behind the identified opening, no further limitation of the XY plane in the map 830, which the service robot 17 records, for example via the LID AR 1.
  • the service robot 17 uses its navigation module 101 for the case that the chair is unoccupied, based on the determined position of the door or the passage and the chair, the direct path between this chair and the door or the passage, which is not through any obstacle is blocked by, for example, determining the Euclidean distance.
  • the service robot 17 positions itself outside of this path, for example spatially oriented in such a way that its sensors notify the chair and / or the door / the passage.
  • the service robot 17 If the service robot 17 identifies a person who enters the room, the service robot 17 prompts them, as described above, to sit on the chair.
  • the service robot 17 signals via an output unit, for example a loudspeaker 192, alternatively and / or additionally also via a display 2, the person to get up and to walk straight ahead three meters then return to the chair.
  • an output unit for example a loudspeaker 192, alternatively and / or additionally also via a display 2, the person to get up and to walk straight ahead three meters then return to the chair.
  • the service robot 17 is able to recognize a distance marking on the floor by means of a 2D or 3D camera 185, for which purpose common pattern recognition methods are used.
  • the service robot 17 uses the position information of the identified chair. To ensure that it is a distance marking and, for example, not a normal pattern on the floor, the service robot 17 first uses its navigation module 101 to determine a position in space that is approximately orthogonal to the front of the chair at a distance of 3 m. Then the area on the Floor, which is located approximately in this position, scanned in order to recognize such a marking. More areas of the floor are scanned to see if the pattern is unique or repetitive. If it is unique or possibly stored in the memory 10 of the service robot 17, this pattern is used as a marking for the 3m point.
  • a disadvantage of a fixed floor marking is that a chair can possibly move, be it due to cleaning work in the room, by people sitting on this chair, etc.
  • the service robot 17 is in a complementary and / or alternatively equipped with a projection device 920 to project a marking at a distance of 3m in an orthogonal direction from the front of the chair.
  • the XY coordinates of both the chair and the 3m point are in turn determined, for example, via the navigation module 101, this navigation module 101 having previously been updated by the service robot 17 with a view to the position of the chair.
  • a light source is used for this, e.g. a laser or an LED, which in turn can be focused by lenses or functionally similar means.
  • This projection device 920 is able to project a surface onto the floor as a bar, possibly with characters, which signal the person that he or she should move there.
  • the projection device 920 is movably supported independently of the service robot 17, so that the service robot 17 is always positioned frontally in the direction of the person 910, for example through its own rotary movements (as in FIG Line 940 outlined), while the projected marking 915 is always at the same point orthogonal to the front of the chair 905.
  • the light source of the projection device 920 itself can be movably mounted; in another aspect, mirrors, for example micromirrors or microstructured elements, ensure that the light is directed in such a way that this light appears when the service robot 17 moves, for example when it rotates remains in the same place. This changes the angles between the times a) and b) during which the person 910 moves in the direction of the marking 915, including the angle between the lines 925 and 935 and between 930 and 935. In an alternative and / or supplementary aspect, the service robot 17 also always move parallel to the direction of travel of the person.
  • the light source is able to project onto a surface on the floor whose width from the perspective of the service robot 17 is over 3 m.
  • This projection device 920 thus covers the route that the Person, starting from the chair, should lie back.
  • the central axis of the projection direction 920 is rotated by an angle between 10 ° and 60 °, for example 20-50 °, from the central axis of the camera 185 with a view of the Z axis of rotation of the service robot 17, namely in the direction in which, seen from the service robot 17, the person should move.
  • the projection mark (such as the bar) is located at the 3m point in, from the service robot 17 as seen from the right edge of the projected area.
  • the projection mark moves towards the left edge of the projected area.
  • a projection device 920 can be used, as is found in conventional (LCD) projectors, in which a matrix is controlled by software in such a way that different areas of the projected surface are illuminated with different levels of brightness.
  • the orientations are correspondingly mirror-inverted.
  • FIG. 9 c) the person 915 is sitting on the chair 905.
  • the projection device 920 can illuminate an area which results from the dotted rectangle.
  • the 3m mark 915 is located in its right area.
  • the projection surface moves clockwise together with the service robot 17, while the 3m mark is kept on the fixed XY coordinate, which means the 3m mark migrates to the left area of the projected area (Fig. 9 d)).
  • This representation described here is based on a fixed projection direction 920.
  • the projection device 920 is movably mounted (effect not shown in more detail).
  • the service robot 17 does not rotate and, by means of the LIDAR 1 and / or the 2D or 3D camera 185, detects more than the entire distance that the person has to cover (see FIG. 9 e), where the Sensors at least covered area is dotted).
  • the 2D or 3D camera 185 is mounted so that it can be tracked, while the projection device 920 or the light source is mounted rigidly or also so that it can be tracked (not shown separately).
  • a processor in the service robot 17 calculates the projection area based on the coordinates of the navigation module 101 of the service robot 17 that previously determined the position of the chair, the 3m point and the service robot 17, the inclination of the Projection device 920 and its height in order to project a largely undistorted bar from the perspective of the person completing the exercise, which bar is approximately parallel to the front of the chair.
  • the shape of the marking can also be designed differently.
  • the person is tracked by a procedure as has been adequately described in the prior art, for example by means of the visual person tracking module 112 and / or the laser-based person tracking module 113.
  • the service robot 17 also detects the posture of the upper body to tell when the person is starting to straighten up. From this point on, the time that the person needs to complete the test is also recorded. The timekeeping ends when the person has turned and sat back in the chair after returning to the chair.
  • a rotational movement is recognized by the algorithms, for example as a pattern, in that a skeleton model with articulation points of the person is generated so that the arms are approximately parallel to the plane during the rotational movement that corresponds to the distance to be covered.
  • articulation points of the arms are evaluated over time and an angle change of more than 160 ° from symmetrically existing articulation points to the line that connects the starting and turning positions is determined.
  • the service robot 17 is configured in such a way that the service robot 17 determines the distance that the patient is traveling while it is covering the distance. Since the starting and turning positions are 3m apart, the length of the distance to be covered is 6m, starting and ending with the chair at the starting position, which is also the end position, with the turning position at a distance of 3m from the chair. The service robot 17 does not necessarily have to detect the marking on the floor. The distance covered can be determined in various ways, including by adding up the stride length.
  • the basis for this can be the distance between the ankles or ankles, which are recognized by a 2D or 3D camera 185 in connection with the evaluation frameworks used here and to which points in three-dimensional space are assigned, the distances of which are determined by the service robot 17, for example in Let the shape of vectors be determined.
  • the distance covered by the patient can be determined by adding up Euclidean distances between coordinate points which the patient passes and which can be found on a map of the Let determine the environment in which the patient and service robot 17 are located, wherein the determination of the patient's coordinates can be determined on the basis of reference positions. This includes distances to recognized room boundaries or the position of the service robot 17, which can be determined by means of self-localization (self-localization module 105).
  • the service robot 17 calculates the distance covered and relates this distance covered to the total distance that the patient has to cover .
  • the service robot 17 can use an output device such as the display 2 and / or the speech synthesis unit 133 to give the patient feedback about how far the patient still has to go, how many steps there are still, when the patient can turn around, etc.
  • the service robot 17 transmits a score based on reference data of the set of rules 150 stored in the memory 10.
  • the service robot 17 is able to record the score and / or the recorded time via an interface 188 (such as e.g.
  • WLAN to the patient administration module 160 in the cloud 18.
  • the service robot 17 is able to use its sensor 3 to detect the movements of the person in step 1005, to record these movements as video in step 1010, to store them in step 1015 and in step 1030 via an interface 188 (such as WLAN) to a cloud storage in the cloud 18, which is located in the set of rules 150.
  • the data transmission is encrypted.
  • the facial features of the person to be assessed are made unrecognizable beforehand, so that the anonymity of the persons is preserved 1025.
  • the video material is available within a set of rules 150 for labeling purposes in order to further improve the reference data of the set of rules 150 by means of self-learning algorithms. For these purposes, among other things, access to the stored data is possible via a terminal 1030 so that medical personnel can assess the video recordings and label them 1035.
  • labels can use the Points in time are assigned. For this purpose, for example, individual start or end points of movements are marked in time and at the same time the movements such as body poses that describe an orientation of the limbs, for example over time, are classified / classified.
  • the data labeled in this way are then stored in the database in which the inventory data are also located 1040.
  • the set of rules 150 can then, for example, independently improve the classification rules by means of algorithms such as, for example, neural networks.
  • the system comprises a computer 9, a memory 10 and at least one sensor for contactless detection of the movement of a person
  • the system has a chair detection module 4540 in its memory 10, an output device such as a loudspeaker 192 and / or a display 2 for transmitting instructions, a time-distance module for determining the time taken to cover the distance 4510 and / or speed Distance module 4515 for determining the speed of the recorded person on a distance and a duration-distance evaluation module 4520 for evaluating the speed of the person on a distance and / or the time for covering the distance.
  • the system can have a hearing test unit 4525 for carrying out a test of hearing skills, a vision test unit 4530 and / or a test for intellectual skills unit 4535.
  • the system can be a service robot 17.
  • the system has a projection device (920), for example in order to project the marking that represents the turning point and / or the starting point.
  • the system has a person identification module 110, Personal identification module 111, tracking module (112, 113),
  • Movement evaluation module 120 skeleton creation module 5635 and / or skeleton model-based feature extraction module 5640.
  • the service robot 17 is also configured in such a way that the service robot 17 can carry out the mini-mental test.
  • the aim of the mini-mental test is to identify cognitive impairments such as dementia.
  • the communication devices of the service robot 17 (voice input and output, display 2) ask questions to the patient who can answer them via the communication device of the service robot 17 (e.g. as voice input, as a response to be selected on a screen, as Freehand input, e.g. for a date, place of residence, etc.).
  • the display 2 of the service robot 17 on the other hand a separate display 2 connected to the service robot 17 via an interface 188 (such as WLAN), such as a tablet computer, can be used, which the person can hold in their hands or put it on a table, which makes answering and completing the exercises easier.
  • an interface 188 such as WLAN
  • a tablet computer such as a tablet computer
  • the service robot 17 is configured in such a way that the service robot 17 can communicate with a person, as the method described in FIG. 11 shows. To this end, the service robot 17 orients itself in one aspect in space such that the display 2 of the service robot 17 is approximately parallel to the axis that runs through the two shoulders, the hips and / or knees of the user and that is drawn over the skeleton model, which are recognized by means of the 2D or 3D camera 185 and their SDKs. The service robot 17 thus aligns itself with the user from 1105.
  • At least one speech sequence stored in the memory 10 is reproduced via a loudspeaker 192 and a user is prompted via a display 2 and / or via a voice output that Repeatedly reproduced sequence 1110.
  • the service robot 17 records acoustic signals from the user via a microphone 193 to 1115, for example as long as the output speech sequence to be repeated was 1120. This happens, as does the following steps , through the speech evaluation module 132.
  • the service robot 17 analyzes the amplitudes of the signal in the time domain 1125. If the amplitude falls to zero or almost zero (e.g. ⁇ 90% of the maximum of the amplitudes) for more than 1 second, e.g.
  • the recording is ended 1130.
  • Sampling continues, the sample width being defined by phases of amplitudes close to zero that are more than 1 second and that have a length of at least 70% of the sequence that the user is supposed to repeat and that is stored in the service robot 17 1135. This ensures that several attempts to speak by the user are recorded and individually evaluated.
  • the service robot 17 modifies a value in a database within the memory 10 of the service robot 17 that relates to the user 1150.
  • the recorded voice signals emanating from the user are stored 1155 and, together with the modified one
  • the value from the database is transmitted 1160 via an interface 188 (such as WLAN) to the patient administration module 160.
  • an interface 188 such as WLAN
  • only the sequence recorded by the service robot 17 with the highest similarity value to the pattern sequence is stored.
  • the system also counts the repeat attempts and, if the number of attempts exceeds a threshold value, stops recording the relevant repeat attempt and moves on to the next sequence to be repeated. Repeated attempts to repeat or failed attempts by the user are also noted in the database.
  • the mobile service robot 17 has an optional device which contains sheets that the person to be assessed can take out for the test, for example at the request of the service robot 17.
  • the mobile service robot 17 can point the person to be assessed to such a sheet, which is located in the room in which the test takes place.
  • the voice output and / or the output unit of the display 2 is configured accordingly 1205.
  • the service robot 17 is configured in such a way that by means of the sensor 3 in the form of a 3D camera, for example a time-of-flight camera (ToF), the hands of a user are identified, recorded and tracked, ie the Hands are recognized 1210 in the first step and tracked 1215 in the second step when this person folds a sheet.
  • a ToF camera approaches are also possible in which, on the basis of a single 2D camera, hands are recognized 1210 and (hand) movements are tracked 1215 in order to recognize 1220 corresponding gestures or a sheet that is being folded.
  • the weights come, for example, from a model that was classified using conventional machine learning methods such as regression methods and / or neural networks, such as, for example, convolutionary neural networks.
  • skeleton models based on frameworks can also be created using the 2D camera, for example with Open Pose or PoseNet in connection with Tensorflow.
  • the movements are recorded over time, for example by means of the visual person tracking module 112 and / or the laser-based laser-based person tracking module 113.
  • the detection of the hands 1210 takes place, which are segmented from the total recording .
  • segmentation is used to identify objects 1220 that are in the hands, for example by means of a fault-tolerant segmentation algorithm (for example RANSAC framework) that allows pattern recognition.
  • RANSAC framework for example RANSAC framework
  • the sheet is determined, for example, by means of a sheet classification, that is to say two- or three-dimensional data from the camera 185 which has previously been created by taking pictures of the sheet and labeling the recordings.
  • the term sheet includes paper and materials that have an equivalent effect on the exercise and / or that have similar dimensions and possibly also properties as a sheet of paper.
  • the service robot 17 requests the user to take a sheet 1205.
  • a voice output via a loudspeaker 192 of the service robot 17 is used, for example.
  • a display can also be used on a display 2, or a combination of both ways.
  • the service robot 17 similarly requests the user to fold the sheet 1225, for example in the middle.
  • the service robot 17 observes the folding process and, after the folding process has been completed, the service robot 17 requests the user to put down the sheet or to let it fall.
  • the information on folding and / or laying down or dropping can also be provided directly after a previous request for the same exercise.
  • a 3D camera such as a Kinect or Astra Orbbec is used.
  • the challenge in recognizing elements of the hand, i.e. fingers, and the finger tracking 1230 derived therefrom is that, from the perspective of the camera 185, individual fingers may be hidden and therefore cannot be directly estimated. This is the case with gestures that do not require an object in hand. If, on the other hand, a sheet is folded by one or more hands, some of the fingers can also be covered, depending on the type of folding process.
  • the folding process can be recognized or classified as such on the basis of finger movements 1235, for example, in that either at least one thumb and at least one, better still several fingers of the same hand touch 1240 at the level of the fingertips, ie at least two fingers are grounded, for example and tracked.
  • one or more fingers of one hand can touch one or more fingers of the other hand, for example in the area of the fingertips 1245.
  • the blade is in engagement 1250 with at least one finger Sheet that is recognized as described in the following paragraph.
  • the system and method are alternatively and / or additionally based on the recognition of a sheet and its change in shape (step 1252), this sheet being in contact with or in engagement with at least one finger.
  • the recognition focuses on the four corners of the sheet from 1255, which is in one or both hands of the user.
  • each corner is tracked individually over the course of time 1260 and the distance between these corners is determined 1265.
  • Successful folding is recognized, for example, by a) that the distance between two corners in each case is three-dimensional
  • Space is reduced by more than 90%, e.g. reduced by more than 98% 1270.
  • the distance between two opposite Edges of the sheet are tracked and a folding process is detected if the distance falls below these values.
  • the surface of the sheet is tracked with a view to its curvature 1275.
  • the folding module determines the center between two corners 1277 and monitors, for example, the curvature of sheet 1279 in these areas successful folding in this case 1280 is recognized by the fact that the curvature in this area increases 1282 over time, while the sheet edges / margins near the corners behave approximately parallel 1284 (i.e.
  • the spacing of the sheet edges is greatly reduced 1285, for example to a distance of less than 2mm, which means that individual detection of the two approximately equal sheet parts is no longer possible as a rule, since the depth resolution of the camera 185 cannot record two sheets lying on top of one another due to the thinness of the sheets .
  • the area of the sheet in three-dimensional space is also recorded over time, with a depth of the sheet of less than 2mm being detected only poorly or not at all.
  • a folding of the sheet is determined by the fact that the area of the sheet is reduced by more than 40%, for example by approx. 50%, over time. This approach can also be implemented, for example, without explicitly analyzing and tracking the fingers.
  • the distance between the ends of a sheet edge parallel to one another is recorded and evaluated 1293 and, if the distance between the sheet ends is less than 20mm, a fold is detected 1294.
  • the overall detection accuracy increases. If this exercise has been completed successfully, ie the sheet has been folded and it then moves towards the center of the earth 1295, alternatively comes to rest on a plane 1297, this is noted in a database 1299, in particular in the database in which the test results are stored .
  • FIG. 61 shows the system, for example a service robot 17, for recognizing a folding exercise:
  • the system comprises a computer 9, a memory 10 and a sensor for contactless detection of the movement of a person such as a 2D and / or 3D camera 185, a LID AR 1, a radar and / or ultrasonic sensor 194 as well as several modules in its memory 10.
  • the memory 10 comprises a fingertip Ab Stands module 4750 for detecting the distance between fingertips of at least one hand and a sheet detection module 4705 for detecting a sheet, for example consisting of a sheet segmentation module 4755 for detecting a sheet and / or a module for the Sheet classification 4760.
  • the system also has an output device such as a loudspeaker 192 and / or a display 2 for transmitting instructions and an interface 188 to a terminal 13.
  • the system has a person recognition module 110, person identification module 111, tracking module ( 112, 113),
  • Movement evaluation module 120, skeleton creation module 5635 and / or skeleton model-based feature extraction module 5640 The sequence involves recording, identifying and tracking at least one hand of a person; a detection, identification and tracking of a sheet and a common classification of dimensions, shapes and / or movements of the detected sheet and elements of a hand as a folding process.
  • the sheet is identified using a fault-tolerant segmentation algorithm and, for example, sheet classification and / or classification of a folding process based on comparison with two-dimensional or three-dimensional patterns, including shape patterns and / or movement patterns.
  • the service robot 17 can also request the user to spontaneously think up a sentence whose evaluation spelling and grammar are not relevant, but which must contain at least one subject and one predicate.
  • the service robot 17 requests the person to be assessed via the communication devices (display 2; loudspeaker 192) to think up a spontaneous sentence 1305 and to write it 1320 with his fingers on the touchpad of the service robot 17 Voice output 1315.
  • a pen or pen-like object is kept ready 1320 by the service robot 17 for this purpose.
  • a pen and a sheet of paper are kept ready that the person can use to write down the sentence 1325 and the service robot 17 prompts the person to do so via the communication device to hold 1330 the written sheet in front of a camera 185 of the service robot 17 in order to record it and store it in the memory 10 of the Service robot 17 to store.
  • the sensor system (2D, 3D camera 185) tracks the user movements 1335, for example by means of the visual person tracking module 112 and / or the laser-based person tracking module 113, uses the internal object recognition of a sheet (see previous approaches) and recognizes that the user holds the sheet 1340 in front of the 2D camera of the service robot 17 and the service robot 17 recognizes the sheet 1345, which the service robot 17 photographs 1350 with the 2D camera.
  • OCR processing of the sentence contained in the photo takes place 1355.
  • the processor of the service robot 17 accesses corresponding, established libraries for image processing, for example word processing, which enable OCR processing.
  • a Natural Language Parser 1360 is used to determine the existence of subject and predicate in the sentence.
  • the recorded sentence is broken down into individual words in the first step (tokenization) 1365.
  • the root form of the words is then formed (stemming and / or lemmatization) 1370.
  • the POS tagging (part-of-speech) tagging takes place, via which the words are classified into subject, predicate, object, etc.
  • step 1375 In this context, an approach based on neural networks can also be used. Toolkits such as NLTK or SpaCy can be used for this.
  • the results are stored in a memory in step 1380 and it is compared in the next step 1385 whether a subject and a predicate occur in the sentence specified by the user. In this case, it is stored in a database that the exercise was successfully completed (step 1390).
  • Another element of the test involves drawing two pentagons that intersect.
  • the person to be assessed is given the opportunity to produce the drawings on a display 2 which is located on the service robot 17.
  • the display 2 is freely movable within the room in which the service robot 17 and user are located, but is wirelessly connected to the service robot 17 via an interface 188 (such as WLAN).
  • the drawing itself can be done either with the fingers or with a pen suitable for tablets.
  • the drawing can be made on a sheet of paper, the person drawing being requested by the service robot 17 by means of the communication devices to hold the finished drawing in front of a camera 185 of the service robot 17.
  • the captured images are compared by the computer with those that are stored in a database, a set of rules 150 being used that compares the features of an image with features of classified images and assigns them based on probabilities.
  • a set of rules 150 being used that compares the features of an image with features of classified images and assigns them based on probabilities.
  • methods are used that are described in the prior art and that were previously created on the basis of automated training, primarily using methods of neural networks.
  • classification mechanisms can also come into play that were created without training and whose classification features were determined on the basis of characteristic features of a pentagon, of overlapping pentagons in the form of defined rules (such as the number of angles and lines). This takes into account, for example, rounded edges, uneven lines and possibly lines that do not form a closed pentagon.
  • smoothing approaches can be used in order, for example, to simplify the classification. If a threshold value is reached in the similarity comparison (e.g. correlation) between the comparison patterns recorded by the service robot 17 and stored in the set of rules 150 or the recognition rules for two overlapping pentagons, it is stored in a database that the exercise was successfully completed.
  • a threshold value is reached in the similarity comparison (e.g. correlation) between the comparison patterns recorded by the service robot 17 and stored in the set of rules 150 or the recognition rules for two overlapping pentagons, it is stored in a database that the exercise was successfully completed.
  • the service robot 17 has a functionality to recognize manipulations by third parties when completing the exercises.
  • the sensor system with which the user and his activities are also analyzed, records the presence of other people in room 1405. It is analyzed here whether the person (s) (including users) position themselves spatially during the test in such a way that they can Manipulating the service robot 17, ie whether they are in a so-called critical distance from the service robot 17 1410.
  • the manipulations include, in one aspect, entering the data on a display 2 of the service robot.
  • the distance of the person from the service robot 17 is determined and then determined in at least one of the three following ways whether the person is positioned sufficiently close to the service robot 17 to be able to make inputs (especially on the display 2) if necessary: a) it will assumed a blanket distance value, e.g. 75cm. If this is not reached, the service robot 17 assumes that the display 2 can be operated (step 1415). Alternatively and / or in addition, the distance between the hand and / or fingers of the person and the service robot 17 can also be detected, the distance from when manipulation is assumed to be shorter than that of the person per se.
  • a blanket distance value e.g. 75cm.
  • the arm length of the person is determined 1420, in particular by determining the distances between a shoulder joint point and a wrist joint point or the finger joint points. If this is not reached, the service robot 17 assumes that it can be operated 1425.
  • An average arm length is deduced 1435 from the size of the person who is determined by the service robot 17 (which is stored in the memory 10, for example). and, as soon as this distance is undershot, it is assumed that it can be operated / manipulated 1425.
  • the service robot 17 can calculate the positioning of the person in space relative to the position of the display 2 (step 1440). If, for example, the alignment of the shoulders, hip joints, etc.
  • the frontal plane of the person derived therefrom is approximately parallel to the display 2 or at an angle of less than 45 °, and is the person oriented in the direction of the display 2, as is e.g. .from the primary direction of movement of the person, the posture of the arms, head, knees, feet, facial features, etc., this increases the likelihood of an interaction with them.
  • this approach can also be implemented for other elements of the service robot 17 instead of a display 2, for example a switch-off button.
  • a virtual plane is taken into account which is oriented orthogonally to the axis of symmetry of the operating element 186 towards the center of the service robot 17.
  • the sensor system analyzes whether the input or manipulation of the service robot 17 is made 1450 by the user or by a third person.
  • the service robot 17 tracks the people in its environment on the basis of characteristic features 1445, as in the prior art Technology is described in general (for example on the basis of the size, dimensions of the limbs, gait features, color and texture of its surface such as clothing, etc.), for example by means of the visual person tracking module 112 and / or the laser-based person tracking module 113.
  • the differentiation into users and third parties is made by identification on the service robot 17, it being assumed that the person who is identifying himself is the user. This is done with a view to inputs via the display 2 via the optical sensors of the service robot 17.
  • an orientation of the person relative to the person can be determined here Service robot 17 by determining the angle between the frontal plane of the person and the axis standing perpendicular to the operating elements 186 of the service robot 17, each projected into a horizontal plane, and a comparison of the determined angle with a threshold value, with falling below the threshold value a detection of a increased likelihood of manipulation.
  • Identification features of the person take place, followed, for example, by the detection and tracking of the person, detection of identification features of the person, comparison of the recorded identification features with the identification features of the person stored during registration and comparison with a threshold value, with similarities being compared here and a threshold value Minimum similarity implies.
  • a detection of an increased manipulation probability takes place if the threshold value is undershot and a detection of a lower one
  • the determined manipulation probabilities can be multiplied to determine a manipulation score, which, for example, is stored together with the evaluation results during or after evaluations are carried out by the robot with the recorded person. Depending on the type of comparison, other interpretations can also be made, as was presented in the introduction, for example.
  • the system for example a service robot, comprises a computer 9, a memory 10 and a sensor for contactless detection of the movement of at least one person, for example a 2D and / or 3D camera 185, a LID AR 1, a radar and / or ultrasonic sensor 194.
  • the system includes modules with rules in its memory 10.
  • a manipulation attempt detection module 4770 by at least one person who is in the vicinity of the system is detected, a person identification module 111, a person-robot distance determination module 4775 to determine the distance of the at least one person to the service robot 17, a size-arm-length orientation module 4780 to determine the size, arm length and / or orientation of the at least a person, and / or an input registration comparison module 4785 for comparing whether a person identified by the system makes inputs to the system, for example via di e control elements 186.
  • the system has, for example, an output device such as a loudspeaker 192, a display 2 for transmitting instructions and / or a Interface 188 to a terminal 13.
  • the system has a person recognition module 110, tracking module (112, 113), movement evaluation module 120, skeleton creation module 5635, skeleton model-based feature extraction module 5640 and / or a movement planner 104.
  • the verbal communication between the persons is evaluated 1455 (in FIG. 14) using microphones 193.
  • speech signals are recorded 1560 in the vicinity of the service robot 17 via at least one integrated microphone 193.
  • the speech source is identified in two alternative or supplementary ways, for example also in the speech evaluation module 132 identified 1565 and tracked 1570 and then synchronized in time 1575 with the voice signals recorded by the service robot 17.
  • Image recognition and tracking methods from the prior art are used to recognize the speech movements of the lips.
  • the service robot 17 can thus assign who the registered language is coming from and whether it corresponds to the user who is supposed to perform the exercise, the language of the user being recorded, for example, when the user identifies himself on the service robot 17.
  • the second way which circumvents this problem, consists of the sound analysis of several microphones 193 (step 1480), which are attached to different positions of the service robot 17 and which are recorded over several channels in the course of time and frequency, the processor of the service robot 17 carries out a runtime analysis 1485 and from the time offset when the signals arrive, calculates the person from whom they originate 1490.
  • a microphone 193 can also be used, in which case a triangulation is carried out by changing the position of the service robot 17 can.
  • the time courses are correlated by means of the calculated time offset via triangulation and the origin in space is determined (which can happen in two or three dimensions). This is then compared with the positioning of the people in the room, which is determined by the 2D or 3D camera (s)
  • the service robot 17 can determine in this way which person spoke 1495. If it is the third party The person (and not the user) to whom the speech signals are assigned could have been manipulated 1498. A value can then be adapted in a memory and, in one aspect, a note or an error message can be generated in the user dialog.
  • the further person only assists the user with the input, ie does not take any of his own inputs, but only inputs what has been spoken, recorded, etc. into the service robot 17 via the display 2 or the microphones 193.
  • the recorded word sequences are analyzed to the extent that they are assigned 1505 to the individual persons via at least one of the routes shown, for example, in the previous sections.
  • FIG. 15 illustrates the cornerstones of this procedure.
  • the language can be recorded 1510 in the Elmfeld of the service robot 17 and the speakers can be differentiated 1515 on the basis of different language features / language characteristics, including above all the language frequencies (in particular fundamental frequencies), different language intensities and / or different language speeds, in particular within the speech evaluation module 132.
  • This method in combination with that from FIG. 14, which use speech signals from people either by lip tracking or location based on speech signal flow behavior, makes it possible to assign speech signals that have been identified to the people without having to repeat the lip movements and / or spatial ones every time To have to determine the position of the speaker and, if necessary, to compare it with the 2D / 3D person tracking results.
  • This matching of the people with the language characteristics 1520 allows voice to be recorded and, at the same time, to be tracked in a user-related manner 1525 it is checked whether the same text fragments or speech fragments / speech patterns occur several times in succession 1530 and originate from different people 1535, which is done by tagging the patterns and the speech characteristics assigned to the people such as the fundamental frequencies (alternatively and / or in addition, the ones shown in Fig . 14 are used).
  • Text fragments, speech fragments or speech patterns are understood to mean, for example, identical words and / or word sequences. For an evaluation of these sequences with a view to the assistance of the user or the manipulation of the service robot 17, it is relevant from which person a relevant sequence was mentioned for the first time.
  • the first step it is checked whether a speech fragment is first from recorded by a person who is not the user before the user repeats that speech segment. For this purpose, correlations are made, especially in the time domain, in order to search for identical words. In particular, it is examined whether more than one single word that occurs one after the other is repeated.
  • a lexical analysis using natural language processing is also possible 1545, in which words such as in previous paragraphs are analyzed and the sequence of the tagged words is compared, based on, for example, tokenization, lemmatization and part-of- Speech tagging, e.g. using spaCy or NLTK in Python.
  • This procedure also makes it possible to check whether a “suggestion” is not repeated acoustically by the user for the recording by the service robot 17, but rather a corresponding input is made directly by the user in the service robot 17.
  • Manipulation probability the detection and tracking of at least one person in the vicinity of the robot by a contactless sensor, the determination of the position of the person in the vicinity of the robot, the recording and evaluation of audio signals, the position determination of the source of the audio signals, a comparison of the determined position of the person and the position of the source of the audio signals and comparing the position difference with a threshold value and determining a probability of manipulation of the Robot based on the comparison of the position difference with the threshold value.
  • the position of the source of the audio signals can be determined by detecting the direction of the audio signals using at least one microphone and triangulating the determined directions, for example also by changing the position of the service robot 17 or using a second microphone.
  • the determination of the position of the source of the audio signals includes the detection of the direction of the audio signal by a microphone, the determination of the position of at least one person by the contactless sensor, the triangulation of the direction of the audio signal and the determined position of the person. Furthermore, there is, for example, the evaluation of the person's face, the recording of the lip movements over time, a temporal comparison of the recorded audio signals (e.g. by means of correlation evaluations) with the recorded lip movements in relation to a threshold value and, if the threshold value is exceeded, the recorded audio signals are assigned to recorded person.
  • the method can also include the registration of the person on the robot (as a user) and the acquisition and storage of identification features of the person (as a user), with identification features including frequency, intensity and / or spectrum of the audio signals from the person, for example also a Detection and tracking of the person, a detection of identification features of the person, a comparison of the recorded identification features with the identification features of the person stored as part of the registration of the person on the robot and a comparison with a threshold value (i.e. showing a minimum similarity), the registration of inputs from the Person on the operating elements (186) and an assignment as to whether a registered person (a user) makes entries on the operating elements (186).
  • identification features including frequency, intensity and / or spectrum of the audio signals from the person, for example also a Detection and tracking of the person, a detection of identification features of the person, a comparison of the recorded identification features with the identification features of the person stored as part of the registration of the person on the robot and a comparison with a threshold value (i.e
  • an increased probability of manipulation of the robot can be determined if an unregistered person makes inputs on the operating elements (186) of the robot.
  • the method can further include, for example: a determination of words and / or word sequences in the recorded audio signals or audio sequences, an assignment of the determined words and / or word sequences to recorded persons, a determination of an increased probability of manipulation of the robot, if a comparison of the determined word sequences results in a word and / or word sequence difference that is above a threshold value, ie that a minimum correlation is not achieved.
  • the method can, for example, determine words or word sequences that are entered by the person via an operating element (186), determine words and / or word sequences in the recorded audio signals, assign the determined words and / or word sequences from the captured audio signals to captured people who Detection of identification features of the person, the determination of an increased likelihood of manipulation of the robot, if a comparison of the word sequences entered via the operating elements (186) with word sequences determined from the recorded audio signals a word and / or word sequence minimum similarity and at the same time a minimum similarity of the recorded identification features of the person with the identification features recorded and stored during registration.
  • FIG. 58 shows the architectural view for the system for manipulation detection based on audio signals.
  • This includes a computer 9, a memory 10 and a sensor for contactless detection of the movement of a person who is detected in the vicinity of the system, at least one Microphones 193, a person position determination module for determining the position of a person in the room 4415, an audio source position determination module for determining the spatial origin of an audio signal 4420, a module for correlating two audio signals 4025, an audio signal person Module 4430 for assigning audio signals to a person, and / or a speech evaluation module 132.
  • the system also has an audio sequence input module 4435 for comparing an audio sequence (i.e. a sequence of tones which, for example, reproduces words) with a sequence of tactilely input letters.
  • an output device such as a loudspeaker 192 and / or a display 2 for transmitting instructions.
  • a connection to a terminal can be established via an interface 188 (e.g. WLAN).
  • the sensor for contactless detection of the movement of a person is a 2D and / or 3D camera 185, a LID AR 1, a radar and / or ultrasonic sensor 194.
  • the system has a person recognition module 110, a person identification module 111, tracking module (112, 113), movement evaluation module 120, skeleton creation module 5635 and / or skeleton model-based feature extraction module 5640.
  • the service robot 17 is configured in one aspect in such a way that the service robot 17 carries out a short hearing test, in addition or as an alternative to this, a short eye test with the user before the start of the exercises.
  • the method steps taking place here are essentially shown in FIG.
  • the service robot 17 initially informs the user, optionally via a screen output and / or an acoustic output, of the problem that understanding problems could possibly arise and therefore a calibration of the service robot 17 to the user is necessary.
  • the vision and / or hearing test represents such a calibration.
  • the service robot 17 requests the user to take part in the calibration 1605.
  • the service robot 17 requests the user to press appropriate fields in the menu on the display 2 if the user has heard certain tones.
  • a voice input for the user is also possible, which in turn is evaluated by means of natural language processing, as described in the prior art, for example within the language evaluation module 132.
  • the service robot 17 then plays a sequence of tones different frequency and different volume, but individually essentially have a constant frequency and volume 1610, and each time "asks" whether the user heard the sound, which can happen, for example, because the service robot 17 has a display 2 Input options presented to the user, via which the user can specify the extent to which he has heard the tone 1615.
  • the tones become quieter and more frequent 1620 in one aspect over time. However, a different sequence is also possible in this regard. conceivable.
  • the user's responses are recorded.
  • a score is then determined 1625 which indicates the extent to which the user has heard the tones. If, for example, the user does not reach certain threshold values in the hearing behavior, ie the service robot 17 does not reach predefined limit values in the case of positive answers via its either screen menu-guided or voice menu-guided and correspondingly evaluated answers (e.g. only three out of seven tones recognized) a corresponding score value can be determined.
  • this score is stored 1630 in a database in the service robot 17, for example together with user information that characterizes the medical condition of the person.
  • the service robot 17 can also use the volume of the responses given by the user, for example relative to the ambient noise level 1635, which is recorded via at least one additional microphone 193, to determine whether the user needs a higher volume of the Service robot 17 has output signals.
  • the volume of the output of acoustic signals of the service robot 17 is adjusted accordingly, for example increased if it is found in at least one of these described ways that the user is hard of hearing.
  • the service robot 17 prompts the user to press appropriate fields in the menu on the display 2 if the user can recognize certain letters or other symbols 1650.
  • voice input is also possible for the user possible, which in turn is carried out by means of natural language processing, as described in the prior art.
  • the service robot 17 then plays a sequence of characters or images on the display 2 from 1655.
  • the user signals whether the user has recognized the character or not or which character the user has recognized.
  • the characters or images become smaller in one aspect over time (step 1665).
  • different color patterns are also possible in order to identify any color blindness of the user.
  • the user's responses are recorded.
  • the results of the test are mapped 1670 in the form of a score. If, for example, the user does not reach certain threshold values for visual acuity or color blindness is determined, ie a certain number of objects / patterns is not recognized (such as three out of seven), If this influences the score, one aspect is stored 1675 in a database in the service robot 17.
  • the size of the letters is adjusted accordingly when text elements are output on the display 2 of the service robot 17, possibly also the Menu design in order to be able to display corresponding menu items with larger letters 1680.
  • the coloring of the display 2 can also be adapted in a supplementary aspect in order to enable better recognition of the display menu in the event of color blindness.
  • the service robot 17 can vary the distance to the user, for example, for users with visual difficulties, to move closer to the user 1695.
  • a parameter value is temporarily modified in the navigation module 101, which is the usual distance between user and service robot 17 is defined 1690.
  • the contrasts and / or the brightness of the display 2 of the service robot 17 can also be adapted to the environmental conditions, taking into account the visual capabilities of the user 1685. Improvement of the signal processing quality through adaptation to environmental influences
  • the service robot 17 is able in a further aspect to adapt the input and output units to the environment in such a way that operation is possible with different degrees of brightness and / or background noise is.
  • the service robot 17 has a commercially available brightness sensor in the vicinity of the display in order to determine how much light falls on the display 2.
  • the brightness value of the display 2 is adapted to the environment, i.e. especially when there is intense incidence of light, the brightness of the display 2 is increased and the brightness of the display 2 is reduced when the brightness values are low.
  • the service robot 17 is able to use one or more microphones 193 to determine the background noise.
  • At least one further microphone 193 records the background noise and uses noise cancellation (ie noise suppression) methods (phase shifts of the input signal around the recorded background noise) in order to improve the signal quality of the acoustic input signal and thus improve speech processing enable, in order to avoid e.g. detection errors, the renewed asking of a question or request by the service robot 17, etc.
  • noise cancellation ie noise suppression
  • the service robot 17 also inquires as a measure for
  • the interaction between the service robot 17 and the person to be evaluated takes place via the communication device already described elsewhere. Such information is stored in the user's database record.
  • the service robot 17 also receives as a further measure for
  • Accuracy improvement of the test results from the patient administration module 160 the information when the patient was admitted to the clinic in which the test is taking place, and calculates the length of the previous stay in order to take into account the decline in cognitive performance due to inpatient clinic purchases. At the same time, it is recorded in the patient administration module 160 whether the patient has already made a diagnosis for a Disease received. This information is also taken into account when displaying the result of the mini-mental test and is stored in the user's database record.
  • the service robot 17 transmits the results of the stored test tasks described above via an interface 188 (such as WLAN) to the patient administration module 160 and in this way makes them available to the medical staff, with the results being documented at the same time .
  • an interface 188 such as WLAN
  • the service robot 17 is configured in such a way that the service robot 17 is able to determine whether a patient has certain excretions over the skin, which in one aspect indicate certain diseases that can be diagnosed therewith. For example, the service robot 17 can determine whether and, if applicable, how much a patient is sweating in bed.
  • a spectrometer 196 such as a near-infrared spectrometer can be used here, for example, and in another aspect also a Raman spectrometer.
  • the processes for measuring precipitates 2100 are shown in FIG. Measurements at different points on the body are possible. The procedure for three locations is described as an example: on the hands, on the forehead, and a measurement on the torso, especially the bedding. Detection of sweat at these points is, for example, part of the Delirium Detection Score, another test to detect delirium in patients.
  • the service robot 17 is configured in such a way that the service robot 17 can record a patient in a bed by means of a 3D sensor, for example a 3D camera.
  • this sensor is positioned on the service robot 17, for example, in such a way that the service robot 17 is at a height of at least 80 cm, for example at least 1.2 m, and is, for example, rotatable and / or tiltable.
  • the service robot 17 is able to identify 2105 beds based on object recognition.
  • the service robot 17 can, in one aspect, scan the room via the 2D or 3D sensor, for example the LID AR 1 which is known a priori that I have beds in this room.
  • dimensions can also be determined using a map stored in memory 10, which contains, for example, spatial information such as the width and depth of a room. In this way, the spatial dimensions are evaluated 2110.
  • the service robot 17 can also determine the dimensions determine measured objects 2115, for example by triangulation in connection with an implemented odometry unit 181 (step 2120), which can determine the positional deviations of the service robot 17.
  • the dimensions of the measured objects in space relative to the space information are determined 2122, for which no recourse to the odometry function is necessary.
  • the determined dimensions, especially the outer dimensions of the bed are classified on the basis of rules stored in the memory 10 in order to determine whether this is a bed 2124. In one aspect, this includes the dimensions of a bed can take.
  • the objects recognized by the LID AR 1 and / or the 2D and / or 3D camera 185 can also be classified on the basis of characteristic features that uniquely identify 2125 a bed Act configuration of the wheels of the bed and / or the lifting device for adjusting the height of the bed.
  • classification rules can also be used that have been created by learning typical bed features on the basis of machine learning methods and / or neural networks.
  • the beds can also be equipped with sensors and / or barcodes 2130, for example RFID or Bluetooth transmitters, which allow bed identification.
  • the positioning of the sensors on the bed can be used to determine the orientation of the bed in the room 2140, for example by using backscatter signals, which are reflected differently on the bed frame and are based on the transit time and / or phase differences determine the orientation of the bed in the room.
  • Barcodes can also be attached to the service robot 17 in such a way that reading them out allows the spatial orientation of the bed to be determined.
  • the codes stored in the sensor system and / or the barcodes are read out by the service robot 17 and compared with those that are stored in the memory 10 of the service robot 17 and are assigned to the beds, whereby the service robot 17 can determine that the sensor read out and / or barcode is assigned to a bed.
  • the bed can be oriented in the room using the bed dimensions, in one aspect also by comparing the position to the next wall 2135: That is to say, the service robot 17 determines the orientation of the bed, in particular the head end, on the basis of a priori information, the a priori information aiming at the fact that a bed has an essentially rectangular shape and its shorter sides represent either the head or foot end. The shorter side is recognized as the head end, which is, for example, closer to a wall of the room.
  • the service robot 17 identifies a person in bed, in particular their head and arms, which can be evaluated, for example, in the context of a skeleton model.
  • the service robot 17 determines where the service robot 17 can navigate relatively close to the patient's head. For this purpose, the service robot 17 next determines on one side of the bed how far the service robot 17 can travel to the head end. If the distance to the wall at the head end on one side of the bed is less than 1 m, the service robot 17 drives along this side of the bed. If the distance is more than 1 m, the service robot 17 on the other side of the bed determines the distance to the wall and then moves as far forward as possible to the wall at the head end, namely on the side where the service robot 17 is as far as possible to the wall can drive at the head end. In an alternative aspect, the service robot 17 first checks both sides for their depth, as described, and then moves in the direction of the head end on the side on which the service robot 17 can reach the farthest in the direction of the wall at the head end.
  • the service robot 17 next determines a candidate region of the head 2150. For this purpose, the service robot 17 positions itself in such a way that its front points in the direction of the presumed position of the head. This can be done, for example, by rotating the service robot 17 on the spot, the service robot 17 having an angle of rotation between 25 and 90 ° measured to the long side of the bed. By means of a 2D or 3D sensor, the service robot 17 detects the surface of the bed, in particular in the area towards the head end.
  • the service robot 17 calculates a candidate region in which the head is usually located and which lies in an area that is at least 25 cm from each long side of the bed and at least 10 cm from the head end of the bed, up to a distance of 60 cm from the head end .
  • intervals can also be stored for the width.
  • the bed stands lengthways to the wall and the service robot 17 moves along the long side of the bed on which there is sufficient space.
  • the service robot 17 uses the already described determination of the candidate region for the Head, alternatively the service robot 17 scans the entire bed by means of the camera 185, the images of which are evaluated using a framework available on the market that has implemented head detection.
  • the service robot 17 is able to determine the forehead 2152 on the basis of features of the head.
  • an area is defined for this which is limited by the following facial features: approx. 4 cm above the line connecting the center of the eye , Hairline on the sides, recognizable by a color contrasting with the patient's skin.
  • the shape of the head can also be used here, the end face limitation being restricted by the rounding of the head.
  • approaches such as histogram-of-gradients can be used, which are implemented in frameworks such as OpenCV or Scikit-image.
  • the angle can be used as a limitation, one leg of which consists of a light beam from the sensor of the head and the perpendicular at the point at which the light beam hits the surface of the head.
  • the service robot 17 can, in one aspect, change the side of the bed in order to ensure that the patient has not turned the back of the head towards him.
  • the service robot 17 can use its output units such as display 2 and / or the speech synthesis unit 133 to request the patient to move his head 2154, for example to look at it. After such a request, an attempt to identify the head or forehead is made again.
  • the service robot 17 uses further classification algorithms to classify the hands of a
  • Patient i.e. there are two candidate regions for the hand 2157 roughly in the middle of the long side of the bed and with a depth of approx. 30 cm parallel to the short
  • RGB or RGB-D camera 185 can be used to create a (partial) skeleton model of the
  • the service robot 17 can, via its output units such as display 2 and / or speech synthesis unit 133, request the patient to move his hands or arms 2159, for example to put them out from under the blanket. After such a request there is another attempt to identify the arms or hands. Similar to the forehead, the service robot 17 also identifies the surfaces of the hands, either the back of the hand and / or the palm. For improved localization, joint points from the skeleton model can alternatively and / or additionally also be included, with the hand area of interest lying between the wrist and the finger joints. Alternatively and / or in addition, the palm recognition can take place via an image classification, the classification algorithms being carried out by training using images that represent the palms of the hands.
  • Another body region of interest is the patient's upper torso, which is pre-defined over a candidate region as a head-down area that extends for a length of approximately 1.5 head-heights beginning half a head-height below the head and which has a width of approx. 2 head widths.
  • the area is defined over a width of approx. 45 cm and a height of approx. 50 cm, which begins approx. 10 cm below the patient's head, alternatively is positioned roughly in the middle of the bed at a distance of approx. 50 cm from the patient Head end.
  • a classification using the three-dimensional shape can also take place.
  • the width of the bed is scanned with a view of the height and, in the area of the axis parallel to the long side, the area that is located in half of the bed that is oriented towards the head end.
  • the part that is below the candidate region for the head is selected along the ridge line that results in this zone.
  • a candidate region for the upper body 2160 can be determined.
  • the elevation is then scanned in relation to the level of the mattress, which is detected by the 3-D sensor system of the service robot 17 and, if an elevation is detected in the candidate region, this area is identified 2162 as the upper body.
  • the service robot 7 is thus able to detect and identify three target regions of the patient: the forehead, the surface of the hand / the back of the hand and the upper part of the torso. These can be identified in space by means of the sensor system, for example by means of the RGB-D camera 185, so that their surface can be represented accordingly in a three-dimensional coordinate system.
  • the images created by the sensor system are segmented in order to determine body regions by means of a classification, so that the spectrometer (196) can be aimed at these body regions.
  • a corresponding classification can be stored in memory 10.
  • the service robot 17 can, for example, also have stored regions in the application for controlling the spectrometer on which the measurement is to be carried out.
  • the service robot 17 tracks the movements of the hand or the head (optionally also of the upper body) in step 2170 over a defined period of time. If no movement is detected for a period of time that is above a defined threshold value (e.g. 5 seconds), or only a movement is detected in which the hand / head does not exceed a defined threshold value (e.g. 5 mm) 2180, a measurement and evaluation of the recorded data takes place 2185.
  • a defined threshold value e.g. 5 seconds
  • a defined threshold value e.g. 5 mm
  • the head of the patient or the hand on which the measurement is being made is continuously tracked by the RGB-D camera 185 as part of a safety check 2178. If movements are detected, for example a turning movement of the head, a lowering or lifting of the head, which exceeds a defined threshold value, the measurement is immediately interrupted.
  • the service robot 17 continues to track the regions on which a measurement is to take place and starts a new measurement attempt if the movements of the head are less than a defined threshold value.
  • the service robot 17 also has, for example, a near-infrared spectrometer for a substance analysis 2186, which is rotatably and pivotably mounted and in this regard. is electronically adjustable.
  • the service robot 17 is able to align the spectrometer 196 via this bearing so that the path of the radiation emitted by the spectrometer 196 reaches the coordinates of the target region in three-dimensional space and the reflected radiation is also detected again by the spectrometer 196
  • Infrared diode with focusing optics come into question, an infrared laser is used in one aspect.
  • the measurement takes place, ie the signals of the spectrometer 196 are evaluated and classified 2189 using a reference database which contains reference spectra and thus allows to determine what is in or on the target region 2188, namely qualitatively or quantitatively 2190.
  • classification rules for determining the substances from the measured spectra can also be stored directly, based on correlation analyzes, for example work.
  • characteristic signals, ie above all spectral curves of sweat can be determined 2191, which are composed of individual spectra of water, sodium and / or chloride and occur, for example, on the patient's skin such as the forehead or the hand. With a view to the target region trunk, it is recorded to what extent the bedspread of the patient is damp, ie the classification used here for signal evaluation takes into account the material of the bedding accordingly.
  • the amount of water excreted as sweat can also be estimated by means of classification using the reference database.
  • the database with reference spectra has those that can determine the concentration of other substances, including various drugs 2192 such as heroin, opiates (such as morphine), amphetamine, methamphetamine,
  • Cocaine including benzoylecgonine, if applicable
  • 9-tetrahydrocannabinol THC
  • other substances 2193 such as glucose, lactate, uric acid, urea, creatinine, cortisol, etc.
  • the service robot 17 has a further reference database which, on the basis of the combination of different substances and / or their concentration (s), allows a classification of measured values determined to that effect, which different diseases are possibly associated with the measured spectra 2194.
  • Both threshold values are here of concentrations or the measured amount of substance, the relationship between the amounts of substance and / or concentrations as well as combinations thereof are part of this classification.
  • An example is the combination of urea, uric acid and creatinine, in which the concentration of uric acid is greater than 0.02 mmol / l, creatinine 0.04 mmol / l (higher at lower temperatures), and urea> 15 mmol / l (at low temperatures) or> 100 mmol / 1 (at higher temperatures).
  • the service robot 17 takes into account the ambient temperature by means of a thermometer located in the service robot 17, the season or the outside temperature and, in the latter case, is equipped with an interface 188 (such as WLAN) to display the outside temperature for its own via the cloud 18 To determine the location, ie the service robot 17 is able to acquire further data for improved evaluation, either via further sensors 2195 and / or via interfaces 188 (such as WLAN) to further databases 2196.
  • a thermometer located in the service robot 17
  • the season or the outside temperature is equipped with an interface 188 (such as WLAN) to display the outside temperature for its own via the cloud 18
  • an interface 188 such as WLAN
  • the measurement results are stored 2197 in a database that is located in the service robot 17 and / or they can be transmitted via an interface 188 (such as WLAN) to a server in the cloud 18 and stored there 2198 a display 2 and / or a voice output can be output 2199, for example via the service robot 17 and / or a terminal to which medical personnel have access for evaluation purposes.
  • an interface 188 such as WLAN
  • a display 2 and / or a voice output can be output 2199, for example via the service robot 17 and / or a terminal to which medical personnel have access for evaluation purposes.
  • the spectrometry system (for example the service robot 17) is shown in FIG.
  • the spectrometry system comprises a computer 9, a memory 10 and a sensor for contactless detection of a person (e.g. a 2D and / or 3D camera 185, a LID AR 1, a radar and / or ultrasonic sensor 194), a spectrometer 196 and a spectrometer alignment unit 4805 for aligning the spectrometer 196 with a body region of a person, similar to a tilting unit.
  • the system can have a thermometer 4850 for measuring the ambient temperature and / or an interface 188 to a terminal 13.
  • a body region detection module 4810 for detecting body regions
  • a body region tracking module 4815 for tracking body regions before and / or during a spectroscopic measurement on this body region
  • a spectrometer measuring module 4820 for monitoring, incl.
  • a visual person tracking module 112 and / or a laser-based person tracking module 113 The system accesses a reference spectrum database 4825 and / or a clinical picture database 4830 with stored clinical pictures and associated spectra for comparing the measured spectra and determining the measured substances that are located in the cloud 18 and / or in the memory 10.
  • a perspiration module 4835 for determining the amount of exuded moisture
  • a delirium detection score determination module 4840 for determining a delirium detection score and / or a cognitive skills assessment -Module 4845 for determining cognitive abilities.
  • the system has a person recognition module 110, person identification module 111, tracking module (112,
  • the service robot 17 is configured (see FIG. 22) in such a way that the service robot 17 outputs a pulsed sequence of different tone signals 2205 (for example a tone sequence) via a loudspeaker 192, for example with a pulse frequency of 0 , 3-3 Hz, e.g. about one Hertz.
  • the service robot 17 can detect signals from at least one tactile sensor 4905 (step 2210) and synchronize 2220 with the output signals.
  • a value in the memory 10 can also be assigned to each sound signal.
  • There is a time delay 2215 between the output of the audio signals and the detection of the signals from the tactile sensor 4905 i.e. for example a phase shift of a maximum of half a pulse length, which lags behind the pulsed signal.
  • the signals of the at least one tactile sensor 4905 registered with the possible phase shift are evaluated as to whether they occur 2225 in a defined tone spectrum stored in memory 10, ie a comparison takes place as to whether the detected signals occur after a defined tone sequence. If this is the case, a counter in the memory 10 is increased by an integer value 2230; alternatively, there is no increase 2235. The determined counter value is then classified in such a way that the determined counter values are assigned a diagnosis associated with counter values 2240 The output of the tones is directed to a patient in order, for example, to check his or her cognitive abilities. The higher the value that is incremented, the less the patient's cognitive abilities are impaired.
  • the diagnosis is stored in the memory 10 of the service robot 17 2245, optionally transferred to a cloud-based cloud storage in the cloud 18 and optionally made available to medical staff via a terminal.
  • the tactile sensor 4905 is a piezoelectric, piezoresistive, capacitive or resistive sensor. However, other types of sensors can also be used, as described in Kappassov et al. 2015 (DOI: 10.1016 / j.robot.2015.07.015).
  • the tactile sensor 4905 is located on an actuator 4920 of the service robot 17, which has at least one joint and can be positioned such that the service robot 17 reaches the patient's hand, ie the tactile sensor 4905 is at a distance from Hand positioned that is below a threshold value that is stored, for example, in a memory.
  • the sensor is integrated into a robotic hand.
  • the sensor is attached to the surface of the service robot 17. For this purpose, the service robot 17 can identify the patient with at least one camera 185, tack it, and determine the position of his hands, for example at least those of the right hand.
  • the service robot 17 outputs a sequence of letters via a loudspeaker 192 which corresponds to a word. Each letter is output every second.
  • the patient is ordered by the service robot 17 to perform a pressure movement with his hand when certain letters are recognized. These pressure movements are evaluated by the tactile sensor 4905 described and it is counted how often the specific letters were recognized. The higher the detection rate, the less the patient is affected.
  • the attention analysis system is summarized as follows:
  • the system for example a service robot 17, comprises a computer 9, a memory 10, an output unit for acoustic signals such as a loudspeaker 192, for example.
  • the system can also include an actuator 4920, for example a robot arm, and a camera 185.
  • the tactile sensor 4905 is, for example, on the Actuator 4920 positioned.
  • an actuator positioning unit 4925 which positions the tactile sensor 4905 by means of the actuator 4925 next to a person's hand, and via a person identification module 111 and / or a hand identification module 4930 and a cognitive skills evaluation module 4845 for determination cognitive abilities of the person.
  • the system has a person recognition module 110, tracking module (112, 113),
  • Movement evaluation module 120 skeleton creation module 5635 and / or skeleton model-based feature extraction module 5640.
  • the latter is configured to evaluate and classify the recognition of images by a patient in order to evaluate the cognitive abilities of the patient, in particular whose attention.
  • 23 shows the sequence used here by way of example.
  • the service robot 17 uses a speech synthesis unit 133 to indicate to a patient that the service robot 17 should memorize several images 2305. Following this voice output, a sequence of images is displayed on the monitor of the service robot 17 displayed 2310, for example five three seconds apart. The patient is then informed via a speech synthesis unit 133 that the service robot 17 should signal by moving his head whether these images then shown are known to him, ie the service robot 17 should have a corresponding Perform classification in step 2315.
  • a shake of the head is seen as a rejection, a nod as a confirmation.
  • This is followed by a display of ten images on the screen of the service robot 17 (step 2320) at intervals of three seconds. Five of these are repeated compared to the previous sequence from the five images, for example each image only once.
  • the sequence of the images and / or the differentiation into new image vs. already shown image can take place 2325.
  • the service robot 17 stores the shown sequence of images, whether they have already been shown or not 2330, and records during of pointing (or up to one second afterwards) the head movements of the patient.
  • the service robot 17 has at least one sensor, for example an RGB-D camera 185, which can recognize and track the head of a patient 2335, the evaluation e.g. using the visual person tracking module 112 and / or the laser-based person tracking module 113 takes place. This includes turning your head and / or nodding your head.
  • the service robot 17 is in the Able to use classification methods to identify prominent points on the face, including the eyes, eye sockets, mouth and / or nose. Solutions for this are known in the prior art (eg DOL 10.1007 / 978-3-642-39402-7_16; 10.1007 / sl 1263-017-0988-8) which, among other things, use histograms of gradients.
  • the head movements of the patient are next classified in order to be able to detect head shaking and / or nodding 2340. Frameworks from the prior art are also used for this.
  • the movements of nodding or shaking the head recognized above are synchronized 2345 accordingly with the images shown.
  • the image sequence shown is then coded to determine whether the patient has correctly recognized a repeated pointing or first-time pointing 2350.
  • the service robot 17 optionally stores the comparison of the values, e.g. with the date on which it was carried out, in a database which, for example, has also stored the image sequences shown.
  • a counter is incremented 2355.
  • the score that results from the incrementation serves as a measure of whether the patient suffers from cognitive impairments.
  • the determined score is classified and assigned a medical interpretation 2360.
  • the score and its medical interpretation are stored 2365 in a database, possibly stored 2370 in the cloud memory in the cloud 18, and are available to medical personnel via a terminal for evaluation purposes Order 2375.
  • the service robot 17 is able to determine the position of the patient's eyes in three-dimensional space 2410 and that of the display 2 (step 2405). In one aspect, the service robot 17 uses this data to check the visual connection between the eyes and the display 2 for the presence of obstacles. Thus, for example, in the case of a patient in bed, the fall out protection can possibly represent such an obstacle. To this end, the service robot 17 first calculates the coordinates that are on the line of sight 2415 and checks, for example by means of a 3D camera, whether these coordinates of the visual connection are associated with detected obstacles 2420.
  • the display inclination is repositioned 2450, alternatively and / or additionally a repositioning of the service robot 17 in the XY plane 2455.
  • the service robot 17 is configured so that the service robot 17 with the aid of the spatial coordinates of the display 2, for example the display corners , and determining the angle between the patient's eyes and the display surface (step 2425) ensures that at least one angle lies in an interval 2430, which is e.g. can be device-specific.
  • the service robot 17 is able to adjust the display inclination accordingly 2450 and / or to reposition the service robot 17 in the room.
  • the font size and / or other symbols on the display 2 can also be adapted as a function of the distance between the patient and the display 2.
  • the service robot 17 first calculates the Euclidean distance between the eyes and the display 2, compares this with reference values stored in the memory 10 of the service robot 17 as to whether this distance is usually acceptable for recognition, and includes, in a supplementary aspect, patient data on vision, to adjust the reference values if necessary.
  • the service robot 17 can adjust the size of the display 2 (i.e. the size of the displayed objects and characters) and / or the service robot 17 is positioned in the space within the XZ level (i.e. the floor level) that the distances for recognizing the display contents are sufficient.
  • the service robot 17 With a view to the repositioning of the service robot 17 in the XZ plane, the inclination of the display 2 and / or the size adjustment of the display, the service robot 17 is able, by scanning its surroundings and a possibly expanded or alternative viewing corridor, which is free of obstacles, the inclination of the display 2 and / or the display dimensions of the display 2 to determine what a position in the XZ plane, a display inclination and / or a display size would be, so that the patient does not have any obstacles between his eyes and the Display 2, the display 2 is spatially positioned in such a way that it is largely free of reflections and / or that the display size is sufficient for the patient's visual capabilities.
  • the service robot 17 has a control for the display inclination and a dialog function in the display 2 or configured as a voice interface.
  • this dialog function the patient is asked for feedback on the extent to which the display is sufficiently recognizable for him.
  • the service robot 17 can change the orientation of the display 2. This can be done in one aspect by repositioning the Service robot 17 vs. the patient. This can be done on the one hand by turning on the spot, on the other hand also by taking a different position (for example defined by the area that the service robot 17 covers on the floor). In an alternative and / or supplementary aspect, the inclination of the display 2 can be adjusted, with the tilt axes being able to be aligned horizontally and / or vertically.
  • this described process is run through again in order to check that the patient can see the display 2 well.
  • the service robot 17 is configured in such a way that the camera 185, for example an RGB-D camera 185, can identify and track the fingers in order to identify the poses shown by the hand with a view to Evaluate numbers, for example by means of the visual person tracking module 112 and / or the laser-based person tracking module 113.
  • FIG. 25 illustrates this process.
  • the depth image 2505 generated by the 3D depth camera is transformed into a 3D point cloud in which each pixel of the camera is assigned a spatial coordinate 2510, from which the skeleton recognition 2515 takes place via camera SDKs or software from third-party providers such as NUITrack.
  • the points of articulation are recognized accordingly, including the wrist and finger joints.
  • a joint selection 2520 takes place, that is to say joint points that are only necessary for the calculations to be carried out subsequently are processed further.
  • Angle calculations 2525 are then carried out, for example for the angle between the third and second phalanx, the second and first phalanx, and the first phalanx and the metacarpal bone.
  • the third phalanx is generally referred to as the one with the fingertip). Since the thumb does not have a second phalanx, it is the angle between the third and first phalanx, the first phalanx and the metacarpal bone, and, in one aspect, between the metacarpal bone and the carpal bones.
  • Each phalanx or each hand bone is represented as a direction vector, in each case from the observed joint point.
  • a feature extraction 2530 takes place next, in which, for example, the angles of said joint points per finger are jointly evaluated.
  • the A feature classification 2535 that is implemented on the basis of defined rules, for example, defines an extended index finger as an angle of 180 ° between the first and second and second and third phalanx.
  • threshold values can be defined that soften the condition 180 ° somewhat and, for example, for the angle between the third and second phalanx between 150 ° and 180 °, and the angle between the first and second phalanx between 120 ° and 180 ° and between the metacarpal bones and the first phalanx between 90 ° and 180 °.
  • the angle between the third and first phalanx of the thumb is less than 120 °, for example less than 100 °, in order to ultimately be recognized as 2.
  • the angle between the hand bones is less than 145 °, for example less than 120 °.
  • Feature extraction, feature classification, and hand pose classification can be carried out on the one hand by predefined rules such as angle definitions of individual articulation points and their combination, or they can be trained using machine learning approaches 2550 such as support vector models in which certain angle combinations are labeled accordingly , ie the combination of angles between the individual phalanges of the fingers can indicate that, for example, two fingers corresponding to the value 2 are shown.
  • predefined rules such as angle definitions of individual articulation points and their combination
  • machine learning approaches 2550 such as support vector models in which certain angle combinations are labeled accordingly , ie the combination of angles between the individual phalanges of the fingers can indicate that, for example, two fingers corresponding to the value 2 are shown.
  • an output of the service robot 17 is first triggered, which is output via the speech synthesis unit 133 via loudspeaker 192 and / or via text and / or images on the screen of the service robot 17.
  • This speech prompts the patient to two Pointing fingers 2605.
  • the camera 185 identifies the patient's hands, their fingers, and tracks the finger movements.
  • the service robot 17 evaluates this as part of the pose classification in order to determine how many fingers are displayed 2610. In an optional aspect, as will be described below, it can be taken into account whether the finger pose displayed by the patient is associated with a code 2665.
  • the service robot 17 then saves a value which indicates whether the patient has shown two fingers 2615, ie an evaluation of the comparison of the evaluated finger poses with the visually and / or acoustically output numerical values takes place.
  • the service robot 17 has at least one actuator 4920, for example a robot arm with at least one joint, which also has at least one robot hand 2620 that has at least two human-like fingers, for example at least over five fingers, one of which corresponds to a thumb in terms of its arrangement, and which, for example, have as many finger joints as the human hand.
  • the service robot 17 is able to display numbers by means of these fingers, with stretched fingers and finger poses resulting from the angles of the phalanges that have already been classified above with a view to the recognition of phalanges by the camera 185.
  • the service robot 17 is thus able to also display the value 2 2670, for example by stretching the thumb and forefinger on the robot hand, ie the angles between the first three phalanxes are approximately 180 °, while the angles of the others Phalanges and phalanges and hand bones are less than 120 °.
  • the service robot 17 is configured in such a way that the service robot 17 can synchronize the regulation of the poses of the robot hand via the voice output and / or display 2 in such a way that the value 2 is displayed by the robot hand while the request is made via display 2 and / or speech synthesis unit 133 occurs to the patient to display as many of the fingers as the robot hand displays 2675.
  • the hand tracking and the pose classification for recognizing two of the fingers 2610 on the patient then take place in order to determine that the patient has the number two has indicated to store a value 2615.
  • the hand poses shown by the patient are evaluated, for example, within a time window of 3 seconds after the service robot 17 prompts the patient to display a numerical value via its output units such as loudspeaker 192 and / or display 2 has or gives him the corresponding numbers through the robot hand were shown.
  • the findings obtained in the course of this test allow an assessment of the extent to which the patient is impaired by disorganized thinking and thus represent a test method with a view to recognizing and monitoring delirium.
  • the service robot 17 is configured in an optional alternative and / or supplementary aspect in such a way that it is possible to display the numbers with the fingers based on cultural and / or national differences. Alternatively and / or in addition, a recognition of the numbers shown can also be facilitated by the fact that the service robot 17 takes these differences into account when evaluating the hand poses. As a result, for example, the number 2 is more likely to be displayed by the thumb and forefinger in patients from Germany, while US Americans use the forefinger and middle finger to display the number 2.
  • the service robot 17 contains in the memory 10 codes for different poses which display the same number 2650 and which are accordingly country-specific / culturally determined.
  • the patient data that the service robot 17 holds in its memory 10 can also contain one of these codes 2652, which accordingly refers to the national / cultural background of the patient.
  • Several poses are thus stored in memory 10 for each number, in particular several combinations of fingers.
  • the next step is a comparison of the codes in order to determine the patient's preferred poses 2655.
  • the patient the numbers in the familiar hand and / or finger pose.
  • the service robot 17 is thus able to show the patient the hand and / or finger pose, for example the number 2, which corresponds to his cultural / national background 2660, which is implemented by the robot hand of the actuator 4920 2670.
  • this information can be used for the appropriately coded cultural / national background of the patient to better recognize the two fingers shown by the patient.
  • This finger output and / or recognition taking into account such codes is an optional implementation.
  • the service robot 17 is further configured in such a way that the robot hand can be spatially aligned via the actuator 4920 with at least one joint in such a way that the robot hand can be recognized by the patient in step 2638.
  • the service robot 17 detects the patient's head and its orientation in space by using methods of facial pose recognition established in the prior art 2625 uses such as are contained in the OpenPose framework, for example.
  • approaches such as histograms-of-gradients can also be used, which are implemented in frameworks such as OpenCV or Scikit-image.
  • the service robot 17 uses these frameworks to determine the orientation of the head in space and calculates a field of vision for the eyes.
  • the service robot 17 thus has a cone-of-view recognition 2630.
  • the service robot 17 detects its position in space and the position of the actuator 4920, in particular the position of the robot hand, and determines whether this position is within the cone 2632 If it does not position itself within the cone, the service robot 17 calculates which angular settings of the joints of the actuator 4920 are necessary in order to position the robot hand within the cone.
  • the service robot 17 calculates a three-dimensional area in space which has a minimum distance from the patient and which varies, for example, depending on the body region of the patient. Such minimum distances are stored in the memory 10 of the service robot 17 in step 2636.
  • an “allowed zone” is calculated in which the robot hand is allowed to move, whereby the distance to the patient's head is further than, for example, to the torso or arms.
  • the distance to the head is 50 cm and that to the rest of the patient's body is 30 cm.
  • the service robot 17 determines in step 2638 where in which part of the permitted zone the service robot 17 can position the robot hand so that this robot hand is located within the two cones. Then, in step 2638, the service robot 17 aligns the robot hand by means of the actuator 4920 in such a way that the hand can be “easily recognized” by the patient. If no such positioning is possible, in step 2640 the service robot 17 requests the patient to look at the service robot 17 via the output units such as display 2 and / or speech synthesis unit 133 via loudspeaker 192. A new test then takes place in step 2642, ie, steps 2630-2640 are run through.
  • the service robot 17 aborts the test in step 2644 and transmits information to medical personnel in step 2646, including, for example, information to the server and / or a mobile device via an interface 188 (such as WLAN) Terminal.
  • the service robot 17 can prompt the patient again and / or wait a little longer. If the robot hand is aligned in such a way, so that the patient can easily recognize this, the display of two fingers with this hand takes place in step 2670 and the process is continued as described above. This alignment of the robot hand on the basis of face pose detection and the consideration of the “allowed zone” is an optional aspect.
  • the cognitive analysis system is illustrated in FIG. 65.
  • the system for example a service robot 17, comprises a computer 9, a memory 10, an output unit and in the memory via a numerical value output module 4940 for outputting numerical values, a person detection and tracking unit (4605) with a camera (185) and a person recognition module (110).
  • the output unit is a sound generator such as a loudspeaker 192, a display 2 and / or an actuator 4920, for example a robot arm, in one aspect with a robot hand 4950.
  • the system has a hand pose in the memory 10.
  • Detection module 4960 for detecting hand poses of the person
  • finger pose generation module 4955 for generating finger poses of the robot hand (4950), the finger poses representing numerical values, for example.
  • the system also has a cognitive skills assessment module 4845 for assessing the cognitive abilities of the recorded person.
  • the system is connected to a patient administration module 160.
  • the system has rules to determine cognitive abilities of the recorded person, which have been described elsewhere.
  • the system has a personal identification module 111, tracking module (112, 113),
  • Movement evaluation module 120 skeleton creation module 5635 and / or skeleton model-based feature extraction module 5640.
  • the service robot 17 is configured in such a way that the service robot 17 is able to carry out a test of the patient's sensation of pain, which test is implemented by observing the patient's behavior by the service robot 17. The procedure is based on the Behavioral Pain Scale, a pain rating scale established in medicine. Such tests are also carried out as part of Delir monitoring.
  • the facial expression of the patient who is in a bed is analyzed.
  • approaches were presented as to how the service robot 17 can identify patients in a bed and possibly track their faces, including those associated therewith Navigation of the service robot 17.
  • a bed is detected by sensors and the image generated in the process is evaluated using a pattern comparison in order to assess whether it is a bed. In one aspect, these approaches can also be used here.
  • the service robot 17 evaluates the patient's emotions, which result from his facial expression.
  • the service robot 17 can use a face classification database in one aspect, in which classification rules for classifications within a candidate region of the face and across several candidate regions of the face are stored, which allow conclusions to be drawn about the emotional state of the patient on the basis of facial features and which are described in more detail below.
  • This two-stage process differs from the state of the art, which was described, for example, in US20170011258 or US2019012599 as a one-stage process.
  • histograms-of-gradients are used, which are implemented, for example, in frameworks such as OpenCV or Scikit-image. Emotion recognition focuses primarily on those emotions that measure the patient's tension, from relaxed to great tension, which is expressed in grimaces.
  • the head of the patient is first identified in step 2705, for example by means of frameworks such as OpenPose. These evaluations can take place by means of the 2D or 3D camera 185.
  • candidate regions within the face are first identified 2710 before the feature extraction required for the evaluation of the emotional state based on histogram-of-gradient algorithms takes place in at least one candidate region in step 2715, with which, for example, the movements of the mouth can be evaluated or that of the eyebrows.
  • a feature classification takes place, which falls back on an existing feature classification, which is carried out using established clustering methods such as K-Means, support vector machines and / or based on weights that are generated by training a neural Network were collected, for example a multilayer convolutionary neural network with backward propagation with the help of labeling of facial expressions in step 2720.
  • the classifications made at the candidate region level are classified across several candidate regions, which is also done by means of classification based on established clustering methods of machine learning such as, for example, K-Means, Support Vector Machines, and / or the convolutionary neural networks already mentioned in step 2725. With this, for example, movements of the mouth and eyebrows are evaluated together.
  • the recognition algorithms can be filtered in various aspects in step 2730, ie for example corrected for the age of the patient in step 2735, which the service robot 17 can receive from a database via an interface 188 (such as WLAN), provided that the Evaluation of the emotions takes place directly on the service robot 17.
  • the recordings that the camera 185 creates of the patient's head for the purpose of recognizing the emotions can also be transmitted via an interface 188 (such as WLAN) to the cloud 18 and analyzed there. In that case, any age information would be transmitted from the cloud storage in the cloud 18 to the module carrying out the emotions.
  • Another filter is whether the patient has an endotracheal cannula (step 2740) which ensures artificial ventilation of the patient through the mouth.
  • classification algorithms that are used for the described evaluation of the emotions have, for example, been created in one aspect using training data with images of corresponding endotracheal ventilated patients. Further details on the detection of cannulas can be found below and can also, in one aspect, be used within the scope of the procedure described here.
  • the emotions are rated on a scale from 1-4, for which purpose determined emotions are compared with those that are stored in memory 10 and to which scale values are assigned.
  • a value of “1” means a facial expression classified as regular, while the tension increases on the scale up to a value of 4, which implies grimaces.
  • the values are recorded over the course of several hours or days, which possibly simplifies an evaluation of the emotional state of the patient, for example if, at the beginning of the series of emotion measurements made by the service robot 17, a patient is in is in a relaxed state, which is, for example, about a terminal and a menu configuration can be stored in the memory 10, for example by medical personnel, to which the service robot 17 has access.
  • This dynamic classification (step 2750) of the facial expressions increases the quality of the classification, since the classifications are possible on the basis of different observations of the face at several points in time.
  • a retrospective classification can also be carried out, in which case, for example, only the extracted features, together with a time stamp that characterizes the recording time, are stored and reclassified. In order to do this, the recordings of the face are saved.
  • Pain status detection of the movement of the upper extremities.
  • a second part of the test focuses on movements of the upper extremities such as the upper arm, forearm, hand and fingers.
  • the service robot 17 tracks these, which the service robot 17 has recognized as described above, over the course of time, which happens either by means of the 2D camera and frameworks such as OpenPose or 3D camera (possibly an RGB-D camera 185), with For example, the evaluation takes place by means of the visual person tracking module 112 and / or the laser-based person tracking module 113.
  • each point is assigned a spatial coordinate in step 2810, by camera frameworks or other software tools in the prior art Technique a skeleton model recognition takes place in step 2015, in which the articulation points of the skeleton are recognized.
  • a joint selection is then carried out in step 2820, that is to say the detection is aimed in particular at joint points such as the shoulder joint, the elbow joint, the wrist and the finger joints.
  • An angle calculation of these articulation points takes place in step 2825, in which the angle, for example, via the Direction vectors is defined, which take the hinge point as a starting point.
  • the angles of these limbs are recorded over time.
  • the limbs are then classified in such a way that the number of angular changes per unit of time, the speed, ie for example the angular speed, etc., is used as a measure of the intensity of movement.
  • the service robot 17 classifies these movements in step 2835 on a scale from 1 to 4, and saves this value.
  • a value of 1 corresponds to no movement within the tracked time.
  • the value 2 corresponds to few and / or slow movements of the arms, 3 corresponds to movements of the fingers, and 4 corresponds to a high movement intensity of the fingers, which are defined, for example, by the number of finger movements per unit of time and / or their speed and which are threshold-dependent.
  • a third part of the test is based on the pain vocalization of the patient and can take place in two principally different processes which are based on two different scenarios and are expressed in two variants of the assessment.
  • the first scenario involves an artificially ventilated patient whose vocalization is assessed on the basis of a cough.
  • the second scenario the patient is not ventilated and typical pain sounds are assessed. The procedure here is described in more detail in FIG.
  • Pain status pain vocalization of ventilated patients
  • a first variant involves ventilated patients. These can either have a tracheostomy tube, which ensures ventilation through an opening in the neck, or an endotracheal tube, which enables ventilation through the mouth. Means
  • the service robot 17 is able to use image recognition algorithms to identify patients ventilated in this way in step 2901.
  • the head and neck region of the patient are recorded, either as a 2D or 3D image, which serve as candidate regions in the first step, the neck in the case of a tracheostomy tube and the mouth in the case of a
  • Endotracheal cannula serves as a candidate region.
  • the candidate regions are recognized, for example, in connection with histogram-of-gradient (HoG) -based face recognition in step 2905 and candidate regions derived therefrom, such as the mouth and neck, in the step
  • HoG histogram-of-gradient
  • Model assumptions can be used as a basis, i.e. the shape that such cannulas typically have (step
  • the pixels recorded by the camera 185 are then evaluated by an optionally real-time capable and fault-tolerant segmentation algorithm 2920, to recognize such a cannula.
  • the service robot 17 is thus able to detect the cannula.
  • a database-based detection can be carried out in step 2902, the service robot 17 providing information on the ventilation of the patient in step 2925 via an interface 188 (such as WLAN) from a cloud-based database with patient information in the cloud 18
  • Step 2927 queries and / or the information is located, together with further patient data, in the memory 10 of the service robot 17 (step 2929).
  • the service robot 17 determines the extent to which the patient is breathing normally or even coughing 2930. This determination can take place in various ways. In one scenario, the service robot is using in step 2935
  • step 2936 the service robot engages
  • Curves are compared in step 2941 either with threshold values that are typical for various ventilation scenarios such as pressure- or volume-controlled ventilation and those that occur in these ventilation scenarios in the event of a cough.
  • labeling can also be carried out in the cases, for example by medical staff, in order to recognize atypical ventilation patterns such as coughing, which is then classified as a cough in step 2942 by the algorithms of machine learning and / or neural networks .
  • the curve progressions pressure, volume, flow
  • an anomaly can not only be compared directly with the cycle before and after in step 2942, but also chains of several cycles in order, for example, to
  • the corresponding modes of the ventilator alternatively the ventilation curves derived therefrom (pressure / flow over time) can be recognized by the service robot 17 and accordingly in the classification of the ventilation of the Patient in step 2944 must be taken into account.
  • the service robot 17 can also receive the information from the ventilator that it is in the cough support mode or that it triggers a cough, with which the system would detect a coughing event.
  • an adapter can also be accessed in step 2937, which uses the pressure and / or flow in the supply tube between the cannula and the ventilator a pressure and / or flow sensor and transmits the signals, for example wirelessly via an interface 188, to the service robot 17, which then creates corresponding evaluations of the ventilation profile, which can be evaluated as described above.
  • coughing can also be detected via at least one sensor, which is located, for example, on the patient's body 2950.
  • sensors 2952 for example with magnetometer
  • strain sensors 2954 eg, strain gauges that are applied to the patient's skin at precisely these locations
  • contact microphones 193 step 2956
  • thermistor 2958 located on or in the nose, for example, and which are each wirelessly connected to the service robot 17 via an interface 188 (e.g.
  • WLAN Wireless Local Area Network
  • At least one microphone 193 (step 2960) is used that is on the patient and / or on another Position is located in the patient's room and that is directly (or indirectly with data storage (in one variant also storage of data already evaluated with a view to cough signals) in memory 10, to which the service robot 17 has access) connected to the service robot 17.
  • this at least one microphone 193 is integrated 2962 in the service robot 17, records the noises in the patient's environment in the memory 10 of the service robot 17 and classifies the sound signals as to whether a cough is occurring.
  • machine learning algorithms and / or neural networks that have been trained using recorded coughing noises are used here.
  • a system is trained in one aspect that has at least one processor for processing the audio data and at least one audio data memory in which audio data are located, in one aspect also present as spectral data, and which are labeled accordingly.
  • the 3D sensor of the service robot 17, e.g. the 3D camera detects movements around the mouth, but also of the chest and / or neck, i.e. by means of a fault-tolerant
  • Segmentation algorithm 2976 said candidate regions 2974 are evaluated. How the mouth can be detected has already been described elsewhere. With a view to the detection of the chest and stomach area, the candidate region 2974 is, for example, via the
  • the trunk under the blanket which consists of the chest and abdomen, both of which can be evaluated while breathing.
  • the blanket which consists of the chest and abdomen, both of which can be evaluated while breathing.
  • Candidate region 2974 can also be determined, for example, from twice the head height, which extends downward from the chin, and approximately 2.5 times the head width. In both cases, the identification of the head can be used as an initial step and thus as reference 2972 in order to identify the candidate regions from there. As an alternative and / or in addition, the dimensions of the bed can also be used as reference 2972 for this purpose
  • Camera capture the elevations of the duvet surface, in one aspect a
  • Histogram-of-gradients evaluation takes place, which are evaluated on the basis of a classification that has been trained by a system that uses 2D or 3D as input variables
  • Beds are or are not and which are removed from the area using classification procedures machine learning and / or neural networks were evaluated, while the evaluation results form the classification, in particular to detect the upper body of a patient.
  • step 2978 the movements of the mouth, cheeks, neck and upper body recorded by the 3D camera are evaluated over time.
  • an interference reduction 2980 made, as far as the detection of movements is concerned, which are covered by fabric or the duvet, i.e. primarily of the upper body / stomach. Interferences that arise from different phases of the recorded movements of the duvet and make the actual breathing movements more difficult to detect are eliminated by determining the power density spectrum, which makes it easier to record the movements of the chest.
  • the power density spectrum is determined, for example, by means of a fast Fourier transformation (FFT) in step 2982, then the power density spectra for all pixels is aggregated in step 2984 and the maximum is determined via quadratic interpolation in step 2986, the position of the maximum indicating the respiratory rate in step 2988. This is then monitored with a view to frequency changes that reflect the cough in step 2990. A frequency determination of the detected body parts is then undertaken 2990 in step 2990. For example, histogram-of-gradient calculations are used in step 2990.
  • FFT fast Fourier transformation
  • the subsequent feature classification in step 2992 is based on a classification that was generated by recording coughing movements and non-coughing movements, for which purpose standard classification methods and / or neural networks can be used, as already described elsewhere in this document. If no cough is detected by the approaches described, this criterion is rated with a score of 1. If a cough is detected, the score is given a 2.
  • the sequence can be described as follows: detection of the person, face and neck recognition of the person, evaluation of the face and neck area of the person according to patterns that describe a device for artificial ventilation, storage of a value when a pattern is detected, the one device for artificial Describes ventilation, the device for artificial ventilation describing a pain status.
  • Pain status pain vocalization in non-ventilated patients
  • the service robot 17 If the service robot 17 has not recognized a cannula in the patient by means of the implemented image recognition and / or no information on artificial ventilation is stored in the database with patient information, another variant of the third part of the test takes place, the service robot 17 analyzes using Microphone 193 sounds emitted by the patient. These noises are classified on the basis of algorithms that have been trained on the basis of labeled noise data using machine learning algorithms and / or neural networks in such a way that the noises can recognize pain vocalizations in different forms. If no pain vocalization is found, this criterion is given the value 1.
  • a pain vocalization is recorded for a duration of less than 3 seconds and with a frequency of less than three pain vocalizations per minute, this criterion is rated 2.
  • a higher frequency or longer duration is rated 3, while for example verbal pain vocalizations, which in one aspect can also be determined via a dialogue with the patient, is rated 4.
  • the scores over the three parts of the test are finally summed up.
  • the results are stored in a database, in one variant transmitted via an interface 188 (such as WLAN) to a server in the cloud 18 and stored there.
  • the medical staff has access to the evaluation, which also enables a detailed examination of the test results (partial results and overall result), and this data can be displayed visually via a terminal.
  • the individual parts of the test can also be carried out independently of one another.
  • the pain status determination can be based on a
  • Assignment of scale values to the recorded acoustic signals includes and the Scale values represent a pain status.
  • the position of the source of acoustic signals is also determined, the person whose pain status is determined is determined and the determined position is compared by comparison with a threshold value (ie with regard to a minimum similarity of the position values), and a value is stored when the value falls below the threshold value in relation to the determined pain status.
  • a threshold value ie with regard to a minimum similarity of the position values
  • a system for determining the pain status of a person is summarized as follows in FIG. 66:
  • the system for example a service robot 17, comprises a computer 9, a memory 10 and a sensor for contactless detection of the person, for example a 2D and / or 3D camera 185, a LID AR 1, a radar and / or ultrasound sensor 194.
  • a sensor for contactless detection of the person for example a 2D and / or 3D camera 185, a LID AR 1, a radar and / or ultrasound sensor 194.
  • it can have different modules in its memory 10.
  • the system has a person recognition module (110), a visual person tracking module (112), face recognition module 5005 for recognizing the face of the person, a face candidate region module 5010 for selecting candidate regions within the face, an emotion -Classification module 5015 for classifying the surface curvatures of the candidate regions in emotions, and an emotion evaluation module for determining a scale value for the emotion 5020.
  • the system has, for example, a bed recognition module 5025 for recognizing a bed and / or a Upper extremities evaluation module 5035 for detecting the upper extremities of the person, tracking them over time, and evaluating the angles between the trunk and the upper arm, the upper arm and the forearm and / or the phalanges and the hand bones with regard to the intensity of the angle changes , their speed and / or the number of angle changes per unit of time is evaluated, as well as, for example, via a pain status calculation module 5040 to determine a scale value for the pain status.
  • a bed recognition module 5025 for recognizing a bed and / or a
  • a Upper extremities evaluation module 5035 for detecting the upper extremities of the person, tracking them over time, and evaluating the angles between the trunk and the upper arm, the upper arm and the forearm and / or the phalanges and the hand bones with regard to the intensity of the angle changes , their speed and / or the number of angle changes per unit of time is evaluated, as well as,
  • the system comprises a microphone 193 for recording acoustic signals, for example an audio source position determination module (4420) for evaluating the position of the source of acoustic signals and an audio signal person module (4430) for assigning audio signals to a person .
  • the system can, for example, via a pain vocalization module (5055) to classify the intensity and frequency of the acoustic signals and to determine a scale value representing a pain vocalization.
  • a ventilation device identification module 5065 for identification of a device for artificial ventilation, ie selection of candidate regions of the artificial ventilation, expansion of the candidate regions for artificial ventilation by means of object recognition, and object classification for the identification of cannulas, around tracheostomy tubes or endotracheal tubes.
  • a pain perception evaluation module 5085 for evaluating sensors attached to a person such as an inertial sensor, strain sensor, contact microphone and / or thermistor that detect movements, air currents and / or sounds that are classified with regard to an expression of pain.
  • the system has a person identification module 111, movement evaluation module 120, skeleton creation module 5635 and / or skeleton model-based feature extraction module 5640.
  • the robot 17 is further equipped with a system which detects repetitive movements of the human body that correlate with the expulsion of blood from the heart into the large blood vessels with each heartbeat. Changes are recorded that arise, on the one hand, through movements of the large blood vessels and, for example, propagate in waves in the body, and / or that result from movements of arteries in the skin. The latter are more robust against fluctuations in the lighting of the body part and / or different color tones of the skin. Alternatively and / or in addition, changes in the blood volume or the blood flow in the skin, e.g. over time, are recorded which correlate with the heartbeat. 30 below shows the process of data acquisition and evaluation.
  • a body region and multiple subregions are identified in step 3005.
  • the body region is the face, the evaluation taking place, for example, by means of the camera 185.
  • the system uses algorithms from the prior art to record the face (alternatively other body regions), for example the OpenCV, OpenPose or dlib framework, and to track it, with the evaluation using the visual person tracking module 112 and / or the laser-based person tracking module 113 takes place.
  • the forehead, the cheeks or the chin are recorded as partial regions, for example several body regions together, which are then evaluated individually and / or separately according to the steps described below.
  • a selection of candidate regions can be made, ie partial regions of the face that are relevant for the evaluation, for which purpose segmentation methods known in the prior art (such as, for example, RANSAC) can be used.
  • These sub-regions like the Body region as such, tracked over time in step 3010 by the frameworks mentioned.
  • the camera 185 is aligned as parallel as possible to the region that is to be tracked.
  • the detection angle of the face which results from an axis that is perpendicular to the camera detecting the face, and an axis that is perpendicular to the sagittal plane of the face can be minimized.
  • the system determines, for example, a plane which runs through the face and which is essentially parallel to the top view of the face and which corresponds, for example, to the sagittal plane. Based, for example, on histogram-of-gradients (HoG), the system has a classification that describes the deviations from this top view in order to record the inclination of the face in three-dimensional space.
  • HoG histogram-of-gradients
  • the system uses this procedure to assess a face looking into the system's camera 185 according to the extent to which the face is aligned parallel to the camera lens.
  • the system can, in one aspect, adjust the inclination of the camera 185 in three-dimensional space using a corresponding mechanism such as a tilting unit 5130, for example by controlling two tilting axes arranged orthogonally to one another, which are driven by servomotors.
  • the term tilting unit is therefore understood to mean a tilting unit with at least two axes which, on the one hand, enables the horizontal plane to be tilted and, on the other hand, enables rotation about the vertical axis.
  • the wheels of the service robot 17 are controlled in such a way that the service robot 17 rotates in the direction of the person in order to reduce the determined deviation of the camera plane from the face plane.
  • such a deviation triggers the voice output of the service robot 17 in order to give the patient instructions to align his face accordingly.
  • rules are stored that require an alignment in the XY plane if a deviation in the XY plane has been determined. Adjustment of the face inclination and control of the tilting mechanisms, the orientation of the service robot 17 and / or the voice output with a view of the patient are carried out, for example, until the angle between the camera plane and the face plane have reached a minimum.
  • the detection angle of the camera 185 can be minimized in comparison to the sagittal plane and possibly also the transverse plane, which also includes driving maneuvers of the robot 17, for example.
  • the system is configured, in an optional aspect, to illuminate the body part such as the face in step 3020.
  • the face or another body part
  • At least one lamp is used, which is located close to the camera 185, for example. This is ideally located below and / or above the camera 185, that is to say is offset vertically around this camera 185.
  • the emitted light is scattered in order to ensure the most homogeneous possible illumination of the area to be recorded.
  • a lateral arrangement of the camera 185 can, depending on the position of the face and its dimensions, possibly lead to a shadow cast by the nose, which affects the cheeks, which are located to the side of the nose and whose recording provide an above-average signal-to-noise ratio, and thus possibly worsen the quality of the evaluation.
  • the camera 185 used provides at least one color channel for the evaluation, including, for example, at least the green color channel, since the light emitted here is particularly well absorbed by hemoglobin.
  • the camera 185 also provides a color channel for the shade of orange and / or cyan.
  • the color depth per channel is, for example, at least 8 bits, the image frequency 30 images per second.
  • the camera 185 can also be an RGB-D camera 185, which provides depth detection in addition to color detection, for example on the basis of time-of-flight sensors or speckle patterns to record rhythmic, vascular blood flows and rhythmic, vascular expansions.
  • a signal extraction takes place.
  • the input signal is first selected on the basis of the video signals of the tracked regions, which can either be a movement caused by the pumping rhythms of the heart and / or a color change with a view to the flow of blood, in particular hemoglobin, whereby said rhythmic , vascular blood flow and / or rhythmic vascular expansion.
  • a color channel evaluation takes place, including known information, which features are mapped by which color channel, provided that the blood flow is recorded.
  • This is understood to mean, in particular, a weighting of the channels in step 3030. It is primarily the green color channel that can be evaluated, the green and red color channels (e.g. as a difference consideration of the green and red channel), the combination of green, cyan and orange, etc.
  • the spatial resolution is determined alternatively or in addition. That is to say, the vertical and / or horizontal movements of recorded properties of the face are tracked, for example the position of the face and its subregions over time and are evaluated. This includes both the movements of the head and the individual parts of the face.
  • the subsequent signal determination uses, for example, at least one filter in the first sub-step (preprocessing 3035).
  • This includes trend adjustment (e.g. with scaling and / or normalization); a moving average consideration, a high-pass filtering; a bandpass filtering, possibly designed as an adaptive bandpass filtering; an amplitude-selective filtering; a Kalman filter; and / or a continuous wavelet transform.
  • trend adjustment e.g. with scaling and / or normalization
  • a moving average consideration e.g. with scaling and / or normalization
  • a bandpass filtering possibly designed as an adaptive bandpass filtering
  • an amplitude-selective filtering e.g., a Kalman filter
  • / or a continuous wavelet transform e.g., a linear polynomial approximation of the least squares.
  • a signal separation method 3040 in order to improve the signal-to-noise behavior and to reduce the number of feature dimensions to be considered.
  • a main component analysis or a one-dependency analysis can be used, in one aspect also machine learning methods.
  • the signal processing 3045 comprises the determination of the pulse rate and, if necessary, further variables in the context of a Fourier transformation (fast, for example, discrete Fourier transformation, in particular to determine the maximum power spectrum density), autoregressive models (for example using Burg's method), the use of bandpass filters in Connection with the detection of maxima, for example a peak detection, a continuous wavelet transformation, and / or models of machine learning, in particular of non-awakened learning.
  • a discrete cosine transformation can also be used.
  • methods can also be used to compensate for errors caused by movements of the head, etc., for example, including Kalman filters, (adaptive) bandpass filters, outlier detection, sliding Averages, Bayesian fusion and / or machine learning methods can be used.
  • step 3055 takes place on the basis of various prior art approaches described, with which, for example, the systolic and diastolic blood pressure can be determined, for which purpose linear or non-linear prognosis methods can be used.
  • the mentioned machine learning methods for example neural networks such as convolutionary neural networks, are able to recognize hidden and partly unknown features in the data and to take them into account in the evaluation, for example in the context of performed cluster analyzes .
  • weights for the classifications or linear or non-linear forecast models are generated, which are then used in productive operation as part of the process described.
  • the values determined for the pulse rate, pulse rate variability and, if applicable, further values, possibly after post-processing has taken place, are compared in one aspect with values stored in the memory 10 in step and the pulse rate, pulse rate variability, or other variables are determined based therefrom, especially the systolic and diastolic blood pressure.
  • the filtering in the context of preprocessing and postprocessing depends on the variables to be detected.
  • a bandpass filter can be used that covers the spectrum 0-6 Herz, for example at least 0.7-4.5 Hz.
  • the signal of the pulse can also be sampled more closely in this frequency range , for example with a window of 0.1 Hz. Smoothing can then be carried out using a low-pass filter.
  • the pulse rate, heart rate or pulse rate or heart rate can be processed, for example, by means of a bandpass filter which has a width between 0.7 and 4 Hz.
  • a bandpass filter with a window between 0 and 0.4 Hz can again be used, in one aspect sampled at intervals of 0.02 Hz
  • Bandwidth between 0.5 and, for example, 6 Hz can be evaluated, in one aspect sampled in intervals of 0.1 Hz.
  • the pulse wave transit time can thus be determined for values from several regions.
  • the pulse shape results from an unsampled course in the spectral window of approx. 0-6 Hz, for example characterized by the area under the curve, the height and / or width.
  • the pulse energy results from the first derivative of these values.
  • the blood pressure can thus be determined, for example, by means of a linear model from the pulse wave transit time and the pulse or heart rate as well as the previous blood pressure value, and linear regression models or neural networks can be used.
  • a previous blood pressure value for example, the shape of the measured pulses can also be evaluated, e.g. by determining the differences between the pulse curve and the vertical running through the maximum value.
  • the system for determining blood pressure is illustrated as follows, as set out in FIG. 67:
  • the system for determining cardiovascular parameters of a person in one aspect a service robot 17, comprises a computer 9, a memory 10 and a camera 185 (e.g. a 2D and / or 3D camera) and also a body region detection module 4810 for the detection of body regions, a body region tracking module 4815, a face recognition module 5005, a face candidate region module 5010 and a cardiovascular movement Module 5110 for recording movements that can be traced back to cardiovascular activities.
  • the camera 185 provides at least the green color channel with 8 bits.
  • the system also has a light 5120 in order to illuminate the face during the recording by the camera 185, which light is located above and / or below the camera 185, for example.
  • the system has a blood pressure determination module 5125 for determining the systolic or diastolic blood pressure 5125 and / or a tilting unit 5130 in order to minimize the detection angle of the camera 185 compared to the sagittal plane.
  • the system has rules, for example, to place a vertical line between the eyes of the person being captured, so that the head is divided into two halves. The face is segmented, with histograms-of-gradients being placed over the individual segments. If these have a (mirror-inverted) similarity that is below a threshold value, the face is perceived as being recorded vertically.
  • the camera 185 can now be controlled via a tilting unit 5130 in such a way that this comparison of the mirror-inverted halves of the face is made via the histograms of gradients during the control and the camera is positioned in such a way that these threshold values of the histograms of gradients are undercut.
  • the system has a person recognition module 110, person identification module 111, a visual person tracking module 112, movement evaluation module 120, skeleton creation module 5635, skeleton model-based feature extraction module 5640 and / or movement planner (104).
  • the service robot 17 can also be equipped with a detector 195, which is located, for example, on the side of the service robot 17 facing the patient. In one aspect, this detector 195 can be permanently integrated in or on the surface of the service robot 17. In an alternative and / or supplementary aspect, the detector 195 is mounted on an actuator 4920, for example a robot arm, and can, as described by way of example for the alignment of the spectrometer 196 on the skin of a patient, on surfaces of the body identified by the service robot 17 Align the patient and, in one aspect, touch the patient's skin in this way. As an alternative and / or in addition, the service robot 17 can also request the patient to touch the detector 195, for example with a finger.
  • the service robot 17 is able to verify that the patient actually touches the detector 195. In one aspect, this verification can take place via a test measurement, the recorded values being compared with those from a measurement interval stored in the memory 10 in order to assess whether the patient has actually placed a finger on the detector 195. With this approach, however, it cannot be ruled out that the measurement results may be influenced by the orientation of the finger on the sensor.
  • camera-based tracking of the finger is therefore carried out, the evaluation being carried out, for example, by means of the visual person tracking module 112 and / or the laser-based person tracking module 113. Such tracking has already been described elsewhere in this document.
  • a dialog-based method can be used in which the patient is asked by the service robot 17 whether the service robot 17 has put his finger down correctly, which can take place on the way via a display 2 and / or a voice output.
  • the surface of the detector 195 consists of a crystal, for example a crystal with a cubic lattice structure, for example in a diamond structure, with a hexagonal lattice structure or with a tetragonal lattice structure.
  • the crystal has a refractive index of 1-4, e.g. 1.3-1.4, 2, 2-2, 4 or e.g. 3.4-4.1.
  • the spectral width of the crystal is in the interval lOOnm - 20,000 nm, e.g. in the interval 900nm - 12,000nm.
  • the measuring method of the detector 195 uses deflections of an evaluation laser 5205 on the crystal surface based on laser-induced excitation of substances which are excited by a further laser 5210 on and / or within the skin of a patient.
  • the surface that was excited by the further laser 5210 is in engagement, for example, with the detector 195 at the point at which the evaluation laser 5205 is deflected on the crystal surface.
  • a feature extraction takes place in which the variations in the wavelength of the further laser 5210 and the deflection of the evaluation laser 5205 caused by this and detected by a sensor based on the photoelectric effect are included as features.
  • the steps shown in FIG. 30, in particular 3025-3050, which have been described in more detail elsewhere, can be used here.
  • a camera-based system which is aimed at the surface of the skin of a patient and can carry out measurements.
  • the system can either be rigidly attached to the service robot 17 or in such a way that it can, for example, be aligned three-dimensionally so that it can capture the skin surface of a patient without the patient moving.
  • the service robot 17 detects, as described, for example, for the detection of emotions, areas of the patient in which the skin surface of the patient is to be recorded.
  • the skin surface to be recorded is illuminated by the at least one camera 185, for which purpose LEDs are used in one aspect, which together map a light spectrum in the range of 550-1600 nm, for example at least 900-1200 nm and thus lies in the infrared range.
  • the sensor of the at least one camera 185 is a sensor based on indium gallium arsenide or lead sulfide, which is supplemented in one aspect with a sensor based on silicon, which is optionally integrated in a further camera 185 is.
  • a laser is used in place of the LEDs.
  • the light sources can be controlled in such a way that the wavelength of the light sources varies over time.
  • the at least one camera 185 detects the emissions of substances that are on or within the skin, stimulated by the light.
  • a feature extraction takes place during the measurement, which determines the phase and frequency of the substances emitted by substances on and within the skin, and in a further aspect also takes into account the frequencies of the emitted light.
  • Pre- and / or post-processing can take place here, in which different filters are used, for example band and / or low-pass filters.
  • steps 3025 to 3050 shown in FIG. 30 and described in more detail elsewhere can also be run through here. Concentrations of the substances are then determined on the basis of a feature classification.
  • the system for substance measurement is illustrated in FIG. 68 as follows:
  • the system for measurement of substances on and / or within the skin of a person, in one aspect a service robot 17, comprises a detector 195 with an evaluation laser 5205 and another Laser 5210, where the evaluation laser is deflected from entering a medium 5215 such as a crystal surface and the further laser 5210 excites a substance while varying the wavelength, the area of the excited substance at the point with the medium 5215 such as the crystal is engaged, at which the evaluation laser 5205 is deflected, further comprising a laser variation module 5225 for feature extraction and feature classification of the wavelength variation of the further laser 5210 and a laser deflection evaluation module 5220 for evaluating the deflection of the evaluation laser.
  • the system has, for example, a sensor for contactless detection of a person, a movement evaluation module (120) for evaluating recorded movements of the person over time and / or a finger positioning detection module 5230 for automated detection of the positioning of a finger on the medium 5215 and Carry out the measurement after placing the finger on the medium.
  • the system for measuring substances on and / or within the skin of a person for example a service robot 17, comprises a detector 195 with a medium 5215 consisting of a crystal with a cubic, hexagonal or tetragonal lattice structure, a refractive index of 1- 4 and a spectral width that lies in the interval between 100nm-20,000nm.
  • the system can further comprise an evaluation laser 5205 and a further laser 5210, wherein the Evaluation laser 5205 is deflected from the crystal surface and the further laser 5210 excites a substance while varying the wavelength, the area of the excited substance engaging with the medium 5215 at the point at which the evaluation laser 5210 is deflected.
  • the system can further include a laser variation module 5225 for feature extraction and feature classification of the wavelength variation of the further laser 5210 and laser deflection evaluation module 5220 for evaluating the deflection of the evaluation laser 5205.
  • the evaluation laser is evaluated by means of a sensor on the basis of the photo effect 5250.
  • the system can furthermore comprise an interface for the transmission of data into a patient administration system 160.
  • the detector 195 can be positioned on an actuator 4920 and the system can have a module with rules to position the detector 195 on the skin of a person, for example by comparing the positions of the actuator 4920 and the position on which the actuator is positioned is to be, and control of the actuator in such a way that the distance between the actuator 4920 and the position on which the actuator 4920 is to be positioned is reduced to at least close to zero.
  • the system can have a sensor for contactless detection of a person such as a 2D or 3D camera 185, a LID AR 1, a radar and / or an ultrasonic sensor 194.
  • the system can include a body region detection module 4810 and a body region tracking module 4815 for tracking the measurement region.
  • the system for measuring substances on and / or within the skin of a person is, in one aspect, equipped with a camera 185 and a tilting unit (5130) for horizontal and / or vertical alignment of the camera 185, with a body region detection module (4810) and a body region tracking module (4815) for the identification and tracking of a person over time (identical in one aspect to the person identification module 111 and the tracking modules 112 and 113), with at least one light source 5270 to detect the To illuminate the skin of the person, the system having a wavelength variation unit 5275 for varying the wavelength of the light emitted by the at least one light source, and a wavelength variation evaluation unit 5280 for evaluating the variation in the wavelength of the detected signals.
  • the at least one light source 5270 can be a laser (identical in one aspect to lasers 5205 and / or 5210) and / or a plurality of LEDs with different spectra, which can be controlled accordingly.
  • the wavelength of the emitted light is between 550 and 1600 nm, for example 900 and 1200 nm.
  • the camera 185 can, for example, have a photodetector made of indium gallium arsenide or lead sulfite.
  • the system has one Another camera 185 for the detection of light in the 400-800 nm spectrum.
  • the system can, for example, via a substance classification module 5295 for feature extraction and feature classification of recorded data and comparison of the classified data with a substance classification Light by comparing evaluated features with stored features.
  • the system has a person recognition module 110, person identification module 111, a tracking module (112, 113),
  • Movement evaluation module 120 skeleton creation module 5635 and / or skeleton model-based feature extraction module 5640.
  • the service robot 17 In the environment in which the service robot 17 moves, it can happen that the floors on which the service robot 17 and a person tracked by the service robot 17 move are damp, for example due to cleaning work or the spillage of liquids . With a view to people who are instructed to train by the service robot 17, such moist surfaces can represent a danger that is associated with an increased risk of falling.
  • the service robot 17 has, in one aspect, a corresponding sensor system to detect moisture on the floor.
  • various sensor technologies are described that can be used here:
  • Yamada et al 2001 "Discrimination of the Road Condition toward Understanding of Vehicle Driving Environments", IEEE Transactions on Intelligent Transportation Systems, vol 2 (1), March 2001, 26-31 (DOI: 10.1109 / 6979.911083) describe a Method for the detection of moisture on the ground by means of polarization of the incident light. They use the Brewster angle (53.1 °) as the angle of inclination in order to set the reflection to 0 in the horizontal polarization plane, while the vertical polarization shows a strong reflection. On the basis of the ratio of the measured intensities of the horizontal and vertical polarization, it is determined to what extent there is moisture on the measured surface.
  • 10.1109 / IVS.2008.4621205 suggest an approach that does not involve a polarization filter and is based on image parameters such as contrast, brightness, sharpness, hues and saturation, which are extracted from the images as features.
  • the brightness is taken into account by the Koschmieder model established in image processing, with the brightness primarily depending on the attenuation and scattering of the light.
  • the contrast is determined from the difference between local extremes of brightness, with the lightest and darkest pixels in the observed region being compared with one another.
  • the approach is based on the tenacity criterion established in image processing. Color tones and saturation are determined using defined groups of pixels.
  • a histogram with 10 areas is generated for each feature and a vector is derived from this, which contains the results of the features.
  • These vectors can be classified using machine learning / artificial intelligence methods, including k-NN, neural networks, decision trees, or support vector machines. Initially, pre-labeled data is available for training the algorithms, and the classifications determined in the process allow future recordings of the floor to be assessed in terms of the extent to which the floors are moist.
  • US patent application No. 2015/0363651 A1 analyzes the texture of the surface recorded by a camera in order to check it for moisture, comparing two images recorded at different times and extracting features.
  • the features include the spatial proximity of pixels within a region (i.e. a search is made for recurring patterns), edge detection and their spatial orientation, the similarity of gray levels between the images, the established Laws' texture energy measure, autocorrelation and power density Models, as well as texture segmentations (both region-based and border-based, ie edges that lie between pixels with different textures).
  • McGunnicle 2010, "Detecting Wet Surfaces using near-Infrared Lighting, Journal of the Optical Society of America A, vol 27 (5), 1137-1144 (DOI: 10.1364 / JOSAA.27.001137) uses infrared diodes with a spectrum approx. 960 nm and records the light emitted by these diodes using an RGB (CCD) camera in order to evaluate the light spectrum accordingly.
  • McGunnicle can show that damp surfaces emit a characteristic spectrum, which allows moisture to be detected on the surface.
  • Another approach uses radar waves instead of light in the visible or invisible range, in particular ultra-wideband radar waves, which are used for substance analysis. The reflected signals can be evaluated (ie classified) as described in the prior art, with characteristic features being recognized when measuring moisture on surfaces, so that the type of moisture is detected.
  • the sensors on the service robot 17 are arranged in such a way that the sensors detect at least the surface in front of or below the service robot 17, in one aspect also facing laterally or backwards.
  • the algorithms for determining moisture are stored in the memory 10 of the service robot 17, for example as values in a database that allow the detected light spectrum in the infrared range to be spectrally or the radar waves emitted by the service robot 17 and reflected from the surfaces to evaluate.
  • the service robot 17 has a self-learning system 3100 (see FIG. 31) in order to differentiate between moist and dry soils. This self-learning system is particularly helpful, for example, for the optical methods that determine the texture and / or reflections of the surface.
  • the service robot 17 drives the surfaces from 3110 over which the service robot 17 usually moves while these surfaces are in the dry state.
  • the service robot 17 draws the surfaces on 3120 by means of at least one integrated sensor and performs a feature extraction 3130, for example according to the approaches of Roger and Mossmann or according to the teaching of US patent application No. 2015/0363651 A1. This is preferably done at different times of the day in order to be able to take different lighting conditions into account (daylight, artificial lighting and / or combinations thereof).
  • a feature extraction 3130 for example according to the approaches of Roger and Mossmann or according to the teaching of US patent application No. 2015/0363651 A1. This is preferably done at different times of the day in order to be able to take different lighting conditions into account (daylight, artificial lighting and / or combinations thereof).
  • an input device which in one aspect is connected to the service robot 17 via an interface 188 (such as WLAN), the recorded measured values are assigned a value that characterizes the recorded surfaces as dry (labeling 3140). This value, together with the recorded measured values, is stored in the memory 10 in step 3145.
  • the service robot 17 at least partially traverses the previously traversed surfaces again, but these previously traversed surfaces are moist.
  • an input device which in one aspect is connected to the service robot 17 via an interface 188 (such as WLAN), is used to assign the recorded measured values a value which the recorded surfaces as characterized wet (Labeling 3140).
  • a feature classification 3160 of the features recorded by the sensors is then carried out, as shown, for example, in Roger and Mossmann. As a result, surfaces are detected as wet or dry in step 3170.
  • the results of the feature classification ie whether the surfaces are moist or dry, are stored in the memory of the service robot 17 in step 3180.
  • the service robot 17 can access the stored classifications (e.g. for radar reflections, infrared spectral absorptions, light reflections or textures via camera recordings) and, by means of these stored classifications, evaluate whether the measured values recorded by its sensors Surfaces are damp.
  • stored classifications e.g. for radar reflections, infrared spectral absorptions, light reflections or textures via camera recordings
  • the service robot 17 shows the navigation of the service robot 17 with the detection of moisture on surfaces 3200. If the service robot 17 navigates accompanied by a person 3210, for example a patient during training, the service robot 17 draws the surface properties of the floors on 3120, over which the service robot 17 moves. A feature extraction 3130, a feature classification 3160 and associated therewith a moisture detection 3170 take place.
  • the service robot 17 can, in one aspect and depending on the type of sensors used or the implemented evaluation algorithms, in an optional step by a rotary movement 3220, for example around a vertical axis of the service robot 17, the width of the moisture or the dry area 3230 capture. This embodiment can, in one aspect, be stored in the movement planner 104.
  • a tilting unit 5130 can be used instead of a rotary movement of the service robot 17 or the detection angle of the sensor is sufficiently wide to detect the area in the direction of travel even without movement.
  • the width is determined here, for example, orthogonally to the direction of travel.
  • the width of the dry (alternatively the humid) area is compared 3240 with a value stored in a memory.
  • the width of the humid area is determined, for example in relation to the width of the room in which the service robot 17 is moving. If the detected width of the dry area is less than the width stored in the memory, the service robot 17 does not drive onto the damp surface, but instead stops and / or turns in step 3250, as is stored in movement planner 104.
  • an output takes place via the output unit (display 2, loudspeaker 192, possibly also projection device 920 / warning lights), which indicates the surface identified as moist.
  • the service robot 17 sends a message to a server and / or a terminal in step 3260 via an interface 188 (such as WLAN). If, on the other hand, the detected dry area is wider than the threshold value, the service robot 17 navigates through the dry area in step 3270, as is stored in the movement planner 104. The service robot 17 maintains a minimum distance, stored in the motion planner 104, to the surface detected as being wet, a 3280.
  • the service robot 17 can point the accompanied person to the person being accompanied via an output unit (display 2, loudspeaker 192, possibly also projection device 920 / warning lights) indicate damp surface 3290.
  • the classification of humidity also includes the degree of humidity. For example, even on surfaces that are perceived as dry, there can be a very thin film of moisture, which, however, has almost no effect on the friction that an object would experience on the surface.
  • the detection and evaluation of moisture on surfaces can be summarized as follows: Detection of a surface such as the floor, classification of the surface structure for the detection of moisture on the surface, segmentation of the recorded surface into moist and non-moist areas, Determination of the width of the recorded areas, evaluation of the width of the recorded areas by comparison with at least one stored value.
  • FIG. 81 An alternative sequence can be summarized as follows, as illustrated in FIG. 81: Detection of a surface 6005, surface classification for moisture detection 6010, surface segmentation into moist and non-moist areas 6015, storage of moist areas in a map 6020, determination of area with minimum dimensions 6025 and based thereon an output via an output unit 6030, transmission of a message 6035 and / or modification of a value in memory 10 (step 6040). Alternatively and / or in addition, a modification of a path planning and / or movement planning 6045 can take place. 82 also illustrates part of the process. The service robot 17 moves in a corridor 6071 along an initial planned path 6072 (see FIG.
  • the service robot 17 plans a new path 6073 in the path planning module 103, which is calculated on the basis of the moisture as an obstacle.
  • the service robot 17 compares the width 6074 between surface segments that are stored as an obstacle and determined to be moist, for example resulting from a map stored in the card module (107), maintains, for example, safety distances to these surface segments recorded as moist and follows the newly calculated path ( see Fig. 81 c).
  • an area segment detected as wet is so wide that the service robot cannot navigate around it because the width between the area classified as wet and the walls of the aisle is less than the width of the service robot 17 , which is why the service robot 17 stops before this.
  • a system for moisture detection is described as follows, as illustrated in FIG. 69: It comprises a sensor for contactless detection of a surface (e.g. camera 185 or a radar sensor 194), a segmentation module 5705 for segmenting the detected surface, a moisture determination module 5305 for Classification of the segments in terms of moisture on the surface and a
  • Moisture evaluation module 5310 for evaluating the dimensions of the classified segments of the surface. Furthermore, it can comprise a map module 107 that contains obstacles in the area of the system and the segments classified with regard to moisture.
  • the system comprises a movement planner 104 and / or a path planning module 103, for example an output unit (2 or 192) and outputs stored in the memory 10 for indicating the area detected as wet.
  • the system can be a service robot 17, e.g. accompanied by a person.
  • the system for detecting the position of moisture on a surface comprises a unit for
  • Determination for example a camera 185) and a moisture determination module 5305 for
  • Moisture on the surface and a moisture evaluation module 5310 for evaluating the dimensions of the classified segments of the surface. For example, classified areas are evaluated in such a way that the width of the moisture is evaluated approximately perpendicular to the direction of movement of the system and the width of dry and / or moist areas is determined.
  • the system can, for example, have a movement planner 104 with rules in order, when a dry area is determined, the width of which is one in the memory 10 exceeds the stored value to move through this area.
  • the movement planner 104 can, for example, have rules for determining a minimum distance from the damp area, for example by entering the areas classified as damp in a map and comparing its own position with the map.
  • the system has an output unit (2 or 192) and rules stored in the memory 10 for indicating the area detected as moist and / or warnings.
  • the movement planner 104 can, for example, have stored rules that instruct the system to abort its movement in a predefined destination direction if the determined width of the moist area exceeds a threshold value or the width of the determined dry area falls below a threshold value, similar to rules from the state technology, in which a mobile system moves towards an obstacle.
  • the system can have a unit for sending a message to a server and / or terminal 13.
  • the service robot 17 has fall detection, i.e. the service robot 17 is configured in such a way that the service robot 17 can detect falls of people directly or indirectly.
  • This evaluation of fall events 3300 is shown in FIG. 33.
  • Indirect means that the service robot 17 uses external sensors, direct means an evaluation using its own sensors.
  • a person is equipped with a sensor unit for fall detection, i.e. the service robot 17 is connected via an interface 188 (such as WLAN) to an external fall sensor which is located on the person to be monitored
  • a sensor unit for fall detection i.e. the service robot 17 is connected via an interface 188 (such as WLAN) to an external fall sensor which is located on the person to be monitored
  • This sensor unit contains at least one control unit, a power source, possibly a memory, an interface 188 (such as WLAN), and at least one inertial sensor for detecting the movements of the person 3315, for example an acceleration sensor.
  • the signals of the inertial sensor are within the sensor unit in step
  • the signals are sent to the in step 3320
  • Service robot 17 is transmitted so that an evaluation of the signals in the service robot 17 is implemented 3330.
  • the recorded measured values are classified in step 3335 as to whether the person has fallen. This classification can for example.
  • Acceleration take place that is above a defined threshold value. Based on a
  • Fall detection then takes place in step 3345 via an interface 188 (such as WLAN) a
  • Notification ie an alarm system is notified and / or an alarm, for example (for example an alarm sound) triggered, etc. If the classification of the detected movements takes place within the sensor unit, the notification and / or alarm is carried out by the sensor unit (via an interface 188 (such as WLAN)). If the service robot 17 performs the classification of the movements, it triggers the notification and / or initiates the alarm.
  • an interface 188 such as WLAN
  • the sensor unit is designed such that the sensor unit detects the person's movements for the purpose of detecting the severity of the fall, collects measured values and classifies the measured values in step 3340 directly within the sensor unit and / or via the service robot 17 . Specifically, this means that the extent to which the person who is equipped with the acceleration sensor continues to move is recorded. For this purpose, acceleration and / or orientation data of the sensor unit can be evaluated. For this purpose, rules are stored in the memory of the sensor unit and / or of the service robot 17, which, based on the measured movement data, trigger different notifications.
  • the notification and / or the alarm can be modified, for example in such a way that the Notification priority is reduced.
  • the notification and / or the alarm can be modified, for example the priority of the notification can be increased.
  • the notification or the alarm is only issued after the person's movement behavior has been analyzed after the fall, i.e. several seconds after the actual fall, which may reduce the notifications associated with the fall event.
  • the service robot 17 is equipped with a wireless sensor unit in order to determine fall events of a person in step 3350.
  • This sensor unit can be a camera 185, for example a 3D camera, a radar sensor and / or an ultrasonic sensor 194 or a combination of at least two sensors.
  • the sensor unit is used, for example, to identify a person and / or to track the person over time in step 3355, which is implemented, for example, by means of the visual person tracking module 112 and / or the laser-based person tracking module 113.
  • the service robot 17 with a Kinect or Astra Orbbec be equipped, ie an RGB-D camera 185, which is able to create a skeleton model of detected persons in step 3360 by means of the method described in the prior art (e.g. by means of camera SDK, NUITrack, OpenPose, etc.), in which body joints are represented as articulation points and the body parts connecting the articulation points, for example as directional vectors.
  • a feature extraction 3365 different orientations of the direction vectors as well as distances from articulation points to the detected surface on which the detected person is moving are determined.
  • the service robot 17 evaluates whether the detected person is standing or walking, sitting or, if applicable, has fallen.
  • the rules of the feature classification can be fixed in one aspect; in an alternative and / or supplementary aspect, the rules can be learned by the service robot 17 itself. During this learning process, recordings of people who have fallen, as well as recordings of people who have not fallen, are evaluated, with labeling stating which case is involved. Based on this, the service robot 17 can use machine learning / artificial intelligence methods to make classifications that allow future recordings of people to be classified as to whether they have fallen or not.
  • a fall is detected, for example, on the basis of the extraction of the following features in step 3367, with the body parts being evaluated, ie classified, with a view to the fall: Distances and changes in distance towards the floor or accelerations derived from the distances or changes in distance (for example, over defined minimum periods of time) of articulation points in a direction, the vertical directional component of which is greater than a horizontal directional component, the vertical directional component preferably pointing in the direction of the center of the earth.
  • a detected distance from the hip joint point to the floor of less than 20 cm can be classified as a fall event, a change in distance from, for example, greater than 70 cm to less than 20 cm, or an acceleration of the hip joint point towards the floor, this acceleration being e.g.
  • the orientation of at least one direction vector (as a connection between two articulation points) in space or the change in the direction vector in space can also be classified as a fall event.
  • the height of the person is determined by the 3D camera. If the height of the person falls below a defined height, a fall event is detected.
  • the area that the person occupies on the floor can also be determined. For this purpose, in one aspect, the area can be determined by a vertical projection of the tracked person on the ground.
  • the service robot 17 triggers a notification and / or an alarm in step 3345, for example via an interface 188 (such as WLAN), as an acoustic alarm via a loudspeaker 192, etc.
  • a notification and / or an alarm for example via an interface 188 (such as WLAN), as an acoustic alarm via a loudspeaker 192, etc.
  • the service robot 17 detects people by means of radar and / or ultrasound 194, primarily the outer dimensions of the person are recorded, including their height. If a height reduction is detected, possibly an acceleration of the height reduction, this is classified as a fall event, possibly in connection with falling below threshold values. Alternatively and / or in addition, the service robot 17 can also classify the area of the person that this person (projected vertically in one example) occupies on the floor.
  • the service robot 17 also detects the position of the person's head in step 3369. This position is tracked with a view of the ground and / or (the position) of detected obstacles. This means, for example, that walls detected by the sensor unit (camera 185, radar and / or ultrasonic sensor 194) are recorded. Alternatively and / or in addition, the position of the walls can also be determined by means of the LIDAR 1. The service robot 17 compares the horizontal position of the head of the person with the (horizontal) position of walls and / or other obstacles in the room.
  • the vertical position is also taken into account.
  • the camera 185 can also evaluate the distances between the tracked head and objects in three-dimensional space such as tables.
  • the (two-dimensional, essentially horizontally oriented) LID AR 1 would, for example, recognize the table legs, but not necessarily the position of a table top in space, which the person's head could touch in the event of a fall.
  • the camera-based evaluation allows the three-dimensional recording of the head and other obstacles in the room and the determination of the distance between these other obstacles and the head, which is evaluated as part of the classification in step 3374. If the service robot 17 detects that the distance between the head and one of the other obstacles falls below a value, a value in the memory of the service robot 17 is modified and, if necessary, a separate notification or a separate alarm is triggered.
  • the service robot 17 also tracks the person after their fall and detects the extent to which they stand up or try to stand up again, ie there is a post-fall movement detection and classification in step 3340.
  • extent means, for example, that distances to Ground, accelerations in vertical directions opposite to the ground, the orientation of the body part or limb vectors, the height and / or the (projected) area of the person are evaluated.
  • the degree of changes in the position of articulation points is also evaluated.
  • There is a classification based on the extent to which the person moves or even tries to get up. In this way, values are adapted in a memory of the service robot 17 and, in one aspect, the degree of notification via the interface 188 (such as WLAN) / the alarm is modified.
  • the process of evaluating a fall event is as follows: detection and tracking of the movements of a person, detection of a fall event by means of feature extraction and classification of the orientation of the limbs and / or the trunk of the person, detection and classification of the movements of the person after they have occurred Fall and assessment of the severity of the fall event.
  • the service robot 17 is also able to use its sensor system to record vital parameters of the fallen person in step 3380.
  • An integrated radar sensor such as an ultra wideband radar, for example, can be used for this purpose, as has been explained elsewhere.
  • parts of the person's body that are not covered by clothing can be detected using radar and / or camera-based methods, and the person's pulse can be measured in these areas, for example using radar. This information can be used in the classification of the notification and / or the alarm can be taken into account; in one aspect, the vital parameters such as the pulse can also be transmitted with the notification.
  • the system for detecting a fall of a person for example a service robot 17, comprises a memory 10, at least one sensor for contactless detection of the person's movements over time, a person identification module 111 and a person tracking module 112 or 113, a fall detection module 5405 for extracting features from the sensor data and classifying the extracted features as a fall event, a fall event evaluation module 5410 for classifying the severity of the fall event.
  • the system can also have an interface 188 to a server and / or terminal 13 for the purpose of transmitting messages.
  • the fall detection module 5405 can, for example, have a skeleton creation module 5635 for creating a skeleton model of a person.
  • the fall detection module 5405 can perform classifications for determining distances or changes in distance from points of articulation to the ground originating from the skeleton model; Accelerations of points of articulation in the vertical direction; the orientation of direction vectors resulting from the connection of at least two points of articulation; the change in orientation of the direction vectors; the height and / or height change in the height of the person, for example via the person size evaluation module 5655, which determines the height of the person, for example by vector subtraction of two directional vectors that extend from a common origin to at least one foot and at least the head of the person ; include the area that a person projected in the vertical direction occupies on the floor, and / or the position of the head of the person relative to the floor and / or relative to detected obstacles.
  • the system can also include a vital parameter acquisition unit 5415 for acquiring vital parameters of the person (eg a camera 185, a LID AR 1, a radar and / or an ultrasonic sensor 194) and a vital parameter evaluation module (5420) for evaluation include recorded by vital parameters of the person.
  • a vital parameter acquisition unit 5415 for acquiring vital parameters of the person (eg a camera 185, a LID AR 1, a radar and / or an ultrasonic sensor 194) and a vital parameter evaluation module (5420) for evaluation include recorded by vital parameters of the person.
  • the system has a person recognition module 110, movement evaluation module 120 and / or skeleton model-based feature extraction module 5640.
  • the service robot 17 records vital parameters of the person while a test and / or an exercise is being carried out, as shown in step 3400 in FIG. 34.
  • the service robot 17 identifies and tracks the person, for example by means of the visual person tracking module 112 and / or the laser-based person tracking module 113 in conjunction with a camera 185 or a LID AR 1.
  • person identification and person tracking are found in step 3355 instead, for which purpose the personal identification module 111 is used.
  • the system is (optionally) in front of the person (step 3420) and moves (optionally) in front of the person in step 3430.
  • the body region of the person is identified and tracked in step 3440, with which the exercise and / or the test is carried out in order to record vital parameters in step 3450 by measuring this body region.
  • the person's face, hands, chest area, etc. come into question as body regions.
  • the procedure for detecting such a body region was described elsewhere in this document and / or in the prior art.
  • the measured vital parameters are the pulse rate, pulse rate variability, the systolic and / or diastolic blood pressure, or the breathing of the person (such as the breathing rate). How these vital parameters, cited by way of example, can be determined by the service robot 17, for example, has been described elsewhere in this document. However, other methods are also possible in order to determine the vital parameters.
  • the vital parameters are recorded with at least one sensor such as the camera 185 and / or the radar sensor (e.g. a microwave pulse radar, a range-controlled radar, a Doppler radar, a continuous wave radar, an ultra-wideband radar) and / or combinations thereof, which records the named body regions of the person and the vital parameters, preferably over time.
  • the radar sensor e.g. a microwave pulse radar, a range-controlled radar, a Doppler radar, a continuous wave radar, an ultra-wideband radar
  • the senor used here determines movements on and / or under the skin and / or clothing of the person.
  • the movements of the skin surface and / or the person's clothing are evaluated relative to the movement of the person with which the person moves to the service robot 17, ie the detected signals of the body region are corrected for the movement of the person 3460.
  • the service robot 17 detects the body region that is evaluated for the purpose of determining the vital parameters, at least one other body region and determines the distance of this further body region to the service robot 17.
  • the recording of the movements of the body region evaluated for the purpose of evaluating the vital parameters the body region recorded for the purpose of determining the relative movement of the person synchronously with one another
  • using the camera 185, for example the RGB-D camera 185, ultrasonic and / or radar sensors 194 can take place.
  • the measurement that the service robot 17 takes can be a continuous or discontinuous measurement, i.e. for example at intervals of 10 seconds.
  • the measured vital parameters are stored in the memory of the service robot 17 in step 3470 and can be transmitted to other systems via an interface 188 (such as WLAN).
  • the service robot 17 compares the determined vital parameters with threshold values stored in a memory in step 3480. These values stored in the memory can be permanently stored and / or result dynamically from past values of the recorded vital parameters, for example as average values of previously recorded values over a time interval be evaluated. If exceeding or falling below the recorded vital parameters is recognized by the threshold values in step 3490, the service robot 17 modifies, for example, a value in a memory. This modification can trigger at least one of the following events:
  • An output unit display 2
  • Loudspeaker 192, projection device 920, etc. is triggered in step 3492, i.e., for example, a voice output is initiated.
  • the service robot 17 can request the person to reduce their speed.
  • the service robot 17 can request the person to sit down.
  • the service robot 17 can move to a defined position 3498. This can be at least one seat to which coordinates in the map of the service robot 17 are assigned. The service robot 17 can then steer towards this seat.
  • the seat can be a chair.
  • the service robot 17 can identify the chair directly in its surroundings via its implemented sensor system (as described elsewhere in this document), the service robot 17 can alternatively and / or additionally also be stored on a card of the service robot 17 in the card module 107.
  • the service robot 17 can trigger a notification in step 3494, i.e., for example, send a notification via an interface 188 (such as WLAN) and / or trigger an alarm. Furthermore, in one aspect, it can reduce its speed in step 3496.
  • the service robot 17 carries out a gait exercise with a person, for example gait training on forearm rests.
  • the service robot 17 detects the person by means of at least one sensor and carries out a feature extraction, a feature classification and a gait classification in order to evaluate the gait of the person.
  • the camera 185 mounted on the service robot 17 detects the person's face and determines the systolic and diastolic blood pressure over time, which is each stored in a blood pressure memory in the service robot 17. The determined measured values of the blood pressure are evaluated over time, optionally stored and compared with values stored in the blood pressure memory.
  • the service robot 17 reduces its speed and sends a notification via an interface 188 (such as WLAN) such as WLAN to a server, which in turn alerts personnel in the vicinity of the service robot 17 and calls for support.
  • the service robot 17 optionally tries to detect a chair within its surroundings, ie within a defined distance from its position. If the service robot 17 detects a chair, the service robot 17 slowly navigates to this chair and prompts the person to sit down via an output.
  • the service robot 17 detects the breathing rate over time when completing a gait exercise by evaluating the movements of the chest and / or the abdominal area of the person, which is done by means of an ultra-wideband radar sensor that is mounted on the service robot 17.
  • the system for recording vital parameters can be described according to FIG.
  • the system for recording vital parameters of a person for example a service robot 17, comprises a computer 9, a memory 10 and at least one sensor for contactless recording of the Movements of the person over time (such as a camera 185, a LID AR 1, an ultrasound and / or radar sensor 194, e.g. a person identification module 111 and a person tracking module (112, 113) for detecting and tracking the person Vital parameter evaluation module 5420. It further comprises a body region detection module 4810 and a body region tracking module 4815 for tracking the recording region of the vital parameters and a vital parameter recording unit 5415 for recording vital parameters of the person, for example over time , contactless and / or contact-based.
  • the vital parameter evaluation module 5420 can, for example, compare the recorded vital parameters with mi Carry out at least one stored threshold value and, based on the comparison, send a notification to a system via an interface 188, an output via an output unit (2 or 192), a change in the speed of the system (e.g. initiate a speed reduction) and / or a control of a target position of the system.
  • the latter are implemented, for example, by a navigation module (110), for example by adapting a path plan to a seat such as a chair that is located, for example, within a defined minimum distance from the system.
  • the threshold value used in the vital parameter evaluation module 5420 can be determined dynamically from previously recorded vital parameters, for example based on an averaging of recorded vital parameters over a defined time interval.
  • the vital parameter evaluation module 5420 can also record body movements of the person and an evaluation of the recorded vital parameters while comparing the recorded body movements.
  • the recorded vital parameters can be the pulse rate, pulse rate variability, the systolic and / or diastolic blood pressure and / or the respiratory rate.
  • the system can acquire data from a vital parameter sensor 5425 attached to a person via an interface 188 and evaluate it in the vital parameter evaluation module 5420.
  • An application module 125 has rules for performing at least one exercise, for example the exercises stored as examples in this document.
  • the recorded and evaluated vital parameters can be used to determine the risk of falling, for example the acute risk of falling, in which a fall is to be expected within a time interval of only several minutes.
  • the system has a person recognition module 110, person identification module 111, tracking module (112, 113), Movement evaluation module 120, skeleton creation module 5635 and / or skeleton model-based feature extraction module 5640.
  • the service robot 17 is configured in such a way that the service robot 17 evaluates the gait of a person for their risk of falling, as is explained in FIG. 35.
  • the person reports to the service robot 17 to 3510, which can be done by means of an input unit, an RFID transponder, a barcode, etc.
  • the service robot 17 then carries out a person identification by means of its person identification module and then tracks the person 3355, for example by means of the visual person tracking module 112 and / or the laser-based person tracking module 113.
  • a sensor is used for this tracking that enables contactless detection enables the person, for example a camera 185, an ultrasound sensor and / or a radar sensor 194.
  • the service robot 17 requests the person whose risk of falling is to be assessed to follow the service robot 17 via an output 3520 of an output unit.
  • This service robot 17 is (optionally) in front of the person in step 3420, moves in front of the person (optional) in step 3525 and (optionally) detects their speed in step 3530. In one aspect, this is done by determining the speed of the service robot 17 with synchronous detection of the distance of the identified person, whereby the relative speed of the person to the service robot 17 and the speed of the person is determined via the speed of the service robot 17 itself.
  • the speed of the service robot 17 itself is determined via its odometry unit 181 and / or via the tracking of obstacles stored in the stored map of the service robot 17 and the relative movement of the service robot to these obstacles.
  • the service robot 17 performs a feature extraction in step 3365 in order to extract features from the skeleton model in step 3360, such as the position of articulation points 3541, direction vectors which connect articulation points 3542, the perpendicular through a person, etc.
  • features can also be extracted from inertial sensors that are attached to at least one limb of the person, etc., such as the instantaneous acceleration 3543, the direction of an acceleration 3544, etc.
  • the feature extraction 3365 is followed by a feature classification 3370, in which several characteristics are evaluated in combination.
  • the speed of the person which can be determined as a feature from the recorded data of the service robot 17 as an alternative and / or in addition to the method described above, the individual classified features, for example, the step length 3551 and / or double step length 3552 of the Can be a person who the service robot 17 records over time and determines the speed over the step length per recorded time unit, with several steps being evaluated in one aspect.
  • the step length is extracted in the context of feature extraction 3365 in one aspect via the position of the ankle points in the skeleton model, the skeleton model being carried out in step 3360 the evaluation of camera recordings of the person is created.
  • the points in time and the times between these points in time are recorded / extracted at which a circular movement is started by the sensor, the radius of which points towards the ground, ie the direction vectors of the acceleration 3544 are evaluated for this purpose.
  • the instantaneous acceleration is determined or extracted in step 3543, preferably in the sagittal plane, and the distance covered is determined via the instantaneous speeds in step 3543 and the time period between the mentioned points in time as part of the feature classification, which then represents the step length in step 3551 . Viewed individually, these are extracted features that are classified in this combination.
  • the ankle joint is detected by means of a radar sensor and / or ultrasonic sensor 194.
  • the ankle joint point is determined via the position of the knee joint point, a direction vector that is oriented from the knee joint point parallel to the lower leg, and the height of the knee joint point above the floor in the case of the direction vector passing through the perpendicular, the height of the knee joint point above the ground in the case of the passage of the direction vector through the perpendicular indicates the distance at which the point of the ankle is located from the point of the knee.
  • Said double step length 3552 is determined via the distances between the recorded ankle points, with the single step lengths 3551 being added successively in one aspect.
  • the service robot 17 evaluates the respective length and / or duration for the individual steps within a double step for each double step and relates the length or the duration in step 3553 to one another.
  • the service robot 17 adds the recorded values from more than one double step in order to determine an average value over more than one double step.
  • the service robot 17 evaluates flexion and / or extension 3554, i.e. the angle of the thigh compared to the perpendicular.
  • the service robot 17 then evaluates the recorded speed of the person, the recorded stride length and the double stride length as well as the cadence.
  • the standing time of at least one foot is also evaluated in step 3555.
  • the track width can also be evaluated in step 3556, the distance between the ankles being evaluated.
  • the service robot 17 records further joint points from the skeleton model of the person, such as the head, the shoulder joint points, the pelvis / hip joint points, etc. and records their position in space, for example three-dimensionally, and evaluates these parameters over time.
  • this evaluation includes the height of these parameters above the ground, but also their movement in the sagittal plane (both vertically and horizontally). In one aspect, the acceleration of at least one of the named points from the skeleton model is also evaluated 3557 for this purpose.
  • the service robot 17 stores the acquired values in step 3570, classifies the gait sequence using the classified features in step 3580 and compares it with a gait sequence classification stored in its memory (or in a memory available via an interface 188 (such as WLAN)) in step 3585.
  • a gait sequence classification stored in its memory (or in a memory available via an interface 188 (such as WLAN)) in step 3585.
  • at least one of the named classified features preferably several, is (jointly) evaluated and compared with those from the memory.
  • the service robot 17 determines a score which reflects the risk of falling in step 3590, for example a probability that the recorded person will fall within a defined period of time.
  • the classification includes values for a determined speed, cadence (steps per minute) and step length as a function of person parameters such as person size.
  • people are associated with an increased risk of falling if they have an average height of approx. 1 m / s, a cadence of less than 103 steps / min and a step length of less than 60 cm.
  • detected accelerations are evaluated in three-dimensional space and the harmonics are formed by means of discrete Fourier transformation. Then the ratio of the summed up amplitudes of the even harmonics is formed by the summed up amplitudes of the odd harmonics.
  • values of the lateral acceleration in the frontal plane that are below 1.8 indicate an increased Risk of falling.
  • the corresponding evaluations are evaluated in the gait characteristic classification module 5610. For example, several parameters such as acceleration, step length, cadence, etc. are also evaluated at the same time.
  • the system for determining a score that describes the risk of a person falling such as a service robot 17, as illustrated in FIG. 72, can be described.
  • the system for determining a score describing a person's risk of falling comprises a computer 9, a memory 10 and a sensor for recording the movements of a person over time (including a gait), such as a camera 185, a LID AR 1, an ultrasound and / or radar sensor 194, a movement sequence extraction module 121 and a movement sequence evaluation module 122, configured in one aspect to determine a fall risk score within a fall risk determination module 5430, for example by evaluating accelerations in the horizontal and / or vertical plane, step size, Speed and / or variables derived therefrom, etc.
  • the movement sequence extraction module 121 can include a gait feature extraction module 5605 for extracting features of a gait sequence, the movement sequence evaluation module 122 a gait feature classification module 5610 for the feature classification of a gait sequence on the basis of the extracted features (e.g.
  • a gait classification module 5615 for a gait classification including, for example, the step length, the length of the double step, the walking speed, the ratio of the step lengths in the double step, the flexion and / or extension, the standing time, the track width, and / or the course (position) and / or the distance between joint points and / or acceleration of articulation points
  • the classification comprises a comparison of recorded gaits with gaits stored in the memory as well as the determination of the fall risk score.
  • the gait sequence classification module 5615 can comprise a person speed module 5625 for determining the speed of the person, wherein the determination of the speed of the person via the number and step size of the steps taken by the person per unit of time, relative to the speed of a detection and evaluation unit or of the system, with the inclusion of an odometry unit 181, with the inclusion of obstacles recorded in a map and / or relative to the position of obstacles recorded in a map.
  • the system comprises a person identification module 111 and a person tracking module (112 or 113) and components (e.g. 2, 186) for logging the person on to the system, with, for example, visual characteristics of the person being stored and within the scope of the Person re-identification module (114) can be used.
  • the system can receive sensor data from an inertial sensor 5620 via an interface 188 and evaluate these sensor data in the movement sequence extraction module 121.
  • the sensor can, for example, be attached to the person, for example, to the lower limbs, or to a walking aid used by a person, such as an armpit or forearm support, and can detect movements of the walking aid.
  • the system has a person recognition module 110, movement evaluation module 120, skeleton creation module 5635 and / or skeleton model-based feature extraction module 5640
  • Detection of the gait of a person e.g. by the mentioned sensor for contactless detection of the person, extraction of features of the recorded gait, classification of the extracted features of the gait, comparison of at least two of the classified features of the gait sequence with a gait sequence classifications stored in a memory and determination of a fall risk score.
  • the service robot 17 is configured in one aspect in such a way that the service robot 17 can evaluate different body positions and / or movements of a person, while sitting, standing, walking, as shown in FIGS. 36-52, around a get a holistic view of a person's mobility. A number of the method steps can be found in most of the steps, which is why these have been summarized in FIG. 36 by way of example. In step 3525, the service robot 17 can move in front of the person in one aspect while walking and behind the person in an alternative aspect.
  • the person can be logged on to the service robot 17 in step 3510, as well as personal identification and person tracking by the service robot 17 in step 3355, for example by means of the visual person tracking module 112 and / or of the laser-based person tracking module 113 in connection with a LID AR 1 and / or a camera 185.
  • the service robot 17 can request the person to take certain actions in step 3521 via an output unit, for example to get up, run, etc. , whereby the outputs can be made via the display 2, the voice output, etc.
  • This step 3521 is optional or dependent on the respective evaluation.
  • the evaluation is preferably carried out in Time lapse, for which defined time intervals are used.
  • the service robot 17 uses information from the skeleton model in one aspect, which is created by recording the person with the at least one 3D sensor and / or the camera 185 in step 3360 and can be implemented using SDKs from the prior art.
  • a feature extraction takes place in step 3365, which includes, for example, articulation points in step 3541 and direction vectors between articulation points in step 3542.
  • a feature classification then takes place in step 3370, which in detail depends in particular on the task of the evaluation.
  • the results of the feature classification in step 3370 are (optionally) stored and coherently classified, which in turn is task-dependent, which is why this method step is referred to as a further classification in step 3700 in FIG. 36.
  • a threshold value comparison can take place.
  • a score is then determined for each task. Recorded data such as data that result from complete or partial evaluation and / or classification can be saved (even in the meantime).
  • a plurality of articulation points from the feature classification can be evaluated simultaneously in step 3365 without explicitly specifying angles resulting from the connections of the articulation points.
  • the position in three-dimensional space (alternatively, a position estimate for the three-dimensional space based on two-dimensional data) can be made based on classifiers in which body poses were recorded that describe poses identified as correct or incorrect and the classifiers were then determined.
  • body poses can be specified which describe a correct sequence and for which the positions and the course of the joint points are evaluated over time.
  • the course of articulation points can be evaluated, for example, on the basis of a demonstration of a body pose and a classifier can be created based on this, which is then compared with other recorded, correctly specified body poses and the resulting courses of the articulation points in space, after which again a classifier is created that takes into account all existing joint point course data.
  • a classifier For example, the Dagger algorithm in Python can be used for this purpose.
  • a neural network creates a classifier that recognizes a correct movement and consequently also movements that do not proceed correctly.
  • Body poses that are evaluated and classified are (not limited to) those in the following paragraphs, including sitting balance, standing up, trying to get up, standing balance in different contexts, the beginning of the aisle, gait symmetry, step continuity, path deviation, torso stability, rotation through 360 °, sitting down or taking down, the use of forearm supports , etc.
  • the service robot 17 detects the person and evaluates the extent to which a seated person leans to one side, slides on a chair or sits securely or stably.
  • Features of the skeleton model are extracted, e.g. the joint points of the knees, pelvis, shoulder, head, etc. and direction vectors between the individual joint points are used to record and evaluate the orientation of the body parts / limbs of the person.
  • the direction vector between at least one shoulder and at least one hip joint point is evaluated (preferably on one half of the body in each case; and / or parallel to the spine) and its deviation from the vertical / perpendicular 3601 in FIG. 37.
  • the orientation of the person is evaluated, i.e. in this case, at least one direction vector between the shoulder points, the hip points, for example also the knees, etc. is recorded in step 3603. More than one direction vector is preferably recorded. This direction vector is used, for example, to determine the frontal plane of the person in step 3602 which runs parallel to this direction vector.
  • the position of the hip in space is recorded and deviations over time in the transverse plane are evaluated in step 3604. This is used to determine the extent to which the person is sliding back and forth on his or her seat, for example.
  • the deviation and / or inclination of the direction vector between at least one shoulder and at least one hip joint point from the vertical / perpendicular in the frontal plane is evaluated in step 3711. Furthermore, the change (amplitude, frequency, etc.) in the position of the shoulder joint points in the transverse plane is determined in step 3712.
  • a threshold value comparison takes place in step 3713 via these two steps 3711 and 3712 and / or a comparison with patterns such as, for example, movement patterns. If at least one of the determined values is greater than a threshold value (such as 1.3m), the measurement result is considered to be a low one Seat balance classified in step 3714, otherwise as a high seat balance in step 3715. For this, a score is assigned in each case in step 3716, which is stored in a seat value memory.
  • the service robot 17 evaluates the extent to which the person is able to get up (see also FIG. 38). As part of the feature extraction, the service robot 17 identifies objects and / or obstacles in step 3545, as is described in the prior art. As an example, the service robot 17 extracts the point cloud near the tracked wrist points and carries out a segmentation of the point cloud, which allows the hands to be differentiated from the objects. This segmentation takes place preferably in real time (with, for example, 30 fps).
  • the recorded point cloud can also be compared with point clouds stored in a memory, to which objects are assigned, for example, in order to establish an association between sensor-recorded objects and their semantic meaning, which in turn makes it possible to classify certain objects as more relevant than others , for example a chair with armrests or a walking aid compared to, for example, a vase.
  • the standing is determined in step 3610.
  • a distance measurement between the head and the floor is carried out in step 3611, for example on the basis of the position of the head joint point and at least one ankle joint point.
  • these values are compared, if necessary, with values stored in a memory and / or with a threshold value and / or pattern. If the determined height is greater than the threshold value (e.g. 1.4m), the person is classified as standing in step 3616, otherwise as sitting in step 3617.
  • the threshold value e.g. 1.4m
  • the orientation of the Direction vectors between the at least one foot and at least one knee joint point, the at least one knee and at least one hip joint point and at least one hip and at least one shoulder joint point are evaluated in step 3612, in the event that these three direction vectors are essentially parallel to one another, such as For example, a threshold value comparison 3615 and / or pattern comparison can show, the threshold value being calculated, for example, on the basis of the deviation from the parallel.
  • the orientation of a direction vector between at least one knee and at least one hip joint point is evaluated to what extent this point Direction vector is substantially perpendicular. If this deviation from the parallel and / or from the vertical rake is classified as smaller than the threshold value, the service robot 17 detects these features as a stand in step 3616, otherwise as sitting 3 in step 617.
  • step 3620 it is detected whether a hand is using an aid, an aid being broadly understood here as a walking aid, an armrest of a chair, a wall, etc., ie everything that a person can use to help yourself to get up.
  • the distance between at least one wrist and at least one of the extracted objects is determined in step 3621. If the distances between the at least one hand and the object or objects or obstacles fall below a threshold value 3622 (e.g. 8 cm), this is classified as using aids in step 3623, otherwise as not using aids in step 3624.
  • a minimum distance is used to the body of the observed person, ie to the articulation points and / or direction vectors that connect the articulation points with one another.
  • the service robot 17 classifies as follows: is the person in the stand 3721 after a defined time or an input is made by a person 3722, in particular an input that the person is unable (alone ) to get up, the situation is classified as a situation in step 3723 in which the person needs help. If the stand occurs within a defined time in step 3724 and the person uses tools in step 3623, the person is classified as a person in step 3725 who needs tools to get up 3725.
  • the third case, which is classified here is the case that the person does not need any aids in step 3624 and reaches the level in step 3724 within a defined period of time, whereby the person can get up without aids in step 3726.
  • a get-up score 3727 is determined based on steps 3723, 3725 and 3726.
  • Feature classification is therefore, in addition to the feature classification in FIG. 38, the
  • the knee-hip direction vector is evaluated for its horizontal position, ie to what extent the service robot 17 is parallel to the transverse plane.
  • the following steps take place: If, on the basis of the information from the attempt to stand up feature classification 3370, no stand is detected within a defined time in step 3731, or if the person makes an entry in step 3732 and (in comparison to steps 3731 and 3732) if no aid is detected in step 3624, the person is classified in step 3733 in such a way that it is not possible to get up without help. If no aids are detected in step 3624 and the local maxima are not equal to the global maximum and the number of local maxima is greater than 1, several attempts to stand are detected in step 3735.
  • the course of the joint points that define the stance is evaluated over time and / or the angle or the change in angle of the direction vector between the hip and the knees with reference to the horizontal (alternatively: vertical), with the horizontal being described via the transverse plane. If, for example, it is detected twice that the angle changes from approx. 0 ° (transverse plane) to approx. 30 ° (change in one direction of rotation), but there are then changes in another direction of rotation (for example again 30 °) , and only then an angle change of »30 ° is detected, for example 90 °, three attempts to stand are detected (the last of which was successful).
  • step 3624 If, on the other hand, no aids are detected in step 3624, status 3616 takes place, the situation is classified in step 3736 as a situation in which the person does not need any aids. Overall, based on steps 3733, 3735 and 3736, a standing attempt score 3737 is assigned.
  • the service robot 17 evaluates the standing balance of a person, as FIG. 40 shows.
  • a balance determination 3630 takes place in the feature classification 3370.
  • the amplitude, orientation and / or frequency of the change in position of at least one of the shoulder joint points, at least one of the hip joint points or at least one of the ankle joint points in the transverse plane 3631 is evaluated over time (e.g. for 5 seconds) and a threshold value comparison takes place in step 3632 and / or a comparison with patterns such as movement patterns.
  • the step length and / or the existence of steps can also be evaluated in one aspect.
  • the amplitude, orientation and / or frequency of the position change are less than the threshold value 3632 (such as a lateral fluctuation of 10 cm) and / or they do not correspond to a pattern, stability 3635 is assumed, otherwise of instability 3636.
  • the deviation (amplitude, orientation and / or frequency of at least one direction vector can be out of perpendicular and / or in the sagittal and / or The frontal plane can be evaluated over time (for example, for 5 seconds) in steps 3633 3631.
  • the joint points above include, for example, at least one shoulder joint point and a head joint.
  • the standing balance classification in step 3740 classifies the person with an unsafe stance 3741 if the person is standing 3616 and is unstable 3636.
  • the person is assigned to the class " Safe stand with aids "assigned if the person is standing 3616, uses aids 3623 and is in balance, s stable 3635 is.
  • a secure stance without aids 3743 is assumed if the person stands 3616, does not use any aids 3624, and stands stable 3635.
  • a standing balance score of 3744 is assigned based on this classification.
  • the ankle points and / or the knee joint points are used from the position of the extracted joint points 3541, in one aspect also the orientation of the direction vectors 3542 between hip joint point and knee joint point and / or knee and ankle joint point.
  • the distance between the ankle points 3641 is determined on the basis of this data, in one aspect within the frontal plane.
  • a threshold comparison 3642 and / or a pattern comparison is then used to classify whether the feet are wide 3643 or close together (i.e. a small distance 3643), whereby the threshold value can be, for example, 12 cm (from the center of the joint to the center of the joint).
  • the stance is classified into three classes: In the first class (unsafe stance 3746), the people who are standing 3616 and are unstable 3636 are grouped. In the second class, the standing people 3616, who stand steadily 3635, with aids 3623 or wide foot distance 3644 are classified. Third grade will be the people assigned who are standing 3616, with a stable balance 3635, and that without aids 3624 and with a small foot spacing 3643. This classification results in a standing balance foot spacing score 3749.
  • first class unsafe stance 3746
  • the standing people 3616, who stand steadily 3635, with aids 3623 or wide foot distance 3644 are classified.
  • Third grade will be the people assigned who are standing 3616, with a stable balance 3635, and that without aids 3624 and with a small foot spacing 3643. This classification results in a standing balance foot spacing score 3749.
  • the ankle points may not be obtained directly from the data of the SDK, which extracts the skeletal model, but alternatively via the knee joint point.
  • the position of the knee joint point, the direction vector, which is oriented from the knee joint point parallel to the lower leg, and the height of the knee joint point above the floor in the case of the passage of the direction vector are determined by the perpendicular determined, wherein the height of the knee joint point above the ground in the case of the passage of the direction vector through the perpendicular indicates the distance at which the ankle joint point is seen from the knee joint point.
  • the service robot 17 detects the person who has at least one impact on the standing balance
  • Hip forward evaluated in step 3651 i.e. within the sagittal plane.
  • the standing balance at impact is then evaluated using the standing balance-impact classification 3750.
  • the standing balance is safe / stable 3753, which is characterized by the standing 3616, the stability of the balance 3635, no aids 3624 and a small foot distance 3643 after a push 3655 b) the person shows one
  • the standing balance is recorded and evaluated with the eyes closed.
  • the service robot 17 can capture the face of the person, whose eyes, and through changes in color, color contrast, etc., which are captured by an RGB camera, differentiate between closed and open eyes.
  • the service robot 17 outputs an output, for example acoustically, which prompts the person to close his eyes.
  • the movements are recorded after detection of the closed eyes and / or the output.
  • the standing balance is determined in the same way as in FIG. 42, except that no impact is evaluated, and a stable or unstable stance is classified as a result, which leads to a standing balance eye score.
  • the service robot 17 records the gait behavior of the tracked person, preferably after an output that contains a request to walk, and determines the time until the gait begins, as shown in FIG. 43.
  • Aisle determination 3660 takes place within the framework of the feature classification 3370.
  • the change in position of the shoulder joint points / hip joint points, ankle joint points in the transverse plane and / or the distances between the ankle joint points 3661 is determined over time.
  • a threshold value comparison takes place in step 3662 and / or a pattern comparison, and if the threshold value is exceeded (e.g. 10 cm) a walking and / or attempted walk is assumed 3666, otherwise not 3665.
  • the curve profile of articulation points in the sagittal plane 3663 can be evaluated, wherein threshold values and / or curve comparisons 3664 or pattern comparisons can be used. Based on this, the movement is classified into walking and / or walking attempts 3666 or no walking 3665. In one aspect, attempts to walk are detected by the fact that the movement in the sagittal or transverse plane is relatively slow and / or discontinuous, with relatively slow implication that the value falls below a threshold value. As part of the start of aisle classification 3755, the length of time between the request and walking motion 3756 evaluated.
  • this walking movement is above a threshold value (such as 2 seconds) and / or different walking attempts are detected in step 3666, this is classified as dragging / different attempts in step 3757. If this walking movement takes place within a time interval that is below the threshold value, this is classified as no hesitation in step 3758. The result is assessed with a start-of-walk score 3759.
  • a threshold value such as 2 seconds
  • the service robot 17 evaluates the walking movement of a person (as described, for example, in the previous section), as also shown in more detail in FIG. 44, by the step lengths of the left and / or right To determine the leg.
  • the service robot 17 records the distance between the ankle points relative to one another over time, the maxima occurring in the sagittal plane corresponding to the step length 3672.
  • the service robot 17 alternately evaluates the position of the ankle points in relation to one another in the sagittal plane.
  • the foot length is taken into account in the step position classification 3760 that takes place below, for which purpose the foot length is determined in step 3675. In one aspect, this is interpolated over the height or size of the person, with different foot lengths being stored in a memory for different sizes of a person, i.e. reference values from the memory are used for this in step 3676.
  • the step length is related to the foot length in step 3761.
  • the position of the respective ankle points in the sagittal plane is evaluated when running through the stance phase, and in step 3762 it is compared in which position the ankle points are relative to one another 3762, the position data originating from step 3661.
  • leg under consideration is placed in front of the foot of the other leg 3763 or not 3764. It is placed in front of the foot of the other leg if the comparison of stride length and foot length in step 3761 shows that the
  • the stride length is shorter than the foot length and / or if the ankle point position of the leg under consideration in the gait direction in the sagittal plane is not in front of the foot of the other leg is set as the position of the ankle points results in 3762 when running through the stance phase.
  • a step position score 3765 is assigned on the basis of this classification. Such an evaluation can, in one aspect, take place separately for each leg.
  • Stand 3616 is to be understood here (and also in the further (for example, following) evaluations in which it is a question of walking that the person is essentially in an upright position in which the person is on a Otherwise, the described procedures could record movements of the person that would not generally be referred to as walking.
  • the service robot 17 follows the person during the aisle or drives in front of the person 3525, the service robot 17 adapting its speed to the speed of the person 3530 in one aspect, with a possibly discontinuous speed of the person turning into a continuous one Speed of the service robot 17 is implemented, for example.
  • Speed of the service robot 17 is implemented, for example.
  • the service robot 17, as shown in FIG. 45 detects the walking movement of a person and classifies the extracted features so that a foot height determination 3680 (above the ground) takes place.
  • the amplitude height of the ankle joint points and / or knee joint points plus directional vectors are evaluated over time in step 3681 and, for example, in the sagittal plane, with these being used for deriving the ankle joint points with a view to the knee joint points, as already described above.
  • the curve profile of the ankle joint points and / or knee joint points plus direction vectors is evaluated in step 3682.
  • the increases / decreases in the amplitudes which serve as a proxy for the step height, are evaluated and a comparison with threshold values and / or reference data takes place in step 3683
  • a higher probability implies that the leg will be lifted off the ground as much as possible, with a movement that is more like a trapezoidal movement with a higher probability of a grinding movement in which the foot does not move off properly Floor is lifted off.
  • the recorded step heights are evaluated using a threshold value comparison 3771 and / or a pattern comparison. If the step height falls below the threshold value (e.g.
  • Curve courses can, in one aspect, also be inferred directly from this that the foot is lifted or not lifted.
  • the results of the classification flow into the step height score 3774. Such an evaluation can, in one aspect, take place separately for each leg.
  • the service robot 17 evaluates the symmetry of the course of the aisle when it detects the aisle, as has been described, for example, in the preceding sections (see also FIG. 46), which is within the scope of aisle symmetry.
  • Classification 3775 takes place.
  • This gait symmetry classification 3775 uses in particular data from the step length determination 3760, ie the step lengths 3762 and evaluates this in one aspect when the person is standing 3616 or walking 3666.
  • the step length ratio is compared to a threshold value 3776 and / or movement patterns are evaluated over time.
  • the symmetry of the stride lengths per double step is evaluated, with a double step taking place by adding a step of the left and right leg (or vice versa).
  • the step length ratio can, in one aspect, be formed as the ratio of the individual step lengths to one another, or, in another aspect, as the ratio of a single step length to the double step length. If the respective ratio is below a threshold value or if a comparison with patterns shows, for example, a high pattern similarity, the gait is classified as symmetrical 3777, otherwise as asymmetrical 3778.
  • a step length ratio of 1: 1.1 or less (or 60:66 cm when referring to the single step or 60: 126 cm when referring to the double step) classified as symmetrical, larger proportions as asymmetrical.
  • the classifications are then converted to a gait symmetry score 3779.
  • the service robot 17 evaluates when detecting the aisle, as for example in the previous sections has been described, the step continuity (see Fig. 47).
  • the position of the ankle points can also be determined in the stance phase 3673 in one aspect.
  • the curve profile of the articulation points in the sagittal plane 3663 is evaluated with a view to the symmetry of the curve profiles 3781.
  • a high degree of symmetry is classified as a continuous gait 3784, otherwise as a discontinuous gait 3785.
  • the step lengths 3672 are evaluated with simultaneous detection / extraction of the points at which the feet touch the ground, i.e. the position of the ankle points is determined in the stance phase 3673. If the service robot 17 detects, for example, that at the times at which the left and right feet (or vice versa) touch the ground, the distance between the ankle points falls below a threshold value (e.g.
  • this step continuity is also classified as a discontinuous gait 3785. This is the case, for example, if the person always puts one foot in front and pulls the second foot behind so that both feet are approximately parallel when standing. Alternatively and / or in addition, such a case can also be detected by the service robot 17 if both legs are in parallel (in the sagittal plane) beyond a defined time threshold 3783. The classifications are then converted into a step continuity score 3786.
  • the service robot 17 evaluates the deviations of the aisle from a line when it detects the aisle, as was described in the previous sections, as shown in FIG is virtual or real. Via the output 3521, the person is requested to move along a line that is at least 2 m long, preferably 3 m.
  • a line determination 3690 is used.
  • a projection of a line and / or at least one marking on the floor 3691 can be detected; in an alternative and / or supplementary aspect, at least one marking and / or a line on the floor is detected in step 3692.
  • the marking and / or line is projected onto the floor by the service robot 17.
  • the line can also be virtual and, for example, consist of the direct connection of the person to a marking and / or the line in which the sagittal plane of the person intersects the floor, the line being determined at the beginning of the evaluation and / or after the Issue 3521 of the request to cover the distance.
  • a distance determination takes place 3910 in order to check whether the person has covered the distance along the line.
  • outputs from the service robot 17 can occur in order, if necessary, to instruct the person to take more steps to reach the target distance (e.g. 3 m) or to stop when the target distance has been reached .
  • the distance can be determined in various ways.
  • the service robot 17 records the distance that the service robot 17 covers 3911, for example using the odometry data 3912 and / or using position data 3913, the distance in the latter case being determined by the difference between at least two positions.
  • the distance to identified obstacles and / or objects can also be evaluated.
  • the distance to the person is evaluated over time in step 3914 and the distance covered is calculated from this.
  • the distance can be determined by adding the step lengths in step 3915, which were recorded in step 3672.
  • the position can also take place by evaluating the position of the person in space in step 3916 (see also step 3695 below), i.e. in particular by evaluating the distance between the coordinates that change when the position changes.
  • the position of the person is evaluated in step 3920 by determining the position of the head joint point, for example in the transverse plane and / or the center of the direction vector between the shoulder joint points or the hip joint points and / or the center between the direction vector between the knee joint points (e.g. . Projected into the frontal plane), the direction vector between the ankle points (e.g. projected into the frontal plane) and / or a direction vector between at least two similar arm joint points (e.g. projected into the frontal plane) is evaluated.
  • an evaluation is carried out to determine whether the person is using aids, as already described above in step 3620.
  • the service robot 17 determines the distance of the center of the body to the line in the course of time 3791 and / or the distance of the ankle points to the line within the frontal plane in the course of time 3792.
  • a deviation calculation including threshold value 3793 or a pattern comparison then takes place, ie for the determined distances, the maximum of the deviation, the least squares of the individual deviations per step, etc. are calculated, whereby other approaches described in the prior art for distance evaluation can also be used.
  • a classification then takes place as follows: The result is classified as a significant deviation in step 3793, if the person is standing 3616, 3666 goes, and the value of the line deviation in the deviation calculation including threshold value 3793 is above a threshold value or in has a minimum pattern similarity to a pattern comparison. The result is classified as a slight deviation and / or use of aids 3794, if the person stands 3616, walks 3666, and the value of the line deviation in the deviation calculation including threshold value 3793 and / or pattern comparison lies in an interval whose upper value is the threshold value for the Classification according to 3793 represents. Furthermore, as an alternative and / or in addition to the deviation from the line, the use of aids is detected in step 3620.
  • the result is classified as no deviation without the use of aids 3795 if the person is standing 3616, goes 3666, and the value of the line deviation in the deviation calculation including threshold 3793 is below a threshold (or a pattern similarity is not achieved in a pattern comparison) and no use of aids is detected in step 3620.
  • the path deviation score is calculated in step 3796.
  • the service robot 17 evaluates the torso stability while walking, which happens analogously or similarly to the standing balance determination, with the difference that the person also walks (cf.
  • the result of the feature classifications 3370 of the various aspects is evaluated as follows.
  • the person is classified as swaying or using aids in step 3951 if the person is standing 3616, walking 3666, using aids 3623, and is unstable 3636.
  • the person is classified as not swaying, but bent or balancing in step 3952, if the person is standing 3616, walking 3666 and either (as a partial aspect of the balance determination) is leaning forward (e.g.
  • the arm joint points themselves are at a distance from the body which is above a threshold value or which, for example, has a pattern dissimilarity in a pattern comparison (for example, evaluated via the periodic movements of the arm joint points in the transverse plane in 3631).
  • the person is classified as torso stable 3953 if the person is standing 3616, walking 3666, has no aids 3624 and is stable 3635.
  • the path deviation score 3954 is calculated based on this classification.
  • the amplitude and / or frequency of the periodic or aperiodic movements that are detected essentially parallel to the frontal plane can also be subjected to a threshold value comparison and / or a pattern comparison.
  • the service robot 17 evaluates the lane width / step width when detecting the aisle, as was described, for example, in the previous sections (see FIG. 50).
  • the track width is evaluated 3695 within the feature classification 3370, which is implemented, for example, as a distance measurement of the ankle points over time in the frontal plane 3696.
  • a threshold value comparison 3956 and / or a pattern comparison is carried out using the gauge data. It is also taken into account whether the person is standing 3616 and walking 3666. If the track width is below the threshold value (e.g.
  • the track width is classified as narrow 3958, otherwise as wide 3957.
  • the result is transformed into a 3959 track width score.
  • the track width can be corrected by the width of the hip joint point, which is approximated over the length of the direction vector between the hip joint points. 360 'rotation
  • the service robot 17 evaluates the rotational movement of the recorded person (see FIG. 51), preferably a rotational movement of 360 °, when the aisle is detected, as was described in the previous sections, for example .
  • the step length 3930 is determined within the feature classification 3370, but differently at this point than in step 3670 because it is not the distance in the sagittal plane that is evaluated, but the absolute distance, since the person's rotational movement can also step at an angle.
  • it is evaluated, for example with data from step 3661, whether and to what extent the person turns, i.e. a rotation detection takes place in step 3925.
  • the rotation in the transverse plane of the direction vector between the shoulder joint points, the hip joint points and / or the knee or arm joint points or the head is evaluated in step 3926.
  • the angles of rotation are recorded, added and the added values are evaluated to determine whether the addition has reached the value of 360 ° (angle of rotation addition up to the threshold value 360 ° in step 3927 or pattern comparison). In one aspect, this takes place after an output in step 3521 by the service robot 17.
  • step 3925 In the case of the rotation through 360 ° (as a result of step 3925), a detected walking movement in step 3666 and the standing in step 3616, an evaluation of the previously recorded step lengths is carried out in which the distances between the steps are compared in step 3961 become.
  • the symmetry of the double steps 3962 is evaluated, i.e. the double step lengths, the ratio of the single step lengths to each other and / or in comparison to the double step are evaluated.
  • the step frequency 3963 can also be evaluated, in particular with a view to its periodicity, i.e. the rise and fall of the curves and, above that, the amplitude symmetry.
  • Periodicity and / or the symmetry of the double steps is evaluated via a threshold value comparison in step 3964 and / or a pattern comparison, with a high degree of symmetry leading to steps 3965 classified as continuous, otherwise to discontinuous steps 3966.
  • the results are converted into a turning step score 3967 converted.
  • a rotation stability score 3970 is also recorded.
  • a rotational movement detected in 3925 is evaluated with regard to the balance in step 3630.
  • such rotational movements in which the balance is stable 3635 is where the person stands 3616 and walks 3666, classified as 3968 stable rotary motion.
  • movements in which the person is standing 3616 and walking 3666, but the balance is unstable in step 3636 are classified as unstable rotary movement 3969. The results are transferred to the 3970 Rotation Stability Score.
  • the service robot 17 detects the sitting down of the person as a result of an output 3521 via at least one output device of the service robot 17 and uses at least some of the feature classifications as already described above (cf. FIG. 52).
  • the service robot 17 evaluates the transition from standing 3616 to sitting 3617 in the sitting down classification 3980, this step being described with 3981. In particular, the speed of transition 3982 is evaluated.
  • the service robot 17 determines the continuity of the transition 3983, for example by sequential comparison of the instantaneous speeds while sitting down and / or by comparison with values stored in a memory. Based on these two steps 3982 and 3983, a threshold value evaluation 3984 and / or a pattern comparison takes place.
  • results of the classification 3620 are used, which evaluate whether the hand uses an aid, which also includes supporting oneself. The results are then classified as follows:
  • step 3984 If the speed of sitting down exceeds a threshold value 3984, then sitting down is classified as an insecure sitting down 3987. If the value of the discontinuity in the course of sitting down exceeds a threshold value 3984 and / or an auxiliary means 3623 is used, the movement is classified as an arduous sitting down 3985. If no aid is detected in step 3624 and the speed of sitting down falls below a threshold value in step 3984 and / or the value of the discontinuity of the course of sitting down falls below a threshold value in step 3984, sitting down is considered safe in step 3986 classified. The results of this evaluation are converted into a 3988 Sit Down Score.
  • the service robot 17 creates two- or three-dimensional recordings of the person and compares these recordings with recordings stored in a memory of people who also adopt the postures or make movements and who were classified accordingly to what extent the recorded person leans to the side, slips or sits securely or stably; the extent to which this person stands up and uses aids, tries to stand up, takes steps, has gait symmetry, shows trunk stability, rotates 360 °, etc.
  • This classification can be carried out using classification methods described in the prior art, e.g. methods of machine learning / artificial intelligence.
  • the service robot 17 classifies the recorded images of the person. The score is assigned to the individual exercises in the same way as described above.
  • the service robot 17 can also transmit the recorded data via an interface 188 (such as WLAN) to other systems in which the data are then evaluated, for example in the manner described for the evaluation within the service robot 17 .
  • an interface 188 such as WLAN
  • the various aspects of the mobility evaluation are described below with the aid of several figures.
  • the system for determining the balance of a person comprises a sensor for contactless detection of a person over time, a skeleton creation module 5635 for creating a skeleton model of the person, a skeleton model-based feature extraction module 5640 for feature extraction based on articulation points and / or Direction vectors between the articulation points of the person, a transverse articulation point evaluation module 5645 for evaluating changes in position of the articulation points within the transverse plane with a view to the amplitude, orientation and / or frequency of the change in position and for comparing recorded values with threshold values stored in memory 10 and / or patterns.
  • the system for determining the balance of a person comprises a sensor for contactless detection of a person over time, a skeleton creation module 5635 for creating a skeleton model of the person, a skeleton model-based feature extraction module 5640 for feature extraction on the basis of articulation points and / or direction vectors between the articulation points of the person, a perpendicular articulation point evaluation module 5650 for determining the deviation of a direction vector from the perpendicular of the person, the direction vector being formed as a connection of at least one articulation point of the foot, knee or hip with at least one vertically above articulation point of an upright person.
  • the system includes, for example, a perpendicular joint point evaluation module 5650 for determining the deviation of a direction vector from the person's perpendicular with a threshold value and / or pattern stored in memory 10, a track width increment module 5675 for determining the track width and / or increment of a Person on the distance between the ankle points in the frontal plane over time, when the track width has fallen below a threshold value, a person size evaluation module 5655 for evaluating the height of the person, the size e.g. over the distance between the ground and / or at least one ankle point and at least one point in the head area is determined, for example is determined by vector subtraction of two direction vectors which extend from a common origin to at least one foot and at least the head of the person.
  • a common origin is understood to mean, for example, a sensor such as a 3D camera from which depth information is recorded.
  • the system comprises a hand distance evaluation module 5660 for determining the distance between the at least one recorded wrist point of the person and at least one recorded object in the vicinity of the person and modification of a value in the memory (10) when the distance falls below a threshold value.
  • the system comprises a sagittal plane-based joint point course evaluation module 5665 for evaluating the course of the joint points within the sagittal plane and for comparing the determined values with values stored in the memory 10.
  • the sensor for contactless detection of the person can be a camera 185, a LID AR 1, an ultrasound and / or radar sensor 194.
  • the system has a person recognition module 110, person identification module 111 and / or movement evaluation module 120.
  • Example 1 Delirium prevention and delirium monitoring
  • the service robot 17 can be used to reduce the length of stay of patients in clinics if the patients are of advanced age and require an operation, which is usually carried out under general anesthesia. There is a high risk of developing dementia from the anesthesia. Risk patients are those who have previously suffered from cognitive impairments.
  • the service robot 17 can now be used to monitor the cognitive abilities of the patient at least once, for example automatically over the course of time, to provide medical staff with diagnoses that enable improved and targeted prophylaxis and treatment of patients.
  • FIG. 17 shows the sequence of how the service robot 17 automatically moves towards the patient for this purpose.
  • a hospital management system HIS
  • patient data are stored that an operation is to take place for a certain patient, including the type and date of the OP 1705.
  • the patient management system which is linked to the hospital management via an interface 188 (such as WLAN) System (HIS) accesses, the room information about where the patient is located can be obtained from the HIS.
  • further information can be transmitted to the patient administration module 160 in step 1710, including the type of operation, the appointment, disease-related information, etc.
  • the service robot 17 accesses the patient administration module 160, receives the room information in step 1715 and the same in step 1720 the room information with information stored in his navigation module 101 in order to then move in the direction of the patient's room in step 1725.
  • the information comparison between the patient administration module 160 and the navigation module in the cloud 170 takes place in step 1730, and in step 1735 the navigation module in the cloud 170 synchronizes with the navigation module 101 of the service robot 17. The service robot 17 then moves in the direction of the room Patient 1725.
  • the service robot 17 If the service robot 17 is in front of the room door to the patient 1805, the service robot 17 must pass this so that the patient can carry out the test on the service robot 17.
  • the service robot 17 is also configured in such a way that the service robot 17 is able to recognize a door through its sensor system, as described, for example, further above or in FIG. 8 1810. If the door is open, the service robot 17 navigates in the Step 1815 straight to the patient's room. If the door is closed 1820, the service robot 17 uses an integrated communication module 1825 which is connected to the call system of the clinic 1840 via an interface 188 (such as WLAN) (step 1835).
  • an interface 188 such as WLAN
  • the service robot 17 uses this to send a signal which allows the medical staff to draw conclusions about its position and the instruction to please open the door to the patient's room.
  • the service robot 17 has, in one aspect, a database with assignment of location data in its memory to room numbers 1830, which can be part of the database with room data 109 as part of the navigation module 101, which can be connected to a hospital information system via an interface, for example.
  • this database can also be available in a cloud 18. If the room door is opened by hospital staff in step 1845, the service robot 17 moves into the patient's room in order to carry out the test with the patient in step 1850.
  • the service robot 17 is configured in such a way that the service robot 17 has direct access to the door control 1855 via an interface 188 (such as WLAN) (step 1835) and this has a code for the Opening the door in step 1860 sends.
  • an interface 188 such as WLAN
  • the service robot 17 in front of the door observes the surroundings 1865 through its at least one sensor 3 and, if the service robot 17 detects people, the service robot 17 tracks these detected people in step 1870 and, in one aspect , predicts the movements of the recognized persons in the optional step 1875 and, if the persons orientate themselves in its direction 1880, aligns itself so that its display 2 is orientated in the direction of the persons (step 1890).
  • the tracking takes place, for example, by means of the visual person tracking module 112 and / or the laser-based person tracking module 113.
  • the service robot 17 waits until people are at a minimum distance from the service robot 17 1885 before the service robot 17 aligns the display 2 in the direction of the people 1885. At the same time, the service robot 17 visually and / or acoustically signals its wish that the person open the door to the patient's room in step 1892. The addressed person opens the door in step 1894.
  • the service robot 17, as already described above or FIG. 8, is able to detect the opening process of the door 1896. As soon as the door is opened, the service robot 17 navigates into the patient's room to carry out the test in step To be carried out in 1850. If there is no door between the service robot 17 and the patient, as is sometimes the case in intensive care units, these steps are not necessary.
  • the service robot 17 carries out a test in step 1905, in particular the mini-mental test, and uses this to determine a score in step 1910 which, in the case of the mini-mental test, determines the degree reflects the patient's cognitive impairment.
  • Test procedures are used. These data are transmitted via an interface 188 (eg WLAN) (step 1915) to the patient administration module 1920 and are made available there to the medical staff, who can access them via a display 2 (step 1925). If necessary, the data is also transferred to the HIS via an interface 188 (e.g. WLAN) 1930.
  • the patient administration module 160 is able to receive further data on the patient's medical history from the HIS, including, for example, drugs that the patient is taking. Based on this information, the patient administration module 160 determines a risk value which indicates the probability with which the patient can expect the dementia to progress through the planned operation 1935. This risk value can in turn be made available to the medical staff via a display 2 and / or be transferred to the HIS. On the basis of such information, the medical staff can initiate suitable preventive measures in order to prevent possible postoperative dementia or at least to reduce the likelihood of it.
  • the service robot 17 and the patient administration module 160 are also configured so that the service robot 17 after the operation 1955 (the information comes from the HIS), as already described above 1950, moves back to the patient and reconnects with him Test conducted in 1960, in particular, a geriatric test, such as the mini-mental test.
  • a geriatric test such as the mini-mental test.
  • step 1970 this procedure is repeated after a few days in step 1970 in order to record, evaluate and document the progress of the patient's recovery.
  • FIG. 20 it is shown how data from the service robot 17 are processed for therapy proposals.
  • the set of rules 150 is connected to the patient administration module 160 in the cloud 18 in such a way that it is configured such that the patient information can be transmitted in anonymized form to the set of rules 150 in step 2025.
  • the patient administration module 160 can previously be accessed from the Hospital Information System 2015 received further relevant data via an interface 188 (e.g. WLAN), including type of operation, type of anesthesia, comorbidities, medication taken, measures to prevent delirium, postoperative measures to alleviate delirium or its treatment, etc. as well as the results of the Exercises that have been carried out by means of the service robot 17 in step 2020.
  • the latter can also come from the patient administration module 160.
  • These data which are each available as a time series, are anonymized and encrypted in the patient administration module 160, transmitted to the set of rules 150 and stored there 2030.
  • step 2035 established machine learning methods and neural networks are used to provide patient-specific data such as age, The co-morbidities, the type of anesthesia, the operation, the medication taken etc. to make a prognosis of the extent to which the patient is expected to have postoperative delirium in 2040.
  • Determinants of delirium are in turn the degree of cognitive impairment shortly after the operation, when the service robot 17 usually carries out the first test, with which the parameters that are collected as part of a CAM-ICO test, the delirium detection score, the behavioral pain scale, the critical care point observation tool, the Richmont agitation sedation scale, the motor activity assessment Scale, in different forms and / or from the service robot such as Data described and collected above (e.g.
  • section delirium detection for example the data collected in example 11, 12 or 17 etc.
  • Another determinant is the improvement in the degree of delirium that occurs over a specified time, over which the service robot 17 determines the cognitive abilities 2045.
  • Another , alternative or supplementary determinant is the time that is required to (again) reach a certain level of cognitive skills in 2050. This data can be used in the form of a training data set.
  • the effect of interventions on the determinants described in the previous paragraph is estimated using established machine learning methods and / or neural networks.
  • These interventions include the use of gentle anesthesia, accompanying measures such as the provision of a caregiver, the use of medication, etc. 2055
  • weights are determined 2060, which are transmitted from the set of rules 150 to the patient administration module 160 in step 2065 and are used to submit recommendations to the medical staff, such as according to specific test results determined by the service robot 17 the creation of therapy plans for the respective patient should be proceeded in step 2070.
  • recommendations can be made available to the medical staff by the patient administration module 160 preoperatively, postoperatively and / or over the course of time.
  • the updates of these recommendations are optionally based on entries in the HIS to which the patient administration module 160 has access, on entries in the patient administration module 160 as well as on the results of the mini-mental test, based on the test for the delirium detection score with, for example, a sweat detection, the Confusion Assessment Method with, for example, the evaluation of cognitive abilities in connection with the detection of acoustic signal sequences, image recognition or finger recognition and / or the determination of the pain status on the basis of an evaluation of emotions, movements of the upper extremities, any coughing activities and / or acoustic pain articulations that the service robot 17 completes or performs with or on the patient, as described.
  • the situation can be represented in such a way that it is a system for predicting postoperative dementia or delirium, consisting of a computer, a memory and at least one interface 188 (eg WLAN) via which the system exchanges data with a mobile data acquisition unit, which has at least one camera 185, in one aspect also a spectrometer 196.
  • the mobile acquisition unit which records and evaluates data by machine, is, for example, a service robot 17.
  • the system as such can also be mapped in the service robot 17.
  • the system has an interface 188 (eg WLAN) via which it receives data on the state of health of a person, on treatments, medication status, measures for delirium prevention, measures for postoperative delirium treatment and / or evaluations of measurements that the mobile data acquisition unit such as For example, the service robot 17 has performed.
  • the system evaluates the data assigned to the persons over time.
  • historical data is evaluated, which depicts the pre- and postoperative course of illness and treatment in patients.
  • Predictions are made, ie in particular the probability of the occurrence of postoperative data such as, for example, the probability of occurrence of postoperative dementia, its course, etc. are forecast, for which, for example, machine learning methods are used.
  • the prognoses also take into account medical interventions such as the initiation of certain treatments pre- and post-operatively and their influence on the postoperative course of the disease is predicted.
  • rules are determined and stored, ie in particular weights (or regression coefficients, if regression models are used). These can then be used for forecasts in a second step on the basis of data obtained via the interface 188 (eg WLAN), including data that have been collected by the mobile data acquisition unit and, in one aspect, processed.
  • These data are primarily newly recorded data from patients for whom the future course of the disease is still unclear at the time of the survey or who has not yet been conclusively recorded.
  • This second step can take place in a separate system which receives the rules or weights from the system mentioned.
  • the process of the empirical-based prognosis of postoperative dementia / delirium is as follows: recording of persons over time, determination of health status data of persons based on recording of the person over time, receipt of preoperative data of persons, receipt of intervention data on the Persons, determination of the influence of the preoperative data and the intervention data on the health status data of the persons by calculating a weight estimate for parameters of the preoperative data and the intervention data as well as, for example, prognosis of the health status of a recorded person based on the weight estimate and newly collected preoperative data and intervention data of a person .
  • the service robot 17 can also carry out such an evaluation on patients who are not in bed.
  • the service robot 17 is able to identify the postures / poses of a patient on the basis of the skeleton recognition using frameworks from the prior art.
  • the service robot 17 can use the RGB camera to make recordings of the patient's surface and evaluate them to determine whether the patient is clothed. The patient picks up on this Classification algorithms designed to recognize skin by its color.
  • a cross-validation can take place in such a way that the target region on the skin on which the measurement is to take place is compared in terms of color and / or texture with that of the person's face, which is determined via frameworks can be recognized according to the state of the art, for example by means of approaches such as histogram-of-gradients, which are implemented in frameworks such as OpenCV or Scikit-image.
  • a filter can be used here that carries out color corrections to the extent that the detected colors on the face can be darker than on the area on the skin on which the measurement is to take place. Regions of the face that are eligible for determining the comparison value are the cheeks or the forehead (the identification of the latter region has already been described elsewhere).
  • Such a correction factor can, in one aspect, also be dependent on the season. If the comparison taking place in this case results in a similarity value that is above a defined threshold value, the detected point is recognized as skin for the measurement.
  • An alternative and / or supplementary filter can also be used, which excludes color tones that are not typical for the skin (certain red tones, blue, green, yellow) etc.
  • the service robot 17 detects a target region of the skin for the measurement, determines whether this is skin, and if this is not the case, the service robot 17 detects further target regions and / or asks the patient via the speech synthesis unit 133, to clear a corresponding region. To this end, the service robot 17 tracks the corresponding region, for example the patient's arm, and, for example, after the patient moves less than defined by a threshold value, the evaluation of the location starts again in order to identify whether the skin is exposed there or, if necessary, still through Clothing is covered. If the service robot 17 has detected this concealed skin, the service robot 17 carries out the measurements described elsewhere.
  • Example 4 Triggering elements of embodiment based on cardiovascular indicators
  • the service robot 17 calculates the pulse rate or pulse frequency of a person with whom the service robot 17 interacts by the service robot 17 the pulse rate and pulse frequency with the system described by recording and evaluating the face and the reflected cardiovascular movements of the face surface and /or of the head and / or vascular blood flows under the skin.
  • the determined pulse frequency is used in the event that the service robot 17 has elements of embodiment, ie those elements that at least partially reproduce a person such as a stylized head or parts of it such as stylized eyes, mouth, etc., by imitation the frequency of unconsciously interacting with the person. This interaction can mean, for example, adapting the blinking of stylized eyes to the pulse rate.
  • the service robot 17 can also be adapted to the pulse frequency.
  • the service robot 17 can, if the person has an above-average pulse rate, which, for example, also indicates a high level of nervousness (alternatively, other determined parameters indicate high level of nervousness), by selecting a movement frequency of, for example stylized eyes, chest or other elements that are smaller than the frequency identified in the patient try to calm the patient down.
  • the service robot 17 determines the patient's pulse frequency over time and, if necessary, reduces its movement frequency until the patient also has a normal pulse frequency. The difference between the recorded pulse frequency and the movement frequency of the service robot 17 can remain approximately constant.
  • Stylized means, for example, that the eyes can be implemented in hardware, for example spheres with printed circles and hemispheres that can mechanically cover the printed circles on the spheres.
  • the eyes can also be shown on a display, for example in the form of circles, etc.
  • When looking at a mouth it can be defined, for example, as in the case of a smilie, by a line that can adopt different orientations and / or curvatures.
  • the service robot 17 can identify and also track a person's chest using the camera 185, which can be done using a framework such as OpenPose, OpenCV, etc., for example using the visual person tracking module 112 and / or the laser-based person tracking module 113.
  • Camera 185 and the two person tracking modules 112 and 113, but possibly also other sensors such as LID AR 1, are also referred to as person detection and tracking unit 4605.
  • the service robot 17 can detect movements of a person over time, which, for example, reflect breathing. This detection includes in the event that the patient is roughly in front of the service robot movements in the horizontal direction as well as in depth.
  • These movements can be determined, for example, by means of a bandpass filter with a window of 0.005 to 0.125 Hz, at least 0.05 to 0.08 Hz, and subsequent rapid Fourier transformation. This can be used to determine the breathing rate, which can be used instead of the pulse rate to mirror the patient's movements and, if necessary, to calm the patient.
  • the pulse rate or pulse frequency and / or breathing or breathing frequency is detected by means of a movement frequency determination unit 4606, the computer-implemented method for determining the pulse rate or pulse frequency and / or described, for example, from camera 185 and elsewhere in this document Breathing or breathing rate, but other movements of the person are also conceivable.
  • the parameters for pulse and / or breath are specifically recorded and evaluated by a pulse-breath evaluation unit 4615. In particular, breathing is about a
  • Movement signal detection and processing unit 4620 detects and evaluates which background signals of the body differ from those of clothing. For this purpose, details are given elsewhere in this document with a view to signal processing.
  • the mentioned stylized faces or facial elements, heads, torso or rib cages, are also referred to as stylized embodiment elements 4625. These are moved by a movement unit 4607 at a certain frequency. This can take place in different ways, depending on the type of stylized embodiment element. Eye movements on a display can be implemented purely software-based, for example, while physical embodiment elements, for example, require servomotors that move eyelids or move a stylized chest.
  • the system also has a person recognition module 110, person identification module 111, tracking module (112, 113) and / or movement evaluation module 120. An overview of the components of the system is shown in FIG. 60.
  • the synchronization of movements of a person with a service robot 17 is characterized by the following aspects ASBPS1 to ASBPS19:
  • ASBPS1 System for synchronizing the movements of a person and a system, comprising a person detection and tracking unit (4605), a movement frequency determination unit (4606) for determining the frequency of the movements of the person, and a movement unit (4607) for movement stylized Embodiment elements (4625) of the system with a frequency which lies within a defined bandwidth around the determined frequency of the movements of the person.
  • ASBPS2 System according to ASBPS1, further comprising a pulse-breathing evaluation unit (4615) for measuring the pulse rate and / or the breathing rate of the person.
  • ASBPS3. System according to ASBPS1, further comprising a motion signal detection and
  • ASBPS4 System according to ASBPS1, wherein the stylized embodiment elements (4625) are implemented in hardware and / or software.
  • stylized embodiment elements (4625) implemented in software comprise the display of at least one stylized face or face element on a display 2.
  • ASBPS6 System according to ASBPS5, wherein hardware-implemented, stylized embodiment elements (4625) comprises at least one stylized face, facial element or a torso or rib cage.
  • ASBPS7 The system of ASBPS5, wherein the movement of stylized embodiment elements (4625) comprises movement of a stylized face, facial element, torso or chest by the movement unit (4607).
  • ASBPS8 System according to ASBPS4, wherein the stylistic embodiment elements are stimulated to imitate the breathing movement by the movement unit (4607).
  • ASBPS9 System according to ASBPS1, whereby the system is used to calm the person.
  • ASBPS12 The computer-implemented method of ASBPS10, wherein the movement of stylized embodiment elements (4625) comprises movement of a stylized face, facial element, torso or chest and / or mimicking breathing.
  • ASBPS13 Computer-implemented method according to ASBPS10, wherein the movement of the stylized embodiment elements (4625) by the movement unit (4607) is kept lower than the detected frequency of the movements of the person.
  • ASBPS14 Computer-implemented method according to ASBPS10, the frequency difference between the movements of the stylized embodiment elements (4625) and the person being kept approximately constant over time by the movement unit (4607).
  • ASBPS15 Computer-implemented method according to ASBPS10, the recorded movements of the person being the pulse rate and / or the breathing rate.
  • ASBPS16 Computer-implemented method according to ASBPS10, wherein the movements of the stylized embodiment elements (4625) are set by the movement unit (4607) to a frequency which is lower than the frequency of the detected movements of the person.
  • ASBPS17 Computer-implemented method according to ASBPS10, wherein the movements of the stylized embodiment elements (4625) are controlled by the movement unit (4607) in such a way that they become slower over time.
  • ASBPS18 Computer-implemented method according to ASBPS10, wherein the frequency difference between the stylized embodiment elements (4625) and the person is kept approximately constant by the movement unit (4607) over time.
  • ASBPS19 Computer-implemented method according to ASBPS10, whereby the
  • Movement unit (4607) initiated bandwidth of the frequency of the determined frequency of the person moving in an interval of 50% downward and / or upward or in an interval of less than 15% downward and / or upward.
  • Example 5 Method, device and / or system for carrying out a get up and go test Determination of a score in connection with getting up and sitting on a chair is characterized here by the following aspects ASASS1 to ASASS20:
  • ASASS Computer-implemented method for recording and evaluating the
  • Covering a distance by a person comprising: outputting an instruction via an output unit;
  • ASASS2 Computer-implemented method according to ASASS1, whereby the distance covered by the person is determined by
  • ASASS3 Computer-implemented method according to ASASS1, whereby the distance covered by the person is determined by tracking the person's movements between the starting position and the turning position.
  • ASASS4 Computer-implemented method according to ASASS1, comprising a detection of a rotational movement of the person and comparison with patterns.
  • ASASS5 Computer-implemented method according to ASASS4, whereby the rotational movement of the person at the turning position is recorded.
  • ASASS6 Computer-implemented method according to ASASS1, whereby the rotational movement of the person is recorded and the position of the rotational movement defines the turning position.
  • ASASS7 Computer-implemented method according to ASASS4-6, whereby the detection of the rotary movement is carried out
  • ASASS8 Computer-implemented method according to ASASS1, whereby the turning position is determined by a recorded marking on the ground.
  • ASASS9 Computer-implemented method according to ASASS1, further comprising a determination of the person getting up from and / or the person sitting on a chair.
  • ASASS10 Computer-implemented method according to ASASS9, whereby the determination of the person getting up from and / or the person sitting on a chair is carried out by evaluating the inclination of the upper body over time.
  • ASASS11 Computer-implemented method according to ASASS10, with evaluation of the inclination of the upper body over time over the
  • ASASS12 Computer-implemented method according to ASASS10, whereby the determination of the person getting up from and / or the person sitting on a chair by evaluating the height of the person and / or a change in height of the person compared to a threshold value and / or pattern he follows. ASASS13.
  • Computer-implemented method according to ASASS10 whereby the determination of the person standing up from one and / or the person sitting on a chair via the detection, tracking and evaluation of the movements of the person's head over time and one recognized, at least partially circular movement of the head takes place within the sagittal plane.
  • ASASS14 Computer-implemented method according to ASASS1, further comprising the
  • ASAS15 Computer-implemented method according to ASASS14, further comprising the creation of a score for the determined time.
  • ASASS16 Computer-implemented method according to ASASS1, further comprising the performance of a test on the hearing, vision and / or mental abilities of the person.
  • ASASS17 Device for carrying out a method according to ASASS1 - ASASS16.
  • ASASS18. System comprising a computer (9), a memory (10) and at least one sensor for contactless detection of the movement of a person, with a chair detection module (4540), an output device such as a loudspeaker (192) and / or a display (2) for transmission of instructions, a duration-distance module (4510) for determining the duration for covering the distance and / or a speed-distance module (4515) for determining the speed of the recorded person on a distance and a time-distance evaluation module (4520) to evaluate the time to cover the distance.
  • ASASS19 System according to ASASS18, further comprising a hearing test unit (4525), a vision test unit (4530) and / or a test-for-intellectual-ability-unit (4535).
  • ASASS20 System according to ASASS18, further comprising a projection device (920) for projecting a turning position onto the ground.
  • Example 6 Method, device and system for evaluating a mini-mental test folding exercise
  • AMMTF1 to AMMTF25 The determination of a score in the evaluation of a folding exercise is characterized here by the following aspects AMMTF1 to AMMTF25:
  • AMMTF Computer-implemented method for detecting and evaluating a folding process, comprising
  • AMMTF2 Computer-implemented method according to AMMTFG1, comprising folding the sheet approximately in the middle.
  • AMMTF3 Computer-implemented method according to AMMTFG1, wherein the tracking of the at least one hand of the person comprises the creation of a skeleton model of the at least one hand of the person.
  • AMMTF4 Computer-implemented method according to AMMTFG1, comprising an identification of the leaf via a fault-tolerant segmentation algorithm.
  • AMMTF5. Computer-implemented method according to AMMTFG4, further comprising a sheet classification and / or classification of a folding process based on comparison with two-dimensional or three-dimensional patterns.
  • AMMTF6 Computer-implemented method according to AMMTFG1, wherein the classification of the folding process comprises touching at least one thumb and at least one other finger on the fingertips or fingertips as hand movements.
  • AMMTF7 Computer-implemented method according to AMMTFG1, wherein the classification of the folding process comprises a detection of a change in shape of a sheet which is in engagement with at least one element of a hand.
  • AMMTF8 Computer-implemented method according to AMMTFG1, comprising identification and tracking of at least one corner and / or edge of a sheet.
  • AMMTF10 Computer-implemented method according to AMMTFG9, further comprising a classification of the folding process by comparing determined distances with a threshold value and / or pattern and detection of a folding process if the determined distance is below the threshold value and / or a minimum pattern similarity is detected.
  • AMMTF11 Computer-implemented method according to AMMTFG1, wherein the classification of the folding process comprises a detection of a curvature of the sheet which is above a threshold value and / or which has a minimum pattern similarity.
  • AMMTF12 Computer-implemented method according to AMMTFG1, wherein the classification of the folding process comprises a distance reduction between at least two sheet edges.
  • AMMTF13 Computer-implemented method according to AMMTFG1, wherein the classification of the folding process comprises an approximately parallel alignment of the ends of a sheet edge and / or a distance between the ends of a sheet edge which is smaller than 20 mm.
  • AMMTF14 Computer-implemented method according to AMMTFG1, whereby the classification of the folding process comprises a size reduction of the recorded and tracked sheet by more than 40% over time.
  • AMMTF15 Computer-implemented method according to AMMTFG1, further comprising output on a display 2 and / or a voice output for folding and depositing a sheet or folding and dropping a sheet.
  • AMMTF16 Computer-implemented method according to AMMTFG15, further comprising the detection of the sheet over time and the adjustment of a value in a memory after a folding process has been detected and the sheet is deposited and / or dropped.
  • AMMTF17 Device for carrying out a method according to AMMTFG1-AMMTFG16.
  • AMMTF18 System comprising a computer (9), a memory (10) and a sensor for contactless detection of the movement of a person, comprising a memory (10)
  • AMMTF20 System according to AMMTFG18, wherein the folding movement detection module (4710) via a sheet-distance-corner-edge module (4720) for detecting the distance of edges and / or corners of a sheet, a sheet shape change module (4725), a sheet curvature module ( 4730), a sheet dimension module (4740) and / or a sheet edge orientation module (4745).
  • AMMTF21 System according to AMMTFG18, further comprising a fingertip Ab Stands module (4750) for detecting the distance between fingertips of at least one hand.
  • leaf detection module (4705) includes a leaf segmentation module (4755) and / or a leaf classification module (4760).
  • AMMTF23 System according to AMMTFG18, comprising an output device such as a loudspeaker (192) and / or a display (2) for transmitting instructions.
  • an output device such as a loudspeaker (192) and / or a display (2) for transmitting instructions.
  • AMMTF24 System according to AMMTFG18, comprising an interface (188) to a terminal (13).
  • AMMTF25 System according to AMMTFG18, wherein the at least one sensor for contactless detection of the movement of a person is a 2D and / or 3D camera (185), a LID AR (1), a radar and / or ultrasonic sensor (194).
  • the at least one sensor for contactless detection of the movement of a person is a 2D and / or 3D camera (185), a LID AR (1), a radar and / or ultrasonic sensor (194).
  • the manipulation detection is characterized here by the following aspects AMI to AM18:
  • AMI Computer-implemented method for determining a manipulation probability on a robot, comprising
  • AT 4 Computer-implemented method according to AMI, comprising a skeleton model creation of the recorded and tracked person and an extraction and classification of articulation points.
  • AM5 Computer-implemented method according to AM4, further comprising a determination of the orientation of the person relative to the robot.
  • Computer-implemented method according to AM5 further comprising the determination of an orientation of the person relative to the robot by determining the angle between the frontal plane of the person and the axis perpendicular to the operating elements 186 of the robot, each projected in a horizontal plane, and a Comparison of the determined angle with a threshold value, falling below the threshold value includes a detection of an increased probability of manipulation.
  • AM9 Computer-implemented method according to AM3, AM6 and / or AM8, comprising a multiplication of the manipulation probabilities to determine a manipulation score.
  • AM10 Computer-implemented method according to AM9, comprising the execution of evaluations by the robot with the person and the storage of the manipulation score together with the evaluation results.
  • AMI 1. Device for carrying out a method according to AM1-AM10.
  • System comprising a computer (9), a memory (10) and a sensor for contactless detection of the movement of at least one person, comprising an attempted manipulation detection module (4770) for detecting an attempted manipulation by at least one person.
  • System according to AMI 2 further comprising a person-robot distance determination module (4775) for determining the distance between the at least one person and the robot.
  • AM15 System according to AMI 4, wherein the person-robot distance determination module (4775) has a height-arm-length orientation module (4780) for estimating the height, arm length and / or orientation of the at least one person to the robot.
  • the person-robot distance determination module (4775) has a height-arm-length orientation module (4780) for estimating the height, arm length and / or orientation of the at least one person to the robot.
  • System according to AM13 further comprising an input registration comparison module (4785) for comparing whether a person registered with the system is recorded by the system or makes inputs in the system via the operating elements (186).
  • the at least one sensor for contactless detection of the movement of the at least one person being a 2D and / or 3D camera (185), a LID AR (1), a radar and / or Ultrasonic sensor (194) acts.
  • the manipulation detection is characterized here by the following aspects AMM1 to AMM17:
  • AMM1 Computer-implemented method for determining a manipulation probability on a robot, comprising
  • AMM2 Computer-implemented method according to AMM1, the position of the source of the audio signals being determined by detecting the direction of the audio signals by at least one microphone and triangulating the determined directions.
  • AMM4 Computer-implemented method according to AMM1, further comprising
  • AMM5. Computer-implemented method according to AMI, further comprising
  • identification features of the person including frequency, intensity and / or spectrum of the audio signals from the person.
  • AMM8 Computer-implemented method according to AMM1, further comprising
  • AMM10 Computer-implemented method according to AMM1, where the position of the source of the audio signals is determined by repositioning the microphone and capturing the audio signals from two microphone positions with subsequent triangulation.
  • AMM1 Computer-implemented method according to AMM1, comprising the determination of a manipulation score by multiplying determined manipulation probabilities.
  • AMM13 System for manipulation evaluation on the basis of audio signals, comprising a computer (9), a memory (10), operating elements (186), a sensor for contactless detection of the movement of a person, a manipulation attempt detection module (4770), at least one microphone (193), a person position determination module (4415) for determining the position of a person, an audio source position determination module (4420) for Determination of the spatial origin of an audio signal, an audio signal comparison module for comparing two audio signals (4425) and an audio signal person module (4430) for assigning audio signals to a person.
  • AMM14 System according to AMM13, comprising a speech evaluation module (132).
  • AMM15 System according to AMM13, comprising an input registration comparison module (4785) for comparing whether a person identified by the system makes inputs to the system.
  • the sensor for contactless detection of the movement of a person being a 2D and / or 3D camera (185), a LID AR (1), a radar and / or ultrasonic sensor (194).
  • AMM17 System according to AMM13, comprising an audio sequence input module (4435) for comparing an audio sequence with a sequence of tactilely input letter sequences.
  • ASP1 to ASP20 The spectroscopy is characterized here by the following aspects ASP1 to ASP20:
  • Computer-implemented method for spectrometri see analysis of at least one body region of a person, comprising
  • ASP2 Computer-implemented method according to ASP1, the body regions being the person's forehead, the surface of the hand and / or the upper body.
  • ASP7 Computer-implemented method according to ASP1, comprising the evaluation of the ambient temperature.
  • ASP8 Computer-implemented method according to ASP5, comprising the quantitative evaluation of a person's perspiration.
  • ASP9 Computer-implemented method according to ASP1, comprising the determination of a delirium detection score.
  • ASP10 Computer-implemented method according to ASP1, comprising the determination of the person's cognitive abilities.
  • ASP12. System comprising a computer (9), a memory (10) and a sensor for contactless detection of a person, further comprising a spectrometer (196), a visual person tracking module (112), a body region detection module (4810) for Detection of body regions, a spectrometer alignment unit (4805) for Alignment of the spectrometer (196) to a body region of a person, and with access to a reference spectra database (4825) with reference spectra for comparing measured spectra for the purpose of determining measured substances.
  • ASP13 System according to ASP12, comprising a spectrometer measuring module (4820) for monitoring a measuring process of the spectrometer (196).
  • ASP14 The system of ASP12, wherein the visual person tracking module (112) includes a body region tracking module (4815).
  • ASP15 System according to ASP12, comprehensive access to a clinical picture database (4830) with stored clinical pictures.
  • ASP17 System according to ASP12, comprising a delirium detection score determination module (4840) for determining a delirium detection score.
  • ASP18 System according to ASP12, comprising a cognitive skills assessment module (4845) for assessing cognitive abilities of the person.
  • thermometer 4850
  • ASP20 System according to ASP12, wherein the at least one sensor for contactless detection of the movement of a person is a 2D and / or 3D camera (185), a LID AR (1), a radar and / or ultrasonic sensor (194).
  • the at least one sensor for contactless detection of the movement of a person is a 2D and / or 3D camera (185), a LID AR (1), a radar and / or ultrasonic sensor (194).
  • AAA1 to AAA18 The attention analysis is characterized here by the following aspects AAA1 to AAA18:
  • AAA1 A computer-implemented method for comparing detected signals of a tactile sensor (4905) with a sequence of output sound signals, comprising
  • AAA3 Computer-implemented method according to AAA1, with a delay or phase shift between the output, pulsed sound signals and the signals detected by the tactile sensor (4905).
  • AAA4 Computer-implemented method according to AAA3, the delay or phase shift being approximately half a pulse length.
  • AAA5 Computer-implemented method according to AAA3, wherein the detected signal of the tactile sensor (4905) tracks the pulsed tone sequence.
  • AAA6 Computer-implemented method according to AAA1, comprising the assignment of a value to each output sound signal.
  • AAA7 Computer-implemented method according to AAA6, further comprising an adjustment of a value upon detection of a signal according to a defined value.
  • AAA8 Computer-implemented method according to AAA7, wherein the adjustment of the value represents an incrementation of the value.
  • AAA9 Computer-implemented method according to AAA7, further comprising the creation of a diagnosis on the basis of the adjusted value.
  • AAA10 Computer-implemented method according to AAA9, whereby the diagnosis represents an assessment of cognitive abilities.
  • AAA1 1. Computer-implemented method according to AAA1, comprising the detection of a person and the detection and position determination of a hand of the person.
  • AAA12 Computer-implemented method according to AAA11, comprising positioning the tactile sensor (4905) at a distance from the hand which is below a threshold value.
  • AAA13 Device for carrying out a method according to AAA1-AAA12.
  • AAA14 System comprising a computer (9), a memory (10), an output unit for acoustic signals (192), a tactile sensor (4905) and a tactile sensor evaluation unit (4910) for evaluating signals from the tactile sensor (4905) and a tactile sensor output comparison module (4915) for carrying out a comparison as to whether the detected signals occur after an output of acoustic signals.
  • AAA15 System according to AAA14, comprising an actuator (4920) on which the tactile sensor (4905) is positioned.
  • AAA16 System according to AAA14, comprising an actuator positioning unit (4925) for positioning the tactile sensor (4905) within a defined distance to the hand.
  • AAA17 System according to AAA14, comprising a camera (185), a personal identification module (111) and a hand identification module (4930).
  • AAA18 System according to AAA14, comprising a cognitive skills assessment module (4845) for assessing cognitive abilities of the person.
  • the cognitive analysis is characterized here by the following aspects AKA1 to AKA16:
  • AKAT Computer-implemented method for comparing finger poses of a person determined on the basis of video signals with visually and / or acoustically output numbers, comprising
  • AKA2 Computer-implemented method according to AKA1, whereby the finger poses represent numerical values.
  • AKA3 Computer-implemented method according to AKA2, whereby a numerical value can represent several finger poses.
  • AKA4 Computer-implemented method according to AKA1, the optical output of numerical values representing output of finger poses by an actuator (4920).
  • AKA5 Computer-implemented method according to AKA1, further comprising a detection and tracking of the head of the person and a determination of the field of vision of the person.
  • AKA6 Computer-implemented method according to AKA5, further comprising a positioning of the actuator (4920) and / or a display (2) in the field of vision of the person.
  • AKA7 Computer-implemented method according to AKA1, further comprising a determination of cognitive abilities of the person by evaluating the comparison of the evaluated finger poses with the visually and / or acoustically output numerical values.
  • AKA8 Device for carrying out a method according to AKA1-AKA7.
  • AKA9. System comprising a computer (9), a memory (10), an output unit and a numerical value output module (4940) for outputting numerical values, a person detection and tracking unit (4605) with a camera (185) and a person recognition module (110 ).
  • AKA10 System according to AKA9, the output unit being a tone generator such as a loudspeaker (192), a display (2) or an actuator (4920).
  • a tone generator such as a loudspeaker (192), a display (2) or an actuator (4920).
  • AKA1 1. System according to AKA10, whereby the actuator (4920) is a robot arm.
  • AKA12. System according to AKA10, whereby the actuator (4920) has a robot hand (4950).
  • AKA13 System according to AKA9, further comprising a hand pose detection module (4960) for the detection and of hand poses of the person.
  • AKA14 System according to AKA12, wherein the system comprises a finger pose generation module (4955) for generating finger poses of the robot hand (4950).
  • AKA15 System according to AKA9, the system being connected to a patient administration module (160).
  • AKA16 System according to AKA9, further comprising a cognitive abilities assessment module (4845) for assessing cognitive abilities of the recorded person.
  • a computer-implemented method for determining the pain status of a person comprising
  • ASB2 Computer-implemented method according to ASB1, the individual and / or coherent classification of the surface curvature of the candidate regions representing a determination of emotions.
  • ASB4 Computer-implemented method according to ASB2, further comprising the evaluation of emotions over time.
  • a computer-implemented method for determining the pain status of a person comprising
  • a computer-implemented method for determining the pain status of a person comprising
  • the pain intensity classification includes the assignment of scale values to the recorded acoustic signals and the scale values represent a pain status.
  • ASB1E Computer-implemented method for determining the pain status of a person, comprising
  • ASB12 Computer-implemented method according to ASB1, ASB6, ASB9 or ASB11, with at least two of the methods being carried out in parallel or sequentially.
  • ASB 13 Computer-implemented method according to ASB1, ASB6, ASB9 or ASB11, further comprising the evaluation of the determined scale values or stored values within a delir detection.
  • ASB14 Device for carrying out a method according to ASB1-ASB13.
  • ASB 15. System for determining the pain status of a person, comprising a computer (9), a memory (10), a sensor for contactless detection of the person and a pain status calculation module (5040).
  • ASB 16 System according to ASB 15, comprising a face recognition module (5005) for recognizing the face of the person, a face candidate region module (5010) for selecting candidate regions within the face, an emotion classification module (5015) for Classification of the surface curvatures of the candidate regions of the face in emotions, and an emotion evaluation module (5020) for determining a scale value for the emotion.
  • ASB17 System according to ASB15, comprising a bed recognition module (5025) for recognizing a bed.
  • ASB18 System according to ASB15, comprising a person recognition module (110), a visual person tracking module (112), an upper extremity evaluation module (5035) for detecting and tracking the upper extremities of the person and evaluating the angles of the upper extremities.
  • ASB19 System according to ASB15, comprising a microphone (193) for recording acoustic signals, pain vocalization module (5055) for classifying the intensity and frequency of the acoustic signals and determining a scale value representing pain vocalization.
  • ASB20 System according to ASB 19, further comprising an audio source position determination module (4420) for evaluating the position of the source of acoustic signals and a
  • ASB21 System according to ASB 15, comprising a ventilation device identification module (5065) for identification of a device for artificial ventilation.
  • ASB22 System according to ASB 15, comprising a pain perception evaluation module (5085) for evaluating sensors attached to a person.
  • ASB23 System according to ASB 15, the sensor for contactless detection of the person being a 2D and / or 3D camera (185), a LID AR (1), a radar and / or ultrasonic sensor (194).
  • the determination of the blood pressure is characterized here by the following aspects ABI to AB16:
  • a computer-implemented method for determining cardiovascular parameters of a person comprising
  • AB 10 System for determining cardiovascular parameters of a person, comprising a computer (9), a memory (10) and a camera (185), further comprising a body region detection module (4810) for detecting body regions, body region tracking Module (4815), and a cardiovascular movement module (5110) for recording movements that can be traced back to cardiovascular activities.
  • ABI 1 System according to AB 10, further comprising a face recognition module (5005) and a face candidate region module (5010).

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Electromagnetism (AREA)
  • Radiology & Medical Imaging (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

System und Verfahren zur Erfassung eines Bewegungsablaufs einer Person. Das Verfahren umfasst die Erfassung durch einen berührungslosen Sensor einer Vielzahl von Bildern der Person bei einem Bewegungsablauf, wobei die Vielzahl von Bildern die Bewegungen der Körperelemente der Person darstellt, die Erstellung von mindestens einem Skelettmodell mit Gliederpositionen für zumindest einige der Vielzahl von Bildern, und die Berechnung des Bewegungsablaufs aus den Bewegungen der Körperelemente der Person durch Vergleich der Änderungen der Gliederpositionen in den mindestens einen erstellten Skelettmodells. Darüber hinaus können Vitalparameter und/oder Signalverarbeitungsparameter der Person erfasst und ausgewertet werden.

Description

Titel: System zur Erfassung von Bewegungsabläufen und/oder Vitalparametern einer Person
Querverweis zu bekannten Anmeldungen
[0001] Diese Anmeldung beansprucht die Priorität der Deutschen Patentanmeldungen DE 10 2019 123 304.6, eingereicht am 30. August 2019; DE 102020 102 315.4, eingereicht am 30. Januar 2020 und DE 102020 112 853.3, eingereicht am 12. Mai 2020. Der Inhalt der gesamten oben genannten Deutschen Patentanmeldungen sind hiermit durch Bezugnahme hierin vollständig aufgenommen.
Gebiet der Erfindung
[0002] Die Erfindung umfasst einen Serviceroboter zur automatisierten Durchführung von geriatrischen Tests.
Hintergrund der Erfindung
[0003] Das Gesundheitssystem leidet unter einem erheblichen Fachkräftemangel. Dieser Fachkräftemangel führt dazu, dass für eine Behandlung von Patienten immer weniger Zeit bleibt. Diese fehlende Zeit führt nicht nur zu Unzufriedenheit sowohl auf Seiten der Patienten als auch des medizinischen Personals, sondern kann auch dazu führen, dass Erkrankungen nicht ausreichend behandelt werden, was nicht nur Patientenleid mit sich bringt, sondern auch die Wertschöpfung einer Volkswirtschaft reduziert. Mit diesen Effekten geht einher, dass die Notwendigkeit zur Dokumentation des Patientenzustands immer weiter zunimmt, um sich aus medizinischer Sicht ggf. auch gegen Schadensersatzansprüche wehren zu müssen, die auf unzureichende Therapien zurückgeführt werden können. Diese Dokumentationspflicht kann in einigen Fällen zu einem sich selbst verstärkenden Effekt führen.
[0004] Der in diesem Dokument beschriebener Serviceroboter adressiert diese Problematik, indem der Serviceroboter geriatrische Tests, die momentan durch medizinisches Personal erbracht werden, unter dem Einsatz mehrerer Sensoren selbständig durchführt. Dieser Serviceroboter ist ferner in der Lage, die absolvierten Übungen genau zu dokumentieren, womit die Gesundheitseinrichtung des Serviceroboters in der Lage ist, die diesbezüglichen Dokumentationspflicht und sonstige Compliance-Verpflichtungen einzuhalten, ohne hierfür separat noch Personal abstellen zu müssen. Ein weiterer Effekt ist, dass der Einsatz des Serviceroboters die Beurteilung der Tests standardisiert, denn gegenwärtig unterliegt die Einschätzung eines Patienten der Erfahrung des medizinischen Personals, das sich wiederum durch individuelle Erfahrungen von anderem medizinischen Personal unterscheidet. Somit sind bei Einschätzungen durch medizinisches Personal für ein und dieselbe Übung unterschiedliche Bewertungen möglich, während beim Einsatz des Serviceroboters eine einheitliche Einschätzung erfolgt.
[0005] Neben dem Feld der Geriatrie, in dem der Serviceroboter bspw. den Barthel-Index erheben kann, den sogenannten „Timed-up and Go“-Test durchführen kann und/oder den Mini -Mental-Test mit verschiedenen Ausprägungen, ist der Serviceroboter in einem Aspekt auch so konfiguriert, dass der Serviceroboter alternativ und ergänzend weitere Aufgaben in einer Klinik adressieren kann. Dazu zählen bspw. spektrometrische Untersuchungen, womit sich verschiedene Substanzen in- oder auf der Haut einer Person analysieren lassen. Diese Analysen können bspw. für die Ermittlung des Delirium Detection Score genutzt werden.
[0006] Der Serviceroboter ist, in einem Aspekt, auch so konfiguriert, eine Delirerkennung und/oder ein Delirmonitoring durchzuführen. In diesem Kontext kann der Serviceroboter, in einem Aspekt, mögliche Aufmerksamkeitsstörungen des Patienten auf Basis der Erkennung einer Folge von akustischen Signalen ermitteln. In einem alternativen und/oder ergänzenden Aspekt kann der Serviceroboter kognitive Fähigkeiten auf Basis einer Bilderkennung bewerten, und/oder kognitive Fähigkeiten über die Umsetzung in der Motorik, bspw. durch das Zählen von Fingern, die der Patient auf eine vornehmlich visuelle Aufforderung des Serviceroboters zeigt. Alternativ und/oder ergänzend ist der Serviceroboter in der Lage, den Schmerzstatus einer Person zu bestimmen. Dies kann auf dem Wege einer Emotionserkennung, einer Erfassung der Bewegungen der oberen Extremitäten, und/oder einer Schmerzvokalisierung von beatmeten und/oder nicht beatmeten Patienten erfolgen. Der Serviceroboter kann, in einem Aspekt, den Blutdruck eines Patienten ermitteln, deren Atemfrequenz, und diese Informationen, abgesehen von originär diagnostischen und oder therapeutischen Zwecken, auch zur Ansteuerung eigener Hard- und Softwarekomponenten nutzen.
[0007] Unabhängig davon, dass der Serviceroboter so konfiguriert, dass der Serviceroboter
Manipulationsversuche detektieren kann, bspw. im Rahmen der Datenerfassung. Der
Serviceroboter kann ferner prüfen, ob Nutzer unter geistigen und/oder körperlichen
Beeinträchtigungen leiden, was die Qualität der durchzuführenden Tests bzw. deren Ergebnisse beeinflussen kann. Weiterhin kann der Serviceroboter, in einem Aspekt, seine Signalverarbeitungsqualität, aber auch die Signalausgabe, an Umwelteinflüsse anpassen.
Dazu zählen auch Anpassungen an der Ein- und Ausgabe, den Nutzerdialogen, etc.
[0008] Weiterhin bietet der Einsatz des Serviceroboters eine erhebliche Entlastung des medizinischen Personals dar, welches diese medizinische Personal teils zeitraubende und manchmal auch eintönige Arbeit durchführen muss, die keine unmittelbaren Einfluss auf die Gesundheit eines Patienten hat und damit das Personal davon abhält, Maßnahmen umzusetzen, die die Gesundheit einer Person unmittelbar verbessern.
Stand der Technik
[0009] Dem Fachmann sind verschiedenartige Serviceroboter im Gesundheits- bzw. Geriatriebereich bekannt. So beschreibt CN108422427 einen Rehabilitationsroboter, der in der Lage ist, Essen auf Tabletts zu servieren. Ähnlich gelagert ist CN206833244, in dem ein Serviceroboter im Krankenhaus Materialien verteilt. Ebenfalls im Krankenhausumfeld bewegen sich die chinesischen Patentanmeldungen CN107518989 und CN101862245, welche einen Serviceroboter umfassen, der Patienten transportiert, ähnlich einem Rollstuhl. CN205950753 beschreibt einen Roboter, der Patienten mittels Sensorik erkennt und durch ein Krankenhaus lotst. In CN203338133 wird ein Roboter zur Unterstützung des Pflegepersonals beschrieben, der Patienten im Krankenhaus bei den täglichen Dingen begleitet. Dagegen bezieht sich CN203527474 auf einen Roboter, der mit seinem Arm ältere Menschen unterstützt.
[0010] CN108073104 bezieht sich auf einen Pflegeroboter, der infizierte Patienten betreut, indem der Pflegeroboter diesen Patienten Medikamente zur Verfügung stellt bzw. diese Medikamente verabreicht, die Patienten massiert, füttert, mit den Patienten kommuniziert, etc. Der Pflegeroboter reduziert hierbei die Infektionsgefahr für medizinisches Personal, indem der Pflegeroboter die Zahl der Patientenkontakte des Personals reduziert. Ein Roboter zum Begleiten älterer Menschen findet sich in CN107598943. Dieser Roboter verfügt über einige Überwachungsfunktionen, vor allem aber über eine Funktion zur Bodenreinigung.
[0011] Bei CN106671105 handelt es sich um einen mobilen Serviceroboter zur Betreuung älterer Menschen. Der Serviceroboter überwacht durch Sensorik Parameter des Körpers wie die Temperatur, aber auch die Mimik. Der Serviceroboter erkennt auch, ob der Mensch gefallen ist und kann über ein Netzwerk entsprechend Hilfe alarmieren. [0012] Ähnlich gelagert sind CN104889994 und CN204772554, in denen ein Serviceroboter aus dem Medizinbereich die Herzfrequenz erkennt, Patienten mit Sauerstoff versorgt und dabei über eine Spracherkennung und über ein Multimedia-Modul für Entertainmentzwecke verfügt. Die Sauerstoff-Ermittlung im Blut erfolgt auch in CN105082149. CN105078445 bezieht sich auf einen Serviceroboter, der es ermöglicht, insbesondere bei älteren Menschen ein Elektrokardiogramm aufzuzeichnen und den Sauerstoffgehalt im Blut zu messen. Ähnlich angesiedelt ist CN105078450 mit einer Elektroenzephalogramm-Messung.
[0013] Einige der Gesundheitsroboter beziehen sich explizit auf die Durchführung von Übungen mit Patienten oder auch Tests. In CN108053889 wird relativ abstrakt ein System beschrieben, das basierend auf abgespeicherten Informationen Übungen mit einem Patienten durchführt. CN108039193 beschreibt ein System zur automatischen Generierung von Gesundheitsreports, das in einem Roboter eingesetzt wird. Das Erfassen von Bewegungen/Fitnessübungen mithilfe eines Roboters, das Aufzeichnen und Abspeichern der Daten derselben zu Analysezwecken und die Übermittlung an externe Systeme werden in CN107544266 beschrieben. Gleichzeitig ist dieser Roboter in der Lage, die Einnahme von Medikamenten über verschiedene Sensoren zu überwachen.
[0014] CN106709254 beschreibt einen Roboter zur medizinischen Diagnose eines Patienten, der zugleich, basierend auf der Diagnose, auch einen Plan zur Behandlung erstellt. Hierzu wertet der Roboter Sprach- und Bildinformationen aus und vergleicht diese mit in Speichern hinterlegten Informationen. Hierbei kommt ein neuronales Netzwerk zum Einsatz.
[0015] In CN106407715 wird ein Serviceroboter beschrieben, der mittels Sprachverarbeitung und Bilderkennung die Anamnese eines Patienten durchführt. Neben dem Abfragen über Sprachein- und Sprachausgabevorrichtungen über ein Touchpad wird auch ein Foto der Zunge, das von einer Kamera des Roboters aufgenommen wird, für die Anamnese herangezogen.
[0016] CN105078449 beschreibt einen Serviceroboter mit einem Tablet-Computer als Kommunikationsvorrichtung, über das u.a. ein kognitives Funktionstraining bzw. ein kognitiv-psychologischer Test stattfindet, um Alzheimer in Patienten zu entdecken. Das Tablet zeichnet hierzu ein nach einem bestimmten Prozess ablaufendes Telefonat zwischen dem Patienten und einem Kind auf und leitet aus dem Gesprächsverlauf ab, ob der Patient unter Alzheimer leidet.
[0017] Ein Aspekt des Serviceroboters analysiert Gesten der Hand mit Blick auf das Falten eines Blatts. Im Stand der Technik ist die Gestenerkennung der Hand per se etabliert. Eine Herausforderung dabei ist insbesondere das Erkennen und Tracken der Finger. So beschreibt z.B. US10268277 eine generelle Gestenerkennung der Hand, wie auch US9372546 oder US9189068. In US9690984 wird bspw. eine kamerabasierte Handerkennung über ein Skelettmodel unter Zuhilfenahme von Algorithmen des maschinellen Lernens dargestellt. Diese Ansätze beziehen sich vornehmlich auf leere Hände. Dagegen widmet sich US9423879 dem Erkennen und Tracken von Gegenständen in Händen und schlägt vor, einen thermischen Sensor zu verwenden, um Hände und Finger (durch die abgegebene Wärme) von anderen Gegenständen (tendenziell kühler) zu differenzieren.
[0018] Es wurden nur zwei Dokumente im Stand der Technik identifiziert, die sich auf das Erkennen von Blättern oder blätterähnlichen Gegenständen in Nutzerhänden beziehen. So beschreibt US9117274, wie mit einer Tiefenkamera ein Blatt erkannt wird, dass ein Nutzer in der Hand hält, während in einem nächsten Schritt auf dieses Blatt, das exemplarisch für eine plane Oberfläche steht, ein Bild projiziert wird, mit dem der Nutzer interagieren kann. Das Blatt wird über seine Ecken identifiziert, die mit im Speicher hinterlegten Vierecken, welche räumlich im Raum rotiert wurden, verglichen werden. Dagegen beschreibt US 10242527, wie Spieltische (im Kasino) überwacht werden, indem Gesten der Hand automatisch erkannt werden, darunter Spielchips oder auch Spielkarten, die eine gewisse Ähnlichkeit mit einem Blatt aufweisen. Es findet sich jedoch keine Beschreibung darüber, wie die Erkennung erfolgt, sondern primär, zu welchem Zwecke solche Auswertungen erfolgen. Zudem weisen Spielkarten abgerundete Ecken auf, was bei einem Blatt in der Regel nicht der Fall ist.
[0019] Mit Blick auf die Bewertung des kognitiven Zustands einer Person werden ebenfalls
Ansätze im Stand der Technik beschrieben, die wiederum Einfluss auf die Steuerung eines
Roboters haben. So legt US20170011258 dar, wie auf Basis des emotionalen Zustands einer
Person ein Roboter manipuliert wird, wobei dieser Zustand vornehmlich über den
Gesichtsausdruck der Person bewertet wird, welcher mittels einer Histogram-of-Gradients-
Auswertung erfasst wird. Der emotionale Zustand einer Person kann allgemein über
Klassifizierungsverfahren erfolgen, die auf Clustering basieren, oder aber mittels neuronaler
Netze. So beschreibt bspw. US2019012599 recht allgemein, wie ein mehrschichtiges konvolutionäres neuronales Netzwerk zur Erzeugung von Gewichten basierend auf Videoaufnahmen eines Gesichts genutzt wird, welches mindestens eine konvolutionäre und mindestens eine versteckte Schicht aufweist, dessen letzte Ebene Emotionen einer Person beschreibt, das Gewichte für Eingangsgrößen mindestens einer Ebene ermittelt, die Gewichte in mindestens einem feed-forward-Prozess (aufgeschalteten Prozeß) errechnet und im Rahmen einer Rückwärtspropagierung aktualisiert.
[0020] Mit Blick auf die Erfassung des geistigen Zustands einer Person finden sich im Stand der Technik verschiedene Arbeiten. So nutzt bspw. US9619613 ein spezielles Gerät, welches u.a. mit Vibrationen arbeitet, um den geistigen Zustand einer Person zu evaluieren.
US9659150 nutzt bspw. Beschleunigungssensoren, um den Timed-up and Go-Test durchzuführen. In US9307940 werden Stimuli getriggert, um die geistigen Fähigkeiten zu testen, indem eine Sequenz an Stimuli definierter Länge ausgegeben und die Reaktion des Patienten erfasst wird. US8475171 verwendet bspw. eine virtuelle Realität, um einem Patienten verschiedene Bilder zu zeigen und über deren Erkennung bspw. Alzheimer zu diagnostizieren. US10111593 nutzt bspw. eine Bewegungsanalyse, um Delir zu erkennen. Dagegen versucht CN103956171, auf Basis der Aussprache eines Patienten Rückschlüsse auf einen Testcore des Mini-Mental-Tests zu ziehen.
[0021] Der Serviceroboter ist derart konfiguriert, dass der Serviceroboter mittels seiner Sensorik weitere medizinische Parameter erheben kann, darunter den Blutdruck auf kontaktlosem Weg, bspw. mittels einer Kamera. Der Stand der Technik zur Ermittlung des Blutdrucks über eine kamerabasierte Auswertung befindet sich zumeist im Forschungsstadium. Zaunseder et at al. (2018) gibt einen Überblick vor allem über solche Verfahren, die eine farbliche Auswertung des Blutflusses vornehmen. Der Übersichtsartikel von Rouast et al. (2018) geht noch etwas darüber hinaus. Sich konkret mit Auswertungsalgorithmen zur Ermittlung des Blutdrucks auf Basis verfügbarer Signaldaten beschäftigt bspw. Karylyak et. al (2013) oder Wang et al. (2014), während sich McDuff et al. (2014) bspw. der Ermittlung der Zeitpunkte des systolischen und diastolischen Drucks widmet, während Bai et al. (2018) bspw. die Wirksamkeit eines neuen Signalfilters prüft. Generelle Ansätze zur Ermittlung des Blutdrucks aus erfassten Messwerten finden sich bspw. in Parati et al. (1995). Liu et al. (2018) beschäftigen sich mit konkreten Implementierungen der farblichen Auswertung und vergleichen auch verschiedene Subregionen des Gesichts, ähnlich wie bspw. Verkruysse et al. (2008), während Lee et al. (2019) eine konkrete Implementierung auf Basis von Bewegungen des Gesichts beschreibt. Unakafov (2018) dagegen vergleicht verschiedene Verfahren auf Basis eines frei verfügbaren Datensatzes. Auf dem Weg zur praktischen Anwendung befindet sich bspw. der Ansatz von Pasquadibisceglie et al. (2018), der ein Verfahren der farblichen Auswertung in einen Spiegel integriert. Dagegen nutzt Luo et al. (2019) ein Smartphone für die Aufzeichnung der Farbdaten. Konkreter auf dem Weg zur Umsetzung befindet sich der Ansatz unter Aufzeichnung von Farbdaten von Wei et al. (2018), der bereits den Charakter einer klinischen Studie vorweist. Anders gelagert dagegen ist der Ansatz von Ghijssen et al. (2018). Hier wird mittels eines Lasers Licht durch einen Finger hindurch gesendet und auf der gegenüberliegenden Seite durch einen Sensor detektiert, wobei das ausgesendete Licht Speckle-Muster vorweist, die es einerseits erlauben, den rhythmischen vaskulären Blutfluss zu detektieren und zudem, wie bei den zuvor beschriebenen Ansätzen, die rhythmische vaskuläre Ausdehnung der Gefäße zu erfassen.
Quellen:
[0022] Zaunseder et al. Cardiovascular assessment by imaging photoplethysmography - a review. Biomed. Eng.-Biomed. Tech. 2018; 63(5): 617-634, DOL 0.1515/bmt-2017-01.
[0023] Kurylyak et al. Blood Pressure Estimation from a PPG Signal, 2013 IEEE International Instrumentation and Measurement Technology Conference (I2MTC). DOI:
10.1109/I2MTC.2013.6555424.
[0024] McDuff et al. Remote Detection of Photoplethysmographic Systolic and Diastolic Peaks Using a Digital Camera. IEEE TRANSACTIONS ON BIOMEDICAL ENGINEERING, VOL. 61, NO. 12, DECEMBER 2014, DOL 10.1109/TBME.2014.2340991.
[0025] Bai et al. Real-Time Robust Noncontact Heart Rate Monitoring With a Camera, IEEE Access VOLUME 6, 2018. DOL 10.1109/ACCESS.2018.2837086.
[0026] Pasquadibisceglie et al. A personal healthcare System for contact-less estimation of cardiovascular parameters. 2018 AEIT International Annual Conference. DOI: 10.23919/AEIT.2018.8577458. [0027] Wang et al. Cuff-Free Blood Pressure Estimation Using Pulse Transit Time and Heart Rate. 2014 12th International Conference on Signal Processing (ICSP). DOI:
10.1109/ICOSP.2014.7014980.
[0028] Luo et al. Smartphone-Based Blood Pressure Measurement Using Transdermal Optical Imaging Technology. Circular Cardiovascular Imaging. 2019;12:e008857. DOI:
10.1161/CIRCIMAGING.l 19.008857.
[0029] Wei et al. Transdermal Optical Imaging Reveal Basal Stress via Heart Rate Variability Analysis: A Novel Methodology Comparable to Electrocardiography. Frontiers in Psychology 9:98. DOI: 10.3389/fpsyg.2018.00098.
[0030] Parati et al. Spectral Analysis of Blood Pressure and Heart Rate Variability in Evaluating Cardiovascular Regulation. Hypertension. 1995;25:1276-1286. DOI:
10.1161/01. HYP.25.6.1276.
[0031] Rouast et al. Remote heart rate measurement using low-cost RGB face video: a technical literature review. Front. Comput. Sei., 2018, 12(5): 858-872. DOI: 10.1007/sl 1704- 016-6243-6.
[0032] Lee et al. Vision-Based Measurement of Heart Rate from Ballistocardiographic Head Movements Using Unsupervised Clustering. Sensors 2019, 19, 3263. DOI: 10.3390/sl9153263.
[0033] Liu et al., Transdermal optical imaging revealed different spatiotemporal pattems of facial cardiovascular activities. Scientific Reports, (2018) 8:10588. DOI: 10.1038/s41598- 018-28804-0.
[0034] Unakafov. Pulse rate estimation using imaging photoplethysmography: generic framework and comparison of methods on a publicly available dataset. Biomed. Phys. Eng. Express 4 (2018) 045001. DOI: 10.1088/2057-1976/aabd09.
[0035] Verkruysse et al. Remote plethysmographic imaging using ambient light. 22 December 2008 / Vol. 16, No. 26 / OPTICS EXPRESS 21434. DOI: 10.1364/OE.16.021434. [0036] Ghijssen et al. Biomedical Optics Express Vol. 9, Issue 8, pp. 3937-3952 (2018). DOI: 10.1364/BOE.9.003937.
[0037] Yamada et al 2001 (DOI: 10.1109/6979.911083)
[0038] Roser und Mossmann (DOI: 10.1109/IVS.2008.4621205)
[0039] US20150363651 Al
[0040] McGunnicle 2010 (DOI: 10.1364/JOSAA.27.001137)
[0041] Espy et al (2010) (DOI: 10.1016/j.gaitpost.2010.06.013)
[0042] Senden et al. (DOI: 10.1016/j.gaitpost.2012.03.015)
[0043] Van Schooten et al. (2015) (DOI: 10.1093/gerona/glu225)
[0044] Kasser et al (2011) (DOI: 10.1016/j.apmr.2011.06.004)
[0045] Daneben kann der Serviceroboter, teilweise auf dem Weg durch Hautkontakt, teilweise ebenfalls kontaktlos, Substanzen auf der Haut bzw. innerhalb der Haut ermitteln. Hierbei kommen vor allem spektrometrische Ansätze zum Tragen. Spektrometer oder spektrometerähnliche Ansätze finden sich bspw. in US6172743, US6008889, US6088605, US5372135, US20190216322, US2017146455, US5533509, US5460177, US6069689, US6240306, US5222495, US8552359 dargestellt.
Zeichnungen Es zeigen:
Fig. 1 schematischer Aufbau eines Serviceroboters;
Fig. 2 Draufsicht auf die Räder des Serviceroboters;
Fig. 3 Managementsystem für den Serviceroboter;
Fig. 4 Erkennung eines Stuhls mittels eines 2D-LIDARs;
Fig. 5 Erkennung einer Person auf einem Stuhl mittels eines 2D-LIDARs; Fig. 6 Verfahren, um eine Person zum sich setzen zu bewegen;
Fig. 7 Navigieren einer Person zu einem Stuhl, der ein bestimmtes Kriterium erfüllt; Fig. 8 Erkennen von Türen insb. mittels eines LIDARs;
Fig. 9 Erkennung einer fixen Markierung vor einem Objekt;
Fig. 10 Labelling der Bewegungsdaten aus dem Get Elp and Go-Test;
Fig. 11 Erkennen von wiederholten Sprachsequenzen;
Fig. 12 Erfassen und Auswerten der Faltung eines Blatts;
Fig. 13 Auswertung eines geschriebenen Satzes durch den Serviceroboter;
Fig. 14 Erkennen möglicher Manipulation des Serviceroboters durch Dritte;
Fig. 15 Manipulation vs. Assistenz durch Dritte
Fig. 16 Kalibrierung des Serviceroboters unter Berücksichtigung von
Nutzerbeeinträchtigungen
Fig. 17 Serviceroboter bewegt sich in Richtung Patient Fig. 18 Passieren einer Tür
Fig. 19 Tests zur Ermittlung des Demenzrisikos von OP -Patienten und postoperatives Monitoring durch einen Serviceroboter
Fig. 20 Daten vom Serviceroboter werden für Therapievorschläge aufbereitet
Fig. 21 a) Ermittlung von Messregionen am Patienten
Fig. 21 b) Messung und Auswertung der spektrometrischen Untersuchung
Fig. 22 Ausgabe und Auswertung von Patientenreaktionen auf eine Tonsequenz
Fig. 23 Auswertung der Bilderkennung eines Patienten zu Diagnosezwecken
Fig. 24 Sicherstellen ausreichender Sichtbarkeit des Serviceroboter-Displays
Fig. 25 Posenerkennung der Hand mit Blick auf gezeigte Zahlen
Fig. 26 Anzeigen von zwei Fingern und Detektion der Patientenerwiderung
Fig. 27 Auswertung von Emotionen durch Serviceroboter
Fig. 28 Auswertung der Aktivität der oberen Extremitäten eines Patienten
Fig. 29 Erfassen von Husten beim Patienten
Fig. 30 Blutdruckermittlung
Fig. 31 selbstlernende Feuchtigkeitserkennung auf Oberflächen
Fig. 32 Navigation bei Feuchtigkeitsdetektion auf Oberflächen
Fig. 33 Auswertung von Sturzereignissen
Fig. 34 Überwachung von Vitalparametern bei einer Übung/Test
Fig. 35 Auswertung eines Gangablaufs einer Person hinsichtlich deren Sturzrisikos
Fig. 36 Ablauf eines Mobilitätstests Fig. 37 Sitzbalance-Ermittlung
Fig. 38 Aufsteh-Ermittlung
Fig. 39 Aufstehversuchs-Ermittlung
Fig. 40 Stehbalance-Ermittlung
Fig. 41 Stehbalance-Fußabstand-Ermittlung
Fig. 42 Stehbalance-Stoß-Ermittlung
Fig. 43 Gangbeginn-Klassifizierung
Fig. 44 Schrittpositions-Ermittlung
Fig. 45 Schritthöhen-Ermittlung
Fig. 46 Gangsymmetrie-Ermittlung
Fig. 47 Schrittkontinuitäts-Ermittlung
Fig. 48 Wegabweichungs-Ermittlung
Fig. 49 Rumpfstabilitäts-Ermittlung
Fig. 50 Spurweiten-Ermittlung
Fig. 51 Dreh-Ermittlung
Fig. 52 Sich-Setzen-Ermittlung
Fig. 53 Verbesserung des Signal-Rausch-Verhältnisses bei Skelettmodell-Auswertung
Fig. 54 Anpassung des Bildausschnitts bei Detektion von Sensorbewegungen
Fig. 55 Navigation zur seitlichen Erfassung einer Person
Fig. 56Ermittlung Übungsplankonfiguration
Fig. 57Architektursicht
Fig. 58 Manipulationserkennung auf Basis von Audiosignalen
Fig. 59 System zur Score-Ermittlung in Zusammenhang mit dem Aufstehen/Sich-Setzen auf einem Stuhl
Fig. 60 System zur Synchronisation von Bewegungen zwischen einer Person und einem Serviceroboter
Fig. 61 System zur Erfassung und Auswertung einer Faltübung
Fig. 62 System zur Manipulationserkennung
Fig. 63 Spektrometriesystem
Fig. 64 Aufmerksamkeitsanalyse-System
Fig. 65 System zur kognitiven Analyse
Fig. 66 System zur Schmerzstatus-Bestimmung
Fig. 67 System zur Blutdruckermittlung
Fig. 68 System zur Messung von Substanzen Fig. 69 System zur Feuchtigkeitsbewertung
Fig. 70 System zur Sturzdetektion
Fig. 71 System zur Erfassung von Vitalparametern
Fig. 72 System zur Ermittlung eines Sturzrisiko-Scores
Fig. 73 System zur Balance-Ermittlung einer Person
Fig. 74 System zur Positionsermittlung eines Fußes
Fig. 75 System Klassifizierung einer Drehbewegung
Fig. 76 System zur Gang-Klassifizierung
Fig. 77 System zur Modifikation optischer Signale eines Sensors
Fig. 78 System zur Anpassung eines Bildausschnitts
Fig. 79 System zur Realisierung seitlicher Aufnahmen
Fig. 80iterative Klassifikatorerstellung für eine Vielzahl von Gelenkpunkten
Fig. 81 Ablauf Auswertung Feuchtigkeit auf Oberflächen
Fig. 82Pfadplanung bei Feuchtigkeitsdetektion auf dem Boden
Fig. 83 Verfahren zur Fußpositionsermittlung
Fig. 84 Verfahren zur Drehbewegungsermittlung
Fig. 85 Verfahren zur Erfassung des Bewegungsablaufs einer Person entlang einer Linie Beschreibung der Erfindung
[0046] Unter dem Begriff Nutzer wird eine Person verstanden, die den Serviceroboter 17 nutzt, in diesem Falle primär vom Serviceroboter 17 durch die beschriebenen Apparaturen sensorisch ausgewertet wird. Hierbei kann es sich um Menschen fortgeschrittenen Alters handeln, mit denen der Serviceroboter 17 ein geriatrischer Test durchführt, aber auch Angehörige oder Dritte, die bspw. die Menschen fortgeschrittenen Alters dabei unterstützen, mit dem Serviceroboter 17 zu interagieren, oder aber die für die Menschen fortgeschrittenen Alters den Test durchführen.
[0047] Fig. 1 stellt den mobilen Serviceroboter 17 dar. Der Serviceroboter 17 verfügt über einen Laserscanner (LID AR) 1 zum Abtasten des Umfelds des Serviceroboters 17. Andere Sensoren sind hierbei alternativ und/oder ergänzend ebenfalls möglich z.B. eine Kamera (2D und/oder 3D) 185, ein Ultraschall- und/oder Radarsensor 194.
[0048] Der Serviceroboter 17 verfügt über mindestens ein Display 2, das in einem Aspekt ein Touchpad ist. In dem in Fig. 1 dargestellten Aspekt verfügt der Serviceroboter 17 über zwei der Touchpads. Die Touchpads wiederum besitzen bspw. ein Mikrofon 193 und einen Lautsprecher 192, welche eine akustische Kommunikation mit dem Serviceroboter 17 erlauben. Ferner verfügt der Serviceroboter 17 über mindestens einen Sensor 3 zur berührungslosen dreidimensionalen Erfassung der Bewegungsdaten eines Patienten. In einem nicht limitierenden Beispiel ist der Sensor ein Microsoft Kinect Gerät. Alternativ dazu kann auch eine Orbecc Astra 3D-Kamera zum Einsatz kommen. Derartige 3D-Kameras verfügen über ein Stereo-Kamerasystem zur Tiefenerkennung, die die Auswertung eines Skelettmodells eines Patienten ermöglicht, und zumeist auch über eine RGB-Kamera zur Farberkennung. In einem alternativen Aspekt kann eine herkömmliche Mono-Kamera zum Einsatz kommen. Technologien, die in 3D-Kameras hierbei zum Einsatz kommen können, sind Time-of-Flight- Sensoren (ToF) oder aber Speckle-Sensoren.
[0049] Im Abstand von z.B. 5 cm über dem Boden befindet sich um die äußere Hülle des Serviceroboters 17 eine druckempfindliche Stoßstange 4, zumindest in den Bereichen, die in einer möglichen Fahrtrichtung des Serviceroboters 17 liegen. Die Rechnereinheit 9 ist mit der druckempfindlichen Stoßstange 4 verbunden und erkennt Kollisionen des Serviceroboters 17 mit einem Gegenstand. Im Fall einer Kollision wird die Antriebseinheit 7 sofort gestoppt.
[0050] Der Serviceroboter 17 verfügt in einem Aspekt über zwei Antriebsräder 6, die zentriert und parallel zueinander (siehe Fig. 2) angeordnet sind. Darum herum befinden sich, bspw. auf einer Kreisbahn, zwei oder drei weitere Stützräder 5. Diese Anordnung der Stützräder 5 erlaubt es, durch gegenläufiges Ansteuem der Antriebsräder 6 den Serviceroboter 17 auf der Stelle zu drehen. Die Achse der zwei oder drei Stützräder 5 ist hierzu so gelagert, dass die Achse sich um 360 Grad um die vertikale Achse drehen kann. Beim Einsatz von zwei Stützrädem 5 ist der Abstand der Antriebsräder größer als in Fig. 2 dargestellt, so dass ein zu leichtes Kippen des Serviceroboters 17 verhindert wird.
[0051] Der Serviceroboter 17 verfügt zudem über eine Energiequelle 8 zur Versorgung der Antriebs- und Rechnereinheit 9, der Sensorik (Laserscanner 1, Sensor 3, und Stoßstange 4) sowie der Ein- und Ausgabeeinheiten 2. Die Energiequelle 8 ist eine Batterie oder ein Akkumulator. Alternative Energiequellen wie bspw. eine Brennstoffzelle, darunter eine Direktmethanol- oder eine Festoxid-B rennstoffzelle, sind ebenfalls denkbar.
[0052] Die Rechnereinheit 9 verfügt über mindestens einen Speicher 10 und mindestens eine
Schnittstelle 188 (wie z.B. WLAN) zum Datenaustausch. Dazu zählen (nicht abgebildet) in einem optionalen Aspekt eine Vorrichtung, um einen mobilen Speicher (bspw. einen Transponder/RFID Token) auszulesen. In einem weiteren Aspekt kann dieser mobile Speicher auch beschrieben werden. In einem Aspekt erlaubt diese oder eine weitere Schnittstelle 188 (wie z.B. WLAN) die drahtlose Kommunikation mit einem Netzwerk. Der Serviceroboter 17 verfügt über im weiteren Verlauf dieses Dokuments beschriebene Regeln zur Durchführung von Auswertungen, die im Speicher 10 abgelegt sind. Alternativ und/oder ergänzend können diese Regeln auch im Speicher einer Cloud 18 abgelegt sein, auf die der Serviceroboter 17 über die mindestens eine Schnittstelle 188 (wie z.B. WLAN) zugreift. Dies muss an anderer Stelle so nicht explizit erwähnt sein, wird mit der Offenbarung jedoch umfasst.
[0053] Der Sensor 3 erkennt eine Person und deren Handlungen und erstellt auf Basis der Bewegungen der Person ein Skelettmodell. Hierbei ist der Sensor 3 in einem Aspekt auch in der Lage, Gehhilfen/Unterarmgehstützen (UAGS) zu erkennen. Der Serviceroboter 17 verfügt ferner optional über ein oder mehrere Mikrofone 193, welche unabhängig von den Touchpads implementiert sein können, um die Sprache der Person aufzuzeichnen und in einer Rechnereinheit auszuwerten.
[0054] Fig. 57 illustriert die Architektur sicht, die jedoch im Verlauf dieses Dokuments beschriebene Applikationen ausblendet. Auf der Softwareebene finden sich verschiedene Module mit Grundfunktionen des Serviceroboters 17. Im Navigationsmodul 101 sind bspw. verschiedene Module enthalten. Darunter ist ein 2D oder 3D-Umfelderfassungsmodul 102, die bspw. Umgebungsinformationen auswertet basierend auf verschiedenen Sensordaten. Das Pfadplanungsmodul 103 erlaubt dem Serviceroboter 17 die Ermittlung eines eigenen Pfads, den er zurücklegt. Der Bewegungsplaner 104 nutzt bspw. die Ergebnisse der Pfadplanung aus dem Pfadplanungsmodul 103 und errechnet eine optimale Wegstrecke für den Serviceroboter unter Berücksichtigung bzw. Optimierung verschiedener Kostenfunktionen. Als Kostenfunktionen fungieren neben den Daten aus der Pfadplanung auch solche aus der Hindernisvermeidung, einer Vorzugsfahrrichtung, usw., wie bspw. auch eine erwartete Bewegungsrichtung einer überwachten Person. Dabei spielen auch Aspekte der Fahrdynamik eine Rolle, wie die Geschwindigkeitsadaption bspw. in Kurven, usw. Das Selbstlokalisierungsmodul 105 erlaubt es dem Serviceroboter 17, seine eigene Position auf einer Karte zu bestimmen, bspw. mittels Odometriedaten, dem Abgleich erfasster Umfeldparameter aus der 2D/3D-Umfelderfassung mit in einer Karte aus dem Kartenmodul 107 hinterlegten Umfeldparametern, usw. Das Kartierungsmodul 106 erlaubt es dem Serviceroboter 17, sein Umfeld zu kartieren. Erstellte Karten werden bspw. im Kartenmodul 107 abgelegt, welches jedoch auch andere als nur selbsterstellte Karten enthalten kann. Das Lademodul 108 zum automatischen Laden. Darüber hinaus kann es eine Datenbank mit Raumdaten 109 geben, die bspw. Informationen beinhaltet, in welchem Raum eine Auswertung mit einer Person durchgeführt werden soll, usw. Ein
Bewegungsauswertungsmodul 120 beinhaltet z.B. ein Bewegungsablaufextraktionsmodul 121 und ein Bewegungsablaufbewertungsmodul 122. Diese umfassen jeweils die Regeln zur Bewegungsauswertung, die im weiteren Verlauf dieses Dokuments näher beschrieben werden. Das Personenerkennungsmodul 110 beinhaltet bspw. ein Personenidentifizierungsmodul 111, welches bspw. Regeln enthält, um aus erfassten Sensordaten zu bestimmen, ob es sich um eine Person handelt oder um etwas anderes. Ein visuelles-Personentracking-Modul 112 für visuelles Personentracking basiert bspw. vor allem auf Kameradaten als Eingangsgrößen, das laserbasierte Personentracking-Modul 113 nutzt entsprechend den LID AR 1. Ein Personenreidentifizierungsmodul 114 erlaubt es bspw., im Falle eines Unterbrechens des Trackingvorgangs eine danach erfasste Person insofern einzuordnen, ob es sich dabei um eine handelt, die zuvor getrackt wurde. Ein Sitzerkennungsmodul 115 erlaubt es, bspw. einen Stuhl zu detektieren. Der Serviceroboter 17 verfügt darüber hinaus über ein Mensch-Roboter-Interaktions-Modul 130, umfassend eine graphische Nutzer Oberfläche 131, ein Sprachsyntheseeinheit 133 und ein Sprachauswertungsmodul 132. Daneben gibt es ein Applikationsmodul 125, welches eine Vielzahl von Applikationen umfassen kann wie Übungen und Tests mit Personen, welche subsequent näher beschrieben werden.
[0055] Auf der Hardwareebene 180 befindet sich eine Odometrieeinheit 181, bspw. eine Schnittstelle zur Kommunikation mit RFID-Transpondern, eine Kamera 185, Bedienelemente 186, eine Schnittstelle 188 wie WLAN, eine Ladesteuerung 190 für die Energieversorgung, eine Motorsteuerung 191, Lautsprecher 192, mindestens ein Mikrofon 193, bspw. ein Radar- und/oder Ultraschall sensor 194, ein Detektor 195, der an anderer Stelle näher beschrieben wird, ebenso bspw. ein Spektrometer 196 und bspw. eine Projektionsvorrichtung 920. LID AR 1, Display 2 und Antrieb 7 wurden bereits beschrieben.
[0056] Fig. 3 illustriert, dass der Serviceroboter 17 über eine Schnittstelle 188 mit der Cloud 18 verbunden ist. Ein Therapeut hat die Möglichkeit, über ein Terminal 13 auf ein in der Cloud 18 gelagertes Patientenadministrationsmodul 160 mit einem Rechner 161 zuzugreifen, der wiederum mit einem Speicher 162 in Verbindung steht.
[0057] Medizinisches Personal kann im Patientenadministrationsmodul 160 Patientendaten hinterlegen oder in einem Aspekt über eine Schnittstelle 188 (wie z.B. WLAN) diese Patientendaten aus anderen Systemen importieren. Zu diesen anderen Systemen zählen vor allem Krankenhausmanagementsysteme (KIS) und/oder Patientendatenmanagementsysteme, wie sie üblicherweise in Kliniken oder Arztpraxen genutzt werden. Die Patientendaten umfassen neben dem Namen und ggf. der Zimmemummer des Patienten auch Informationen zum allgemeinen Gesundheitszustand, usw. Der Rechner 161 in dem Patientenadministrationsmodul 160 erzeugt hierbei pro Person eine ID, die mit den Personendaten im Speicher 162 abgespeichert wird. Das medizinische Personal kann die durchzuführenden Tests definieren. Über die Cloud 18 ist das Managementsystem mit einem Regelwerk 150 verbunden, bestehend aus einer Rechnereinheit 151 und einem Speicher 152. Das Regelwerk 150 hält Regeln zur Durchführung und Auswertung der Übungen vor, die mit denen des Serviceroboters 17 übereinstimmen können und bspw. zentral im Regelwerk gepflegt und dann an mehrere Serviceroboter 178 verteilt werden.
[0058] Im Regelwerk 150 ist die Klassifizierung von Objekten und Bewegungen hinterlegt, aber auch die Kombination daraus, um die Beobachtungen im Sinne des Tests auszuwerten.
So ist bspw. die Stellung der Beine, des Oberkörpers, der Arme, Hände usw. auf Basis eines Skelettmodells hinterlegt. Zusätzlich können Gegenstände, die im Rahmen des Tests ausgewertet werden sollen, erkannt werden. Das Regelwerk 150 kann initial template-basiert mit Hilfe von Fachleuten angelegt werden, d.h. es werden Grenzwerte für einzelne Gliedmaßen festgelegt. Für die Grenzwerte können auch Fuzzy -Algorithmen zum Einsatz kommen. Alternativ können auch einzelne Bilder oder Bildsequenzen, die bspw. wieder mit Blick auf Aufnahmen einer Person in ein Skelettmodell übersetzbar sind, durch medizinisches Personal gelabelt werden und es werden mithilfe von Algorithmen des maschinellen Lernens inkl. neuronaler Netze Klassifikationen festgelegt, die die Grenzwerte abbilden.
[0059] In einem Aspekt existiert auch ein cloudbasiertes Navigationsmodul 170 mit einem Navigationsrechner 171 und einem Navigationsspeicher 172.
[0060] Der Serviceroboter 17 kann mit einer CI oudan wendung in der Cloud 18 verbunden sein. Der Therapeut kann der Person, die den Test durchführen soll, eine mobile Speichereinheit wie bspw. einen Token zuweisen. Der Token enthält die Patienten-ID und/oder eine weitere Token-ID, der Person bzw. seiner ID zugewiesen ist. Mit diesem Token bzw. der Seriennummer und/oder der ID kann sich die Person am Serviceroboter 17 identifizieren. Es ist auch eine Identifizierung über andere Wege möglich, bspw. über die Eingabe von Login-Daten in einem bildschirmgeführten Menü, aber auch mittels biometrischer Merkmale wie bspw. einem Gesichts-Scan oder einer Software auf einem Mobilgerät, die einen Code bereit hält, der in den Serviceroboter 17 eingegeben oder eingelesen wird. Der Serviceroboter 17 lädt nun aus der Cloud 18 entsprechend den vom medizinischen Personal hinterlegten Test ohne jedoch die personenbezogenen Daten über eine Schnittstelle 188 (wie z.B. WLAN) herunter - die Zuordnung erfolgt über die Personen-ID. Nach Absolvieren des Tests lädt der Serviceroboter 17 die Daten des Tests verschlüsselt in das Patientenadministrationsmodul 160 - die Zuordnung erfolgt über die Personen-ID. Erst in dem Patientenadministrationsmodul 160 findet eine Entschlüsselung der Daten statt (vgl. unten). Das medizinische Personal kann nachfolgend die Daten auswerten, wie durch entsprechende Beispiele unten näher erläutert wird.
[0061] In einem weiteren Aspekt überträgt das medizinische Personal die Hinweise zur Durchführung eines Tests oder einer Teilkomponente davon auf einen Speichermedium (z.B. Transponder in der Form eines RFID-Tags), welchen die Person erhält, um sich am Serviceroboter 17 zu identifizieren, wozu dieser eine RFID-Schnittstelle 183 aufweist. Dabei werden die Daten vom Speichermedium an den Serviceroboter 17 übertragen inkl. der Personen-ID, die vom Patientenadministrationsmodul 160 vorgegeben wurde. Nach Absolvieren des Tests überträgt der Serviceroboter 17 die Daten wieder auf das Speichermedium, so dass das medizinische Personal beim Auslesen des Speichermediums die Daten in das Patientenadministrationsmodul 160 übertragen kann. In einem ergänzenden und/oder alternativen Aspekt können die Daten auch verschlüsselt über eine drahtlose oder drahtgebundene Schnittstelle 188 (wie z.B. WLAN) an das Patientenadministrationsmodul 160 übertragen werden.
[0062] Es sind auch Kombinationen aus dem oben beschrieben Ansatz und dem Datenaustausch via Speichermedium (bspw. Transponder) möglich.
[0063] Der Serviceroboter verfügt mit der Kamera 185, einem LID AR 1 und Radar- und/oder Ultraschall sensor 194 über Sensorik, die nicht nur zu Navigationszwecke eingesetzt werden kann, sondern bspw. auch zur Personenerfassung und Tracking, weshalb diese Sensoren, zusammen mit entsprechenden Softwaremodulen, hardwareseitig eine Personenerfassungs und Trackingeinheit 4605 bilden, wobei hierbei auch weitere Sensorik eingesetzt werden kann, bspw. in Zusammenspiel mit einem Inertialsensor 5620, der sich an der zu erfassenden und/oder trackenden Person befindet. Mit Blick auf die Personenerfassung und das Personentracking kann in einem ersten Schritt ein Personenerkennungsmodul 110 zum Einsatz kommen, dass aus Sensordaten eine Person erkennt und verschiedene Untermodule aufweisen kann. Dazu zählt bspw. ein Personenidentifizierungsmodul 111, dass es erlaubt, eine Person zu identifizieren. Dabei können bspw. charakteristische Merkmale der Person abgespeichert werden. Durch das Personenreidentifizierungsmodul 114 ist eine Wiedererkennung der Person möglich, bspw. nach Unterbrechung des Personentrackings, das durch ein visuelles Personentrackingmodul 112 (bspw. Daten einer Kamera 185 auswertend) oder ein laserbasiertes Personentrackingmodul 113 (bspw. Daten eines LID AR 1 auswertend) erfolgen kann. Die Wiedererkennung der Person im Personenreidentifizierungsmodul 114 kann durch Mustervergleich erfolgen, wobei die Muster sich bspw. aus den abgespeicherten Personenmerkmalen ergeben. Ein Bewegungsauswertungsmodul 120 erlaubt die Auswertung verschiedener Bewegungen. Erfasste Bewegungen können im
Bewegungsablaufextraktionsmodul 121 zunächst vorprozessiert werden, d.h. es werden Merkmale der Bewegungen extrahiert, die im Bewegungsablaufbewertungsmodul 122 klassifiziert und bewertet werden, bspw. um eine spezifische Bewegung zu identifizieren. Mit Blick auf die Erfassung und Auswertung von Bewegungen einer Person kann dabei ein Skelettmodell im Skelett-Erstellungs-Modul 5635 erstellt werden, welches Gelenkpunkte an den Gelenken der Person ermittelt und Richtungsvektoren zwischen den Gelenkpunkten. Eine Merkmalsextraktion auf Basis von Gelenkpunkten findet bspw. im skelettmodell-basierten Merkmalsextraktions-Modul 5460 statt. Es sind im Dokument eine Reihe spezifischer Merkmalsextraktionsmodule aufgeführt ebenso wie mehrere Merkmalklassifikationsmodule, die bspw. auf diesen genannten Merkmalsextraktionsmodulen aufsetzen können. In einem Aspekt zählen dazu das Gangmerkmalsextraktions-Modul 5605, welches ebenfalls Daten des Skelett-Erstellungs-Moduls 5635 verwendet, ein Gangmerkmalsklassifizierungs-Modul 5610 und ein Gangablaufklassifizierungs-Modul 5615.
[0064] Mit Blick auf genutzte Begrifflichkeiten sind einige Klarstellungen notwendig: In einem Aspekt werden bspw. Handgelenkpunkte erwähnt, welche stellvertretend für die Position einer Hand genutzt werden können, bspw. wenn es darum geht, das Festhalten einer Person an Objekten auszuwerten. Dabei können Je nach Auswertung, darunter auch Fingergelenkpunkte verstanden werden, soweit sich Finger über die Erfassungsdistanz auswerten lassen. Nachfolgend ist bspw. von Personen und Nutzern die Rede. Dabei kann eine Person relativ breit verstanden werden, während ein Nutzer im Regelfälle eine Person ist, die sich am Serviceroboter 17 identifiziert hat. Die Begriffe können jedoch an vielen Stellen synonym verwendet werden, die Differenzierung ist jedoch bei der Manipulationserkennung besonders relevant.
[0065] Mit Blick auf Schwellwertvergleiche ist teilweise von Überschreitungen eines Schwellwerts die Rede, was dann zu einer bestimmten Bewertung einer Situation führt. Dabei können verschiedene Berechnungen genutzt werden, die teils eine konträre Interpretation der Auswertungsergebnisse herbeiführen könnten. Ein Beispiel sei ein Vergleich zweier Muster, die zur Personenwiedererkennung genutzt werden. Wenn hier bspw. ein Ähnlichkeitskoeffizient errechnet wird, bspw. eine Korrelation, bedeutet eine hohe Korrelation, die über einem Schwellwert liegt, dass bspw. eine Identität von zwei Personen vorliegt. Wenn jedoch zwischen den einzelnen Werten eine Differenz vorliegt, bedeutet ein hoher Differenzwert das Gegenteil, d.h. eine hohe Unähnlichkeit. Es werden solche alternativen Berechnungen jedoch als synonym für bspw. die erste Berechnung über die Korrelation angesehen.
[0066] Der Einsatz von Verfahren des maschinellen Lernens kann bspw. das Festlegen expliziter Schwellwerte bspw. für Bewegungsabläufe überflüssig machen zugunsten einer Musterauswertung. D.h. anstelle von Schwellwertvergleichen bspw. für dedizierte Distanzen eines Gelenkpunkts aus einem Skelettmodell finden Mustervergleiche statt, die mehrere Gelenkpunkte zugleich auswerten. Sofern nachfolgend von einem Sch well wertvergleich gesprochen wird, insbesondere mit Blick auf einen Bewegungsablauf, kann auch im Falle der Nutzung von Algorithmen des maschinellen Lernens ein Weg für einen Mustervergleich gefunden werden. Als Grundlage für einen solchen Mustervergleich können bspw. Körperposen eines Bewegungsablaufs, ob korrekt oder falsch, im Zeitverlauf erfasst und zusammenhängend ausgewertet werden. Auf Basis extrahierter Merkmale wie bspw. Gelenkpunkte kann ein Klassifikator erstellt werden, der dann mit weiteren erfassten, als korrekt oder falsch vorgegebene Körperposen und die daraus abgeleiteten Verläufe der Gelenkpunkte vergleicht. Erhebung des Barthel-Index
[0067] Einer der Tests, die der Serviceroboter 17 durchführen kann, ist die Erhebung des Barthel-Indexes bzw. die Durchführung des Barthel-Tests. Mittels dieses Barthel-Tests wird auf Basis einer Verhaltensbeobachtung eine Einschätzung grundlegender Fähigkeiten der Selbständigkeit bzw. Pflegebedürftigkeit wie Essen und Trinken, Körperpflege, Mobilität und Stuhl/Harnkontrolle vorgenommen. Hierzu ist der Serviceroboter 17 derart konfiguriert, dass über die Kommunikationsvorrichtungen einem Nutzer zu diesen Themengebieten Fragen gestellt werden. Beim Nutzer kann es sich um die zu beurteilende Person handeln. Alternativ und/oder ergänzend können weiteren Personen, bspw. Angehörigen, ebenfalls Fragen zu diesen Themen über die Kommunikationsvorrichtung gestellt werden. Die Fragestellung erfolgt hier entweder über eine Menüführung eines Displays 2 des Serviceroboters 17 oder über ein Sprachinterface. Alternativ oder ergänzend zur im Serviceroboter 17 verbauten Display2 und/oder Mikrofonen 193 kann auch ein separates, per Schnittstelle 188 (wie z.B. WLAN) mit dem Serviceroboter 17 verbundenes Display 2 wie bspw. ein Tablet-Computer genutzt werden, den die Person in die Hand nehmen oder auf einem Tisch ablegen kann, was die Beantwortung und Absolvierung der Übungen vereinfacht. Eine Differenzierung in zu beurteilende Person und bspw. Angehörige erfolgt über den Fragedialog. Ergänzend und/oder alternativ sind auch Differenzierungen nach den Ansätzen möglich, die bspw. im Abschnitt über die Manipulationserkennung fortfolgende näher beschrieben werden.
Erkennen eines Stuhls mit einem Patienten, der einen Timed Up and Go-Test durchführen soll
[0068] Einer der Tests, der mittels des Serviceroboters 17 durchgeführt werden kann, ist der sogenannte „Timed Up and Go“ Test. Bei diesem Test sitzt eine zu evaluierende Person in einem Armlehnstuhl, steht auf und geht drei Meter, um umzukehren und sich wieder hinzusetzen. Die hierbei verwendete Zeit wird erfasst und, auf Basis einer Tabelle, in einen Score konvertiert.
[0069] Der Serviceroboter 17 tastet mit einem Laserscanner 1 den Raum ab, in dem der Serviceroboter 17 sich befindet, berechnet die Distanzen zu den Wänden und erstellt eine im Rahmen des Mappings durch das Kartierungsmodul 106 virtuelle Karte, die die Umrisse des Raums wiedergibt, aber auch Gegenstände, die sich zwischen dem Laserscanner 1 und den Wänden befinden, ebenfalls in der XY-Ebene vermerkt. Die erstellte Karte wird im Kartenmodul 107 abgelegt. Sofern der Laserscanner 1 keine Rundumsicht hat, führt der Serviceroboter 17 Fahrbewegungen derart aus, dass der Serviceroboter 17 sein Umfeld annährend um 360° abtastet. Dieses Abtasten führt der Serviceroboter 17 bspw. von verschiedenen Positionen im Raum aus, um bspw. isoliert stehende Hindernisse zu erkennen. Hat der Serviceroboter 17 einmal den Raum abgetastet und eine virtuelle Karte erstellt, so ist der Serviceroboter 17 in der Lage, durch erneutes Abtasten eines Raumteils den Raum wiederzuerkennen. Dieses weitere Abtasten gelingt umso präziser, umso mehr vom Raum abgetastet wird. Hierbei zeichnet der Serviceroboter 17 z.B. seinen zurückgelegten Weg auf und misst hierbei die Distanzen, so dass der Serviceroboter 17 seine Position im Raum bestimmen kann. Ergänzend kann hier auch das Messen der zurückgelegten Entfernung über eine Auswertung der Drehbewegung der Räder in Zusammenhang mit deren Umfang erfolgen. Wird anstelle eines Laserscanners eine Kamera 185 genutzt, um die Karten zu erstellen, ist eine leichtere Positionsbestimmung möglich, da nicht nur in der XY-Ebene charakteristische Dimensionen erkannt werden, sondern auch in der Z-Ebene, womit sich einzigartige Dimensionen innerhalb des Raums schneller identifizieren lassen, als diese Identifizierung lediglich in einer zweidimensionalen Darstellung möglich ist.
[0070] Es sind beim Raum-Mapping durch das Kartierungsmodul 106 auch mehr als nur ein Sensor einsetzbar, bspw. die Kombination aus dem LID AR 1 und dem Sensor 3, wobei der Sensor 3 eine RGB-Kamera ist, die bspw. die Farbgebung im Raum erfasst und jedem Punkt in der XY-Ebene, die der LID AR 1 aufzeichnet, einen Farbwert zuordnet. Hierzu führt die Rechnereinheit des Serviceroboters 17 derart eine Bildverarbeitung durch, dass zunächst jedem Punkt in der XY-Ebene eine Z-Koordinate zugeordnet wird, die sich aus der Neigung des LIDARs und seiner Höhe gegenüber dem Boden darstellt. Die RGB-Kamera wiederum verfügt über eine bekannte relative Position zum LID AR sowie über einen bekannten Ausrichtungswinkel und einen bekannten Aufnahmewinkel, so dass sich daraus ergibt, welchen Abstand im Bild bspw. eine horizontale, gerade Linie aufweist, die sich im Abstand von 2m und einer Höhe von 50cm über den Boden befindet. Über diese Parameter lässt sich damit jeder Raumkoordinate, die der LID AR 1 ermittelt, aus dem RGB-Bild ein Pixel zuordnen und damit auch die Farbwerte des Pixels.
[0071] Mittels des LIDARs 1 ist es möglich, die Position im Raum zu bestimmen, an der sich vermutlich ein Stuhl befindet. Das Erkennungsverfahren ist in Fig. 4 beschrieben. Stühle verfügen üblicherweise über ein bis vier Beine, wobei es sich bei einbeinigen Stühlen um Bürodrehstühle handelt, die aufgrund ihrer möglichen Rotation um die Z-Achse weniger für möglicherweise gehbehinderte Personen im fortgeschrittenen Alter eignen. Sehr viel wahrscheinlicher sind Stühle mit zwei oder vier Beinen, wobei es sich bei zweibeinigen Stühlen in den meisten Fällen um sogenannte Freischwinger handeln könnte. Stuhlbeine zeichnet ferner aus, dass die Stuhlbeine in der XY-Ebene isoliert stehen, womit der LID AR 1 isoliert stehende Objekte im Schritt 405 erkennt. Ferner haben die Stuhlbeine untereinander primär einen homogenen Querschnitt in der XY-Ebene bei konstantem Z (Schritt 410). Der Durchmesser der Objekte (d.h. der potentiellen Stuhlbeine) liegt hier zwischen 0,8cm und 15 cm, bspw. zwischen 1 cm und 4 cm und wird im Schritt 415 festgestellt. Der Abstand der Objekte, die sich möglicherweise als Stuhlbeine heraussteilen untereinander in der XY-Ebene beträgt typischerweise ca. 40 cm 420. Bei vierbeinigen Stühlen sind die Beine zudem vornehmlich in Form eines Rechtecks angeordnet (Schritt 425). Dies heißt, dass zwei Objekte mit gleichem Durchmesser auf die Existenz eines Frei Schwingers mit zwei Beinen hindeuten (Schritt 430). Weisen die Vorderbeine des Stuhls untereinander und die Hinterbeine des Stuhls untereinander den gleichen Querschnitt auf, handelt es sich vermutlich um einen vierbeinigen Stuhl (Schritt 435).
[0072] Der Serviceroboter 17 ist nun in der Lage, auf Basis dieser Charakteristika (zwei bzw. vier Objekte, die isoliert stehen, die einen in etwa symmetrischen Querschnitt aufweisen, die einen Abstand von ca. 40 cm haben und die ggf. ca. rechteckig angeordnet sind) diesen Objekten das Attribut „Stuhl“ zuzuweisen und in der virtuellen Karte, die mittels LID AR 1 und/oder einem oder mehreren weiteren Sensor(en) erstellt wurde, solche Positionen der Stuhle im Schritt 440 festzulegen, an denen sich mit hoher Wahrscheinlichkeit ein oder mehrere Stühle befinden. Jedem identifiziertem Stuhl wird zudem eine räumliche Orientierung im Schritt 445 zugewiesen. Die Stühle befinden sich zumeist in etwa parallel zu einer Wand und weisen üblicherweise einen Abstand von ihr auf, der zwischen zwei und 20 cm betrifft, wobei dieser Abstand für die Stuhlrückseite zutrifft. Demzufolge wird der Linie zwischen zwei der Stuhlbeine, die sich parallel zur Wand befindet, und die sich üblicherweise 40-70 cm von der Wand entfernt befindet, die Eigenschaft „Vorderseite Stuhl“ zugewiesen 450, die beiden Bereiche, die sich orthogonal dazu befinden, werden als „Rückseiten“ des Stuhls im Schritt 455 gelabelt. Ergänzend und/oder alternativ kann bei vierbeinigen Stühlen auch die von der nächstliegenden Wand weiter entfernte Seite als Vorderseite erkannt werden. [0073] Anstelle des LIDARs 1 kann auch eine 2D oder 3D-Kamera 185 genutzt werden, um die Stühle zu erkennen. In diesem Falle sendet die Rechnereinheit die Aufnahmen über eine Schnittstelle 188 (wie z.B. WLAN) und eine API ggf. an einen Webservice in dem Cloud 18, der dazu eingerichtet ist, Bildklassifizierungen vorzunehmen, oder die Rechnereinheit greift auf im Speicher 10 des Serviceroboters 17 hinterlegte Bildklassifizierungsalgorithmen zurück, die in der Lage sind, in den von der 2D- oder 3D-Kamera 185 erstellen Aufnahmen einen Stuhl zu erkennen, darunter auch einen Stuhl mit Armlehnen. Es gibt eine Vielzahl von Algorithmen, die derartige Klassifizierungen initial vornehmen und ein Modell erstellen, dass dann entweder in der Webservice in der Cloud 18 oder im Speicher 10 des Serviceroboters 17 auf die von der 2D- oder 3D-Kamera 185 des Serviceroboters 17 angewendet werden kann, darunter neuronale Netze wie konvolutionäre neuronalen Netzen.
[0074] Der Serviceroboter 17 ist in der Lage, unabhängig von der Art der Stuhlidentifizierung die Position eines Stuhls abzuspeichem, z.B. im eigenen Speicher 10, der mit dem Navigationsmodul 101 des Serviceroboters 17 interagiert 465. Der Serviceroboter 17 erfasst ferner die Zahl der Stühle im Raum 470 und zählt diese Stühle in einer Reihenfolge, die dem Uhrzeigersinn entspricht. Alternativ dazu ist auch eine andere Reihenfolge möglich. Aus dieser Reihenfolge erhalten die Stühle eine Nummer, die als eine Objekt-ID abgelegt wird 475.
[0075] Der Serviceroboter 17 ist auf Basis der beschriebenen Vorgehensweise in der Lage, einen Raum inkl. vorhandener Stühle zu mappen, d.h. die Position der Stühle im Raum zu bestimmen inkl. ihrer Orientierung. Für die Durchführung des Timed Up and Go-Tests ist es jedoch notwendig, dass sich eine Person auf einem der Stühlen befindet, die ggf. auch über
Gehhilfen verfügt, die sich in Nähe des Stuhls befinden. Für den Fall, dass der Serviceroboter
17 so konfiguriert ist, dass der Serviceroboter 17 der LID AR 1 zur Identifizierung von
Personen nutzt, wird nachfolgendes Verfahren eingesetzt: Die Position und die Orientierung des Stuhls im Raum wird über die vorangegangenen Verfahren in Fig. 5 im Schritt 505 identifiziert. Um Beine und etwaige Gehhilfen identifizieren und von in XY-Richtung im
Querschnitt her gestalteten Objekten unterscheiden zu können, navigiert im Schritt 510 der
Serviceroboter 17 in etwa mindestens 20°, z.B. um mindestens 45°, im Idealfall um mindestens 90° um den Ort herum, wo sich ein Stuhl befindet 510, wobei der LID AR 1 und/oder ein oder mehrere weitere Sensoren in Richtung des Stuhl orientiert ist/sind (Schritt
515). Hierbei hält der Serviceroboter 17 einen Abstand von mehr als 50cm, z.B. mehr als 80 cm ein 520. Hiermit erhöht sich eine Prognosegenauigkeit, dass die Stuhlbeine vom Serviceroboter 17 erkannt werden und damit ein Rückschluss darauf zulässt, dass sich eine Person auf dem Stuhl befindet.
[0076] Sofern eine Person auf dem Stuhl sitzt, befinden sich optional zwei weitere Objekte in Stuhlnähe 525, die in etwa kreisförmig sind 530, einen Durchmesser von weniger als 4 cm haben, z.B. weniger als drei cm 535. Diese mit hoher Wahrscheinlichkeit Abstände zueinander und/oder den Stuhlbeinen aufweisen, die sich deutlich von den ca. 40 cm unterscheiden 540, die die Stuhlbeine untereinander aufweisen. Mit hoher Wahrscheinlichkeit befinden sich diese Abstände zudem seitlich von den Stuhlbeinen 545. Unter Berücksichtigung dieser Informationen ist die Rechnereinheit 9 im Serviceroboter 17 in der Lage, die identifizierten Objekte als Gehhilfen zu identifizieren 550. Werden diese Merkmale in Mehrzahl nicht detektiert, werden keine Gehhilfen identifiziert 585. Hierfür können zum Beispiel Naive Bayes-Schätzungen genutzt werden. Da nicht jede Person über Gehhilfen verfügen muss, die den Test absolvieren soll, sind die Schritte 525-550 optional und/oder nicht notwendig, um die Person auf einem Stuhl mittels des LIDARs 1 zu identifizieren. Räumlich gesehen befinden sich um Umfeld der Vorderbeine des Stuhls mutmaßlich die Beine der Person, die auf dem Stuhl sitzt.
[0077] Ein oder beide Beine können vor, zwischen den vorderen Stuhlbeinen oder hinter den vorderen Stuhlbeinen positioniert sein. Damit ergibt sich ein in etwa trichterförmigem Bereich, der sich von etwa der Stuhlmitte in etwa strahlenförmig nach vorne erstreckt und bis maximal ca. 50 cm über die Verbindungslinie der beiden Stuhlbeine reicht 555. Die vom LID AR 1 erfassten Daten werden dahingehend ausgewertet, dass in diesem Bereich zwei 560 etwa runde bis elliptische Objekte 565, die einen Durchmesser von 6-30cm, z.B. 7-20 cm aufweisen 570 identifizieren. Die Beine können auch zwischen den vorderen Stuhlbeinen oder gar hinter diesen Stuhlbeinen gelagert sein. Je dichter sich die Objekte an der Linie zwischen den beiden vorderen Stuhlbeinen befinden, desto eher entspricht die Form der Objekte einer Kreisform 575. Sofern diese Kriterien weitestgehend erfüllt sind, erkennt das im Serviceroboter 17 hinterlegte Regelwerk 150 auf Basis der LIDAR-Daten eine Person auf dem Stuhl 580. Alternativ wird keine Person auf dem Stuhl erkannt 590
[0078] Alternativ zum LID AR 1 lassen sich Person und Gehhilfen ebenfalls über eine generelle Bildklassifizierung erkennen, wie bspw. etwas weiter vorne bereits beschrieben. Hierbei verbessert der Serviceroboter 17 gleichfalls die Prognosegenauigkeit, indem der Serviceroboter 17 den Stuhl aus mehreren Positionen anpeilt, so dass die 2D oder 3D-Kamera 185 den Stuhl, ähnlich wie bspw. im vorigen Absatz dargelegt, aufnehmen kann. Anstelle einer generellen Bildklassifizierung können auch die im Stand der Technik hinlänglich beschriebenen Verfahren (SDKs) zur Personenerkennung via 2D- oder 3D-Kameras 185 genutzt werden, die auf einer Skeletterkennung fungieren, bspw. das Kinect SDK, Astra Orbbec SDK, Open Pose, PoseNet von Tensorflow, usw.
[0079] Der Serviceroboter 17 ist gemäß Fig. 6 ferner in der Lage, eine Person im Raum zu identifizieren 605, wozu verschiedene, alternative und/oder ergänzende Ansätze zum Tragen kommen können: Hierzu kann einerseits mit dem LID AR 1 aus unterschiedlichen Winkeln zwei Querschnitte identifiziert werden, die einen Durchmesser von mindestens 5 cm, z.B. mindestens 7 cm haben, die nicht exakt rund sind und statisch einen Abstand von mindestens 3 cm aufweisen, bspw. mindestens 5 cm. Alternativ oder ergänzend kann auf Grundlage einer Bildklassifizierung mittels der 2D- oder 3D-Kameras 185 eine Person identifiziert werden, wobei beispielsweise die im vorigen Abschnitt bereits erwähnten SDKs zum Einsatz kommen können. Die Einstufung als Person erfolgt in einem Aspekt mit höherer Wahrscheinlichkeit, wenn sich die Position im Raum im Zeitablauf verändert. Der Serviceroboter 17 nutzt ferner Algorithmen aus dem Stand der Technik, die über die SDKs der Sensoren (wie Kameras 185) und/oder Drittanbietersoftware es ermöglichen, ein Skelettmodell der Person zu erstellen und über die Zeit zu tracken 610, bspw. mittels des visuellen-Personentracking-Moduls 112 und/oder des laserbasierten Personentracking-Moduls 113. Wird eine Person identifiziert, der sich nicht auf dem Stuhl befindet 615, fordert der Serviceroboter 17 diese Person auf, sich auf den Stuhl zu setzen, was z.B. akustisch und/oder optisch erfolgt 620. Dabei trackt der Serviceroboter 17 die Bewegung der Person in Richtung Stuhl 625. Erfasst der Serviceroboter 17 keine Bewegung in Richtung Stuhl 630, ändert der Serviceroboter 17 seine Position 635. Hintergrund dieser Maßnahme ist, dass der Serviceroboter 17 ggf. der Person im Weg steht oder ggf. die Sensorik die Person nicht korrekt erfasst hat. Sofern die Erfassung irrtümlich von einer Person ausgegangen ist, wird dieser Prozess unterbrochen, alternativ fortgeführt (so nicht in Fig. 6 dargestellt). Der Serviceroboter 17 fordert im Schritt 640 die Person dann erneut auf, sich zu setzen. Hierbei trackt der Serviceroboter 17 erneut die Bewegung 645, bspw. mittels des visuellen-Personentracking-Moduls 112 und/oder des laserbasierten Personentracking-Moduls 113. Stellt der Serviceroboter 17 keine Bewegung im Schritt 650 in Richtung Stuhl fest, so fordert der Serviceroboter 17 die Person erneut auf, sich zu setzen, jedoch mit erhöhter Intensität der Aufforderung, bspw. durch Ausnutzung einer höheren Lautstärke der Sprachausgabe, eine alternative Sprachausgabe, visuelle Signale, etc. 655. Wiederum erfolgt ein Tracking der Person mit Blick auf eine Bewegung in Richtung Stuhl 660. Ist danach keine Bewegung der vermeintlichen Person in Richtung Stuhl festzustellen 665, so sendet der Serviceroboter 17 über eine Schnittstelle 188 (wie z.B. WLAN) eine Information an einen Rechner, der über ein Display 2 mit medizinischem Personal interagiert und fordert das medizinische Personal auf, sich zum Serviceroboter 17 zu bewegen und diesen Serviceroboter 17 zu unterstützen 670. In einem ergänzenden und/oder alternativen Aspekt erfasst der Serviceroboter 17 den Grad der Personendetektion, d.h. der Serviceroboter 17 nutzt interne Regeln zur Ermittlung der Erfassungsqualität wie Abweichungen von Erfassungsschwellwerten, und ermittelt darauf basierend eine Anzahl an Aufforderungen, die der Serviceroboter 17 an die Person richtet.
[0080] Da sich mehr als ein Stuhl im Raum befinden kann, auf den sich die Person setzen kann, und nicht vor jedem Stuhl ausreichend Platz sein kann, um die notwendige Distanz von 3m zurückzulegen, verfügt der Serviceroboter 17 über einen Korrekturmechanismus. Dieser Korrekturmechanismus sieht vor, dass der Serviceroboter 17 aus der Menge an identifizierten Stühlen 705 solche Stühle identifiziert, vor denen in orthogonaler Richtung zur Stuhlvorderseite sich eine freie Fläche ohne Hindernisse befindet, die mindestens eine Länge von 3,5m, z.B. mindestens 4m beträgt 710. Sofern sich vor einem Stuhl die entsprechende freie Fläche befindet, die notwendig ist, um den Test durchzuführen, wird diese Eigenschaft als Attribut im Speicher 10 des Serviceroboters 17 hinterlegt 715. Diese Information wird bei der Navigation eines Nutzers hin zum Stuhl genutzt bzw. es wird mit dieser Information sichergestellt, dass sich die Person auf einem Stuhl befindet, der geeignet ist, durch ausreichend Platz vor dem Stuhl den Test durchzuführen. Ergänzend und/oder alternativ dazu kann der Stuhl auch über eine Bodenmarke identifiziert werden, welche wie bspw. einige Absätze weiter unten identifiziert wird.
[0081] Hierzu kann der Serviceroboter 17 bei der Aufforderung an eine (stehende) Person, sich zu setzen, diese stehende Person auf geeignete Stühle im Schritt 720 hinweisen. Der Serviceroboter 17 kann die Person auch auffordern, wieder aufzustehen und sich auf einen anderen Stuhl zu setzen 725. In einem Aspekt wird dieser Stuhl im Schritt 730 näher identifiziert. Hierfür nutzt der Serviceroboter 17 die Objekt-IDs und die Reihenfolge, in der die Stühle positioniert sind. Darüber liegt innerhalb des Speichers 10 des Serviceroboters 17 die Information vor, dass bspw. die Person auf Stuhl Nr. 6 sitzt, es jedoch nur Stühle Nr. 4 und 7 für die Durchführung des Tests infrage kommen, weil vor ihnen ausreichend Platz zur Verfügung ist. Der Serviceroboter 17 kann dann in der Aufforderung an die Person, sich umzusetzen, die Information integrieren, dass die Person sich auf einen Stuhl bspw. zwei Plätze links vom Serviceroboter 17 bzw. einen Platz rechts vom Serviceroboter 17 positionieren kann. Hierbei ist der Serviceroboter 17 in der Lage, durch die Orientierung im Raum, die Person und Serviceroboter 17 einnehmen, derartige Angaben derart zu korrigieren, dass die ausgegebene Angabe sich auf die Orientierung bzw. Perspektive der Person bezieht. In dem genannten Beispiel wären dies zwei Plätze rechts von der Person oder ein Platz links. Analog dazu kann der Serviceroboter 17 auch die Koordinaten einer stehenden Person nutzen sowie eines geeigneten Stuhls, um diese stehende Person auf diesen Stuhl zu verweisen, bspw. in der Art „bitte setzen Sie sich auf den Stuhl schräg links vor Ihnen“, ggf. unter Nennung eines Abstands. In einem ergänzenden und/oder alternativen Aspekt können hierbei bspw. auch Farbinformationen zum Stuhl einfließen, die zuvor bspw. über eine RGB-Kamera erhoben wurden.
[0082] Sollte der Stuhl leer sein und der Serviceroboter 17 keine Person im Raum identifizieren, der Serviceroboter 17 aber die Anweisung erhalten haben, einen Test mit einer Person in Verbindung mit dem Stuhl durchzuführen, positioniert sich der Serviceroboter 17 z.B. in einem Abstand von mehr als einem Meter Entfernung vom Stuhl. Der Serviceroboter 17 verfügt in einem Aspekt über sein Navigationsmodul 101 zudem über Informationen, aus welcher Richtung sich ein Patient nähern kann. Diese Informationen können einerseits explizit im System hinterlegt worden sein.
[0083] In einem zusätzlichen oder alternativen Aspekt ist der Serviceroboter 17 in der Lage, Türen oder Durchgänge zu erkennen. Im Falle geschlossener Türen befindet sich ein Versatz innerhalb einer Wand, der mindestens 1 cm beträgt und senkrecht zur Wandoberfläche orientiert ist 805, während orthogonal dazu der Versatz einen Abstand von mehr als 77cm aufweist, z.B. von mehr als 97 cm, jedoch geringer als 120 cm 810. Alternativ oder ergänzend handelt es sich um einen Doppelversatz mit einem Abstand von mehreren cm, wobei der innere Abstand die genannten ca. 77 cm, besser ca. 97cm betrifft. Unter Zuhilfenahme dieser Informationen ist es möglich, insbesondere mittels des LIDARs 1 eine geschlossene Tür zu erkennen. Im Falle einer offenen Tür erkennt der Serviceroboter 17 über den LID AR 1 entweder eine Ebene, die in XY-Richtung an eine der Kanten angrenzt bei einer Länge von ca. 77-97 cm 815 und einen Winkel zur Kante von 1-178° aufweist 820, einem Winkel, der im Zeitablauf variabel ist 825, und/oder es ergibt sich hinter der identifizierten Öffnung ein Abstand von mindestens 90cm keine weitere Begrenzung der XY-Ebene in der Karte 830, die der Serviceroboter 17 bspw. über den LID AR 1 aufzeichnet.
[0084] Im Falle einer 2D oder 3D-Kamera 185 können einerseits wieder Algorithmen zum Tragen kommen, die auf ein Lernen von typischen Türcharakteristiken basieren. Andererseits können auch Informationen aus der Z-Richtung derart verarbeitet und ggf. mit Daten aus der XY-Richtung kombiniert werden, die helfen, einen Durchgang mit höherer Wahrscheinlichkeit zu identifizieren, wenn der Bereich, der als mögliche Tür oder Durchgang in der XY-Ebene identifiziert wurde, eine Höhenbegrenzung hat, die bei 1,95-2, 25m liegt. Ergänzend und/oder alternativ dazu können auch Objektinformationen einbezogen werden, die sich auf einen Türgriff beziehen.
[0085] Der Serviceroboter 17 erstellt über sein Navigationsmodul 101 für den Fall, der Stuhl ist unbesetzt, auf Basis der ermittelten Position der Tür oder des Durchgangs sowie des Stuhls den direkten Pfad zwischen diesem Stuhl und der Tür oder des Durchgangs, der durch kein Hindernis blockiert ist, indem bspw. die euklidische Distanz ermittelt wird. Der Serviceroboter 17 positioniert sich außerhalb dieses Pfades, bspw. derart räumlich orientiert, dass seine Sensoren den Stuhl und/oder die Tür/den Durchgang avisieren.
[0086] Identifiziert der Serviceroboter 17 eine Person, die den Raum betritt, fordert der Serviceroboter 17 sie wie oben beschrieben auf, sich auf den Stuhl zu setzen.
[0087] Befindet sich nun eine Person auf dem Stuhl, signalisiert der Serviceroboter 17 über eine Ausgabeeinheit, bspw. einen Lautsprecher 192, alternativ und/oder ergänzend auch über ein Display 2, die Person auf, aufzustehen und drei Meter weit geradeaus zu gehen und dann wieder zum Stuhl zurückzukehren.
[0088] Der Serviceroboter 17 ist in der Lage, mittels 2D- oder 3D-Kamera 185 eine Abstandsmarkierung auf dem Boden zu erkennen, wozu gängige Mustererkennungsverfahren genutzt werden. Im ersten Schritt nutzt der Serviceroboter 17 die Positionsinformationen des identifizierten Stuhls. Um sicherzustellen, dass es eine Abstandsmarkierung ist und bspw. keine normale Musterung des Fußbodens, ermittelt der Serviceroboter 17 zunächst über sein Navigationsmodul 101 eine Position im Raum, die sich in etwa orthogonal von der Vorderseite des Stuhls im Abstand von 3m befindet. Anschließend wird der Bereich auf dem Boden, der sich in etwa in dieser Position befindet, abgetastet, um eine solche Markierung zu erkennen. Es werden weitere Bereiche des Bodens abgetastet, um zu erkennen, ob das Muster einzigartig ist oder sich wiederholt. Ist es einzigartig oder ggf. in dem Speicher 10 des Serviceroboters 17 abgelegt, wird dieses Muster als Markierung für den 3m-Punkt genutzt.
[0089] Ein Nachteil einer festen Bodenmarkierung ist, dass ein Stuhl sich ggf. verschieben kann, sei es durch Reinigungsarbeiten im Raum, durch Personen, die auf diesem Stuhl sitzen, usw. Aus diesem Grunde ist der Serviceroboter 17 in einem ergänzenden und/oder alternativen Aspekt mit einem Projektionsvorrichtung 920 ausgestattet, um eine Markierung im Abstand von 3m in orthogonaler Richtung von der Vorderseite des Stuhls zu projizieren. Die XY-Koordinaten sowohl des Stuhls als auch des 3m-Punktes werden wiederum z.B. über das Navigationsmodul 101 ermittelt, wobei dieses Navigationsmodul 101 zuvor durch den Serviceroboter 17 mit Blick auf die Position des Stuhls aktualisiert wurden. Dazu dient eine Lichtquelle, z.B. ein Laser oder eine LED, welche wiederum durch Linsen oder funktionell ähnliche Mittel fokussierbar ist. Dieser Projektionsvorrichtung 920 ist in der Lage, eine Fläche auf den Boden zu projizieren, als Balken, ggf. mit Schriftzeichen, die der Person signalisieren, dass sie sich bis dorthin bewegen soll. Die Projektionsvorrichtung 920 ist, in einem Aspekt (siehe Fig. 9 a) bis b) als Draufsicht), unabhängig vom Serviceroboter 17 beweglich gelagert, so dass der Serviceroboter 17 bspw. durch eigene Drehbewegungen sich frontal stets in Richtung Person 910 positioniert (wie die Linie 940 skizziert), während die projizierte Markierung 915 sich stets auf derselben Stelle orthogonal zur Vorderseite des Stuhls 905 befindet. Hierbei kann in einem Aspekt die Lichtquelle der Projektionsvorrichtung 920 selbst beweglich gelagert sein, in einem anderen Aspekt sorgen Spiegel, bspw. Microspiegel oder mikrostrukturierte Elemente, für eine derartige Lenkung des Lichts, dass dieses Licht bei Bewegung, z.B. einer Rotationsbewegung des Serviceroboters 17, auf der gleichen Stelle bleibt. Damit ändern sich die Winkel zwischen den Zeitpunkten a) und b), während denen sich die Person 910 in Richtung Markierung 915 bewegt, darunter der Winkel zwischen den Linien 925 und 935 sowie zwischen 930 und 935. In einem alternativen und/oder ergänzenden Aspekt kann sich der Serviceroboter 17 auch stets parallel zur Laufrichtung der Person bewegen.
[0090] In einem weiteren Aspekt (Fig. 9 c) bis d)) ist die Lichtquelle in der Lage, auf eine Fläche auf dem Boden zu projizieren, deren Breite aus der Perspektive des Serviceroboters 17 bei über 3m liegt. Damit deckt diese Projektionsvorrichtung 920 die Strecke ab, die die Person, vom Stuhl ausgehend, zurücklegen soll. Die zentrale Achse der Projektionsrichtung 920 ist dabei um einen Winkel zwischen 10° und 60°, z.B. 20-50°, von der zentralen Achse der Kamera 185 mit Blick auf die Z-Rotationsachse des Serviceroboters 17 gedreht, und zwar in die Richtung, in die, vom Serviceroboter 17 aus gesehen, sich die Person bewegen soll. Wenn sich die Person bspw. auf dem Stuhl befindet, der sich links vom Serviceroboter 17 befindet, während der 3m-Punkt rechts vom Serviceroboter 17 ist, befindet sich die Projektionsmarke (wie bspw. der Balken) am 3m-Punkt im, vom Serviceroboter 17 aus gesehen, rechten Rand der projizierten Fläche. Mit Drehung des Serviceroboters 17 in Richtung fixem 3m-Punkt bewegt sich die Projektionsmarke hin zum linken Rand der projizierten Fläche. Hierbei kann bspw. auf eine Projektionsvorrichtung 920 zurückgegriffen werden, wie sie sich in herkömmlichen (LCD-)Beamern befindet, bei denen eine Matrix softwareseitig derart angesteuert wird, dass unterschiedliche Bereiche der projizierten Fläche unterschiedlich hell ausgeleuchtet werden. Befindet sich der Stuhl mit der Person rechts vom Serviceroboter 17 und der 3m-Punkt links, verhalten sich die Orientierungen entsprechend spiegelverkehrt. In Fig. 9 c) sitzt die Person 915 auf dem Stuhl 905. Die Projektionseinrichtung 920 kann eine Fläche ausleuchten, die sich aus dem gepunkteten Rechteck ergibt. In dessen rechtem Bereich befindet sich die 3m-Marke 915. Mit Drehung des Serviceroboters 17 bewegt sich die Projektionsfläche im Uhrzeigersinn zusammen mit dem Serviceroboter 17, dabei wird die 3m-Marke auf der fixen XY-Koordinate gehalten, was bedeutet, die 3m-Marke wandert in den linken Bereich der projizierten Fläche (Fig. 9 d)). Diese hier beschriebene Darstellung geht von einer fixen Projektionsrichtung 920 aus. In einem alternativen und/oder ergänzenden Aspekt ist die Projektionsvorrichtung 920 beweglich gelagert (Effekt nicht näher dargestellt).
[0091] Alternativ dazu rotiert der Serviceroboter 17 nicht und erfasst mittels des LIDARs 1 und/oder der 2D bzw. 3D-Kamera 185 mehr als die komplette Strecke, die die Person zurücklegen muss (siehe Fig. 9 e), wo die von den Sensoren mindestens erfasste Fläche gepunktet ist). In einem weiteren Aspekt sind die 2D- bzw. 3D-Kamera 185 nachführbar gelagert, während die Projektionseinrichtung 920 bzw. die Lichtquelle starr oder ebenfalls nachführbar gelagert ist (nicht separat dargestellt).
[0092] Ein Prozessor im Serviceroboter 17 errechnet die Projektionsfläche auf Basis der Koordinaten des Navigationsmoduls 101 des Serviceroboters 17, dass zuvor die Position des Stuhls, des 3m-Punkts und des Serviceroboters 17 ermittelt, der Neigung der Projektionsvorrichtung 920 und ihrer Höhe, um einen aus Sicht der die Übung absolvierenden Person einen weitestgehend unverzerrten Balken zu projizieren, der sich in etwa parallel zur Stuhlvorderseite befindet. Je nach Ausführung kann die Form der Markierung kann auch anders gestaltet sein.
[0093] Das Tracking der Person erfolgt durch ein Vorgehen, wie es im Stand der Technik hinlänglich beschrieben ist, bspw. mittels des Visuellen-Personentracking-Moduls 112 und/oder des laserbasierten Personentracking-Moduls 113. Dazu erfasst der Serviceroboter 17 ebenfalls die Haltung des Oberkörpers, um zu erkennen, wenn die Person anfängt sich aufzurichten. Ab diesem Zeitpunkt wird auch die Zeit erfasst, die die Person für das Absolvieren des Tests benötigt. Die Zeitnahme wird beendet, wenn sich die Person nach Rückkehr zum Stuhl gedreht und wieder in den Stuhl gesetzt hat. Eine Drehbewegung wird durch die Algorithmen bspw. als Muster dadurch erkannt, dass ein Skelettmodell mit Gelenkpunkten der Person erzeugt wird, so dass die Arme bei der Drehbewegung sich in etwa parallel zur Ebene befinden, die mit der zurückzulegenden Wegstrecke übereinstimmt. In einem Aspekt werden Gelenkpunkte der Arme im Zeitverlauf ausgewertet und es erfolgt eine Ermittlung einer Winkeländerung von mehr als 160° von symmetrisch vorhandenen Gelenkpunkten zur Linie, die die Start- und Wendeposition verbindet.
[0094] Der Serviceroboter 17 ist in einem alternativen und/oder ergänzenden Aspekt so konfiguriert, dass der Serviceroboter 17 während des Zurücklegens der Wegstrecke die Distanz ermittelt, die der Patient dabei zurücklegt. Da Start- und Wendeposition 3m auseinander liegen, beträgt die Länge der zurückzulegenden Wegstrecke 6m, beginnend und endend beim Stuhl an der Startposition, der zugleich auch Endposition ist, mit der Wendeposition in einer Distanz von 3m vom Stuhl entfernt. Dabei muss der Serviceroboter 17 nicht notwendigerweise die Markierung auf dem Boden erfassen. Die Distanz der zurückgelegten Wegstrecke kann auf verschiedene Wege ermittelt werden, darunter durch Aufsummieren der Schrittlänge. Grundlage hierfür kann der Abstand der Sprunggelenke bzw. Fußgelenke sein, die sich durch eine 2D oder 3D-Kamera 185 in Zusammenhang mit den hierbei genutzten Auswertungsframeworks erkannt werden und denen Punkte im dreidimensionalen Raum zugeordnet sind, deren Distanzen sich durch den Serviceroboter 17 bspw. in Form von Vektoren ermitteln lassen. Alternativ und/oder ergänzend kann die vom Patienten zurückgelegte Wegstrecke über das Aufsummieren euklidischer Distanzen zwischen Koordinatenpunkten ermittelt werden, die der Patient passiert und die sich aus einer Karte der Umgebung ermitteln lassen, in der sich Patient und Serviceroboter 17 befinden, wobei sich die Ermittlung der Koordinaten des Patienten anhand von Referenzpositionen ermitteln lässt. Darunter fallen Distanzen zu erkannten Raumbegrenzungen oder die Position des Serviceroboters 17, die sich mittels Selbstlokalisation (Selbstlokalisierungsmodul 105) bestimmen lässt.
[0095] Während des Trackings des Patienten, bspw. mittels des Visuellen-Personentracking- Moduls 112 und/oder des laserbasierten Personentracking-Moduls 113, errechnet der Serviceroboter 17 die zurückgelegte Distanz setzt diese zurückgelegte Distanz in Relation zur Gesamtstrecke, die der Patient zurücklegen muss. Der Serviceroboter 17 kann über eine Ausgabevorrichtung wie das Display 2 und/oder die Sprachsyntheseeinheit 133 dem Patienten eine Rückmeldung darüber geben, wie weit der Patient noch gehen muss, wie viele Schritte das noch sind, wann der Patient umdrehen kann, etc.
[0096] Der Serviceroboter 17 übermittelt auf Basis der erfassten Zeit einen Score basierend auf im Speicher 10 hinterlegten Referenzdaten des Regelwerks 150. Der Serviceroboter 17 ist in der Lage, den Score und/oder die erfasste Zeit über eine Schnittstelle 188 (wie z.B.
WLAN) an das Patientenadministrationsmodul 160 in der Cloud 18 zu übertragen.
[0097] Wie in Fig. 10 dargestellt, ist der Serviceroboter 17 in einem Aspekt dazu in der Lage, mit seinem Sensor 3 die Bewegungen der Person im Schritt 1005 zu erfassen, diese Bewegungen als Video im Schritt 1010 aufzuzeichnen, im Schritt 1015 abzuspeichern und im Schritt 1030 über eine Schnittstelle 188 (wie z.B. WLAN) an einen Cloud-Speicher in der Cloud 18 zu übermitteln, der sich im Regelwerk 150 befindet. Die Datenübermittlung erfolgt verschlüsselt. Die Gesichtszüge der zur beurteilenden Person werden zuvor unkenntlich gemacht, so dass die Anonymität der Personen gewahrt bleibt 1025. Das Videomaterial steht innerhalb eines Regelwerks 150 für Labellingzwecke zur Verfügung, um mittels selbstlernender Algorithmen die Referenzdaten des Regelwerks 150 weiter zu verbessern. Für u.a. diese Zwecke ist über ein Terminal 1030 der Zugriff auf die abgespeicherten Daten möglich, so dass medizinisches Personal eine Begutachtung der Videoaufnahmen und ein Labelling derselben vornehmen kann 1035. Unter Labelling wird dabei verstanden, dass die Körperhaltungen einer Person manuell klassifiziert werden, bspw. eine Person in einem Stuhl sitzt, dass sie gerade aufsteht, dass sie sich nach vorne oder zurück bewegt, dass sie wendet, etc. Für diese Ereignisse, die sich aus einer Videosequenz ergeben, können Labels den Zeitpunkten zugeordnet werden. Hierzu werden bspw. einzelne Start- oder Endpunkte von Bewegungen zeitlich markiert und zugleich die Bewegungen wie bspw. Körperposen, die eine Orientierung der Gliedmaßen, bspw. im Zeitablauf beschreiben, eingeordnet/klassifiziert. Die bspw. auf diese Weise gelabelten Daten werden anschließend in der Datenbank abgelegt, in der sich auch die Bestandsdaten befinden 1040. Das Regelwerk 150 kann anschließend mittels Algorithmen wie bspw. neuronaler Netze eine bspw. selbständige Verbesserung der Klassifizierungsregeln vornehmen. Diese Verbesserung geschieht vor allem auf zwei Arten: a) Erfassen von Situationen, die zuvor noch nicht beschrieben wurden, weil sie ggf. selten Vorkommen, und b) Erhöhen der Fallzahlen. Beides führt dazu, das präzisere Gewichtschätzungen 1045 im Rahmen der durchgeführten Klassifizierung vorgenommen werden können. Hierbei werden den Vektorräumen, die sich aus der Körperhaltung des Patienten ergeben, seinen Bewegungen, usw., entsprechende Zuordnungen vorgenommen, die es erlauben, die Posen der zu bewertenden Person besser einzuschätzen. Dazu zählt das Aufstehen aus dem Stuhl, das Laufen, das Wenden und auch wieder das Sich-Setzen. Die neuen Gewichte werden im Regelwerk 150 zwecks verbesserter Klassifizierung abgelegt 1050 und über eine Schnittstelle 188 (wie z.B. WLAN) an den Serviceroboter 17 in Form eines Updates übertragen.
[0098] Fig. 59 fasst das System zur Erfassung und Auswertung von Bewegungen um das Aufstehen und Sich-Setzen auf einem Stuhl wie folgt zusammen: Das System umfasst einen Rechner 9, einen Speicher 10 und mindestens einen Sensor zur berührungslosen Erfassung der Bewegung einer Person, wobei das System in seinem Speicher 10 über Stuhldetektionsmodul 4540 verfügt, eine Ausgabevorrichtung wie einen Lautsprecher 192 und/oder ein Display 2 zur Übermittlung von Instruktionen, ein Zeitdauer-Wegstrecken- Modul zur Ermittlung der Zeitdauer zum Zurücklegen der Wegstrecke 4510 und/oder Geschwindigkeits-Wegstreckenmodul 4515 zur Ermittlung die Geschwindigkeit der erfassten Person auf einer Wegstrecke sowie ein Zeitdauer-Wegstrecken-Bewertungsmodul 4520zur Bewertung der Geschwindigkeit der Person auf einer Wegstrecke und/oder der Zeit zum Zurücklegen der Wegstrecke. Daneben kann das System über eine Hörtesteinheit 4525 zur Durchführung eines Tests der Hörfähigkeiten, eine Sehtesteinheit 4530 und/oder eine Test- auf-geistige-Fähigkeiten-Einheit 4535 verfügen. Das System kann ein Serviceroboter 17 sein. In einem Aspekt verfügt das System über eine Projektionsvorrichtung (920), bspw. um die Markierung, die den Wendepunkt darstellt, zu projizieren, und/oder den Startpunkt. In einem Aspekt verfügt das System über ein Personen erkennungsmodul 110, Personenidentifizierungsmodul 111, Trackingmodul (112, 113),
Bewegungsauswertungsmodul 120, Skelett-Erstellungs-Modul 5635 und/oder skelettmodell- basiertes-Merkmalsextraktions-Modul 5640.
Mini-Mental-Test
Mini-Mental-Test: Sprechübungen
[0099] Der Serviceroboter 17 ist ferner so konfiguriert, dass der Serviceroboter 17 den Mini- Mental-Test durchführen kann. Das Ziel des Mini-Mental Tests ist die Erkennung von kognitiven Einschränkungen wie Demenz. Im Rahmen des Tests werden durch die Kommunikationsvorrichtungen des Serviceroboters 17 (Sprachein- und Ausgabe, Display 2) Fragen an den Patienten gestellt, der diese über die Kommunikationsvorrichtung des Serviceroboters 17 beantworten kann (bspw. als Spracheingabe, als auszuwählende Antwort auf einem Bildschirm, als Freihandeingabe z.B. bei einem Datum, Wohnort usw.). Für die Durchführung kann einerseits das Display 2 des Serviceroboters 17, andererseits kann auch ein separates, per Schnittstelle 188 (wie z.B. WLAN) mit dem Serviceroboter 17 verbundenes Display 2 wie bspw. ein Tablet-Computer genutzt werden, den die Person in die Hand nehmen oder auf einem Tisch ablegen kann, was die Beantwortung und Absolvierung der Übungen vereinfacht.
[0100] Der Serviceroboter 17 ist so konfiguriert, dass der Serviceroboter 17 mit einer Person kommunizieren kann, wie das in Fig. 11 beschrieben Verfahren aufzeigt. Hierzu orientiert der Serviceroboter 17 sich in einem Aspekt derart im Raum, dass das Display 2 des Serviceroboters 17 sich in etwa parallel zu der Achse befindet, die durch die beiden Schultern, die Hüfte und/oder Knie des Nutzers verläuft und die über das Skelettmodell, welche mittels der 2D oder 3D-Kamera 185 und deren SDKs erkannt werden. Damit richtet sich der Serviceroboter 17 gegenüber vom Nutzer aus 1105. Im Rahmen der Interaktion mit einem Nutzer wird mindestens eine in dem Speicher 10 abgelegte Sprachsequenz über einen Lautsprecher 192 wiedergegeben und ein Nutzer wird über ein Display 2 und/oder über eine Sprachausgabe aufgefordert, die wiedergegebene Sequenz nachzusprechen 1110. Im Anschluss an die Aufforderung zeichnet der Serviceroboter 17 akustische Signale des Nutzers über ein Mikrofon 193 auf 1115, und zwar bspw. so lange, wie die ausgegebene, nachzusprechende Sprachsequenz lang war 1120. Dies geschieht, wie auch die nachfolgenden Schritte, durch das Sprachauswertungsmodul 132. Der Serviceroboter 17 analysiert die Amplituden des Signals im Zeitbereich 1125. Fällt die Amplitude auf null oder nahezu null (bspw. <90% vom Maximum der Amplituden) für mehr als 1 Sekunden, z.B. mehr als 2 Sekunden, so wird die Aufzeichnung beendet 1130. Es wird weiterhin ein Sampling vorgenommen, wobei die Sample-Breite definiert wird über Phasen von Amplituden nahe Null, die mehr als 1 Sek betragen und die eine Länge von mindestens 70% der Sequenz haben, die der Nutzer nachsprechen soll und die im Serviceroboter 17 abgespeichert ist 1135. Auf diese Weise wird sichergestellt, dass mehrere Sprechversuche des Nutzers erfasst und einzeln ausgewertet werden. Der Serviceroboter 17 vergleicht die Samples entweder im Zeitbereich oder Frequenzbereich und errechnet Ähnlichkeitswerte 1140 unter Berücksichtigung von Verfahren, die in der Audiotechnik üblich sind, darunter insbesondere die Kreuzkorrelation. Liegt dabei bspw. der Ähnlichkeitswert unter einem Schwellwert 1145, fordert der Serviceroboter 17 in einem alternativen oder ergänzenden Aspekt den Nutzer erneut auf, die Sequenz nachzusprechen (Verbindung 1145 => 1110). Liegt der Ähnlichkeitswert über einem bestimmten Schwellwert, dann modifiziert der Serviceroboter 17 einen Wert in einer Datenbank innerhalb des Speichers 10 des Serviceroboters 17, der sich auf den Nutzer bezieht 1150. Die vom Nutzer ausgehenden, aufgezeichneten Sprachsignale werden abgespeichert 1155 und, zusammen mit dem modifizierten Wert aus der Datenbank, über eine Schnittstelle 188 (wie z.B. WLAN) an das Patientenadministrationsmodul 160 übertragen 1160. In einem ergänzenden oder alternativen Aspekt wird lediglich die vom Serviceroboter 17 aufgezeichnete Sequenz mit dem höchsten Ähnlichkeitswert zur Mustersequenz abgespeichert. Das System zählt zudem die Nachsprechversuche und bricht, sofern die Anzahl der Versuche einen Schwellwert überschreiten, die Aufzeichnung des betreffenden Nachsprechversuchs ab und geht zu einer nächsten nachzusprechenden Sequenz über. Mehrmalige Nachsprechversuche bzw. auch gescheiterte Nachsprechversuche des Nutzers werden ebenfalls in der Datenbank vermerkt.
Mini -Mental-Test: Faltübung
[0101] Eine Übung des Mini -Mental-Tests umfasst das Aufnehmen eines Blattes, das Falten und das Ablegen/Fallenlassen des Blatts, wie Fig. 12 aufzeigt. Zu diesem Zweck verfügt der mobile Serviceroboter 17 über eine optionale Vorrichtung, welche Blätter enthält, die die zu beurteilende Person für den Test entnehmen kann, bspw. auf Aufforderung durch den Serviceroboter 17 hin. Alternativ kann der mobile Serviceroboter 17 die zu beurteilende Person auf derartiges Blatt hinweisen, welches sich in der Räumlichkeit befindet, in der der Test stattfindet. Hierzu ist die Sprachausgabe und/oder die Ausgabeeinheit des Displays 2 entsprechend konfiguriert 1205. [0102] Der Serviceroboter 17 ist so konfiguriert, dass mittels des Sensors 3 in der Ausführung einer 3D-Kamera, bspw. einer Time-of-Flight-Kamera (ToF), die Hände eines Nutzers identifiziert, erfasst und getrackt werden, d.h. die Hände werden im ersten Schritt erkannt 1210 und im zweiten Schritt getrackt werden 1215, wenn dieser ein Blatt faltet. Alternativ zu einer ToF -Kamera sind auch Ansätze möglich, bei denen auf Basis einer einzelnen 2D- Kamera Hände erkannt 1210 und (Hand-)Bewegungen getrackt werden 1215, um entsprechende Gesten bzw. ein Blatt zu erkennen 1220, das gefaltet wird. Die Gewichte stammen bspw. hierbei aus einem Modell, dass mittels üblicher Verfahren des maschinellen Lernens wie bspw. Regressionsverfahren und/oder neuronaler Netze klassifiziert wurde wie bspw. mittels konvolutionärer neuronaler Netze. Hierzu sind im Vorfeld eine Vielzahl von Faltbewegungen aufzunehmen, zu labein und von den üblichen Algorithmen zu erlernen. Alternativ und/oder ergänzend können auch über die 2D-Kamera Skelettmodelle auf Basis von Frameworks erstellt werden wie bspw. mit Open Pose oder PoseNet in Zusammenhang mit Tensorflow.
[0103] Die Erfassung der Bewegungen erfolgt über die Zeit, bspw. mittels des visuellen- Personentracking-Moduls 112 und/oder des laserbasierten laserbasierten Personentracking- Moduls 113. Dabei erfolgt im ersten Schritt die Erkennung der Hände 1210, welche aus der Gesamtaufnahme segmentiert werden. Im zweiten Schritt erfolgt über Segmentierung die Erkennung von Gegenständen 1220, die sich in den Händen befinden, bspw. mittels eines fehlertoleranten Segmentierungsalgorithmus (z.B. RANSAC framework), der eine Mustererkennung erlaubt. Durch im Stand der Technik hinlänglich beschriebene Verfahren des Trackings werden die Bewegungen über den Zeitablauf erfasst 1215. Hierbei befindet sich anfangs noch kein Blatt in den Händen. Dann nimmt der Nutzer ein Blatt auf, faltet dies, anschließend bewegt sich das Blatt in negativer Z-Richtung, d.h. es bewegt sich in Richtung Fußboden. Bei der letzten Blattbewegung sind nicht notwendigerweise eine oder beide Hände des Nutzers involviert. Das Blatt wird bspw. mittels einer Blattklassifikation ermittelt, d.h. zwei- oder dreidimensionale Daten der Kamera 185, welche zuvor durch Aufnahmen vom Blatt und einem Labelling der Aufnahmen erstellt worden ist. Der Begriff Blatt umfasst Papier und Materialien, die einen äquivalenten Effekt auf die Übung haben und/oder die ähnliche Dimensionen und ggf. auch Eigenschaften wie ein Blatt Papier aufweisen. [0104] Der Serviceroboter 17 fordert zu Beginn der Übung den Nutzer auf, ein Blatt zu nehmen 1205. Hierzu wird bspw. eine Sprachausgabe über einen Lautsprecher 192 des Serviceroboters 17 genutzt. Ergänzend oder alternativ kann auch eine Anzeige auf einem Display 2 eingesetzt werden oder eine Kombination aus beiden Wegen. Ab dem Aufforderungszeitpunkt setzt bspw. die Objekterkennung für das Blatt ein. Der Serviceroboter 17 fordert analog den Nutzer auf, das Blatt zu falten 1225, z.B. in der Mitte. Dabei beobachtet der Serviceroboter 17 den Faltvorgang und, nach Abschluss des Faltvorgangs, fordert der Serviceroboter 17 den Nutzer auf, das Blatt abzulegen oder fallenzulassen. Alternativ oder ergänzend können die Informationen zum Falten und/oder zum Ablegen oder Fallenlassen auch direkt im Anschluss an eine vorangegangene Aufforderung der gleichen Übung erfolgen.
[0105] In einem Aspekt kommt eine 3D-Kamera zum Einsatz wie eine Kinect oder Astra Orbbec. Die Herausforderung beim Erkennen von Elementen der Hand, d.h. Fingern, und dem daraus abgeleiteten Fingertracking 1230 liegt darin, dass aus Sicht der Kamera 185 einzelne Finger ggf. verdeckt sind und damit nicht direkt schätzbar sind. Dies ist bei Gesten der Fall, die ohne Gegenstand in der Hand auskommen. Wird hingegen von einer oder mehreren Händen ein Blatt gefaltet, so kann je nach Art des Faltvorgangs ebenso ein Teil der Finger verdeckt sein. Der Faltvorgang kann anhand der Fingerbewegungen 1235 bspw. dadurch erkannt bzw. als solcher klassifiziert werden, dass entweder mindestens ein Daumen und mindestens einen, besser mehrere Finger der gleichen Hand sich in Höhe der Fingerspitzen berühren 1240, d.h es erden bspw. mindestens zwei Finger erfasst und getrackt. Alternativ können sich auch ein oder mehrere Finger der einen Hand mit einem oder mehreren Fingern der anderen Hand berühren, z.B. im Bereich der Fingerkuppen 1245. In allen Fällen steht das Blatt mit mindestens einem Finger in Eingriff 1250. Bspw. befindet sich zwischen diesen Fingern das Blatt, das wie im folgenden Absatz beschrieben erkannt wird.
[0106] Das System und Verfahren stellt alternativ und/oder ergänzend auf die Erkennung eines Blatts und seiner Formänderung ab (Schritt 1252), wobei dieses Blatt in Kontakt mit mindestens einem Finger ist bzw. mit diesem in Eingriff ist. Hierbei stellt die Erkennung in einem Aspekt auf die vier Ecken des Blatts ab 1255, das sich in einer oder in beiden Händen des Nutzers befindet. Hierbei wird jede Ecke einzeln über den Zeitverlauf getrackt 1260 und die Distanz zwischen diesen Ecken ermittelt 1265. Dabei wird eine erfolgreiche Faltung bspw. dadurch erkannt, a) dass der Abstand von jeweils zwei Ecken im dreidimensionalen
Raum sich um mehr als 90% reduziert, bspw. sich um mehr als 98% reduziert 1270.
Alternativ und/oder ergänzend kann auch die Distanz zwischen zwei gegenüberliegenden Rändern des Blatts getrackt werden und bei Unterschreitung der Distanz um diese genannten Werte ein Faltvorgang erkannt werden. Ergänzend und/oder alternativ dazu wird (b) die Oberfläche des Blatts getrackt mit Blick auf deren Krümmung 1275. Hierzu ermittelt das Faltmodul jeweils die Mitte zwischen zwei Ecken 1277 und monitort (trackt) bspw. in diesen Bereichen die Krümmung des Blatts 1279. Eine erfolgreiche Faltung in diesem Fall 1280 wird dadurch erkannt, dass die Krümmung über den Zeitablauf in diesem Bereich zunimmt 1282, während sich die Blattkanten/Ränder nahe den Ecken in etwa parallel verhalten 1284 (d.h. insbesondere die, die gefaltet werden) und der Abstand der Blattkanten sich stark verringert 1285, bspw. auf einen Abstand von unter 2mm, womit eine Einzel-Erfassung der beiden etwa gleich großen Blattteile im Regelfälle nicht mehr möglich wird, da die Tiefenauflösung der Kamera 185 zwei aufeinanderliegende Blätter aufgrund der geringen Stärke der Blätter nicht erfassen kann. Ergänzend und/oder alternativ dazu wird (c) im Zeitverlauf auch die Fläche des Blatts im dreidimensionalen Raum erfasst, wobei eine Tiefe des Blatts von unter 2mm nicht oder nur schlecht detektiert wird. Eine Faltung des Blatts wird dadurch ermittelt, dass sich im Zeitablauf die Fläche des Blatts um mehr als 40%, z.B. um ca. 50% reduziert. Dieser Ansatz ist bspw. auch umsetzbar, ohne die Finger explizit zu analysieren und zu tracken. Alternativ und/oder ergänzend dazu wird (d) er Abstand der Enden eines Blattrands parallel zueinander erfasst und ausgewertet 1293 und, wenn der Abstand der Blattenden zueinander weniger als 20mm beträgt, eine Faltung erkannt 1294. Durch Kombination von zwei oder mehr dieser drei Erfassungsvarianten lässt sich die Erfassungsgenauigkeit insgesamt erhöhen. Sofern diese Übung erfolgreich absolviert wurde, d.h. das Blatt gefaltet wurde und es sich anschließend in Richtung Erdmittelpunkt 1295 bewegt, alternativ auf einer Ebene zum Liegen kommt 1297, wird dies in einer Datenbank vermerkt 1299, insbesondere in der Datenbank, in der die Testergebnisse gespeichert werden.
[0107] Zusammengefasst stellt Fig. 61 das System, bspw. einen Serviceroboter 17, zur Erkennung einer Faltübung dar: Das System umfasst einen Rechner 9, einen Speicher 10 und einen Sensor zur berührungslosen Erfassung der Bewegung einer Person wie bspw. eine 2D und/oder 3D-Kamera 185, einen LID AR 1, einen Radar- und/oder Ultraschall sensor 194 sowie über mehrere Module in seinem Speicher 10. Dazu zählt ein Blattdetektionsmodul 4705, ein Faltbewegungsermittlungsmodul 4710 zur Ermittlung einer Faltbewegung eines Blatts, ein Skelett-Erstellungs-Modul 5635 zur Erstellung eines Skelettmodell der Person, ein Blatt-Abstands-Ecken-Kanten-Modul 4720 zur Detektion des Abstands von Kanten und/oder Ecken eines Blatts, ein Blattformänderungs-Modul 4725 zur Detektion der Formänderung eines Blatts, ein Blattkrümmungs-Modul 4730 zur Detektion der Krümmung eines Blatts, ein Blattdimensions-Modul 4740 zur Detektion der Dimensionen eines Blatts, und/oder ein Blattrand-Orientierungs-Modul 4745 zur Detektion der Orientierung von Blatträndern. Weiterhin umfasst der Speicher 10 ein Fingerkuppen- Ab Stands-Modul 4750 zur Detektion des Abstands von Fingerkuppen von mindestens einer Hand und ein Blattdetektionsmodul 4705 zur Detektion eines Blatts, bspw. bestehend aus einem Blattsegmentierungsmodul 4755 zur Detektion eines Blatts und/oder einem Modul für die Blattklassifikation 4760. Ferner verfügt das System über eine Ausgabevorrichtung wie einen Lautsprecher 192 und/oder ein Display 2 zur Übermittlung von Instruktionen und über eine Schnittstelle 188 zu einem Terminal 13. In einem Aspekt verfügt das System über ein Personenerkennungsmodul 110, Personenidentifizierungsmodul 111, Trackingmodul (112, 113),
Bewegungsauswertungsmodul 120, Skelett-Erstellungs-Modul 5635 und/oder skelettmodell- basiertes-Merkmalsextraktions-Modul 5640. Vom Ablauf her erfolgt eine Erfassung, Identifizierung und Tracking mindestens einer Hand einer Person; eine Erfassung, Identifizierung und Tracking eines Blatts und eine gemeinsame Klassifizierung von Dimensionen, Formen und/oder Bewegungen des erfassten Blatts und Elementen einer Hand als Faltvorgang. In einem Aspekt erfolgt weiter eine Identifizierung des Blatts über einen fehlertoleranten Segmentierungsalgorithmus und bspw. eine Blattklassifikation und/oder Klassifikation eines Faltvorgangs basierend auf Vergleich mit zweidimensionalen oder dreidimensionalen Mustern, darunter Formmustern und/oder Bewegungsmustern.
Mini -Mental-Test: Satz-Übung
[0108] Im Rahmen des Tests kann der Serviceroboter 17 den Nutzer ferner auffordern, einen Satz spontan zu erdenken, bei dessen Auswertung Orthografie und Grammatik nicht relevant sind, der jedoch mindestens ein Subjekt und ein Prädikat enthalten muss. Hierzu fordert der Serviceroboter 17 über die Kommunikationsvorrichtungen (Display 2; Lautsprecher 192) die zu beurteilende Person auf, einen spontanen Satz sich auszudenken 1305 und diesen mit den Fingern auf das Touchpad des Serviceroboters 17 zu schreiben 1320. Dies kann über eine Displayausgabe 1310 oder eine Sprachausgabe 1315 erfolgen. In einem zweiten Aspekt wird hierfür ein Stift oder stiftähnlicher Gegenstand vom Serviceroboter 17 bereitgehalten 1320. In einem dritten Aspekt werden Stift und ein Blatt bereitgehalten, die die Person nutzen kann, um den Satz niederzuschreiben 1325 und der Serviceroboter 17 fordert die Person über die Kommunikationsvorrichtung dazu auf, das beschriebene Blatt vor eine Kamera 185 des Serviceroboters 17 zu halten 1330, um dieses aufzuzeichnen und im Speicher 10 des Serviceroboters 17 abzulegen. Dazu trackt die Sensorik (2D, 3D-Kamera 185) die Nutzerbewegungen 1335 bspw. mittels des visuellen-Personentracking-Moduls 112 und/oder des laserbasierten Personentracking-Moduls 113, nutzt die interne Objekterkennung eines Blatts (siehe vorige Ansätze) und erkennt, dass der Nutzer das Blatt vor der 2D-Kamera des Serviceroboters 17 hält 1340 und der Serviceroboter 17 erkennt das Blatt 1345, welches der Serviceroboter 17 mit der 2D-Kamera abfotografiert 1350.
[0109] In einem nächsten Prozessschritt findet eine OCR- Verarbeitung des im Foto enthaltenen Satzes statt 1355. Hierbei greift der Prozessor des Serviceroboters 17 auf entsprechende, etablierte Bibliotheken zur Bild- bspw. Textverarbeitung zurück, die eine OCR-Verarbeitung ermöglichen. Je nach Aspekt ist eine derartige Datenverarbeitung in der Cloud möglich. In einem weiteren Schritt wird ein Natural Language Parser 1360 genutzt, um die Existenz von Subjekt und Prädikat im Satz zu bestimmen. Dazu werden der erfasste Satz im ersten Schritt in einzelne Wörter zerlegt (Tokenization) 1365. Anschließend wird die Stammform der Wörter gebildet (Stemming und/oder Lemmatization) 1370. Anschließend findet das POS-Tagging (Part-of-Speech)-Tagging statt, über das die Wörter in Subjekt, Prädikat, Objekt usw. klassifiziert werden 1375. In diesem Kontext kann auch ein Ansatz auf Basis neuronaler Netze zum Einsatz kommen. Hierfür können Toolkits wie NLTK oder SpaCy genutzt werden. Die Ergebnisse werden im Schritt 1380 in einem Speicher abgelegt und es wird im nächsten Schritt 1385 verglichen, ob im vom Nutzer angegebenen Satz ein Subjekt und ein Prädikat Vorkommen. In diesem Fall wird in einer Datenbank hinterlegt, dass die Übung erfolgreich absolviert wurde (Schritt 1390).
Mini -Mental-Test: Fünfeck-Übung
[0110] Ein weiteres Element des Tests beinhaltet das Zeichnen von zwei Fünfecken, die sich üb er schnei den. Hierzu wird der zu beurteilenden Person in einem ersten Aspekt die Möglichkeit geboten, die Zeichnungen auf einem Display 2 anzufertigen, welches sich am Serviceroboter 17 befindet. In einem zweiten Aspekt befindet sich das Display 2 frei beweglich innerhalb des Raumes, indem sich Serviceroboter 17 und Nutzer befinden, ist jedoch drahtlos über eine Schnittstelle 188 (wie z.B. WLAN) mit dem Serviceroboter 17 verbunden. Die Zeichnung selbst kann hierbei entweder mit den Fingern oder mittels eines Tablet-geeigneten Stifts erfolgen. In einem dritten Aspekt kann die Zeichnung auf einem Blatt angefertigt werden, wobei die zeichnende Person vom Serviceroboter 17 mittels der Kommunikationsvorrichtungen aufgefordert wird, die fertige Zeichnung vor eine Kamera 185 des Serviceroboters 17 zu halten. Die Kamera 185 nimmt das Bild auf. Insofern verlaufen diese Prozesse analog zu denen, die in Fig. 13 in 1305 bis 1350 beschrieben wurden, mit dem Unterschied, dass es sich hier nicht um einen Satz handelt, der niedergeschrieben werden soll, sondern um die Zeichnung von Fünfecken.
[0111] Die erfassten Bilder werden vom Rechner mit solchen verglichen, die in einer Datenbank abgelegt sind, wobei ein Regelwerk 150 zum Einsatz kommt, dass die Merkmale eines Bildes mit Merkmalen klassifizierter Bilder vergleicht und basierend auf Wahrscheinlichkeiten eine Zuordnung übernimmt. Für die Klassifikationsmechanismen kommen Verfahren zum Tragen, die im Stand der Technik beschrieben sind und die zuvor auf Basis von automatisierten Trainings erstellt wurden, vor allem durch Verfahren neuronaler Netze. Alternativ können auch solche Klassifikationsmechanismen zum Tragen kommen, die ohne Training erstellt wurden und deren Klassifikationsmerkmale auf Basis charakteristischer Merkmale eines Fünfecks, von sich überlappenden Fünfecken in Form definierter Regeln festgelegt wurden (wie bspw. die Anzahl an Winkeln und Linien). Dies berücksichtigt bspw. abgerundete Kanten, ungerade Linienführungen und ggf. Linien, die kein geschlossenes Fünfeck bilden. Im Rahmen einer derartigen Auswertung können Glättungsansätze verwendet werden, um bspw. die Klassifizierung zu vereinfachen. Sofern ein Schwellwert im Ähnlichkeitsvergleich (z.B. Korrelation) zwischen der vom Serviceroboter 17 aufgezeichneten und im Regelwerk 150 hinterlegten Vergleichsmuster bzw. den Erkennungsregeln von zwei sich überlappenden Fünfecken erreicht wird, wird in einer Datenbank hinterlegt, dass die Übung erfolgreich absolviert wurde.
Manipulationserkennung
[0112] Der Serviceroboter 17 verfügt über eine Funktionalität, um Manipulationen durch Dritte beim Absolvieren der Übungen zu erkennen. Dazu erfasst die Sensorik, mit der auch der Nutzer und seine Aktivitäten analysiert werden, die Anwesenheit von weiteren Personen im Raum 1405. Hierbei wird analysiert, ob die Person(en) (inkl. Nutzer) während des Tests sich derart räumlich positionieren, dass sie Manipulationen am Serviceroboter 17 vornehmen können, d.h. ob sie sich in einer sogenannten kritischen Distanz zum Serviceroboter 17 befinden 1410. Zu den Manipulationen zählen, in einem Aspekt, die Eingabe der Daten auf einem Display 2 des Serviceroboters. Dabei wird der Abstand der Person vom Serviceroboter 17 ermittelt und dann auf mindestens einem der drei folgenden Wege bestimmt, ob die Person ausreichend dicht am Serviceroboter 17 positioniert ist, um ggf. Eingaben (insbesondere am Display 2) vornehmen zu können: a) es wird von einem pauschalen Distanzwert ausgegangen, bspw. 75cm. Wird dieser unterschritten, so geht der Serviceroboter 17 von einer Bedienbarkeit des Displays 2 aus (Schritt 1415). Alternativ und/oder ergänzend kann auch der Abstand der Hand und/oder Finger der Person zum Serviceroboter 17 detektiert werden, wobei der Abstand, ab wann von einer Manipulation ausgegangen wird, kürzer ist als der der Person an sich b) Es wird über das Skelettmodell die Armlänge der Person ermittelt 1420, insbesondere durch Ermittlung der Distanzen zwischen einem Schultergelenkpunkt und einem Handgelenkpunkt bzw. den Fingergelenkpunkten. Wird diese unterschritten, geht der Serviceroboter 17 von einer Bedienbarkeit aus 1425. c) es wird über die Größe der Person, die durch den Serviceroboter 17 ermittelt wird 1430, auf eine durchschnittliche Armlänge geschlossen 1435 (welche bspw. in dem Speicher 10 abgelegt ist) und, sobald diese Distanz unterschritten wurde, von einer Bedienbarkeit/Manipulierbarkeit ausgegangen 1425. Ergänzend zu diesen drei Ansätzen kann der Serviceroboter 17 die Positionierung der Person im Raum relativ zur Position des Displays 2 errechnen (Schritt 1440). Befindet sich bspw. die Ausrichtung der Schultern, Hüftgelenke, etc. bzw. die daraus abgeleitete Frontalebene der Person in etwa parallel zum Display 2 oder in einem Winkel von unter 45°, und ist die Person in Richtung des Displays 2 orientiert, wie sich bspw. aus der primären Bewegungsrichtung der Person ergibt, der Haltung der Arme, des Kopfes, der Knie, Füße, von Gesichtsmerkmalen, etc., so erhöht dies die Wahrscheinlichkeit einer Interaktion mit diesem. Dieser Ansatz ist, je nach Orientierung der Sensorik des Serviceroboters 17, auch für andere Elemente des Serviceroboters 17 anstelle eines Displays 2 realisierbar, bspw. eines Ausschaltknopfs. In so einem Fall wird anstelle der Ebene, die das Display 2 mit Bezug zur Person darstellt, eine virtuelle Ebene berücksichtigt, die orthogonal zur Symmetrieachse des Bedienelements 186 hin zum Zentrum des Serviceroboters 17 orientiert ist. In einem zweiten, optionalen Schritt analysiert die Sensorik, ob die Eingabe bzw. Manipulation des Serviceroboters 17 durch den Nutzer oder über eine Dritte Person erfolgt 1450. Dafür trackt der Serviceroboter 17 die Personen in seinem Umfeld auf Basis charakteristischer Merkmale 1445, wie im Stand der Technik allgemein beschrieben ist (bspw. auf Basis der Größe, Dimensionen der Gliedmaßen, Gangmerkmalen, Farbe und Textur seiner Oberfläche wie Kleidung, etc.), bspw. mittels des Visuellen-Personentracking-Moduls 112 und/oder des laserbasierten Personentracking-Moduls 113. Die Differenzierung in Nutzer und Dritte wird durch die Identifizierung am Serviceroboter 17 vorgenommen, wobei davon ausgegangen wird, dass die sich identifizierende Person der Nutzer ist. Dies geschieht mit Blick auf Eingaben über das Display 2 über die optischen Sensoren des Serviceroboters 17. Zusammengefasst kann hier eine Ermittlung einer Orientierung der Person relativ zum Serviceroboter 17 durch eine Ermittlung des Winkels zwischen der Frontal ebene der Person und der senkrecht auf den Bedienelementen 186 des Serviceroboters 17 stehenden Achse, jeweils in eine horizontale Ebene projiziert, und ein Vergleich des ermittelten Winkels mit einem Schwellwert, wobei Unterschreiten des Schwellwerts eine Detektion einer erhöhten Manipulationswahrscheinlichkeit umfasst, erfolgen. In einem Aspekt kann eine Registrierung der Person am Serviceroboter 17 und Erfassung und Speicherung von
Identifikationsmerkmalen der Person erfolgen, gefolgt bspw. von der Erfassung und Tracking der Person, Erfassung von Identifikationsmerkmalen der Person, Vergleich der erfassten Identifikationsmerkmale mit den bei der Registrierung abgespeicherten Identifikationsmerkmalen der Person und Vergleich mit einem Schwellwert, wobei hier Ähnlichkeiten verglichen werden und ein Schwellwert eine Mindestähnlichkeit impliziert. Dabei erfolgt eine Detektion einer erhöhten Manipulationswahrscheinlichkeit, sofern der Schwellwert unterschritten wird und Detektion einer niedrigeren
Manipulationswahrscheinlichkeit, sofern der Schwellwert überschritten wird. Zum Abschluss kann eine Multiplikation der ermittelten Manipulationswahrscheinlichkeiten zur Ermittlung eines Manipulationsscores erfolgen, der bspw. bei oder nach Durchführungen von Auswertungen durch den Roboter mit der erfassten Person zusammen mit den Auswertungsergebnissen abgespeichert wird. Je nach Art des Vergleichs können auch andere Interpretationen erfolgen, wie bspw. einleitend dargestellt wurde.
[0113] Fig. 62 stellt in Aspekt eines Systems zur Manipulationserkennung dar. Das System, bspw. ein Serviceroboter, umfasst einen Rechner 9, einen Speicher 10 und einen Sensor zur berührungslosen Erfassung der Bewegung mindestens einer Person, bspw. eine 2D und/oder 3D-Kamera 185, einen LID AR 1, einen Radar- und/oder Ultraschall sensor 194. Das System umfasst Module mit Regeln in seinem Speicher 10. Dazu zählen bspw. ein Manipulationsversuchs-Detektionsmodul 4770 durch mindestens eine Person, die im Umfeld des Systems detektiert wird, ein Personenidentifizierungsmodul 111, ein Person-Roboter- Abstandsermittlungs-Modul 4775 zur Ermittlung des Abstands der mindestens einen Person zum Serviceroboter 17, ein Größe- Armlänge-Orientierungs-Modul 4780 zur Ermittlung der Größe, der Armlänge und/oder Orientierung der mindestens einen Person, und/oder ein Eingabe-Registrierungs-Vergleichsmodul 4785 zum Abgleich, ob eine vom System identifizierte Person Eingaben am System vornimmt, bspw. über die Bedienelemente 186. Darüber hinaus verfügt das System bspw. über eine Ausgabevorrichtung wie einen Lautsprecher 192, ein Display 2 zur Übermittlung von Instruktionen und/oder eine Schnittstelle 188 zu einem Terminal 13. In einem Aspekt verfügt das System über ein Personenerkennungsmodul 110, Trackingmodul (112, 113), Bewegungsauswertungsmodul 120, Skelett-Erstellungs-Modul 5635, skelettmodell-basiertes-Merkmalsextraktions-Modul 5640 und/oder einen Bewegungsplaner 104.
[0114] Um auszuschließen, dass Dritte lediglich auf Weisung des Nutzers Eingaben vornehmen, werden durch vorhandene Mikrofone 193 die verbale Kommunikation zwischen den Personen ausgewertet 1455 (in Fig. 14). Dazu werden im Umfeld des Serviceroboters 17 über mindestens ein integriertes Mikrofon 193 Sprachsignale aufgezeichnet 1560. Eine Identifizierung der Sprechquelle wird auf zwei alternativen oder ergänzenden Wegen umgesetzt, bspw. ebenfalls im Sprachauswertungsmodul 132. Einerseits kann hierzu eine visuelle Auswertung der Lippenbewegungen vorgenommen werden, die zunächst identifiziert 1565 und getrackt werden 1570 und dann mit den vom Serviceroboter 17 aufgezeichneten Sprachsignalen zeitlich synchronisiert werden 1575. Für die Erkennung der Sprechbewegungen der Lippen werden Bilderkennungs- und Trackingverfahren aus dem Stand der Technik herangezogen. Damit kann der Serviceroboter 17 zuordnen, von wem die registrierte Sprache kommt und ob sie mit dem Nutzer übereinstimmt, der die Übung durchführen soll, wobei bspw. die Sprache des Nutzers erfasst wird, wenn sich dieser am Serviceroboter 17 identifiziert. In gegenteiligen Fall könnte eine Manipulation vorliegen 1580. Ein Nachteil dieses Ansatzes ist, dass ggf. die Lippenbewegungen von Dritten, deren Körperhaltung nicht dem Serviceroboter 17 zugerichtet ist, ggf. nur schwer bis gar nicht erfasst werden können. Der zweite Weg, der diese Problematik umgeht, besteht aus der Tonanalyse von mehreren Mikrofonen 193 (Schritt 1480), die an verschiedenen Positionen des Serviceroboters 17 angebracht sind und die über mehrere Kanäle im Zeit- und Frequenzverlauf aufgezeichnet werden, wobei der Prozessor des Serviceroboters 17 eine Laufzeitanalyse vornimmt 1485 und aus dem zeitlichen Versatz, wann die Signale ankommen, errechnet, von welcher Person sie stammen 1490. Alternativ und/oder ergänzend kann auch ein Mikrofon 193 eingesetzt werden, wobei in dem Falle eine Triangulation durch Positionswechsel des Serviceroboters 17 vorgenommen werden kann. Dazu werden bspw. die Zeitverläufe korreliert mittels des errechneten zeitlichen Versatzes über Triangulation die Herkunft im Raum bestimmt (was zwei- oder dreidimensional geschehen kann). Diese wird dann mit der Positionierung der Personen im Raum, die durch die 2D- oder 3D-Kamera(s)
185 bzw. dem LID AR 1 ermittelt wird, abgeglichen, so dass der Serviceroboter 17 auf diesem Weg feststellen kann, welche Person gesprochen hat 1495. Handelt es sich um die Dritte Person (und nicht den Nutzer), der die Sprachsignale zugeordnet werden, so könnte eine Manipulation vorliegen 1498. Daraufhin kann ein Wert in einem Speicher angepasst werden und, in einem Aspekt, ein Hinweis oder eine Fehlermeldung im Nutzerdialog generiert werden.
[0115] Nun kann es sein, dass die weitere Person dem Nutzer nur bei der Eingabe assistiert, d.h. keine eigenen Eingaben vomimmt, sondern nur das Gesprochene, aufgezeichnete usw. in den Serviceroboter 17 über das Display 2 oder die Mikrofone 193 eingibt. Elm diese Möglichkeit zu prüfen, werden die aufgezeichneten Wortsequenzen insofern analysiert, dass sie den einzelnen Personen über mindestens einen der bspw. in vorangegangenen Abschnitten aufgezeigten Wege zugeordnet werden 1505. Fig. 15 illustriert die Eckpunkte dieses Vorgehens. Alternativ oder ergänzend dazu kann die Sprache im Elmfeld des Serviceroboters 17 aufgezeichnet werden 1510 und eine Differenzierung der Sprecher aufgrund unterschiedlicher Sprachmerkmale/Sprachcharakteristika vorgenommen werden 1515, darunter vor allem der Sprachfrequenzen (insbesondere Fundamentalfrequenzen), unterschiedlicher Sprachintensität und/oder unterschiedlicher Sprachgeschwindigkeit vorgenommen werden, insbesondere innerhalb des Sprachauswertungmoduls 132. Dieses Verfahren in Kombination mit den aus Fig. 14, die Sprachsignale von Personen entweder durch Lippentracking oder Ortung aufgrund von Sprachsignallaufverhalten nutzen, ermöglicht es, einmal identifizierte Sprachsignale den Personen zuzuordnen, ohne jedes Mal erneut die Lippenbewegungen und/oder räumliche Position der Sprecher ermitteln zu müssen und ggf. mit den 2D/3D-Personentrackingergebnissen abgleichen zu müssen. Dieses Matching der Personen mit den Sprachcharakteristika 1520 erlaubt es, Sprache aufzuzeichnen und gleichzeitig nutzerbezogen zu tracken 1525. Die jeweils aufgezeichneten und im Speicher 10 des Serviceroboters 17 abgelegten Sequenzen werden inhaltlich insofern analysiert, als dass nach „Vorsage- Verhalten“ gesucht wird, d.h. es wird überprüft, ob dieselben Textfragmente bzw. Sprachfragmente /Sprachmuster zeitlich hintereinander mehrmals Vorkommen 1530 und von unterschiedlichen Personen stammen 1535, was über ein Tagging der Muster und der den Personen zugeordneten Sprachcharakteristika wie den Fundamentalfrequenzen geschieht (alternativ und/oder ergänzend können auch die in Fig. 14 genannten Ansätze genutzt werden). Unter Textfragmenten, Sprachfragmenten bzw. Sprachmustern werden bspw. gleiche Worte und/oder Wortfolgen verstanden. Hierbei ist für eine Bewertung dieser Sequenzen mit Blick auf die Assistenz des Nutzers oder der Manipulation des Serviceroboters 17 relevant, von welcher Person eine relevante Sequenz erstmalig genannt wurde. Ist dies der Nutzer 1565, so ist von keiner Manipulation auszugehen, sondern von einer Assistenztätigkeit der Dritten Person 1570. Stammt sie erstmalig von der Dritten Person, so ist von einer Manipulation auszugehen 1575. Dazu wird im ersten Schritt geprüft, ob ein Sprachfragment zuerst von einer Person aufgezeichnet wurde, die nicht der Nutzer ist, bevor der Nutzer dieses Sprachsegment wiederholt. Hierfür werden Korrelationen, insbesondere im Zeitbereich, vorgenommen, um nach identischen Worten zu suchen. Hierbei wird insbesondere untersucht, ob mehr als ein einzelnes, hintereinander vorkommendes Wort wiederholt wird. Ergänzend oder alternativ zur Korrelationsanalyse der Sprachsequenzen ist auch eine lexikalische Analyse mittels Natural Language Processing möglich 1545, bei dem Worte wie bspw. in vorangegangenen Absätzen analysiert und die Sequenz der getaggten Wörter verglichen wird, basierend bspw. auf Tokenisation, Lemmatisation und Part-of-Speech-Tagging, z.B. mittels spaCy oder NLTK in Python. Dieses Vorgehen ermöglicht es weiterhin zu überprüfen, ob ein „Vorsagen“ nicht etwa vom Nutzer akustisch für die Aufzeichnung durch den Serviceroboter 17 wiederholt wird, sondern direkt eine entsprechende Eingabe durch den Nutzer in den Serviceroboter 17 erfolgt. Denn nur solche wiederholten Sprachsegmente/-muster sind von Relevanz, die auch im Rahmen des Tests vom Serviceroboter 17 erfasst und inhaltlich ausgewertet werden, bspw. in Form eines Formulars, das an den Nutzer gerichtete Fragen beantworten soll 1540. Dazu werden textuelle Eingaben im Serviceroboter 17 („Freitext“) als auch menügeführte Eingaben (Auswahloptionen) entsprechend ebenfalls durch Natural Language Processing 1550, alternativ durch abgespeicherte Sprachsignale verglichen, die die Menüauswahl wiedergeben 1555, analysiert und die Sprachaufzeichnungen Dritter mit den Nutzereingaben verglichen 1560. Wird bei diesen hier beschriebenen Ansätzen zur Manipulationserkennung erkannt, dass eine Eingabe bzw. Aufzeichnung des Nutzers durch Dritte vorgenommen wird bzw. durch Dritte ein „Vorsagen“ stattfindet, wird im Speicher 10 des Serviceroboters 17 vermerkt, dass eine Manipulation stattgefunden hat 1580.
[0116] Zusammengefasst umfasst das Verfahren zur Ermittlung einer
Manipulationswahrscheinlichkeit die Erfassung und das Tracking mindestens einer Person im Umfeld des Roboters durch einen berührungslosen Sensor, die Ermittlung der Position der Person im Umfeld des Roboters, die Aufzeichnung und Auswertung von Audiosignalen, die Positionsermittlung der Quelle der Audiosignale, einen Vergleich der ermittelten Position der Person und der Position der Quelle der Audiosignale und Vergleich der Positionsdifferenz mit einem Schwellwert und die Ermittlung einer Wahrscheinlichkeit für eine Manipulation des Roboters auf Basis des Vergleichs der Positionsdifferenz mit dem Schwellwert. Dabei kann die Positionsermittlung der Quelle der Audiosignale über eine Erfassung der Richtung der Audiosignale durch mindestens ein Mikrofon und Triangulation der ermittelten Richtungen erfolgen, bspw. auch durch einen Positionswechsel des Serviceroboters 17 oder durch ein zweites Mikrofon. Die Positionsermittlung der Quelle der Audiosignale umfasst die Erfassung der Richtung des Audiosignals durch ein Mikrofon, die Ermittlung der Position mindestens einer Person durch den berührungslosen Sensor, die Triangulation der Richtung des Audiosignals und der ermittelten Position der Person. Weiterhin erfolgt bspw. die Auswertung des Gesichts der Person, die Erfassung der Lippenbewegungen im Zeitablauf, ein zeitlicher Vergleich der erfassten Audiosignale (bspw. mittels Korrelationsauswertungen) mit den erfassten Lippenbewegungen in Relation zu einem Schwellwert und bei Überschreitung des Schwellwerts eine Zuordnung der erfassten Audiosignale zur erfassten Person. Das Verfahren kann ebenfalls die Registrierung der Person am Roboter (als Nutzer) und eine Erfassung und Speicherung von Identifikationsmerkmalen der Person (als Nutzer) beinhalten, wobei Identifikationsmerkmale Frequenz, Intensität, und/oder Spektrum der Audiosignale von der Person umfassen, bspw. weiterhin eine Erfassung und Tracking der Person, eine Erfassung von Identifikationsmerkmalen der Person, ein Vergleich der erfassten Identifikationsmerkmale mit den im Rahmen der Registrierung der Person am Roboter abgespeicherten Identifikationsmerkmalen der Person und ein Vergleich mit einem Schwellwert (d.h. Aufweisen einer Mindestähnlichkeit), die Registrierung von Eingaben der Person an den Bedienelemente (186) und eine Zuordnung, ob eine registrierte Person (ein Nutzer) Eingaben an den Bedienelementen (186) vornimmt. Bspw. kann eine Ermittlung einer erhöhten Wahrscheinlichkeit für eine Manipulation des Roboters erfolgen, wenn eine nicht registrierte Person Eingaben an den Bedienelementen (186) des Roboters vornimmt. Das Verfahren kann darüber hinaus bspw. weiter umfassen: eine Ermittlung von Wörtern und/oder Wortsequenzen in den erfassten Audiosignalen bzw. Audiosequenzen, eine Zuordnung der ermittelten Wörter und/oder Wortsequenzen zu erfassten Personen, eine Ermittlung einer erhöhten Wahrscheinlichkeit für eine Manipulation des Roboters, wenn ein Vergleich der ermittelten Wortsequenzen eine Wort- und/oder Wortsequenz-Differenz ergibt, die über einem Schwellwert liegt, d.h. dass eine Mindestkorrelation nicht erreicht wird. Weiterhin kann das Verfahren bspw. die Ermittlung von Worten oder Wortsequenzen, die von der Person über ein Bedienelement (186) eingegeben werden, die Ermittlung von Wörtern und/oder Wortsequenzen in den erfassten Audiosignalen, die Zuordnung der ermittelten Wörter und/oder Wortsequenzen aus den erfassten Audiosignalen zu erfassten Personen, die Erfassung von Identifikationsmerkmalen der Person, die Ermittlung einer erhöhten Wahrscheinlichkeit für eine Manipulation des Roboters, wenn ein Vergleich der über die Bedienelemente (186) eingegebenen Wortsequenzen mit aus den erfassten Audiosignalen ermittelten Wortsequenzen eine Wort- und/oder Wortsequenz-Mindestähnlichkeit und zugleich eine Mindestähnlichkeit der erfassten Identifikationsmerkmale der Person mit den bei der Registrierung erfassten und abgespeicherten Identifikationsmerkmalen.
[0117] Fig. 58 stellt die Architektursicht für das System zur Manipulationserkennung auf Basis von Audiosignalen dar. Dazu gehört ein Rechner 9, ein Speicher 10 und ein Sensor zur berührungslosen Erfassung der Bewegung einer Person, die im Umfeld des Systems detektiert wird, mindestens ein Mikrofone 193, ein Personen-Positions-Ermittlungs-Modul zur Ermittlung der Position einer Person im Raum 4415, ein Audioquellen-Positionsermittlungs- Modul zur Bestimmung der räumlichen Herkunft eines Audiosignals 4420, ein Modul zur Korrelation von zwei Audiosignalen 4025, ein Audiosignal-Personen-Modul 4430 zur Zuordnung von Audiosignalen zu einer Person, und/oder ein Sprachauswertungsmodul 132. Ferner existiert ein Eingabe-Registrierungs-Vergleichsmodul 4785 zum Abgleich, ob eine vom System identifizierte Person Eingaben am System vornimmt. Das System verfügt ferner über ein Audiosequenz-Eingabe-Modul 4435 zum Vergleich einer Audiosequenz (d.h. einer Tonfolge, die bspw. Worte wiedergibt) mit einer Sequenz taktil eingegebener Buchstaben. Es gibt daneben bspw. eine Ausgabevorrichtung wie einen Lautsprecher 192 und/oder ein Display 2 zur Übermittlung von Instruktionen. Über eine Schnittstelle 188 (z.B. WLAN) kann eine Verbindung zu einem Terminal bestehen. Beim Sensor zur berührungslosen Erfassung der Bewegung einer Person handelt es sich um eine 2D und/oder 3D-Kamera 185, einen LID AR 1, einen Radar- und/oder Ultraschall sensor 194. In einem Aspekt verfügt das System über ein Personenerkennungsmodul 110, Personenidentifizierungsmodul 111, Trackingmodul (112, 113), Bewegungsauswertungsmodul 120, Skelett-Erstellungs-Modul 5635 und/oder skelettmodell-basiertes-Merkmalsextraktions-Modul 5640.
Prüfung von Beeinträchtigungen des Nutzers
[0118] Bei den Nutzern handelt es sich vornehmlich um Senioren, die neben einer möglichen kognitiven Beeinträchtigung, welche mittels der in dieser Patentanmeldung beschriebenen Vorgehensweisen geprüft werden soll, auch unter Hör- und Sehbeeinträchtigungen leiden könnten, welche möglicherweise die Testergebnisse verfälschen. Um die Genauigkeit der Testergebnisse zu verbessern, ist der Serviceroboter 17 in einem Aspekt derart konfiguriert, dass der Serviceroboter 17 vor Beginn der Übungen einen kurzen Hörtest, ergänzend oder alternativ dazu einen kurzen Sehtest, mit dem Nutzer durchführt. Die hier ablaufenden Verfahrensschritte sind im Wesentlichen in Fig 16 dargestellt. Der Serviceroboter 17 weist den Nutzer zunächst über eine Bildschirmausgabe und/oder akustische Ausgabe optional auf die Problematik hin, dass möglicherweise Verständnisprobleme auftreten könnten und deshalb eine Kalibrierung des Serviceroboters 17 an den Nutzer notwendig ist. Der Seh- und/oder Hörtest stellt eine solche Kalibrierung dar. Dann fordert der Serviceroboter 17 den Nutzer auf, an der Kalibrierung teilzunehmen 1605.
[0119] Im Rahmen eines kurzen Hörtests fordert der Serviceroboter 17 den Nutzer auf, im Menü auf dem Display 2 entsprechende Felder zu drücken, wenn der Nutzer bestimmte Töne gehört hat. Alternativ oder ergänzend dazu ist auch eine Spracheingabe für den Nutzer möglich, die wiederum mittels Verfahren des Natural Language Processings, wie es im Stand der Technik beschrieben ist, ausgewertet wird, bspw. innerhalb des Sprachauswertungsmoduls 132. Der Serviceroboter 17 spielt anschließend eine Folge von Tönen unterschiedlicher Frequenz und unterschiedlicher Lautstärke ab, die aber einzeln im Wesentlichen eine konstante Frequenz und Laustärke haben 1610, und „erfragt“ jedes Mal, ob der Ton vom Nutzer gehört wurde, was bspw. dadurch geschehen kann, dass der Serviceroboter 17 ein Display 2 mit Eingabeoptionen dem Nutzer präsentiert, über das der Nutzer angeben kann, inwieweit der den Ton gehört hat 1615. Dabei werden die Töne im Zeitablauf in einem Aspekt leiser und höher frequent 1620. Es ist jedoch auch eine andere Reihenfolge diesbzgl. denkbar. Die Antworten des Nutzers werden erfasst. Es wird anschließend ein Score ermittelt 1625, der angibt, in welchem Umfang der Nutzer die Töne gehört hat. Sofern der Nutzer bspw. bestimmte Schwellwerte im Hörverhalten nicht erreicht, d.h. der Serviceroboter 17 über seine entweder Bildschirmmenü-geführten oder Sprachmenü- geführten und entsprechend ausgewerteten Antworten vorab definierte Grenzwerte bei positiven Antworten nicht erreichen (z.B. nur drei von sieben Tönen erkannt), kann daraus ein entsprechender Score-Wert ermittelt werden. Dieser Score wird in einem Aspekt in einer Datenbank im Serviceroboter 17 hinterlegt 1630, z.B. zusammen mit Nutzerinformationen, die den medizinischen Zustand der Person charakterisieren. Alternativ oder ergänzend dazu kann der Serviceroboter 17 auch über die Lautstärke der Antworten, die der Nutzer gibt, bspw. relativ zum Umgebungsgeräuschpegel 1635, der über mindestens ein weiteres Mikrofon 193 aufgezeichnet wird, ermitteln, ob der Nutzer einen Bedarf an einer höheren Lautstärke der vom Serviceroboter 17 ausgegebenen Signale hat. In einem ergänzenden und/oder alternativen Aspekt wird die Lautstärke der Ausgabe akustischer Signale des Serviceroboters 17 entsprechend angepasst, bspw. erhöht, wenn sich auf mindestens einem dieser beschriebenen Wege herausstellt, dass der Nutzer schwerhörig ist.
[0120] Im Rahmen eines kurzen Sehtests fordert der Serviceroboter 17 den Nutzer auf, im Menü auf dem Display 2 entsprechende Felder zu drücken, wenn der Nutzer bestimmte Buchstaben oder anderweitige Symbole erkennen kann 1650. Alternativ oder ergänzend dazu ist auch eine Spracheingabe für den Nutzer möglich, die wiederum mittels Verfahren des Natural Language Processings, wie es im Stand der Technik beschrieben ist, vorgenommen wird. Der Serviceroboter 17 spielt anschließend eine Folge von Zeichen bzw. Bildern auf dem Display 2 ab 1655. Der Nutzer signalisiert im Schritt 1660 dabei, ob der Nutzer das Zeichen erkannt hat oder nicht bzw. welches Zeichen der Nutzer erkannt hat. Dabei werden die Zeichen bzw. Bilder im Zeitablauf in einem Aspekt kleiner (Schritt 1665). Es ist jedoch auch eine andere Reihenfolge diesbzgl. denkbar. Ergänzend und/oder komplementär dazu sind auch unterschiedliche Farbmuster möglich, um eine etwaige Farbblindheit des Nutzers zu erkennen. Die Antworten des Nutzers werden erfasst. Die Ergebnisse des Tests werden in Form eines Scores abgebildet 1670. Wenn bspw. der Nutzer bestimmte Schwellwerte der Sehfähigkeit nicht erreicht bzw. eine Farbblindheit festgestellt wird, d.h. eine bestimmte Anzahl an Objekten/Mustem nicht erkannt wird (wie bspw. drei von sieben), beeinflusst dies den Score wird dies in einem Aspekt in einer Datenbank im Serviceroboter 17 hinterlegt 1675. In einem ergänzenden und/oder alternativen Aspekt wird die Größe der Buchstaben bei der Ausgabe von Textelementen auf dem Display 2 des Serviceroboters 17 entsprechend angepasst, ggf. auch die Menügestaltung, um entsprechende Menüpunkte mit größeren Buchstaben darstellen zu können 1680. Weiterhin kann auch die Farbgebung des Displays 2 in einem ergänzenden Aspekt angepasst werden, um damit im Falle einer Farbblindheit ein besseres Erkennen des Displaymenüs zu ermöglichen. Weiterhin ist in einem ergänzenden und/oder alternativen Aspekt es möglich, dass der Serviceroboter 17 den Abstand zum Nutzer variiert, bspw. bei Nutzern mit Sehschwierigkeiten dichter an den Nutzer heranfährt 1695. Dazu wird im Navigationsmodul 101 ein Parameterwert temporär modifiziert, der die übliche Distanz zwischen Nutzer und Serviceroboter 17 definiert 1690. Zu guter Letzt können auch die Kontraste und/oder die Helligkeit des Displays 2 des Serviceroboters 17 an die Umweltbedingungen angepasst werden unter Berücksichtigung der Sehfähigkeiten des Nutzers 1685. Verbesserung der Signalverarbeitungsqualität durch Adaption an Umwelteinflüsse
[0121] Unabhängig von den Seh- und Hörtests, aber auch unter Berücksichtigung der Nutzerbeeinträchtigungen ist der Serviceroboter 17 in einem weiteren Aspekt der Lage, die Ein- und Ausgabeeinheiten an die Umwelt derart anzupassen, dass eine Bedienung bei unterschiedlichen Helligkeitsgraden und/oder Geräuschkulissen möglich ist. Hierzu verfügt der Serviceroboter 17 über einen handelsüblichen Helligkeitssensor in Displaynähe, um zu ermitteln, wie viel Licht auf das Display 2 fällt. Dabei wird der Helligkeitswert des Displays 2 an die Umgebung angepasst, d.h. vor allem bei intensivem Lichteinfall, die Helligkeit des Displays 2 zu erhöhen und bei niedrigen Helligkeitswerten die Helligkeit des Displays 2 zu reduzieren. Alternativ oder ergänzend ist der Serviceroboter 17 in der Lage, durch ein oder mehrere Mikrofone 193 die Geräuschkulisse im Hintergrund zu ermitteln. Dies kann in einem Aspekt dazu führen, dass bei einem erhöhten Geräuschpegel auch die Lautstärke der akustischen Ausgaben des Serviceroboters 17 lauter erfolgt, bei niedrigem Geräuschpegel dagegen abgesenkt wird. In einem ergänzenden oder alternativen Aspekt zeichnet mindestens ein weiteres Mikrofon 193 die Hintergrundgeräusche auf und nutzt Noise Cancellation-(d.h. Geräuschunterdrückungs-)Verfahren (Phasenverschiebungen des Eingangssignals um die aufgezeichneten Hintergrundgeräusche), um die Signalqualität des akustischen Eingangssignals zu verbessern und damit eine verbesserte Sprachverarbeitung zu ermöglichen, um so bspw. Erfassungsfehler zu vermeiden, das erneute Stellen einer Frage oder Aufforderung durch den Serviceroboter 17, usw.
[0122] Des Weiteren erfragt der Serviceroboter 17 als Maßnahme zur
Genauigkeitsverbesserung der Testergebnisse, ob die zu evaluierende Person Schmerzen hat, wobei auch die Intensität der Schmerzen erfragt wird. Die Interaktion zwischen dem Serviceroboter 17 und der zu evaluierenden Person erfolgt hierbei via der an anderer Stelle bereits beschriebenen Kommunikationsvorrichtung. Eine solche Information wird im Datenbankrecord des Nutzers abgelegt.
[0123] Der Serviceroboter 17 erhält ferner als weitere Maßnahme zur
Genauigkeitsverbesserung der Testergebnisse aus dem Patientenadministrationsmodul 160 die Information, wann der Patient in die Klinik eingewiesen wurde, in der das Test stattfindet, und errechnet die Dauer des bisherigen Aufenthalts, um dem Abfall kognitiver Leistung durch stationäre Klinikkaufenthalte Rechnung zu tragen. Zugleich wird im Patientenadministrationsmodul 160 erfasst, ob der Patient bereits eine Diagnose zu einer Krankheit erhalten hat. Diese Information wird bei der Darstellung des Ergebnisses des Mini- Mental-Tests ebenfalls berücksichtigt und im Datenbankrecord des Nutzers abgelegt.
[0124] Der Serviceroboter 17 überträgt die Ergebnisse der abgespeicherten, oben beschriebenen Testaufgaben über eine Schnittstelle 188 (wie z.B. WLAN) an das Patientenadministrationsmodul 160 und stellt sie auf diese Art und Weise dem medizinischen Personal zur Verfügung, wobei zugleich auch eine Dokumentation der Ergebnisse erfolgt.
Spektrometrische Messungen am Patienten
[0125] In einem Aspekt ist der Serviceroboter 17 derart konfiguriert, dass der Serviceroboter 17 in der Lage ist zu ermitteln, ob ein Patient bestimmte Ausscheidungen über die Haut aufweist, die in einem Aspekt auf bestimmte Erkrankungen hindeuten, die sich darüber diagnostizieren lassen. So kann der Serviceroboter 17 bspw. ermitteln, ob und ggf. auch wie stark ein Patient im Bett schwitzt. Hierbei kann bspw. ein Spektrometer 196 eingesetzt werden wie ein Nahinfrarot-Spektrometer, in einem anderen Aspekt auch ein Raman- Spektrometer. Die Prozesse um die Messung von Ausscheidungen 2100 sind in Fig. 21 dargestellt. Hierbei sind jeweils Messungen an verschiedenen Stellen des Körpers möglich. Exemplarisch wird das Vorgehen für drei Stellen beschrieben: an den Händen, auf der Stirn, und eine Messung auf dem Rumpf, insbesondere dem Bettzeug. Detektion von Schweiß an diesen Stellen sind bspw. Bestandteil des Delirium Detection Score, eines weiteren Tests, um Delir bei Patienten nachzuweisen.
[0126] Der Serviceroboter 17 ist derart konfiguriert, dass der Serviceroboter 17 mittels eines 3D-Sensors, bspw. einer 3D-Kamera, einen Patienten in einem Bett aufzeichnen kann. Dazu ist dieser Sensor bspw. derart am Serviceroboter 17 positioniert, dass der Serviceroboter 17 sich in einer Höhe von mindestens 80cm, z.B. mindestens 1,2m Höhe befindet und bspw. dreh- und/oder kippbar gelagert ist.
[0127] Der Serviceroboter 17 ist in der Lage, basierend auf einer Objekterkennung Betten zu identifizieren 2105. Dazu kann der Serviceroboter 17, in einem Aspekt, über den 2D oder 3D- Sensor, bspw. den LID AR 1, den Raum abtasten, von dem a priori bekannt ist, dass ich in diesem Raum Betten befinden. Alternativ und/oder ergänzend können Dimensionen auch über eine im Speicher 10 hinterlegte Karte ermittelt werden, die bspw. Rauminformationen wie die Breite und Tiefe eines Raums beinhaltet. Auf diese Art und Weise werden die Raumdimensionen ausgewertet 2110. Der Serviceroboter 17 kann zudem die Dimensionen gemessener Objekte ermitteln 2115, bspw. durch Triangulation in Verbindung mit einer implementierten Odometrie-Einheit 181 (Schritt 2120), die die Positionsabweichungen des Serviceroboters 17 ermitteln kann. Die Dimensionen der gemessenen Objekte im Raum relativ zu den Rauminformationen werden ermittelt 2122, wozu kein Rückgriff auf die Odometriefunktion notwendig ist. Die ermittelten Dimensionen, vor allem die äußeren Abmaße des Betts, werden auf Basis von in dem Speicher 10 abgelegten Regeln klassifiziert, um darüber zu ermitteln, ob es sich dabei um ein Bett handelt 2124. Dazu zählen in einem Aspekt die Dimensionen, die ein Bett einnehmen kann. In ergänzenden und/oder alternativen Aspekten kann eine Klassifizierung der von dem LID AR 1 und/oder der 2D und/oder 3D- Kamera 185 erkannten Objekte auch auf Basis charakteristischer Merkmale erfolgen, welche ein Bett eindeutig identifizieren 2125. Dabei kann es sich um die Ausgestaltung der Räder des Betts und/oder die Hubvorrichtung zur Höhenverstellung des Betts handeln. Es können aber auch Klassifikationsregeln genutzt werden, die durch das Erlernen typischer Bettmerkmale auf Basis von Verfahren des maschinellen Lernens und/oder neuronaler Netze erstellt wurden. Alternativ und/oder ergänzend können die Betten auch mit Sensorik und/oder Barcodes ausgestattet sein 2130, bspw. RFID- oder Bluetooth-Sendern, die eine Bettidentifizierung zulassen.
[0128] In einem Aspekt lässt sich über die Positionierung der Sensoren am Bett eine Ermittlung der Orientierung des Betts im Raum ermitteln 2140, bspw. dadurch, dass Backscatter-Signale genutzt werden, welche unterschiedlich am Bettgestell reflektiert werden und über die Laufzeit- und/oder Phasendifferenzen die Orientierung des Betts im Raum ermitteln lassen. Barcodes können ebenfalls derart am Serviceroboter 17 befestigt sein, dass ein Auslesen die Ermittlung einer räumlichen Orientierung des Betts erlaubt. Die in der Sensorik und/oder den Barcodes hinterlegten Codes werden durch den Serviceroboter 17 ausgelesen und mit solchen verglichen, welche im Speicher 10 des Serviceroboters 17 hinterlegt sind und die Betten zugeordnet sind, womit der Serviceroboter 17 feststellen kann, dass der ausgelesene Sensor und/oder Barcode einem Bett zugewiesen ist. Alternativ und/oder ergänzend, vor allem aber dann, wenn ein Bett auf Basis seiner Dimensionen als solches erkannt wurde 2124, kann die Orientierung des Betts im Raum über die Bettdimensionen erfolgen, in einem Aspekt auch über einen Abgleich der Position zur nächsten Wand 2135: Das heißt, der Serviceroboter 17 ermittelt auf Basis von a-prior-Informationen die Orientierung des Betts, insbesondere des Kopfendes, wobei die a-priori-Information darauf abzielen, dass ein Bett eine im Wesentlichen rechteckige Form aufweist, deren kürzere Seiten entweder das Kopf- oder Fußende darstellen. Dabei wird die kürzere Seite als Kopfende erkannt, welche sich bspw. näher an einer Wand des Raums befindet. In einem alternativen Aspekt identifiziert der Serviceroboter 17 eine Person im Bett, insbesondere deren Kopf und Arme, welche bspw. im Rahmen eines Skelettmodells ausgewertet werden können.
[0129] Anschließend ermittelt der Serviceroboter 17 in einem optionalen Schritt 2145, wo der Serviceroboter 17 relativ dicht an den Kopf des Patienten herannavigieren kann. Dazu ermittelt der Serviceroboter 17 als nächstes auf einer Seite des Betts, wie weit der Serviceroboter 17 bis zum Kopfende fahren kann. Wenn die Distanz bis zur Wand am Kopfende auf einer Seite des Betts weniger als 1 m beträgt, fährt der Serviceroboter 17 entlang dieser Bettseite. Beträgt die Distanz mehr als lm, ermittelt der Serviceroboter 17 auf der anderen Seite des Betts die Distanz bis zur Wand und fährt anschließend möglichst weit vor bis zur Wand am Kopfende, und zwar auf der Seite, bei der der Serviceroboter 17 möglichst weit bis zur Wand am Kopfende fahren kann. In einem alternativen Aspekt prüft der Serviceroboter 17 zunächst beide Seiten wie beschrieben auf ihre Tiefe und fährt dann auf der Seite in Richtung Kopfende, auf der der Serviceroboter 17 am weitesten in Richtung Wand am Kopfende gelangen kann.
[0130] Als nächstes ermittelt der Serviceroboter 17 eine Kandidatenregion des Kopfs 2150. Dazu positioniert sich der Serviceroboter 17 derart, dass seine Front in Richtung der vermuteten Position des Kopfs zeigt. Dies kann bspw. durch Drehen des Serviceroboters 17 auf der Stelle geschehen, wobei der Serviceroboter 17 einen Drehwinkel zwischen 25 und 90° gemessen zur langen Seite des Betts aufweist. Mittels eines 2D oder 3D-Sensors erfasst der Serviceroboter 17 die Oberfläche des Betts, insbesondere im Bereich hin zum Kopfende. Alternativ und/oder ergänzend errechnet der Serviceroboter 17 eine Kandidatenregion, in der sich der Kopf üblicherweise befindet und die in einem Bereich liegt, der mindestens 25cm von jeder langen Bettseite und mindestens 10cm vom Kopfende des Betts entfernt, bis zu einer Entfernung von 60cm des Kopfendes.
[0131] Alternativ und/oder ergänzend können auch Intervalle für die Breite hinterlegt werden.
Sofern der Abstand zwischen langer Seite des Betts (relativ ermittelt aus einem Vergleich der
Bettseiten und/oder über vordefinierte Längenintervalle) weniger als ein definierter
Schwellwert beträgt (bspw. 20 cm), steht das Bett längs zur Wand und der Serviceroboter 17 bewegt sich entlang der Längsseite des Betts, auf der ausreichend Platz ist. Anschließend nutzt der Serviceroboter 17 die bereits beschrieben Ermittlung der Kandidatenregion für den Kopf, alternativ scannt der Serviceroboter 17 das ganze Bett mittels der Kamera 185, deren Bilder über ein am Markt verfügbares Framework ausgewertet werden, das eine Kopferkennung implementiert hat.
[0132] Der Serviceroboter 17 ist auf Basis von Merkmalen des Kopfs in der Lage, die Stirn zu ermitteln 2152. In einem Aspekt wird hierzu ein Bereich definiert, der durch folgende Gesichtsmerkmale begrenzt wird: ca. 4cm oberhalb der Linie, die die Augenmittelpunkte verbindet, Haaransatz an den Seiten, erkennbar an einem farblichen Kontrast zur Haut des Patienten. Alternativ und/oder ergänzend kann auch die Form des Kopfs hierbei genutzt werden, wobei die Stirnflächenbegrenzung durch die Rundung des Kopfs eingeschränkt wird. Hierbei können bspw. Ansätze wie Histogram-of-Gradients genutzt werden, die in Frameworks wie OpenCV oder Scikit-image implementiert sind. Als Begrenzung kann hierbei der Winkel genutzt werden, dessen einer Schenkel aus einem Lichtstrahl vom Sensor des Kopfs besteht und der Senkrechten an der Stelle, an der der Lichtstrahl auf die Oberfläche des Kopfs trifft. Nachdem die Stirn des Patienten identifiziert wurde, trackt der Serviceroboter 17 die Position des Kopfes 2172, bspw. mittels des Visuellen-Personentracking-Moduls 112 und/oder des laserbasierten Personentracking-Moduls 113.
[0133] Sofern der Serviceroboter 17 Probleme hat, die Stirn des Patienten zu identifizieren bzw. die Augen, kann er, in einem Aspekt, die Bettseite wechseln, um sicherzustellen, dass der Patient ihm nicht den Hinterkopf zugedreht hat. Alternativ und/oder ergänzend kann der Serviceroboter 17 über seine Ausgabeeinheiten wie Display 2 und/oder die Sprachsyntheseeinheit 133 den Patienten auffordem, den Kopf zu bewegen 2154, bspw. ihn anzusehen. Nach einer solchen Aufforderung erfolgt erneut ein Identifizierungsversuch des Kopfes bzw. der Stirn.
[0134] Der Serviceroboter 17 nutzt weitere Klassifizierungsalgorithmen, um die Hände eines
Patienten zu erkennen. Hierbei kann einerseits wie für der Identifizierung des Kopfs des
Patienten vorgegangen werden (d.h. es werden zwei Kandidatenregionen für die Hand 2157 in etwa mittig der langen Bettseite und mit einer Tiefe von ca. 30 cm parallel zur kurzen
Bettkante ermittelt), alternativ und/oder ergänzend können Algorithmen aus den SDKs einer
RGB- oder RGB -D-Kamera 185 genutzt werden, um ein (anteiliges) Skelettmodell des
Patienten zu erstellen, wobei hierbei vor allem die Arme und Hände erkannt werden, d.h. deren Gelenkpunkte, während sich die Verbindungen zwischen den Gelenkpunkten als
Richtungsvektoren darstellen lassen. Sofern der Serviceroboter 17 keine Arme bzw. Hände erkennen sollte, kann der Serviceroboter 17 über seine Ausgabeeinheiten wie Display 2 und/oder Sprachsyntheseeinheit 133 den Patienten auffordem, die Hände bzw. Arme zu bewegen 2159, bspw. diese unter der Bettdecke hervorzutun. Nach einer solchen Aufforderung erfolgt erneut ein Identifizierungsversuch von Armen bzw. Händen. Der Serviceroboter 17 identifiziert, ähnlich wie die Stirn, auch die Handoberflächen, entweder den Handrücken und/oder die Handfläche. Hierbei können zur verbesserten Lokalisierung alternativ und/oder ergänzend auch Gelenkpunkte aus dem Skelettmodell einbezogen werden, wobei der Handbereich von Interesse zwischen dem Handgelenk und den Fingergelenken liegt. Alternativ und/oder ergänzend kann die Handflächenerkennung über eine Bildklassifikation erfolgen, wobei die Klassifikationsalgorithmen durch Trainieren mittels Bilder, die Handflächen darstellen, erfolgt ist.
[0135] Eine weitere Körperregion von Interesse ist der Oberkörper des Patienten, der über eine Kandidatenregion vorab definiert wird als vom Kopf abwärts gerichteter Bereich, der sich über eine Länge von ca. 1,5 Kopfhöhen erstreckt, die eine halbe Kopfhöhe unterhalb des Kopfes beginnt und die eine Breite von ca. 2 Kopfbreiten hat. Alternativ und/oder ergänzend wird der Bereich definiert über eine Breite von ca. 45 cm und eine Höhe von ca. 50cm, die ca. 10cm unter dem Kopf des Patienten beginnt, alternativ in etwa bettmittig positioniert ist in einer Entfernung von ca. 50cm vom Kopfende. Es kann alternativ und/oder ergänzend auch eine Klassifizierung über die dreidimensionale Form erfolgen. In einem Aspekt wird dabei die Breite des Betts mit Blick auf die Höhe abgetastet sowie im Bereich der Achse parallel zur langen Seite der Bereich, welcher sich in der Hälfte des Betts befindet, dass hin zum Kopfende orientiert ist. Entlang der Kammlinie, die sich in dieser Zone ergibt, wird der Teil selektiert, der sich unterhalb der Kandidatenregion für den Kopf befindet. Auf diese Art und Weise lässt sich eine Kandidatenregion für den Oberkörper 2160 ermitteln. Es erfolgt darauf eine Abtastung der Erhebung gegenüber dem Niveau der Matratze, welches durch die 3D- Sensorik des Serviceroboters 17 erfasst wird und, im Falle der Detektion einer Erhebung in der Kandidatenregion, wird dieser Bereich als Oberkörper identifiziert 2162.
[0136] Damit ist der Serviceroboterl 7 in der Lage, drei Zielregionen des Patienten zu erfassen und zu identifizieren: die Stirn, die Handoberfläche/den Handrücken und den oberen Teil des Rumpfs. Diese können mittels der Sensorik, bspw. mittels der RGB-D-Kamera 185, im Raum so identifiziert werden, so dass deren Oberfläche entsprechend in einem dreidimensionalen Koordinatensystem darstellbar ist. Dabei findet z.B. auch ein Tracking 2170 statt, insbesondere für den Kopf des Patienten 2172, in einer Variante auch für die Hand 2174 und optional für den Oberkörper, bspw. mittels des visuellen Personentracking-Moduls 112 und/oder des laserbasierten Personentracking-Moduls 113. Dabei werden bspw. die von der Sensorik erstellten Abbildungen segmentiert, um durch eine Klassifikation Körperregionen zu bestimmen, so dass das Spektrometer (196) auf diese Körperregionen gerichtet werden kann. Eine entsprechende Klassifikation kann im Speicher 10 hinterlegt sein. Der Serviceroboter 17 kann bspw. in der Applikation zur Steuerung des Spektrometers auch Regionen hinterlegt haben, auf denen die Messung vorgenommen werden soll.
[0137] Vor der Messung trackt der Serviceroboter 17 im Schritt 2170 über einen definierten Zeitraum die Bewegungen der Hand bzw. des Kopfes (optional auch des Oberkörpers). Wird für eine Zeitdauer, die über einem definierten Schwellwert liegt, keine Bewegung festgestellt (bspw. 5 Sekunden), oder aber lediglich eine Bewegung festgestellt, bei der sich die Hand/der Kopf einen definierten Schwellwert nicht überschreitet (bspw. 5 mm) 2180, erfolgt eine Messung und Auswertung der erfassten Daten 2185.
[0138] Während der Spektrometer-Messung wird im Rahmen einer Sicherheitsprüfung 2178 durch die RGB-D-Kamera 185 der Kopf des Patienten bzw. die Hand, auf der gemessen wird, fortlaufend getrackt. Sofern Bewegungen festgestellt werden, bspw. eine Drehbewegung des Kopfes, ein Senken oder Heben des Kopfes, die einen definierten Schwellwert überschreitet, wird die Messung sofort unterbrochen. Der Serviceroboter 17 trackt die Regionen, auf denen eine Messung stattfinden soll, weiterhin, und startet einen erneuten Messversuch, wenn die Bewegungen des Kopfes geringer als ein definierter Schwellwert sind.
[0139] Der Serviceroboter 17 verfügt ferner bspw. über ein Nahinfrarot-Spektrometer für eine Stoffanalyse 2186, das dreh- und schwenkbar gelagert und diesbzgl. elektronisch verstellbar ist. Der Serviceroboter 17 in der Lage, über diese Lagerung das Spektrometer 196 so auszurichten, dass der Pfad der vom Spektrometer 196 emittierten Strahlung die Koordinaten der Zielregion im dreidimensionalen Raum erreicht und die reflektierte Strahlung vom Spektrometer 196 auch wieder detektiert wird 2187. Wenngleich als Lichtquelle eine Infrarotdiode mit fokussierender Optik infrage kommen, wird in einem Aspekt ein Infrarot- Laser eingesetzt.
[0140] Es erfolgt die Messung, d.h. die Signale des Spektrometers 196 werden ausgewertet und anhand von einer Referenzdatenbank klassifiziert 2189, die Referenzspektren enthält und somit erlaubt zu ermitteln, was sich in bzw. auf der Zielregion befindet 2188, und zwar qualitativ oder quantitativ 2190. Alternativ und/oder ergänzend können auch direkt Klassifikationsregeln zur Bestimmung der Substanzen aus den gemessenen Spektren hinterlegt sein, die bspw. auf Basis von Korrelationsanalysen arbeiten. Ein einem Aspekt können hierbei charakteristischen Signale, d.h. vor allem Spektralverläufe von Schweiß ermittelt werden 2191, die sich aus Einzel Spektren von Wasser, Natrium und/oder Chlorid zusammensetzen und bspw. auf der Haut des Patienten wie der Stirn oder der Hand auftreten. Mit Blick auf die Zielregion Rumpf wird erfasst, wieweit die Bettdecke des Patienten feucht ist, d.h. die hierbei verwendete Klassifikation zur Signalauswertung berücksichtigt dabei entsprechend das Material des Bettzeugs.
[0141] Durch Abtasten unterschiedlicher Teilbereiche der Bettdecke lässt sich mittels Klassifizierung über die Referenzdatenbank bspw. auch die Menge an als Schweiß ausgeschiedenem Wasser abschätzen.
[0142] In einem weiteren Aspekt verfügt die Datenbank mit Referenzspektren über solche, die die Konzentration von weiteren Substanzen bestimmen können, darunter verschiedener Drogen 2192 wie Heroin, Opiate (wie z.B. Morphin), Amphetamin, Methamphetamin,
Kokain (inkl. ggf. Benzoylecgonin), 9-tetrahydrocannabinol (THC) oder aber weiterer Stoffe 2193 wie Glucose, Laktat, Harnsäure, Harnstoff, Kreatinin, Cortisol, etc.
[0143] Der Serviceroboter 17 verfügt über eine weitere Referenzdatenbank, die auf Basis der Kombination verschiedener Substanzen und/oder ihrer Konzentration(en) dahingehend eine Klassifizierung ermittelter Messwerte erlaubt, welche verschiedenen Krankheiten möglicherweise mit den gemessenen Spektren assoziiert sind 2194. Dabei sind sowohl Schwellwerte von Konzentrationen bzw. der gemessenen Stoffmenge, das Verhältnis der Stoffmengen und/oder Konzentrationen untereinander als auch Kombinationen daraus Bestandteil dieser Klassifikation. Als Beispiel sei die Kombination von Harnstoff, Harnsäure und Kreatinin genannt, bei denen die Konzentration von Harnsäure größer 0,02 mmol/1, Kreatinin 0,04 mmol/1 (bei niedrigeren Temperaturen höher), und Harnstoff >15 mmol/1 (bei niedrigen Temperaturen) bzw. >100 mmol/1 (bei höheren Temperaturen). Der Serviceroboter 17 berücksichtigt bei dieser Klassifizierung die Umgebungstemperatur mittels eines sich im Serviceroboter 17 befindlichen Thermometers, die Jahreszeit bzw. die Außentemperatur und ist für den letzteren Fall mit einer Schnittstelle 188 (wie z.B. WLAN) ausgestattet, um über die Cloud 18 die Außentemperatur für seinen Standort zu ermitteln, d.h. der Serviceroboter 17 ist in der Lage, zur verbesserten Auswertung weitere Daten zu erfassen, entweder über weitere Sensoren 2195 und/oder über Schnittstellen 188 (wie z.B. WLAN) zu weiteren Datenbanken 2196.
[0144] Die Messergebnisse werden in einer Datenbank abgespeichert 2197, die sich im Serviceroboter 17 befindet und/oder sie können über eine Schnittstelle 188 (wie z.B. WLAN) an einen Server in der Cloud 18 übertragen und dort abgespeichert werden 2198. Sie können anschließend über ein Display 2 und/oder eine Sprachausgabe ausgegeben werden 2199, bspw. über den Serviceroboter 17 und/oder ein Terminal, auf das medizinisches Personal zu Auswertungszwecken Zugriff hat.
[0145] Zusammenfassend ist das Spekrometriesystem (bspw. der Serviceroboter 17) in Fig.
63 illustriert: Das Spektrometriesystem umfasst einen Rechner 9, einen Speicher 10 und einen Sensor zur berührungslosen Erfassung einer Person (bspw. eine 2D und/oder 3D-Kamera 185, einen LID AR 1, einen Radar- und/oder Ultraschall sensor 194), ein Spektrometer 196 und eine Spektrometer- Ausrichtungseinheit 4805 zur Ausrichtung des Spektrometers 196 auf eine Körperregion einer Person, ähnlich einer Kippeinheit. Daneben kann das System über ein Thermometer 4850 zur Messung der Umgebungstemperatur und/oder eine Schnittstelle 188 zu einem Terminal 13 verfügen. Im Speicher 10 befindet sich ein Körperregions-Detektions- Modul 4810 zur Detektion von Körperregionen, ein Körperregion-Tracking-Modul 4815 zum Tracken von Körperregionen vor und/oder während einer spektroskopischen Messung auf dieser Körperregion, ein Spektrometer-Messmodul 4820 zum Überwachen, inkl.
Unterbrechen und/oder Fortsetzen einer spektrometri sehen Messung auf Basis von Bewegungen der Körperregion, auf der die Messung stattfindet, ein visuelles Personentracking-Modul 112 und/oder ein laserbasiertes Personentracking-Modul 113. Das System greift auf eine Referenzspektren-Datenbank 4825 und/oder eine Krankheitsbilder- Datenbank 4830 mit hinterlegten Krankheitsbildern und damit assoziierten Spektren zum Abgleich der gemessenen Spektren und Ermittlung der gemessenen Substanzen zu, die sich in der Cloud 18 und/oder im Speicher 10 befinden. Im Speicher 10 oder in der Cloud 18 befindet sich weiterhin ein Perspirations-Modul 4835 zur Ermittlung der Menge an ausgeschwitzter Feuchtigkeit, ein Delirium-Detection-Score-Ermittlungs-Modul 4840 zur Ermittlung eines Delirium Detection Score und/oder ein Kognitive-Fähigkeiten-Bewertungs-Modul 4845 zur Ermittlung kognitiver Fähigkeiten. In einem Aspekt verfügt das System über ein Personenerkennungsmodul 110, Personenidentifizierungsmodul 111, Trackingmodul (112,
113) und/oder Bewegungsauswertungsmodul 120. Delirerkennung und Monitoring auf Basis mehrerer Tests
[0146] Alternativ zum Mini -Mental-Tests haben sich in der klinischen Diagnose Testverfahren für die Delirerkennung herausgebildet, die derzeit durch medizinisches Personal abgebildet werden. Bei einem Delir handelt es sich um einen mindestens temporären Zustand geistiger Verwirrtheit. Diese firmieren insbesondere unter dem Begriff CAM-ICU, wobei CAM für „Confusion Assessment Method“ steht und ICU für „Intense Care Unit“, also die Intensivstation. Die vom medizinischen Personal vorgenommene Bewertungen adressieren dabei u.a. Aufmerksamkeitsstörungen, die mittels akustischer und/oder visueller Tests vorgenommen werden, aber auch Tests zum unorganisierten Denken, die motorische Reaktionen erfordern.
Auswertung von Aufmerksamkeitsstörungen des Patienten auf Basis der Erkennung einer Folge von akustischen Signalen
[0147] In einem Aspekt ist der Serviceroboter 17 so konfiguriert (siehe Fig. 22), dass der Serviceroboter 17 die Ausgabe einer gepulsten Folge an unterschiedlichen Tonsignalen 2205 (bspw. eine Tonsequenz) über einen Lautsprecher 192, bspw. mit einer Pulsfrequenz von 0,3- 3 Hz, bspw. von ca. einem Hertz ausgibt. Zugleich kann der Serviceroboter 17 Signalen von mindestens einem taktilen Sensor 4905 erfassen (Schritt 2210) und mit den ausgegebenen Signalen synchronisieren 2220. Jedem Tonsignal kann zudem ein Wert in dem Speicher 10 zugewiesen sein. Es ist eine zeitliche Verzögerung 2215 zwischen der Ausgabe der Tonsignale und der Detektion der Signale vom taktilen Sensor 4905, d.h. bspw. eine Phasenverschiebung um max. eine halbe Pulslänge, die dem gepulsten Signal nachläuft.
Dabei werden die mit der möglichen Phasenverschiebung registrierten Signale des mindestens einen taktilen Sensors 4905 danach ausgewertet, ob sie bei einem definierten und in dem Speicher 10 abgelegten Tonspektrum auftreten 2225, d.h. es findet ein Abgleich statt, ob die detektierten Signale nach einer definierten Tonsequenz auftreten. Sofern dies der Fall ist, wird ein Zähler in dem Speicher 10 um einen ganzzahligen Wert erhöht 2230, alternativ findet keine Erhöhung statt 2235. Anschließend findet eine Klassifizierung des ermittelten Zählerwerts in der Gestalt statt, dass den ermittelten Zählerwerten eine Zählerwerten zugeordnete Diagnose zugeteilt wird 2240. Die Ausgabe der Töne erfolgt gerichtet an einen Patienten, um bspw. dessen kognitive Fähigkeiten zu überprüfen. Je höher der Wert, der inkrem entiert wird, desto weniger sind die kognitiven Fähigkeiten des Patienten beeinträchtigt. Die Diagnose wird in dem Speicher 10 des Serviceroboters 17 abgelegt 2245, optional an einen cloudbasierten Cloud-Speicher in der Cloud 18 übertragen und optional über ein Terminal medizinischem Personal zur Verfügung gestellt.
[0148] Beim taktilen Sensor 4905 handelt es sich um einen piezoelektrischen, piezoresistiven, kapazitativen oder resistiven Sensor. Es können jedoch auch andere Sensortypen eingesetzt werden, wie in Kappassov et al. 2015 (DOI: 10.1016/j.robot.2015.07.015) beschrieben. In einem Aspekt befindet sich der taktile Sensor 4905 an einem Aktor 4920 des der Serviceroboters 17, der über mindestens ein Gelenk verfügt und derart positioniert werden kann, dass der Serviceroboter 17 die Hand des Patienten erreicht, d.h. der taktile Sensor 4905 wird in einer Distanz zur Hand positioniert, die unter einem Schwellwert liegt, der bspw. in einem Speicher abgelegt ist. In einem Aspekt ist der Sensor in eine robotische Hand integriert. In einem alternativen oder ergänzenden Aspekt ist der Sensor auf der Oberfläche des Serviceroboters 17 angebracht. Dazu kann der Serviceroboter 17 mit mindestens einer Kamera 185 den Patienten identifizieren, tacken, und die Position seiner Hände ermitteln, bspw. mindestens die der rechten Hand.
Anwendungsbeispiel :
[0149] Der Serviceroboter 17 gibt im Rahmen eines Tests zur Erfassung der Aufmerksamkeit eines Patienten über einen Lautsprecher 192 eine Buchstabenfolge aus, die einem Wort entspricht. Jeder Buchstabe wird im Abstand von ca. einer Sekunde ausgegeben. Der Patient wird vom Serviceroboter 17 aufgef ordert, beim Erkennen bestimmter Buchstaben eine Druckbewegung mit seiner Hand auszuführen. Diese Druckbewegungen werden durch den beschriebenen taktilen Sensor 4905 ausgewertet und es wird gezählt, wie häufig die bestimmten Buchstaben erkannt wurden. Je höher die Erkennungsrate, desto geringer die Beeinträchtigung des Patienten.
[0150] Das Aufmerksamkeits-Analysesystem wird, wie in Fig. 64 illustriert, wie folgt zusammengefasst: Das System, bspw. ein Serviceroboter 17, umfasst einen Rechner 9, einen Speicher 10, eine Ausgabeeinheit für akustische Signale wie bspw. einen Lautsprecher 192, einen taktilen Sensor 4905 sowie eine taktile Sensor- Auswertungseinheit 4910 zur Auswertung von Signalen durch den taktilen Sensor und eine Taktil-Sensor- Ausgabe- Vergleichsmodul 4915 zur Durchführung eines Vergleichs, ob die erfassten Signale nach einer definierten Ausgabe auftreten. Das System kann ebenfalls einen Aktor 4920 umfassen, bspw. einen Roboterarm, sowie eine Kamera 185. Der taktile Sensor 4905 ist bspw. auf dem Aktor 4920 positioniert. Im Speicher 10 befindet sich eine Aktor-Positionierungseinheit 4925, die den taktilen Sensors 4905 mittels des Aktors 4925 neben der Hand einer Person positioniert, und über ein Personenidentifizierungsmodul 111 und/oder ein Handidentifizierungsmodul 4930 sowie ein Kognitive-Fähigkeiten-Bewertungs-Modul 4845 zur Ermittlung kognitiver Fähigkeiten der Person. In einem Aspekt verfügt das System über ein Personenerkennungsmodul 110, Trackingmodul (112, 113),
Bewegungsauswertungsmodul 120, Skelett-Erstellungs-Modul 5635 und/oder skelettmodell- basiertes-Merkmalsextraktions-Modul 5640.
Auswertung der kognitiven Fähigkeiten eines Patienten auf Basis einer Bilderkennung [0151] In einem alternativen oder ergänzenden Aspekt des Serviceroboters 17 ist dieser so konfiguriert, die Erkennung von Bildern durch einen Patienten auszuwerten und zu klassifizieren, um damit die kognitiven Fähigkeiten des Patienten zu bewerten, insbesondere dessen Aufmerksamkeit. Fig. 23 stellt den hierbei genutzten Ablauf beispielhaft dar. Dabei indiziert der Serviceroboter 17 über eine Sprachsyntheseeinheit 133 einem Patienten, dass der Serviceroboter 17 sich mehrere Bilder merken solle 2305. Im Anschluss an diese Sprachausgabe wird eine Sequenz an Bildern auf dem Monitor des Serviceroboters 17 angezeigt 2310, bspw. fünf im Abstand von jeweils drei Sekunden. Im Anschluss wird über eine Sprachsyntheseeinheit 133 der Patient informiert, dass der Serviceroboter 17 durch Bewegung seines Kopfes signalisieren möge, ob ihm diese dann gezeigten Bilder bekannt Vorkommen, d.h. der Serviceroboter 17 möge eine diesbzgl. Klassifizierung im Schritt 2315 vornehmen. Dabei werde ein Kopfschütteln als Ablehnung, ein Nicken als Bestätigung gewertet. Es folgt eine Wiedergabe von zehn Bildern auf dem Bildschirm des Serviceroboters 17 (Schritt 2320) im Abstand von jeweils drei Sekunden. Davon wiederholen sich fünf gegenüber der vorigen Sequenz aus den fünf Bildern, z.B. jedes Bild aber nur einmal. In einem Aspekt kann durch einen Zufallsgenerator die Reihenfolge der Bilder und/oder die Differenzierung in neues Bild vs. bereits gezeigtes Bild erfolgen 2325. Der Serviceroboter 17 speichert die gezeigte Sequenz an Bildern ab, ob sie bereits gezeigt wurden oder nicht 2330, und erfasst während des Zeigens (bzw. bis zu einer Sekunde nachlaufend) die Kopfbewegungen des Patienten. Dazu verfügt der Serviceroboter 17 über mindestens einen Sensor, z.B. eine RGB-D-Kamera 185, die den Kopf eines Patienten erkennen und tracken kann 2335, wobei die Auswertung bspw. mittels des visuellen Personentracking-Moduls 112 und/oder des laserbasierten Personentracking-Moduls 113 erfolgt. Dies schließt die Drehung des Kopfes und/oder das Nicken mit dem Kopf ein. Hierbei ist der Serviceroboter 17 in der Lage, durch Klassifizierungsverfahren markante Punkte des Gesichts zu erfassen, darunter die Augen, die Augenhöhlen, den Mund und/oder die Nase. Im Stand der Technik sind hierzu Lösungen bekannt (z.B. DOL 10.1007/978-3-642-39402-7_16; 10.1007/sl 1263-017-0988-8), die u.a. Histograms-of-Gradients nutzen. Die Kopfbewegungen des Patienten werden als nächstes klassifiziert, um ein Kopfschütteln und/oder Nicken erkennen zu können 2340. Hierfür werden ebenfalls Frameworks aus dem Stand der Technik genutzt. Die darüber erkannten Bewegungen des Nickens oder Kopfschütteins werden entsprechend mit den gezeigten Bildern synchronisiert 2345. Daraufhin wird die gezeigte Bildsequenz dahingehend kodiert, ob der Patient ein wiederholtes Zeigen oder erstmaliges Zeigen richtig erkannt hat 2350. Der Serviceroboter 17 speichert optional den Vergleich der Werte, z.B. mit dem Datum der Durchführung, in einer Datenbank ab, die bspw. auch die gezeigten Bildsequenzen abgespeichert hat. Für jede vom Patienten richtig erkannte Bildwiederholung wird ein Zähler inkrementiert 2355. Der Score, der durch Inkrementierung entsteht, dient als Maß dafür, ob der Patient unter kognitiven Beeinträchtigungen leidet. Dazu wird der ermittelte Score klassifiziert und ihm eine medizinische Interpretation zugewiesen 2360. Der Score und dessen medizinische Interpretation werden in einer Datenbank abgespeichert 2365, ggf. in dem Cloud-Speicher in der Cloud 18 abgelegt 2370 und stehen medizinischem Personal über ein Terminal zu Auswertungszwecken zur Verfügung 2375.
[0152] In einem optionalen Aspekt ist der Serviceroboter 17 in der Lage, die Position der Augen des Patienten im dreidimensionalen Raum 2410 sowie die des Displays 2 zu ermitteln (Schritt 2405). In einem Aspekt nutzt der Serviceroboter 17 diese Daten, um die Sichtverbindung zwischen Augen und Display 2 auf das Vorhandensein von Hindernissen zu prüfen. So kann bspw. bei einem Patienten im Bett der Herausfall schütz möglicherweise ein solches Hindernis darstellen. Dazu berechnet der Serviceroboter 17 zunächst die Koordinaten, die auf der Sichtlinie liegen 2415 und prüft, bspw. mittels einer 3D-Kamera, ob diese Koordinaten der Sichtverbindung mit detektierten Hindernissen assoziiert sind 2420. Identifiziert der Serviceroboter 17 Hindernisse, so erfolgt eine Neupositionierung der Displayneigung 2450, alternativ und/oder ergänzend eine Neupositionierung des Serviceroboters 17 in der XY-Ebene 2455. In einem alternativen und/oder ergänzenden Aspekt ist der Serviceroboter 17 so konfiguriert, dass der Serviceroboter 17 unter Zuhilfenahme der Raumkoordinaten des Displays 2, bspw. der Displayecken, und Ermittlung der Winkel zwischen den Augen des Patienten und der Displayoberfläche (Schritt 2425) sicherstellt, dass mindestens ein Winkel in einem Intervall liegt 2430, das bspw. gerätespezifisch sein kann. Auf diesem Weg kann sichergestellt werden, dass bspw. eine reflektierende Oberfläche des Displays 2 nicht dazu führt, dass der Patient das Display 2 nicht ausreichend erkennen kann, weil die Displayneigung aus Sicht des Patienten starke Reflexionen erkennen lässt. Dazu ist der Serviceroboter 17 in der Lage, die Displayneigung entsprechend anzupassen 2450 und/oder den Serviceroboter 17 neu im Raum zu positionieren. Alternativ und/oder ergänzend kann auch eine Anpassung der Schriftgröße und/oder anderer Symbole auf dem Display 2 in Abhängigkeit des Abstands zwischen Patienten und Display 2 vorgenommen werden. Dazu berechnet der Serviceroboter 17 zunächst die euklidische Distanz zwischen Augen und Display 2, vergleicht diese mit im Speicher 10 des Serviceroboters 17 hinterlegten Referenzwerten, ob dieser Abstand üblicherweise akzeptabel für eine Erkennung ist, und bezieht, in einem ergänzenden Aspekt Patientendaten zur Sehfähigkeit mit ein, um die Referenzwerte ggf. anzupassen. Daraus resultierend kann der Serviceroboter 17 die Anzeigengröße des Displays 2 anpassen (also die Größe angezeigter Objekte und Zeichen) und/oder der Serviceroboter 17 positioniert sich derartig im Raum innerhalb der XZ-Ebene (d.h. der Fußbodenebene), dass die Abstände zum Erkennen der Displayinhalte ausreichend sind.
[0153] Mit Blick auf die Neupositionierung des Serviceroboters 17 in der XZ-Ebene, der Neigung des Displays 2 und/oder der Größenanpassung der Displayanzeige ist der Serviceroboter 17 in der Lage, durch Abtasten seines Umfelds und eines möglicherweise erweiterten bzw. alternativen Sichtkorridors, der frei von Hindernissen ist, der Neigungsmöglichkeit des Displays 2 und/oder der Anzeigendimensionen des Displays 2 zu ermitteln, was eine Position in der XZ-Ebene, eine Displayneigung und/oder eine Anzeigengröße wäre, damit der Patient keine Hindernisse zwischen seinen Augen und dem Display 2 vorfmdet, das Display 2 derart räumlich positioniert ist, dass es weitestgehend frei von Reflexionen ist und/oder dass die Anzeigengröße für die Sehfähigkeiten des Patienten ausreichend ist.
[0154] In einem alternativen und/oder ergänzenden Aspekt verfügt der Serviceroboter 17 über eine Ansteuerung für die Displayneigung und eine Dialogfunktion im Display 2 bzw. als Sprachinterface konfiguriert. Mittels dieser Dialogfunktion wird der Patient um eine Rückmeldung gebeten, inwieweit die Displaydarstellung für ihn ausreichend erkennbar ist.
Für den Fall von Beanstandungen seitens des Patienten kann der Serviceroboter 17 die Ausrichtung des Displays 2 ändern. Das kann in einem Aspekt durch Neupositionierung des Serviceroboters 17 ggü. dem Patienten erfolgen. Dies kann einerseits durch eine Drehung auf der Stelle erfolgen, andererseits auch durch Einnehmen einer anderen Position (bspw. definiert über den Bereich, den der Serviceroboter 17 auf dem Boden abdeckt). In einem alternativen und/oder ergänzenden Aspekt kann die Neigung des Displays 2 angepasst werden, wobei die Kippachsen horizontal und/oder vertikal ausgerichtet werden kann.
[0155] Nach einer Neupositionierung des Displays 2 und/oder des Serviceroboters 17 in der XZ-Ebene wird dieser beschriebene Prozess erneut durchlaufen, um zu überprüfen, dass der Patient das Display 2 gut erkennen kann.
Roboter zählt Anzahl Finger an einer Hand
[0156] In einem Aspekt ist der Serviceroboter 17 derart konfiguriert, dass über die Kamera 185, bspw. eine RGB-D-Kamera 185, eine Identifizierung der Finger sowie deren Tracking erfolgen kann, um die von der Hand gezeigten Posen mit Blick auf dargestellte Zahlen auszuwerten, bspw. mittels des visuellen Personentracking-Moduls 112 und/oder des laserbasierten Personentracking-Moduls 113. Fig. 25 illustriert diesen Prozess. Dazu wird das von der 3D-Tiefenkamera erzeugte Tiefenbild 2505 in eine 3D-Punktewolke transformiert, in dem jeder Pixel der Kamera einer Raumkoordinate zugeordnet wird 2510, woraus über Kamera-SDKs bzw. Software von Drittanbietern wie bspw. NUITrack die Skeletterkennung 2515 stattfindet. Dabei werden die Gelenkpunkte entsprechend erkannt, darunter das Handgelenk sowie die Fingergelenke.
[0157] Als nächstes findet eine Gelenkselektion 2520 statt, d.h. es werden nur für die nachfolgend durchzuführenden Berechnungen notwendigen Gelenkpunkte weiterverarbeitet. Anschließend werden Winkelberechnungen 2525 vorgenommen, bspw. für den Winkel zwischen dem dritten und dem zweiten Fingerglied, dem zweiten und dem ersten Fingerglied sowie dem ersten Fingerglied und dem Mittelhandknochen. (Dabei wird allgemein das dritte Fingerglied als das mit der Fingerspitze bezeichnet). Da der Daumen über kein zweites Fingerglied verfügt, sind es hier der Winkel zwischen dem dritten und dem ersten Fingerglied, dem ersten Fingerglied und dem Mittelhandknochen, sowie, in einem Aspekt, zwischen dem Mittelhandknochen und dem Handwurzelknochen. Dabei wird jedes Fingerglied bzw. jeder Handknochen als Richtungsvektor dargestellt, jeweils vom betrachteten Gelenkpunkt aus. Als nächstes findet eine Merkmalsextraktion 2530 statt, bei der bspw. die Winkel besagter Gelenkpunkte pro Finger gemeinsam ausgewertet werden. Im Rahmen einer Merkmalsklassifizierung 2535, die auf Basis festgelegter Regeln umgesetzt wird, wird bspw. ein gestreckter Zeigefinger definiert als ein Winkel von 180° zwischen dem ersten und zweiten sowie zweiten und dritten Fingerglied. Im Rahmen der Merkmalsklassifikation können Schwellwerte definiert werden, die die Bedingung 180° etwas aufweichen und bspw. für den Winkel zwischen dem dritten und zweiten Fingerglied zwischen 150° und 180°, und den Winkel zwischen dem ersten und zweiten Fingerglied zwischen 120° und 180° sowie den zwischen Mittelhandknochen und ersten Fingerglied zwischen 90° und 180°. Beim Daumen ist es der Winkel zwischen dem dritten und ersten Fingerglied, der zwischen 120° und 180° liegt, während der Winkel zwischen dem ersten Fingerglied und dem Mittelhandknochen zwischen 150° und 180° liegt. Im Rahmen der Posenklassifizierung 2540 werden verschiedene Finger und deren Gelenkpunktwinkel in Kombination betrachtet. So kann einerseits auf Basis manuell definierter Werte 2545 der Wert 2, der mittels Fingern gezeigt wird, durch das Strecken von Daumen und Zeigefinger, Zeigefinger und Mittelfinder, bzw. Kombinationen zwischen diesen und/oder weiteren der Fingern, von denen zwei gestreckt sind, detektiert werden, während die anderen Finger insbesondere zwischen dem zweiten und dritten Fingerglied einen Winkel kleiner 120°, z.B. kleiner 90° aufweisen. Für den Fall, dass der Daumen nicht gestreckt ist und stattdessen zwei andere Finger, so beträgt dabei der Winkel zwischen dem dritten und ersten Fingerglied des Daumens weniger als 120°, bspw. weniger als 100°, um letztendlich als 2 erkannt zu werden. Optional beträgt der Winkel zwischen den Handknochen weniger als 145°, z.B. weniger als 120° .
[0158] Merkmalsextraktion, Merkmalsklassifikation, und Handposenklassifikation können einerseits durch vordefinierte Regeln vorgenommen werden wie Winkeldefinitionen einzelner Gelenkpunkte und deren Kombination, oder aber mittels Ansätzen des maschinellen Lernens 2550 trainiert werden wie bspw. Support-Vektor-Modellen, bei denen bestimmte Winkelkombinationen entsprechend gelabelt werden, d.h. die Kombination von Winkeln der einzelnen Fingerglieder zueinander angeben kann, dass bspw. zwei Finger gezeigt werden, die dem Wert 2 entsprechen.
[0159] Im Rahmen des Tests der kognitiven Fähigkeiten des Patienten wird in einem Aspekt zunächst eine Ausgabe des Serviceroboters 17 getriggert, die über die Sprachsyntheseeinheit 133 via Lautsprecher 192 und/oder über Text und/oder Bilder auf dem Bildschirm des Serviceroboters 17 ausgegeben wird. Diese Sprachausgabe fordert den Patienten auf, zwei Finger zu zeigen 2605. Dabei identifiziert die Kamera 185 die Hände des Patienten, deren Finger, und trackt die Fingerbewegungen. Dabei wertet der Serviceroboter 17 diese im Rahmen der Posenklassifizierung aus, um zu ermitteln, wie viele Finger angezeigt werden 2610. Hierbei kann in einem optionalen Aspekt, wie weiter unten geschildert wird, berücksichtigt werden, ob die vom Patienten angezeigte Fingerpose mit einem Code assoziiert ist 2665. Anschließend speichert der Serviceroboter 17 einen Wert ab, der indiziert, ob der Patient zwei Finger gezeigt hat 2615, d.h. es erfolgt eine Bewertung des Vergleichs der bewerteten Fingerposen mit den optisch und/oder akustisch ausgegebenen Zahlenwerten.
[0160] In einem alternativen und/oder ergänzenden Aspekt verfügt der Serviceroboter 17 über mindestens einen Aktor 4920, z.B. einen Roboterarm mit mindestens einem Gelenk, der zudem über mindestens eine Roboterhand verfügt 2620, die mindestens zwei dem Menschen nachempfundene Finger verfügt, z.B. jedoch mindestens über fünf Finger, von denen einer von seiner Anordnung her einem Daumen entspricht, und die bspw. so viele Fingerglieder haben wie die menschliche Hand. Dabei ist der Serviceroboter 17 in der Lage, mittels dieser Finger Zahlen anzuzeigen, wobei gestreckte Finger und Fingerposen sich aus den Winkeln der Fingerglieder ergeben, die bereits oben mit Blick auf die Erkennung von Fingergliedern durch die Kamera 185 klassifiziert wurden. Damit ist der Serviceroboter 17 in der Lage, auch den Wert 2 anzuzeigen 2670, indem bspw. der Daumen und der Zeigefinger an der Roboterhand gestreckt werden, d.h. die Winkel zwischen den ersten drei Fingergliedern bspw. annähernd 180° aufweisen, während die Winkel der anderen Fingerglieder und der Fingerglieder und der Handknochen weniger als 120° betragen. Der Serviceroboter 17 ist so konfiguriert, dass der Serviceroboter 17 über die Sprachausgabe und/oder Display 2 die Regelung der Posen der Roboterhand so synchronisieren kann, dass der Wert 2 von der Roboterhand angezeigt wird, während die Aufforderung über Display 2 und/oder Sprachsyntheseeinheit 133 an den Patienten erfolgt, so viele der Finger anzuzeigen, wie die Roboterhand anzeigt 2675. Es findet dann die bereits beschriebene Handidentifizierung, das Handtracking und die Posenklassifizierung zur Erkennung von zwei der Finger 2610 beim Patienten statt, um bei Ermittlung, dass der Patient die Zahl zwei angezeigt hat, einen Wert abzuspeichern 2615. Dabei werden in einem Aspekt die vom Patienten gezeigten Handposen z.B. innerhalb von Zeitfenstem von 3 Sekunden ausgewertet, nachdem der Serviceroboter 17 über seine Ausgabeeinheiten wie Lautsprecher 192 und/oder Display 2 den Patienten zum Anzeigen eines Zahlenwerts aufgefordert hat bzw. ihm durch die Roboterhand die entsprechenden Zahlen gezeigt wurden. [0161] Die im Rahmen dieses Tests gewonnen Erkenntnisse erlauben eine Bewertung, inwieweit der Patient durch unorganisiertes Denken beeinträchtigt ist und stellen damit ein Testverfahren mit Blick auf das Erkennen und Monitoring von Delir dar.
[0162] Der Serviceroboter 17 ist in einem optionalen alternativen und/oder ergänzenden Aspekt derart konfiguriert, dass das Anzeigen der Zahlen mit den Fingern basierend auf kulturellen und/oder nationalen Unterschieden möglich ist. Alternativ und/oder ergänzend kann eine Erkennung gezeigter Zahlen auch dadurch erleichtert werden, dass der Serviceroboter 17 bei der Auswertung der Handposen diese Unterschiede berücksichtigt. Daraus kann resultieren, dass bspw. die Zahl 2 bei Patienten aus Deutschland mit höherer Wahrscheinlichkeit durch Daumen und Zeigefinger angezeigt wird, während US-Amerikaner Zeigefinger und Mittelfinger nutzen, um die Zahl 2 anzuzeigen. Für die Umsetzung dieser Implementierung enthält der Serviceroboter 17 in dem Speicher 10 Codes für verschiedene Posen, die die gleiche Zahl anzeigen 2650 und die dementsprechend länderspezifisch/kulturell bedingt sind. Die Patientendaten, die der Serviceroboter 17 in seinem Speicher 10 vorhält, können ebenfalls einen dieser Codes enthalten 2652, der entsprechend auf den nationalen/kulturellen Hintergrund des Patienten verweist. Damit sind in dem Speicher 10 pro Zahl mehrere Posen hinterlegt, insbesondere mehrere Kombinationen an Fingern. Es findet als nächstes ein Abgleich der Codes statt, um die vom Patienten präferierten Posen zu ermitteln 2655. Gerade auch mit Hinblick auf eine mögliche kognitive Beeinträchtigung des Patienten erhöht es die Reliabilität des Tests, dem Patienten die Zahlen in der ihm vertrauten Hand- und/oder Fingerpose anzuzeigen. Damit ist der Serviceroboter 17 in der Lage, dem Patienten die Hand- und/oder Fingerpose zu zeigen, bspw. die Zahl 2, die seinem kulturellen/nationalen Hintergrund entspricht 2660, was durch die Roboterhand des Aktors 4920 umgesetzt wird 2670. Alternativ und/oder ergänzend können diese Informationen zum entsprechend codierten kulturellen/nationalen Hintergrund des Patienten dazu genutzt werden, die vom Patienten gezeigten zwei Finger besser zu erkennen. Diese Fingerausgabe und/oder Erkennung unter Berücksichtigung derartiger Codes ist eine optionale Implementierung.
[0163] Der Serviceroboter 17 ist ferner so konfiguriert, dass über den Aktor 4920 mit mindestens einem Gelenk die Roboterhand derart räumlich ausgerichtet werden kann, dass die Roboterhand durch den Patienten im Schritt 2638 erkannt werden kann. Dazu erfasst der Serviceroboter 17 den Kopf des Patienten und dessen Orientierung im Raum, indem der Serviceroboter 17 im Stand der Technik etablierte Verfahren der Gesichtsposen-Erkennung 2625 nutzt, wie sie bspw. im Framework OpenPose enthalten sind. Dabei können in einem Aspekt auch Ansätze wie Histograms-of-gradients genutzt werden, die in Frameworks wie OpenCV oder Scikit-image implementiert sind. Der Serviceroboter 17 ermittelt mittels dieser Frameworks die Orientierung des Kopfes im Raum und errechnet für die Augen einen Sichtbereich. Darunter werden insbesondere jeweils Kegel mit einem Öffnungswinkel von 45° verstanden, bspw. 30° (gemessen von der Lotrechten aus) - nachfolgend bezeichnet als „gute Erkennbarkeit“, die senkrecht zur Front des Kopfes ausgerichtet sind. Somit verfügt der Serviceroboter 17 also über eine Blickkegel-Erkennung 2630. Dabei erfasst der Serviceroboter 17 seine Position im Raum und die Position des Aktors 4920, insbesondere die Position der Roboterhand, und ermittelt, ob diese Position sich innerhalb des Kegels befinden 2632. Befinden diese Position sich nicht innerhalb des Kegels, so berechnet der Serviceroboter 17, welche Winkeleinstellungen der Gelenke des Aktors 4920 notwendig sind, um die Roboterhand innerhalb des Kegels zu positionieren. Dabei errechnet der Serviceroboter 17 einen dreidimensionalen Bereich im Raum, der einen Mindestabstand zum Patienten aufweist und der z.B. je nach Körperregion des Patienten variiert. Derartige Mindestabstände sind in dem Speicher 10 des Serviceroboters 17 im Schritt 2636 abgelegt. Durch Identifizierung des Patienten im Bett, d.h. seines Kopfes und seines Körpers, wird eine „erlaubte Zone“ errechnet, in denen sich die Roboterhand bewegen darf, wobei der Abstand zum Kopf des Patienten weiter ist als bspw. zum Rumpf oder den Armen. In einem Aspekt beträgt der Abstand zum Kopf 50 cm, der zum restlichen Teil des Patientenkörpers 30 cm.
Der Serviceroboter 17 ermittelt im Schritt 2638 also, wo in welchen Teil der erlaubten Zone der Serviceroboter 17 die Roboterhand positionieren kann, so dass diese Roboterhand sich innerhalb der beiden Kegel befindet. Danach richtet der Serviceroboter 17 im Schritt 2638 die Roboterhand mittels des Aktors 4920 so aus, dass eine „gute Erkennbarkeit“ der Hand durch den Patienten möglich wird. Sofern keine derartige Positionierung möglich ist, fordert der Serviceroboter 17 im Schritt 2640 den Patienten über die Ausgabeeinheiten wie Display 2 und/oder Sprachsyntheseeinheit 133 via Lautsprecher 192 den Patienten auf, den Serviceroboter 17 anzusehen. Danach findet im Schritt 2642 eine erneute Prüfung statt, d.h. ein Durchlauf der Schritte 2630-2640. Sofern sich die Ausrichtung der ermittelten Kegel nicht ändert, bricht der Serviceroboter 17 den Test Schritt 2644 ab und übermittelt Informationen an medizinisches Personal im Schritt 2646, wozu bspw. über eine Schnittstelle 188 (wie z.B. WLAN) Informationen an den Server und/oder ein mobiles Terminal gesendet werden. Alternativ und/oder ergänzend kann der Serviceroboter 17 den Patienten erneut auffordem und/oder etwas länger warten. Wird die Ausrichtung der Roboterhand derart vorgenommen, dass der Patient diese gut erkennen kann, so erfolgt das Anzeigen zweier Finger mit dieser Hand im Schritt 2670 und der Prozess wird, wie oben geschildert, weiter fortgesetzt. Bei dieser Ausrichtung der Roboterhand auf Basis der Gesichtsposenerkennung und der Berücksichtigung der „erlaubten Zone“ handelt es sich um einen optionalen Aspekt.
[0164] Das System zur kognitiven Analyse ist in Fig. 65 illustriert. Das System, bspw. ein Serviceroboter 17, umfasst einen Rechner 9, einen Speicher 10, eine Ausgabeeinheit und im Speicher über ein Zahlenwert-Ausgabe-Modul 4940 zur Ausgabe von Zahlenwerten, eine Personenerfassungs- und Trackingeinheit (4605) mit einer Kamera (185) und einem Personenerkennungsmodul (110). Bei der Ausgabeeinheit handelt es sich um einen Tongenerator wie bspw. um einen Lautsprecher 192, ein Display 2 und/oder einen Aktor 4920, bspw. einen Roboterarm, in einem Aspekt mit einer Roboterhand 4950. Das System verfügt im Speicher 10 über ein Handposen-Detektions-Modul 4960 zur Detektion von Handposen der Person, Fingerposen-Generierungsmodul 4955 zur Generierung von Fingerposen der Roboterhand (4950), wobei die Fingerposen bspw. Zahlenwerte repräsentieren. Das System verfügt ferner über ein Kognitive-Fähigkeiten-Bewertungs-Modul 4845 zur Bewertung kognitiver Fähigkeiten der erfassten Person. Das System ist, in einem Aspekt, mit einem Patientenadministrationsmodul 160 verbunden. Das System verfügt über Regeln, um kognitive Fähigkeiten der erfassten Person zu ermitteln, die an anderer Stelle beschrieben wurden. In einem Aspekt verfügt das System über ein Personenidentifizierungsmodul 111, Trackingmodul (112, 113),
Bewegungsauswertungsmodul 120, Skelett-Erstellungs-Modul 5635 und/oder skelettmodell- basiertes-Merkmalsextraktions-Modul 5640.
Schmerzstatus-Bestimmung
[0165] In einem Aspekt ist der Serviceroboter 17 derart konfiguriert, dass der Serviceroboter 17 in der Lage ist, ein Test des Schmerzempfindens des Patienten vorzunehmen, das durch Verhaltensbeobachtung des Patienten durch den Serviceroboter 17 umgesetzt wird. Hierbei orientiert sich das Vorgehen am Behavioral Pain Scale, einer in der Medizin etablierten Schmerzbewertungsskala. Derartige Tests werden auch im Rahmen des Delirmonitorings vorgenommen. Hierbei wird im ersten Schritt der Gesichtsausdruck des Patienten analysiert, welcher sich in einem Bett befindet. An anderer Stelle in dieser Erfindungsbeschreibung (bspw. Fig. 21 a) wurden Ansätze dargestellt, wie der Serviceroboter 17 bei Patienten in einem Bett deren Gesicht identifizieren und ggf. tracken kann inkl. der damit verbundenen Navigation des Serviceroboters 17. In einem Aspekt wird ein Bett sensorisch erfasst und die dabei erzeugte Abbildung über einen Mustervergleich ausgewertet, um zu bewerten, ob es sich um ein Bett handelt. Diese Ansätze können in einem Aspekt auch hierbei genutzt werden.
Schmerzstatus: Emotionserkennung
[0166] Der Serviceroboter 17 wertet in einem ersten Teil des Tests die Emotionen des Patienten aus, die sich über dessen Gesichtsausdruck ergeben. Hierzu kann der Serviceroboter 17 in einem Aspekt auf eine Gesichtsklassifizierungs-Datenbank zurückgreifen, in der Klassifizierungsregeln für Klassifizierungen innerhalb einer Kandidatenregion des Gesichts und über mehrere Kandidatenregionen des Gesichts hinweg hinterlegt sind, die auf Basis von Gesichtsmerkmalen Rückschlüsse auf dem emotionalen Zustand des Patienten erlauben und die unten näher beschrieben werden. Dieses zweistufige Verfahren weicht hierbei vom Stand der Technik ab, der bspw. in US20170011258 oder US2019012599 als einstufiges Verfahren beschrieben wurde. Im Rahmen dieser Implementierung werden bspw. Histograms-of- Gradients genutzt, die bspw. in Frameworks wie OpenCV oder Scikit-image implementiert sind. Bei der Emotionserkennung wird vor allem auf solche Emotionen abgestellt, die die Anspannung des Patienten messen, von entspannt bis hin zu einer großen Anspannung, die sich in Grimassen äußert.
[0167] Im Rahmen dieses Verfahrens wird zunächst im Schritt 2705 der Kopf des Patienten identifiziert, bspw. mittels Frameworks wie OpenPose. Diese Auswertungen können mittels der 2D oder 3D-Kamera 185 stattfinden. Hierbei werden z.B. zunächst Kandidatenregionen innerhalb des Gesichts identifiziert 2710, bevor die für die Auswertung des emotionalen Zustands notwendige Merkmalsextraktion basierend auf Histogram-of-Gradients- Algorithmen in mindestens einen Kandidatenregion im Schritt 2715 stattfindet, womit sich bspw. die Bewegungen des Mundes bewerten lassen oder die der Augenbrauen. Basierend auf den erhobenen Histogram-of-Gradients-Daten findet eine Merkmalsklassifizierung statt, die auf eine bestehende Merkmalsklassifikation zurückgreift, welche mittels etablierter Clusteringverfahren wie bspw. K-Means, Support Vector Machines und/oder basierend auf Gewichten, die durch das Trainieren eines neuronalen Netzes erhoben wurden, bspw. eines mehrschichtigen konvolutionären neuronalen Netzwerks mit Rückwärtspropagation mithilfe eines Labellings von Gesichtsausdrücken im Schritt 2720 entstanden sind. In einem nächsten Schritt werden die auf Kandidatenregionsebene vorgenommenen Klassifizierungen über mehrere Kandidatenregionen klassifiziert, was ebenfalls mittels Klassifizierung auf Basis von etablierten Clusteringverfahren des maschinellen Lernens wie bspw. K-Means, Support Vector Machines, und/oder den bereits genannten konvolutionären neuronalen Netzwerken im Schritt 2725 geschieht. Hiermit werden bspw. Bewegungen von Mund und Augenbrauen gemeinsam ausgewertet.
[0168] Die Erkennungsalgorithmen können in verschiedenen Aspekten im Schritt 2730 gefiltert werden, d.h. bspw. um das Alter des Patienten im Schritt 2735 korrigiert werden, welches der Serviceroboter 17 über eine Schnittstelle 188 (wie z.B. WLAN) aus einer Datenbank erhalten kann, sofern die Auswertung der Emotionen direkt auf dem Serviceroboter 17 stattfindet. Alternativ und/oder ergänzend können die Aufnahmen, die die Kamera 185 vom Kopf des Patienten zwecks Erkennung der Emotionen erstellt, auch über eine Schnittstelle 188 (wie z.B. WLAN) in die Cloud 18 übertragen und dort analysiert werden. In dem Fall würden etwaige Altersinformationen von dem Cloud-Speicher in der Cloud 18 an das die Emotionen durchführende Modul übertragen werden. Ein weiterer Filter ist in einem Aspekt, ob der Patient über eine Endotrachealkanüle verfügt (Schritt 2740), die eine künstliche Beatmung des Patienten durch den Mund sicherstellt. Die Klassifizierungsalgorithmen, die für die beschriebene Bewertung der Emotionen genutzt werden, sind z.B. in einem Aspekt durch Trainingsdaten mit Bildern entsprechender, endotracheal beatmeter Patienten erstellt worden. Weitere Details zur Detektion von Kanülen finden sich weiter unten und können auch, in einem Aspekt, im Rahmen des hier beschriebenen Vorgehens genutzt werden.
[0169] Im Rahmen einer Score-Ermittlung im Schritt 2745 werden die Emotionen auf einer Skala von 1-4 bewertet, wozu ermittelten Emotionen mit solchen verglichen werden, die in dem Speicher 10 hinterlegt sind und denen Skalenwerte zugeordnet sind. Ein Wert von „1“ bedeutet ein als regulär klassifizierter Gesichtsausdruck, während die Anspannung auf der Skala ansteigt bis hin zum Wert von 4, der Grimassen impliziert. Dazu existiert für die kandidatenregionsübergreifende Klassifikation eine Matrix, die für verschiedene Gesichtsausdrücke entsprechende Scores darstellt.
[0170] In einem Aspekt werden die Werte über den Ablauf mehrerer Stunden oder Tage erfasst, was eine Auswertung des emotionalen Zustands des Patienten ggf. vereinfacht, bspw. dann, wenn zu Beginn der durch den Serviceroboter 17 vorgenommen Reihe an Emotionsmessungen ein Patient sich in einem entspannten Zustand befindet, was bspw. über ein Terminal und eine Menükonfiguration bspw. durch medizinisches Personal in dem Speicher 10 abgelegt werden kann, auf den der Serviceroboter 17 Zugriff hat. Hierunter fallen zum Gesundheitszustand, bspw. die Information, dass der Patient zu Beginn der Messung schmerzfrei ist. Damit ist es möglich, Gesichtszüge und Emotionen im schmerzfreien und möglicherweise schmerzbehafteten Zustand zu erfassen und auszuwerten, womit die Klassifizierungsmerkmale des schmerzfreien Zustands zur Evaluation des schmerzbehafteten Zustands herangezogen werden können und als Filter fungieren. Mittels dieser dynamischen Klassifizierung (Schritt 2750) der Gesichtsausdrücke steigt die Klassifizierungsgüte, da die Klassifizierungen auf Basis von Differenzbetrachtungen des Gesichts zu mehreren Zeitpunkten möglich werden. Damit lässt sich bspw. auch eine retrospektive Klassifizierung vornehmen, wobei bspw. lediglich die extrahierten Merkmale, zusammen mit einem Zeitstempel, der die Erfassungszeit charakterisiert, abgespeichert und neu klassifiziert werden. Um dies zu realisieren, werden die Aufzeichnungen des Gesichts abgespeichert. Zusammengefasst erfolgt daraus die Erfassung der Person, eine Gesichtserkennung der Person, eine Selektion von Kandidatenregionen innerhalb des Gesichts, eine Merkmalsextraktion der Oberflächenkrümmungen der Kandidatenregionen und eine Klassifizierung der Oberflächenkrümmungen der Kandidatenregionen einzeln und/oder zusammenhängend, wobei die Klassifizierung einen Schmerzstatus beschreibt.
Schmerzstatus: Erfassung der Bewegung der oberen Extremitäten [0171] Ein zweiter Teil des Tests stellt auf Bewegungen der oberen Extremitäten wie Oberarm, Unterarm, Hand und Finger ab. Hierbei trackt der Serviceroboter 17 diese, welche der Serviceroboter 17 wie oben beschrieben erkannt hat, über den Zeitablauf, was entweder mittels der 2D-Kamera und Frameworks wie OpenPose oder 3D-Kamera (ggf. einer RGB-D- Kamera 185) geschieht, wobei bspw. die Auswertung mittels des visuellen Personentracking- Moduls 112 und/oder des laserbasierten Personentracking-Moduls 113 erfolgt. Bei der RGB- D-Kamera 185 stellt sich der Ablauf bzw. derart, dass das 3D-Bild ein eine Punktwolke im Schritt 2805 konvertiert wird, jedem Punkt eine Raumkoordinate im Schritt 2810 zugeordnet wird, durch Kamera-Frameworks oder andere Softwarewerkzeuge im Stand der Technik eine Skelettmodell-Erkennung im Schritt 2015 stattfindet, bei der die Gelenkpunkte des Skeletts erkannt werden. Anschließend wird eine Gelenkselektion im Schritt 2820 vorgenommen, d.h. die Erkennung zielt hierbei insbesondere auf Gelenkpunkte wie das Schultergelenk, das Ellbogengelenk, das Handgelenk und die Fingergelenke ab. Es findet eine Winkelberechnung dieser Gelenkpunkte im Schritt 2825 statt, bei denen der Winkel bspw. über die Richtungsvektoren definiert wird, die den Gelenkpunkt als Ausgangspunkt nehmen. Im Rahmen einer Merkmalsextraktion im Schritt 2830 werden die Winkel dieser Gliedmaßen im Zeitverlauf erfasst. Die Gliedmaßen werden daraufhin derart klassifiziert, dass die Anzahl der Winkeländerungen pro Zeiteinheit, die Geschwindigkeit, d.h. bspw. die Winkelgeschwindigkeit, etc. als Maß für die Bewegungsintensität herangezogen wird. Dabei klassifiziert der Serviceroboter 17 diese Bewegungen im Schritt 2835 auf einer Skala von 1 bis 4, und speichert diesen Wert ab. Ein Wert von 1 entspricht keiner Bewegung innerhalb der getrackten Zeit. Der Wert 2 entspricht wenigen und/oder langsamen Bewegungen der Arme, 3 entspricht Bewegungen der Finger, und 4 entspricht einer hohen Bewegungsintensität der Finger, die bspw. über die Anzahl von Fingerbewegungen pro Zeiteinheit und/oder deren Geschwindigkeit definiert werden und welche schwellwertabhängig sind.
Schmerzstatus: Schmerzvokalisierung
[0172] Ein dritter Teil des Tests stellt auf die Schmerzvokalisierung des Patienten ab und kann in zwei prinzipiell verschiedenen Abläufen erfolgen, die sich an zwei verschiedenen Szenarien orientieren und sich in zwei Varianten der Bewertung äußern. Im ersten Szenario handelt es sich um einen künstlich beatmeten Patienten, bei dem die Vokalisierung auf Basis von Husten bewertet wird. Im zweiten Szenario ist der Patient nicht beatmet und es werden typische Schmerzlaute bewertet. Das Vorgehen hierbei ist in Fig. 29 näher beschrieben.
Schmerzstatus: Schmerzvokalisierung beatmeter Patienten
[0173] In einer ersten Variante handelt es sich um beatmete Patienten. Diese können entweder eine Trachealkanüle aufweisen, die eine Beatmung durch eine Öffnung im Hals sicherstellt, oder eine Endotrachealkanüle, welche eine Beatmung durch den Mund ermöglicht. Mittels
Bilderkennungsalgorithmen ist der Serviceroboter 17 in der Lage, derart beatmete Patienten im Schritt 2901 zu identifizieren. Dazu werden, entweder als 2D oder als 3D-Bild, die Kopf- und Halsregion des Patienten aufgezeichnet, welche im ersten Schritt als Kandidatenregionen dienen, wobei der Hals im Falle einer Trachealkanüle, der Mund im Falle einer
Endotrachealkanüle als Kandidatenregion dient. Die Erkennung der Kandidatenregionen erfolgt bspw. in Verbindung mit Histogram-of-Gradient-(HoG)-basierter Gesichtserkennung im Schritt 2905 und daraus abgeleiteter Kandidatenregionen wie Mund und Hals im Schritt
2910. Es werden entsprechend beide Regionen ausgewertet. Dabei können Modellannahmen zugrunde gelegt werden, d.h. die Form, die solche Kanülen typischerweise aufweisen (Schritt
2915). Die durch die Kamera 185 aufgenommenen Pixel werden anschließend durch einen optional echtzeitfähigen und fehlertoleranten Segmentierungsalgorithmus 2920 ausgewertet, um eine derartige Kanüle zu erkennen. Damit ist der Serviceroboter 17 in der Lage, die Kanüle zu detektieren.
[0174] Alternativ und/oder ergänzend kann eine datenbankbasierte Erkennung im Schritt 2902 vorgenommen werden, wobei der Serviceroboter 17 Information zur Beatmung des Patienten im Schritt 2925 über eine Schnittstelle 188 (wie z.B. WLAN) aus einer cloudbasierten Datenbank mit Patienteninformationen in der Cloud 18 im Schritt 2927 abfragt und/oder die Informationen befinden sich, zusammen mit weiteren Patientendaten, im Speicher 10 des Serviceroboters 17 (Schritt 2929).
[0175] Der Serviceroboter 17 ermittelt für diese beiden Fälle der künstlichen Beatmung, inwieweit der Patient normal atmet oder gar hustet 2930. Diese Ermittlung kann auf verschiedenen Wegen erfolgen. In einem Szenario nutzt im Schritt 2935 der Serviceroboter
17 hierbei Daten aus einem Beatmungsgerät und/oder Adapter, der sich zwischen der Kanüle und dem Beatmungsgerät befindet. In einem Aspekt im Schritt 2936 greift der Serviceroboter
17 über eine Schnittstelle 188 (wie z.B. WLAN) auf das genutzte Beatmungsgerät zu und erfasst die vom Beatmungsgerät vorgenommenen Auswertungskurven des Beatmungszyklus, die durch Druck- und/oder Fluss-Sensoren erfasst wurden. Die aufgezeichneten
Kurvenverläufe werden im Schritt 2941 entweder mit Schwellwerten verglichen, die für verschiedene Beatmungsszenarien wie druck- oder volumenkontrollierte Beatmung typisch sind und solchen, die bei diesen Beatmungsszenarien im Falle des Hustens auftreten.
Alternativ und/oder ergänzend kann auch ein Labelling in den Fällen, bspw. durch medizinisches Personal, vorgenommen werden, um atypische Beatmungsmuster wie Husten zu erkennen, was durch die Algorithmen des maschinellen Lernens und/oder neuronaler Netze dann als Husten im Schritt 2942 klassifiziert wird. Alternativ und/oder ergänzend lassen sich die Kurvenverläufe (Druck, Volumen, Fluss) über die Zeit auswerten und Anomalien im
Zeitablauf erkennen, d.h. Abweichungen, die im Atemzyklus zuvor und danach nicht mehr auftreten, mittels Verfahren des maschinellen Lernens und/oder neuronaler Netze als Husten klassifizieren. Dabei kann eine Anomalie nicht nur direkt mit dem Zyklus davor und danach im Schritt 2942 verglichen werden, sondern auch Ketten mehrerer Zyklen, um bspw.
Hustenanfälle, die mehrere Hustenereignisse betreffen, entsprechend zu detektieren. In Fällen, in denen das Beatmungsgerät gar ein Husten durch Adaption der Beatmung unterstützt, können auch die entsprechenden Modi des Beatmungsgeräts, alternativ die daraus abgeleiteten Beatmungskurven (Druck/Fluss über die Zeit) durch den Serviceroboter 17 erkannt und entsprechend in der Klassifizierung der Beatmung des Patienten im Schritt 2944 berücksichtigt werden. Alternativ und/oder ergänzend kann der Serviceroboter 17 auch die Information vom Beatmungsgerät erhalten, dass es sich im Hustenunterstützungsmodus befindet bzw. ein Husten triggert, womit das System ein Hustenereignis detektieren würde. Alternativ und/oder ergänzend kann, statt über eine Schnittstelle 188 (wie z.B. WLAN) auf die Auswertung des Beatmungsgeräts zuzugreifen, auf auch einen Adapter im Schritt 2937 zugegriffen werden, der zwischen der Kanüle und dem Beatmungsgerät den Druck und/oder Fluss im Zuleitungsschlauch mittels eines Druck- und/oder Flusssensors misst und die Signale bspw. drahtlos über eine Schnittstelle 188 an den Serviceroboter 17 überträgt, der dann entsprechende Auswertungen des Beatmungsprofils erstellt, die wie oben beschrieben ausgewertet werden können.
[0176] Alternativ und/oder ergänzend kann Husten auch über mindestens einen Sensor detektiert werden, der sich bspw. am Körper des Patienten befinden 2950. Dazu zählen einerseits Inertialsensoren 2952 (bspw. mit Magnetometer), die z.B. im Bereich des Brustkorbs, des Halses oder der Wangen eingesetzt werden, Dehnungssensoren 2954 (z.B. Dehnungsmesstreifen, die an eben diesen Stellen auf der Haut des Patienten aufgebracht werden), Kontaktmikrofone 193 (Schritt 2956) (welche ebenfalls auf der Haut des Patienten aufgebracht werden und, in einem Aspekt, an Stellen, an denen sich ein Knochen dicht unter der Haut befinden, die Hustengeräusche erfassen), ein sich bspw. an oder in der Nase befindlicher Thermistor 2958, und die jeweils drahtlos über eine Schnittstelle 188 (z.B. WLAN) mit dem Serviceroboter 17 verbunden sind. Hier ist sowohl eine direkte Verbindung zu dieser Sensorik als auch ein Zugriff auf die von der Sensorik generierten und im Speicher 10 abgelegten Daten möglich, bspw. ein Krankenhausinformationssystem. Dabei können diese Daten bereits mit Blick auf Hustensignale ausgewertet worden sein oder die Auswertung findet innerhalb des Serviceroboters 17 statt.
[0177] Drugman et al. 2013, „Objective Study of Sensor Relevance for Automatic Cough Detection, IEEE Journal of Biomedical and Health Informatics, vol 17 (3), May 2013, pages 699-707 (DOI: 10.1109/JBHI.2013.2239303) haben gezeigt, dass im Vergleich zu den im vorigen Absatz eingesetzten Sensoren die Detektion von Husten durch ein Mikrofon 193 am besten funktioniert, wobei deren Betrachtung sich lediglich auf nicht intubierte Patienten bezog, während in diesem Fall die Patienten entweder über eine Trachealkanüle oder Endotrachealkanüle verfügen. Aus diesem Grund wird in einem Aspekt mindestens ein Mikrofon 193 (Schritt 2960) eingesetzt, dass sich am Patienten und/oder an einer anderen Position im Raum des Patienten befindet und das direkt (oder indirekt mit Datenablage (in einer Variante auch Ablage bereits mit Blick auf Hustensignale ausgewerteten Daten) im Speicher 10, auf den der Serviceroboter 17 Zugriff hat) mit dem Serviceroboter 17 verbunden ist. bspw. ist dieses mindestens eine Mikrofon 193 in den Serviceroboter 17 integriert 2962, zeichnet die Geräusche in der Umgebung des Patienten im Speicher 10 des Serviceroboters 17 auf und klassifiziert die Schallsignale dahingehend, ob ein Husten vorkommt. Hierbei werden bspw. Algorithmen des maschinellen Lernens und/oder neuronaler Netze genutzt, die mittels aufgezeichneter Hustengeräusche trainiert worden sind.
[0178] Für die Erstellung einer solchen Klassifikation wird in einem Aspekt ein System trainiert, dass über mindestens einen Prozessor zur Verarbeitung der Audiodaten und mindestens einen Audiodaten-Speicher verfügt, in welchem sich Audiodaten, in einem Aspekt auch als Spektraldaten vorliegend, befinden und die entsprechend gelabelt sind.
[0179] In einem alternativen und/oder ergänzenden Aspekt ermittelt der 3D-Sensor des Serviceroboters 17, z.B. die 3D-Kamera, Bewegungen rund um den Mund, aber auch des Brustkorbs und/oder Halses auf, d.h. mittels eines fehlertoleranten
Segmentierungsalgorithmus 2976 werden besagte Kandidatenregionen 2974 ausgewertet. An anderer Stelle wurde bereits beschrieben, wie der Mund detektiert werden kann. Mit Blick auf die Detektion des Brust- und Bauchbereichs wird die Kandidatenregion 2974 bspw. über den
Abstand der Schultergelenkpunkte über das Skelettmodell ermittelt und orthogonal zu dieser
Linie in Richtung Füße der gleiche Abstand ermittelt, um darüber die Kandidatenregion
Rumpf unter der Bettdecke zu identifizieren, die aus Brustkorb und Bauch besteht, welche sich beide beim Atmen auswertbar bewegen. Alternativ und/oder ergänzend kann die
Kandidatenregion 2974 bspw. auch aus der doppelten Kopfhöhe, die sich vom Kinn abwärts erstreckt, und der ca. 2,5-fachen Kopfbreite ermittelt werden. In beiden Fällen kann hierbei die Identifizierung des Kopfs als initialer Schritt und damit als Referenz 2972 genutzt werden, um von dort die Kandidatenregionen zu identifizieren. Alternativ und/oder ergänzend können auch Abmessungen des Betts als Referenz 2972 genutzt werden, um diese
Kandidatenregionen 2974 zu identifizieren. Alternativ und/oder ergänzend kann auch die 3D-
Kamera die Erhebungen der Bettdeckenoberfläche erfassen, wobei in einem Aspekt eine
Histogram-of-Gradients-Bewertung stattfindet, die auf Basis einer Klassifikation ausgewertet werden, welche durch ein System trainiert wurden, welches als Eingangsgrößen 2D oder 3D-
Aufnahmen von Betten beinhaltet, die dahingehend gelabelt sind, ob sich Patienten in den
Betten befinden oder nicht und die mittels Klassifizierungsverfahren aus dem Bereich maschinelles Lernen und/oder neuronaler Netze ausgewertet wurden, während die Auswertungsergebnisse die Klassifikation bilden, um insbesondere den Oberkörper eines Patienten zu detektieren.
[0180] Im Rahmen der Merkmalsextraktion im Schritt 2978 werden die von der 3D-Kamera erfasst Bewegungen von Mund, Wangen, Hals und Oberkörper im Zeitablauf ausgewertet. Hierbei wird, in Anlehnung an Martinez et al. 2017, „Breathing Rate Monitoring during Sleep from a Depth Camera under Real -Life Conditions, 2017 IEEE Winter Conference on Applications of Computer Vision (WACV), 24-31 March 2017 (DOL 10.1109/WACV.2017.135), eine Interferenzreduktion 2980 vorgenommen, was die Detektion von Bewegungen angeht, die durch mit Stoff bzw. die Bettdecke verdeckt sind, also vornehmlich des Oberkörpers/Bauch. Interferenzen, die durch unterschiedliche Phasen der erfassten Bewegungen der Bettdecke entstehen und die eigentlichen Atembewegungen in ihrer Detektion erschweren, werden durch die Ermittlung des Leistungsdichtespektrums eliminiert, was die Erfassung der Bewegungen des Brustkorbs erleichtert. Dabei wird für jeden im Zeitablauf erfassten Pixel im dreidimensionalen Raum das Leistungsdichtespektrum bspw. mittels einer schnellen Fourier-Transformation (FFT) im Schritt 2982 ermittelt, dann die Leistungsdichtespektren für alle Pixel im Schritt 2984 aggregiert und das Maximum über quadratische Interpolation im Schritt 2986 ermittelt, wobei die Position des Maximums die Atemfrequenz im Schritt 2988 angibt. Diese wird anschließend mit Blick auf Frequenzänderungen gemonitort, die das Husten im Schritt 2990 wiedergeben. Anschließend wird eine Frequenzermittlung der erfassten Körperteile im Schritt 2990 vorgenommen 2990. Bspw. werden hierbei Histogram-of-Gradient-Berechnungen im Schritt 2990 herangezogen. Die anschließende Merkmalsklassifizierung im Schritt 2992 basiert auf einer Klassifikation, die durch die Aufzeichnung von Hustenbewegungen und Nicht-Hust-Bewegungen generiert wurde, wozu Standard-Klassifikationsverfahren und/oder neuronale Netze eingesetzt werden können, wie an anderer Stelle in diesem Dokument bereits beschrieben wurde. Sofern kein Husten durch die beschriebenen Ansätze detektiert wird, wird dieses Kriterium mit dem Score von 1 bewertet. Wird Husten detektiert, wird der Score mit 2 bewertet.
[0181] Zusammengefasst lässt sich der Ablauf wie folgt beschreiben: Erfassung der Person, Gesichts- und Halserkennung der Person, Auswertung des Gesichts- und Halsbereichs der Person nach Mustern, die eine Vorrichtung zur künstlichen Beatmung beschreiben, Abspeichern eines Werts bei Detektion eines Musters, das eine Vorrichtung zur künstlichen Beatmung beschreibt, wobei die Vorrichtung zur künstlichen Beatmung einen Schmerzstatus beschreibt.
Schmerzstatus: Schmerzvokalisierung unbeatmeter Patienten
[0182] Sofern der Serviceroboter 17 mittels der implementierten Bilderkennung keine Kanüle beim Patienten erkannt hat und/oder in der Datenbank mit Patienteninformationen keine Informationen zu einer künstlichen Beatmung abgelegt sind, findet eine andere Variante des dritten Teils des Tests statt, analysiert der Serviceroboter 17 mittels Mikrofon 193 vom Patienten emittierte Geräusche. Diese Geräusche werden auf Basis von Algorithmen klassifiziert, die auf Basis von gelabelten Geräuschdaten derart mittels Algorithmen des maschinellen Lernens und/oder neuronaler Netze trainiert worden sind, dass die Geräusche eine Schmerz-Vokalisierung in unterschiedlichen Ausprägungen erkennen können. Wird keine Schmerzvokalisierung festgestellt, wird dieses Kriterium mit dem Wert 1 bewertet.
Wird eine Schmerzvokalisierung über eine Dauer von weniger als 3 Sekunden und mit einer Frequenz von weniger als drei Schmerzvokalisierungen pro Minute erfasst, wird dieses Kriterium mit 2 bewertet. Eine höhere Frequenz oder längere Dauer wird mit 3 bewertet, während bspw. verbale Schmerzvokalisierungen, die in einem Aspekt auch über einen Dialog mit dem Patienten ermittelt werden können, erfasst, wird das Kriterium mit 4 bewertet.
[0183] Die Scores über die drei Teile des Tests werden schließlich aufsummiert. Die Ergebnisse werden in einer Datenbank abgespeichert, in einer Variante über eine Schnittstelle 188 (wie z.B. WLAN) auf einen Server in der Cloud 18 übertragen und dort abgespeichert. In beiden Varianten hat das medizinische Personal Zugriff auf die Auswertung, welche auch eine detaillierte Betrachtung der Testergebnisse ermöglicht (Teilergebnisse und Gesamtergebnis), und über ein Terminal können diese Daten visuell dargestellt werden. In einem alternativen und/oder ergänzenden Aspekt können die einzelnen Teile des Tests auch unabhängig voneinander durchgeführt werden.
[0184] Zusammengefasst lässt sich die Schmerzstatusermittlung auf Basis einer
Schmerzvokalisierung unbeatmeter Patienten wie folgt zusammenfassen: Aufzeichnung akustischer Signale, Auswertung der akustischen Signale durch eine Schmerzklassifikation zur Ermittlung, ob die aufgezeichneten akustischen Signale eine Schmerzvokalisierung repräsentieren, Bewertung der als Schmerzvokalisierung klassifizierten akustischen Signale durch eine Schmerzintensitätsklassifikation, wobei die Schmerzintensitätsklassifikation die
Zuweisung von Skalenwerten zu den aufgezeichneten akustischen Signalen umfasst und die Skalenwerte einen Schmerzstatus repräsentieren. In einem Aspekt erfolgt weiterhin eine Positionsbestimmung der Quelle akustischer Signale, eine Positionsbestimmung der Person, deren Schmerzstatus ermittelt wird, und ein Abgleich der ermittelten Position durch Vergleich mit einem Schwellwert (d.h. hinsichtlich einer Mindestähnlichkeit der Positionswerte), und Abspeichern eines Werts bei Unterschreiten des Schwellwerts in Bezug auf den ermittelten Schmerzstatus.
[0185] Ein System zur Schmerzstatus-Ermittlung einer Person wird wie folgt in Fig. 66 zusammengefasst: Das System, bspw. ein Serviceroboter 17, umfasst einen Rechner 9, einen Speicher 10 und einen Sensor zur berührungslosen Erfassung der Person, bspw. eine 2D und/oder 3D-Kamera 185, einen LID AR 1, einen Radar- und/oder Ultraschall sensor 194. Je nach Konfiguration der Art der Schmerzstatus-Bestimmung kann es über unterschiedliche Module in seinem Speicher 10 verfügen. In einem Aspekt verfügt das System über ein Personenerkennungsmodul (110), ein visuelles Personentracking-Modul (112), Gesichtserkennungs-Modul 5005 zur Erkennung des Gesichts der Person, ein Gesichts- Kandidatenregion-Modul 5010 zur Selektion von Kandidatenregionen innerhalb des Gesichts, ein Emotions-Klassifikations-Modul 5015 zur Klassifizierung der Oberflächenkrümmungen der Kandidatenregionen in Emotionen, und ein Emotions-Bewertungs-Modul zur Ermittlung eines Skalenwerts für die Emotion 5020. Das System verfügt bspw. über ein Betterkennungs- Modul 5025 zur Erkennung eines Betts und/oder über ein obere-Extremitäten-Auswertungs- Modul 5035 zur Detektion der oberen Extremitäten der Person, Tracking dieser im Zeitverlauf, und Auswertung der Winkel zwischen den Rumpf und dem Oberarm, dem Oberarm und dem Unterarm und/oder den Fingergliedern und den Handknochen hinsichtlich der Intensität der Winkeländerungen, deren Geschwindigkeit und/oder die Anzahl der Winkeländerungen pro Zeiteinheit ausgewertet wird, sowie bspw. über ein Schmerzstatus- Berechnungsmodul 5040 zur Ermittlung eines Skalenwerts für den Schmerzstatus. In einem Aspekt umfasst das System ein Mikrofon 193 zur Aufzeichnung akustischer Signale, bspw. ein Audioquellen-Positionsermittlungs-Modul (4420) zur Auswertung der Position der Quelle akustischer Signale und ein Audiosignal-Personen-Modul (4430) zur Zuordnung von Audiosignalen zu einer Person. Das System kann bspw. über ein Schmerzvokalisations- Modul (5055) zur Klassifizierung der Intensität und Frequenz der akustischen Signale und Ermittlung eines eine Schmerzvokalisierung repräsentierenden Skalenwerts. In einem Aspekt umfasst es ein Beatmungsvorrichtungs-Erkennungsmodul 5065 zur Erkennung einer Vorrichtung zur künstlichen Beatmung, d.h. Selektion von Kandidatenregionen der künstlichen Beatmung, Ausweitung der Kandidatenregionen der künstlichen Beatmung mittels einer Objekterkennung, und Objektklassifizierung zur Identifizierung von Kanülen, um Trachealkanülen oder Endotrachealkanülen. Daneben kann es über ein Schmerzempfindungs-Auswertungsmodul 5085 zur Auswertung von an einer Person befestigten Sensoren wie einem Inertialsensor, Dehnungssensor, Kontaktmikrofon und/oder Thermistor, die Bewegungen, Luftströme und/oder Laute erfassen, die hinsichtlich einer Schmerzäußerung klassifiziert werden. In einem Aspekt verfügt das System über ein Personenidentifizierungsmodul 111, Bewegungsauswertungsmodul 120, Skelett-Erstellungs- Modul 5635 und/oder skelettmodell-basiertes-Merkmalsextraktions-Modul 5640.
Blutdruckermittlung und Ermittlung weiterer Kardioparameter
[0186] Der Roboter 17 ist ferner mit einem System ausgestattet, welches sich wiederholende Bewegungen des menschlichen Körpers erfasst, die mit dem Blutausstoß des Herzens in die großen Blutgefäße bei jedem Herzschlag korrelieren. Dabei werden Änderungen erfasst, die einerseits durch Bewegungen der großen Blutgefäße entstehen und sich bspw. wellenförmig im Körper ausbreiten, und/oder die durch Bewegungen von Arterien in der Haut ergeben. Letztere sind robuster gegenüber Schwankungen der Beleuchtung des Körperteils und/oder unterschiedlichen Farbtönen der Haut. Alternativ und/oder ergänzend werden Änderungen des Blutvolumens bzw. der Blutfluss in der Haut, z.B. im Zeitablauf, erfasst, welche(r) mit dem Herzschlag korrelieren. Fig. 30 stellt nachfolgend den Prozess der Datenerfassung und Auswertung dar.
[0187] Es werden eine Körperregion und mehrerer Subregionen im Schritt 3005 identifiziert. Bspw. ist die Körperregion das Gesicht, wobei die Auswertung z.B. mittels der Kamera 185 erfolgt. Das System nutzt Algorithmen aus dem Stand der Technik, um das Gesicht (alternativ andere Körperregionen) zu erfassen, bspw. das Framework OpenCV, OpenPose oder dlib und zu tracken, wobei die Auswertung bspw. mittels des visuellen Personentracking-Moduls 112 und/oder des laserbasierten Personentracking-Moduls 113 erfolgt. Dabei werden als Teilregionen mindestens die Stirn, die Wangen oder das Kinn erfasst, z.B. mehrere Körperregionen zusammen, die dann einzeln und/oder getrennt nach den weiter unten beschriebenen Schritten ausgewertet werden. Hierbei kann bspw. eine Selektion von Kandidatenregionen vorgenommen werden, d.h. Teilregionen des Gesichts, die für die Auswertung relevant sind, wozu im Stand der Technik bekannte Segmentierungsverfahren (wie bspw. RANSAC) eingesetzt werden können. Diese Teilregionen werden, wie auch die Körperregion als solche, durch die genannten Frameworks im Zeitablauf im Schritt 3010 getrackt.
[0188] In einem optionalen Schritt 3015 erfolgt eine Ausrichtung der Kamera 185 möglichst parallel zur Region, die getrackt werden soll. Dazu kann eine Minimierung des Erfassungswinkel des Gesichts, der sich aus einer Achse ergibt, die senkrecht der das Gesicht erfassenden Kamera steht, und einer Achse, die sich senkrecht auf der Sagittalebene des Gesichts befindet, erfolgen. Hierbei ermittelt das System bspw. eine Ebene, die durch das Gesicht läuft und die im Wesentlichen parallel ist zur Draufsicht auf das Gesicht und die bspw. der Sagittalebene entspricht. Basierend bspw. auf Histogram-of-Gradients (HoG) verfügt das System über eine Klassifizierung, die die Abweichungen von dieser Draufsicht beschreiben, um damit die Neigung des Gesichts im dreidimensionalen Raum zu erfassen. In einem Aspekt nutzt das System dieses Vorgehen, um einen in die Kamera 185 des Systems blickendes Gesicht danach zu bewerten, inwieweit das Gesicht parallel zur Kameralinse ausgerichtet ist. Bei Abweichungen kann das System in einem Aspekt die Neigung der Kamera 185 im dreidimensionalen Raum durch eine entsprechende Mechanik wie eine Kippeinheit 5130 anpassen, bspw. durch Ansteuerung von zwei mit orthogonal zueinander angeordneten Kippachsen, die durch Stellmotoren angetrieben werden. Unter dem Begriff Kippeinheit wird in diesem Dokument daher eine Kippeinheit mit mindestens zwei Achsen verstanden, die einerseits eine Schrägstellung der horizontalen Ebene ermöglicht und andererseits eine Rotation um die vertikale Achse. Alternativ und/oder ergänzen werden die Räder des Serviceroboters 17 derart angesteuert, dass der Serviceroboter 17 sich in Richtung der Person dreht, um die ermittelte Abweichung der Kameraebene von der Gesichtsebene zu reduzieren. In einem alternativen und/oder ergänzenden Aspekt triggert eine solche Abweichung die Sprachausgabe des Serviceroboters 17, um dem Patienten Anweisungen zu erteilen, sein Gesicht entsprechend auszurichten. Dabei sind bspw. Regeln hinterlegt, die eine Ausrichtung in XY-Ebene fordern, wenn Abweichung in XY-Ebene festgestellt wurde. Abgleich der Gesichtsneigung und Ansteuerung der Kippmechanismen, der Orientierung des Serviceroboters 17 und/oder die Sprachausgabe mit Blick auf den Patienten werden bspw. so lange durchgeführt, bis die Winkel zwischen der Kameraebene und der Gesichtsebene ein Minimum erreicht haben. Alternativ und/oder ergänzend kann der Erfassungswinkel der Kamera 185 im Vergleich zur Sagittalebene und ggf. auch der Transversal ebene minimiert werden, was bspw. auch Fahrmanöver des Roboters 17 beinhaltet. [0189] Das System ist in einem optionalen Aspekt zum Ausleuchten des Körperteils wie des Gesichts im Schritt 3020 konfiguriert. D.h. dass während einer Aufnahme durch die Kamera 185 das Gesicht (oder ein anderer Körperteil) mittels einer Leuchte bestrahlt wird, die das aufzunehmende Körperteil des Patienten ausleuchtet. Dabei kommt mindestens eine Leuchte zum Einsatz, welche sich z.B. nahe an der Kamera 185 befindet. Idealerweise befindet diese sich unterhalb und/oder oberhalb der Kamera 185, ist also vertikal um diese Kamera 185 versetzt. Bspw. wird das emittierte Licht gestreut, um eine möglichst homogene Ausleuchtung der aufzunehmenden Fläche zu gewährleisten. Eine seitliche Anordnung der Kamera 185 kann, je nach Position des Gesichts und seiner Dimensionen, möglicherweise zu einem Schattenwurf der Nase führen, der die Wangen, welche sich seitlich von der Nase befinden und deren Aufzeichnung ein überdurchschnittliches Signal-Rauschverhältnis liefern, betrifft, und damit ggf. die Auswertungsqualität verschlechtern.
[0190] Die eingesetzte Kamera 185 liefert für die Auswertung mindestens einen Farbkanal, darunter z.B. mindestens den grünen Farbkanal, da das hierbei emittierte Licht von Hämoglobin besonders gut absorbiert wird. In einem weiteren Aspekt liefert die Kamera 185 auch einen Farbkanal für den Farbton orange und/oder cyan. Die Farbtiefe je Kanal beträgt bspw. mindestens 8 Bit, die Bildfrequenz 30 Bilder pro Sekunde. In einem Aspekt kann es sich bei der Kamera 185 auch um eine RGB-D-Kamera 185 handelt, welche eine Tiefenerkennung neben einer Farberkennung zur Verfügung stellt, bspw. auf Basis von time- of-flight-Sensorik oder Speckle-Mustern, um darüber rhythmische, vaskuläre Blutflüsse und rhythmische, vaskuläre Ausdehnungen zu erfassen.
[0191] Im ersten Schritt 3025 findet eine Signal extraktion statt. Dazu wird zunächst eine Selektion des Eingangssignals auf Basis der Videosignale der getrackten Regionen vorgenommen, was entweder eine durch die Pumprhythmen des Herzens hervorgerufene Bewegung und/oder eine Farbänderung mit Blick auf den Fluss des Bluts, insbesondere des Hämoglobins, sein kann, wodurch sich besagte rhythmische, vaskuläre Blutflüsse und/oder rhythmische, vaskuläre Ausdehnungen erfassen lassen.
[0192] Es findet im zweiten Schritt mit Blick auf die Rohdaten eine Farbkanalauswertung unter Einbeziehen von bekannten Informationen statt, welche Merkmale durch welchen Farbkanal abgebildet werden, sofern es sich um eine Erfassung des Blutflusses handelt. Hierunter wird insbesondere eine Gewichtung der Kanäle im Schritt 3030 verstanden. Dabei kann vornehmlich der grüne Farbkanal ausgewertet werden, der grüne und rote Farbkanal (bspw. als Differenzbetrachtung des grünen und roten Kanals), die Kombination von grün, cyan und orange, etc. Für die Erfassung der Bewegungen werden alternativ oder ergänzend die Ortsauflösung ermittelt. D.h. es werden die vertikalen und/oder horizontalen Bewegungen von erfassten Eigenschaften des Gesichts getrackt bspw. die Position des Gesichts und seiner Teilregionen im Zeitablauf erfasst und ausgewertet. Darunter fallen sowohl die Bewegungen des Kopfs als auch die einzelner Gesichtsteile.
[0193] Die sich daran anschließende Signalermittlung nutzt im ersten Teilschritt (der Präprozessierung 3035) bspw. mindestens ein Filter. Dazu zählt eine Trendbereinigung (bspw. mit Skalierung und/oder Normalisierung); eine gleitende Durchschnittswert- Betrachtung, eine Hochpassfilterung; eine Bandpassfilterung, ggf. als adaptive Bandpassfilterung ausgestaltet; eine amplitudenselektive Filterung; eine Kaimanfilterung; und/oder eine kontinuierliche Wavelet-Transformation. Es können alternativ und/oder ergänzend auch eine lineare Polynomapproximation der kleinsten Quadrate zum Einsatz kommen.
[0194] Daran schließt sich ein Signaltrennungsverfahren 3040 an, um das Signal- Rauschverhalten zu verbessern und die Zahl der zu betrachteten Merkmalsdimensionen zu reduzieren. Hierbei kann bspw. eine Hauptkomponentenanalyse oder eine Einabhängigkeitsanalyse genutzt werden, in einem Aspekt auch Verfahren des maschinellen Lernens.
[0195] Die Signalprozessierung 3045 umfasst die Ermittlung der Pulsrate und ggf. weiterer Größen im Rahmen einer Fouriertransformation (schnelle bspw. diskrete Fouriertransformation, insbesondere zur Ermittlung der maximalen Leistungsspektrumsdichte), autoregressiver Modelle (bspw. mittels Burg’s Methode), dem Einsatz von Bandpassfiltern in Zusammenhang mit der Detektion von Maxima bspw. einer Spitzenerkennung, eine kontinuierliche Wavelet-Transformation, und/oder Modelle des Maschinellen Lernens, insbesondere des nicht-üb erwachten Lernens. Alternativ und/oder ergänzend kann auch eine diskrete Kosinustransformation eingesetzt werden.
[0196] Im Rahmen einer Postprozessierung 3050 können ferner Verfahren zum Einsatz kommen, um bspw. Fehler durch Bewegungen des Kopfes, etc. auszugleichen, wozu wiederum Kalmanfilter, (adaptive) Bandpassfilter, eine Ausreißerdetektion, gleitende Durchschnitte, Bayes’sche Fusion und/oder Verfahren des maschinellen Lernens zum Einsatz kommen können.
[0197] Die bis hier erfolgten Prozessierungsschritte geben bereits einen Teil der medizinisch relevanten Parameter wieder wie die Pulsrate, Pulsratenvariabilität, Pulswellenlaufzeit, Pulswellenform, etc. Eine weiterführende Errechnung medizinisch relevanter Parameter im Schritt 3055, bspw. erfolgt auf Basis verschiedener, im Stand der Technik beschriebener Ansätze, womit sich bspw. der systolische und diastolische Blutdruck ermitteln lässt, wozu lineare oder nichtlineare Prognoseverfahren eingesetzt werden können.
[0198] Die genannten Verfahren des maschinellen Lernens, bspw. neuronale Netze wie konvolutionäre neuronale Netze, sind in der Lage, in den Daten versteckte und teils unbekannte Merkmale in den Daten zu erkennen und bei der Auswertung zu berücksichtigen, bspw. im Rahmen durchgeführter Clusteranalysen. Hierbei werden bspw. auf Basis von Trainingsdaten Gewichte für die Klassifikationen oder lineare bzw. nicht-lineare Prognosemodelle generiert, die dann im Rahmen des beschriebenen Prozesses im Produktivbetrieb eingesetzt werden.
[0199] Die ermittelten Werte für die Pulsrate, Pulsratenvariabilität und ggf. weiterer Werte, ggf. nach erfolgter Postprozessierung, werden in einem Aspekt mit im Speicher 10 abgelegten Werten im Schritt verglichen und daraus basierend die Pulsrate, Pulsratenvariabilität, bzw. weitere Größen ermittelt, insbesondere auch der systolische und diastolische Blutdruck.
[0200] Die Filterung im Rahmen der Prä- und Postprozessierung ist abhängig von den zu detekti er enden Größen ab. Für die Pulsamplitude kann, in einem Aspekt, ein Bandpassfilter genutzt werden, der das Spektrum 0-6 Herz abdeckt, bspw. mindestens 0,7-4, 5 Hz. In einem Aspekt kann das Signal des Pulses in diesem Frequenzbereich auch enger gesampelt werden, bspw. mit einem Fenster von 0,1 Hz. Anschließend kann eine Glättung durch einen Tiefpassfilter erfolgen. Die Pulsrate, Herzrate bzw. Pulsfrequenz oder Herzfrequenz kann bspw. mittels eines Bandpassfilters prozessiert werden, der eine Breite zwischen 0,7 und 4 Hz hat. Um die Pulsratenvariabilität zu ermitteln, ist wiederum ein Bandpassfilter mit einem Fenster zwischen 0 und 0,4 Hz einsetzbar, in einem Aspekt gesampelt mit Abständen von 0,02 Hz. Die Pulswellenlaufzeit kann durch Vergleich der Werte von mindestens zwei erfassten Regionen erfolgen, wobei eine Bandbreite zwischen 0,5 und bspw. 6 Hz ausgewertet werden kann, in einem Aspekt gesampelt in Intervalle von 0,1 Hz. Durch den Vergleich der Werte mehrerer Regionen lässt sich damit die Pulswellenlaufzeit ermitteln. Die Pulsform ergibt sich aus einem ungesampelten Verlauf im Spektralfenster von ca. 0-6 Hz, bspw. charakterisiert durch die Fläche unter der Kurve, die Höhe und/oder Breite. Die Pulsenergie ergibt sich aus der ersten Ableitung dieser Werte.
[0201] So kann der Blutdruck bspw. mittels eines linearen Modells aus der Pulswellenlaufzeit und der Puls- bzw. Herzrate sowie dem vorangegangenen Blutdruckwert ermittelt werden, für lineare Regressionsmodelle oder neuronale Netze verwendet werden können. Anstelle eines vorangegangenen Blutdruckwerts lassen sich bspw. auch die Form der gemessenen Pulse auswerten, z.B. indem die Differenzen zwischen der Pulskurve und der durch den Maximalwert verlaufenden Senkrechten ermittelt werden.
[0202] Das System zur Blutdruckermittlung wird, wie in Fig. 67 dargelegt, wie folgt illustriert: Das System zur Ermittlung kardiovaskulärer Parameter einer Person, in einem Aspekt ein Serviceroboter 17, umfasst einen Rechner 9, einen Speicher 10 und eine Kamera 185 (z.B. eine 2D und/oder 3D-Kamera) sowie weiterhin ein Körperregions-Detektions- Modul 4810 zur Detektion von Körperregionen, ein Körperregion-Tracking-Modul 4815, ein Gesichtserkennungs-Modul 5005, ein Gesichts-Kandidatenregion-Modul 5010 und ein kardiovaskuläre-Bewegungen-Modul 5110 zur Erfassung von Bewegungen, die auf kardiovaskuläre Aktivitäten zurückzuführen sind. Die Kamera 185 stellt mindestens den grünen Farbkanal mit 8 Bit zur Verfügung. Das System weist außerdem eine Leuchte 5120 auf, um das Gesicht während der Aufzeichnung durch die Kamera 185 auszuleuchten, die sich bspw. oberhalb und/oder unterhalb von der Kamera 185 befindet. Das System verfügt über ein Blutdruck-Ermittlungs-Modul 5125 zur Ermittlung des systolischen oder diastolischen Blutdrucks 5125 und/oder über eine Kippeinheit 5130, um den Erfassungswinkel der Kamera 185 im Vergleich zur Sagittal ebene zu minimieren. Dazu verfügt das System über Regeln, um bspw. eine senkrechte Linie zwischen die Augen der erfassten Person zu legen, so dass der Kopf in zwei Hälften geteilt wird. Es erfolgt eine Segmentierung des Gesichts, wobei über die einzelnen Segmente histograms-of-gradients gelegt werden. Sofern diese eine (spiegelverkehrte) Ähnlichkeit aufweisen, die unter einem Schwellwert liegt, wird das Gesicht als senkrecht erfasst wahrgenommen. Die Kamera 185 kann nun über eine Kipp-Einheit 5130 so angesteuert werden, dass während der Ansteuerung dieser Vergleich der Spiegel verkehrten Gesichtshälften über die histograms-of-gradients vorgenommen wird und die Kamera so positioniert wird, dass diese Schwellwerte der histograms-of-gradients unterschritten werden. In einem Aspekt verfügt das System über ein Personenerkennungsmodul 110, Personenidentifizierungsmodul 111, ein visuelles Personentracking-Modul 112, Bewegungsauswertungsmodul 120, Skelett-Erstellungs-Modul 5635, skelettmodell-basiertes- Merkmalsextraktions-Modul 5640 und/oder Bewegungsplaner (104).
Detektion von Substanzen auf oder unterhalb der Hautoberfläche
[0203] In einem Aspekt kann der Serviceroboter 17 auch mit einem Detektor 195 ausgestattet sein, der sich z.B. auf der dem Patienten zugerichteten Seite des Serviceroboters 17 befindet. Dieser Detektor 195 kann in einem Aspekt fest in oder auf der Oberfläche des Serviceroboters 17 integriert sein. In einem alternativen und/oder ergänzenden Aspekt ist der Detektor 195 auf einem Aktor 4920 montiert, bspw. einem Roboterarm, und kann, wie beispielhaft für die Ausrichtung des Spektrometers 196 auf die Haut eines Patienten beschrieben, auf vom Serviceroboter 17 identifizierte Oberflächen des Körpers des Patienten ausgerichtet werden und, in einem Aspekt, auf diese Weise auf die Haut des Patienten berühren. Der Serviceroboter 17 kann alternativ und/oder ergänzend den Patienten auch auffordem, den Detektor 195 zu berühren, bspw. mit einem Finger. Dabei ist der Serviceroboter 17 in einem Aspekt in der Lage zu verifizieren, dass der Patient den Detektor 195 tatsächlich berührt. In einem Aspekt kann diese Verifizierung über eine Probemessung erfolgen, wobei die erfassten Werte mit solchen aus einem im Speicher 10 abgelegten Messintervall verglichen werden, um zu beurteilen, ob der Patient tatsächlich einen Finger auf den Detektor 195 gelegt hat. Es ist bei diesem Ansatz jedoch nicht auszuschließen, dass die Messergebnisse ggf. durch die Orientierung des Fingers auf dem Sensor beeinflusst werden. In einem alternativen und/oder ergänzenden Aspekt wird daher ein kamerabasiertes Tracking des Fingers vorgenommen, wobei die Auswertung bspw. mittels des visuellen Personentracking-Moduls 112 und/oder des laserbasierten Personentracking-Moduls 113 erfolgt. Ein derartiges Tracking wurde an anderer Stelle in diesem Dokument bereits beschrieben. Alternativ und/oder ergänzend kann ein dialogbasiertes Verfahren genutzt werden, bei dem der Patient vom Serviceroboter 17 gefragt wird, ob der Serviceroboter 17 den Finger richtig abgelegt hat, was auf dem Weg über ein Display 2 und/oder eine Sprachausgabe erfolgen kann.
[0204] Die Oberfläche des Detektors 195 besteht aus einem Kristall, z.B. einen Kristall mit kubischer Gitterstruktur, bspw. in Diamantstruktur, mit hexagonaler Gitterstruktur oder mit tetragonaler Gitterstruktur. Der Kristall verfügt über einen Brechungsindex von 1-4, z.B. 1,3- 1,4, 2, 2-2, 4 oder bspw. 3,4-4, 1. Die Spektralweite des Kristalls liegt im Intervall lOOnm - 20.000 nm, z.B. im Intervall 900nm - 12.000nm. Das Messverfahren des Detektors 195 nutzt hierbei Ablenkungen eines Auswertungslasers 5205 an der Kristalloberfläche basierend auf laserinduzierter Anregung von Substanzen, welche durch einen weiteren Laser 5210 auf und/oder innerhalb der Haut eines Patienten angeregt werden. Dabei steht die Fläche, die durch den weiteren Laser 5210 angeregt wurde, bspw. mit dem Detektor 195 an der Stelle in Eingriff, an der der Auswertungslaser 5205 an der Kristalloberfläche abgelenkt wird. Zum Zwecke der Auswertung findet eine Merkmalsextraktion statt, bei der als Merkmale die Variationen der Wellenlänge des weiteren Lasers 5210 und die dadurch hervorgerufene und durch einen auf dem Photoeffekt basierenden Sensor erfasste Ablenkung des Auswertungslasers 5205 einfließen. Hierbei können die in Fig. 30 dargestellten Schritte, insbesondere 3025-3050, genutzt werden, welche an anderer Stelle detaillierter beschrieben wurden. Diese Merkmale werden anschließend klassifiziert, indem ein Vergleich mit im Speicher 10 hinterlegten Merkmalsklassen erfolgt. Hierbei sind bspw. bestimmten Wellenlängen und oder Wellenlängenvariationen des weiteren Lasers 5210 und darauf basierenden Ablenkungen des Auswertungslasers 5205 bestimmte Substanzen und deren Konzentrationen zugeordnet. Anschließend werden die ermittelten Klassifikationen abgespeichert und über ein Display 2 ausgeben und/oder im Patientenadministrationsmodul 160 abgespeichert.
[0205] In einer alternativen und/oder ergänzenden Ausführungsform wird ein kamerabasiertes System genutzt, welches auf die Oberfläche der Haut eines Patienten gerichtet ist und Messungen durchführen kann. Hierbei kann das System in einem Aspekt entweder starr am Serviceroboter 17 angebracht sein oder aber derart, dass es z.B. dreidimensional ausgerichtet werden kann, so dass es die Hautoberfläche eines Patienten erfassen kann, ohne dass sich dieser Patient bewegt. Dabei detektiert der Serviceroboter 17, wie bspw. für die Detektion von Emotionen beschrieben, Areale des Patienten, in denen die Hautoberfläche des Patienten erfasst werden soll.
[0206] Die zu erfassende Hautoberfläche wird von der mindestens einen Kamera 185 ausgeleuchtet, wozu in einem Aspekt LEDs eingesetzt werden, welche zusammen ein Lichtspektrum im Bereich von 550 -1600 nm, z.B. mindestens 900-1200 nm abbilden und damit im Infrarotbereich liegt. Hierbei ist der Sensor der mindestens einen Kamera 185 ein Sensor auf Basis von Indiumgalliumarsenid oder Bleisulfid, der in einem Aspekt mit einem Sensor auf Basis von Silizium ergänzt wird, der ggf. in einer weiteren Kamera 185 integriert ist. In einem Aspekt werden anstelle der LEDs ein Laser verwendet. Die Lichtquellen können so angesteuert werden, dass die Wellenlänge der Lichtquellen im Zeitablauf variiert. Dabei erfasst die mindestens eine Kamera 185 die durch das Licht angeregten Emissionen von Substanzen, die sich auf oder innerhalb der Haut befinden. Es findet während der Messung eine Merkmalsextraktion statt, welche Phase und Frequenz der von Substanzen auf und innerhalb der Haut emittierten Substanzen ermittelt, in einem weiteren Aspekt ebenfalls die Frequenzen des emittierten Lichts berücksichtigt. Hierbei kann eine Prä- und/oder eine Postprozessierung stattfinden, bei der verschiedene Filter genutzt werden, bspw. Band- und/oder Tiefpassfilter. Insgesamt können auch hier die in Fig. 30 dargestellten und an anderer Stelle detaillierter beschriebenen Schritte 3025 bis 3050 durchlaufen werden. Auf Basis einer Merkmalsklassifikation werden anschließend Konzentrationen der Substanzen bestimmt.
[0207] Das System zur Substanzmessung ist in Fig. 68 wie folgt illustriert: Das System zur Messung von Substanzen auf und/oder innerhalb der Haut einer Person, in einem Aspekt ein Serviceroboter 17, umfasst einen Detektor 195 mit einem Auswertungslaser 5205 und einem weiteren Laser 5210, wobei der Auswertungslaser ab Eintritt in ein Medium 5215 wie bspw. eine Kristalloberfläche abgelenkt wird und der weitere Laser 5210 eine Substanz unter Variation der Wellenlänge anregt, wobei der Bereich der angeregten Substanz an der Stelle mit dem Medium 5215 wie bspw. dem Kristall in Eingriff steht, an der der Auswertungslaser 5205 abgelenkt wird, weiter umfassend ein Laser-Variations-Modul 5225 zur Merkmalsextraktion und Merkmalsklassifizierung der Wellenlängenvariation des weiteren Lasers 5210 und ein Laserablenkungs-Auswertungs-Modul 5220 zur Auswertung der Ablenkung des Auswertungslasers. Das System verfügt bspw. über einen Sensor zur berührungslosen Erfassung einer Person, ein Bewegungsauswertungsmodul (120) zur Auswertung von erfassten Bewegungen der Person im Zeitablauf und/oder ein Fingerpositionierungs-Erkennungs-Modul 5230 zur automatisierten Erkennung der Positionierung eines Fingers auf dem Medium 5215 und Durchführung der Messung nach Auflegen des Fingers auf dem Medium. In einem Aspekt umfasst das System zur Messung von Substanzen auf und/oder innerhalb der Haut einer Person, bspw. ein Serviceroboter 17, einen Detektor 195 mit einem Medium 5215 bestehend aus einem Kristall mit kubischer, hexagonaler oder tetragonaler Gitterstruktur, einem Brechungsindex von 1-4 und einer Spektralweite, die im Intervall zwischen 100nm-20.000nm liegt. Das System kann weiter umfassen einen Auswertungslaser 5205 und einen weiteren Laser 5210, wobei der Auswertungslaser 5205 ab der Kristalloberfläche abgelenkt wird und der weitere Laser 5210 eine Substanz unter Variation der Wellenlänge anregt, wobei der Bereich der angeregten Substanz an der Stelle mit dem Medium 5215 in Eingriff steht, an der der Auswertungslaser 5210 abgelenkt wird. Das System kann weiter umfassen ein Laser-Variations-Modul 5225 zur Merkmalsextraktion und Merkmalsklassifizierung der Wellenlängenvariation des weiteren Lasers 5210 und Laserablenkungs- Auswertungs-Modul 5220 zur Auswertung der Ablenkung des Auswertungslasers 5205. Der Auswertungslaser wird mittels eines Sensors auf Basis des Fotoeffekts 5250 ausgewertet. Das System kann weiterhin eine Schnittstelle zur Übertragung von Daten in ein Patientenadministrationssystem 160 umfassen. Der Detektor 195 kann auf einem Aktor 4920 positioniert sein und das System über ein Modul mit Regeln verfügen, um den Detektor 195 auf der Haut einer Person zu positionieren, bspw. unter Abgleich der Positionen von Aktor 4920 und der Position, auf der der Aktor positioniert werden soll, und Ansteuerung des Aktors derart, dass sich die Distanz zwischen Aktor 4920 und der Position, auf der der Aktor 4920 positioniert werden soll, reduziert bis mindestens nahe Null. Weiterhin kann das System einen Sensor zur berührungslosen Erfassung einer Person wie bspw. einer 2D oder 3D-Kamera 185, einen LID AR 1, einen Radar und/oder einem Ultraschall sensor 194 aufweisen. Das System kann, in einem Aspekt, ein Körperregions-Detektions-Modul 4810 und ein Körperregion-Tracking-Modul 4815 zum Tracking der Messregion aufweisen. Das System zur Messung von Substanzen auf und/oder innerhalb der Haut einer Person ist, in einem Aspekt, mit einer Kamera 185 und einer Kippeinheit (5130) zur horizontalen und/oder vertikalen Ausrichtung der Kamera 185 ausgestattet, mit einem Körperregions-Detektions- Modul (4810) und ein Körperregion-Tracking-Modul (4815) zur Identifikation und zum Tracken von einer Person im Zeitverlauf (in einem Aspekt identisch mit dem Personenidentifizierungsmodul 111 und den Trackingmodulen 112 und 113), mit mindestens einer Lichtquelle 5270, um die zu erfassende Haut der Person zu beleuchten, wobei das System über eine Wellenlängenvariations-Einheit 5275 zur Variation der Wellenlänge des von der mindestens einen Lichtquelle emittierten Lichts verfügt, und eine Wellenlängenvariations-Auswertungs-Einheit 5280 zur Auswertung der Variation der Wellenlänge der erfassten Signale. Bei der mindestens eine Lichtquelle 5270 kann es sich um einen Laser (in einem Aspekt identisch mit dem Lasern 5205 und/oder 5210) und/oder um mehrere LEDs mit unterschiedlichen Spektren handelt, die entsprechend angesteuert werden können. Die Wellenlänge des emittierten Lichts beträgt zwischen 550 und 1600 nm liegt, bspw. 900 und 1200 nm. Die Kamera 185 kann bspw. über einen Fotodetektor aus Indiumgalliumarsenid oder Bleisulfit verfügen. In einem Aspekt verfügt das System über eine weitere Kamera 185 zur Detektion von Licht im Spektrum 400-800 nm. Das System kann bspw. über ein Stoffklassifikationsmodul-Modul 5295 zur Merkmalsextraktion und Merkmalsklassifizierung erfasster Daten und Vergleich der klassifizierten Daten mit einer Substanzklassifikation, d.h. es erfolgt bspw. eine Auswertung mindestens des detektierten Lichts durch Vergleich ausgewerteter Merkmale mit hinterlegten Merkmalen. In einem Aspekt verfügt das System über ein Personen erkennungsmodul 110, Personenidentifizierungsmodul 111, ein Trackingmodul (112, 113),
Bewegungsauswertungsmodul 120, Skelett-Erstellungs-Modul 5635 und/oder skelettmodell- basiertes-Merkmalsextraktions-Modul 5640.
Feuchtigkeitserkennung und Roboternavigation
[0208] Im Umfeld, in dem der Serviceroboter 17 sich bewegt, kann es Vorkommen, dass die Böden, auf denen sich der Serviceroboter 17 und eine vom Serviceroboter 17 getrackte Person bewegen, feucht sind, bspw. bedingt durch Reinigungsarbeiten oder das Verschütten von Flüssigkeiten. Mit Blick auf Personen, die durch den Serviceroboter 17 zum Training angeleitet werden, können solche feuchten Oberflächen eine Gefahr darstellen, die mit einer erhöhten Sturzgefahr einhergeht. Um das Verletzungsrisiko der Person zu reduzieren, verfügt der Serviceroboter 17 in einem Aspekt über eine entsprechende Sensorik, um Feuchtigkeit auf dem Boden zu erkennen. Im Stand der Technik sind verschiedene Sensortechniken beschrieben, die hierbei Einsatz finden können:
[0209] Yamada et al 2001, „Discrimination of the Road Condition toward Understanding of Vehicle Driving Environments“, IEEE Transactions on Intelligent Transportation Systems, vol 2 (1), March 2001, 26-31 (DOI: 10.1109/6979.911083) beschreiben ein Verfahren zur Detektion von Feuchtigkeit auf dem Boden mittels Polarisation des einfallenden Lichts. Dabei nutzen sie den Brewster-Winkel (53,1°) als Neigungswinkel, um in der horizontalen Polarisationsebene die Reflexion auf 0 zu setzen, während die vertikale Polarisation eine starke Reflexion zeigt. Dabei wird auf Basis des Verhältnisses der gemessenen Intensitäten der horizontalen und vertikalen Polarisierung ermittelt, inwieweit sich auf der gemessenen Oberfläche Feuchtigkeit befindet.
[0210] Roserund Mossmann, „Classification ofWeather Situations on Single-Colour Images“, 2008 IEEE Intelligent Vehicles Sysmposium, 2-6 June 2008 (DOI:
10.1109/IVS.2008.4621205) dagegen schlagen einen Ansatz vor, der ohne Polarisationsfilter auskommt und auf Bildparametern wie Kontrast, Helligkeit, Schärfe, Farbtöne und Sättigung basiert, die als Merkmale aus den Bildern extrahiert werden. Die Helligkeit wird dabei durch das in der Bildverarbeitung etablierte Koschmieder-Modell berücksichtigt, wobei die Helligkeit vornehmlich von der Dämpfung und Streuung des Lichts abhängig ist. Der Kontrast wiederum wird über die Differenz aus lokalen Extrema der Helligkeit ermittelt, wobei hierbei die hellsten und dunkelsten Pixel in der beobachteten Region miteinander verglichen werden. Bzgl. der Schärfe basiert der Ansatz auf dem in der Bildverarbeitung etablierten Tenengrad-Kriterium. Farbtöne und Sättigung werden über definierte Pixel gruppen ermittelt. Für jede erfasste Region wird pro Merkmal ein Histogramm mit 10 Bereichen generiert und daraus ein Vektor abgeleitet, der die Ergebnisse der Merkmale enthält. Diese Vektoren können mittels Verfahrens des maschinellen Lemens/der künstlichen Intelligenz klassifiziert werden, darunter k-NN, neuronale Netze, Entscheidungsbäume, oder Support Vector Machines. Dabei liegen zunächst vorgelabelte Daten vor zum Trainieren der Algorithmen, und die dabei ermittelten Klassifikationen erlauben es, künftige Aufnahmen des Fußbodens dahingehend zu bewerten, inwieweit die Böden feucht sind.
[0211] Dagegen analysiert US Patentanmeldung Nr. 2015/0363651 Al die durch eine Kamera aufgenommene Textur der Oberfläche, um sie auf Nässe zu überprüfen, und vergleicht dabei zwei zu unterschiedlichen Zeitpunkten aufgenommene Bilder und nimmt eine Merkmalsextraktion vor. Zu den Merkmalen zählen räumliche Nähe von Pixeln innerhalb einer Region (d.h. es wird nach wiederkehrenden Mustern gesucht), Kantendetektion und deren räumliche Orientierung, die Ähnlichkeit von Graustufen zwischen den Bildern, das etablierte Laws‘ Textur-Energie-Maß, Autokorrelations- und Leistungsdichte-Modelle, sowie Textursegmentierungen (sowohl regionsbasiert als auch grenzbasiert, d.h. Kanten, die zwischen Pixel mit verschiedenen Texturen liegen).
[0212] Dagegen nutzt McGunnicle 2010, „Detecting Wet Surfaces using near-Infrared Lighting, Journal of the Optical Society of America A, vol 27 (5), 1137-1144 (DOI: 10.1364/JOSAA.27.001137) Infrarotdioden mit einem Spektrum um ca. 960 nm und zeichnet das von diesen Dioden emittierten Lichts mittels einer RGB (CCD)-Kamera auf, um das Lichtspektrum entsprechend auszuwerten. Dabei kann McGunnicle zeigen, dass feuchte Oberflächen ein charakteristisches Spektrum emittieren, wodurch sich Feuchtigkeit auf der Oberfläche detektieren lässt. [0213] Ein weiterer Ansatz nutzt statt Licht im sichtbaren oder unsichtbaren Bereich Radarwellen, insbesondere Ultraweitband-Radarwellen, die zur Stoffanalyse eingesetzt werden. Die reflektierten Signale lassen sich wie im Stand der Technik beschrieben auswerten (d.h. klassifizieren), wobei bei der Messung von Feuchtigkeit auf Oberflächen charakteristische Merkmale erkannt werden, so dass die Art der Feuchtigkeit detektiert wird.
[0214] In allen Fällen sind die Sensoren am Serviceroboter 17 derart angeordnet, dass die Sensoren mindestens die Oberfläche vor oder unter dem Serviceroboter 17 erfassen, in einem Aspekt auch seitlich oder rückwärtsgerichtet.
[0215] In einem Aspekt sind die Algorithmen zur Feuchteermittlung im Speicher 10 des Serviceroboters 17 hinterlegt, bspw. als Werte in einer Datenbank, die es erlauben, das erfasste Lichtspektrum im Infrarotbereich spektral oder aber die vom Serviceroboter 17 emittierten und von den Oberflächen reflektierten Radarwellen auszuwerten. In einem alternativen oder ergänzenden Aspekt verfügt der Serviceroboter 17 über ein selbstlernendes System 3100 (siehe Fig. 31), um feuchte von trockenen Böden zu unterscheiden. Dieses selbstlernende System ist bspw. insbesondere für die optischen Verfahren hilfreich, die die Textur und/oder Reflexionen der Oberfläche ermitteln. Hierzu fährt der Serviceroboter 17 die Oberflächen ab 3110, über die der Serviceroboter 17 sich üblicherweise bewegt, während diese Oberflächen sich im trockenen Zustand befinden. Dabei zeichnet der Serviceroboter 17 mittels mindestens eines integrierten Sensors die Oberflächen auf 3120, und nimmt eine Merkmalsextraktion vor 3130, bspw. nach den Ansätzen von Roger und Mossmann oder nach der Lehre der US Patentanmeldung Nr. 2015/0363651 Al. Dies erfolgt vorzugsweise zu unterschiedlichen Tageszeiten, um unterschiedliche Lichtverhältnisse berücksichtigen zu können (Tageslicht, künstliche Beleuchtung und/oder Kombinationen daraus). Über eine Eingabevorrichtung, die in einem Aspekt über eine Schnittstelle 188 (wie z.B. WLAN) mit dem Serviceroboter 17 verbunden ist, wird den aufgezeichneten Messwerten ein Wert zugewiesen, der die aufgezeichneten Oberflächen als trocken charakterisiert (Labelling 3140). Dieser Wert wird, zusammen mit den aufgezeichneten Messwerten, im Schritt 3145 im Speicher 10 abgelegt. In einem weiteren Schritt 3150 fährt der Serviceroboter 17 mindestens anteilig die zuvor abgefahrenen Flächen erneut ab, wobei diese zuvor abgefahrenen Flächen jedoch feucht sind. Dazu wird ebenfalls über eine Eingabevorrichtung, die in einem Aspekt über eine Schnittstelle 188 (wie z.B. WLAN) mit dem Serviceroboter 17 verbunden ist, den aufgezeichneten Messwerten ein Wert zugewiesen, der die aufgezeichneten Oberflächen als feucht charakterisiert (Labelling 3140). Die Abfolge, ob zunächst trockene oder feuchte Flächen abgefahren werden (oder diese Abfolge sich gar abwechseln), ist für die Wirksamkeit des Verfahrens unerheblich. Mittels Verfahrens des maschinellen Lemens/der künstlichen Intelligenz wird anschließend eine Merkmalsklassifizierung 3160 der durch die Sensoren aufgezeichneten Merkmale vorgenommen, wie bspw. in Roger und Mossmann dargestellt. Im Ergebnis werden Oberflächen als feucht oder trocken im Schritt 3170 detektiert. Die Ergebnisse der Merkmalsklassifizierung, d.h. ob die Oberflächen feucht oder trocken sind, werden im Speicher des Serviceroboters 17 im Schritt 3180 abgelegt.
[0216] Bei künftigen Fahrten des Serviceroboters 17 kann der Serviceroboter 17 auf die abgespeicherten Klassifikationen (bspw. für Radarreflexionen, Infrarot-Spektralabsorptionen, Lichtreflexionen bzw. Texturen via Kameraufnahmen) zurückgreifen und mittels dieser abgespeicherten Klassifikationen durch seine Sensoren erfassten Messwerte auswerten, ob die erfassten Oberflächen feucht sind.
[0217] Fig. 32 stellt die Navigation des Serviceroboters 17 unter Detektion von Feuchtigkeit auf Oberflächen 3200 dar. Navigiert der Serviceroboter 17 unter Begleitung einer Person 3210, bspw. eines Patienten beim Training, so zeichnet der Serviceroboter 17 die Oberflächenbeschaffenheit der Böden auf 3120, über die der Serviceroboter 17 sich bewegt. Es findet eine Merkmalsextraktion 3130, eine Merkmalsklassifizierung 3160 und damit einhergehend eine Feuchtigkeitsdetektion 3170 statt. Dazu kann der Serviceroboter 17, in einem Aspekt und je nach Art der genutzten Sensoren bzw. der implementierten Auswertungsalgorithmen, in einem optionalen Schritt durch eine Drehbewegung 3220, bspw. um eine vertikale Achse des Serviceroboters 17, die Breite der Feuchtigkeit bzw. des trockenen Bereichs 3230 erfassen. Diese Ausführung kann, in einem Aspekt, im Bewegungsplaner 104 hinterlegt sein. Je nach Art und Ausführung des Sensors kann anstelle einer Drehbewegung des Serviceroboters 17 eine Kippeinheit 5130 eingesetzt werden bzw. der Erfassungswinkel des Sensors ist ausreichend weit, um auch ohne Bewegung die Fläche in Fahrtrichtung zu erfassen. Die Breite wird hier bspw. orthogonal zur Fahrtrichtung ermittelt. Die Breite des trockenen (alternativ des feuchten) Bereichs wird mit in einem Speicher hinterlegten Wert verglichen 3240. In einem alternativen Aspekt wird die Breite des feuchten Bereichs bspw. in Relation zur Breite des Raums ermittelt, in dem sich der Serviceroboter 17 bewegt. Liegt die erfasste Breite des trockenen Bereichs unter der in dem Speicher hinterlegten Breite, fährt der Serviceroboter 17 nicht auf die feuchte Fläche, sondern stoppt und/oder wendet im Schritt 3250, wie im Bewegungsplaner 104 hinterlegt ist. In einem optionalen Aspekt erfolgt eine Ausgabe über die Ausgabeeinheit (Display 2, Lautsprecher 192, ggf. auch Projektionsvorrichtung 920/Warnleuchten), die auf die als feucht identifizierte Oberfläche hinweist. In einem optionalen Aspekt sendet der Serviceroboter 17 über eine Schnittstelle 188 (wie z.B. WLAN) eine Nachricht an einen Server und/oder ein Terminal im Schritt 3260. Ist dagegen der detektierte trockene Bereich breiter als der Schwellwert, navigiert der Serviceroboter 17 durch den trockenen Bereich im Schritt 3270, wie im Bewegungsplaner 104 hinterlegt ist. Dabei hält der Serviceroboter 17 einen im Bewegungsplaner 104 hinterlegten Mindestabstand zur als feucht detektierten Oberfläche ein 3280. In einem optionalen Aspekt kann der Serviceroboter 17 über eine Ausgabeeinheit (Display 2, Lautsprecher 192, ggf. auch Projektionsvorrichtung 920/Warnleuchten) die begleitete Person auf die feuchte Oberfläche hinweisen 3290.
[0218] Die Klassifizierung der Feuchtigkeit umfasst in einem Aspekt auch den Grad der Feuchtigkeit. So kann sich bspw. selbst auf als trocken wahrgenommenen Oberflächen ein sehr dünner Feuchtigkeitsfilm befinden, der jedoch so gut wie keine Auswirkungen auf die Reibung hat, die ein Gegenstand auf der Oberfläche erfahren würde.
[0219] Zusammengefasst lässt sich die Erfassung und Bewertung von Feuchtigkeit auf Oberflächen wie folgt zusammenfassen: Erfassung einer Oberfläche wie bspw. dem Boden, Klassifizierung der Oberflächenbeschaffenheit zur Detektion von Feuchtigkeit auf der Oberfläche, Segmentierung der erfassten Oberfläche in feuchte und nicht-feuchte Bereiche, Ermittlung der Breite der erfassten Bereiche, Bewertung der Breite der erfassten Bereiche durch Vergleich mit mindestens einem hinterlegten Wert.
[0220] Ein alternativer Ablauf kann wie folgt zusammengefasst werden, wie in Fig. 81 illustriert: Erfassung einer Oberfläche 6005, Oberflächenklassifizierung zur Feuchtigkeitsdetektion 6010, Oberflächensegmentierung in feuchte und nicht-feuchte Bereiche 6015, Hinterlegung feuchter Bereiche in einer Karte 6020, Ermittlung von Fläche mit Mindestdimensionen 6025 und darauf basierend eine Ausgabe über eine Ausgabeeinheit 6030, Übermittlung einer Nachricht 6035 und/oder Modifikation eines Werts im Speicher 10 (Schritt 6040). Alternativ und/oder ergänzend kann eine Modifikation einer Pfadplanung und/oder Bewegungsplanung 6045 erfolgen. Fig. 82 illustriert ebenfalls einen Teil des Ablaufs. Der Serviceroboter 17 bewegt sich in einem Gang 6071 entlang eines initial geplanten Pfads 6072 (siehe Fig. 82a), wobei sich auf dem Boden mehrere Segmente mit Feuchtigkeit befinden 6070, die vom Serviceroboter erfasst werden. Der Serviceroboter 17 plant im Pfadplanungsmodul 103 einen neuen Pfad 6073, der auf Basis der Feuchtigkeit als Hindernis errechnet wird. Der Serviceroboter 17 vergleicht die Breite 6074 zwischen als Hindernis hinterlegten, als feucht ermittelten Flächensegmenten, die sich bspw. aus einer im Kartenmodul (107) hinterlegten Karte ergibt, hält bspw. Sicherheitsabstände zu diesen als feucht erfassten Flächensegmenten ein und folgt dem neu errechneten Pfad (siehe Fig. 81 c). Wie in Fig 81 d) ersichtlich ist, ist ein als feucht erfasstes Flächensegment jedoch so breit, dass der Serviceroboter nicht um dieses herumnavigieren kann, weil die Breite zwischen dem als feucht klassifizierten Bereich und den Wänden des Gangs geringer ist als die Breite des Serviceroboters 17, weshalb der Serviceroboter 17 vor diesem stoppt.
[0221] Ein System zur Feuchtigkeitsdetektion ist wie in Fig. 69 illustriert wie folgt beschrieben: Es umfasst einen Sensor zur berührungslosen Erfassung einer Oberfläche (z.B. Kamera 185 oder ein Radarsensor 194), ein Segmentierungsmodul 5705 zur Segmentierung der erfassten Oberfläche, ein Feuchtigkeitsermittlungsmodul 5305 zur Klassifizierung der Segmente hinsichtlich Feuchtigkeit auf der Oberfläche und ein
Feuchtigkeitsbewertungsmodul 5310 zur Bewertung der Dimensionen der klassifizierten Segmente der Oberfläche. Weiterhin kann es ein Kartenmodul 107 umfassen, dass Hindernisse im Elmfeld des Systems enthält und die hinsichtlich Feuchtigkeit klassifizierten Segmente. In einem Aspekt umfasst das System einen Bewegungsplaner 104 und/oder ein Pfadplanungsmodul 103, bspw. eine Ausgabeeinheit (2 oder 192) und im Speicher 10 hinterlegte Ausgaben zum Hinweisen auf die als feucht detektierte Fläche. Beim System kann es sich um einen Serviceroboter 17 handeln, z.B. in Begleitung einer Person.
[0222] Das System zur Detektion der Position von Feuchtigkeit auf einer Oberfläche (bspw. ein Serviceroboter 17, in einem Aspekt in Begleitung einer Person) umfasst eine Einheit zur
Ermittlung (bspw. eine Kamera 185) und ein Feuchtigkeitsermittlungsmodul 5305 zur
Klassifizierung der Segmente einer erfassten und segmentierten Oberfläche hinsichtlich
Feuchtigkeit auf der Oberfläche und ein Feuchtigkeitsbewertungsmodul 5310 zur Bewertung der Dimensionen der klassifizierten Segmente der Oberfläche. Dabei werden bspw. klassifizierten Flächen derart ausgewertet, dass die Breite der Feuchtigkeit in etwa senkrecht zur Bewegungsrichtung des Systems bewertet wird und trockene und/oder feuchte Areale in ihrer Breite ermittelt. Das System kann bspw. über einen Bewegungsplaner 104 mit Regeln verfügen, um bei Ermittlung eines trockenen Bereichs, dessen Breite einen im Speicher 10 hinterlegten Wert überschreitet, sich durch diesen Bereich zu bewegen. Der Bewegungsplaner 104 kann bspw. über Regeln zur Ermittlung eines Mindestabstands zum feuchten Bereich verfügen, bspw. durch Einträgen der als feucht klassifizierten Bereiche in eine Karte und Abgleich der eigenen Position mit der Karte. Das System verfügt über eine Ausgabeeinheit (2 oder 192) und im Speicher 10 hinterlegte Regeln zum Hinweisen auf die als feucht detektierte Fläche und/oder Warnungen. Der Bewegungsplaner 104 kann bspw. hinterlegte Regeln aufweisen, die das System anweisen, seine Bewegung in einer vorgegebenen Zielfahrtrichtung abzubrechen, wenn die ermittelte Breite des feuchten Bereichs einen Schwellwert überschreitet oder die Breite des ermittelten trockenen Bereichs einen Schwellwert unterschreitet, ähnlich wie Regeln aus dem Stand der Technik, bei denen sich ein mobiles System auf ein Hindernis zubewegt. Zudem kann das System über eine Einheit zum Senden einer Nachricht an einen Server und/oder Terminal 13 verfügen.
Klassifizierungsverfahren gestürzter Personen
[0223] Der Serviceroboter 17 verfügt in einem Aspekt über eine Sturzerkennung, d.h. der Serviceroboter 17 ist derart konfiguriert, dass der Serviceroboter 17 Stürze von Personen direkt oder indirekt detektieren kann. Diese Auswertung von Sturzereignissen 3300 ist in Fig. 33 dargestellt. Indirekt bedeutet, dass der Serviceroboter 17 auf externe Sensorik zurückgreift, direkt bedeutet eine Auswertung mittels eigener Sensorik.
[0224] In einem Aspekt ist eine Person mit einer Sensoreinheit zur Sturzdetektion ausgestattet, d.h. der Serviceroboter 17 ist über eine Schnittstelle 188 (wie z.B. WLAN) mit einem externen Sturzsensor verbunden, der sich an der zu überwachenden Person befindet
3310. Diese Sensoreinheit beinhaltet mindestens eine Steuereinheit, eine Stromquelle, ggf. einen Speicher, eine Schnittstelle 188 (wie z.B. WLAN), und mindestens einen Inertialsensor zur Erfassung der Bewegungen der Person 3315, bspw. einen Beschleunigungssensor. In einem Aspekt werden die Signale des Inertialsensors innerhalb der Sensoreinheit im Schritt
3325 ausgewertet, in einem alternativen Aspekt werden die Signale im Schritt 3320 an den
Serviceroboter 17 übertragen, so dass eine Auswertung der Signale im Serviceroboter 17 realisiert wird 3330. Die erfassten Messwerte werden im Schritt 3335 dahingehend klassifiziert, ob die Person gestürzt ist. Diese Klassifizierung kann bspw. durch Messen einer
Beschleunigung erfolgen, die über einem definierten Schwellwert liegt. Basierend auf einer
Sturzdetektion erfolgt im Schritt 3345 dann über eine Schnittstelle 188 (wie z.B. WLAN) eine
Benachrichtigung, d.h. es wird bspw. ein Alarmsystem benachrichtigt und/oder ein Alarm (bspw. einen Alarmton) ausgelöst, etc. Sofern die Klassifizierung der erfassten Bewegungen innerhalb der Sensoreinheit erfolgt, wird die Benachrichtigung und/oder Alarmierung durch die Sensoreinheit (über eine Schnittstelle 188 (wie z.B. WLAN)) vorgenommen. Sofern der Serviceroboter 17 die Klassifizierung der Bewegungen durchführt, löst dieser die Benachrichtigung aus und/oder initiiert den Alarm.
[0225] In einem Aspekt ist die Sensoreinheit derart ausgestaltet, dass die Sensoreinheit zwecks Detektion der Schwere des Sturzes die Bewegungen der Person detektiert, dazu Messwerte erhebt und direkt innerhalb der Sensoreinheit und/oder über den Serviceroboter 17 eine Klassifizierung der Messwerte im Schritt 3340 erfolgt. Konkret bedeutet dies, dass hierbei erfasst wird, inwieweit die Person, die mit dem Beschleunigungssensor ausgestattet ist, sich weiterhin bewegt. Dazu können Beschleunigungs- und/oder Orientierungsdaten der Sensoreinheit ausgewertet werden. Im Speicher der Sensoreinheit und/oder des Serviceroboters 17 sind dazu Regeln hinterlegt, die, basierend auf den gemessenen Bewegungsdaten, unterschiedliche Benachrichtigungen auslösen. Bspw. kann, wenn nach einem detektieren Sturz die Sensoreinheit Bewegungsinformationen ermittelt, die über definierten Schwellwerten liegen und/oder welche derart klassifiziert werden, dass die gestürzte Person wieder aufsteht, die Benachrichtigung und/oder der Alarm modifiziert werden, bspw. derart, dass die Priorität der Benachrichtigung reduziert wird. Dagegen kann für den Fall, die Sensoreinheit detektiert nach einem Sturzereignis keine weitere Bewegung und/oder Lageänderung der gestürzten Person, die Benachrichtigung und/oder der Alarm modifiziert werden, bspw. die Priorität der Benachrichtigung erhöht werden. In einem Aspekt erfolgt die Benachrichtigung bzw. der Alarm erst nach Analyse des Bewegungsverhaltens der Person nach dem Sturz, d.h. ggf. erst mehrere Sekunden nach dem eigentlichen Sturz, wodurch sich ggf. die mit dem Sturzereignis assoziierten Benachrichtigungen reduzieren.
[0226] In einem Aspekt ist der Serviceroboter 17 mit einer drahtlosen Sensoreinheit ausgestattet, um Sturzereignisse einer Person im Schritt 3350 zu ermitteln. Bei dieser Sensoreinheit kann es sich um eine Kamera 185, bspw. eine 3D-Kamera, einen Radarsensor und/oder einen Ultraschall sensor 194 handeln bzw. um Kombinationen aus mindestens zwei Sensoren. Dabei wird die Sensoreinheit bspw. dazu genutzt, eine Person zu identifizieren und/oder die Person im Zeitablauf im Schritt 3355 zu tracken, was bspw. mittels des visuellen Personentracking-Moduls 112 und/oder des laserbasierten Personentracking-Moduls 113 umgesetzt wird. So kann bspw. der Serviceroboter 17 mit einer Kinect oder Astra Orbbec ausgestattet sein, d.h. einer RGB-D-Kamera 185, welche mittels im Stand der Technik beschriebenen Verfahren in der Lage ist (bspw. mittels Kamera-SDK, NUITrack, OpenPose, etc.), ein Skelettmodell detektierter Personen im Schritt 3360 zu erstellen, in welchem Körpergelenke als Gelenkpunkte und die die Gelenkpunkte verbindenden Körperteile dargestellt werden, bspw. als Richtungsvektoren. Im Rahmen einer Merkmalsextraktion 3365 werden hierbei verschiedene Orientierungen der Richtungsvektoren wie auch Distanzen von Gelenkpunkten zur detektieren Oberfläche ermittelt, auf der sich die detektierten Personen bewegt. Im Rahmen einer Merkmalsklassifizierung 3370 wertet der Serviceroboter 17 aus, ob die detektierte Person steht bzw. geht, sitzt, oder ggf. gestürzt ist. Dabei können die Regeln der Merkmalsklassifizierung in einem Aspekt fest vorgegeben sein, in einem alternativen und/oder ergänzenden Aspekt können die Regeln durch den Serviceroboter 17 selbst gelernt werden. Bei diesem Erlernen werden Aufnahmen von Personen, die gestürzt sind, wie auch Aufnahmen von Personen, die nicht gestürzt sind, ausgewertet, wobei durch ein Labelling festgelegt worden ist, um welchen Fall es sich hierbei handelt. Darauf basierend kann der Serviceroboter 17 mittels Verfahrens des maschinellen Lernens/der künstlichen Intelligenz Klassifikationen vornehmen, die es erlauben, künftige Aufnahmen von Personen dahingehend zu klassifizieren, ob diese gestürzt sind oder nicht.
[0227] Eine Sturzdetektion erfolgt hierbei bspw. auf Basis der Extraktion der folgenden Merkmale im Schritt 3367, wobei die Körperteile mit Blick auf den Sturz ausgewertet, d.h. klassifiziert werden: Distanzen und Distanzänderungen hin zum Fußboden bzw. aus den Distanzen oder Distanzänderungen abgeleitete Beschleunigungen (bspw. über definierte Mindestzeiträume) von Gelenkpunkten in eine Richtung, deren vertikale Richtungskomponente größer ist als eine horizontale Richtungskomponente, wobei die vertikale Richtungskomponente vorzugweise in Richtung Erdmittelpunkt zeigt. Beispielsweise kann eine detektierte Distanz des Hüftgelenkpunkts zum Boden von weniger als 20 cm als ein Sturzereignis klassifiziert werden, eine Distanzänderung von bspw. größer 70 cm hin zu weniger als 20 cm, oder eine Beschleunigung des Hüftgelenkpunkts in Richtung Boden ebenfalls, wobei diese Beschleunigung z.B. eine definierte Zeitdauer unterschreitet (bspw. 2 Sek). Alternativ und/oder ergänzend kann auch die Orientierung von mindestens einem Richtungsvektor (als Verbindung zweier Gelenkpunkte) im Raum bzw. die Änderung des Richtungsvektors im Raum als ein Sturzereignis klassifiziert werden. Dazu zählt bspw. eine Orientierung der Wirbelsäule und/oder der Beine, die im Wesentlichen horizontal ist, als Sturzereignis, insbesondere nach einem erfolgten Orientierungswechsel (bspw. aus der im Wesentlichen Vertikalen in die im Wesentlichen Horizontale), der optional innerhalb eines definierten Zeitraums erfolgt. In einem alternativen und/oder ergänzenden Aspekt wird durch die 3D-Kamera die Höhe der Person ermittelt. Unterschreitet die Höhe der Person eine definierte Höhe, wird damit ein Sturzereignis detektiert. Alternativ und/oder ergänzend zur Höhe der Person kann auch die Fläche ermittelt werden, die die Person auf dem Boden einnimmt. Dazu kann, in einem Aspekt, die Fläche durch eine vertikale Projektion der getrackten Person auf den Boden ermittelt werden.
[0228] Nach klassifiziertem Sturzereignis triggert der Serviceroboter 17 eine Benachrichtigung und/oder einen Alarm im Schritt 3345, bspw. über eine Schnittstelle 188 (wie z.B. WLAN), als akustischer Alarm über einen Lautsprecher 192, usw.
[0229] Für den Fall, der Serviceroboter 17 detektiert Personen mittels Radar und/oder Ultraschall 194, werden dazu vornehmlich die äußeren Dimensionen der Person erfasst, inklusive ihrer Höhe. Wird dabei eine Höhenreduktion detektiert, ggf. eine Beschleunigung der Höhenreduktion, so wird dies als Sturzereignis klassifiziert, ggf. in Verbindung der Unterschreitung von Schwellwerten. Alternativ und/oder ergänzend kann der Serviceroboter 17 auch die Fläche der Person klassifizieren, die diese Person (in einem Beispiel vertikal projiziert) auf dem Boden einnimmt.
[0230] In einem Aspekt erfasst der Serviceroboter 17 auch die Position des Kopfs der Person im Schritt 3369. Diese Position wird mit Blick auf den Boden und/oder (die Position) detektierter Hindernisse getrackt. Dies heißt bspw. dass durch die Sensoreinheit (Kamera 185, Radar und/oder Ultraschall sensor 194) detektierte Wände erfasst werden. Alternativ und/oder ergänzend kann die Position der Wände auch mittels des LIDARs 1 ermittelt werden. Der Serviceroboter 17 vergleicht die horizontale Position des Kopfs der Person mit der (horizontalen) Position von Wänden und/oder anderen Hindernissen im Raum.
[0231] In einem alternativen und/oder ergänzenden Aspekt wird dabei auch die vertikale Position berücksichtigt. So kann bspw. die Kamera 185 auch Distanzen des getrackten Kopfs zu Objekten im dreidimensionalen Raum wie Tischen auswerten. Der (zweidimensionaler, im Wesentlichen horizontal ausgerichteter) LID AR 1 würde bspw. die Tischbeine erkennen, aber nicht notwendigerweise die Position einer Tischplatte im Raum, welche die Person im Falle eines Sturzes mit dem Kopf berühren könnte. Die kamerabasierte Auswertung dagegen erlaubt die dreidimensionale Erfassung von dem Kopf und anderen Hindernissen im Raum und die Ermittlung des Abstands zwischen diesen anderen Hindernissen und dem Kopf, welche im Rahmen der Klassifizierung im Schritt 3374 ausgewertet wird. Wird durch den Serviceroboter 17 das Unterschreiten eines Abstandswerts zwischen dem Kopf und einem der anderen Hindernisse detektiert, wird ein Wert im Speicher des Serviceroboters 17 modifiziert und ggf. eine separate Benachrichtigung bzw. einen separaten Alarm ausgelöst.
[0232] Der Serviceroboter 17 trackt ferner die Person nach ihrem Sturz und erfasst, inwieweit diese sich wieder aufrichtet oder aufzurichten versucht, d.h. es erfolgt eine Post-Sturz- Bewegungserfassung und -klassifizierung im Schritt 3340. Inwieweit bedeutet bspw., dass Distanzen hin zum Boden, Beschleunigungen in vertikaler, zum Boden gegenläufige Richtungen, die Orientierung der Körperteil- bzw. Gliedmaßen- Vektoren, die Höhe und/oder die (projizierte) Fläche der Person ausgewertet werden. In einem Aspekt wird auch der Grad der Positionsänderungen von Gelenkpunkten ausgewertet. Es findet eine Klassifizierung dahingehend statt, wieweit die Person sich bewegt oder gar aufzustehen versucht. Damit werden in einem Speicher des Serviceroboters 17 Werte angepasst und, in einem Aspekt, der Grad der Benachrichtigung über die Schnittstelle 188 (wie z.B. WLAN) /den Alarm modifiziert. Praktisch bedeutet dies, dass je nach Schwere des Sturzes unterschiedliche Alarme und/oder Benachrichtigungen erfolgen können. Es sind auch Kombinationen aus Klassifizierung des Sturzes mittels an der Person getragenem Sensor und Sensordatenauswertung innerhalb des Serviceroboters 17 mittels Kamera 185, Radar- und/oder Ultraschall 194 möglich. Zusammengefasst stellt sich der Ablauf der Bewertung eines Sturzereignisses wie folgt dar: Erfassung und Tracking der Bewegungen einer Person, Detektion eines Sturzereignisses mittels einer Merkmalsextraktion und Klassifizierung der Orientierung von Gliedmaßen und/oder dem Rumpf der Person, Detektion und Klassifikation der Bewegungen der Person nach erfolgtem Sturz und Bewertung der Schwere des Sturzereignisses.
[0233] In einem Aspekt ist der Serviceroboter 17 auch in der Lage, mittels seiner Sensorik Vitalparameter der gestürzten Person im Schritt 3380 zu erfassen. Dazu kann bspw. ein integrierter Radarsensor wie ein Ultra weitband-Radar dienen, wie dies an anderer Stelle erläutert wurde. Hierbei können, in einem Aspekt, mittels Radar und/oder kamerabasierten Verfahren Körperteile der Person detektiert werden, die nicht durch Kleidung bedeckt sind, und auf diesen Arealen bspw. mittels Radar eine Messung des Pulses der Person vorgenommen werden. Diese Information kann bei der Klassifizierung der Benachrichtigung und/oder des Alarms berücksichtigt werden, in einem Aspekt können die Vitalparameter wie bspw. der Puls auch mit der Benachrichtigung übermittelt werden.
[0234] Das System zur Sturzklassifikation ist in Fig. 70 näher illustriert. Demnach umfasst das System zur Detektion des Sturzes einer Person, bspw. ein Serviceroboter 17, einen Speicher 10, mindestens einem Sensor zur berührungslosen Erfassung der Bewegungen der Person im Zeitverlauf, ein Personenidentifizierungsmodul 111 und ein Personentracking- Modul 112 oder 113, ein Sturzdetektions-Modul 5405 zur Extraktion von Merkmalen aus den Sensordaten und Klassifizierung der extrahierten Merkmale als Sturzereignis, einem Sturzereignis-Bewertungs-Modul 5410 zur Klassifizierung der Schwere des Sturzereignisses. Das System kann ferner eine Schnittstelle 188 zu einem Server und/oder Terminal 13 zwecks Übermittlung von Nachrichten verfügen. Das Sturzdetektions-Modul 5405 kann z.B. über ein Skelett-Erstellungs-Modul 5635 zur Erstellung eines Skelettmodells einer Person verfügen. Das Sturzdetektions-Modul 5405 kann Klassifikationen zur Ermittlung von Distanzen oder Distanzänderungen von aus dem Skelettmodell stammenden Gelenkpunkten zum Boden; Beschleunigungen von Gelenkpunkten in vertikaler Richtung; die Orientierung von Richtungsvektoren, die sich aus der Verbindung von mindestens zwei Gelenkpunkten ergeben; die Orientierungsänderung der Richtungsvektoren; die Höhe und/oder Höhenänderung der Höhe der Person bspw. über das Personengröße-Auswertungs-Modul 5655, welches die Höhe der Person bspw. durch Vektorsubtraktion zweier Richtungsvektoren ermittelt, die von einem gemeinsamen Ursprung zu mindestens einem Fuß und mindestens dem Kopf der Person reichen; die Fläche, die eine in vertikale Richtung projizierte Person auf dem Boden einnimmt, und/oder die Position des Kopfes der Person relativ gesehen zum Boden und/oder relativ gesehen zu detektierten Hindernissen umfassen. Das System kann ferner eine Vitalparameter-Erfassungs-Einheit 5415 zur Erfassung von Vitalparametem der Person (z.B. eine Kamera 185, einen LID AR 1, einen Radar- und/oder einen Ultraschallsensor 194) und ein Vitalparameter- Auswertungs-Modul (5420) zur Auswertung erfasster von Vitalparametern der Person umfassen. In einem Aspekt verfügt das System über ein Personenerkennungsmodul 110, Bewegungsauswertungsmodul 120 und/oder skelettmodell- basiertes-Merkmalsextraktions-Modul 5640.
Sturzprävention
[0235] In einem Aspekt erfasst der Serviceroboter 17 während der Durchführung eines Tests und/oder einer Übung Vitalparameter der Person, wie im Schritt 3400 in Fig. 34 dargestellt. Dazu identifiziert und trackt der Serviceroboter 17 die Person, bspw. mittels des visuellen Personentracking-Moduls 112 und/oder des laserbasierten Personentracking-Moduls 113 in Verbindung mit einer Kamera 185 oder einem LID AR 1. Dazu finden eine Personenidentifizierung und ein Personentracking im Schritt 3355 statt, wozu das Personenidentifizierungsmodul 111 genutzt wird. Das System befindet sich (optional) vor der Person (Schritt 3420) und bewegt sich (optional) vor der Person her im Schritt 3430. Es findet eine Identifizierung und ein Tracking der Körperregion der Person im Schritt 3440 statt, mit der die Übung und/oder der Test durchgeführt wird, um durch Messung an bzw. auf dieser Körperregion Vitalparameter im Schritt 3450 zu erfassen. Als Körperregion kommen bspw. das Gesicht der Person, die Hände, der Brustbereich usw. infrage. Das Vorgehen zur Detektion einer solchen Körperregion wurde jeweils an anderer Stelle in diesem Dokument und/oder im Stand der Technik beschrieben. Beispielhaft für die gemessenen Vitalparameter seien die Pulsrate, Pulsratenvariabilität, der systolische und/oder diastolische Blutdruck genannt, oder aber die Atmung der Person (wie z.B. die Atemfrequenz). Wie diese beispielhaft genannten Vitalparameter durch den Serviceroboter 17 bspw. ermittelt werden können, wurde an anderer Stelle in diesem Dokument beschrieben. Es sind jedoch auch andere Verfahren möglich, um die Ermittlung der Vitalparameter vorzunehmen. Die Erfassung der Vitalparameter erfolgt mit mindestens einem Sensor wie die Kamera 185 und/oder der Radarsensor (bspw. einem Mikrowellen-Pulsradar, einem entfernungskontrollierten Radar, einem Doppler-Radar, einem Continuos Wave-Radar, einem Ultraweitbandradar) und/oder Kombinationen daraus, welche die genannten Körperregionen der Person und die Vitalparameter erfasst, vorzugsweise im Zeitverlauf.
[0236] In einem Aspekt ermittelt der hierbei eingesetzte Sensor Bewegungen auf und/oder unter der Haut und/oder der Bekleidung der Person. In einem alternativen und/oder ergänzenden Aspekt werden die Bewegungen der Hautoberfläche und/oder der Bekleidung der Person relativ zur Bewegung der Person ausgewertet, mit der sich die Person zum Serviceroboter 17 bewegt, d.h. es erfolgt eine Korrektur der erfassten Signale der Körperregion um die Bewegung der Person 3460. Dazu erfasst der Serviceroboter 17 neben der Körperregion, die zwecks Ermittlung der Vitalparameter ausgewertet wird, mindestens eine weitere Körperregion und ermittelt den Abstand dieser weiteren Körperregion zum Serviceroboter 17. Dabei wird die Erfassung der Bewegungen der zwecks Auswertung der Vitalparameter ausgewerteten Körperregion und der zwecks Ermittlung der Relativbewegung der Person erfassten Körperregion synchron zueinander. Die Erfassung der Körperregion zwecks Ermittlung der Relativbewegung kann bspw. Mittels des LIDARs 1 erfolgen, mittels der Kamera 185, bspw. der RGB-D-Kamera 185, Ultraschall- und/oder Radarsensoren 194.
[0237] Die Messung, die der Serviceroboter 17 vornimmt, kann eine kontinuierliche oder diskontinuierliche Messung sein, d.h. bspw. in Intervallen von 10 Sekunden. Die gemessenen Vitalparameter werden im Speicher des Serviceroboters 17 im Schritt 3470 abgelegt und können über eine Schnittstelle 188 (wie z.B. WLAN) an andere Systeme übertragen werden. Der Serviceroboter 17 vergleicht die ermittelten Vitalparameter mit in einem Speicher hinterlegten Schwellwerten im Schritt 3480. Diese im Speicher hinterlegten Werte können fest hinterlegt sein und/oder sich dynamisch aus Vergangenheitswerten der erfassten Vitalparameter ergeben, bspw. als Durchschnittswerte zuvor aufgezeichneter Werte, die über ein Zeitintervall ausgewertet werden. Wird ein Über- oder Unterschreiten der erfassten Vitalparametem von den Schwellwerten im Schritt 3490 erkannt, modifiziert der Serviceroboter 17 bspw. einen Wert in einem Speicher. Diese Modifizierung kann mindestens eines der folgenden Ereignisse triggern: Es wird eine Ausgabeeinheit (Display 2,
Lautsprecher 192, Projektionsvorrichtung 920, usw.) im Schritt 3492 getriggert, d.h. bspw. eine Sprachausgabe initiiert. So kann der Serviceroboter 17 hierbei, in einem Aspekt, die Person auffordern, ihre Geschwindigkeit zu reduzieren. In einem alternativen und/oder ergänzenden Aspekt kann der Serviceroboter 17 die Person auffordern, sich zu setzen. Ergänzend oder unabhängig davon kann der Serviceroboter 17 eine definierte Position ansteuern 3498. Dabei kann es sich um mindestens eine Sitzgelegenheit handeln, der Koordinaten in der Karte des Serviceroboters 17 zugeordnet sind. Der Serviceroboter 17 kann anschließend auf diese Sitzgelegenheit zusteuern. Bei der Sitzgelegenheit kann es sich um einen Stuhl handeln. Den Stuhl kann der Serviceroboter 17 über seine implementierte Sensorik direkt in seinem Umfeld identifizieren (wie an anderer Stelle in diesem Dokument beschrieben wurde), der Serviceroboter 17 kann alternativ und/oder ergänzend auch auf einer Karte des Serviceroboters 17 im Kartenmodul 107 abgespeichert sein. Der Serviceroboter 17 kann bei Detektion der Abweichungen der Vitalparameter eine Benachrichtigung im Schritt 3494 triggern, d.h. bspw. über eine Schnittstelle 188 (wie z.B. WLAN) eine Benachrichtigung versenden und/oder einen Alarm auslösen. Weiterhin kann er, in einem Aspekt, seine Geschwindigkeit im Schritt 3496 reduzieren.
[0238] In einem Anwendungsbeispiel führt der Serviceroboter 17 mit einer Person eine Gangübung durch, bspw. ein Gangtraining an Unterarmstützen. Dabei bewegt sich der Serviceroboter 17 vor der Person her, während diese dem Serviceroboter 17 folgt. Der Serviceroboter 17 erfasst dabei mittels mindestens einem Sensor die Person und führt eine Merkmalsextraktion, eine Merkmalsklassifizierung sowie einer Gangablaufklassifizierung durch, um den Gangablauf der Person auszuwerten. Dabei erfasst die auf den Serviceroboter 17 montierte Kamera 185 das Gesicht der Person und ermittelt den systolischen und diastolischen Blutdruck im Zeitverlauf, welcher jeweils in einem Blutdruck-Speicher in dem Serviceroboter 17 abgelegt wird. Die ermittelten Messwerte des Blutdrucks werden im Zeitverlauf ausgewertet, optional gespeichert und mit in dem Blutdruck-Speicher hinterlegten Werten verglichen. Alternativ und/oder ergänzend erfolgt ein Vergleich der Messwerte mit solchen, die vor einem definierten Zeitraum t ermittelt wurden, bspw. t=10 Sekunden. Fällt der systolische Blutdruck um mindestens 20 mm Hg und/oder der diastolische Blutdruck um mehr als 10 mm Hg, was bspw. auf erhöhte Sturzgefahr hindeuten kann, so wird im Speicher des Serviceroboters 17 das Blutdruck-Wert modifiziert. Als Folge dessen erfolgt durch den Serviceroboter 17 eine Sprachausgabe, dass die Person ihre Gehgeschwindigkeit reduzieren soll. Durch die reduzierte Geschwindigkeit verringert sich für den Fall, dass die Person einen Schwächeanfall erleidet und dabei stürzt, das Verletzungsrisiko. Der Serviceroboter 17 reduziert seine Geschwindigkeit und sendet, über eine Schnittstelle 188 (wie z.B. WLAN) wie WLAN eine Benachrichtigung an einen Server, der wiederum Personal im Umfeld des Serviceroboters 17 alarmiert und zur Unterstützung ruft. Der Serviceroboter 17 versucht optional, innerhalb seines Umfelds, d.h. innerhalb eines definierten Abstands zu seiner Position, einen Stuhl zu detektieren. Sofern der Serviceroboter 17 einen Stuhl detektiert, navigiert der Serviceroboter 17 langsam zu diesem Stuhl und fordert über eine Ausgabe die Person auf, sich zu setzen.
[0239] In einem ähnlichen Beispiel erfasst der Serviceroboter 17 beim Absolvieren einer Gangübung durch Auswerten der Bewegungen des Brustkorbs und/oder des Bauchbereichs der Person deren Atemfrequenz im Zeitablauf, was mittels eines Ultraweitband-Radarsensors geschieht, der auf dem Serviceroboter 17 montiert ist. Die erfassten Messwerte werden ebenfalls in einem Speicher abgelegt und mit in einem Speicher abgelegten Messwerten verglichen. Alternativ und/oder ergänzend erfolgt ein Vergleich der Messwerte mit solchen, die vor einem definierten Zeitraum t ermittelt wurden, bspw. t=10 Sekunden. Verändert sich die Atemfrequenz um einen Wert, der über einem Schwellwert liegt, erfolgen die Schritte, die im vorigen Abschnitt bereits für Messwertabweichungen des Blutdrucks beschrieben wurden. [0240] Das System zur Erfassung von Vitalparametem kann nach Fig. 71 wie folgt beschrieben werden: Das System zur Erfassung von Vitalparametern einer Person, bspw. ein Serviceroboter 17, umfasst einen Rechner 9, einen Speicher 10 und mindestens einem Sensor zur berührungslosen Erfassung der Bewegungen der Person im Zeitablauf (wie bspw. eine Kamera 185, einen LID AR 1, einen Ultraschall- und/oder Radarsensor 194, bspw. ein Personenidentifizierungsmodul 111 und ein Personentracking-Modul (112, 113) zum Erfassen und Tracken der Person, ein Vitalparameter-Auswertungs-Modul 5420. Es umfasst weiterhin ein Körperregions-Detektions-Modul 4810 und ein Körperregion-Tracking-Modul 4815 zum Tracking der Erfassungsregion der Vitalparameter und eine Vitalparameter-Erfassungs- Einheit 5415 zur Erfassung von Vitalparametem der Person, bspw. im Zeitverlauf, berührungslos und/oder berührungsbasiert. Das Vitalparameter-Auswertungs-Modul 5420 kann bspw. einen Vergleich der erfassten Vitalparametem mit mindestens einem hinterlegten Schwellwert vornehmen und basierend auf dem Vergleich eine Benachrichtigung eines Systems über eine Schnittstelle 188, eine Ausgabe über eine Ausgabeeinheit (2 oder 192), eine Geschwindigkeitsänderung des Systems (bspw. eine Geschwindigkeitsreduzierung) und/oder eine Ansteuerung einer Zielposition des Systems initiieren. Letztere werden bspw. durch ein Navigationsmodul (110) umgesetzt bspw. durch Anpassung einer Pfadplanung zu einer Sitzgelegenheit wie einen Stuhl, der sich bspw. innerhalb eines definierten Mindestabstands vom System befindet. Der im Vitalparameter-Auswertungs-Modul 5420 genutzte Schwellwert kann aus zuvor erfassten Vitalparametem dynamisch ermittelt werden, bspw. basierend auf einer Mittelwertbildung erfasster Vitalparameter über ein definiertes Zeitintervall. Das Vitalparameter-Auswertungs-Modul 5420 kann weiterhin die Erfassung von Körperbewegungen der Person und eine Auswertung der erfassten Vitalparameter unter Abgleich der erfassten Körperbewegungen vornehmen. Bei den erfassten Vitalparametem kann es sich um die Pulsrate, Pulsratenvariabilität, den systolische und/oder diastolischen Blutdruck und/oder die Atemfrequenz handeln. In einem Aspekt kann das System über eine Schnittstelle 188 Daten eines an einer Person befestigten Vitalparameter-Sensor 5425 erfassen und im Vitalparameter- Auswertungs-Modul 5420 auswerten. Ein Applikationsmodul 125 verfügt über Regeln zur Durchführung mindestens einer Übung, bspw. die in diesem Dokument als Beispiele hinterlegten Übungen. In einem Aspekt kann mittels der erfassten und ausgewerteten Vitalparameter eine Ermittlung des Sturzrisikos erfolgen, bspw. des akuten Sturzrisikos, bei dem ein Sturz innerhalb eines nur mehrere Minuten langen Zeitintervalls zu erwarten ist. In einem Aspekt verfügt das System über ein Personenerkennungsmodul 110, Personenidentifizierungsmodul 111, Trackingmodul (112, 113), Bewegungsauswertungsmodul 120, Skelett-Erstellungs-Modul 5635 und/oder skelettmodell- basiertes-Merkmalsextraktions-Modul 5640.
Erkennung eines erhöhten Sturzrisikos einer Person
[0241] Ältere Personen weisen häufig eine erhöhte Sturzgefahr auf. Im Stand der Technik finden sich verschiedene Studien, die eine ganze Reihe von Faktoren identifiziert haben, die einen signifikanten Einfluss auf das Sturzrisiko aufweisen. So zeigen bspw. Espy et al (2010) „Independent Influence of Gait Speed and Step Length on Stability and Fall Risk“, Gait Posture, Juli 2010, Bd. 32 (3), Seiten 278-282, (DOI: 10.1016/j.gaitpost.2010.06.013) in einer experimentellen Arbeit, dass langsames Gegen zu einem erhöhten Sturzrisiko führt, dass jedoch durch kürzere Schrittlängen reduziert werden kann. Senden et al., „Accelerometry- based Gait Analysis, an additional objective approach to screen subjects at risk for falling, Gait Posture, Juni 2012, Bd. 36(2), Seiten 296-300, (DOI: 10.1016/j.gaitpost.2012.03.015) zeigen u.a. mittels Beschleunigungssensoren, dass sowohl lange Schritte als auch schnelles Gehen mit einer erhöhten Sturzgefahr (ermittelt nach dem standardisierten Tinetti-Test) einhergehen wie auch die gemittelte Quadratwurzel der vertikalen Beschleunigung des Körpers. Vorangegangen Stürze wurden durch eine geringere Symmetrie im Gangablauf vorhergesagt, welche durch den Beschleunigungssensor ermittelt wurde. Van Schooten et al. (2015), „Ambulatory Fall-Risk Assessment: Amount and Quality of Daily-Life Gait Predict Falls in Older Adults, Journals of Gerontology: Series A, Bd 70(5), Mai 2015, Seiten 608-615 (DOI: 10.1093/gerona/glu225) nutzen ebenfalls Beschleunigungssensoren und zeigen, dass eine höhere Varianz in der Doppelschrittlänge/Gangzyklus in Gangrichtung und eine geringere Amplitude beim Gang in vertikaler Richtung mit einem erhöhten Sturzrisiko assoziiert ist. Kasser et al (2011), „A Prospective Evaluation of Balance, Gait, and Strength to Predict Falling in Women with Multiple Sclerosis, Archives of Physical Medecine and Rehabilitation, Bd 92(11), Seiten 1840-1846, November 2011 (veröffentlicht am 16. August 2011) (DOI: 10.1016/j.apmr.2011.06.004) berichtet ebenfalls von erhöhter Asymmetrie im Gangablauf als signifikanten Prediktor des Sturzrisikos.
[0242] In einem Aspekt ist der Serviceroboter 17 derart konfiguriert, dass der Serviceroboter 17 der Gangablauf einer Person auf deren Sturzrisiko hin auswertet, wie in Fig. 35 erläutert ist. Die Person meldet sich in einem (optionalen) Aspekt am Serviceroboter 17 an 3510, was mittels einer Eingabeeinheit, einem RFID-Transponder, einem Barcode, etc. geschehen kann. Der Serviceroboter 17 führt anschließend eine Personenidentifizierung mittels seines Personenidentifizierungsmoduls durch und trackt anschließend die Person 3355, bspw. mittels des visuellen Personentracking-Moduls 112 und/oder des laserbasierten Personentracking- Moduls 113. Für dieses Tracking kommt ein Sensor zum Einsatz, der eine berührungslose Erfassung der Person ermöglicht, bspw. eine Kamera 185, ein Ultraschall sensor und/oder ein Radarsensor 194. Der Serviceroboter 17 fordert die Person, deren Sturzrisiko bewertet werden soll, über eine Ausgabe 3520 einer Ausgabeeinheit auf, dem Serviceroboter 17 zu folgen. Dieser Serviceroboter 17 befindet sich (optional) vor der Person im Schritt 3420, bewegt sich vor der Person her (optional) im Schritt 3525 und erfasst (optional) deren Geschwindigkeit im Schritt 3530. Dies geschieht in einem Aspekt über eine Ermittlung der Geschwindigkeit des Serviceroboters 17 bei synchroner Erfassung des Abstands der identifizierten Person, wodurch die Relativgeschwindigkeit der Person zum Serviceroboter 17 und über die Geschwindigkeit des Serviceroboters 17 selbst die Geschwindigkeit der Person ermittelt wird. Die Geschwindigkeit des Serviceroboters 17 selbst wird über dessen Odometrieeinheit 181 ermittelt und/oder über das Tracken von in der hinterlegten Karte des Serviceroboters 17 hinterlegten Hindernissen und der Relativbewegung des Serviceroboters zu diesen Hindernissen.
[0243] Der Serviceroboter 17 führt eine Merkmalsextraktion im Schritt 3365 durch, um Merkmale aus dem Skelettmodell im Schritt 3360 zu extrahieren, wie bspw. die Position von Gelenkpunkten 3541, Richtungsvektoren, welche Gelenkpunkte miteinander verbinden 3542, das Lot durch eine Person, usw. Alternativ und/oder ergänzend können auch Merkmale aus Inertialsensoren, die an mindestens einer Gliedmaße der Person befestigt sind, etc. extrahiert werden, wie die Momentanbeschleunigung 3543, die Richtung einer Beschleunigung 3544, usw. An die Merkmalsextraktion 3365 schließt sich eine Merkmalsklassifizierung 3370 an, bei der mehrere Merkmale in Kombination bewertet werden. Ein Beispiel sei hier die Geschwindigkeit der Person genannt, die alternativ und/oder ergänzend zu der oben beschriebenen Methode als Merkmal aus den erfassten Daten des Serviceroboters 17 ermittelt werden kann, wobei die einzelnen klassifizierten Merkmale bspw. die Schrittlänge 3551 und/oder Doppelschrittlänge 3552 der Person sein können, die der Serviceroboter 17 über die Zeit erfasst und die Geschwindigkeit über die Schrittlänge pro erfasster Zeiteinheit ermittelt, wobei in einem Aspekt mehrere Schritte ausgewertet werden. Dabei wird die Schrittlänge im Rahmen der Merkmalsextraktion 3365 in einem Aspekt über die Position der Fußgelenkpunkte im Skelettmodell extrahiert, wobei das Skelettmodell im Schritt 3360 durch das Auswerten von Kameraaufzeichnungen der Person erstellt wird. Im Fall der Auswertung von Daten des Inertialsensors, der z.B. am Fuß oder Knöchel angebracht ist, werden die Zeitpunkte und die Zeiten zwischen diesen Zeitpunkten erfasst/extrahiert, in denen eine Kreisbewegung durch den Sensor angefangen wird zu ermitteln, deren Radius in Richtung Boden zeigt, d.h. es werden hierzu die Richtungsvektoren der Beschleunigung 3544 ausgewertet. Es wird die Momentanbeschleunigung im Schritt 3543, bevorzugt in der Sagittal ebene, ermittelt bzw. extrahiert, und über die Momentangeschwindigkeiten im Schritt 3543 und die Zeitdauer zwischen den genannten Zeitpunkten die zurückgelegte Strecke im Rahmen der Merkmalsklassifizierung ermittelt, welche dann die Schrittlänge im Schritt 3551 darstellt. Dabei handelt es sich einzeln betrachtet jeweils um extrahierte Merkmale, die in dieser Kombination klassifiziert werden. In einem alternativen und/oder ergänzenden Aspekt wird das Fußgelenk mittels eines Radarsensors und/oder Ultraschall sensors 194 erfasst. Alternativ und/oder ergänzend wird das Fußgelenkpunkt über die Position des Kniegelenkpunkts, eines Richtungsvektors, der sich vom Kniegelenkpunkt parallel zum Unterschenkel orientiert, und der Höhe des Kniegelenkpunkts über dem Boden im Fall des Durchgangs des Richtungsvektors durch das Lot ermittelt, wobei die Höhe des Kniegelenkpunkts über dem Boden im Fall des Durchgangs des Richtungsvektors durch das Lot die Entfernung angibt, in der sich das Fußgelenkpunkt vom Kniegelenkpunkt aus gesehen befindet. Die genannte Doppelschrittlänge 3552 wird über die Distanzen zwischen den erfassten Fußgelenkpunkten ermittelt, wobei in einem Aspekt die Einzelschrittlängen 3551 sukzessive addiert werden.
[0244] In einem alternativen und/oder ergänzenden Aspekt wertet der Serviceroboter 17 pro Doppelschritt die jeweilige Länge und/oder Zeitdauer für die Einzelschritte innerhalb eines Doppel Schritts aus und setzt die Länge bzw. die Zeitdauer im Schritt 3553 zueinander in Beziehung. Der Serviceroboter 17 addiert die erfassten Werte von mehr als einem Doppel schritt, um über mehr als einen Doppelschritt einen Durchschnittswert zu ermitteln. In einem Aspekt wertet der Serviceroboter 17 Flexion und/oder Extension 3554, d.h. die Winkel des Oberschenkels im Vergleich zum Lot, aus.
[0245] Der Serviceroboter 17 wertet dann die erfasste Geschwindigkeit der Person, die erfasste Schrittlänge und die Doppelschrittlänge aus sowie die Kadenz. In einem alternativen und/oder ergänzenden Aspekt wird die Standdauer im Schritt 3555 von mindestens einem Fuß, bspw. beider Füße und bspw. jeweils über mehrere Schritte, ebenfalls ausgewertet. Alternativ und/oder ergänzend kann auch die Spurweite im Schritt 3556 ausgewertet werden, wobei die Distanz zwischen den Fußgelenken ausgewertet wird. Weiterhin erfasst der Serviceroboter 17 weitere Gelenkpunkte aus dem Skelettmodell der Person, wie bspw. den Kopf, die Schultergelenkpunkte, die Becken/Hüftgelenkpunkte, etc. und erfasst deren Position im Raum, bspw. dreidimensional, und wertet diese Parameter im Zeitverlauf aus. Diese Auswertung umfasst in einem Aspekt die Höhe dieser Parameter über dem Boden, aber auch deren Bewegung in der Sagittalebene (sowohl vertikal als auch horizontal). In einem Aspekt wird dazu auch die Beschleunigung von mindestens einem der genannten Punkte aus dem Skelettmodell ausgewertet 3557.
[0246] Der Serviceroboter 17 speichert die erfassen Werte im Schritt 3570 ab, klassifiziert über die klassifizierten Merkmale den Gangablauf im Schritt 3580 und vergleicht ihn mit einer in seinem (oder in einem über eine Schnittstelle 188 (wie z.B. WLAN) verfügbaren) Speicher hinterlegten Gangablaufklassifikation im Schritt 3585. Dazu wird mindestens eines der genannten klassifizierten Merkmale, bevorzugt mehrere, (gemeinsam) ausgewertet und mit solchen aus dem Speicher verglichen. Auf Basis des Vergleichs der Serviceroboter 17 ermittelt der Serviceroboter 17 einen Score, der das Sturzrisiko im Schritt 3590 wiedergibt, bspw. eine Wahrscheinlichkeit, dass die erfasste Person binnen eines definierten Zeitraums stürzt. In einem Aspekt beinhaltet die Klassifikation Werte für eine ermittelte Geschwindigkeit, Kadenz (Schritte pro Minute) und Schrittlänge in Abhängigkeit von Personenparametem wie der Personengröße. Personen werden bspw. mit einem erhöhten Sturzrisiko assoziiert, wenn sie bei Durchschnittsgröße eine Schrittgeschwindigkeit von ca. lm/s, eine Kadenz von weniger als 103 Schritten/min und eine Schrittlänge von unter 60 cm aufweisen. Alternativ und/oder ergänzend werden erfasste Beschleunigungen im dreidimensionalen Raum ausgewertet und mittels diskreter Fouriertransformation die Harmonischen gebildet. Dann wird das Verhältnis der aufsummierten Amplituden der geraden Harmonischen durch die aufsummierten Amplituden der ungeraden Harmonischen gebildet. Werte aus der Vertikalbeschleunigung, die unter 2,4 liegen, Wert der Beschleunigung in Gehrichtung, die in der Sagittalebene liegen und einen Wertz unter 3 aufweisen, und Werte der seitlichen Beschleunigung in der Frontalebene, die unter 1,8 liegen, deuten auf ein erhöhtes Sturzrisiko hin. Die entsprechenden Auswertungen werden im Gangmerkmalsklassifizierungs-Modul 5610 ausgewertet. Dabei werden bspw. auch mehrere Parameter wie Beschleunigungen, Schrittlänge, Kadenz usw. zugleich ausgewertet. [0247] Zusammengefasst kann bspw. das System zur Ermittlung eines Scores, der das Sturzrisiko einer Person beschreibt, wie bspw. ein Serviceroboter 17, wie in Fig. 72 illustriert beschrieben werden. Das System zur Ermittlung eines Scores, der das Sturzrisiko einer Person beschreibt, umfasst einen Rechner 9, einen Speicher 10 und einem Sensor zur Erfassung der Bewegungen einer Person im Zeitablauf (inklusive eines Gangablaufs) wie bspw. eine Kamera 185, einen LID AR 1, einen Ultraschall- und/oder Radarsensor 194, ein Bewegungsablaufextraktionsmodul 121 und ein Bewegungsablaufbewertungsmodul 122, in einem Aspekt konfiguriert zur Ermittlung eines Sturzrisiko-Scores innerhalb eines Sturzrisiko-Ermittlungsmodul 5430, bspw. unter Auswertung von Beschleunigungen in horizontaler und/oder vertikaler Ebene, Schrittweite, Geschwindigkeit und/oder daraus abgeleiteten Größen, usw.. Das Bewegungsablaufextraktionsmodul 121 kann ein Gangmerkmalsextraktions-Modul 5605 zur Merkmalsextraktion eines Gangablaufs, das Bewegungsablaufbewertungsmodul 122 ein Gangmerkmalsklassifizierungs-Modul 5610 zur Merkmalsklassifizierung eines Gangablaufs auf Basis der extrahierten Merkmale (z.B. der Gelenkpunkte eines Skelettmodells der erfassten Person, Richtungsvektoren zwischen den Gelenkpunkten des Skelettmodells, Beschleunigungen der Gelenkpunkte oder der Richtungsvektoren, die Position der Gelenkpunkten zueinander im Raum und/oder aus Richtungsvektoren abgeleitete Winkel) und ein Gangablaufklassifizierungs-Modul 5615 für eine Gangablaufklassifizierung (umfassend bspw. die Schrittlänge, die Länge des Doppel Schritts, die Schrittgeschwindigkeit, das Verhältnis der Schrittlängen im Doppel schritt, die Flexion und/oder Extension, die Standdauer, die Spurweite, und/oder den Verlauf (Position) und/oder die Distanz von Gelenkpunkten zueinander und/oder Beschleunigung von Gelenkpunkten), wobei bspw. die Klassifikation einen Vergleich erfasster Gangabläufe mit im Speicher hinterlegte Gangabläufen umfasst sowie eine die Ermittlung des Sturzrisiko- Scores. Das Gangablaufklassifizierungs-Modul 5615 kann ein Personen-Geschwindigkeits- Modul 5625 zur Ermittlung der Geschwindigkeit der Person umfassen, wobei die Ermittlung der Geschwindigkeit der Person über die Anzahl und Schrittweite der zurückgelegten Schritte der Person je Zeiteinheit, relativ zur Geschwindigkeit einer Erfassung- und Auswertungseinheit bzw. des Systems, unter Einbeziehung einer Odometrieeinheit 181, unter Einbeziehung von in einer Karte erfassten Hindernissen und/oder relativ zur Position von in einer Karte erfassten Hindernissen erfolgt. Daneben umfasst das System ein Personenidentifizierungsmodul 111 und ein Personentracking-Modul (112 oder 113) und Komponenten (z.B. 2, 186) zur Anmeldung der Person am System verfügt, wobei bspw. visuelle Merkmale der Person gespeichert und im Rahmen des Personenreidentifiziemngsmoduls (114) genutzt werden. Über eine Schnittstelle 188 kann das System Sensordaten eines Inertialsensors 5620 erhalten und diese Sensordaten im Bewegungsablaufextraktionsmodul 121 auswerten. Der Sensor kann bspw. an der Person, bspw. an den unteren Gliedmaßen, oder aber an einer von einer Person genutzten Gehhilfe wie einer Achsel- oder Unterarmstütze angebracht sein und Bewegungen der Gehhilfe erfassen.
[0248] In einem Aspekt verfügt das System über ein Personenerkennungsmodul 110, Bewegungsauswertungsmodul 120, Skelett-Erstellungs-Modul 5635 und/oder skelettmodell- basiertes-Merkmalsextraktions-Modul 5640. Vom Ablauf her stellt sich die Ermittlung eines Sturzrisiko-Scores, der in einem Aspekt das latente (und nicht das akute) Sturzrisiko beschreibt), wie folgt dar: Erfassung des Gangablaufs einer Person (bspw. durch den genannten Sensor zur berührungslosen Erfassung der Person, Extraktion von Merkmalen des erfassten Gangablaufs, Klassifikation der extrahierten Merkmale des Gangablaufs, Vergleich von mindestens zwei der klassifizierten Merkmale des Gangablaufs mit einer in einem Speicher hinterlegten Gangablaufklassifikationen und Ermittlung eines Sturzrisiko-Scores.
Durch den Serviceroboter ausgeführter Mobilitätstest (Tinettitest)
[0249] Der Serviceroboter 17 ist in einem Aspekt derart konfiguriert, dass der Serviceroboter 17 verschiedene Körperpositionen und/oder Bewegungen einer Person auswerten kann, im Sitzen, im Stehen, im Gehen, wie in den Fig. 36-52 dargestellt ist, um eine ganzheitliche Sicht auf die Mobilität einer Person zu erhalten. Eine Reihe der Verfahrensschritte findet sich in den meisten Schritten wieder, daher wurden diese exemplarisch in Fig. 36 zusammengefasst. Dabei kann sich im Schritt 3525 der Serviceroboter 17 beim Gehen in einem Aspekt vor der Person, in einem alternativen Aspekt sich hinter der Person herbewegen. Dazu kann, wie an anderer Stelle in diesem Dokument beschrieben, eine Anmeldung im Schritt 3510 der Person am Serviceroboter 17 erfolgen, sowie im Schritt 3355 eine Personenidentifizierung und ein Personentracking durch den Serviceroboter 17, bspw. mittels des visuellen Personentracking- Moduls 112 und/oder des laserbasierten Personentracking-Moduls 113 in Verbindung mit einem LID AR 1 und/oder einer Kamera 185. In einem weiteren Aspekt kann der Serviceroboter 17 über eine Ausgabeeinheit die Person zu bestimmten Handlungen im Schritt 3521 auffordern, bspw. aufzustehen, zu laufen, usw., wobei die Ausgaben über das Display 2, die Sprachausgabe, etc. erfolgen können. Dieser Schritt 3521 ist optional bzw. abhängig von der jeweiligen Auswertung. Die Auswertung erfolgt in einem Aspekt bevorzugt im Zeitablauf, wofür definierte Zeitintervalle genutzt werden. Dazu nutzt der Serviceroboter 17 in einem Aspekt Informationen aus dem Skelettmodell, welches durch die Aufnahme der Person durch den mindestens einen 3D-Sensor und/oder die Kamera 185 im Schritt 3360 erstellt wird und mittels SDKs aus dem Stand der Technik umgesetzt werden kann. Es findet eine Merkmalsextraktion im Schritt 3365 statt, die bspw. Gelenkpunkte im Schritt 3541 und Richtungsvektoren zwischen Gelenkpunkten im Schritt 3542 umfasst. Anschließend findet eine Merkmalsklassifizierung im Schritt 3370 statt, die im Detail insbesondere von der Aufgabenstellung der Auswertung abhängt. Die Ergebnisse der Merkmalsklassifikation im Schritt 3370 werden (optional) gespeichert und zusammenhängend klassifiziert, was wiederum aufgabenstellungsabhängig ist, weshalb dieser Verfahrensschritt als weiterführende Klassifizierung im Schritt 3700 in Fig. 36 bezeichnet wird. Hierbei kann, in einem Aspekt, ein Schwellwertvergleich erfolgen. Anschließend wird pro Aufgabenstellung ein Score ermittelt. Erfasste Daten wie Daten, die durch vollständige oder anteilige Auswertung und/oder Klassifizierung entstehen, können (auch zwischenzeitlich) abgespeichert werden.
[0250] In einem Aspekt kann bei der Merkmalsklassifizierung im Schritt 3370 eine Vielzahl von Gelenkpunkten aus der Merkmalsklassifikation in Schritt 3365 simultan ausgewertet werden, ohne dass jeweils eine explizite Festlegung von Winkeln, die sich aus den Verbindungen der Gelenkpunkte ergeben, erfolgt. Vielmehr kann die Lage im dreidimensionalen Raum (hilfsweise eine Lageschätzung für den dreidimensionalen Raum basierend auf zweidimensionalen Daten) vorgenommen werden, die auf Klassifikatoren beruht, bei denen Körperposen aufgezeichnet wurden, die als korrekt oder inkorrekt gekennzeichnete Posen beschreiben und daraufhin die Klassifikatoren ermittelt wurden. Alternativ können Körperposen vorgegeben werden, die einen korrekten Ablauf beschreiben und für die die Positionen und der Verlauf der Gelenkpunkte im Zeitverlauf ausgewertet wird. Hierbei kann jeweils der Verlauf von Gelenkpunkten bspw. auf Basis einer Demonstration einer Körperpose ausgewertet werden und darauf basierend ein Klassifikator erstellt werden, der dann mit weiteren erfassten, als korrekt vorgegebenen Körperposen und den daraus abgeleiteten Verläufen der Gelenkpunkte im Raum verglichen wird, wobei danach erneut ein Klassifikator erstellt wird, der auf Basis aller vorliegenden Gelenkpunktverlaufsdaten berücksichtigt. Hierzu kann bspw. der Dagger-Algorithmus in Python eingesetzt werden. Auf diesem Weg wird bspw. durch ein neuronales Netzwerk ein Klassifikator erstellt, der eine korrekte Bewegung erkennt und demzufolge auch Bewegungen, die nicht korrekt ablaufen. Körperposen, die dabei ausgewertet und klassifiziert werden, sind (nicht abschließend) die in den nachfolgenden Absätzen genannten, darunter die Sitzbalance, das Aufstehen, der Versuch aufzustehen, die Stehbalance in verschiedenen Kontexten, der Gangbeginn, Gangsymmetrie, Schrittkontinuität, Wegabweichung, Rumpfstabilität, Drehung um 360°, das Sich-Setzen bzw. Absetzen, der Einsatz von Unterarmstützen, usw.
Sitzbalance
[0251] Im Rahmen der Auswertung erfasst der Serviceroboter 17 die Person und wertet aus, inwieweit eine sitzende Person sich zur Seite lehnt, auf einem Stuhl rutscht oder sicher bzw. stabil sitzt. Hierbei werden Merkmale des Skelettmodells extrahiert, bspw. die Gelenkpunkte der Knie, des Beckens, der Schulter, des Kopfs, usw. und es werden Richtungsvektoren zwischen den einzelnen Gelenkpunkten genutzt, um die Orientierung der Körperteile/Gliedmaßen der Person zu erfassen und auszuwerten. So wird in einem Aspekt der Richtungsvektor zwischen mindestens einem Schulter- und mindestens einem Hüftgelenkpunkt ausgewertet (bevorzugt jeweils auf einer Körperhälfte; und/oder parallel zur Wirbelsäule) und dessen Abweichung zur Vertikalen/Lot 3601 in Fig. 37.
[0252] In einem weiteren Aspekt wird die Orientierung der Person auswertet, d.h. in diesem Fall, es wird mindestens ein Richtungsvektor zwischen den Schulterpunkten, den Hüftpunkten, bspw. auch den Knien, etc. im Schritt 3603 erfasst. Bevorzugt wird dabei mehr als ein Richtungsvektor erfasst. Dieser Richtungsvektor wird bspw. dafür genutzt, die Frontalebene der Person im Schritt 3602 zu bestimmen, welche parallel zu diesem Richtungsvektor verläuft. In einem weiteren Aspekt wird die Position der Hüfte im Raum erfasst und Abweichungen im Zeitverlauf in der Transversal ebene im Schritt 3604 ausgewertet. Darüber wird ermittelt, inwieweit die Person bspw. auf ihrem Platz hin- und her rutscht.
[0253] Im Rahmen der Sitzbalance-Klassifizierung im Schritt 3710 wird die Abweichung und/oder Neigung des Richtungsvektors zwischen mindestens einem Schulter- und mindestens einem Hüftgelenkpunkt von der Vertikalen/Lot in der Frontalebene im Schritt 3711 ausgewertet. Weiterhin wird die Veränderung (Amplitude, Frequenz, etc.) der Position der Schultergelenkpunkte in der Transversalebene im Schritt 3712 ermittelt. Es erfolgt ein Schwellwertvergleich im Schritt 3713 über diese beiden Schritte 3711 und 3712 und/oder ein Vergleich mit Mustern wie bspw. Bewegungsmustern. Ist mindestens einer der ermittelten Werte größer als ein Schwellwert (wie bspw. 1,3m), wird das Messergebnis als eine niedrige Sitzbalance im Schritt 3714 klassifiziert, andernfalls als eine hohe Sitzbalance im Schritt 3715. Dafür wird jeweils ein Score im Schritt 3716 vergeben, der in einem Sitzwert-Speicher abgelegt wird.
Auf stehen
[0254] In einem Aspekt wertet der Serviceroboter 17 aus, inwieweit die Person in der Lage ist aufzustehen (siehe auch Fig. 38). Im Rahmen der Merkmalsextraktion identifiziert der Serviceroboter 17 Objekte und/oder Hindernisse im Schritt 3545, wie dies im Stand der Technik beschrieben ist. Exemplarisch extrahiert der Serviceroboter 17 hier die Punktwolke nahe der getrackten Handgelenkpunkte und führt eine Segmentierung der Punktwolke durch, die es erlaubt, die Hände von den Objekten zu differenzieren. Diese Segmentierung geschieht bevorzugt in Echtzeit (mit bspw. 30 fps). In einem Aspekt kann die erfasste Punktwolke auch mit in einem Speicher hinterlegten Punktwolken verglichen werden, denen bspw. Objekte zugeordnet sind, um so eine Assoziation zwischen sensorisch erfassten Objekten und deren semantischer Bedeutung herzustellen, die es wiederum ermöglicht, bestimmte Objekte als relevanter als andere einzustufen, so bspw. einen Stuhl mit Armlehne oder eine Gehhilfe im Vergleich zu bspw. einer Vase.
[0255] Im Rahmen der Merkmalsklassifizierung findet eine Ermittlung des Stehens im Schritt 3610 statt. Dazu wird eine Distanzmessung zwischen Kopf und Boden im Schritt 3611 vorgenommen, bspw. auf Basis der Position des Kopfgelenkpunkts und mindestens eines Fußgelenkpunkts. Diese Werte werden im Schritt 3614 ggf. mit in einem Speicher hinterlegten Werten verglichen und/oder mit einem Schwellwert und/oder Muster. Ist die ermittelte Höhe hierbei bspw. größer als der Schwellwert (bspw. 1,4m), wird die Person als stehend im Schritt 3616 klassifiziert, andernfalls als sitzend im Schritt 3617. Alternativ und/oder ergänzend zur Höhe der Person wird auch die Orientierung der Richtungsvektoren zwischen dem mindestens einen Fuß- und mindestens einem Kniegelenkpunkt, dem mindestens einen Knie- und mindestens einen Hüftgelenkpunkt und mindestens einen Hüft- und mindestens einen Schultergelenkpunkt im Schritt 3612 ausgewertet, wobei im Fall, dass diese drei Richtungsvektoren im Wesentlichen parallel zueinander sind, wie bspw. ein Schwellwertvergleich 3615 und/oder Mustervergleich zeigen kann, wobei der Schwellwert bspw. auf Basis der Abweichung von der Parallelen errechnet wird. Alternativ und/oder ergänzend wird die Orientierung eines Richtungsvektors zwischen mindestens einem Knie- und mindestens einem Hüftgelenkpunkt dahingehend ausgewertet, inwieweit dieser Richtungsvektor im Wesentlichen senkrecht ist. Ist diese Abweichung von der Parallelen und/oder von der Senkrechen kleiner als der Schwellwert klassifiziert, erfasst der Serviceroboter 17 diese Merkmale als Stand im Schritt 3616, andernfalls als Sitzen 3 im Schritt 617.
[0256] Des Weiteren erfolgt im Schritt 3620 die Detektion, ob eine Hand ein Hilfsmittel nutzt, wobei ein Hilfsmittel hierbei breit verstanden wird als eine Gehhilfe, eine Armlehne eines Stuhls, eine Wand, etc., d.h. alles, was eine Person nutzen kann, um sich beim Aufstehen hochzuhelfen. Es erfolgt eine Abstandsermittlung im Schritt 3621 zwischen mindestens einem Handgelenk und mindestens einem der extrahierten Objekte. Sofern die Abstände der mindestens einen Hand von dem oder den Objekten bzw. Hindernissen einen Schwellwert 3622 (bspw. 8 cm) unterschreiten, wird dies als Hilfsmittelbenutzung im Schritt 3623 klassifiziert, andernfalls als keine Hilfsmittelbenutzung im Schritt 3624. In einem Aspekt wird dabei ein Mindestabstand zum Körper der betrachteten Person vorausgesetzt, d.h. zu den Gelenkpunkten und/oder Richtungsvektoren, die die Gelenkpunkte miteinander verbinden.
[0257] Im Rahmen der Aufstehklassifizierung 3720 klassifiziert der Serviceroboter 17 wie folgt: befindet sich die Person nach einer definierten Zeit sich im Stand 3721 oder erfolgt eine Eingabe von einer Person 3722, insbesondere eine Eingabe, dass die Person nicht in der Lage ist (alleine) aufzustehen, wird die Situation als eine Situation im Schritt 3723 klassifiziert, in der die Person Hilfe braucht. Erfolgt der Stand binnen einer definierten Zeit im Schritt 3724 und nutzt die Person Hilfsmittel im Schritt 3623, wird die Person als eine Person im Schritt 3725 klassifiziert, die Hilfsmittel benötigt, um aufzustehen 3725. Der dritte Fall, der hier klassifiziert wird, ist der Fall, dass die Person keine Hilfsmittel im Schritt 3624 benötigt und innerhalb eines definierten Zeitraums den Stand im Schritt 3724 erreicht, womit die Person ohne Hilfsmittel im Schritt 3726 aufstehen kann. Basierend auf den Schritten wird 3723, 3725 und 3726 wird eine Aufsteh-Score 3727 ermittelt.
Versuche aufzustehen
[0258] In einer Variante der vorangegangenen Erfassung des Aufstehens werden alternativ und/oder ergänzend Aufstehversuche ermittelt (Fig. 39). Innerhalb der
Merkmalsklassifizierung wird daher, ergänzend zur Merkmalsklassifizierung in Fig. 38, der
Richtungsvektor Knie-Hüfte auf seine waagerechte Position hin ausgewertet, d.h. inwieweit der Serviceroboter 17 parallel zur Transversal ebene ist. [0259] Im Rahmen der Aufstehversuchs-Merkmalsklassifizierung 3730 laufen folgende Schritte ab: Wird auf Basis der Informationen aus der Aufstehversuchs- Merkmalsklassifizierung 3370 kein Stand binnen einer definierten Zeit im Schritt 3731 detektiert oder erfolgt durch die Person eine Eingabe im Schritt 3732 und (im Vergleich zu den Schritten 3731 und 3732) wird kein Hilfsmittel im Schritt 3624 detektiert, so wird die Person im Schritt 3733 derart klassifiziert, dass ohne Hilfe kein Aufstehen möglich ist. Werden keine Hilfsmittel im Schritt 3624 detektiert und sind die lokalen Maxima ungleich dem globalen Maximum sowie ist die Anzahl der lokalen Maxima größer 1, werden mehrere Auf Stehversuche im Schritt 3735 detektiert. Hierzu wird der Verlauf der Gelenkpunkte, die den Stand definieren, im Zeitablauf ausgewertet und/oder der Winkel oder die Winkeländerung des Richtungsvektors zwischen der Hüfte und den Knien mit Bezug zur Waagerechten (alternativ: Senkrechten), wobei die Waagerechte über die Transversalebene beschrieben wird. Wird hierbei bspw. 2x detektiert, dass der Winkel sich von ca. 0° (Transversal ebene) etwa zu ca. 30° ändert (Änderung in eine Drehrichtung), es aber anschließend Änderungen in eine andere Drehrichtung gibt (bspw. wieder 30°), und dann erst eine Winkeländerung »30° detektiert wird, bspw. 90°, werden drei Auf Stehversuche detektiert (von denen der letzte erfolgreich war). Werden dagegen keine Hilfsmittel im Schritt 3624 detektiert erfolgt der Stand 3616, wird die Situation im Schritt 3736 als eine Situation klassifiziert, in der die Person keine Hilfsmittel benötigt. Insgesamt wird auf Basis der Schritte 3733, 3735 und 3736 ein Aufstehversuchs-Score 3737 vergeben.
Stehbalance
[0260] In einem alternativen und/oder ergänzenden Aspekt wertet der Serviceroboter 17 die Stehbalance einer Person aus, wie Fig. 40 aufzeigt. Ergänzend zu vorangegangenen Auswertungen findet in der Merkmalsklassifizierung 3370 eine Balanceermittlung 3630 statt. Dazu wird die Amplitude, Orientierung und/oder Frequenz der Positionsänderung mindestens einem der Schultergelenkpunkte, mindestens einem der Hüftgelenkpunkte oder mindestens einem der Fußgelenkpunkte in der Transversalebene 3631 im Zeitverlauf (bspw. 5 Sekunden lang) ausgewertet und es findet ein Schwellwertvergleich im Schritt 3632 statt und/oder ein Vergleich mit Mustern wie bspw. Bewegungsmustern. In diesem Kontext kann, mit Blick auf die Fußgelenkpunkte, in einem Aspekt auch die Schrittlänge und/oder Existenz von Schritten ausgewertet werden. Sind Amplitude, Orientierung und/oder Frequenz der Positionsänderung geringer als der Schwellwert 3632 (wie bspw. eine seitliche Schwankung von 10 cm) und/oder entsprechen sie nicht einem Muster, wird von Stabilität 3635 ausgegangen, andernfalls von Instabilität 3636. Alternativ und/oder ergänzend können die Abweichung (Amplitude, Orientierung und/oder Frequenz mindestens eines Richtungsvektors (Fuß, Knie oder Hüfte zu mindestens einem darüber liegenden Gelenkpunkt) aus dem Lot und/oder in der Sagittal- und/oder der Frontal ebene in den Schritten 3633 3631 im Zeitverlauf (bspw. 5 Sekunden lang) ausgewertet werden. Zu den darüber liegenden Gelenkpunkten gehört bspw. neben mindestens einem Schultergelenkpunkt auch ein Kopfgelenk. Auf Basis eines Schwellwertvergleichs im Schritt 3634 werden Abweichungen, die unter dem Schwellwert liegen und/oder einem Muster, als stabil 3635 bezeichnet, andernfalls als instabil 3636. Die Stehbalance-Klassifizierung im Schritt 3740 klassifiziert die Person mit einem unsicheren Stand 3741, wenn die Person steht 3616 und dabei instabil 3636 ist. Die Person wird der Klasse „Sicherer Stand mit Hilfsmitteln“ zugeordnet, wenn die Person steht 3616, Hilfsmittel 3623 nutzt und in der Balance stabil 3635 ist. Von einem sicheren Stand ohne Hilfsmittel 3743 wird ausgegangen, wenn die Person steht 3616, keine Hilfsmittel nutzt 3624, und stabil 3635 steht. Basierend auf dieser Einstufung wird ein Stehbalance- Score 3744 vergeben.
Stehbalance bei Füßen dicht beieinander
[0261] Alternativ und/oder ergänzend zu einer vorangegangenen Auswertung der Stehbalance (siehe Fig. 41) wird, bevorzugt nach einer Ausgabe 3521 durch den Serviceroboter 17, die die Person auffordert, die Füße im Stand enger aneinanderzustellen, im Rahmen der Merkmalsklassifizierung 3370 der Fußabstand 3640 ermittelt. Hierzu werden aus der Position der extrahierten Gelenkpunkte 3541 die Fußgelenkpunkte und/oder die Kniegelenkpunkte genutzt, in einem Aspekt ebenfalls die Orientierung der Richtungsvektoren 3542 zwischen Hüftgelenkpunkt und Kniegelenkpunkt und/oder Knie- und Fußgelenkpunkt. Auf Basis dieser Daten wird der Abstand der Fußgelenkpunkte 3641 ermittelt, in einem Aspekt innerhalb der Frontalebene. Es wird anschließend mittels eines Schwellwertvergleichs 3642 und/oder Mustervergleich klassifiziert, ob die Füße weit 3643 oder eng (d.h. geringer Abstand 3643) beieinanderstehen, wobei als Schwellwert bspw. 12 cm angesetzt werden kann (von Gelenkmitte zu Gelenkmitte).
[0262] In der sich daran anschließenden Stehbalance-Fußabstand-Klassifizierung 3745 wird der Stand in drei Klassen klassifiziert: In der ersten Klasse (unsicherer Stand 3746) werden die Personen eingruppiert, die stehen 3616, und in der Balance instabil 3636 sind. In der zweiten Klasse werden die stehende Personen 3616, die stabil stehen 3635, mit Hilfsmitteln 3623 oder weitem Fußabstand 3644 eingestuft. Der dritten Klasse werden die Personen zugeordnet, die stehen 3616, dabei in der Balance stabil 3635 sind, und das ohne Hilfsmittel 3624 und mit geringem Fußabstand 3643. Diese Einstufung mündet in einem Stehbalance- Fußabstand- Score 3749.
[0263] In einem Aspekt können die Fußgelenkpunkte ggf. nicht direkt aus den Daten des SDKs gewonnen werden, welches das Skelettmodell extrahiert, sondern alternativ über den Kniegelenkpunkt. Dabei werden die Position des Kniegelenkpunkts, der Richtungsvektor, der sich vom Kniegelenkpunkt parallel zum Unterschenkel orientiert, und die Höhe des Kniegelenkpunkts über dem Boden im Fall des Durchgangs des Richtungsvektors (zwischen einem Hüft- und Kniegelenkpunkt oder einem Kniegelenkpunkt und dem Boden) durch das Lot ermittelt, wobei die Höhe des Kniegelenkpunkts über dem Boden im Fall des Durchgangs des Richtungsvektors durch das Lot die Entfernung angibt, in der sich das Fußgelenkpunkt vom Kniegelenkpunkt aus gesehen befindet.
Stehbalance und Stoß
[0264] Alternativ und/oder ergänzend zu einer zuvor beschriebenen Auswertung der
Stehbalance erfasst der Serviceroboter 17 die Person, welche mindestens einen Stoß auf den
Rücken erhält (siehe Fig. 42). Im Rahmen einer Stoßerfassung 3650 wird die Bewegung der
Hüfte nach vorne im Schritt 3651 ausgewertet, d.h. innerhalb der Sagittal ebene. Alternativ und/oder ergänzend wird eine Eingabe am Serviceroboter 17 oder eine Ausgabe im Schritt
3652 ausgewertet. Die Bewegungen (wie eine Beschleunigung) der Hüfte werden einem
Schwellwertvergleich im Schritt 3653 und/oder einem Mustervergleich unterzogen. Wird der
Schwellwert nicht überschritten bzw. das Muster nicht detektiert, wird kein Stoß im Schritt
3654 detektiert, andernfalls ein Stoß im Schritt 3655. Alternativ und/oder ergänzend kann bspw. auch eine Eingabe in den Serviceroboter 17 erfolgen, dass der Patient nachfolgend gestoßen wird, und/oder es kann eine Ausgabe erfolgen, die bspw. ein Stoßkommando darstellt, in dessen Folge die Person gestoßen wird, so dass die Konsequenzen des Stoßes auf die Balance der erfassten Person ausgewertet werden können. Die Stehbalance beim Stoß wird anschließend durch die Stehbalance-Stoß-Klassifizierung 3750 ausgewertet. Dabei werden mindestens zwei Klassen unterschieden: a) Die Stehbalance ist sicher/stabil 3753, was sich durch den Stand 3616, die Stabilität der Balance 3635, keine Hilfsmittel 3624 und einen geringen Fußabstand 3643 nach erfolgtem Stoß 3655 auszeichnet b) die Person weist einen
Stand bei Ausweichbewegungen 3752 auf, d.h. sie macht Ausweichschritte oder stützt sich, steht aber. Hierzu weist die Person einen Stand auf 3616, nutzt Hilfsmittel 3623, ist instabil
3636 (was sich durch Ausweichbewegungen verdeutlicht), weist einen geringen Fußabstand 3643 auf, und es erfolgte zuvor ein Stoß 3655. Diese Einstufung mündet in einem Stehbalance- Stoß- Score 3754.
Stehbalance und geschlossene Augen
[0265] Alternativ und/oder ergänzend zu einer zuvor beschriebenen Auswertung der Stehbalance wird die Stehbalance bei geschlossenen Augen erfasst und ausgewertet. Hierzu kann in einem Aspekt der Serviceroboter 17 das Gesicht der Person erfassen, deren Augen, und durch Änderungen der Farbe, des Farbkontrasts, etc., welche durch eine RGB-Kamera erfasst werden, zwischen geschlossenen und offenen Augen unterscheiden. Alternativ und/oder ergänzend erfolgt eine Ausgabe des Serviceroboters 17, bspw. akustisch, die die Person auffordert, die Augen zu schließen. Die Erfassung der Bewegungen erfolgt jeweils nach Detektion der geschlossenen Augen und/oder der Ausgabe. Dabei wird die Stehbalance analog zu Fig.42 ermittelt, nur dass hierbei kein Stoß ausgewertet wird, und im Ergebnis werden ein stabiler oder instabiler Stand klassifiziert, der in einen Stehbalance-Augen- Score mündet.
Gangbeginn
[0266] Alternativ und/oder ergänzend zu einer zuvor beschriebenen Auswertung erfasst der Serviceroboter 17, bevorzugt nach einer Ausgabe, die eine Aufforderung zum Gehen beinhaltet, das Gangverhalten der getrackten Person und ermittelt die Zeitdauer bis zum Gangbeginn, wie in Fig. 43 dargestellt. Im Rahmen der Merkmalsklassifizierung 3370 findet eine Gangermittlung 3660 statt. Dabei wird, in einem Aspekt, die Positionsänderung der Schultergelenkpunkte/ Hüftgelenkpunkte, Fußgelenkpunkte in Transversalebene ermittelt und/oder die Abstände der Fußgelenkpunkte 3661, jeweils im Zeitablauf. Es findet ein Schwellwertvergleich im Schritt 3662 und/oder Mustervergleich statt, und bei Überschreiten des Schwellwerts (bspw. 10 cm) wird von einem Gehen und/oder Gehversuchen ausgegangen 3666, andernfalls nicht 3665. Alternativ und/oder ergänzend kann der Kurvenverlauf von Gelenkpunkten in der Sagittalebene 3663 ausgewertet werden, wobei Schwellwerte und/oder Kurvenvergleiche 3664 bzw. Mustervergleiche herangezogen werden können. Darauf basierend wird die Bewegung in ein Gehen und/oder Gehversuche 3666 oder kein Gehen 3665 klassifiziert. Gehversuche werden in einem Aspekt darüber detektiert, dass die Bewegung in der Sagittal- oder Transversalebene relativ langsam und/oder diskontinuierlich erfolgt, wobei relativ langsam impliziert, dass ein Schwellwert unterschritten wird. Im Rahmen der Gangbeginn-Klassifizierung 3755 wird die Zeitdauer zwischen Aufforderung und Gehbewegung 3756 ausgewertet. Liegt diese Gehbewegung bspw. über einem Schwellwert (wie 2 Sekunden) und/oder werden verschiedene Gehversuche im Schritt 3666 detektiert, wird dies als Zögem/verschiedene Versuche im Schritt 3757 klassifiziert. Findet diese Gehbewegung innerhalb eines Zeitintervalls statt, dass unter dem Schwellwert liegt, wird dies als kein Zögern im Schritt 3758 klassifiziert. Das Ergebnis wird mit einem Gehbeginn-Score 3759 bewertet.
Schrittposition
[0267] Alternativ und/oder ergänzend zu den vorangegangenen Auswertungen wertet der Serviceroboter 17 die Gehbewegung einer Person (wie bspw. im vorigen Abschnitt beschrieben) aus, wie auch in Fig. 44 näher dargestellt, um die Schrittlängen des linken und/oder des rechten Beins zu bestimmen.
[0268] Der Serviceroboter 17 erfasst im Rahmen Merkmalsklassifizierung 3370 den Abstand der Fußgelenkpunkte zueinander im Zeitablauf, wobei die dabei auftretenden Maxima in der Sagittalebene der Schrittlänge 3672 entsprechen. Hierbei bewertet der Serviceroboter 17 wechselseitig die Position der Fußgelenkpunkte zueinander in der Sagittalebene. In einem Aspekt wird in der nachfolgend stattfindenden Schrittpositions-Klassifizierung 3760 die Fußlänge berücksichtigt, wozu die Fußlänge im Schritt 3675 ermittelt wird. In einem Aspekt wird diese über die Höhe bzw. Größe der Person interpoliert, wobei in einem Speicher für unterschiedliche Größen einer Person unterschiedliche Fußlängen hinterlegt sind, d.h. es werden hierfür Referenzwerte aus dem Speicher im Schritt 3676 herangezogen.
[0269] Die hierbei ermittelten Werte werden im Rahmen der Schrittpositions-Klassifizierung 3760 weiter klassifiziert. Dazu wird in einem Aspekt die Schrittlänge zur Fußlänge in Bezug im Schritt 3761 gesetzt. Alternativ und/oder ergänzend wird die Position der jeweiligen Fußgelenkpunkte in der Sagittalebene beim Durchlaufen der Standphase bewertet, und es wird im Schritt 3762 verglichen, in welcher Position die Fußgelenkpunkte sich zueinander befinden 3762, wobei die Positionsdaten aus dem Schritt 3661 stammen.
[0270] Es wird anschließend bewertet, ob das jeweils betrachtete Bein vor den Fuß des anderen Beins gesetzt wird 3763 oder nicht 3764. Es wird vor den Fuß des anderen Beins gesetzt, wenn der Vergleich von Schrittlänge und Fußlänge im Schritt 3761 ergibt, dass die
Schrittlänge kürzer ist als die Fußlänge und/oder wenn die Fußgelenkpunktposition des betrachteten Beins in Gangrichtung in der Sagittalebene nicht vor den Fuß des anderen Beins gesetzt wird, wie die Position der Fußgelenkpunkte beim Durchlaufen der Standphase 3762 ergibt. Auf Basis dieser Klassifizierung wird ein Schrittpositions-Score 3765 vergeben. Eine derartige Auswertung kann, in einem Aspekt, separat für jedes Bein erfolgen.
[0271] Stand 3616 ist hierbei (und auch bei den weiteren (bspw. nachfolgenden) Auswertungen, bei denen es ums Gehen geht, so zu verstehen, dass die Person sich im Wesentlichen in einer aufrechten Position befindet, in der die Person sich auf einer Stelle befindet (de facto steht) oder eben auch gehen kann. Andernfalls könnten die beschrieben Verfahren Fortbewegungen der Person erfassen, die allgemein hin nicht als Gehen bezeichnet werden würden.
[0272] In einem Aspekt folgt der Serviceroboter 17 der Person während des Gangs oder fährt vor der Person her 3525, wobei der Serviceroboter 17 in einem Aspekt seine Geschwindigkeit an die Geschwindigkeit der Person anpasst 3530, wobei eine eventuell diskontinuierliche Geschwindigkeit der Person in eine kontinuierliche Geschwindigkeit des Serviceroboters 17 umgesetzt wird, bspw. durch Bildung eines Mittelwerts über die Geschwindigkeit der Person bzw. die Geschwindigkeit des Serviceroboters 17 über ein Zeitintervall gesteuert wird, das mit der Geschwindigkeit der Person im Zeitintervall angepasst wird.
Schritthöhe
[0273] Alternativ und/oder ergänzend zu den vorangegangenen Auswertungen erfasst der Serviceroboter 17, wie in Fig. 45 dargelegt, die Gehbewegung einer Person und klassifiziert die extrahierten Merkmale, so dass eine Fußhöhenermittlung 3680 (über dem Boden) erfolgt. Dazu wird, in einem Aspekt, die Amplitudenhöhe der Fußgelenkpunkte und/oder Kniegelenkpunkte zzgl. Richtungsvektoren im Zeitverlauf im Schritt 3681 und bspw. in der Sagittalebene ausgewertet, wobei mit Blick auf die Kniegelenkpunkte diese für die Ableitung der Fußgelenkpunkte genutzt werden wie bereits oben beschrieben. Alternativ und/oder ergänzend wird der Kurvenverlauf der Fußgelenkpunkte und/oder Kniegelenkpunkte zzgl. Richtungsvektoren im Schritt 3682 ausgewertet. Dabei werden insbesondere die Anstiege/ Abfälle der Amplituden aus, die als Proxy für die Schritthöhe dienen, ausgewertet, und es erfolgt ein Abgleich mit Schwellwerten und/ oder Referenzdaten im Schritt 3683. Hier wird in einem Aspekt die Sinusförmigkeit der Bewegungen erfasst, die mit einer höheren Wahrscheinlichkeit impliziert, dass das Bein weitestgehend vom Boden abgehoben wird, wobei eine Bewegung, die eher einer Trapezbewegung entspricht, mit einer höheren Wahrscheinlichkeit für eine Schleifbewegung spricht, bei der der Fuß nicht richtig vom Boden abgehoben wird. Im Rahmen der Schritthöhenklassifizierung 3770 werden die erfassten Schritthöhen über einen Schwellwertvergleich 3771 und/oder Mustervergleich ausgewertet. Wird der Schwellwert der Schritthöhen (bspw. 1 cm) unterschritten bzw. eine Unähnlichkeit mit einem Muster festgestellt, wird der Fuß als nicht vollständig vom Boden abgehoben im Schritt 3372 klassifiziert, andernfalls als vollständig vom Boden abgehoben im Schritt 3373. Mit Blick auf die ausgewerteten Kurvenverläufe kann, in einem Aspekt, auch direkt daraus auf einen abgehobenen oder nicht abgehobenen Fuß geschlossen werden. Die Ergebnisse der Klassifizierung fließen in den Schritthöhen- Score 3774 ein. Eine derartige Auswertung kann, in einem Aspekt, separat für jedes Bein erfolgen.
Gangsymmetrie
[0274] Alternativ und/oder ergänzend zu den vorangegangenen Auswertungen wertet der Serviceroboter 17 beim Erfassen des Gangs, wie bspw. in den vorangegangenen Abschnitten beschrieben wurde, die Symmetrie des Gangablaufs aus (siehe auch Fig. 46), was im Rahmen einer Gangsymmetrie-Klassifizierung 3775 erfolgt. Diese Gangsymmetrie-Klassifizierung 3775 nutzt insbesondere Daten aus der Schrittlängenermittlung 3760, d.h. die Schrittlängen 3762 und wertet diese in einem Aspekt aus, wenn die Person steht 3616 bzw. geht 3666. Im Rahmen dieser Gangsymmetrie-Klassifizierung wird das Schrittlängenverhältnis im Vergleich zu einem Schwellwert 3776 und/oder Bewegungsmuster im Zeitablauf ausgewertet. Dabei wird, in einem Aspekt, die Symmetrie der Schrittlängen pro Doppelschritt ausgewertet, wobei ein Doppelschritt über die Addition eines Schritts des linken und des rechten Beins (oder umgekehrt) erfolgt. Das Schrittlängenverhältnis kann, in einem Aspekt, als Verhältnis der Einzelschrittlängen zueinander gebildet werden, oder, in einem anderen Aspekt, als Verhältnis einer Einzelschrittlänge zur Doppelschrittlänge. Liegt das jeweilige Verhältnis unter einem Schwellwert bzw. weist ein Vergleich mit Mustern bspw. eine hohe Musterähnlichkeit auf, wird der Gangablauf als symmetrisch 3777 klassifiziert, andernfalls als unsymmetrisch 3778. So wird bspw. ein Schrittlängenverhältnis von 1:1,1 oder geringer (oder 60:66 cm beim Bezug zum Einzelschritt bzw. 60: 126 cm beim Bezug zum Doppel schritt) als symmetrisch klassifiziert, größere Verhältnisse als unsymmetrisch. Die Klassifizierungen werden anschließend in einen Gangsymmetrie-Score 3779 konvertiert.
Schrittkontinuität
[0275] Alternativ und/oder ergänzend zu den vorangegangenen Auswertungen wertet der Serviceroboter 17 beim Erfassen des Gangs, wie bspw. in den vorangegangenen Abschnitten beschrieben wurde, die Schrittkontinuität aus (siehe Fig. 47). Im Rahmen der Schrittlängenermittlung 3670 kann in einem Aspekt auch die Positionsermittlung der Fußgelenkpunkte in der Standphase 3673 erfolgen.
[0276] Im Rahmen der Schrittkontinuitäts-Klassifizierung 3780 wird, in einem Aspekt, beim Stand 3616 bzw. Gehen 3666 der Kurvenverlauf der Gelenkpunkte in der Sagittal ebene 3663 mit Blick auf die Symmetrie der Kurvenverläufe 3781 ausgewertet. Dabei wird eine hohe Symmetrie als kontinuierlicher Gangablauf 3784 klassifiziert, andernfalls als diskontinuierlicher Gangablauf 3785. Alternativ und/oder ergänzend werden die Schrittlängen 3672 bei gleichzeitiger Erfassung/Extraktion der Punkte ausgewertet, bei denen die Füße den Boden berühren, d.h. es erfolgt die Positionsermittlung der Fußgelenkpunkte in der Standphase 3673. Detektiert der Serviceroboter 17 bspw., dass zu den Zeitpunkten, bei denen linker und rechter Fuß (oder umgekehrt) den Boden berühren, der Abstand der Fußgelenkpunkte einen Schwellwert (bspw. 20 cm) unterschreitet bzw. in einem Mustervergleich eine Mindestähnlichkeit nicht aufweist, wie im Rahmen des Prozessschritts „Abstände Fußgelenke in Standphase im Vergleich zu Schwellwert“ 3782 ermittelt wird, wird diese Schrittkontinuität ebenfalls als diskontinuierlicher Gangablauf 3785 klassifiziert. Dies ist bspw. der Fall, wenn die Person stets einen Fuß vorsetzt und den zweiten Fuß nachzieht, so dass beide Füße im Standmoment in etwa parallel stehen. Alternativ und/oder ergänzend kann ein solcher Fall durch den Serviceroboter 17 auch dann detektiert werden, wenn beide Beine über einen definierten zeitlichen Schwellwert hinaus sich parallel (in der Sagittal ebene) befinden 3783. Die Klassifizierungen werden anschließend in einen Schrittkontinuitäts-Score 3786 konvertiert.
Wegabweichung
[0277] Alternativ und/oder ergänzend zu den vorangegangenen Auswertungen wertet der Serviceroboter 17 beim Erfassen des Gangs, wie bspw. in den vorangegangenen Abschnitten beschrieben wurde, die Abweichungen des Gangs von einer Linie aus, wie in Fig. 48 dargestellt, wobei die Linie virtuell oder real ist. Über die Ausgabe 3521 wird die Person aufgefordert, sich entlang einer Linie zu bewegen, die mindestens 2m lang ist, bevorzugt 3m. In einem Aspekt wird dabei auf eine Linienermittlung 3690 zurückgegriffen. Dabei kann in einem Aspekt eine Projektion einer Linie und/oder mindestens eine Markierung auf den Boden 3691 detektiert werden, in einem alternativen und/oder ergänzenden Aspekt werden mindestens eine Markierung und/oder eine Linie auf dem Boden im Schritt 3692 erfasst. In einem alternativen und/oder ergänzenden Aspekt wird die Markierung und/oder Linie durch den Serviceroboter 17 auf den Boden projiziert. Ein Beispiel, wie eine solche Projektion erfolgen kann, findet sich weiter oben in diesem Dokument. Die Linie kann auch virtuell sein und bspw. aus der direkten Verbindung der Person zu einer Markierung bestehen und/oder aus der Linie, bei der die Sagittalebene der Person den Boden schneidet, wobei die Linie zu Beginn der Auswertung ermittelt wird und/oder nach der Ausgabe 3521 der Aufforderung, die Distanz zurückzulegen.
[0278] Weiterhin findet eine Distanzermittlung statt 3910, um zu überprüfen, ob die Person die Distanz entlang der Linie zurückgelegt hat. In einem in Fig. 48 nicht näher dargestellten Aspekt kann es zu Ausgaben des Serviceroboters 17 kommen, um ggf. die Person anzuleiten, mehr Schritte zu gehen, um die Zieldistanz (bspw. 3m) zu erreichen, oder stehenzubleiben, wenn die Zieldistanz erreicht wurde. Die Distanzermittlung kann auf verschiedenen Wegen erfolgen. In einem Aspekt erfasst der Serviceroboter 17 die Distanz, die der Serviceroboter 17 zurücklegt 3911, bspw. mittels der Odometriedaten 3912 und/oder mittels Positionsdaten 3913, wobei die Distanz im letzteren Fall durch die Differenz aus mindestens zwei Positionen ermittelt wird. Hierbei kann, in einem Aspekt, auch die Distanz zu identifizierten Hindernissen und/oder Objekten ausgewertet werden. Um auf Basis dieser Daten die zurückgelegte Distanz der Person auszuwerten, wird die Distanz zur Person im Schritt 3914 im Zeitverlauf ausgewertet und darüber deren zurückgelegte Distanz errechnet. Alternativ und/oder ergänzend kann die Distanzermittlung durch Addition der Schrittlängen im Schritt 3915 erfolgen, welche im Schritt 3672 erfasst wurden. In einem alternativen und/oder ergänzenden Aspekt kann die Position auch mittels Auswertung der Positionen der Person im Raum im Schritt 3916 erfolgen (siehe auch Schritt 3695 nachfolgend), d.h. insbesondere durch die Auswertung der Distanz zwischen den bei Positionsänderungen sich verändernden Koordinaten.
[0279] Weiterhin wird die Position der Person im Schritt 3920 ausgewertet, indem die Position des Kopfgelenkpunkts bspw. in der Transversalebene und/oder die Mitte vom Richtungsvektor zwischen den Schultergelenkpunkten oder den Hüftgelenkpunkten und/oder die Mitte zwischen dem Richtungsvektor zwischen den Kniegelenkpunkten (bspw. in die Frontalebene projiziert), dem Richtungsvektor zwischen den Fußgelenkpunkten (bspw. in die Frontalebene projiziert) und/oder einem Richtungsvektor zwischen mindestens zwei gleichartigen Armgelenkpunkten (bspw. in die Frontalebene projiziert) ausgewertet wird. [0280] In einem weiteren Aspekt erfolgt eine Auswertung dahingehend, ob die Person Hilfsmittel einsetzt, wie weiter oben bereits in Schritt 3620 beschrieben wurde.
[0281] Der Serviceroboter 17 ermittelt die Distanz der Körpermitte zur Linie im Zeitablauf 3791 und/oder den Abstand der Fußgelenkpunkte zur Linie innerhalb der Frontalebene im Zeitverlauf 3792. Es findet dann eine Abweichungsberechnung inkl. Schwellwert 3793 bzw. ein Mustervergleich statt, d.h. für die ermittelten Abstände wird das Maximum der Abweichung, die Kleinsten Quadrate der einzelnen Abweichungen pro Schritt, etc. errechnet, wobei auch andere, im Stand der Technik beschriebene Ansätze zur Abstandsauswertung genutzt werden können.
[0282] Anschließend findet eine Klassifizierung wie folgt statt: Das Ergebnis wird als deutliche Abweichung im Schritt 3793 klassifiziert, wenn die Person steht 3616, geht 3666, und der Wert der Linienabweichung in der Abweichungsberechnung inkl. Schwellwert 3793 über einem Schwellwert liegt bzw. in einem Mustervergleich eine Mindestmusterähnlichkeit aufweist. Das Ergebnis wird als leichte Abweichung und/oder Hilfsmitteleinsatz 3794 klassifiziert, wenn die Person steht 3616, geht 3666, und der Wert der Linienabweichung in der Abweichungsberechnung inkl. Schwellwert 3793 und/oder Mustervergleich in einem Intervall liegt, dessen oberer Wert der Schwellwert für die Klassifizierung nach 3793 darstellt. Weiterhin wird alternativ und/oder ergänzend zu der Abweichung von der Linie ein Hilfsmitteleinsatz im Schritt 3620 detektiert. Das Ergebnis wird als keine Abweichung ohne Hilfsmitteleinsatz 3795 klassifiziert, wenn die die Person steht 3616, geht 3666, und der Wert der Linienabweichung in der Abweichungsberechnung inkl. Schwellwert 3793 unter einem Schwellwert liegt (bzw. bei einem Mustervergleich eine Musterähnlichkeit nicht erreicht wird) und kein Hilfsmittel einsatz im Schritt 3620 detektiert wird. In Folgeschritt wird, basierend auf dieser Klassifizierung, der Wegabweichungs-Score im Schritt 3796 errechnet.
Rumpfstabilität
[0283] Alternativ und/oder ergänzend zu den vorangegangenen Auswertungen wertet der Serviceroboter 17 während des Gangs die Rumpfstabilität aus, was analog oder ähnlich wie die Stehbalance-Ermittlung passiert, mit dem Unterschied, dass die Person auch geht (vgl.
Fig. 49). Im Rahmen der Rumpfstabilitäts-Geh-Klassifizierung wird das Ergebnis der Merkmalsklassifizierungen 3370 der verschiedenen Aspekte wie folgt ausgewertet. [0284] Die Person wird als schwankend oder Hilfsmittel-einsetzend im Schritt 3951 klassifiziert, wenn die Person steht 3616, geht 3666, Hilfsmittel 3623 nutzt und instabil 3636 ist. Die Person wird als nicht schwankend, aber gebeugt oder balancierend im Schritt 3952 eingestuft, wenn die Person steht 3616, geht 3666 und entweder (als Teilaspekt der Balanceermittlung) nach vorne geneigt ist (bspw. ausgewertet über die Richtungsvektoren in 3633) oder die Armgelenkpunkte sich in einer Distanz vom Körper befinden, die über einem Schwellwert liegt bzw. die bspw. in einem Mustervergleich eine Musterunähnlichkeit aufweist (bspw. ausgewertet über die periodischen Bewegungen der Armgelenkpunkte in der Transversalebene in 3631). Die Person wird als rumpfstabil 3953 klassifiziert, wenn die Person steht 3616, geht 3666, keine Hilfsmittel 3624 vorweist und stabil 3635 ist. In Folgeschritt wird, basierend auf dieser Klassifizierung, der Wegabweichungs-Score 3954 errechnet.
[0285] Im Falle der Balanceermittlung 3630 können, in einem Aspekt, auch die Amplitude und/oder Frequenz der periodischen oder aperiodischen Bewegungen, die im Wesentlichen parallel zur Frontalebene detektiert werden, einem Schwellwertvergleich und/oder Mustervergleich unterzogen werden.
Schrittbreite
[0286] Alternativ und/oder ergänzend zu den vorangegangenen Auswertungen wertet der Serviceroboter 17 beim Erfassen des Gangs, wie bspw. in den vorangegangenen Abschnitten beschrieben wurde, die Spurbreite/Schrittbreite aus (siehe Fig. 50). Dazu wird innerhalb der Merkmalsklassifizierung 3370 die Spurweite ausgewertet 3695, was bspw. als Abstandsmessung der Fußgelenkpunkte im Zeitverlauf in der Frontalebene 3696 implementiert ist. Im Rahmen der Spurweitenklassifizierung 3955 wird über die Spurweitedaten ein Schwellwertvergleich 3956 und/oder Mustervergleich durchgeführt. Es wird auch berücksichtigt, ob die Person steht 3616 und geht 3666. Liegt die Spurweite unter dem Schwellwert (z.B. 18 cm) bzw. weist diese eine definierte Mindestunähnlichkeit in einem Mustervergleich auf, wird die Spurweite als schmal 3958 klassifiziert, andernfalls als breit 3957. Das Ergebnis wird in einen Spurweiten-Score 3959 transformiert. Die Spurweite kann, in einem Aspekt, um die Breite des Hüftgelenkpunkts korrigiert werden, welches über die Länge des Richtungsvektors zwischen den Hüftgelenkpunkten approximiert wird. Drehung um 360'
[0287] Alternativ und/oder ergänzend zu den vorangegangenen Auswertungen wertet der Serviceroboter 17 beim Erfassen des Gangs, wie bspw. in den vorangegangenen Abschnitten beschrieben wurde, die Drehbewegung der erfassten Person aus (siehe Fig. 51), vorzugsweise eine Drehbewegung um 360°. Innerhalb der Merkmalsklassifizierung 3370 wird die Schrittlänge 3930 ermittelt, an dieser Stelle jedoch anders als im Schritt 3670, weil nicht die Distanz in der Sagittalebene ausgewertet wird, sondern die absolute Distanz, da durch die Drehbewegung der Person eine Schrittstellung auch schräg erfolgen kann. Weiterhin wird, bspw. mit Daten aus dem Schritt 3661, ausgewertet, ob und wieweit sich die Person dreht, d.h. es findet eine Drehungsdetektion im Schritt 3925 statt. Dabei wird, in einem Aspekt, die Rotation in der Transversalebene vom Richtungsvektor zwischen den Schultergelenkpunkten, den Hüftgelenkpunkten und/oder den Knie- oder Armgelenkpunkten bzw. dem Kopf im Schritt 3926 ausgewertet. Hierbei werden die Drehwinkel erfasst, addiert und die addierten Werte werden dahingehend ausgewertet, ob die Addition den Wert von 360° erreicht hat (Drehwinkeladdition bis Schwellwert 360° im Schritt 3927 bzw. Mustervergleich). In einem Aspekt erfolgt das nach einer Ausgabe im Schritt 3521 durch den Serviceroboter 17.
[0288] Im Fall der Drehung um 360° (als Ergebnis vom Schritt 3925), einer detektierten Gehbewegung im Schritt 3666 und des Stands im Schritt 3616 wird eine Auswertung der zuvor erfassten Schrittlängen vorgenommen, bei der die Distanzen zwischen den Schritten im Schritt 3961 verglichen werden. Hierbei wird die Symmetrie der Doppel schritte 3962 ausgewertet, d.h. es werden die Doppelschrittlängen, das Verhältnis der Einzelschrittlängen untereinander und/oder im Vergleich zum Doppelschritt ausgewertet. Alternativ und/oder ergänzend kann auch die Schrittfrequenz 3963 ausgewertet werden, insbesondere mit Blick auf ihre Periodizität, d.h. den Anstieg und Fall der Kurven und darüber die Amplitudensymmetrie. Periodizität und/oder die Symmetrie der Doppelschritte wird über einen Schwellwertvergleich im Schritt 3964 und/oder einem Mustervergleich ausgewertet, wobei eine hohe Symmetrie zu als kontinuierlich klassifizierten Schritten 3965 führt, andernfalls zu diskontinuierlichen Schritten 3966. Die Ergebnisse werden in einen Dreh- Schritt-Score 3967 konvertiert.
[0289] Alternativ und/oder ergänzend wird ebenfalls ein Dreh-Stabilitäts-Score 3970 erfasst. Dazu wird eine in 3925 detektierte Drehbewegung hinsichtlich der Balance im Schritt 3630 ausgewertet. Im Ergebnis werden solche Drehbewegungen, bei denen die Balance stabil 3635 ist, bei denen die Person steht 3616 und geht 3666, als stabile Drehbewegung 3968 klassifiziert. Dagegen werden Bewegungen, bei denen die Person steht 3616 und geht 3666, aber in der Balance instabil ist im Schritt 3636, als instabile Drehbewegung 3969 klassifiziert. Die Ergebnisse erden in den Dreh-Stabilitäts-Score 3970 überführt.
Absitzen
[0290] Der Serviceroboter 17 erfasst das Sich-Setzen der Person infolge einer Ausgabe 3521 über mindestens eine Ausgabevorrichtung des Serviceroboters 17 und nutzt dabei zumindest anteilig Merkmalsklassifizierungen wie bereits oben beschrieben (vgl. Fig. 52). Dabei wertet der Serviceroboter 17 in der Sich-Setzen-Klassifizierung 3980 den Übergang vom Stand 3616 zum Sitzen 3617, wobei dieser Schritt mit 3981 beschrieben wird. Dabei wird insbesondere die Geschwindigkeit des Übergangs 3982 ausgewertet. Weiterhin ermittelt der Serviceroboter 17 die Kontinuität des Übergangs 3983, bspw. durch sequentiellen Vergleich der Momentangeschwindigkeiten während des Sich-Setzens und/oder durch Vergleich mit in einem Speicher hinterlegten Werten. Basierend auf diesen beiden Schritten 3982 und 3983 erfolgt eine Schwellwertauswertung 3984 und/oder ein Mustervergleich. Weiterhin werden Ergebnisse der Klassifizierung 3620 genutzt, die auswerten, ob die Hand ein Hilfsmittel nutzt, wozu auch ein Sich-Abstützen zählt. Die Ergebnisse werden dann wie folgt klassifiziert:
[0291] Überschreitet die Geschwindigkeit des Sich-Setzens einen Schwellwert 3984, so wird das Sich-Setzen als ein unsicheres Sich-Setzen 3987 klassifiziert. Überschreitet der Wert der Diskontinuität des Verlaufs des Sich-Setzens einen Schwellwert 3984 und/oder wird ein Hilfsmittel 3623 genutzt, wird die Bewegung als ein beschwerliches Sich-Setzen 3985 klassifiziert. Wird kein Hilfsmittel im Schritt 3624 detektiert und unterschreitet die Geschwindigkeit des Sich-Setzens einen Schwellwert im Schritt 3984 und/oder unterschreitet der Wert der Diskontinuität des Verlaufs des Sich-Setzens einen Schwellwert im Schritt 3984, wird das Sich-Setzen als sicher im Schritt 3986 klassifiziert. Die Ergebnisse dieser Auswertung werden in einen Sich-Setzen-Score 3988 konvertiert.
Alternative Auswertung der Bewegungen der Person
[0292] In einem alternativen und/oder ergänzenden Aspekt erstellt der Serviceroboter 17 zwei- oder dreidimensionale Aufnahmen von der Person und vergleicht diese Aufnahmen mit in einem Speicher hinterlegten Aufnahmen von Personen, die ebenfalls die Körperhaltungen einnehmen bzw. Bewegungen vornehmen und die danach klassifiziert wurden, inwieweit die aufgenommenen Personen sich bspw. zur Seite lehnt, rutscht oder sicher bzw. stabil sitzt; inwieweit diese Person aufsteht und dabei Hilfsmittel nutzt, versucht aufzustehen, die Stehbalance zu halten, Schritte zurücklegt, Gangsymmetrie aufweist, Rumpfstabilität vorweist, sich um 360° dreht, etc. Diese Klassifikation kann durch im Stand der Technik beschriebene Klassifikationsverfahren vorgenommen werden, bspw. Verfahren des maschinellen Lemens/der künstlichen Intelligenz. Auf Basis dieses Vergleichs klassifiziert der Serviceroboter 17 die aufgezeichneten Aufnahmen der Person. Der Score wird jeweils analog den einzelnen Übungen zugewiesen, wie dies oben beschrieben wurde.
[0293] In einem Aspekt kann der Serviceroboter 17 die aufgezeichneten Daten über eine Schnittstelle 188 (wie z.B. WLAN) auch an andere Systeme übertragen, in welchen die Daten dann ausgewertet werden, bspw. derart, wie für die Auswertung innerhalb des Serviceroboters 17 beschrieben wurde.
[0294] Die verschiedenen Aspekte der Mobilitätsauswertung werden nachfolgend anhand mehrerer Abbildungen beschrieben. Fig. 73 illustriert ein System zur Ermittlung der Balance einer Person, wobei es sich beim System um einen Serviceroboter handeln kann. Das System zur Ermittlung der Balance einer Person umfasst einen Sensor zur berührungslosen Erfassung einer Person im Zeitverlauf, ein Skelett-Erstellungs-Modul 5635 zur Erstellung eines Skelettmodell der Person, ein skelettmodell-basiertes Merkmalsextraktion-Modul 5640 zur Merkmalsextraktion auf Basis von Gelenkpunkten und/oder Richtungsvektoren zwischen den Gelenkpunkten der Person, ein Transversal-Gelenkpunkte-Auswertungs-Modul 5645 zur Auswertung von Positionsänderungen der Gelenkpunkte innerhalb der Transversalebene mit Blick auf die Amplitude, Orientierung und/oder Frequenz der Positionsänderung und zum Abgleich erfasster Werte mit im Speicher 10 hinterlegten Schwellwerten und/oder Mustern. Alternativ und/oder ergänzend umfasst das System zur Ermittlung der Balance einer Person einen Sensor zur berührungslosen Erfassung einer Person im Zeitverlauf, ein Skelett- Erstellungs-Modul 5635 zur Erstellung eines Skelettmodell der Person, ein skelettmodell- basiertes Merkmalsextraktion-Modul 5640 zur Merkmalsextraktion auf Basis von Gelenkpunkten und/oder Richtungsvektoren zwischen den Gelenkpunkten der Person, ein Lot-Gelenkpunkte-Auswertungs-Modul 5650 zur Ermittlung der Abweichung eines Richtungsvektors vom Lot der Person, wobei der Richtungsvektor gebildet wird als Verbindung von mindestens einem Gelenkpunkt von Fuß, Knie oder Hüfte mit mindestens einem vertikal darüberliegenden Gelenkpunkt einer aufrechtstehenden Person. Das System umfasst bspw. ein Lot-Gelenkpunkte-Auswertungs-Modul 5650 zur Ermittlung der Abweichung eines Richtungsvektors vom Lot der Person mit einem im Speicher 10 hinterlegten Schwellwert und/oder Muster, ein Spurweiten-Schrittweiten-Modul 5675 zur Ermittlung der Spurweite und/oder Schrittweite einer Person über den Abstand der Fußgelenkpunkte in der Frontalebene im Zeitverlauf, wenn die Spurweite einen Schwellwert unterschritten hat, ein Personengröße-Auswertungs-Modul 5655 zur Auswertung der Größe der Person, wobei die Größe bspw. über die Distanz zwischen Boden und/oder mindestens einem Fußgelenkpunkt und mindestens einem Punkt im Kopfbereich ermittelt wird, bspw. durch Vektorsubtraktion zweier Richtungsvektoren ermittelt wird, die von einem gemeinsamen Ursprung zu mindestens einem Fuß und mindestens dem Kopf der Person reichen. Unter einem gemeinsamen Ursprung wird bspw. ein Sensor wie eine 3D-Kamera verstanden, von der aus Tiefeninformationen erfasst werden. Das System umfasst ein Handabstands- Auswertungs-Modul 5660 zur Ermittlung des Abstands zwischen dem mindestens einem erfassten Handgelenkpunkt der Person und mindestens einem erfassten Objekt im Umfeld der Person und Modifikation eines Werts im Speicher (10) bei Unterschreiten eines Abstands-Schwellwerts. Das System umfasst ein sagittalebenenbasiertes Gelenkpunktverlauf-Auswertungs-Modul 5665 zur Auswertung des Verlaufs der Gelenkpunkte innerhalb der Sagittalebene und zum Vergleich der ermittelten Werte mit im Speicher 10 hinterlegten Werten. Beim Sensor zur berührungslosen Erfassung der Person kann es sich um eine Kamera 185, einen LID AR 1, einen Ultraschall- und/oder Radarsensor 194 handeln. In einem Aspekt verfügt das System über ein Personenerkennungsmodul 110, Personenidentifizierungsmodul 111 und/oder Bewegungsauswertungsmodul 120.
Beispiele
Beispiel 1: Delirprävention und Delirüberwachung
[0295] Der Serviceroboter 17 kann dafür eingesetzt werden, die Aufenthaltsdauer von Patienten in Kliniken zu verringern, wenn die Patienten sich im fortgeschrittenen Alter befinden und einer Operation bedürfen, die im Regelfälle unter Vollnarkose durchgeführt wird. Hierbei ist das Risiko groß, durch die Narkose an Demenz zu erkranken. Risikopatienten sind hierbei solche, die bereits vorher an kognitiven Beeinträchtigungen leiden. Der Serviceroboter 17 kann nun dafür eingesetzt werden, die kognitiven Fähigkeiten der Patienten mindestens einmalig, bspw. über den Zeitverlauf automatisiert zu monitoren, um medizinischem Personal Diagnosen zur Verfügung zu stellen, die eine verbesserte und zielgerichtete Prophylaxe und Behandlung der Patienten zu ermöglichen.
[0296] Fig. 17 zeigt den Ablauf auf, wie sich der Serviceroboter 17 hierzu automatisiert in Richtung Patient bewegt. In einem Krankenhausmanagement-System (KIS) werden Patientendaten hinterlegt, dass für einen bestimmten Patienten eine Operation erfolgen soll, darunter die Art und den Termin der OP 1705. Das Patientenmanagement-System, welches über eine Schnittstelle 188 (wie z.B. WLAN) auf das Krankenhausmanagement-System (KIS) zugreift, kann aus dem KIS die Rauminformationen erhalten, wo sich der Patient befindet. Ergänzend dazu können weitere Informationen an das Patientenadministrationsmodul 160 im Schritt 1710 übertragen werden, darunter die Art der OP, den Termin, krankheitsbezogene Informationen, etc. In einem Aspekt greift der Serviceroboter 17 auf das Patientenadministrationsmodul 160 zu, erhält die Rauminformationen im Schritt 1715 und gleicht im Schritt 1720 die Rauminformationen mit in seinem Navigationsmodul 101 hinterlegten Informationen ab, um sich anschließend in Richtung des Zimmers des Patienten im Schritt 1725 zu bewegen. In einem weiteren Aspekt findet der Informationsabgleich zwischen Patientenadministrationsmodul 160 und Navigationsmodul in der Cloud 170 im Schritt 1730 statt, und im Schritt 1735 synchronisiert das Navigationsmodul in der Cloud 170 mit dem Navigationsmodul 101 des Serviceroboters 17. Daraufhin bewegt sich der Serviceroboter 17 in Richtung Zimmer des Patienten 1725.
[0297] Befindet sich der Serviceroboter 17 vor der Zimmertür zum Patienten 1805, muss der Serviceroboter 17 diese passieren, damit der Patient am Serviceroboter 17 den Test durchführen kann. Der Serviceroboter 17 ist ferner so konfiguriert, dass der Serviceroboter 17 durch seine Sensorik in der Lage ist, eine Tür zu erkennen, wie dies bspw. weiter vorne bzw. Fig. 8 beschrieben ist 1810. Ist die Tür offen, navigiert der Serviceroboter 17 im Schritt 1815 direkt in das Zimmer des Patienten. Ist die Tür geschlossen 1820, nutzt der Serviceroboter 17 ein integriertes Kommunikationsmodul 1825, welches über eine Schnittstelle 188 (wie z.B. WLAN) (Schritt 1835) mit dem Rufsystem der Klinik 1840 verbunden ist.
[0298] Auf Basis seiner aktuellen Position sendet der Serviceroboter 17 darüber ein Signal, welches dem medizinischen Personal Rückschlüsse auf seine Position erlaubt und den Hinweis, bitte die Tür zum Zimmer des Patienten zu öffnen. Dazu verfügt der Serviceroboter 17, in einem Aspekt, in seinem Speicher über eine Datenbank mit Zuordnung Standortdaten zu Raumnummern 1830, die ein Teil der Datenbank mit Raumdaten 109 als Bestandteil des Navigationsmoduls 101 sein kann, welche bspw. mit einem Krankenhausinformationssystem über eine Schnittstelle verbunden sein kann. Diese Datenbank kann jedoch auch in einer Cloud 18 verfügbar sein. Wird die Zimmertür durch Krankenhaus-Personal im Schritt 1845 geöffnet, bewegt sich der Serviceroboter 17 in das Zimmer des Patienten, um mit dem Patienten im Schritt 1850 den Test durchzuführen. Sofern die Tür zum Zimmer des Patienten über einen elektrischen Antrieb 7 verfügt, ist der Serviceroboter 17 so konfiguriert, dass der Serviceroboter 17 über eine Schnittstelle 188 (wie z.B. WLAN) (Schritt 1835) direkt Zugriff auf die Türsteuerung 1855 hat und dieser einen Code zum Öffnen der Tür im Schritt 1860 sendet.
[0299] In einem alternativen oder ergänzenden Aspekt beobachtet der Serviceroboter 17 vor der Tür durch seinen mindestens einen Sensor 3 das Umfeld 1865 und, sofern der Serviceroboter 17 Personen erkennt, trackt der Serviceroboter 17 diese erkannten Personen im Schritt 1870, und, in einem Aspekt, prognostiziert die Bewegungen der erkannten Personen im optionalen Schritt 1875 und, sofern die Personen sich in seine Richtung orientieren 1880, richtet sich so aus, dass sein Display 2 in Richtung der Personen orientiert ist (Schritt 1890). Das Tracking erfolgt bspw. mittels des visuellen Personentracking-Moduls 112 und/oder des laserbasierten Personentracking-Moduls 113. In einem alternativen oder ergänzenden Aspekt wartet der Serviceroboter 17, bis sich Personen in einem Mindestabstand zu dem Serviceroboter 17 befinden 1885, bevor der Serviceroboter 17 das Display 2 in Richtung der Personen ausrichtet 1885. Gleichzeitig signalisiert der Serviceroboter 17 optisch und/oder akustisch seinen Wunsch, dass die Person die Tür zum Patientenzimmer im Schritt 1892 öffnet. Die angesprochene Person öffnet im Schritt 1894 die Tür. Hierbei ist der Serviceroboter 17, wie bereits weiter vorne bzw. Fig. 8 beschrieben, in der Lage, den Öffnungsvorgang der Tür zu erfassen 1896. Sobald die Tür geöffnet ist, navigiert der Serviceroboter 17 in das Zimmer des Patienten, um den Test im Schritt 1850 durchzuführen. Sofern sich zwischen Serviceroboter 17 und Patient keine Tür befindet, wie das teilweise auf Intensivstationen der Fall ist, entfallen diese Schritte.
[0300] Der Serviceroboter 17 führt, wie in Fig. 19 dargestellt, einen Test im Schritt 1905 durch, insbesondere den Mini -Mental-Test, und ermittelt darüber einen Score im Schritt 1910, der im Falle des Mini -Mental-Tests den Grad der kognitiven Beeinträchtigung des Patienten wiedergibt. Alternativ und/oder ergänzend können andere, in diesem Dokument dargelegte Testverfahren genutzt werden. Diese Daten werden via einer Schnittstelle 188 (z.B. WLAN) (Schritt 1915) an das Patientenadministrationsmodul 1920 übertragen und dort dem medizinischen Personal zur Verfügung gestellt, das darauf via einem Display 2 zugreifen kann (Schritt 1925). Die Daten werden ggf. auch über eine Schnittstelle 188 (z.B. WLAN) in das KIS übertragen 1930.
[0301] Das Patientenadministrationsmodul 160 ist in der Lage, aus dem KIS weitere Daten zur Krankenhistorie des Patienten zu erhalten, darunter bspw. auch Medikamente, die der Patient einnimmt. Basierend auf diesen Informationen ermittelt das Patientenadministrationsmodul 160 einen Risikowert, der angibt, mit welcher Wahrscheinlichkeit der Patient mit einem Fortschreiten der Demenz durch die geplante Operation rechnen kann 1935. Dieser Risikowert kann wiederum dem medizinischen Personal über ein Display 2 zur Verfügung gestellt werden und/oder ins KIS übertragen werden. Auf Basis solcher Informationen kann das medizinische Personal geeignete Präventionsmaßnahmen einleiten, um eine mögliche postoperative Demenz zu verhindern oder zumindest die Wahrscheinlichkeit dafür zu reduzieren.
[0302] Der Serviceroboter 17 bzw. das Patientenadministrationsmodul 160 sind ferner so konfiguriert, dass der Serviceroboter 17 nach absolvierter Operation 1955 (die Information daraus stammt aus dem KIS) sich, wie bereits oben beschrieben 1950, wieder zum Patienten bewegt und mit diesem erneut einen Test durchführt 1960, insbesondere einen geriatrischen Test, wie den Mini-Mental-Test. Hat sich der Score des Mini-Mental-Tests nach der Operation gegenüber dem Test von vor der Operation verschlechtert, und liegt diese Verschlechterung über einem bestimmten Schwellwert (ist der Patient bspw. mehr als 3% schlechter als vorher) (also voriger Testscore > (letzter Testscore * Schwellwertquotient)
1965, wird diese Prozedur nach einigen Tagen im Schritt 1970 wiederholt, um den Genesungsfortschritt des Patienten zu erfassen, auszuwerten und zu dokumentieren.
Beispiel 2: Erfahrungswertbasierte Prognose postoperativer Demenz
[0303] In Fig. 20 ist dargestellt, wie Daten vom Serviceroboter 17 für Therapievorschläge aufbereitet werden. Das Regelwerk 150 ist mit dem Patientenadministrationsmodul 160 in der Cloud 18 verbunden, dass derart konfiguriert ist, dass die Patienteninformationen in anonymisierter Form an das Regelwerk 150 im Schritt 2025 übertragen werden können. Hierzu kann das Patientenadministrationsmodul 160 zuvor aus dem Krankenhausinformationssystem 2015 weitere relevante Daten über eine Schnittstelle 188 (z.B. WLAN) erhalten, darunter Art der Operation, Art der Narkose, Komorbiditäten, eingenommene Medikamente, Maßnahmen zur Delirprävention, postoperative Maßnahmen zur Linderung des Delirs bzw. dessen Behandlung, usw. sowie die Ergebnisse der Übungen, die mittels des Serviceroboters 17 im Schritt 2020 durchgeführt worden sind. Letztere können alternativ und/oder ergänzend auch aus dem Patientenadministrationsmodul 160 stammen. Diese Daten, welche jeweils als Zeitreihe vorliegen, werden im Patientenadministrationsmodul 160 anonymisiert, verschlüsselt, an das Regelwerk 150 übertragen und dort abgespeichert 2030.
[0304] Im nächsten Schritt werden im Schritt 2035 etablierte Verfahren des maschinellen Lernens und neuronale Netze eingesetzt, um basierend auf den prä-operativ vorliegenden Informationen, wie den Ergebnissen des vom Serviceroboter 17 durchgeführten Mini -Mental- Tests, patientenspezifischen Daten wie dem Alter, den Komorbiditäten, der Art der Narkose, der Operation, den eingenommenen Medikamenten usw. eine Prognose zu erstellen, inwieweit beim Patienten ein postoperatives Delir zu erwarten ist 2040. Determinanten des Delirs sind wiederum der Grad der kognitiven Beeinträchtigung zeitnah nach der Operation, wann der Serviceroboter 17 üblicherweise den ersten Test vornimmt, womit die Parameter, die im Rahmen eines CAM-ICO-Tests erhoben werden, der Delirium Detection Score, die Behavioral Pain Scale, dem Critical Care Point Observation Tool, der Richmont Agitation Sedation Scale, der Motor Activity Assessment Scale, in einen unterschiedlichen Ausprägungen und/oder vom Serviceroboter wie weiter oben beschriebene und erhobene Daten (bspw. siehe Abschnitt Delirerkennung), bspw. der in Beispiel 11, 12 oder 17 erhobene Daten usw. Eine weitere Determinante ist die Verbesserungen im Grad des Delirs, die über eine festgelegte Zeit auftritt, über die der Serviceroboter 17 die kognitiven Fähigkeiten ermittelt 2045. Eine andere, alternative oder ergänzende Determinante ist die Zeit, die benötigt wird, um ein bestimmtes Niveau an kognitiven Fähigkeiten (erneut) zu erreichen 2050. Diese Daten können in Form eines Trainingsdatensatzes genutzt werden.
[0305] In einem ergänzenden und/oder alternativen Schritt wird der Effekt von Interventionen auf die im vorigen Absatz beschriebenen Determinanten mittels etablierter Verfahren des maschinellen Lernens und/oder neuronaler Netze geschätzt. Zu diesen Interventionen gehört die Nutzung von schonenden Anästhesien, von begleitenden Maßnahmen wie der Zur verfügungstellung einer Bezugsperson, der medikamentösen Einstellung usw. 2055 [0306] Basierend auf den Schätzungen der maschinellen Lemverfahren werden Gewichte ermittelt 2060, die vom Regelwerk 150 an das Patientenadministrationsmodul 160 im Schritt 2065 übertragen werden und dazu genutzt werden, dem medizinischen Personal Empfehlungen zu unterbreiten, wie nach bestimmten, vom Serviceroboter 17 ermittelten Testergebnissen bei der Erstellung von Therapieplänen für den jeweiligen Patienten im Schritt 2070 vorgegangen werden sollte. Diese Empfehlungen können präoperativ, postoperativ und/oder über den Zeitablauf vom Patientenadministrationsmodul 160 dem medizinischen Personal zur Verfügung gestellt werden. Die Aktualisierungen dieser Empfehlungen basieren optional auf Eingaben im KIS, auf die das Patientenadministrationsmodul 160 Zugriff hat, auf Eingaben im Patientenadministrationsmodul 160 als auch auf Ergebnissen des Mini -Mental- Tests, auf Basis des Tests zum Delirium Detection Score mit bspw. einer Schweißdetektion, der Confusion Assessment Method mit bspw. der Auswertung kognitiver Fähigkeiten im Zusammenhang mit der Detektion akustischer Signalfolgen, Bilderkennung oder Fingererkennung und/oder der Schmerzstatus-Bestimmung auf Basis einer Auswertung von Emotionen,, Bewegungen der oberen Extremitäten, etwaigen Hustenaktivitäten und/oder akustischen Schmerzartikulationen, die der Serviceroboter 17 mit bzw. beim Patienten, wie beschrieben, absolviert bzw. durchführt.
[0307] Zusammengefasst lässt sich der Sachverhalt derart darstellen, dass es sich um ein System zur Prognose postoperativer Demenz bzw. Delir handelt, bestehend aus einem Rechner, einem Speicherund mindestens einer Schnittstelle 188 (z.B. WLAN), über welche das System im Datenaustausch mit einer mobilen Datenerfassungseinheit steht, welche über mindestens eine Kamera 185 verfügt, in einem Aspekt auch über ein Spektrometer 196. Bei der mobilen Erfassungseinheit, welche Daten maschinell erfasst und auswertet, handelt es sich bspw. um einen Serviceroboter 17. Zugleich kann, in einem Aspekt, das System als solches auch im Serviceroboter 17 abgebildet werden.
[0308] Das System verfügt über eine Schnittstelle 188 (z.B. WLAN), über die es Daten zum Gesundheitszustand einer Person, zu Behandlungen, Medikamentenstatus, Maßnahmen zur Delirprävention, Maßnahmen der postoperativen Delirbehandlung und/oder Auswertungen von Messungen erhält, die die mobile Datenerfassungseinheit wie bspw. der Serviceroboter 17 durchgeführt hat. Dabei wertet das System die den Personen zugeordneten Daten im Zeitablauf aus. In einem ersten Schritt werden Vergangenheitsdaten ausgewertet, die prä- und postoperative Krankheits- und Behandlungsverläufe von Patienten abbilden. Hierbei werden Prognosen erstellt, d.h. insbesondere die Wahrscheinlichkeit des Auftretens von postoperativen Daten prognostiziert wie bspw. die Auftretenswahrscheinlichkeit postoperativer Demenz, deren Verlauf, etc. prognostiziert, wofür z.B. Verfahren des maschinellen Lernens genutzt werden. Die Prognosen berücksichtigen ebenfalls medizinische Interventionen wie das Einleiten bestimmter Behandlungen prä- und postoperativ und es wird deren Einfluss auf den postoperativen Krankheitsverlauf der Personen prognostiziert. Auf Basis dieser Auswertungen mit historischen Daten werden Regeln ermittelt und abspeichert, d.h. insbesondere Gewichte (bzw. Regressionskoeffizienten, sofern Regressionsmodelle genutzt werden). Diese können dann in einem zweiten Schritt auf Basis von über die Schnittstelle 188 (z.B. WLAN) erhaltener Daten, darunter auch Daten, die von der mobilen Datenerfassungseinheit erhoben und, in einem Aspekt, prozessiert worden sind, für Prognosen genutzt werden. Bei diesen Daten handelt es sich vornehmlich um neu erfasste Daten von Patienten, bei denen zum Erhebungszeitpunkt der künftige Krankheitsverlauf noch unklar ist bzw. der noch nicht abschließend erfasst worden ist. Dieser zweite Schritt kann in einem separaten System erfolgen, welches die Regeln bzw. Gewichte vom genannten System erhält. Zusammengefasst stellt sich der Ablauf der erfahrungswert-basierten Prognose postoperativer Demenz/Delir wie folgt dar: Erfassung von Personen im Zeitablauf, Ermittlung von Gesundheitszustandsdaten der Personen auf Basis der Erfassung der Person im Zeitablauf, Erhalt von präoperativen Daten der Personen, Erhalt von Interventionsdaten zu der Personen, Ermittlung des Einflusses der präoperativen Daten und der Interventionsdaten auf die Gesundheitszustandsdaten der Personen durch Berechnung einer Gewichtsschätzung für Parameter der präoperativen Daten und der Interventionsdaten sowie bspw. Prognose des Gesundheitszustands einer erfassten Person auf Basis der Gewichtsschätzung und neu erhobener präoperativer Daten und Interventionsdaten einer Person.
Beispiel 3: Schweißdetektion bei Patienten
[0309] Abweichend von der Detektion und Auswertung von Schweiß auf der Haut von Patienten, die sich in einem Bett befinden, kann der Serviceroboter 17 eine derartige Auswertung auch bei Patienten durchführen, die sich nicht im Bett befinden. Dazu ist der Serviceroboter 17 in der Lage, auf Basis der Skeletterkennung über Frameworks aus dem Stand der Technik die Haltungen/Posen eines Patienten zu identifizieren. Mittels der RGB- Kamera kann der Serviceroboter 17 Aufnahmen von der Oberfläche des Patienten anfertigen und diese dahingehend auswerten, ob der Patient bekleidet ist. Dazu greift der Patient auf Klassifikationsalgorithmen zurück, die darauf ausgelegt sind, Haut an ihrer Farbe zu erkennen. Hierbei kann, in einem Aspekt, eine Kreuzvalidierung stattfinden, und zwar derart, dass die Zielregion auf der Haut, auf der die Messung stattfinden soll, farblich und/oder von ihrer Textur her mit der des Gesichts der Person verglichen wird, welches über Frameworks aus dem Stand der Technik erkannt werden kann, bspw. mittels Ansätzen wie Histogram-of- Gradients, die in Frameworks wie OpenCV oder Scikit-image implementiert sind. In einem Aspekt kann hierbei ein Filter eingesetzt werden, der farbliche Korrekturen insofern vornimmt, als dass erfasste Farben im Gesicht dunkler sein können als auf der Stelle auf der Haut, auf der die Messung erfolgen soll. Regionen des Gesichts, die für die Ermittlung des Vergleichswerts infrage kommen, sind die Wangen oder die Stirn (die Identifizierung letzterer Region wurde bereits an anderer Stelle beschrieben). Ein solcher Korrekturfaktor kann, in einem Aspekt, auch jahreszeitabhängig sein. Sofern der hierbei stattfindende Abgleich einen Ähnlichkeitswert ergibt, der über einem definierten Schwellwert liegt, wird die erfasste Stelle zur Messung als Haut erkannt. Ein alternativer und/oder ergänzender Filter kann ebenfalls eingesetzt werden, welcher hautuntypische Farbtöne (bestimmte Rottöne, Blau, Grün, Gelb) usw. ausschließt.
[0310] Der Serviceroboter 17 erfasst eine Zielregion der Haut für die Messung, ermittelt, ob es sich hierbei um Haut handelt, und falls dies nicht der Fall ist, erfasst der Serviceroboter 17 weitere Zielregionen und/oder bittet den Patienten via der Sprachsyntheseeinheit 133, eine entsprechende Region freizumachen. Dazu trackt der Serviceroboter 17 die entsprechende Region, bspw. den Arm des Patienten, und z.B. nachdem dieser sich weniger bewegt als durch einen Schwellwert definiert, startet die Auswertung der Stelle erneut, um zu identifizieren, ob dort die Haut freiliegt oder ggf. noch durch Bekleidung verdeckt ist. Sofern der Serviceroboter 17 diese verdeckte Haut detektiert hat, führt der Serviceroboter 17 die an anderer Stelle beschriebenen Messungen aus.
Beispiel 4: Triggern von Elementen der Verkörperung auf Basis von kardiovaskulären Indikatoren
[0311] Der Serviceroboter 17 errechnet die Pulsrate bzw. Pulsfrequenz einer Person, mit der der Serviceroboter 17 interagiert, indem der Serviceroboter 17 die Pulsrate und Pulsfrequenz mit dem beschriebenen System durch Aufzeichnung und Auswertung des Gesichts und der darin sich widerspiegelnden kardiovaskulären Bewegungen der Gesichtsoberfläche und/oder des Kopfs und/oder vaskulärer Blutströme unter der Haut ermittelt. Die ermittelte Pulsfrequenz wird genutzt, um im Falle, dass der Serviceroboter 17 über Elemente der Verkörperung verfügt, d.h. solche Elemente, die eine Person zumindest anteilig nachbilden wie bspw. einen stilisierten Kopf darstellen oder Teile davon wie stilisierte Augen, Mund etc., durch Imitation der Frequenz unbewusst mit der Person zu interagieren. Diese Interaktion kann bedeuten, bspw. das Blinzeln stilisierter Augen an die Pulsfrequenz anzupassen. Alternativ und/oder ergänzend kann für den Fall, dass der Serviceroboter 17 über einen stilisierten und beweglichen Brustkorb verfügt, auch dessen Bewegungsfrequenz an die Pulsfrequenz angepasst werden. In einem alternativen und/oder ergänzenden Aspekt kann der Serviceroboter 17, wenn die Person über eine überdurchschnittlich hohe Pulsfrequenz verfügt, die bspw. auch hohe Nervosität hindeutet (alternativ andere, ermittelte Parameter auf hohe Nervosität hindeuten), durch Wahl einer Bewegungsfrequenz von bspw. den stilisierten Augen, Brustkorb oder weiterer Elemente, die kleiner ist als die beim Patienten identifizierte Frequenz, versuchen, den Patienten zu beruhigen. Der Serviceroboter 17 ermittelt dabei die Pulsfrequenz des Patienten im Zeitablauf und reduziert ggf. solange seine Bewegungsfrequenz, bis der Patient ebenfalls eine übliche Pulsfrequenz vorweist. Dabei kann die Differenz zwischen der erfassten der Pulsfrequenz und der Bewegungsfrequenz des Serviceroboters 17 in etwa konstant bleiben. Stilisiert heißt bspw., dass es sich mit Blick auf Augen um in Hardware implementierte Augen handeln kann, bspw. Kugeln mit aufgedruckten Kreisen und Halbkugeln, die mechanisch die aufgedruckten Kreise auf den Kugeln verdecken können. Die Augen können auch auf einem Display dargestellt werden, bspw. in Form von Kreisen, usw. Mit Blick auf einen Mund kann dieser bspw. wie bei einem Smilie über einen Strich definiert sein, der unterschiedliche Orientierungen und/oder Krümmungen einnehmen kann.
[0312] Alternativ und/oder ergänzend kann der Serviceroboter 17 mittels der Kamera 185 den Brustkorb einer Person identifizieren und auch tracken, was bspw. mittels eines Frameworks wie OpenPose, OpenCV, etc. erfolgen kann, bspw. mittels des visuellen Personentracking- Moduls 112 und/oder des laserbasierten Personentracking-Moduls 113. Kamera 185 und die beiden Personentracking-Module 112 und 113, ggf. aber auch andere Sensoren wie der LID AR 1, werden auch als Personenerfassungs- und Trackingeinheit 4605 bezeichnet. Mit dieser Personenerfassungs- und Trackingeinheit 4605 kann der Serviceroboter 17 Bewegungen einer Person im Zeitablauf erfassen, die bspw. eine Atmung wiedergeben. Diese Erfassung umfasst im Fall, dass der Patient sich in etwa frontal vor dem Serviceroboter befinden sollte, sowohl Bewegungen in horizontaler Richtung als auch in der Tiefe. Diese Bewegungen können bspw. mittels eines Bandpassfilters mit einem Fenster von 0,005 bis 0,125 Hz, mindestens 0,05 bis 0,08 Hz, und subsequenter schneller Fouriertransformation ermittelt werden. Darüber lässt sich die Atemfrequenz ermitteln, die anstelle der Pulsfrequenz für das Spiegeln der Patientenbewegungen und ggf. das Beruhigung des Patienten genutzt werden kann.
[0313] Die Erfassung der Pulsrate bzw. Pulsfrequenz und/oder Atmung bzw. Atemfrequenz erfolgt mittels einer Bewegungsfrequenzermittlungseinheit 4606, die bspw. aus der Kamera 185 und an anderer Stelle in diesem Dokument beschriebenen computerimplementierten Verfahren zur Ermittlung der Pulsrate bzw. Pulsfrequenz und/oder Atmung bzw. Atemfrequenz, wobei aber auch andere Bewegungen der Person denkbar sind. Die Parameter für Puls und/oder Atem werden konkret durch eine Puls- Atem -Auswertungseinheit 4615 erfasst und ausgewertet. Insbesondere die Atmung wird über eine
Bewegungssignalerfassungs- und Verarbeitungseinheit 4620 erfasst und ausgewertet, welche Hintergrundsignale des Körpers von denen der Bekleidung unterscheidet. Hierzu sind an anderer Stelle in diesem Dokument mit Blick auf die Signalverarbeitung Details genannt. Die genannten stilisierten Gesichter oder Gesichtselemente, Köpfe, Rümpfe oder Brustkörbe, werden auch als stilisierte Verkörperungselemente 4625 bezeichnet. Diese werden durch eine Bewegungseinheit 4607 mit einer bestimmten Frequenz bewegt. Dies kann, je nach Art des stilisierten Verkörperungselements, unterschiedliche erfolgen. Augenbewegungen auf einem Display können bspw. rein softwarebasiert implementiert, während physische Verkörperungselemente bspw. Stellmotoren bedürfen, die bspw. Augenlider bewegen oder einen stilisierten Brustkorb bewegen. In einem Aspekt verfügt das System weiterhin über ein Personenerkennungsmodul 110, Personenidentifizierungsmodul 111, Trackingmodul (112, 113) und/oder Bewegungsauswertungsmodul 120. Ein Überblick über die Komponenten des Systems ist in Fig. 60 dargelegt.
[0314] Die Synchronisation von Bewegungen einer Person mit einem Serviceroboter 17 wird durch folgende Aspekte ASBPS1 bis ASBPS19 charakterisiert:
ASBPS1. System zur Synchronisation der Bewegungen einer Person und eines Systems, umfassend eine Personenerfassungs- und Trackingeinheit (4605), einer Bewegungsfrequenzermittlungseinheit (4606) zur Ermittlung der Frequenz der Bewegungen der Person, und einer Bewegungseinheit (4607) zur Bewegung stilisierter Verkörperungselemente (4625) des Systems mit einer Frequenz, die innerhalb einer definierten Bandbreite um die ermittelte Frequenz der Bewegungen der Person liegt.
ASBPS2. System nach ASBPS1, weiter umfassend eine Puls- Atem -Auswertungseinheit (4615) zur Messung der Pulsfrequenz und/oder der Atemfrequenz der Person. ASBPS3. System nach ASBPS1, weiter umfassend eine Bewegungssignal erfassungs- und
Verarbeitungseinheit (4620) zur Erfassung und Auswertung erfassten Bewegungen der Person mittels eines Bandpassfilters und zur subsequenten Prozessierung der bandpassgefilterten Signale mittels einer schnellen Fouriertransformation.
ASBPS4. System nach ASBPS1, wobei die stilisierten Verkörperungselemente (4625) in Hard- und/oder Software implementiert sind.
ASBPS5. System nach ASBPS4, wobei in Software implementierte, stilisierte Verkörperungselemente (4625) die Anzeige mindestens eines stilisierten Gesichts oder Gesichtselementes auf einem Display 2 umfasst.
ASBPS6. System nach ASBPS5, wobei in Hardware implementierte, stilisierte Verkörperungselemente (4625) mindestens ein stilisiertes Gesicht, Gesichtselement oder einen Rumpf oder Brustkorb umfasst.
ASBPS7. System nach ASBPS5, wobei die Bewegung stilisierter Verkörperungselemente (4625) die Bewegung eines stilisierten Gesichts, Gesichtselements, Rumpfs oder Brustkorb durch die Bewegungseinheit (4607) umfasst. ASBPS8. System nach ASBPS4, wobei die stilistischen Verkörperungselemente zu einer Imitation der Atmungsbewegung durch die Bewegungseinheit (4607) angeregt werden.
ASBPS9. System nach ASBPS1, wobei das System zur Beruhigung der Person eingesetzt wird.
ASBPS10. Computer-implementiertes Verfahren zur Synchronisation der Bewegungen einer Person und eines Systems, umfassend
• Erfassung und Tracking der Bewegungen einer Person;
• Ermittlung der Frequenz der Bewegungen der Person;
• Bewegung von stilisierter Verkörperungselemente (4625) des Systems mit einer Frequenz, die innerhalb einer definierten Bandbreite von der ermittelten Frequenz der erfassten Bewegungen der Person liegt. ASBPS11. Computer-implementiertes Verfahren nach ASBPS10, wobei die erfassten Bewegungen der Person bandpassgefiltert und fouriertransformiert werden.
ASBPS12. Computer-implementiertes Verfahren nach ASBPS10, wobei die Bewegung stilisierter Verkörperungselemente (4625) die Bewegung eines stilisierten Gesichts, Gesichtselements, Rumpfs oder Brustkorbs umfasst und/oder eine Atmung imitiert.
ASBPS13. Computer-implementiertes Verfahren nach ASBPS10, wobei die Bewegung der stilisierten Verkörperungselemente (4625) von der Bewegungseinheit (4607) niedriger gehalten als die erfasste Frequenz der Bewegungen der Person.
ASBPS14. Computer-implementiertes Verfahren nach ASBPS10, wobei die Frequenzdifferenz zwischen den Bewegungen der stilisierten Verkörperungselemente (4625) und der Person im Zeitverlauf von der Bewegungseinheit (4607) in etwa konstant gehalten wird.
ASBPS15. Computer-implementiertes Verfahren nach ASBPS10, wobei es sich bei den erfassten Bewegungen der Person um die Pulsfrequenz und/oder die Atemfrequenz handelt. ASBPS16. Computer-implementiertes Verfahren nach ASBPS10, wobei die Bewegungen der stilisierten Verkörperungselemente (4625) von der Bewegungseinheit (4607) auf eine Frequenz eingestellt werden, die niedriger ist als die Frequenz der erfassten Bewegungen der Person.
ASBPS17. Computer-implementiertes Verfahren nach ASBPS10, wobei die Bewegungen der stilisierten Verkörperungselemente (4625) von der Bewegungseinheit (4607) so gesteuert werden, dass sie im Zeitablauf langsamer werden.
ASBPS18. Computer-implementiertes Verfahren nach ASBPS10, wobei die Frequenzdifferenz zwischen den stilisierten Verkörperungselementen (4625) und der Person von der Bewegungseinheit (4607) im Zeitverlauf in etwa konstant gehalten wird. ASBPS19. Computer-implementiertes Verfahren nach ASBPS10, wobei die von der
Bewegungseinheit (4607) initiierte Bandbreite der Frequenz von der ermittelten Frequenz der Person sich in einem Intervall von 50% nach unten und/oder oben oder in einem Intervall von weniger als 15% nach unten und/oder oben bewegt.
Beispiel 5: Verfahren, Vorrichtung und/oder System zur Durchführung eines Get up and Go-Tests [0315] Ermittlung eines Score in Zusammenhang mit dem Aufstehen und Setzen auf einem Stuhl wird hier durch folgende Aspekte ASASS1 bis ASASS20 charakterisiert:
ASASS 1. Computer-implementiertes Verfahren zur Erfassung und Auswertung des
Zurücklegens einer Distanz durch eine Person, umfassend · Ausgabe einer Anweisung über eine Ausgabeeinheit;
• Erfassung und Tracking einer Person im Zeitablauf über die Distanz, wobei die Person eine Distanz von 3m Länge zwischen einer Start- und einer Wendeposition und insgesamt eine Wegstrecke von 6m Länge zurücklegt, umfassend einen Stuhl an der Startposition. ASASS2. Computer-implementiertes Verfahren nach ASASS1, wobei die Ermittlung der durch die Person zurückgelegten Distanz durch
• Erstellung eines Skelettmodells;
• Merkmalsextraktion von Gelenkpunkten und/oder Richtungsvektoren zwischen den Gelenkpunkten des Skelettmodells; · Merkmalsklassifizierung der Gelenkpunkte zur Ermittlung von Distanzen zwischen
Fußgelenkpunkten in der Sagittal ebene, wenn diese Minima über dem Boden erreichen, wobei die Distanzen zwischen den Fußgelenkpunkten in der Sagittalebene die Schrittlänge darstellen; weiter umfassend die Addition der Schrittlängen zur Ermittlung der zurücklegten Wegstrecke der Person.
ASASS3. Computer-implementiertes Verfahren nach ASASS1, wobei die Ermittlung der durch die Person zurückgelegten Wegstrecke durch Tracking von Bewegungen der Person zwischen der Start- und der Wendeposition.
ASASS4. Computer-implementiertes Verfahren nach ASASS1, umfassend eine Erfassung einer Drehbewegung der Person und Vergleich mit Mustern.
ASASS5. Computer-implementiertes Verfahren nach ASASS4, wobei die Drehbewegung der Person an der Wendeposition erfasst wird.
ASASS6. Computer-implementiertes Verfahren nach ASASS1, wobei eine Erfassung der Drehbewegung der Person erfolgt und die Position der Drehbewegung die Wendeposition definiert. ASASS7. Computer-implementiertes Verfahren nach ASASS4-6, wobei die Erfassung der Drehbewegung durch
• Erstellung eines Skelettmodells;
• Merkmalsextraktion von Gelenkpunkten und/oder Richtungsvektoren zwischen den Gelenkpunkten des Skelettmodells;
• Merkmalsklassifizierung der Gelenkpunkte zur Ermittlung einer Rotation von symmetrisch vorhandenen Gelenkpunkten um das durch die Person laufende Lot und/oder
• Merkmalsklassifizierung der Gelenkpunkte zur Ermittlung einer Winkeländerung von mehr als 160° von symmetrisch vorhandenen Gelenkpunkten zur Linie, die die Start- und Wendeposition verbindet.
ASASS8. Computer-implementiertes Verfahren nach ASASS1, wobei die Wendeposition durch eine erfasste Markierung auf dem Boden ermittelt wird.
ASASS9. Computer-implementiertes Verfahren nach ASASS1, weiter umfassend eine Ermittlung eines Aufstehens der Person von einem und/oder ein Sich-Setzen der Person auf einen Stuhl.
ASASS10. Computer-implementiertes Verfahren nach ASASS9, wobei die Ermittlung des Aufstehens der Person von einem und/oder ein Sich-Setzen der Person auf einen Stuhl über die Auswertung der Neigung des Oberkörpers im Zeitverlauf erfolgt.
ASASS11. Computer-implementiertes Verfahren nach ASASS10, wobei Auswertung der Neigung des Oberkörpers im Zeitverlauf über die
• Erstellung eines Skelettmodells;
• Merkmalsextraktion von Gelenkpunkten und/oder Richtungsvektoren zwischen den Gelenkpunkten des Skelettmodells;
• Merkmalsklassifizierung der Gelenkpunkte zur Ermittlung der Orientierung eines Richtungsvektors zwischen einem Hüftgelenkpunkt und einem Schultergelenkpunkt und/oder Kopfgelenkpunkt und einem Vergleich der Orientierung mit einem Schwellwert und/oder Muster und/oder
• Merkmalsklassifizierung der Gelenkpunkte zur Ermittlung der Winkeländerung zwischen Richtungsvektoren, die von einem Kniegelenkpunkt in Richtung Hüfte und/oder Fußgelenkpunkt orientiert sind und einem Vergleich der Winkeländerung mit einem Schwellwert und/oder Muster. ASASS12. Computer-implementiertes Verfahren nach ASASS10, wobei die Ermittlung des Aufstehens der Person von einem und/oder ein Sich-Setzen der Person auf einen Stuhl über Auswertung der Höhe der Person und/oder einer Höhenänderung der Person im Vergleich zu einem Schwellwert und/oder Muster erfolgt. ASASS13. Computer-implementiertes Verfahren nach ASASS10, wobei die Ermittlung des Aufstehens der Person von einem und/oder ein Sich-Setzen der Person auf einen Stuhl über die Erfassung, das Tracking und die Auswertung der Bewegungen des Kopfs der Person im Zeitablauf und eine erkannte, zumindest teilweise kreisförmige Bewegung des Kopfes innerhalb der Sagittalebene erfolgt. ASASS14. Computer-implementiertes Verfahren nach ASASS1, weiter umfassend die
Erfassung und Auswertung der Zeit zwischen dem Aufstehen der Person von einem und/oder ein Sich-Setzen der Person auf einen Stuhl oder die Ermittlung der Zeit für das Zurücklegen der Wegstrecke.
ASAS15. Computer-implementiertes Verfahren nach ASASS14, weiter umfassend die Erstellung eines Scores für die ermittelte Zeit.
ASASS16. Computer-implementiertes Verfahren nach ASASS1, weiter umfassend die Durchführung eines Tests auf die Hörfähigkeit, Sehfähigkeit und/oder die geistigen Fähigkeiten der Person.
ASASS17. Vorrichtung zur Durchführung eines Verfahrens nach ASASS1 - ASASS16. ASASS18. System umfassend einen Rechner (9), einen Speicher (10) und mindestens einen Sensor zur berührungslosen Erfassung der Bewegung einer Person, mit einem Stuhldetektionsmodul (4540), einer Ausgabevorrichtung wie einen Lautsprecher (192) und/oder ein Display (2) zur Übermittlung von Instruktionen, ein Zeitdauer-Wegstrecken- Modul (4510) zur Ermittlung der Zeitdauer zum Zurücklegen der Wegstrecke und/oder ein Geschwindigkeits-Wegstreckenmodul (4515) zur Ermittlung die Geschwindigkeit der erfassten Person auf einer Wegstrecke sowie ein Zeitdauer-Wegstrecken-Bewertungsmodul (4520) zur Bewertung der Zeit zum Zurücklegen der Wegstrecke.
ASASS19. System nach ASASS18, weiter umfassend eine Hörtesteinheit (4525), eine Sehtesteinheit (4530) und/oder eine Test-auf-geistige-Fähigkeiten -Einheit (4535). ASASS20. System nach ASASS18, weiter umfassend eine Projektionsvorrichtung (920) zur Projektion einer Wendeposition auf den Boden. Beispiel 6: Verfahren, Vorrichtung und System zur Auswertung einer Mini-Mental Test Faltübung
[0316] Die Ermittlung eines Score in Auswertung einer Faltübung wird hier durch folgende Aspekte AMMTF1 bis AMMTF25 charakterisiert:
AMMTF1. Computer-implementiertes Verfahren zum Erfassen und Auswerten eines Faltvorgangs, umfassend
• Erfassung, Identifizierung und Tracking mindestens einer Hand einer Person;
• Erfassung, Identifizierung und Tracking eines Blatts;
• Gemeinsame Klassifizierung von Dimensionen, Formen und/oder Bewegungen des erfassten Blatts und Elementen einer Hand als Faltvorgang.
AMMTF2. Computer-implementiertes Verfahren nach AMMTFG1, umfassend eine Faltung des Blatts in etwa in der Mitte.
AMMTF3. Computer-implementiertes Verfahren nach AMMTFG1, wobei das Tracking der mindestens einen Hand der Person die Erstellung eines Skelettmodells von der mindestens einen Hand der Person umfasst.
AMMTF4. Computer-implementiertes Verfahren nach AMMTFG1, umfassend eine Identifizierung des Blatts über einen fehlertoleranten Segmentierungsalgorithmus.
AMMTF5. Computer-implementiertes Verfahren nach AMMTFG4, weiter umfassend eine Blattklassifikation und/oder Klassifikation eines Faltvorgangs basierend auf Vergleich mit zweidimensionalen oder dreidimensionalen Mustern.
AMMTF6. Computer-implementiertes Verfahren nach AMMTFG1, wobei die Klassifizierung des Faltvorgangs eine Berührung von mindestens einem Daumen und mindestens einem weiteren Finger an den Fingerspitzen bzw. Fingerkuppen als Handbewegungen umfasst.
AMMTF7. Computer-implementiertes Verfahren nach AMMTFG1, wobei die Klassifizierung des Faltvorgangs eine Detektion einer Formänderung eines Blatts, das mit mindestens einem Element einer Hand in Eingriff steht, umfasst.
AMMTF8. Computer-implementiertes Verfahren nach AMMTFG1, umfassend Identifizierung und Tracken mindestens eine Ecke und/oder Kante eines Blatts. AMMTF9. Computer-implementiertes Verfahren nach AMMTFG8, weiter umfassend eine Distanzermittlung zwischen mindestens zwei Ecken und/oder Kanten des Blatts im Zeitverlauf.
AMMTF10. Computer-implementiertes Verfahren nach AMMTFG9, weiter umfassend eine Klassifizierung des Faltvorgang durch Vergleich ermittelter Distanzen mit einem Schwellwert und/oder Muster und eine Detektion eines Faltvorgangs, wenn die ermittelte Distanz unter dem Schwellwert liegt und/oder eine Mindestmusterähnlichkeit detektiert wird.
AMMTF11. Computer-implementiertes Verfahren nach AMMTFG1, wobei die Klassifizierung des Faltvorgangs eine Detektion einer Krümmung des Blatts umfasst, die über einem Schwellwert liegt und/oder die eine Mindestmusterähnlichkeit aufweist.
AMMTF12. Computer-implementiertes Verfahren nach AMMTFG1, wobei die Klassifizierung des Faltvorgangs eine Abstandsreduktion zwischen mindestens zwei Blatträndern umfasst.
AMMTF13. Computer-implementiertes Verfahren nach AMMTFG1, wobei die Klassifizierung des Faltvorgangs eine in etwa parallele Ausrichtung der Enden eines Blattrands und/oder einen Abstand der Enden eines Blattrands, der kleiner ist als 20mm, umfasst.
AMMTF14. Computer-implementiertes Verfahren nach AMMTFG1, wobei die Klassifizierung des Faltvorgangs eine Größenreduktion des erfassten und getrackten Blatts im Zeitablauf um mehr als 40% umfasst.
AMMTF15. Computer-implementiertes Verfahren nach AMMTFG1, weiter umfassend Ausgabe auf einem Display 2 und/oder eine Sprachausgabe zum Falten und Ablegen eines Blatts oder Falten und Fallenlassen eines Blatts.
AMMTF16. Computer-implementiertes Verfahren nach AMMTFG15, weiter umfassend die Erfassung des Blatts im Zeitverlauf und die Anpassung eines Werts in einem Speicher nach Detektion eines Faltvorgangs und Ablegen und/oder Fallenlassen des Blatts.
AMMTF17. Vorrichtung zur Durchführung eines Verfahrens nach AMMTFG1-AMMTFG16.
AMMTF18. System umfassend einen Rechner (9), einen Speicher (10) und einen Sensor zur berührungslosen Erfassung der Bewegung einer Person, umfassend im Speicher (10) ein
Blattdetektionsmodul (4705) zur Detektion eines Blatts sowie ein
Faltbewegungsermittlungsmodul (4710) zur Ermittlung einer Faltbewegung eines Blatts. AMMTF19. System nach AMMTFG18, wobei das System ein Skelett-Erstellungs-Modul (5635) zur Erstellung eines Skelettmodells der Person oder Teile der Person aufweist.
AMMTF20. System nach AMMTFG18, wobei das Faltbewegungsermittlungsmodul (4710) über ein Blatt-Abstands-Ecken-Kanten-Modul (4720) zur Detektion des Abstands von Kanten und/oder Ecken eines Blatts, ein Blattformänderungs-Modul (4725), ein Blattkrümmungs- Modul (4730), ein Blattdimensions-Modul (4740) und/oder ein Blattrand-Orientierungs- Modul (4745) aufweist.
AMMTF21. System nach AMMTFG18, umfassend weiterhin ein Fingerkuppen- Ab Stands- Modul (4750) zur Detektion des Abstands von Fingerkuppen von mindestens einer Hand.
AMMTF22. System nach AMMTFG18, wobei das Blattdetektionsmodul (4705) ein Blattsegmentierungsmodul (4755) und/oder ein Blattklassifikations-Modul (4760) beinhaltet.
AMMTF23. System nach AMMTFG18, umfassend eine Ausgabevorrichtung wie einen Lautsprecher (192) und/oder ein Display (2) zur Übermittlung von Instruktionen.
AMMTF24. System nach AMMTFG18, umfassend eine Schnittstelle (188) zu einem Terminal (13).
AMMTF25. System nach AMMTFG18, wobei der mindestens eine Sensor zur berührungslosen Erfassung der Bewegung einer Person eine 2D und/oder 3D-Kamera (185), ein LID AR (1), ein Radar- und/oder Ultraschall sensor (194) ist.
Beispiel 7: Manipulationserkennung
[0317] Die Manipulationserkennung wird hier durch folgende Aspekte AMI bis AM18 charakterisiert:
AMI. Computer-implementiertes Verfahren zur Ermittlung einer Manipulationswahrscheinlichkeit an einem Roboter, umfassend
• Erfassung und Tracking mindestens einer Person im Elmfeld des Roboters und
• Ermittlung einer Wahrscheinlichkeit für eine Manipulation des Roboters durch diese Person.
AM2. Computer-implementiertes Verfahren nach AMI, weiter umfassend
• Ermittlung der Position von der mindestens einen Person im Elmfeld des Roboters und
• Ermittlung der Distanz der mindestens einen Person zum Roboter. AM3. Computer-implementiertes Verfahren nach AM2, weiter umfassend eine Ermittlung einer erhöhten Manipulationswahrscheinlichkeit bei Ermittlung einer Unterschreitung eines Di stanz- Sch well werts der mindestens einen Person zum Roboter.
AM4. Computer-implementiertes Verfahren nach AMI, umfassend eine Skelettmodellerstellung der erfassten und getrackten Person und eine Extraktion und Klassifikation von Gelenkpunkten.
AM5. Computer-implementiertes Verfahren nach AM4, weiter umfassend eine Ermittlung der Orientierung der Person relativ zum Roboter.
AM6. Computer-implementiertes Verfahren nach AM5, weiter umfassend die Ermittlung einer Orientierung der Person relativ zum Roboter durch eine Ermittlung des Winkels zwischen der Frontal ebene der Person und der senkrecht auf den Bedienelementen 186 des Roboters stehenden Achse, jeweils in eine horizontale Ebene projiziert, und ein Vergleich des ermittelten Winkels mit einem Schwellwert, wobei Unterschreiten des Schwellwerts eine Detektion einer erhöhten Manipulationswahrscheinlichkeit umfasst.
AM7. Computer-implementiertes Verfahren nach AMI, weiter umfassend
• Registrierung der Person am Roboter und
• Erfassung und Speicherung von Identifikationsmerkmalen der Person.
AM8. Computer-implementiertes Verfahren nach AM7, weiter umfassend
• Erfassung und Tracking der Person;
• Erfassung von Identifikationsmerkmalen der Person;
• Vergleich der erfassten Identifikationsmerkmale mit den nach AM7 abgespeicherten Identifikationsmerkmalen der Person und Vergleich mit einem Schwellwert;
• Detektion einer erhöhten Manipulationswahrscheinlichkeit, sofern der Schwellwert unterschritten wird und Detektion einer niedrigeren Manipulationswahrscheinlichkeit, sofern der Schwellwert überschritten wird.
AM9. Computer-implementiertes Verfahren nach AM3, AM6 und/oder AM8, umfassend eine Multiplikation der Manipulationswahrscheinlichkeiten zur Ermittlung eines Manipulationsscores.
AM10. Computer-implementiertes Verfahren nach AM9, umfassend die Durchführungen von Auswertungen durch den Roboter mit der Person und das Abspeichem des Manipulationsscores zusammen mit den Auswertungsergebnissen. AMI 1. Vorrichtung zur Durchführung eines Verfahrens nach AM1-AM10.
AM12. System umfassend einen Rechner (9), einen Speicher (10) und einen Sensor zur berührungslosen Erfassung der Bewegung mindestens einer Person, umfassend ein Manipulationsversuchs-Detektionsmodul (4770) zur Detektion eines Manipulationsversuchs durch mindestens eine Person.
AM13. System nach AMI 2, weiter umfassend ein Personenidentifizierungsmodul (111).
AM14. System nach AMI 2, weiter umfassend ein Person-Roboter-Abstandsermittlungs- Modul (4775) zur Abstandsermittlung der mindestens einen Person zum Roboter.
AM15. System nach AMI 4, wobei das Person-Roboter-Abstandsermittlungs-Modul (4775) über ein Größe-Armlänge-Orientierungs-Modul (4780) zur Schätzung der Größe, Armlänge und/oder Orientierung der mindestens einen Person zum Roboter verfügt.
AM16. System nach AM13, weiter umfassend ein Eingabe-Registrierungs-Vergleichsmodul (4785) zum Abgleich, ob eine am System registrierte Person vom System erfasst wird oder über die Bedienelemente (186) Eingaben am System vornimmt.
AMI 8. System nach AM 12, wobei es sich beim mindestens einen Sensor zur berührungslosen Erfassung der Bewegung der mindestens einen Person um eine 2D und/oder 3D-Kamera (185), einen LID AR (1), einen Radar- und/oder Ultraschall sensor (194) handelt.
Beispiel 8: Manipulationserkennung 2
[0318] Die Manipulationserkennung wird hier durch folgende Aspekte AMM1 bis AMM17 charakterisiert:
AMM1. Computer-implementiertes Verfahren zur Ermittlung einer Manipulationswahrscheinlichkeit an einem Roboter, umfassend
• Erfassung und Tracking mindestens einer Person im Elmfeld des Roboters durch einen berührungslosen Sensor;
• Ermittlung der Position der Person im Elmfeld des Roboters;
• Aufzeichnung und Auswertung von Audiosignalen;
• Positionsermittlung der Quelle der Audiosignale;
• Vergleich der ermittelten Position der Person und der Position der Quelle der Audiosignale und Vergleich der Positionsdifferenz mit einem Schwellwert und • Ermittlung einer Wahrscheinlichkeit für eine Manipulation des Roboters auf Basis des Vergleichs der Positionsdifferenz mit dem Schwellwert.
AMM2. Computer-implementiertes Verfahren nach AMM1, wobei die Positionsermittlung der Quelle der Audiosignale über eine Erfassung der Richtung der Audiosignale durch mindestens ein Mikrofon und Triangulation der ermittelten Richtungen erfolgt.
AMM3. Computer-implementiertes Verfahren nach AMM1, wobei die Positionsermittlung der Quelle der Audiosignale umfasst
• Erfassung der Richtung des Audiosignals durch ein Mikrofon;
• Ermittlung der Position mindestens einer Person durch den berührungslosen Sensor;
• Triangulation der Richtung des Audiosignals und der ermittelten Position der Person.
AMM4. Computer-implementiertes Verfahren nach AMM1, weiter umfassend
• Auswertung des Gesichts der Person;
• Erfassung der Lippenbewegungen im Zeitablauf;
• zeitlicher Vergleich erfasster Audiosignale mit den erfassten Lippenbewegungen in Relation zu einem Schwellwert und
• in Abhängigkeit des Schwellwerts Zuordnung der erfassten Audiosignale zur erfassten Person.
AMM5. Computer-implementiertes Verfahren nach AMI, weiter umfassend
• Registrierung der Person am Roboter und
• Erfassung und Speicherung von Identifikationsmerkmalen der Person, wobei Identifikationsmerkmale Frequenz, Intensität, und/oder Spektrum der Audiosignale von der Person umfassen.
AMM6. Computer-implementiertes Verfahren nach AM5, weiter umfassend
• Erfassung und Tracking der Person;
• Erfassung von Identifikationsmerkmalen der Person;
• Vergleich der erfassten Identifikationsmerkmale mit den nach AM5 abgespeicherten Identifikationsmerkmalen der Person und Vergleich mit einem Schwellwert;
• Registrierung von Eingaben der Person an den Bedienelemente (186) und
• Zuordnung, ob eine registrierte Person Eingaben an den Bedienelementen (186) vornimmt. AMM7. Computer-implementiertes Verfahren nach AM5, weiter umfassend eine Ermittlung einer erhöhten Wahrscheinlichkeit für eine Manipulation des Roboters, wenn eine nicht registrierte Person Eingaben an den Bedienelementen (186) des Roboters vornimmt.
AMM8. Computer-implementiertes Verfahren nach AMM1, weiter umfassend
• Ermittlung von Wörtern und/oder Wortsequenzen in den erfassten Audiosignalen;
• Zuordnung der ermittelten Wörter und/oder Wortsequenzen zu erfassten Personen;
• Ermittlung einer Wahrscheinlichkeit für eine Manipulation des Roboters durch einen Vergleich der ermittelten Wörter und/oder Wortsequenzen und Bewertung in Relation zu einem Schwellwert.
AMM9. Computer-implementiertes Verfahren nach AMM1, umfassend
• Ermittlung von Worten oder Wortsequenzen, die von der Person über ein Bedienelement (186) eingegeben werden;
• Ermittlung von Wörtern und/oder Wortsequenzen in den erfassten Audiosignalen;
• Zuordnung der ermittelten Wörter und/oder Wortsequenzen aus den erfassten Audiosignalen zu erfassten Personen;
• Erfassung von Identifikationsmerkmalen der Person;
• Ermittlung einer erhöhten Wahrscheinlichkeit für eine Manipulation des Roboters, wenn ein Vergleich der über die Bedienelemente (186) eingegebenen Wortsequenzen mit aus den erfassten Audiosignalen ermittelten Wortsequenzen eine Übereinstimmung ergibt, die über einem Schwellwert liegt und zugleich eine Übereinstimmung beim Vergleich erfasster Identifikationsmerkmale der Person mit bei der Registrierung erfassten und abgespeicherten Identifikationsmerkmalen vorliegt, die über einem Schwellwert liegt.
AMM10. Computer-implementiertes Verfahren nach AMM1, wobei die Positionsermittlung der Quelle der Audiosignale über eine Re-Positionierung des Mikrofons und die Erfassung der Audiosignale von zwei Mikrofonpositionen mit nachfolgender Triangulation erfolgt.
AMM1 1. Computer-implementiertes Verfahren nach AMM1, umfassend die Ermittlung eines Manipulationsscores durch Multiplikation ermittelter Manipulationswahrscheinlichkeiten.
AMM12. Vorrichtung zur Durchführung eines Verfahrens nach AMMl-AMMl 1.
AMM13. System zur Manipulationsauswertung auf Basis von Audiosignalen, umfassend einen Rechner (9), einen Speicher (10), Bedienelemente (186), einen Sensor zur berührungslosen Erfassung der Bewegung einer Person, ein Manipulationsversuchs- Detektionsmodul (4770), mindestens ein Mikrofon (193), ein Personen-Positions- Ermittlungs-Modul (4415) zur Ermittlung der Position einer Person, ein Audioquellen- Positionsermittlungs-Modul (4420) zur Bestimmung der räumlichen Herkunft eines Audiosignals, ein Audiosignal-Vergleichs-Modul zum Vergleich zweier Audiosignale (4425) und ein Audiosignal-Personen-Modul (4430) zur Zuordnung von Audiosignalen zu einer Person.
AMM14. System nach AMM13, umfassend ein Sprachauswertungsmodul (132).
AMM15. System nach AMM13, umfassend ein Eingabe-Registrierungs-Vergleichsmodul (4785) zum Abgleich, ob eine vom System identifizierte Person Eingaben am System vornimmt.
AMM16. System nach AMM13, wobei der Sensor zur berührungslosen Erfassung der Bewegung einer Person eine 2D und/oder 3D-Kamera (185), ein LID AR (1), ein Radar- und/oder Ultraschall sensor (194) ist.
AMM17. System nach AMM13, umfassend ein Audiosequenz-Eingabe-Modul (4435) zum Vergleich einer Audiosequenz mit einer Sequenz taktil eingegebener Buchstabenfolgen.
Beispiel 9: Spektrometrie
[0319] Die Spektroskopie wird hier durch folgende Aspekte ASP1 bis ASP20 charakterisiert:
ASP1. Computer-implementiertes Verfahren zur spektrometri sehen Analyse mindestens einer Körperregion einer Person, umfassend
• Erfassung, Tracking und Erzeugung einer Abbildung einer Person;
• Segmentierung der erzeugten Abbildung der Person in Körperregionen;
• Bestimmung der Körperregionen über eine Klassifizierung;
• Ausrichtung eines Spektrometers (196) auf eine hinterlegte Körperregion.
ASP2. Computer-implementiertes Verfahren nach ASP1, wobei es sich bei der Körperregionen um die Stirn der Person, die Handoberfläche und/oder den Oberkörper handelt.
ASP3. Computer-implementiertes Verfahren nach ASP1, weiter umfassend
• Ermittlung von Bewegungen einer bestimmten Körperregion im Zeitverlauf; • Vergleich der ermittelten Bewegungen der Körperregion mit einem Schwellwert und/oder Muster;
• Durchführung einer Messung mit dem Spektrometer (196) auf der bestimmten Körperregion in Abhängigkeit vom Schwellwertvergleich und/oder Mustervergleich.
ASP4. Computer-implementiertes Verfahren nach ASP3, weiter umfassend
• Überwachung der Bewegungen der Körperregion während der Messung und Durchführung von Schwellwertvergleichen und/oder Mustervergleichen;
• Unterbrechung der Messung in Abhängigkeit der Schwellwertvergleiche und/oder Mustervergl ei che .
ASP5. Computer-implementiertes Verfahren nach ASP1, umfassend
• Klassifizierung gemessener Spektren durch Vergleich mit Referenzspektren und
• quantitative und/oder qualitative Bestimmung mindestens einer gemessenen Substanz auf Basis der Klassifikation.
ASP6. Computer-implementiertes Verfahren nach ASP5, umfassend
• Vergleich ermittelter Substanzen in Quantität und/oder Qualität mit hinterlegten Daten und
• Erstellung einer Diagnose eines Krankheitsbilds.
ASP7. Computer-implementiertes Verfahren nach ASP1, umfassend die Auswertung der Umgebungstemperatur.
ASP8. Computer-implementiertes Verfahren nach ASP5, umfassend die quantitative Auswertung einer Perspiration der Person.
ASP9. Computer-implementiertes Verfahren nach ASP1, umfassend die Ermittlung eines Delirium Detection Score.
ASP10. Computer-implementiertes Verfahren nach ASP1, umfassend die Ermittlung kognitiver Fähigkeiten der Person.
ASP11. Vorrichtung zur Durchführung eines Verfahrens nach ASP1-ASP10.
ASP12. System umfassend einen Rechner (9), einen Speicher (10) und einen Sensor zur berührungslosen Erfassung einer Person, umfassend ferner ein Spektrometer (196), ein visuelles-Personentracking-Modul (112), eine Körperregions-Detektions-Modul (4810) zur Detektion von Körperregionen, eine Spektrometer-Ausrichtungseinheit (4805) zur Ausrichtung des Spektrometers (196) auf eine Körperregion einer Person, und mit Zugriff auf eine Referenzspektren-Datenbank (4825) mit Referenzspektren zum Abgleich gemessener Spektren zwecks Ermittlung gemessener Substanzen.
ASP13. System nach ASP12, umfassend ein Spektrometer-Messmodul (4820) zur Überwachung eines Messvorgangs des Spektrometers (196).
ASP14. System nach ASP12, wobei das visuelle Personentracking-Modul (112) ein Körperregion-Tracking-Modul (4815) beinhaltet.
ASP15. System nach ASP12, umfassend Zugriff auf eine Krankheitsbilder-Datenbank (4830) mit hinterlegten Krankheitsbildern. ASP16. System nach ASP12, umfassend ein Perspirations-Modul (4835) zur quantitativen Ermittlung der Perspiration einer Person.
ASP17. System nach ASP12, umfassend ein Delirium-Detection-Score-Ermittlungs-Modul (4840) zur Ermittlung eines Delirium Detection Score.
ASP18. System nach ASP12, umfassend ein Kognitive-Fähigkeiten-Bewertungs-Modul (4845) zur Bewertung kognitiver Fähigkeiten der Person.
ASP19. System nach ASP12, umfassend ein Thermometer (4850).
ASP20. System nach ASP12, wobei der mindestens eine Sensor zur berührungslosen Erfassung der Bewegung einer Person eine 2D und/oder 3D-Kamera (185), eine LID AR (1), eine Radar- und/oder Ultraschall sensor (194) ist.
Beispiel 10: Aufmerksamkeitsanalyse
[0320] Die Aufmerksamkeitsanalyse wird hier durch folgende Aspekte AAA1 bis AAA18 charakterisiert:
AAA1. Computer-implementiertes Verfahren zum Abgleich von erfassten Signalen eines taktilen Sensors (4905) mit einer Folge ausgegebener Tonsignale, umfassend
• Ausgabe einer Folge von gepulsten Tonsignalen;
• Erfassung von Signalen durch einen taktilen Sensor (4905);
• Vergleich der ausgegebenen Folge von Tonsignalen mit den durch den taktilen Sensor (4905) erfassten Signalen. AAA2. Computer-implementiertes Verfahren nach AAA1, mit einer Pulsfrequenz der gepulsten Signale zwischen ca. 0,3 und 3 Hz.
AAA3. Computer-implementiertes Verfahren nach AAA1, mit einer Verzögerung bzw. Phasenverschiebung zwischen den ausgegebenen, gepulsten Tonsignalen und den durch den taktilen Sensor (4905) erfassten Signalen.
AAA4. Computer-implementiertes Verfahren nach AAA3, wobei die Verzögerung bzw. Phasenverschiebung ca. eine halbe Pulslänge beträgt.
AAA5. Computer-implementiertes Verfahren nach AAA3, wobei das erfasste Signal des taktilen Sensors (4905) der gepulsten Tonsequenz nachläuft. AAA6. Computer-implementiertes Verfahren nach AAA1, umfassend die Zuordnung eines Werts zu jedem ausgegebenen Tonsignal.
AAA7. Computer-implementiertes Verfahren nach AAA6, weiter umfassend eine Anpassung eines Werts bei Detektion eines Signals nach einem definierten Wert.
AAA8. Computer-implementiertes Verfahren nach AAA7, wobei die Anpassung des Werts eine Inkrementierung des Werts darstellt.
AAA9. Computer-implementiertes Verfahren nach AAA7, weiter umfassend die Erstellung einer Diagnose auf Basis des angepassten Werts.
AAA10. Computer-implementiertes Verfahren nach AAA9, wobei die Diagnose eine Einschätzung kognitiver Fähigkeiten darstellt. AAA1 1. Computer-implementiertes Verfahren nach AAA1, umfassend die Erfassung einer Person und die Detektion und Positionsbestimmung einer Hand der Person.
AAA12. Computer-implementiertes Verfahren nach AAA11, umfassend die Positionierung des taktilen Sensors (4905) in einer Distanz zur Hand, die unter einem Schwellwert liegt.
AAA13. Vorrichtung zur Durchführung eines Verfahrens nach AAA1-AAA12. AAA14. System umfassend einen Rechner (9), einen Speicher (10), eine Ausgabeeinheit für akustische Signale (192), einen taktilen Sensor (4905) sowie eine taktile Sensor- Auswertungseinheit (4910) zur Auswertung von Signalen des taktilen Sensors (4905) und ein taktile-Sensor-Ausgabe-Vergleichsmodul (4915) zur Durchführung eines Vergleichs, ob die erfassten Signale nach einer Ausgabe akustischer Signale auftreten. AAA15. System nach AAA14, umfassend einen Aktor (4920), auf dem der taktile Sensor (4905) positioniert ist.
AAA16. System nach AAA14, umfassend eine Aktor-Positionierungseinheit (4925) zur Positionierung des taktilen Sensors (4905) innerhalb einer definierten Distanz zur Hand.
AAA17. System nach AAA14, umfassend eine Kamera (185), ein Personenidentifizierungsmodul (111) und ein Handidentifizierungsmodul (4930).
AAA18. System nach AAA14, umfassend ein Kognitive-Fähigkeiten-Bewertungs-Modul (4845) zur Bewertung kognitiver Fähigkeiten der Person.
Beispiel 11: Kognitive Analyse
[0321] Die kognitive Analyse wird hier durch folgende Aspekte AKA1 bis AKA16 charakterisiert:
AKAT Computer-implementiertes Verfahren zum Abgleich von auf Basis von Videosignalen ermittelten Fingerposen einer Person mit optisch und/oder akustisch ausgegebenen Zahlen werten, umfassend
• Optische und/oder akustische Ausgabe von Zahlenwerten;
• Erfassung und Tracking von Fingern einer Person;
• Ermittlung von Fingerposen;
• Bewertung der Fingerposen und
• Vergleich der bewerteten Fingerposen mit den optisch und/oder akustisch ausgegebenen Zahlenwerten.
AKA2. Computer-implementiertes Verfahren nach AKA1, wobei die Fingerposen Zahlenwerte darstellen.
AKA3. Computer-implementiertes Verfahren nach AKA2, wobei ein Zahlenwert mehrere Fingerposen darstellen kann.
AKA4. Computer-implementiertes Verfahren nach AKA1, wobei die optische Ausgabe von Zahlenwerten eine Ausgabe von Fingerposen durch einen Aktor (4920) darstellt.
AKA5. Computer-implementiertes Verfahren nach AKA1, weiter umfassend eine Erfassung und ein Tracking des Kopfs der Person und eine Ermittlung des Sichtbereichs der Person. AKA6. Computer-implementiertes Verfahren nach AKA5, weiter umfassend eine Positionierung des Aktors (4920) und/oder eines Displays (2) im Sichtbereich der Person.
AKA7. Computer-implementiertes Verfahren nach AKA1, weiter umfassend eine Ermittlung kognitiver Fähigkeiten der Person durch Bewertung des Vergleichs der bewerteten Fingerposen mit den optisch und/oder akustisch ausgegebenen Zahlenwerten.
AKA8. Vorrichtung zur Durchführung eines Verfahrens nach AKA1-AKA7.
AKA9. System umfassend einen Rechner (9), einen Speicher (10), eine Ausgabeeinheit und ein Zahlenwert-Ausgabe-Modul (4940) zur Ausgabe von Zahlenwerten, eine Personenerfassungs- und Trackingeinheit (4605) mit einer Kamera (185) und einem Personenerkennungsmodul (110).
AKA10. System nach AKA9, wobei es sich bei der Ausgabeeinheit um einen Tongenerator wie einen Lautsprecher (192), ein Display (2) oder einen Aktor (4920) handelt.
AKA1 1. System nach AKA10, wobei es sich beim Aktor (4920) um einen Roboterarm handelt. AKA12. System nach AKA10, wobei der Aktor (4920) über eine Roboterhand (4950) verfügt.
AKA13. System nach AKA9, weiter umfassend ein Handposen-Detektions-Modul (4960) zur Detektion und von Handposen der Person.
AKA14. System nach AKA12, wobei das System eine Fingerposen-Generierungsmodul (4955) zur Generierung von Fingerposen der Roboterhand (4950) umfasst.
AKA15. System nach AKA9, wobei das System mit einem Patientenadministrationsmodul (160) verbunden ist.
AKA16. System nach AKA9, weiter umfassend ein Kognitive-Fähigkeiten-Bewertungs- Modul (4845) zur Bewertung kognitiver Fähigkeiten der erfassten Person.
Beispiel 12: Schmerzstatus-Bestimmung
[0322] Die Schmerzstatus-Bestimmung wird hier durch folgende Aspekte ASB1 bis ASB23 charakterisiert: ASB1. Computer-implementiertes Verfahren zur Ermittlung des Schmerzstatus einer Person, umfassend
• Erfassung der Person,
• Gesichtserkennung der Person,
• Selektion von Kandidatenregionen innerhalb des Gesichts;
• Merkmalsextraktion der Oberflächenkrümmungen der Kandidatenregionen;
• Klassifizierung der Oberflächenkrümmungen der Kandidatenregionen einzeln und/oder zusammenhängend, wobei die Klassifizierung einen Schmerzstatus beschreibt.
ASB2. Computer-implementiertes Verfahren nach ASB1, wobei die einzelne und/oder zusammenhängende Klassifizierung der Oberflächenkrümmung der Kandidatenregionen eine Ermittlung von Emotionen darstellt.
ASB3. Computer-implementiertes Verfahren nach ASB2, weiter umfassend die Zuweisung von Skalenwerten zu den Emotionen und die Emotionsbewertung auf einer Skala.
ASB4. Computer-implementiertes Verfahren nach ASB2, weiter umfassend die Auswertung der Emotionen im Zeitablauf.
ASB5. Computer-implementiertes Verfahren nach ASB1, weiter umfassend
• Erfassung eines Betts und Erstellung von Abbildungen des Betts;
• Klassifizierung der Abbildungen des Betts durch Vergleich mit Mustern zur Detektion einer zu erfassenden Person.
ASB6. Computer-implementiertes Verfahren zur Ermittlung des Schmerzstatus einer Person, umfassend
• Erfassung und Tracking der oberen Extremitäten einer Person im Zeitablauf;
• Auswertung der Winkel zwischen Rumpf und Oberarm, Oberarm und Unterarm und/oder Fingergliedern und Handknochen, wobei die Auswertung der Winkel einen Schmerzstatus beschreibt.
ASB7. Computer-implementiertes Verfahren nach ASB6, weiter umfassend die Auswertung der
• Intensität der Winkeländerungen;
• Geschwindigkeit der Winkeländerungen und/oder
• Anzahl der Winkeländerungen pro Zeiteinheit. ASB8. Computer-implementiertes Verfahren nach ASB7, weiter umfassend die Zuweisung von Skalenwerten zur Auswertung der Winkeländerungen.
ASB9. Computer-implementiertes Verfahren zur Ermittlung des Schmerzstatus einer Person, umfassend
• Aufzeichnung akustischer Signale;
• Auswertung der akustischen Signale durch eine Schmerzklassifikation zur Ermittlung, ob die aufgezeichneten akustischen Signale eine Schmerzvokalisierung repräsentieren;
• Bewertung der als Schmerzvokalisierung klassifizierten akustischen Signale durch eine Schmerzintensitätsklassifikation, wobei
• die Schmerzintensitätsklassifikation die Zuweisung von Skalenwerten zu den aufgezeichneten akustischen Signalen umfasst und die Skalenwerte einen Schmerzstatus repräsentieren.
ASB10. Computer-implementiertes Verfahren nach ASB9, umfassend
• Positionsbestimmung der Quelle akustischer Signale;
• Positionsbestimmung der Person, deren Schmerzstatus ermittelt wird;
• Abgleich der ermittelten Position durch Vergleich mit einem Schwellwert;
• Abspeichem eines Werts in Abhängigkeit vom Schwellwertvergleich in Bezug auf den ermittelten Schmerzstatus.
ASB1E Computer-implementiertes Verfahren zur Ermittlung des Schmerzstatus einer Person, umfassend
• Erfassung der Person,
• Gesichts- und Halserkennung der Person,
• Auswertung des Gesichts- und Halsbereichs der Person nach Mustern, die eine Vorrichtung zur künstlichen Beatmung beschreiben;
• Abspeichern eines Werts bei Detektion eines Musters, das eine Vorrichtung zur künstlichen Beatmung beschreibt, wobei die Vorrichtung zur künstlichen Beatmung einen Schmerzstatus beschreibt.
ASB12. Computer-implementiertes Verfahren nach ASB1, ASB6, ASB9 oder ASB11, wobei mindestens zwei der Verfahren parallel oder sequentiell durchgeführt werden. ASB 13. Computer-implementiertes Verfahren nach ASB1, ASB6, ASB9 oder ASB11, weiter umfassend die Auswertung der ermittelten Skalenwerte oder abgespeicherten Werte innerhalb einer Delirdetektion.
ASB14. Vorrichtung zur Durchführung eines Verfahrens nach ASB1-ASB13. ASB 15. System zur Ermittlung des Schmerzstatus einer Person, umfassend einen Rechner (9), einen Speicher (10), einen Sensor zur berührungslosen Erfassung der Person und ein Schmerzstatus-Berechnungsmodul (5040).
ASB 16. System nach ASB 15, umfassend ein Gesichtserkennungs-Modul (5005) zur Erkennung des Gesichts der Person, ein Gesichts-Kandidatenregion-Modul (5010) zur Selektion von Kandidatenregionen innerhalb des Gesichts, ein Emotions-Klassifikations- Modul (5015) zur Klassifizierung der Oberflächenkrümmungen der Kandidatenregionen des Gesichts in Emotionen, und ein Emotions-Bewertungs-Modul (5020) zur Ermittlung eines Skalenwerts für die Emotion.
ASB17. System nach ASB15, umfassend ein Betterkennungs-Modul (5025) zur Erkennung eines Betts.
ASB18. System nach ASB15, umfassend ein Personenerkennungsmodul (110), ein visuelles Personentracking-Modul (112), ein obere-Extremitäten-Auswertungs-Modul (5035) zur Detektion und Tracking der oberen Extremitäten der Person und Auswertung der Winkel der oberen Extremitäten. ASB19. System nach ASB15, umfassend ein Mikrofon (193) zur Aufzeichnung akustischer Signale, Schmerzvokalisations-Modul (5055) zur Klassifizierung der Intensität und Frequenz der akustischen Signale und Ermittlung eines eine Schmerzvokalisierung repräsentierenden Skalenwerts.
ASB20. System nach ASB 19, umfassend weiterhin ein Audioquellen-Positionsermittlungs- Modul (4420) zur Auswertung der Position der Quelle akustischer Signale und ein
Audiosignal -Personen -Modul (4430) zur Zuordnung von Audiosignalen zu einer Person.
ASB21. System nach ASB 15, umfassend ein Beatmungsvorrichtungs-Erkennungsmodul (5065) zur Erkennung einer Vorrichtung zur künstlichen Beatmung.
ASB22. System nach ASB 15, umfassend ein Schmerzempfindungs- Auswertungsmodul (5085) zur Auswertung von an einer Person befestigten Sensoren. ASB23. System nach ASB 15, wobei es sich beim Sensor zur berührungslosen Erfassung der Person um eine 2D und/oder 3D-Kamera (185), einen LID AR (1), einen Radar- und/oder Ultraschall sensor (194) handelt.
Beispiel 13: Blutdruck
[0323] Die Ermittlung des Blutdrucks wird hier durch folgende Aspekte ABI bis AB16 charakterisiert:
ABI. Computer-implementiertes Verfahren zur Ermittlung kardiovaskulärer Parameter einer Person, umfassend
• Erfassung und Tracking des Gesichts einer Person;
• Selektion von Kandidatenregionen innerhalb des Gesichts;
• Erfassung und Auswertung von Bewegungen innerhalb der Kandidatenregionen des Gesichts, die auf kardiovaskuläre Aktivitäten zurückzuführen sind.
AB2. Computer-implementiertes Verfahren nach ABI, wobei die Bewegungen den Blutfluss in Adern umfassen.
AB3. Computer-implementiertes Verfahren nach ABI, wobei die Bewegungen die Bewegungen der Gesichtsoberfläche und/oder des Kopfs umfassen.
AB4. Computer-implementiertes Verfahren nach ABI, mit einer zwei- und/oder dreidimensionalen Erfassung der Bewegungen.
AB5. Computer-implementiertes Verfahren nach ABI, mit einer einzelnen und/oder zusammenhängenden Auswertung der Kandidatenregionen.
AB6. Computer-implementiertes Verfahren nach ABI, weiter umfassend
• Ausleuchtung des Gesichts und
• frontale Erfassung des Gesichts.
AB7. Computer-implementiertes Verfahren nach ABI, wobei die Auswertung der Bewegungen die Klassifizierung der Bewegungen zur Ermittlung des systolischen oder diastolischen Blutdrucks beinhaltet.
AB8. Computer-implementiertes Verfahren nach ABI, weiter umfassend
• Ermittlung der Orientierung des Gesichts im Raum • Minimierung des Erfassungswinkel des Gesichts, der sich aus einer Achse ergibt, die senkrecht auf einem Sensor zur Erfassung des Gesichts steht, und einer Achse, die sich senkrecht auf der Sagittalebene des Gesichts befindet.
AB9. Vorrichtung zur Durchführung eines Verfahrens nach AB1-AB8.
AB 10. System zur Ermittlung kardiovaskulärer Parameter einer Person, umfassend einen Rechner (9), einen Speicher (10) und eine Kamera (185), weiter umfassend ein Körperregions-Detektions-Modul (4810) zur Detektion von Körperregionen, ein Körperregion-Tracking-Modul (4815), und ein kardiovaskuläre-Bewegungen-Modul (5110) zur Erfassung von Bewegungen, die auf kardiovaskuläre Aktivitäten zurückzuführen sind.
ABI 1. System nach AB 10, weiter umfassend ein Gesichtserkennungs-Modul (5005) und ein Gesichts-Kandidatenregion-Modul (5010).
AB12. System nach AB10, wobei die Kamera (185) mindestens den grünen Farbkanal mit 8 Bit zur Verfügung stellt.
AB 13. System nach AB 10, weiter umfassend eine Leuchte (5120) zur Ausleuchtung des Gesichts während der Aufzeichnung durch die Kamera (185).
AB14. System nach AB13, wobei die Leuchte oberhalb und/oder unterhalb von der Kamera (185) positioniert ist.
AB 15. System nach AB 10, umfassend ein Blutdruck-Ermittlungs-Modul (5125) zur Ermittlung des systolischen oder diastolischen Blutdrucks.
AB16. System nach AB10, umfassend weiterhin eine Kippeinheit (5130), um den Erfassungswinkel der Kamera (185) im Vergleich zur Sagittalebene zu minimieren und/oder einen Bewegungsplaner (104), um die Kamera (185) relativ zum erfassten Gesicht zu repositionieren.
Beispiel 14: Substanzmessung
[0324] Die Messung von Substanzen unter der Haut wie bspw. Glucose wird hier durch folgende Aspekte AG1 bis AG20 charakterisiert:
AG1. System zur Messung von Substanzen auf und/oder innerhalb der Haut einer Person, umfassend einen Detektor (195) mit einem Auswertungslaser (5205) und einem weiteren Laser (5210), wobei der Auswertungslaser (5205) ab Eintritt in ein Medium (5215) wie bspw. eine Kristalloberfläche abgelenkt wird und der weitere Laser (5210) eine Substanz unter Variation der Wellenlänge anregt, wobei der Bereich der angeregten Substanz an der Stelle mit dem Medium (5215) in Eingriff steht, an der der Auswertungslaser (5205) abgelenkt wird, weiter umfassend ein Laser-Variations-Modul (5225) zur Merkmalsextraktion und Merkmalsklassifizierung der Wellenlängenvariation des weiteren Lasers und ein Laserablenkungs-Auswertungs-Modul (5220) zur Auswertung der Ablenkung des Auswertungslasers.
AG2. System zur Messung von Substanzen auf und/oder innerhalb der Haut einer Person, umfassend einen Detektor (195) mit einem Medium (5215) bestehend aus einem Kristall mit kubischer, hexagonaler oder tetragonaler Gitterstruktur, einem Brechungsindex von 1-4 und einer Spektralweite, die im Intervall zwischen 100nm-20.000nm liegt.
AG3. System nach AG1 und AG2, umfassend weiterhin ein Sensor zur berührungslosen Erfassung einer Person, ein Bewegungsauswertungsmodul (120) zur Auswertung von erfassten Bewegungen der Person und ein Fingerpositionierungs-Erkennungs-Modul (5230) zur automatisierten Erkennung der Positionierung eines Fingers auf dem Medium (5215) und Start der Messung.
AG4. System nach AG 1 und AG2, weiter umfassend einen Auswertungslaser (5205) und einen weiteren Laser (5210), wobei der Auswertungslaser (5205) ab der Kristalloberfläche abgelenkt wird und der weitere Laser (5210) eine Substanz unter Variation der Wellenlänge anregt, wobei der Bereich der angeregten Substanz an der Stelle mit dem Medium (5215) in Eingriff steht, an der der Auswertungslaser (5210) abgelenkt wird.
AG5. System nach AG1 und AG2, weiter umfassend ein Laser-Variations-Modul (5225) zur Merkmalsextraktion und Merkmalsklassifizierung der Wellenlängenvariation des weiteren Lasers (5210) und Laserablenkungs-Auswertungs-Modul (5220) zur Auswertung der Ablenkung des Auswertungslasers (5205).
AG6. System nach AG1 und AG2, wobei der Auswertungslaser (5205) mittels eines Sensors auf Basis des Fotoeffekts (5250) ausgewertet wird.
AG7. System nach AG1 und AG2, weiter umfassend eine Schnittstelle zur Übertragung von Daten in ein Patientenadministrationssystem (160). AG8. System nach AG1 oder AG2, wobei der Detektor (195) auf einem Aktor (4920) positioniert ist.
AG9. System nach AG1 oder AG2, umfassend weiterhin einen Sensor zur berührungslosen Erfassung einer Person wie bspw. einer 2D oder 3D-Kamera (185), einen LID AR (1), einen Radar und/oder einem Ultraschall sensor (194).
AGIO. System nach AG9, umfassend weiterhin ein Körperregions-Detektions-Modul (4810) und ein Körperregion-Tracking-Modul (4815) zum Tracking der Messregion.
AG11. System zur Messung von Substanzen auf und/oder innerhalb der Haut einer Person, mit einer Kamera (185) und einer Kippeinheit (5130) zur Ausrichtung der Kamera (185), mit einem Körperregions-Detektions-Modul (4810) und ein Körperregion-Tracking-Modul (4815), mit mindestens einer Lichtquelle (5270) zur Beleuchtung der zu erfassenden Haut der Person, mit einer Wellenlängenvariations-Einheit (5275) zur Variation der Wellenlänge des von der mindestens einen Lichtquelle emittierten Lichts , und einer Wellenlängenvariations- Auswertungs-Einheit (5280) zur Auswertung der Variation der Wellenlänge der erfassten Signale.
AG12. System nach AG11, wobei es sich bei der mindestens einen Lichtquelle (5270) um einen Laser und/oder um mehrere LEDs mit unterschiedlichen Spektren handelt, die entsprechend angesteuert werden können.
AG13. System nach AG11, wobei die Wellenlänge des emittierten Lichts zwischen 550 und 1600 nm liegt.
AG14. System nach AG11, wobei die Wellenlänge des emittierten Lichts zwischen 900 und 1200 nm liegt.
AG15. System nach AG11, wobei die Kamera (185) über einen Fotodetektor aus Indiumgalliumarsenid oder Bleisulfit verfügt.
AG16. System nach AG11, umfassend eine weitere Kamera (185) zur Detektion von Licht im Spektrum 400-800 nm.
AG17. System nach AG1, AG2 und AG11, wobei das System über ein Stoffklassifikationsmodul-Modul (5295) zur Merkmalsextraktion und
Merkmalsklassifizierung erfasster Lichtsignale und Vergleich der klassifizierten Lichtsignale in einem Speicher abgelegten Substanzdaten. AG18. Computer-implementiertes Verfahren zur Messung von Substanzen auf und/oder innerhalb der Haut einer Person, umfassend
• Ausrichtung einer Kamera (185) auf die Hautoberfläche einer Person;
• Erfassung und Tracking der Oberfläche der Person im Zeitverlauf;
• Anstrahlen der Person mit einer Lichtquelle (5270);
• Variation der Wellenlänge des durch die mindestens eine Lichtquelle (5270) emittierten Lichts;
• Detektion des auf der Hautoberfläche und/oder in der Haut reflektierten Lichts;
• Auswertung mindestens des detektierten Lichts durch Vergleich ausgewerteter Merkmale mit hinterlegten Merkmalen.
AG19. Computer-implementiertes Verfahren nach AG18, weiter umfassend die Ermittlung der Konzentration von Substanzen, die sich auf der Hautoberfläche und/oder innerhalb der Haut befinden.
AG20. Vorrichtung zur Durchführung eines Verfahrens nach AG19-AG20.
Beispiel 15: erfahrungswertbasierte Prognose postoperativer Demenz und/oder Delir
[0325] Die erfahrungsweitbasierte Prognose postoperativer Demenz und/oder Delir wird hier durch folgende Aspekte AEPPD1 bis AEPPD8 charakterisiert:
AEPPD1. Computer-implementiertes Verfahren zur Prognose postoperativer Demenz und/oder Delir, umfassend
• Erfassung von Personen im Zeitablauf;
• Ermittlung von Gesundheitszustandsdaten der Personen auf Basis der Erfassung der Personen im Zeitablauf;
• Erhalt von präoperativen Daten der Personen;
• Erhalt von Interventionsdaten zu den Personen;
• Ermittlung des Einflusses der präoperativen Daten und der Interventionsdaten auf die Gesundheitszustandsdaten der Personen durch Berechnung einer Gewichts Schätzung für Parameter der präoperativen Daten und der Interventionsdaten.
AEPPD2. Computer-implementiertes Verfahren nach AEPPD1, weiter umfassend eine Prognose des Gesundheitszustands einer erfassten Person auf Basis der Gewichts Schätzung und neu erhobener präoperativer Daten und Interventionsdaten der Person. AEPPD3. Computer-implementiertes Verfahren nach AEPPD2, wobei die Erfassung der Person anteilig automatisiert erfolgt.
AEPPD4. Computer-implementiertes Verfahren nach AEPPD2, wobei die Erfassung der Person durch einen Serviceroboter (17) erfolgt.
AEPPD5. Computer-implementiertes Verfahren nach AEPPD1, wobei für die Gewichtsschätzung Verfahren des maschinellen Lernens genutzt werden.
AEPPD6. Computer-implementiertes Verfahren nach AEPPD2, wobei Prognose des Gesundheitszustands eine Prognose des Auftretens von postoperativer Demenz/Delir ist.
AEPPD7. Computer-implementiertes Verfahren nach AEPPD1, umfassend Übertragung der Gewichtsschätzung auf einen Serviceroboter (17).
AEPPD8. Vorrichtung zur Durchführung eines Verfahrens nach AEPPD1-AEPPD7.
Beispiel 16: Detektion von Feuchtigkeit auf Oberflächen
[0326] Die Bewertung von Feuchtigkeit auf Oberflächen wird hier durch folgende Aspekte ADFOl bis ADF018 charakterisiert:
ADFOl. Computer-implementiertes Verfahren zur Bewertung der Position von Feuchtigkeit auf einer Oberfläche, umfassend
• Erfassung einer Oberfläche;
• Klassifizierung der Oberflächenbeschaffenheit zur Detektion von Feuchtigkeit auf der erfassten Oberfläche;
• Segmentierung der erfassten Oberfläche in feuchte und nicht-feuchte Bereiche;
• Ermittlung der Breite der erfassten Bereiche;
• Bewertung der Breite der erfassten Bereiche durch Vergleich mit mindestens einem hinterlegten Wert.
ADF02. Computer-implementiertes Verfahren nach ADFOl, wobei die Ermittlung der Breite senkrecht zur Bewegungsrichtung eines Systems erfolgt.
ADF03. Computer-implementiertes Verfahren nach ADF02, umfassend eine Bewegung des Systems durch einen als trocken bewerteten Bereich, sofern dessen ermittelte Breite einen Schwellwert überschreitet. ADF04. Computer-implementiertes Verfahren nach ADFOl, umfassend eine Ausgabe über eine Ausgabeeinheit, auf die als feucht bewertete Fläche hinweisend.
ADF05. Computer-implementiertes Verfahren nach ADF02, umfassend einen Abbruch der Bewegung des Systems, wenn die ermittelte Breite des als feucht bewerteten Bereichs einen Schwellwert überschreitet und/oder die Breite des als trocken bewerteten Bereichs einen Schwellwert unterschreitet.
ADF06. Computer-implementiertes Verfahren nach ADF02, umfassend bei Ermittlung einer Breite für einen als feucht bewerteten Bereichs, die einen Schwellwert überschreitet, die Modifikation eines Werts in einem Speicher und/oder die Übermittlung einer Nachricht.
ADF07. Computer-implementiertes Verfahren nach ADFOl, umfassend bei Ermittlung einer Breite für einen als trocken bewerteten Bereichs, die einen Schwellwert unterschreitet, die Modifikation eines Werts in einem Speicher und/oder die Übermittlung einer Nachricht.
ADF08. Computer-implementiertes Verfahren zur Bewertung der Position von Feuchtigkeit auf einer Oberfläche, umfassend
• Erfassung einer Oberfläche;
• Klassifizierung der Oberflächenbeschaffenheit zur Detektion von Feuchtigkeit auf der Oberfläche;
• Segmentierung der erfassten Oberfläche in feuchte und nicht-feuchte Bereiche;
• Hinterlegung der feuchten Bereiche als Hindernisse in einer Karte.
ADF09. Computer-implementiertes Verfahren nach ADF08, wobei die Karte unterschiedliche Arten von Hindernissen umfasst.
ADFO10. Computer-implementiertes Verfahren nach ADF08, umfassend
• Ermittlung einer als feucht klassifizierten Oberfläche, die Mindestdimensionen vorweist;
• Ausgabe über eine Ausgabeeinheit und/oder
• Übermittlung einer Nachricht und/oder
• Modifikation eines Werts im Speicher (10)
ADFOl 1. Computer-implementiertes Verfahren nach ADFOl oder ADF08, umfassend eine Modifikation einer Pfadplanung bei Detektion einer als feucht erfassten Oberfläche, deren Breite über einem Schwellwert liegt. ADF012. Vorrichtung zur Durchführung eines Verfahrens nach ADFOl-ADFOl 1.
ADF013. System zur Bewertung von Feuchtigkeit auf einer Oberfläche, umfassend einen Sensor zur berührungslosen Erfassung einer Oberfläche, ein Segmentierungsmodul (5705) zur Segmentierung der erfassten Oberfläche, ein Feuchtigkeitsermittlungsmodul (5305) zur Klassifizierung der Segmente hinsichtlich Feuchtigkeit auf der Oberfläche und ein Feuchtigkeitsbewertungsmodul (5310) zur Bewertung der Dimensionen der klassifizierten Segmente der Oberfläche.
ADF014. System nach ADF013, weiter umfassend ein Kartenmodul (107), dass Hindernisse im Elmfeld des Systems enthält und die hinsichtlich Feuchtigkeit klassifizierten Segmente.
ADF015. System nach ADF013, weiter umfassend einen Bewegungsplaner (104) und/oder ein Pfadplanungsmodul (103).
ADF016. System nach ADF013, weiter umfassend eine Ausgabeeinheit (2 oder 192) und im Speicher (10) hinterlegte Ausgaben zum Hinweisen auf die als feucht detektierte Fläche.
ADF017. System nach ADF013, wobei der Sensor zur berührungslosen Erfassung einer Oberfläche eine Kamera (185) oder ein Radarsensor (194) ist.
ADF018. System nach ADF013, wobei es sich beim System um einen Serviceroboter (17) handelt.
Beispiel 17: Verfahren zur Sturzdetektion
[0327] Die Sturzerkennung wird hier durch folgende Aspekte ASE1 bis ASE17 charakterisiert:
ASE1. Computer-implementiertes Verfahren zur Detektion des Sturzes einer Person, umfassend
• Erfassung und Tracking der Bewegungen der Person;
• Detektion eines Sturzereignisses mittels einer Merkmalsextraktion und Klassifizierung der Orientierung von Gliedmaßen, des Rumpfs und/oder der Höhe der Person;
• Detektion und Klassifikation der Bewegungen der Person nach erfolgtem Sturz und
• Bewertung der Schwere des Sturzereignisses. ASE2. Computer-implementiertes Verfahren nach ASE1, umfassend weiter eine Übermittlung einer Benachrichtigung über eine Schnittstelle (188) nach erfolgter Bewertung der Schwere des Sturzereignisses.
ASE3. Computer-implementiertes Verfahren nach ASE1, umfassend weiter die Erfassung mindestens eines Vitalparameters der Person.
ASE4. Computer-implementiertes Verfahren nach ASE1, wobei die Merkmalsextraktion die Auswertung von Gelenkpunkten eines Skelettmodell der Person umfasst.
ASE5. Computer-implementiertes Verfahren nach ASE1, wobei die Detektion eines Sturzereignisses durch Ermittlung von Distanzen oder Distanzänderungen extrahierter Gelenkpunkte des Skelettmodells hin zum Boden erfolgt.
ASE6. Computer-implementiertes Verfahren nach ASE1, wobei die Detektion eines Sturzereignisses durch Ermittlung der Orientierung und/oder Orientierungsänderung von Richtungsvektoren zwischen Gelenkpunkten des Skelettmodells erfolgt.
ASE7. Computer-implementiertes Verfahren nach ASE1, wobei die Detektion eines Sturzereignisses durch Ermittlung von Beschleunigungen von Gelenkpunkten in vertikaler Richtung erfolgt.
ASE8. Computer-implementiertes Verfahren nach ASE1, wobei die Detektion eines Sturzereignisses durch Ermittlung der Höhe und/oder Höhenänderung der Person erfolgt.
ASE9. Computer-implementiertes Verfahren nach ASE1, wobei Detektion eines Sturzereignisses durch Ermittlung der Fläche, die eine in vertikale Richtung projizierte Person auf dem Boden einnimmt, erfolgt.
ASE10. Computer-implementiertes Verfahren nach ASE1, weiter umfassend die Ermittlung der Position des Kopfes der Person und/oder Hindernissen im Elmfeld der Person.
ASE11. Computer-implementiertes Verfahren nach ASE10, wobei die Auswertung der Position des Kopfs der Person relativ gesehen zum Boden und/oder detektierten Hindernissen erfolgt.
ASE12. Vorrichtung zur Durchführung eines Verfahrens nach ASE1-ASE11.
ASE13. System zur Detektion des Sturzes einer Person, mit einem Speicher (10), mindestens einem Sensor zur Erfassung der Bewegungen der Person im Zeitverlauf, einem Personenidentifizierungsmodul (111), einem Personentracking-Modul (112 oder 113), einem Sturzdetektions-Modul (5405) zur Extraktion von Merkmalen aus den Sensordaten und Klassifizierung der extrahierten Merkmale als Sturzereignis sowie einem Sturzereignis- Bewertungs-Modul (5410) zur Klassifizierung der Schwere des Sturzereignisses.
ASE14. System nach ASE13, umfassend eine Schnittstelle (188) zu einem Server und/oder Terminal (13) zwecks Übermittlung von Nachrichten.
ASE15. System nach ASE13, umfassend eine Vitalparameter-Erfassungs-Einheit (5415) zur Erfassung von Vitalparametern der Person und ein Vitalparameter-Auswertungs-Modul (5420) zur Auswertung erfasster von Vitalparametern der Person.
ASE16. System nach ASE13, wobei das Sturzdetektions-Modul (5405) ein Skelett- Erstellungs-Modul (5635) zur Erstellung eines Skelettmodells einer Person aufweist.
ASE17. System nach ASE13 und ASE15, wobei es sich beim Sensor zur Erfassung der Bewegungen der Person und/oder der Vitalparameter-Erfassungs-Einheit (5415) um eine Kamera (185), einen LID AR (1), einen Radar- und/oder einem Ultraschall sensor (194) und/oder einen Inertialsensor (5620) handelt.
Beispiel 18: Verfahren zur berührungslosen Erfassung von Vitalparametern einer Person
[0328] Die berührungslose Erfassung von Vitalparametern wird hier durch folgende Aspekte AB EVI bis ABEV20 charakterisiert:
AB EVI. Computer-implementiertes Verfahren zur Erfassung von Vitalparametern einer Person, umfassend
• Erfassung und Tracking der Person;
• Erfassung und Tracking einer Körperregion der Person, auf bzw. über die die Vitalparameter erhoben werden;
• Erfassung der Vitalparameter und
• Vergleich der erfassten Vitalparametern mit mindestens einem hinterlegten Schwellwert und
• Auslösen eines Ereignisses bei Über- oder Unterschreiten des Schwellwert.
ABEV2. Computer-implementiertes Verfahren nach ABEV1, wobei das Ereignis eine Geschwindigkeitsreduktion umfasst. ABEV3. Computer-implementiertes Verfahren nach ABEV1, wobei das Ereignis das Ansteuem einer Zielposition umfasst.
ABEV4. Computer-implementiertes Verfahren nach ABEV3, wobei es sich bei der Zielposition um eine Sitzgelegenheit handelt. ABEV5. Computer-implementiertes Verfahren nach ABEV1, wobei der mindestens eine Schwellwert aus zuvor erfassten Vitalparametern dynamisch ermittelt wird.
ABEV6. Computer-implementiertes Verfahren nach ABEV5, wobei der dynamisch ermittelte Schwellwert basierend auf einer Mittelwertbildung erfasster Vitalparameter über ein definiertes Zeitintervall erfolgt. ABEV7. Computer-implementiertes Verfahren nach ABEV1, wobei die Erfassung der Vitalparameter berührungslos erfolgt.
ABEV8. Computer-implementiertes Verfahren nach ABEV1, wobei die Erfassung der Vitalparameter durch einen an der Person befestigten Vitalparameter-Sensor (5425) erfolgt.
ABEV9. Computer-implementiertes Verfahren nach AB EVI, weiter umfassend die Erfassung von Körperbewegungen der Person und eine Auswertung der erfassten Vitalparameter unter Abgleich der erfassten Körperbewegungen.
ABEV10. Computer-implementiertes Verfahren nach ABEV1, wobei die Erfassung von Vitalparametern in Abhängigkeit der erfassten Bewegungen der Person erfolgt.
ABEV11. Computer-implementiertes Verfahren nach ABEV1, wobei die erfassten Vitalparameter die Pulsrate, Pulsratenvariabilität, den systolische und/oder diastolischen Blutdruck und/oder die Atemfrequenz umfassen.
ABEV12. Computer-implementiertes Verfahren nach ABEV1, weiter umfassend die Ermittlung des Sturzrisikos aus den erfassten Vitalparametern.
ABEV13. Computer-implementiertes Verfahren nach ABEV12, wobei es sich beim Sturzrisiko um ein akutes Sturzrisiko handelt.
ABEV14. Computer-implementiertes Verfahren nach ABEV1, wobei die Erfassung der Vitalparameter während der Durchführung eines Tests und/oder eine Übung mit der Person erfolgt.
ABEV15. Vorrichtung zur Durchführung eines Verfahrens nach ABEV1-ABEV14. AB EVI 5. System zur Erfassung von Vitalparametern einer Person, mit einem Rechner (9), einem Speicher (10) und mindestens einem Sensor zur berührungslosen Erfassung der Bewegungen der Person im Zeitablauf, und ein Vitalparameter-Auswertungs-Modul (5420).
ABEV17. System nach ABEV15, weiter umfassend ein Körperregions-Detektions-Modul (4810) und ein Körperregion-Tracking-Modul (4815) zum Tracking der Erfassungsregion der Vitalparameter und eine Vitalparameter-Erfassungs-Einheit (5415) zur Erfassung von Vitalparametern der Person.
AB EVI 7. System nach ABEV15, wobei es sich beim Sensor zur Erfassung der Bewegungen der Person um eine Kamera (185), einen LID AR (1), einen Ultraschall- und/oder Radarsensor (194) handelt.
AB EVI 8. System nach ABEV15, wobei das Vitalparameter-Auswertungs-Modul (5420) eine Benachrichtigung eines Systems über eine Schnittstelle (188), eine Ausgabe über eine Ausgabeeinheit (2 oder 192), eine Geschwindigkeitsänderung des Systems und/oder eine Ansteuerung einer Zielposition des Systems initiiert.
ABEV20. System nach ABEV15, umfassend ein Applikationsmodul (125) mit Regeln zur Durchführung mindestens einer Übung.
ABEV20. System nach ABEV15, umfassend eine Schnittstelle (188) und einen an einer Person befestigten Vitalparameter-Sensor (5425).
Beispiel 19: Verfahren zur Ermittlung eines Scores, der das Sturzrisiko einer Person beschreibt
[0329] Die Ermittlung eines Sturzrisiko-Scores wird hier durch folgende Aspekte AESS1 bis AESS25 charakterisiert:
AESS1. Computer-implementiertes Verfahren zur Ermittlung eines Scores, der das Sturzrisiko einer Person beschreibt, umfassend
• Erfassung des Gangablaufs einer Person;
• Extraktion von Merkmalen des erfassten Gangablaufs;
• Klassifikation der extrahierten Merkmale des Gangablaufs;
• Vergleich von mindestens zwei der klassifizierten Merkmale des Gangablaufs mit einer in einem Speicher hinterlegten Gangablaufklassifikationen und
• Ermittlung eines Sturzrisiko-Scores. AESS2. Computer-implementiertes Verfahren nach AESS1, weiter umfassend die Ermittlung der Geschwindigkeit der Person.
AESS3. Computer-implementiertes Verfahren nach AESS2, wobei die Ermittlung der Geschwindigkeit der Person über die Anzahl und Schrittweite der zurückgelegten Schritte der Person j e Zeiteinheit erfolgt.
AESS4. Computer-implementiertes Verfahren nach AESS2, wobei die Ermittlung der Geschwindigkeit der Person relativ zur Geschwindigkeit einer Erfassung- und Auswertungseinheit erfolgt, die den Gangablauf der Person erfasst und auswertet.
AESS5. Computer-implementiertes Verfahren nach AESS4, wobei die Geschwindigkeit der Erfassung- und Auswertungseinheit unter Einbeziehung einer Odometrieeinheit (181) in der Erfassung- und Auswertungseinheit erfolgt.
AESS6. Computer-implementiertes Verfahren nach AESS4, wobei die Geschwindigkeit der Erfassung- und Auswertungseinheit unter Einbeziehung von in einer Karte erfassten Hindernissen erfolgt. AESS7. Computer-implementiertes Verfahren nach AESS2, wobei die Geschwindigkeit der Person relativ zur Position von in einer Karte erfassten Hindernissen erfolgt.
AESS8. Computer-implementiertes Verfahren nach AESS1, wobei die Geschwindigkeit der Person, die Schrittlänge, die Kadenz und/oder die Beschleunigung in der horizontalen und/oder vertikalen Ebene gemeinsam ausgewertet werden. AESS9. Computer-implementiertes Verfahren nach AESS1, wobei es sich bei den extrahierten Merkmalen des Gangablaufs um Gelenkpunkte eines Skelettmodells der erfassten Person, Richtungsvektoren zwischen den Gelenkpunkten des Skelettmodells, Beschleunigungen der Gelenkpunkte oder der Richtungsvektoren, die Position der Gelenkpunkten zueinander im Raum und/oder aus Richtungsvektoren abgeleitete Winkel und bei den klassifizierten Merkmalen des Gangablaufs um die Schrittlänge, die Länge des
Doppel Schritts, die Schrittgeschwindigkeit, das Verhältnis der Schrittlängen im Doppel schritt, die Flexion und/oder Extension, die Standdauer, die Spurweite, und/oder den Verlauf (Position) und/oder die Distanz von Gelenkpunkten zueinander und/oder Beschleunigung von Gelenkpunkten handelt. AESS10. Computer-implementiertes Verfahren nach AESS1, umfassend weiterhin • Anmeldung der Person an der Erfassung- und Auswertungseinheit, die den Gangablauf der Person erfasst und auswertet;
• Identifizierung der Person mittels eines optischen Sensors;
• Abspeichern von Identifizierungsmerkmalen der Person und
• Tracking der Person im Zeitverlauf.
AESS11. Computer-implementiertes Verfahren nach AESS9, umfassend die Ermittlung der Position eines Fußgelenkpunkts der erfassten Person über
• die Position des korrespondierenden Knie- oder Hüftgelenkpunkts;
• eines Richtungsvektors, der sich vom Kniegelenkpunkt parallel zum Unterschenkel orientiert, und
• der Höhe des Kniegelenkpunkts und/oder Hüftgelenkpunkts über dem Boden im Fall des Durchgangs des Richtungsvektors durch das Lot.
AESS12. Computer-implementiertes Verfahren nach AESS1, wobei die Extraktion von Merkmalen des Gangablaufs die Einbeziehung von Daten eines Inertialsensors umfasst.
AESS13. Vorrichtung zur Durchführung eines Verfahrens nach AESS1-AESS12.
AESS14. System zur Ermittlung eines Scores, der das Sturzrisiko einer Person beschreibt, mit einem Rechner (9), einem Speicher (10) und einem Sensor zur Erfassung der Bewegungen einer Person im Zeitablauf, ein Bewegungsablaufextraktionsmodul (121) und einem Bewegungsablaufbewertungsmodul (122), welches ein Sturzrisiko-Ermittlungsmodul (5430) zur Ermittlung eines Sturzrisiko-Scores beinhaltet.
AESS15. System nach AESS14, umfassend ein Personenidentifizierungsmodul (111) und ein Personentracking-Modul (112 oder 113) und Komponenten (z.B. 2, 186) zur Anmeldung der Person am System verfügt.
AESS16. System nach AESS14, wobei das System über eine Schnittstelle (188) Sensordaten eines Inertialsensors (5620) erhält und diese Sensordaten im Bewegungsablaufextraktionsmodul (121) ausgewertet werden.
AESS17. System nach AESS14, wobei das Bewegungsablaufbewertungsmodul (122) ein Personen-Geschwindigkeits-Modul (5625) zur Ermittlung der Geschwindigkeit der Person umfasst. AESS18. System nach AESS14, wobei es sich beim Sensor zur Erfassung der Bewegungen einer Person im Zeitablauf um eine Kamera (185), einen LID AR (1), einen Ultraschall und/oder Radarsensor (194) handelt.
Beispiel 20: Balanceermittlung einer Person
[0330] Die Balance-Ermittlung einer Person wird hier durch folgende Aspekte ABEP1 bis ABEP21 charakterisiert:
ABEP1. Computer-implementiertes Verfahren zur Ermittlung der Balance einer Person, umfassend
• berührungslose Erfassung der Person im Zeitverlauf;
• Erstellung eines Skelettmodells der erfassten Person;
• Merkmalsextraktion der Gelenkpunkte des Skelettmodells und/oder der zwischen den Gelenkpunkten existierenden Richtungsvektoren;
• Auswertung der Amplitude, Orientierung und/oder Frequenz der Positionsänderung der Gelenkpunkte innerhalb der Transversalebene.
ABEP2. Computer-implementiertes Verfahren nach ABEP1, weiter umfassend
• Vergleich der Auswertung mit einem Schwellwert und/oder Muster und
• Ermittlung einer Balance auf Basis der Schwellwertabweichung und/oder Musterab wei chung .
ABEP3. Computer-implementiertes Verfahren zur Ermittlung der Balance einer Person, umfassend
• berührungslose Erfassung der Person im Zeitverlauf;
• Erstellung eines Skelettmodells der erfassten Person;
• Merkmalsextraktion der Gelenkpunkte des Skelettmodells und/oder der zwischen den Gelenkpunkten existierenden Richtungsvektoren;
• Ermittlung einer Abweichung eines Richtungsvektors, gebildet als Verbindung von mindestens einem Gelenkpunkt von Fuß, Knie oder Hüfte mit mindestens einem vertikal darüberliegenden Gelenkpunkt einer aufrechtstehenden Person, vom Lot der Person.
ABEP4. Computer-implementiertes Verfahren nach ABEP3, weiter umfassend
• Vergleich der ermittelten Abweichung mit einem Schwellwert und/oder Muster und • Ermittlung einer Balance auf Basis der Schwellwertabweichung und/oder Musterab wei chung .
ABEP5. Computer-implementiertes Verfahren nach ABEP1 oder ABEP2, umfassend ferner die Ermittlung der Spurweite der erfassten Person über den Abstand der Fußgelenke in der Frontalebene im Zeitverlauf.
ABEP6. Computer-implementiertes Verfahren nach ABEP5, wobei die Balance ermittelt wird, wenn die Spurweite den Schwellwert unterschritten hat.
ABEP7. Computer-implementiertes Verfahren nach ABEP1 oder ABEP2, umfassend ferner
• Auswertung der Größe der Person durch o Bildung der Differenz zwischen dem Boden oder mindestens einem Fußgelenk einerseits und mindestens einem Gelenkpunkt im Kopfbereich andererseits oder o Vektor Subtraktion zweier Richtungsvektoren, die von einem gemeinsamen Ursprung zu mindestens einem Fuß und mindestens dem Kopf der Person reichen
• und Ableitung aus der Größe der Person und/oder Distanz, ob die Person sitzt oder steht.
ABEP8. Computer-implementiertes Verfahren nach ABEP1 oder ABEP2, umfassend die Auswertung der Orientierung mindestens eines Richtungsvektors zwischen mindestens einem Knie- und mindestens einem Hüftgelenk-Punkt hinsichtlich der Abweichung vom Lot.
ABEP9. Computer-implementiertes Verfahren nach ABEP1 oder ABEP2, umfassend
• Erfassung von Objekten im Umfeld der Person;
• Erfassung der Position der Person und/oder der Position mindestens eines Handgelenkpunkts der Person;
• Ermittlung des Abstands zwischen dem mindestens einen Handgelenkpunkt und mindestens einem Objekt im Umfeld der Person
• Modifikation eines Werts im Speicher (10) bei Unterschreiten eines Abstands- Schwellwerts.
ABEP10. Computer-implementiertes Verfahren nach ABEP1 oder ABEP2, umfassend die Auswertung des Verlaufs der Gelenkpunkte innerhalb der Sagittalebene und ein Vergleich des Verlaufs mit im Speicher (10) hinterlegten Werten. ABEP11. Computer-implementiertes Verfahren nach ABEP1 oder ABEP2, wobei die Balance-Ermittlung eine stehende, sitzende oder gehende Person umfasst.
ABEP12. Vorrichtung zur Durchführung des Verfahrens nach ABEP1-ABEP11.
ABEP13. System zur Ermittlung der Balance einer Person, mit einem Sensor zur berührungslosen Erfassung einer Person im Zeitverlauf, einem Skelett-Erstellungs-Modul (5635) zur Erstellung eines Skelettmodell der Person, einem skelettmodell-basiertes Merkmalsextraktion-Modul (5640) zur Merkmalsextraktion auf Basis von Gelenkpunkten und/oder Richtungsvektoren zwischen den Gelenkpunkten der Person, einem Transversal- Gelenkpunkte-Auswertungs-Modul (5645) zur Auswertung von Positionsänderungen der Gelenkpunkte innerhalb der Transversalebene mit Blick auf die Amplitude, Orientierung und/oder Frequenz der Positionsänderung und zum Abgleich erfasster Werte mit im Speicher (10) hinterlegten Schwellwerten und/oder Mustern.
ABEP14. System zur Ermittlung der Balance einer Person, mit einem Sensor zur berührungslosen Erfassung einer Person im Zeitverlauf, einem Skelett-Erstellungs-Modul (5635) zur Erstellung eines Skelettmodell der Person, einem skelettmodell-basiertes Merkmalsextraktion-Modul (5640) zur Merkmalsextraktion auf Basis von Gelenkpunkten und/oder Richtungsvektoren zwischen den Gelenkpunkten der Person, einem Lot- Gelenkpunkte-Auswertungs-Modul (5650) zur Ermittlung der Abweichung eines Richtungsvektors vom Lot der Person, wobei der Richtungsvektor gebildet wird als Verbindung von mindestens einem Gelenkpunkt von Fuß, Knie oder Hüfte mit mindestens einem vertikal darüberliegenden Gelenkpunkt einer aufrechtstehenden Person.
ABEP15. System nach ABEP13 oder ABEP14, umfassend ein Lot-Gel enkpunkte- Auswertungs-Modul (5650) zur Ermittlung der Abweichung eines Richtungsvektors vom Lot der Person mit einem im Speicher (10) hinterlegten Schwellwerts und/oder Musters.
ABEP16. System nach ABEP13 oder ABEP14, umfassend ein Spurweiten-Schrittweiten- Modul (5675) zur Ermittlung der Spurweite und/oder Schrittweite einer Person über den Abstand der Fußgelenkpunkte in der Frontalebene im Zeitverlauf, wenn die Spurweite einen Schwellwert unterschritten hat.
ABEP17. System nach ABEP13 oder ABEP14, umfassend ein Personengröße-Auswertungs- Modul (5655) zur Auswertung der Größe der Person.
ABEP18. System nach ABEP17, wobei die Größe • über die Distanz zwischen einem Boden oder mindestens einem Fußgelenkpunkt einerseits und mindestens einem Gelenkpunkt im Kopfbereich andererseits oder
• durch Vektorsubtraktion zweier Richtungsvektoren, die von einem gemeinsamen Ursprung zu mindestens einem Fuß und mindestens dem Kopf der Person reichen ermittelt wird.
ABEP19. System nach ABEP13 oder ABEP14, umfassend ein Handabstands- Auswertungs- Modul (5660) zur Auswertung des Abstands zwischen einem Handgelenkpunkt und weiteren Objekten im Umfeld der Person umfassend ferner Regeln für einen Schwellwertvergleich des ermittelten Abstands mit im Speicher hinterlegten Abstands-Schwellwerten.
ABEP20. System nach ABEP13 oder ABEP14, umfassend ein sagittalebenenbasiertes Gelenkpunktverlauf-Auswertungs-Modul (5665) zur Auswertung des Verlaufs der Gelenkpunkte innerhalb der Sagittalebene und zum Vergleich der ermittelten Werte mit im Speicher (10) hinterlegten Werten.
ABEP21. System nach ABEP13 oder ABEP14, wobei es sich beim Sensor zur berührungslosen Erfassung der Person um eine Kamera (185), einen LID AR (1), einen Ultraschall- und/oder Radarsensor (194) handelt.
Beispiel 21: Ermittlung der Position eines Fußgelenks
[0331] Die Ermittlung eines Fußgelenks kann, anstelle auf die Werte aus einem Skelettmodell zuzugreifen, auf Basis einer Schätzung vorgenommen, wie folgt gestaltet ist: Es wird bspw. die Höhe eines Kniegelenkpunkts über dem Boden ermittelt, z.B. wenn der Vektor, der einen Kniegelenkpunkt und einen Hüftgelenkpunkt verbindend, sich im Lot befindet. Alternativ und/oder ergänzend kann die Distanz zwischen Boden und Hüftgelenkpunkt ermittelt werden, wenn sich Unter- und Oberschenkel in etwa im Lot befinden. Es kann die Distanz zwischen Kniegelenkpunkt und Hüftgelenkpunkt ermittelt und von der Distanz zwischen Hüftgelenkpunkt und Boden abgezogen werden, um darüber die Distanz zwischen Kniegelenkpunkt und Boden zu erhalten. Weiterhin wird eine Ermittlung eines Richtungsvektors, der sich vom Kniegelenkpunkt parallel zum Unterschenkel orientiert, vorgenommen durch Segmentierung der Punktwolke des Unterschenkels und/oder eine Auswertung von Mustern im zweidimensionalen Raum und Ermittlung der Orientierung des Richtungsvektors durch eine Mittelzentrierung einer Achse durch die Punktwolke oder die Muster, bspw. mittels des RANSAC -Frameworks. Hierbei kann, in einem Aspekt, eine zusätzliche Bayes-Schätzung erfolgen, welche den Winkel des Oberschenkels berücksichtigt, der bspw. als Verbindung des Hüftgelenkpunkts mit dem Kniegelenkpunkt als einen Schenkel und dem Lot, alternativ dem anderen Oberschenkel oder der Orientierung des Rumpfs (bspw. mit Gelenkpunkten entlang der Wirbelsäule) erfolgt. Im Speicher 10 können wiederum Wahrscheinlichkeiten hinterlegt sein, die die Orientierung des Unterschenkels, der durch die Punktwolke und/oder Muster repräsentiert wird bzw. durch den daraus abgeleiteten Richtungsvektor, in Abhängigkeit der Orientierung des Oberschenkels beschreiben und bspw. mittels einer Grundwahrheit ermittelt wurden. Über die Position des Kniegelenkpunkts und der Richtung des Unterschenkels wird dann der Fußgelenkpunkt ermittelt, indem die zuvor ermittelte Höhe des Kniegelenkpunkts über dem Boden die Länge des Richtungsvektors definiert, der am Kniegelenkpunkt ansetzt, und der Endpunkt des Richtungsvektors den Fußgelenkpunkt darstellt.
[0332] Das System zur Ermittlung der Position eines Fußgelenkpunks einer erfassten Person wird in Fig. 74 illustriert. Das System, bspw. ein Serviceroboter 17, umfasst einen Rechner 9, einen Speicher 10 und mindestens einen Sensor zur Erfassung von Bewegungen einer Person im Zeitablauf wie bspw. einen Inertialsensor 5620, eine Kamera 185, ein LID AR 1, ein Ultraschall- und/oder Radarsensor 194. Es umfasst ferner bspw. ein Skelett-Erstellungs- Modul 5635 zur Erstellung eines Skelettmodell der Person, ein skelettmodell-basiertes Merkmalsextraktion-Modul 5640 zur Merkmalsextraktion auf Basis von Gelenkpunkten und/oder Richtungsvektoren zwischen den Gelenkpunkten der Person und ein Fußgelenkpunkt-Klassifizierungs-Modul 5670, zur Merkmalsklassifizierung eines Fußgelenkpunkts, das die Position eines Fußgelenkpunkts ermittelt über die Orientierung eines den Unterschenkel abbildenden Richtungsvektors, der an der Position des korrespondierenden Kniegelenkpunkts beginnt und eine Länge aufweist, die auf Basis der Höhe mindestens des korrespondierenden Kniegelenkpunkts oder Hüftgelenkpunkts über dem Boden gebildet wurde. Das System kann, in einem Aspekt, ein Spurweiten-Schrittweiten- Modul 5675 zur Ermittlung der Spurweite und/oder Schrittweite einer Person, umfassen und/oder ein Fußgelenkpunkt-Gehhilfenpositions-Modul (5677) zur Ermittlung der Position von mindestens einem Fußgelenkpunkt relativ zur Position vom Endpunkt mindestens einer Unterarmstütze oder Achselstütze, wenn die Unterarmstütze oder Achselstütze den Boden berührt. In einem Aspekt verfügt das System über ein Personenerkennungsmodul 110 und/oder ein Bewegungsauswertungsmodul 120. Der Ablauf selbst kann wie folgt nach Fig.
83 a) dargestellt werden: Erfassung einer Person im Zeitablauf (Schritt 6105), Erstellung mindestens eines Teils eines Skelettmodells der erfassten Person (Schritt 6110), Ermittlung der Position eines Kniegelenkpunkts für das Bein, für das der Fußgelenkpunkt ermittelt werden soll (Schritt 6115), Ermittlung eines Richtungsvektors, der sich vom Kniegelenkpunkt parallel zum Unterschenkel orientiert (Schritt 6120), Ermittlung der Höhe des Kniegelenkpunkts über dem Boden im Fall des Durchgangs des Kniegelenkpunkts durch das Lot (Schritt 6125), Ermittlung der Position des Fußgelenkpunkts durch Bildung eines Richtungsvektors vom ermittelten Kniegelenkpunkt aus, wobei der zu bildende Richtungsvektor die gleiche Orientierung aufweist wie der ermittelte Richtungsvektor, wobei der zu bildende Richtungsvektor eine Länge aufweist, die der Höhe des Kniegelenks über dem Boden im Fall des Durchgangs des Kniegelenkpunkts durch das Lot entspricht (Schritt 6130). Alternativ und/oder ergänzend kann der Ablauf nach Fig. 83 b) auch wie folgt ausgestaltet sein: Erfassung einer Person im Zeitablauf (Schritt 6105), Erstellung mindestens eines Teils eines Skelettmodells der erfassten Person (Schritt 6110), Ermittlung der Position eines Kniegelenkpunkts für das Bein, für das der Fußgelenkpunkt ermittelt werden soll (Schritt 6115), Ermittlung der Position eines Hüftgelenkpunkts für das Bein, für das der Fußgelenkpunkt ermittelt werden soll (Schritt 6140), Ermittlung eines Richtungsvektors, der sich vom Kniegelenkpunkt parallel zum Unterschenkel orientiert (Schritt 6120), Ermittlung der Höhe des Hüftgelenkpunkts über dem Boden als Minuend (Schritt 6145), Ermittlung der Länge des Richtungsvektors, der den Hüftgelenkpunkt und den Kniegelenkpunkt verbindet, als Subtrahend (Schritt 6150)), Bildung der Differenz aus Minuend und Subtrahend (Schritt 6155), Ermittlung der Position des Fußgelenkpunkts (Schritt 6160) durch Bildung eines Richtungsvektors vom ermittelten Kniegelenkpunkt, der die gleiche Orientierung aufweist wie der ermittelte Richtungsvektor und der sich vom Kniegelenkpunkt aus parallel zum Unterschenkel orientiert, wobei der zu bildende Richtungsvektor eine Länge aufweist, die der ermittelten Differenz entspricht.
[0333] Die Ermittlung der Position eines Fußgelenks wird hier durch folgende Aspekte AEPF1 bis AEPF11 charakterisiert:
AEPF1. Computer-implementiertes Verfahren zur Ermittlung der Position eines Fußgelenkpunkts eines Skelettmodells einer erfassten Person, umfassend
• Erfassung einer Person im Zeitablauf;
• Erstellung mindestens eines Teils eines Skelettmodells der erfassten Person;
• Ermittlung der Position eines Kniegelenkpunkts für das Bein, für das der Fußgelenkpunkt ermittelt werden soll; • Ermittlung eines Richtungsvektors, der sich vom Kniegelenkpunkt parallel zum Unterschenkel orientiert;
• Ermittlung der Höhe des Kniegelenkpunkts über dem Boden im Fall des Durchgangs des Kniegelenkpunkts durch das Lot;
• Ermittlung der Position des Fußgelenkpunkts durch Bildung eines Richtungsvektors vom ermittelten Kniegelenkpunkt aus, wobei der zu bildende Richtungsvektor die gleiche Orientierung aufweist wie der ermittelte Richtungsvektor, wobei der zu bildende Richtungsvektor eine Länge aufweist, die der Höhe des Kniegelenkpunkts über dem Boden im Fall des Durchgangs des Kniegelenkpunkts durch das Lot entspricht.
AEPF2. Computer-implementiertes Verfahren zur Ermittlung der Position eines Fußgelenkpunkts eines Skelettmodells einer erfassten Person, umfassend
• Erfassung einer Person im Zeitablauf;
• Erstellung mindestens eines Teils eines Skelettmodells der erfassten Person;
• Ermittlung der Position eines Kniegelenkpunkts für das Bein, für das der Fußgelenkpunkt ermittelt werden soll;
• Ermittlung der Position eines Hüftgelenkpunkts für das Bein, für das der Fußgelenkpunkt ermittelt werden soll;
• Ermittlung eines Richtungsvektors, der sich vom Kniegelenkpunkt parallel zum Unterschenkel orientiert;
• Ermittlung der Höhe des Hüftgelenkpunkts über dem Boden als Minuend;
• Ermittlung der Länge des Richtungsvektors, der den Hüftgelenkpunkt und den Kniegelenkpunkt verbindet, als Subtrahend;
• Bildung der Differenz aus Minuend und Subtrahend;
• Ermittlung der Position des Fußgelenkpunkts durch Bildung eines Richtungsvektors vom ermittelten Kniegelenkpunkt, der die gleiche Orientierung aufweist wie der ermittelte Richtungsvektor und der sich vom Kniegelenkpunkt aus parallel zum Unterschenkel orientiert, wobei der zu bildende Richtungsvektor eine Länge aufweist, die der ermittelten Differenz entspricht.
AEPF3. Computer-implementiertes Verfahren nach AEPF1 und AEPF2, wobei die Position des Fußgelenkpunkts dafür genutzt wird, die Spurweite und/oder Schrittweite einer Person zu ermitteln. AEPF4. Computer-implementiertes Verfahren nach AEPF1 und AEFP2, wobei die Position des ermittelten Fußgelenkpunkts relativ zur Position mindestens eines Endpunkts einer Unterarmstütze ausgewertet wird.
AEPF5. Computer-implementiertes Verfahren nach AEPF1 und AEFP2, wobei die Position der Fußgelenkpunkte im Vergleich zur Fußlänge ausgewertet wird, wobei die Fußlänge auf Basis einer Höhenschätzung der Person und zur Höhe korrespondierenden Fußlängen ermittelt wird.
AEPF6. Computer-implementiertes Verfahren nach AEPF9, wobei Höhe der Person durch
• Vektor Subtraktion zweier Richtungsvektoren ermittelt wird, die von einem gemeinsamen Ursprung zu mindestens einem Fuß und mindestens dem Kopf der Person reichen oder
• über die Distanz zwischen einem Boden oder mindestens einem Fußgelenkpunkt einerseits und mindestens einem Gelenkpunkt im Kopfbereich andererseits
AEPF7. Computer-implementiertes Verfahren nach AEPF1 und AEFP2, wobei die Ermittlung eines Richtungsvektors, der sich vom Kniegelenkpunkt parallel zum Unterschenkel orientiert, erfolgt durch
• Segmentierung der Punktwolke des Unterschenkels und/oder eine Auswertung von Mustern im zweidimensionalen Raum
• Ermittlung der Orientierung des Richtungsvektors durch eine Mittelzentrierung einer Achse durch die Punktwolke oder die Muster.
AEPF8. Vorrichtung zur Durchführung eines Verfahrens nach AEPF1-AEPF7.
AEPF9. System zur Ermittlung der Position eines Fußgelenkpunks einer erfassten Person, umfassend einen Rechner (9), einen Speicher (10) und mindestens einen Sensor zur Erfassung von Bewegungen einer Person im Zeitablauf, umfassend ein Skelett-Erstellungs-Modul (5635) zur Erstellung eines Skelettmodell der Person, ein skelettmodell-basiertes Merkmalsextraktion-Modul (5640) zur Merkmalsextraktion auf Basis von Gelenkpunkten und/oder Richtungsvektoren zwischen den Gelenkpunkten der Person, ein Fußgel enkpunkt- Klassifizierungs-Modul (5670) zur Merkmalsklassifizierung eines Fußgelenkpunkts, das die Position eines Fußgelenkpunkts ermittelt über die Orientierung eines den Unterschenkel abbildenden Richtungsvektors, der an der Position des korrespondierenden Kniegelenkpunkts beginnt und eine Länge aufweist, die auf Basis der Auswertung der Höhe mindestens des korrespondierenden Kniegelenkpunkts oder Hüftgelenkpunkts über dem Boden gebildet wurde.
AEPF9. System nach AEPF17, umfassend ein Spurweiten-Schrittweiten-Modul (5675) zur Ermittlung der Spurweite und/oder Schrittweite einer Person.
AEPF10. System nach AEPF17, umfassend ein Fußgelenkpunkt-Gehhilfenpositions-Modul (5677) zur Ermittlung der Position von mindestens einem Fußgelenkpunkt relativ zur Position vom Endpunkt mindestens einer Unterarmstütze oder Achselstütze, wenn die Unterarmstütze oder Achselstütze den Boden berührt.
AEPF11. System nach AEPF17, wobei es sich beim Sensor zur Erfassung der Bewegungen der Person im Zeitablauf um einen Inertialsensor (5620), eine Kamera (185), ein LID AR (1), ein Ultraschall- und/oder Radarsensor (194) handeln.
Beispiel 22: Klassifizierung der Drehbewegung einer Person
[0334] Das System zur Klassifizierung einer Drehbewegung wird anhand von Fig. 75 illustriert. Das System zur Klassifizierung der Drehbewegung einer Person, bspw. ein Serviceroboter 17, umfasst einen Rechner 9, einen Speicher 10 und mindestens einem Sensor zur Erfassung der Bewegungen der Person im Zeitablauf, ein skelettmodell-basiertes Merkmalsextraktion-Modul 5640 zur Merkmalsextraktion auf Basis von Gelenkpunkten und/oder Richtungsvektoren zwischen den Gelenkpunkten der Person und ein Drehbewegungs-Merkmalsklassifikation-Modul 5680 zur Merkmalsklassifikation einer Drehbewegung, wobei, in einem Aspekt, die Drehbewegung über die Winkeländerung mindestens eines in die Transversalebene projizierten Richtungsvektors zwischen zwei Gelenkpunkten im Zeitverlauf ermittelt wird, in einem alternativen und/oder ergänzenden Aspekt die Drehbewegung über die Winkeländerung mindestens eines Richtungsvektors ermittelt wird, der die Schultergelenkpunkte, Hüftgelenkpunkte, Kniegelenkpunkte, Fußgelenkpunkte, Armgelenkpunkte und/oder detektierte Gelenkpunkte des Kopfs jeweils untereinander verbindet. Das Drehbewegungs-Merkmalsklassifikation-Modul (5680) kann weiterhin über ein Winkelauswertungs-Modul (5682) zum Aufsummieren von erfassten Winkeln und/oder Winkeländerungen verfügen. In einem Aspekt verfügt das System über ein Personenerkennungsmodul 110, Bewegungsauswertungsmodul 120 und/oder Skelett- Erstellungs-Modul 5635. [0335] Das System kann ferner ein Fußgelenkpunkt-Distanz-Ermittlungs-Modul 5685 zur Ermittlung der absoluten Distanz der Fußgelenkpunkte umfassen, ein Personengröße- Auswertungs-Modul 5655 zur Auswertung der Größe der Person, ein Hüft-Knie- Orientierungs-Modul 5690 bspw. zur Auswertung der Orientierung mindestens eines Richtungsvektors zwischen mindestens einem Knie- und mindestens einem Hüftgelenkpunkt hinsichtlich der Abweichung vom Lot und/oder ein Transversal-Gelenkpunkte- Auswertungs- Modul 5645 bspw. zur Auswertung von Positionsänderungen der Gelenkpunkte innerhalb der Transversalebene, das bspw. eine Auswertung der Amplitude, Orientierung und/oder Frequenz der Positionsänderung der Gelenkpunkte innerhalb der Transversalebene vornimmt und/oder eine Ermittlung einer Abweichung eines Richtungsvektors, gebildet als Verbindung von mindestens einem Gelenkpunkt von Fuß, Knie oder Hüfte mit mindestens einem vertikal darüberliegenden Gelenkpunkt einer aufrechtstehenden Person zum Lot der Person und Vergleich mit einem im Speicher 10 hinterlegten Schwellwert vomimmt. Das System kann ferner über ein Drehbewegung — Größe-Balance-Schrittlänge-Klassifizierungs-Modul 5695 zur Klassifizierung der Drehbewegung, der Größe der Person, deren Balance und/oder Schrittlänge verfügen. Beim Sensor zur Erfassung der Bewegungen einer Person im Zeitablauf kann es sich um eine Kamera 185, ein LID AR 1, ein Radar-, ein Ultraschall sensor 194 und/oder mindestens ein Inertialsensor 5620 handeln. Das Verfahren zur Drehbewegungsermittlung ist bspw. in Fig. 84 illustriert mit den folgenden Schritten: Erfassung der Person im Zeitverlauf 6105, Erstellung eines Skelettmodell der erfassten Person 6110, Merkmalsextraktion der Gelenkpunkte 6170 aus dem Skelettmodell und/oder Richtungsvektoren zwischen den Gelenkpunkten der Person, Merkmalsklassifizierung umfassend die Ermittlung einer Drehbewegung 6175 eines Richtungsvektors im Zeitverlauf, in einem Aspekt weiterhin Ermittlung von Drehwinkel 6180 bspw. aus der mindestens einen Drehbewegung eines Richtungsvektors, Aufsummierung der Winkel und/oder Winkeländerungen 6185 und Vergleich der Summe der aufsummierten Drehwinkel mit einem Schwellwert und/oder Muster 6190.
[0336] Die Klassifizierung der Drehbewegung einer Person wird hier durch folgende Aspekte AKDP1 bis AKDP22 charakterisiert:
AKDP1. Computer-implementiertes Verfahren zur Klassifizierung der Drehbewegung einer Person, umfassend
• Erfassung der Person im Zeitverlauf;
• Erstellung eines Skelettmodell der erfassten Person; • Merkmalsextraktion der Gelenkpunkte aus dem Skelettmodell und/oder Richtungsvektoren zwischen den Gelenkpunkten der Person;
• Merkmalsklassifizierung umfassend die Ermittlung einer Drehbewegung eines Richtungsvektors im Zeitverlauf.
AKDP2. Computer-implementiertes Verfahren nach AKDP1, umfassend weiterhin
• Ermittlung von Drehwinkel aus der mindestens einen Drehbewegung eines Richtungsvektors;
• Aufsummierung der Winkel und/oder Winkeländerungen und
• Vergleich der Summe mit einem Schwellwert und/oder Muster.
AKDP3. Computer-implementiertes Verfahren nach AKDP1, wobei die Drehbewegung über eine Winkeländerung mindestens eines in die Transversalebene projizierten Richtungsvektors zwischen zwei Gelenkpunkten im Zeitverlauf ermittelt wird.
AKDP4. Computer-implementiertes Verfahren nach AKDP1, wobei die Drehbewegung über die Winkeländerung mindestens eines Richtungsvektors ermittelt wird, der die Schultergelenkpunkte, Hüftgelenkpunkte, Kniegelenkpunkte, Fußgelenkpunkte, Armgelenkpunkte jeweils untereinander verbindet.
AKDP5. Computer-implementiertes Verfahren nach AKDP1, weiter umfassend die Ermittlung der Distanz der Fußgelenkpunkte.
AKDP6. Computer-implementiertes Verfahren nach AKDP1, weiter umfassend die Ermittlung der Höhe der Person.
AKDP7. Computer-implementiertes Verfahren nach AKDP6, wobei die Höhe der Person über
• die Distanz zwischen einem Boden oder mindestens einem Fußgelenk einerseits und mindestens einem Gelenkpunkt im Kopfbereich andererseits und/oder
• durch Vektorsubtraktion zweier Richtungsvektoren, die von einem gemeinsamen Ursprung zu mindestens einem Fuß und mindestens dem Kopf der Person reichen, ermittelt wird.
AKDP8. Computer-implementiertes Verfahren nach AKDP1, wobei die Auswertung der Orientierung mindestens eines Richtungsvektors zwischen mindestens einem Knie- und mindestens einem Hüftgelenkpunkt hinsichtlich der Abweichung vom Lot.
AKDP9. Computer-implementiertes Verfahren nach AKDP1, wobei die Auswertung der Balance der Person. AKDPIO. Computer-implementiertes Verfahren nach AKDP9, wobei die Balance durch eine Auswertung der Amplitude, Orientierung und/oder Frequenz der Positionsänderung der Gelenkpunkte innerhalb der Transversalebene und Vergleich mit im Speicher (10) hinterlegten Schwellwerten und/oder Mustern ermittelt wird.
AKDP1 1. Computer-implementiertes Verfahren nach AKDP9, wobei die Balance auf Basis einer Ermittlung der Abweichung eines Richtungsvektors vom Lot der Person ermittelt wird.
AKDP12. Computer-implementiertes Verfahren nach AKDP11, wobei der Richtungsvektor gebildet wird als Verbindung von mindestens einem Gelenkpunkt von einem Fußgelenkpunkt, Kniegelenkpunkt oder Hüftgelenkpunkt mit mindestens einem vertikal darüberliegenden Gelenkpunkt einer aufrechtstehenden Person.
AKDP13. Computer-implementiertes Verfahren nach AKDP1, wobei die Klassifizierung der Drehbewegung die Höhe der Person, deren Balance und/oder Schrittlänge umfasst.
AKDP14. Vorrichtung zur Durchführung eines Verfahrens nach AKDP1-AKDP13.
AKDP15. System zur Klassifizierung der Drehbewegung einer Person, mit einem Rechner (9), einem Speicher (10) und mindestens einem Sensor zur Erfassung der Bewegungen einer Person im Zeitablauf, einem skelettmodell-basiertes Merkmalsextraktion-Modul zur Merkmalsextraktion (5640) auf Basis von Gelenkpunkten und/oder Richtungsvektoren zwischen den Gelenkpunkten der Person und/oder Richtungsvektoren zwischen mindestens zwei Gelenkpunkten, und einem Drehbewegungs-Merkmalsklassifikation-Modul (5680) zur Merkmalsklassifikation einer Drehbewegung.
AKDP16. System nach AKDP15, wobei das Drehbewegungs-Merkmalsklassifikation-Modul (5680) ein Winkelauswertungs-Modul (5682) bspw. zum Aufsummieren von erfassten Winkeln und/oder Winkel änderungen aufweist.
AKDP17. System nach AKDP15, weiter umfassend ein Fußgel enkpunkt-Distanz- Ermittlungs-Modul (5685) zur Ermittlung der Distanz der Fußgelenkpunkte.
AKDP18. System nach AKDP15, weiter umfassend ein Personengröße-Auswertungs-Modul (5655) zur Auswertung der Größe der Person.
AKDP19. System nach AKDP15, weiter umfassend ein Hüft-Knie-Orientierungs-Modul (5690) zur Auswertung der Orientierung mindestens eines Richtungsvektors zwischen mindestens einem Knie- und mindestens einem Hüftgelenkpunkt hinsichtlich der Abweichung vom Lot. AKDP20. System nach AKDP15, umfassend ein Transversal-Gelenkpunkte- Auswertungs- Modul (5645) zur Auswertung von Positionsänderungen der Gelenkpunkte innerhalb der Transversalebene.
AKDP21. System nach AKDP15, wobei das System über ein Drehbewegung — Größe- Balance-Schrittlänge-Klassifizierungs-Modul (5695) zur Klassifizierung der Drehbewegung, der Größe der Person, deren Balance und/oder Schrittlänge verfügt.
AKDP22. System nach AKDP15, wobei der Sensor zur Erfassung der Bewegungen einer Person im Zeitablauf eine Kamera (185), ein LID AR (1), ein Radar-, ein Ultraschall sensor (194) und/oder mindestens ein Inertialsensor (5620) ist.
Beispiel 23: Klassifizierung des Gangs einer Person
[0337] Das System zur Gang-Klassifizierung ist wie in Fig. 76 illustriert aufgebaut: Das System zur Klassifizierung des Gangs einer Person, bspw. ein Serviceroboter 17, umfasst einen Rechner 9, einen Speicher 10 und mindestens einem Sensor zur Erfassung einer Person Zeitablauf (z.B. eine Kamera 185, ein LID AR 1, ein Radar-, ein Ultraschall sensor 194 oder einen Inertialsensor 5620) und ein Positions-Ermittlungs-Linien-Modul zur Ermittlung der Position der Person im Zeitablauf relativ gesehen zu einer geraden Linie 5696. Die Linie kann einerseits bspw. durch den mindestens einen Sensor zur Erfassung einer Person erfasst werden, andererseits kann sie bspw. durch Auswertung der Bewegungsrichtung der Person Bewegungsrichtungs-Modul 5698 ermittelt werden, womit keine Markierungen auf dem Boden notwendig sind. Das Positions-Ermittlungs-Linien-Modul 5696 zur Ermittlung der Position der Person im Zeitablauf relativ gesehen zur geraden Linie kann bspw. die Distanz der Person zur geraden Linie als Distanz des in die Transversalebene projizierten Schwerpunkts oder Kopfs der Person, als Distanz der durch eine Skelettmodellerstellung (bspw. durch das Skelett-Erstellungs-Modul 5635) ermittelten Fußgelenkpunkte der Person zur geraden Linie und/oder als Maximum oder als Durchschnittswert der zurückgelegten Strecke zur geraden Linie ermittelt und in Bezug zu einem Distanz-Schwellwert bestimmen. Die Wegstrecke selbst wird über ein Wegstreckenmodul (5696) ermittelt, bspw. durch Bestimmung der Schrittlängen der Person und Addition dieser Schrittlängen, wobei die Schrittlänge durch Abstandsermittlung zwischen zwei Fußgelenkpunkten innerhalb der Sagittalebene ermittelt wird; durch Auswertung der Positionsänderung der Person innerhalb eines Koordinatensystems und Abstandsermittlung zwischen zwei Punkten innerhalb des Koordinatensystems und/oder durch Auswertung von Odometriedaten, die vom Odometrie 181 des Serviceroboters 17 ermittelt werden und die die Position des Serviceroboters 17 wiedergeben. Alternativ kann diese auch durch Navigationsfunktionen ermittelt werden, die neben der Odometrie auch die Positionsermittlung über Abgleich der erfassten Umfeld des Serviceroboters 17 mit einer in einer Karte hinterlegten Umwelt betreffen. Über die Positionserfassung der Person relativ zum Serviceroboter 17, für den die zurücklegte Wegstrecke über die Navigationsfunktionen ermittelbar ist, kann demnach auch die Position der Person ermittelt werden. Das System verfügt, in einem Aspekt, über ein Handabstands- Auswertungs-Modul 5660 zur Auswertung des Abstands zwischen einem Handgelenkpunkt und weiteren Objekten im Umfeld der Person, um zu detektieren, ob sich die Person an Objekten festhält, was ihren Gang beeinflusst. Dies kann durch Anpassung eines Werts im Speicher vermerkt werden. Damit wird dann der Gang der Person auf Basis der Abweichung von der geraden Linie und der Distanz der Handgelenkpunkte zu detektierten Objekten/ Hindernissen klassifiziert. Das System kann, in einem Aspekt, über eine Projektionsvorrichtung 197 für die Projektion einer geraden Linie auf den Boden verfügen. In einem Aspekt verfügt das System über ein Personenerkennungsmodul 110, Bewegungsauswertungsmodul 120, Skelett-Erstellungs-Modul 5635 und/oder skelettmodell- basiertes-Merkmalsextraktions-Modul 5640.
[0338] Der Ablauf stellt sich wie in den nach Fig. 85 illustrierten Schritten dar: Erfassung einer Person im Zeitablauf 6105, bspw. durch den Sensor zur Erfassung einer Person. In einem Aspekt erfolgt Erfassung einer geraden imaginären oder geraden Linie auf dem Boden 6205, Erfassung der Position der Person im Zeitablauf relativ gesehen zur geraden Linie 6210, wobei die Person der Linie im Wesentlichen folgt, und eine Auswertung der Distanz der Person zur Linie über eine definierte Strecke 6230 (mit den Schritten 6210 und 6230 im Positions-Ermittlungs-Linien-Modul 5696), gefolgt von einer Ermittlung der Wegstrecke 6235 der von der Person zurücklegten Entfernung (durch das Wegstreckenmodul 5696) und die Ermittlung eines Skalenwerts 6240 als Wert einer Gang(ablauf)klassifizierung. Alternativ und/oder ergänzend dazu kann nach Erfassung einer Person im Zeitablauf 6105 eine Erfassung der Position der Person im Zeitablauf 6215, Ermittlung eines Pfads, der sich aus der im Zeitablauf erfassten Position der Person ergibt 6220 (im Bewegungsrichtungs-Modul 5698, bspw. durch Interpolation der Aufsetzpunkte von Fußgelenkpunkten eines Skelettmodells), ein Vergleich des Pfads mit einer geraden Linie 6225, die in etwa parallel zum Pfad der Person verläuft, und die Auswertung der Distanz der Person zur Linie über eine definierte Strecke 6230 (mit den Schritten 6225 und 6230 im Positions-Ermittlungs-Linien- Modul 5696), gefolgt von einer Ermittlung der Wegstrecke 6235 der von der Person zurücklegten Entfernung und die Ermittlung eines Skalenwerts 6240 als Wert einer Gang(ablauf)klassifizierung erfolgen. Ein alternativer Ablauf stellt sich wie folgt dar: Erfassung einer Person 6105, Erfassung der Positionen der Person im Zeitablauf 6215, Ermittlung eines Pfads, der sich aus der im Zeitablauf erfassten Positionen der Person ergibt 6222 (z.B. durch Interpolation der Positionsdaten der Person bzw. Aufsetzpunkte von Fußgelenkpunkten eines Skelettmodells), Auswertung der Positionen der Person relativ zum Pfad über eine definierte Strecke 6232, Ermittlung einer Wegstrecke 6235 und Ermittlung eines Skalenwerts 6240. Die Schritte 6220 und 6222 können sich durch die Art der Interpolation unterscheiden, wobei 6222 vor allem durch eine lineare Interpolation erfolgt, während für den Schritt 6220 neben einer linearen Interpolation auch nichtlineare Interpolationsverfahren infrage kommen.
[0339] Die Klassifizierung des Gangs einer Person wird hier durch folgende Aspekte AKGP1 bis AGDP24 charakterisiert:
AGDP1. Computer-implementiertes Verfahren zur Klassifizierung des Gangs einer Person, umfassend
• Erfassung einer Person;
• Erfassung einer geraden imaginären oder geraden realen Linie auf dem Boden;
• Erfassung der Positionen der Person im Zeitablauf relativ gesehen zur geraden Linie, wobei die Person der Linie im Wesentlichen folgt, und
• Auswertung der Distanz der Person zur geraden Linie über eine definierte Strecke. AGDP2. Computer-implementiertes Verfahren zur Klassifizierung des Gangs einer Person, umfassend
• Erfassung einer Person;
• Erfassung der Positionen der Person im Zeitablauf;
• Ermittlung eines Pfads, der sich aus der im Zeitablauf erfassten Positionen der Person ergibt;
• Vergleich des Pfads mit einer geraden Linie;
• Auswertung der Positionen der Person zur geraden Linie über eine definierte Strecke. AGDP3. Computer-implementiertes Verfahren zur Klassifizierung des Gangs einer Person, umfassend
• Erfassung einer Person;
• Erfassung der Positionen der Person im Zeitablauf; • Ermittlung eines Pfads, der sich aus der im Zeitablauf erfassten Positionen der Person ergibt;
• Auswertung der Positionen der Person relativ zum Pfad über eine definierte Strecke.
AGDP4. Computer-implementiertes Verfahren nach AGDP1-3, weiter umfassend die Ermittlung eines Skalenwerts auf Basis der Auswertung.
AGDP5. Computer-implementiertes Verfahren nach AGDP1-3, wobei sich die gerade Linie aus der Startposition einer Person und der Bewegung einer Person ergibt.
AGDP6. Computer-implementiertes Verfahren nach AGDP1, wobei die gerade Linie mit dem Boden in Eingriff steht. AGDP7. Computer-implementiertes Verfahren nach AGDP1, wobei die gerade Linie auf den Boden projiziert wird.
AGDP8. Computer-implementiertes Verfahren nach AGDP1-3, umfassend die Ermittlung der Wegstrecke, die die Person entlang der geraden Linie zurücklegt, durch Bestimmung der Schrittlängen der Person und Addition dieser Schrittlängen, wobei die Schrittlänge durch Abstandsermittlung zwischen zwei Fußgelenkpunkten innerhalb der Sagittalebene ermittelt wird.
AGDP9. Computer-implementiertes Verfahren nach AGDP1-3, umfassend die Ermittlung der Wegstrecke, die die Person entlang der geraden Linie zurücklegt, durch Auswertung der Positionsänderung der Person innerhalb eines Koordinatensystems und Abstandsermittlung zwischen zwei Punkten innerhalb des Koordinatensystems.
AGDP10. Computer-implementiertes Verfahren nach AGDP1-3, umfassend die Ermittlung der Wegstrecke, die die Person entlang der geraden Linie zurücklegt, durch Auswertung von Odometriedaten.
AGDP1 1. Computer-implementiertes Verfahren nach AGDP1-3, wobei die Position der Person relativ gesehen zu einem System erfasst und ausgewertet wird, dessen Position im Zeitverlauf über Navigationsfunktionen ermittelt wird.
AGDP12. Computer-implementiertes Verfahren nach AGDP1-3, umfassend die Ermittlung der Distanz der Person zur geraden Linie als Distanz des in die Transversalebene projizierten Schwerpunkts oder Kopfs der Person. AGDP13. Computer-implementiertes Verfahren nach AGDP1-3, umfassend die Ermittlung der Distanz der Person zur geraden Linie als Distanz der durch eine Skelettmodellerstellung ermittelten Fußgelenkpunkte der Person zur geraden Linie.
AGDP14. Computer-implementiertes Verfahren nach AGDP1-3, wobei Distanz der Person zur geraden Linie als Maximum oder als Durchschnittswert über die zurückgelegte Strecke ermittelt.
AGDP15. Computer-implementiertes Verfahren nach AGDP1-3, umfassend die Ermittlung der Distanz mindestens eines Handgelenkpunkts der Person zu detektierten Objekten und/oder Hindernissen. AGDP16. Computer-implementiertes Verfahren nach AGDP15, wobei der Gang der Person auf Basis der Abweichung von der geraden Linie und der Distanz der Handgelenkpunkte zu detektierten Objekten/Hindernissen klassifiziert wird.
AGDP17. Vorrichtung zur Durchführung eines Verfahrens nach AGDP1-AGDP16.
AGDP18. System zur Klassifizierung des Gangs einer Person, mit einem Rechner (9), einem Speicher (10) und mindestens einem Sensor zur Erfassung einer Person im Zeitablauf und einem Positions-Ermittlungs-Linien-Modul (5696) zur Ermittlung der Position der Person im Zeitablauf relativ gesehen zu einer Linie.
AGDP19. System nach AGDP18, wobei mindestens einem Sensor zur Erfassung einer Person im Zeitablauf auch einer Linie auf dem Boden detektiert. AGDP20. System nach AGDP18, umfassend eine Projektionsvorrichtung (197) für die Projektion einer Linie auf den Boden.
AGDP21. System nach AGDP18, umfassend ein Wegstreckenmodul (5697) zur Ermittlung der von der Person zurückgelegten Distanz.
AGDP22. System nach AGDP18, umfassend ein Handabstands- Auswertungs-Modul (5660) zur Auswertung des Abstands zwischen einem Handgelenkpunkt und weiteren Objekten im Umfeld der Person.
AGDP23. System nach AGDP18, wobei es sich beim Sensor zur Erfassung einer Person um eine Kamera (185), ein LID AR (1), ein Radar-, ein Ultraschall sensor (194) oder einen Inertialsensor (5620) handelt. AGDP24. System nach AGDP18, umfassend ein Bewegungsrichtungs-Modul (5698) zur Ermittlung der Bewegungsrichtung einer Person.
Beispiel 24: Modifikation der Signale eines optischen Sensors
[0340] Bei der Erfassung von Bewegungen einer Person im Rahmen der Auswertung eines Skelettmodells sorgt in einem Aspekt die Kleidung dafür, dass die erfassten Bewegungen ggf. ungenau sind, weil ein Teil der Bewegungen des Körpers der Person, und insbesondere die Bewegungsenergie, von der Kleidung absorbiert und ebenfalls in Bewegungen umgesetzt wird, die nicht synchron zur Bewegung der Person sein müssen. Damit sinkt die Erfassungsqualität der Bewegungen. Aus diesem Grund werden, wie nachfolgend beschrieben, Korrekturberechnungen umgesetzt, um die Effekte der Bewegung der Bekleidung auf die Erfassung der Bewegungen der Gelenkpunkte zu reduzieren und damit das Signal-Rauschverhältnis zu verbessern.
[0341] Wie in Fig. 53 dargestellt, wird im Schritt 4010 die Person erfasst, bspw. durch die Kamera 185 eines Serviceroboters oder aber durch eine andere stationäre oder mobile Kamera. Es wird auf Basis der erfassten Daten ein Skelettmodell 4015 erstellt, bspw. mittels Kamera-SDK, OpenPose, etc. Die Matrix des Bildes wird in Interessensregionen/Segmente segmentiert 4020, und zwar, in einem Aspekt, in den Bereichen, in denen die Gelenkpunkte detektiert werden. Hierbei umfasst eine Interessensregion/Segment bspw. eine in etwa kreisförmige Fläche (in einer 2D-Betrachtung), die sich um die Gelenkpunkte erstreckt. Pro Interessensregion/Segment wird das Leistungsdichtespektrum pro Pixel errechnet 4025 (bspw. mittels schneller Fouriertransformation) und über alle Pixel (Element einer Bildmatrix) der Interessensregion/des Segments aggregiert 4030. Mittels bspw. quadratischer Interpolation wird das Maximum der Leistungsdichte pro Interessensregion/Segment ermittelt 4035. Es erfolgt eine Transformation der Maxima in den Zeitbereich 4040, wo jede Interessensregion/Segment dann eine korrigierte Position und/oder Bewegung des Gelenkpunkts darstellt. Es können, in einem weiteren Schritt, die Gelenkpunkte und/oder Richtungsvektoren zwischen den Gelenkpunkten extrahiert werden 4045.
[0342] Das System zur Modifikation der Signale eines optischen Sensors bzw. zur Auswertung von Sensordaten einer Person, bspw. unter Reduktion des Signal- Rauschverhältnisses, ist in Fig. 77 wie folgt illustriert: Das System umfasset einen Rechner 9, einen Speicher 10, ein Bildmatrix-Segmentierungsmodul 5705 zur Segmentierung der Bildmatrix in Interessensregionen, und ein Leistungsdichte-Modul 5710 zur Leistungsdichteermittlung und Leistungsdichteverarbeitung. In einem Aspekt umfasst das System weiterhin ein Skelett-Erstellungs-Modul 5635 zur Erstellung eines Skelettmodell der Person, ein Gelenkpunkt-Selektionsmodul 5720 zur Selektion von Gelenkpunkten des Skelettmodells (bspw. als Bestandteil des Bildmatrix-Segmentierungsmoduls 5705, und ein Skelettmodell-Korrektur-Modul 5715 zur Ermittlung neuer Positionen identifizierter Skelettpunkte. In einem Aspekt verfügt das System darüber hinaus über ein Bewegungsauswertungsmodul 120 mit einem Bewegungsablauf extraktionsmodul (121), umfassend ein Gangmerkmalsextraktions-Modul 5605 sowie weitere Module zur Klassifizierung der extrahierten Merkmale von Bewegungen. Beim System kann es sich um einen Serviceroboter (17) handeln. In einem Aspekt verfügt das System über ein Personenerkennungsmodul 110 und/oder skelettmodell-basiertes-Merkmalsextraktions-Modul 5640.
[0343] Die Modifikation der Signale eines optischen Sensors wird hier durch folgende Aspekte AMSSI bis AMSS18 charakterisiert:
AMSSI . Computer-implementiertes Verfahren zur Erfassung einer Person und/oder eines Objekts, umfassend
• Auflösung des Objekts und/oder der Person als Bildmatrix;
• Segmentierung der Bildmatrix in Interessensregionen;
• Ermittlung des Leistungsdichtespektrums für jedes Element der Bildmatrix innerhalb einer Interessensregion;
• Aggregation der Leistungsdichtespektren über alle Elemente der Interessensregion, und
• Ermittlung des Maximums der Leistungsdichte über eine Interpolation.
AMSS2. Computer-implementiertes Verfahren nach AMSSI, wobei die Segmentierung der Bildmatrix auf Basis eines Skelettmodells erfolgt und die Segmente die Regionen um die Gelenkpunkte umfassen.
AMSS3. Computer-implementiertes Verfahren zur Modifikation der Position von Gelenkpunkten eines Skelettmodells, umfassend
• Erfassung einer Person im Zeitverlauf;
• Auflösung der Person als Bildmatrix; • Segmentierung der Bildmatrix in Interessensregionen;
• Ermittlung des Leistungsdichtespektrums für jedes Element der Bildmatrix innerhalb einer Interessensregion;
• Aggregation der Leistungsdichtespektren über alle Elemente der Interessensregion, und
• Ermittlung des Maximums der Leistungsdichte über eine Interpolation.
AMSS4. Computer-implementiertes Verfahren zur Verbesserung des Signal- Rauschverhältnisses bei der Erstellung eines Skelettmodells einer Person, umfassend
• Erfassung einer Person im Zeitverlauf;
• Ermittlung eines Skelettmodells von der Person;
• Segmentierung von Elementen des Skelettmodells, wobei für jeden Pixel eines Segments das Leistungsdichtespektrum ermittelt wird;
• Aggregation der Leistungsdichtespektren pro Segment;
• Ermittlung des Maximums der Leistungsdichte;
• Transformation der Maxima in den Zeitbereich und
• Weiterverarbeitung der erhaltenen Werte im Rahmen einer orts- und/oder zeitverlaufsabhängigen Klassifizierung.
AMSS5. Computer-implementiertes Verfahren nach AMSSI, AMSS3 oder AMSS4, wobei die Leistungsdichtespektren mittels schneller Fouriertransformation aggregiert werden.
AMSS6. Computer-implementiertes Verfahren nach AMSSI, AMSS3 oder AMSS4, wobei die Interpolation eine quadratische Interpolation ist.
AMSS7. Computer-implementiertes Verfahren nach AMSSI oder AMSS3, weiter umfassend eine Transformation der Maxima in den Zeitbereich.
AMSS8. Computer-implementiertes Verfahren nach AMSS4 oder AMSS7, wobei die Transformation der Maxima in den Zeitbereich mittels inverser schneller Fouriertransformation erfolgt.
AMSS9. Computer-implementiertes Verfahren nach AMSSI, AMSS3 oder AMSS4, umfassend eine Erfassung und Auswertung von Bewegungsparametern und/oder Bewegungsmustern einer Person.
AMSS10. Computer-implementiertes Verfahren nach AMSSI, AMSS3 oder AMSS4, wobei es sich bei den Bewegungsparameter und/oder Bewegungsmustem einer Person um Gangparameter der Person handelt, die orts- und zeitaufgelöst erfasst und ausgewertet werden.
AMSSI 1. Computer-implementiertes Verfahren nach AMSSI, AMSS3 oder AMSS4, weiter umfassend die Ermittlung neuer Gelenkpunktpositionen für ein Skelettmodell einer erfassten Person.
AMSS12. Computer-implementiertes Verfahren nach AMSSI 1, wobei es sich um korrigierte Positionen der Gelenkpunkte handelt.
AMSS13. Computer-implementiertes Verfahren nach AMSSI, AMSS3 oder AMSS4, wobei es sich bei der Person um eine bekleidete Person bzw. beim erfassten Bereich einer Person um einen bekleideten Bereich handelt.
AMSS14. Computer-implementiertes Verfahren nach AMSSI und AMSS3, wobei die Interessensregionen Gelenkpunkte der Person darstellen, die auf einer Skelettmodellerstellung basieren.
AMSS15. Vorrichtung zur Durchführung eines Verfahrens nach AMSS1-AMSS14.
AMSS16. System zur Auswertung von Sensordaten einer Person, umfassend einen Rechner (9), einen Speicher (10), ein Bildmatrix-Segmentierungsmodul (5705) zur Segmentierung der Bildmatrix in Interessensregionen, und ein Leistungsdichte-Modul (5710) zur Leistungsdichteermittlung und Leistungsdichteverarbeitung.
AMSS17. System nach AMSS16, weiter umfassend ein Skelett-Erstellungs-Modul (5635) zur Erstellung eines Skelettmodell der Person, ein Gelenkpunkt-Selektionsmodul (5720) zur Selektion von Gelenkpunkten des Skelettmodells, und ein Skelettmodell-Korrektur-Modul (5715) zur Ermittlung neuer Positionen identifizierter Skelettpunkte.
AMSS18. System nach AMSS16, weiter umfassend ein Bewegungsauswertungsmodul (120) mit einem Bewegungsablauf extraktionsmodul (121), umfassend ein Gangmerkmalsextraktions-Modul (5605).
Beispiel 25: Bildkorrektur
[0344] Der Serviceroboter 17 verfügt in einem Aspekt über einen Mechanismus zur Bildkorrektur (vgl. Fig. 54), der für die Navigation auf unebenen Flächen ausgelegt ist, wobei der Serviceroboter 17 über einen Sensor Gegenstände und/oder Personen erfassen kann 4110. Der Serviceroboter 17 kann, in einem Aspekt, sich auch außerhalb von Gebäuden bewegen. Hierbei können, in einem Aspekt, die Oberflächen, über die der Serviceroboter 17 sich bewegt, uneben sein und zu einem „Ruckein“ führen, welches den Erfassungsbereich der Kamera 185 bewegt und dafür sorgen kann, dass eine von der Kamera 185 erfasste Person und/oder Gegenstand, die oder der auf ebenem Untergrund komplett erfasst wird, zumindest temporär nicht vollständig erfasst werden kann. Aus diesem Grunde verfügt der Serviceroboter über eine Detektion der Bewegungen des Sensors 4115.
[0345] In einem Aspekt wird das Ruckein durch den Serviceroboter 17 erfasst. Dazu kann in einem Aspekt ein Inertialsensor 4116 zur Erfassung der Bewegungen des Sensors genutzt werden, in einem alternativen und/oder ergänzenden Aspekt wird direkt das Bild einer Kamera 185 ausgewertet hinsichtlich von im Bild vorhandenen Artefakte, Objekten,
Personen, Markierungen, Gelenkpunkte eines Skelettmodells etc. und deren Abstand zum Rand des erfassten Bildbereichs, wobei dabei einzelne Elemente eines Bilds getrackt werden können. Der Serviceroboter erfasst hier die Änderungsgeschwindigkeit dieser Bildelemente im Verhältnis zum Bildrand 4117, d.h. ändert sich die Distanz dieser Artefakte, Objekten, Personen, Markierungen, Gelenkpunkte eines Skelettmodells etc. mit einer Geschwindigkeit, die unter einem Schwellwert liegt, wird dies als Ruckein klassifiziert. Alternativ und/oder ergänzend wird die Distanz dieser zum Bildrand ausgewertet. Alternativ und/oder ergänzend für den Fall, dass eine Person erfasst wird, für die ein Skelettmodell erstellt wird, wird detektiert, ob das Skelettmodell vollständig ermittelt wird. Es findet in anschließend eine Vergrößerung des Bildausschnitts statt 4020, was in einem Aspekt über eine Erweiterung des Abstands des Sensors hin zum Gegenstand und/oder der Person erfolgt 4021. Alternativ und/oder ergänzend wird dazu eine Zoom-Funktion genutzt und/oder der Erfassungswinkel des Sensors erweitert 4022, bspw. durch eine Abstandsvergrößerung zur erfassten Person. Darüber wird sichergestellt, dass der Gegenstand und/oder die Person sich trotz Ruckein noch im Bildausschnitt befindet und getrackt werden kann. In einem alternativen und/oder ergänzenden Aspekt findet eine Interpolation der Bewegungen des Skelettmodells statt, wie das in den vorangegangenen Beispielen aufgezeigt wurde (siehe die Ermittlung des Leistungsdichtespektrums).
[0346] Das System zur Anpassung eines Bildausschnitts ist in Fig. 78 illustriert: Das System wird beschrieben als System zur optischen Erfassung einer Person mittels eines Sensors, mit einem Rechner 9, einem Speicher 10 und einem Bildausschnitt- Anpassungs-Modul 5740 zur Vergrößerung des Bildausschnitts, bspw. in Abhängigkeit von Bewegungen des Sensors. Das System kann weiterhin ein Personentracking-Modul (112 oder 113) umfassen. Um zu ermitteln, ob es einer Anpassung des Bildausschnitts auf Basis einer Bewegung bedarf, kann das System mehrere alternative und/oder ergänzende Module nutzen: a) ein Bildausschnitt- Änderungsgeschwindigkeit-Modul 5745 zur Auswertung der Änderungsgeschwindigkeit der Position der Person im Bildausschnitt; b) ein Bildausschnitt-Abstands-Modul 5750 für die Auswertung des Abstand der Person zum Rand des Bilds beinhaltet; c) einen Inertialsensor 5620 und d) ein Skelett-Erstellungs-Modul 5635 zur Erstellung eines Skelettmodell der Person sowie ein Gelenkpunkt-Bildausschnitt-Modul (5760) zur Ermittlung der Anzahl von Gelenkpunkten im Bildausschnitt, deren Variation zur Ermittlung von Bewegungen dient. Das System umfasst bspw. eine Bildausschnitt-Vergrößerungs-Einheit 5755 zur Vergrößerung des Bildausschnitts über eine Vergrößerung des Abstands des Systems zur erfassten Person. Zur Bildausschnitt-Vergrößerungs-Einheit 5755 gehört bspw. ein Bewegungsplaner 104 und eine Motorsteuerung 192 und/oder eine Zoom-Funktion. Beim Sensor handelt es sich bspw. um eine Kamera 185 oder einen LID AR 1. Das System kann z.B. ein Gangmerkmalsextraktions- Modul 5605 zur Merkmalsextraktion eines Gangablaufs, ein Gangmerkmalsklassifizierungs- Modul 5610 zur Merkmalsklassifizierung eines Gangablaufs, und/oder ein Gangablaufklassifizierungs-Modul 5615 für eine Gangablaufklassifizierung umfassen. In einem Aspekt handelt es sich beim System um einen Serviceroboter 17. In einem Aspekt verfügt das System über ein Personenerkennungsmodul 110, Bewegungsauswertungsmodul 120, Skelett-Erstellungs-Modul 5635 und/oder skelettmodell-basiertes-Merkmalsextraktions- Modul 5640. Zusammengefasst stellt sich der Ablauf so dar, dass das System eine Erfassung und Tracking einer Person innerhalb eines Bildausschnitts, eine Detektion mindestens einer Bewegung und eine Vergrößerung des Bildausschnitts vornimmt, bspw. durch eine Vergrößerung des Abstands zur erfassten Person, über eine Geschwindigkeitsreduktion und/oder durch eine Vergrößerung des Erfassungswinkels mittels einer Zoom-Funktion, entweder per Objektiv mit Blick auf den realen Bildausschnitt und/oder softwarebasiert im Rahmen der Auswertung dessen, was als Bildausschnitt fungiert, wobei in letzterem Fall der in Software verarbeitete Bildausschnitt kleiner ist das der durch den Sensor erfasste Bildausschnitt.
[0347] Die Bildkorrektur wird hier durch folgende Aspekte ABK1 bis ABK23 charakterisiert:
ABK1. Computer-implementiertes Verfahren zur Bewegungskorrektur bei einer Objekterfassung, umfassend • Erfassung und Tracking einer Person innerhalb eines Bildausschnits;
• Detektion mindestens einer Bewegung;
• Vergrößerung des Bildausschnitts.
ABK2. Computer-implementiertes Verfahren nach ABK1, wobei die Detektion von mindestens einer Bewegung die Änderungsgeschwindigkeit der Position der Person und/oder Teile der Person im Bildausschnitt umfasst.
ABK3. Computer-implementiertes Verfahren nach ABK1, wobei die Detektion von mindestens einer Bewegung die Auswertung des Abstands der Person und/oder Teile der Person im Bildausschnitt zum Rand des Bildausschnitts umfasst. ABK4. Computer-implementiertes Verfahren nach ABK1, wobei die Detektion von mindestens einer Bewegung durch einen Inertial sensor (5620) erfolgt.
ABK5. Computer-implementiertes Verfahren nach ABK1, weiter umfassend die Erstellung eines Skelettmodells der Person und eine orts- und zeitabhängige Auswertung extrahierter Gelenkpunkte nach der Erfassung der Person. ABK6. Computer-implementiertes Verfahren nach ABK5, wobei die Detektion von mindestens einer Bewegung durch die Änderung der Anzahl detektierter Gelenkpunkte innerhalb eines Skelettmodells, die sich im Bildausschnitt befinden, detektiert wird.
ABK7. Computer-implementiertes Verfahren nach ABK1, wobei die Vergrößerung des Bildausschnitts eine Vergrößerung des Abstands zur erfassten Person umfasst. ABK8. Computer-implementiertes Verfahren nach ABK7, wobei die Vergrößerung des Bildausschnitts über eine Geschwindigkeitsreduktion erfolgt.
ABK9. Computer-implementiertes Verfahren nach ABK1, wobei die Vergrößerung des Bildausschnitts durch eine Vergrößerung des Erfassungswinkels mittels einer Zoom-Funktion erfolgt. ABK10. Computer-implementiertes Verfahren nach ABK1, wobei die detekti er enden Bewegungen von Einebenheiten des Bodens herrühren.
ABKP. Computer-implementiertes Verfahren nach ABK1, wobei die detekti er enden Bewegungen von Bewegungen des Sensors herrühren.
ABK12. Vorrichtung zur Durchführung eines Verfahrens nach ABK1-ABKP. ABK13. zur Bewegungskorrektur bei einer Objekterfassung, mit Rechner (9), einem Speicher (10) und einem Sensor zur Erfassung eines Objekts und/oder einer Person im Zeitablauf sowie einem Bildausschnitt- Anpassungs-Modul (5740) zur Anpassung eines das Objekt und/oder die Person enthaltenen Bildausschnitts. ABK14. System nach ABK13, weiter umfassend ein Personentracking-Modul (112 oder 113). ABK15. System nach ABK13, weiter umfassend ein Bildausschnitt-
Änderungsgeschwindigkeit-Modul (5745) zur Auswertung der Änderungsgeschwindigkeit der Position der Person und/oder des Objekts im Bildausschnitt.
ABK16. System nach ABK13, weiter umfassend ein Bildausschnitt-Abstands-Modul (5750) zur Auswertung des Abstands der Person und/oder des Objekts zum Rand des Bildausschnitts.
ABK17. System nach ABK13, umfassend einen Inertialsensor (5620) zur Auswertung von Bewegungen des Sensors zur Erfassung eines Objekts und/oder einer Person.
ABK18. System nach ABK13, umfassend ein Skelett-Erstellungs-Modul (5635) zur Erstellung eines Skelettmodell der Person und ein Gelenkpunkt-Bildausschnitt-Modul (5760) bspw. zur Ermittlung der Anzahl von Gelenkpunkten im Bildausschnitt.
ABK19. System nach ABK13, umfassend eine Bildausschnitt-Vergrößerungs-Einheit (5755) zur Vergrößerung des Bildausschnitts über eine Vergrößerung des Abstands des Systems zur erfassten Person und/oder Objekt.
ABK20. System nach ABK19, wobei zur Bildausschnitt-Vergrößerungs-Einheit (5755) ein Bewegungsplaner (104) und eine Motorsteuerung (192) gehören.
ABK21. System nach ABK19, wobei die Bildausschnitt-Vergrößerungs-Einheit (5755) eine Zoom-Funktion umfasst.
ABK22. System nach ABK13, weiter umfassend ein Gangmerkmalsextraktions-Modul (5605) zur Merkmalsextraktion eines Gangablaufs, ein Gangmerkmalsklassifizierungs-Modul (5610) zur Merkmalsklassifizierung eines Gangablaufs, und/oder ein Gangablaufklassifizierungs- Modul (5615) für eine Gangablaufklassifizierung.
ABK23. System nach ABK13, wobei es sich beim Sensor um eine Kamera (185) oder einen LID AR (1) handelt. Beispiel 26: Navigation des Serviceroboters zwecks Realisierung seitlicher Aufnahmen einer Person
[0348] Der Serviceroboter 17 identifiziert und trackt Personen im Zeitablauf. Dabei trackt der Serviceroboter 17 die Person nicht nur in etwa parallel zum Pfad, den die Person zurücklegt, sondern auch in einem Winkel von größer 30°, bevorzugt größer 45°, in einem Aspekt ca. 90° zu diesem Pfad. Hierfür sind im Serviceroboter Regeln hinterlegt, wie in Fig. 55 dargestellt: Der Serviceroboter weist mit einer Ausgabe 4210 über die Ausgabeeinheit Person an, im Wesentlichen geradeaus zu gehen und/oder einen bestimmten Pfad zurückzulegen. Der Serviceroboter 17 prognostiziert z.B. den Pfad 4215, den die Person zurücklegen soll, bspw. mittels eines Pfadplanungsmoduls 103, positioniert sich außerhalb des prognostizierten Pfads der Person 4220, ggf. mit einem Mindestabstand zum prognostizierten Pfad 4223, und positioniert sich derart, dass der Serviceroboter 17 die Person mit einem Winkel von größer 30°, bevorzugt größer 45°, in einem Aspekt ca. 90° zum prognostizierten Pfad tracken kann 4225. Alternativ und/oder ergänzend zur Pfadprognose erfolgt eine Ermittlung der Laufrichtung der Person 4216, eine Positionierung in Laufrichtung gesehen vor der Person 4221, wobei in einem Aspekt ein Mindestabstand 4223 zur Person eingehalten wird (in Laufrichtung und/oder senkrecht zur Laufrichtung), und die Positionierung erfolgt derart, dass sein mindestens ein Sensor zum Erfassen der Person die Person mit einem Winkel von größer 30°, bevorzugt größer 45°, in einem Aspekt ca. 90° zur getrackten Laufrichtung der Person erfasst. Dies kann bspw. bei starrem Sensor eine Drehung des Serviceroboters 4226 von größer 30°, bevorzugt größer 45°, in einem Aspekt ca. 90° hin zu diesem Pfad bedeuten, und/oder der Serviceroboter richtet mindestens einen ggf. beweglichen Sensor in einem Winkel von größer 30°, bevorzugt größer 45°, in einem Aspekt ca. 90° 4227 zu diesem Pfad und/oder der Laufrichtung der Person aus. In einem Aspekt kann anstelle der Laufrichtung und/oder des Pfads der Person auch ein Hindernis wie bspw. einem Objekt wie eine Wand, Linie auf dem Boden, usw. als Referenz für den Winkel der Ausrichtung dienen. In einem Aspekt wird der Positionierungswinkel mit Blick auf die Person aus einer Analyse des Skelettmodells und/oder des Gangablaufs der Person abgeleitet. In einem alternativen und/oder ergänzenden Aspekt dreht sich der Serviceroboter 17 (oder der mindestens eine Sensor, der die Person erfasst) im Wesentlichen auf der Stelle. Es erfolgt ein Tracking der Person 4230. In einem alternativen und/oder ergänzenden Aspekt fährt der Serviceroboter eine definierte Zeit und/oder eine definierte Wegstrecke neben der Person her und erfasst diese dabei im Wesentlichen von der Seite. Anschließend navigiert der Serviceroboter 17 wieder in den Pfad der Person 4235, in einem Aspekt vor der Person, in einem alternativen Aspekt hinter der Person, so dass ein Tracking wieder im Wesentlichen parallel zum Pfad der Person erfolgt. Alternativ und/oder ergänzend positioniert sich der Serviceroboter 17 parallel zur Laufrichtung der Person 4240, vor oder nach ihr und nimmt in etwa die gleiche Geschwindigkeit ein wie die Person. Alternativ und/oder ergänzend kann der Serviceroboter 17 auch über eine Ausgabe 4245 der Ausgabeeinheit die Person anweisen, ihren Pfad zu ändern.
[0349] Das System zur Navigation des Serviceroboters zwecks Realisierung seitlicher Aufnahmen einer Person wird wie in Fig. 79 illustriert zusammengefasst: Das System zur Positionierung einer Erfassungs- und/oder Auswertungseinheit in einem Winkel von größer 30° zur Laufrichtung einer Person (bspw. ein Serviceroboter 17) umfasst einen Rechner 9, einen Speicher 10 und mindestens einen Sensor zur Erfassung einer Person im Zeitablauf, ferner ein Personentracking-Modul (112 oder 113) und ein Positionierungs-Modul 5570 zur Initiierung und Überwachung der Positionierung. In einem Aspekt verfügt das System über eine Ausgabeeinheit wie ein Display 2 und/oder einen Lautsprecher 192. Das System weist ferner einen Bewegungsplaner 104 auf bspw. zur Erstellung einer Prognose des von der Person zurückzulegenden Pfads, zur Bewegung der Erfassungs- und Auswertungseinheit neben der Person, zum Einhalten eines in etwa konstanten Abstands zur Person, zum Einnehmen eines definierten Winkels und/oder zur Rotation der Erfassungs- und Auswertungseinheit. Das System umfasst, in einem Aspekt, eine Kippeinheit 5130, die die Ausrichtung des Sensors bei fixer Orientierung der Erfassungs- und Auswertungseinheit ermöglicht sowie ferner bspw. eine Kamera 185 und/oder einen LID AR 1. Das System kann z.B. ein Bewegungsablaufextraktionsmodul 121 zur Merkmalsextraktion eines Bewegungsablaufs der Person und ein Bewegungsablaufbewertungsmodul 120, wobei das Bewegungsablaufextraktionsmodul 121 bspw. ein skelettmodell-basiertes Merkmalsextraktion-Modul 5640 ist und das Bewegungsablaufbewertungsmodul 122 ein Gangmerkmalsklassifizierungs-Modul 5610 zur Merkmalsklassifizierung des Gangablaufs der Person, und/oder ein Gangablaufklassifizierungs-Modul 5615 für eine
Gangablaufklassifizierung der Person enthalten kann. Das Bewegungsablaufextraktionsmodul 121 kann aber auch einen anderen, in diesem Dokument beschriebenen Bewegungsablauf betreffen als gangbezogene Bewegungen, genauso das Bewegungsablaufbewertungsmodul 122. In einem Aspekt verfügt das System über ein Personenerkennungsmodul 110, Bewegungsauswertungsmodul 120 und/oder Skelett-Erstellungs-Modul 5635. Der Ablauf lässt sich wie folgt zusammenfassen: Erfassung und Tracken der Person durch zumindest einen Sensor, Ermittlung der Laufrichtung der Person, und Repositionierung der Erfassungs und/oder Auswertungseinheit, wobei die Repositionierung der Erfassungs- und/oder Auswertungseinheit bspw. im Wesentlichen eine seitliche Erfassung der Person oder eine Erfassung der Person in der Sagittalebene ermöglicht. In einem Aspekt erfolgt eine Ausgabe einer Anweisung an die Person, im Wesentlichen geradeaus zu gehen. Der Ablauf umfasst ferner eine Prognose über einen von der Person zurückzulegenden Pfad basierend auf der Laufrichtung der Person, wobei bspw. die Re-Positionierung der Erfassungs- und/oder Auswertungseinheit zu dem Pfad in dem Erfassungswinkel erfolgt oder in dem Erfassungswinkel zu einer Wand erfolgt. Der Erfassungswinkel ergibt sich bspw. aus einer mittelzentrischen Achse des Sensors einerseits und eine Wand, der Laufrichtung und/oder dem prognostizierten Pfad andererseits jeweils auf eine horizontale Ebene projiziert. In einem weiteren Schritt kann eine laufende Neuberechnung des Erfassungswinkels; und die Positionierung der Erfassungs- und/oder Auswertungseinheit erfolgen, damit der Erfassungswinkel in etwa konstant gehalten wird. Weiterhin kann bspw. eine laufende Berechnung des Abstands zwischen der Erfassungs- und/oder Auswertungseinheit und der Person stattfinden und eine Positionierung der Erfassungs- und/oder Auswertungseinheit, damit ein Mindestwert für den Abstand zwischen der Erfassungs- und/oder Auswertungseinheit und der Person eingehalten wird. Ergänzend kann die Repositionierung der Erfassungs- und/oder Auswertungseinheit nach einer definierten Zeit und/oder Wegstrecke, damit der Erfassungswinkels danach im Wesentlichen kleiner als 30° ist, erfolgen, wie weiter auch die Repositionierung der Erfassungs- und/oder Auswertungseinheit nach einer definierten Zeit und/oder Wegstrecke, damit der Erfassungswinkels danach im Wesentlichen kleiner als 30° ist. Ergänzend kann z.B. im Laufe der Erfassung und Tracking der Person eine Ausgabe über einen Hinweis über die Bewegungsrichtung der Person und/oder der der Erfassungs- und/oder Auswertungseinheit erfolgen und/oder eine Auswertung des Bewegungsablaufs unter Berücksichtigung der Laufrichtung der Person. In einem Aspekt erfolgt im Rahmen der Auswertung des Bewegungsablaufs die Erfassung von den Bodenaufsetzpunkten von Gehhilfen, die zusammen mit der Stellung von Füßen der erfassten Person ausgewertet werden, wozu bspw. das bereits an anderer Stelle beschriebene Fußgelenkpunkt-Klassifizierungs-Modul 5670, Fußgelenkpunkt-Gehhilfenpositions-Modul 5677 und/oder Fußgelenkpunkt-Distanz -Ermittlungs-Modul 5685 genutzt werden können.
[0350] Die Navigation des Serviceroboters zwecks Realisierung seitlicher Aufnahmen einer Person wird hier durch folgende Aspekte NSRSA1 - NSRSA18 charakterisiert: NSRSA1. Computer-implementiertes Verfahren zur Positionierung einer Erfassungs und/oder Auswertungseinheit in einem Erfassungswinkel von größer 30° zur Laufrichtung einer Person, umfassend
• Erfassung und Tracken der Person durch zumindest einen Sensor,
• Ermittlung der Laufrichtung der Person, und
• Repositionierung der Erfassungs- und/oder Auswertungseinheit.
NSRSA2. Computer-implementiertes Verfahren nach NSRSA1, umfassend eine Ausgabe einer Anweisung an die Person, im Wesentlichen geradeaus zu gehen.
NSRSA3. Computer-implementiertes Verfahren nach NSRSA1, wobei die Repositionierung der Erfassungs- und/oder Auswertungseinheit im Wesentlichen eine seitliche Erfassung der Person oder eine Erfassung der Person in der Sagittalebene ermöglicht.
NSRSA4. Computer-implementiertes Verfahren nach NSRSA1, umfassend eine Prognose über einen von der Person zurückzulegenden Pfad basierend auf der Laufrichtung der Person.
NSRSA5. Computer-implementiertes Verfahren nach NSRSA4, wobei die Re-Positionierung der Erfassungs- und/oder Auswertungseinheit zu dem Pfad in dem Erfassungswinkel erfolgt.
NSA6. Computer-implementiertes Verfahren nachNSRSA4, wobei die Re-Positionierung der Erfassungs- und/oder Auswertungseinheit in dem Erfassungswinkel zu einem Objekt erfolgt.
NSRSA7. Computer-implementiertes Verfahren nach NSRSA4, wobei sich der Erfassungswinkel aus einer mittelzentrischen Achse des Sensors einerseits und einem Objekt, der Laufrichtung und/oder dem prognostizierten Pfad andererseits jeweils auf eine horizontale Ebene projiziert ergibt.
NSRSA8. Computer-implementiertes Verfahren nach NSRSA1, weiter umfassend eine laufende Neuberechnung des Erfassungswinkels; und die Positionierung der Erfassungs- und/oder Auswertungseinheit, damit der Erfassungswinkel in etwa konstant gehalten wird.
NSRSA9. Computer-implementiertes Verfahren nach NSRSA1, weiter umfassend
• eine laufende Berechnung des Abstands zwischen der Erfassungs- und/oder Auswertungseinheit und der Person; und
• Positionierung der Erfassungs- und/oder Auswertungseinheit, damit ein Mindestwert für den Abstand zwischen der Erfassungs- und/oder Auswertungseinheit und der Person eingehalten wird. NSRSA10. Computer-implementiertes Verfahren nach NSRSA1, weiter umfassend die Repositionierung der Erfassungs- und/oder Auswertungseinheit nach einer definierten Zeit und/oder Wegstrecke, damit der Erfassungswinkels danach im Wesentlichen kleiner als 30° ist.
NSRSA1 1. Computer-implementiertes Verfahren nach NSRSA1, weiter umfassend die Repositionierung der Erfassungs- und/oder Auswertungseinheit nach einer definierten Zeit und/oder Wegstrecke, damit der Erfassungswinkels danach im Wesentlichen kleiner als 30° ist.
NSRSA12. Computer-implementiertes Verfahren nach NSRSA1, weiter umfassend im Laufe der Erfassung und Tracking der Person eine Ausgabe über einen Hinweis über die Bewegungsrichtung der Person und/oder der der Erfassungs- und/oder Auswertungseinheit.
NSRSA13. Computer-implementiertes Verfahren nach NSRSA1, weiter umfassend eine Auswertung des Bewegungsablaufs unter Berücksichtigung der Laufrichtung der Person.
NSRSA14. Vorrichtung zur Durchführung des computer-implementiertes Verfahren nach NSRSA1-13.
NSRSA15. System zur Positionierung einer Erfassungs- und/oder Auswertungseinheit in einem Winkel von größer 30° zur Laufrichtung einer Person, umfassend einen Rechner (9), einen Speicher (10) und mindestens einen Sensor zur Erfassung der Person im Zeitablauf, ein Trackingmodul (112, 113) zur Tracking der Person und ein Positionierungs-Modul (5570) zur Initiierung und Überwachung der Positionierung.
NSRSA16. System nach NSRSA15, weiter umfassend einen Bewegungsplaner (104) zur Erstellung einer Prognose des von der Person zurückzulegenden Pfads, zur Bewegung des der Erfassungs- und/oder Auswertungseinheit neben der Person, zum Einhalten eines in etwa konstanten Abstands zwischen der Erfassungs- und/oder Auswertungseinheit und der Person, zum Einnehmen eines definierten Erfassungswinkels und/oder zur Rotation der Erfassungs und/oder Auswertungseinheit.
NSRSA17. System nach NSRSA15, umfassend eine Kippeinheit (5130), die die Ausrichtung des Sensors bei fixer Orientierung der Erfassungs- und/oder Auswertungseinheit ermöglicht.
NSRS18. System nach NSRSA15, umfassend ein Bewegungsablaufextraktionsmodul (121) zur Merkmalsextraktion eines Bewegungsablaufs der Person und ein Bewegungsablaufbewertungsmodul (122). Beispiel 27: Prognose von Bewegungsabläufen
[0351] In einem Aspekt kommuniziert der Serviceroboter 17 mit einem System, dass bspw. dem folgenden Ablauf folgt: In einem Speicher 10, bspw. im Serviceroboter 17 und/oder in der Cloud 18, mit der der Serviceroboter 17 über eine Schnittstelle 188 verbunden ist, sind ein Übungsplan und Patientendaten hinterlegt (Schritt 4305). Das System, bspw. der Serviceroboter 17, gibt auf Basis des Übungsplans Anweisungen aus (Schritt 4310), die im Speicher 10 hinterlegt sind, wobei diese bspw. über ein Display 2 und/oder einen Lautsprecher 192 ausgegeben werden können. Es erfolgt weiterhin eine Erfassung von einer Person wie bspw. einem Patienten (Schritt 4315) im Zeitverlauf, bspw. mittels des visuellen oder laserbasierten Personen-Trackingmoduls 112, 113. Dazu wird eine 2D und/oder 3D- Kamera 185 wie eine RGB-D-Kamera eingesetzt. Es findet weiterhin eine Gelenkpunktextraktion 4320 statt, die aus einem Skelettmodell stammen. Dies kann z.B. über das SDK für eine Microsoft Kinect erfolgen oder OpenPose.
[0352] In einem optionalen Aspekt wird ein Fußpunkt nicht über das SDK ermittelt, sondern durch eine separate Schätzung, die im Schritt 4325 beschrieben ist. Dazu wird ein Ansatz wie in Beispiel 21 gewählt.
[0353] Es wird im Schritt 4330 eine Ermittlung der Bodenaufsetzposition von Gehhilfen wie Unterarmgehstützen oder Achselstützen vorgenommen. Dies geschieht durch einen Segmentierungsalgorithmus wie bspw. RANSAC und einen Mustervergleich, wobei die Muster aus 2D und/oder 3D-Daten stammen können und die Form der Gehhilfe beschreiben. Dabei werden die Koordinaten im zweidimensionalen oder dreidimensionalen Raum ausgewertet.
[0354] Es findet als nächstes eine Bewegungsablaufklassifizierung durch maschinelles Lernen durch gleichzeitige Auswertung von mehr als zwei Gelenkpunkten und mindestens eine Bodenaufsatzposition mindestens einer Gehhilfe statt (Schritt 4335). Dabei werden die Gelenkpunkte und der Bodenaufsatzpunkt im Verhältnis zueinander ausgewertet. Dies umfasst mindestens einen Fußgelenkpunkt. Der hierbei eingesetzte Klassifikator ist, in einem Aspekt, mittels eines neuronalen Netzwerks auf Basis von überwachtem Lernen erstellt worden, wobei erfasste Körperpositionen der Person bewertet wurden. In einem Aspekt kann bei der Erstellung eines Klassifikators ein Filter genutzt werden, um die Informationen, die für die Klassifizierung genutzt werden, zu reduzieren. In einem nächsten Schritt erfolgt bspw. eine Reduktion der extrahierten Merkmale, z.B. eine Dimensionsreduktion. Dabei können einerseits Maxima, andererseits Durchschnittswerte der extrahierten Merkmale verarbeitet werden. Im weiteren Verlauf können bspw. Kostenfunktionen eingesetzt werden. Als Software Werkzeug kann bspw. PyTorch zum Einsatz kommen.
[0355] In einem Aspekt werden Körperposen des Gangablaufs mit Gehhilfen wie Unterarm oder Achselstützen aufgezeichnet, die einen korrekten Gangablauf beschreiben und für die die Positionen und der Verlauf von mindestens zwei Gelenkpunkten und mindestens einem Endpunkt einer Unterarm- oder Achselstütze im Zeitverlauf erfasst und zusammenhängend ausgewertet werden. Hierbei kann jeweils der Verlauf von Gelenkpunkten und/oder Auf setzpunkten der Unterarm- oder Achselstützen bspw. auf Basis einer Demonstration einer Körperpose ausgewertet und darauf basierend ein Klassifikator erstellt werden, der dann mit weiteren erfassten, als korrekt vorgegebenen Körperposen und den daraus abgeleiteten Verläufen der Gelenkpunkte und Aufsetzpunkte der Unterarm- oder Achselstützen im Raum verglichen wird, wobei danach erneut ein Klassifikator erstellt wird, der auf Basis aller vorliegenden Gelenkpunkt- und Achsel-/Unterarmstützpositions-Verlaufsdaten berücksichtigt. Auf diesem Weg wird der mindestens eine Klassifikator verfeinert. Hierzu kann bspw. der DAgger-Algorithmus in Python eingesetzt werden. Auf diesem Weg wird bspw. durch ein neuronales Netzwerk ein Klassifikator erstellt, der eine korrekte Bewegung erkennt und demzufolge auch Bewegungen, die nicht korrekt ablaufen. Fig. 80 illustriert dieses Verfahren, bei dem zunächst eine Merkmalsextraktion aus einer genormten Körperpose erfolgt, bspw. einem Gangablauf 3375. In einem nächsten Schritt wird eine Vielzahl von Gelenkpunkten 3376 und die Bodenaufsetzpunkte einer Gehhilfe wie den Unterarm- oder Achselstützen 3377 erfasst und diese zusammenhängend klassifiziert, wodurch ein Klassifikator 3378 generiert wird. Dieses Verfahren kann iterativ durchlaufen werden mit einer Vielzahl an Körperposen, welche genormt sind bzw. welche einem korrekten Ablauf entsprechen.
[0356] Im nächsten Schritt 4440 erfolgt eine Bewegungsablaufkorrektur basierend auf im Speicher 10 hinterlegten Regeln. Damit sind Ausgaben über einen Lautsprecher 192 und/oder ein Display 2 verbunden. Die Daten können bspw. in Form einer Matrix abgelegt sein, die eine Kombination an erkannten Bewegungsmustern mit zugehörigen Korrekturausgaben verbindet. Die Korrekturausgaben sind priorisiert, so dass innerhalb eines definierten Zeitfensters nur eine -definierte Anzahl an Korrekturausgaben erfolgt, bspw. eine maximale Anzahl, die wiederum von der Länge der Ausgaben und/oder Bewegungen des Systems wie bspw. des Serviceroboters ab.
[0357] Im Schritt 4345 erfolgt die Zusammenführung der Patientendaten (die zumeist zeitinvariant sind wie Alter, Gewicht, Größe, Art der Operation, operierte Seite, usw.), der Übungsplankonfigurationen (die zeitvariant sein können wie bspw. 5 min Training am ersten Tag, 10 min Training am zweiten Tag, zurückzulegende Wegstrecke von 50m, usw.), der ausgegebenen Bewegungsablaufkorrekturen (wie z.B. den Oberkörper aufrichten, die Unterarmgehstützen anders setzen) und/oder der klassifizierten Bewegungsabläufe im Zeitverlauf (wie die Winkel zwischen Gliedmaßen, Schrittlänge, Spurweite usw.) für die erfassten Personen mit dem Ziel einer Auswertung der Daten. Dazu können bspw. übliche join-Befehle für eine Datenbank genutzt werden, sofern die Daten in einer Datenbank im Speicher 10 abgelegt sind. Die Zusammenführung kann bspw. pro erfasste Übung erfolgen.
Es erfolgt ein Abspeichern dieser Daten im Speicher 10, der sich entweder im Serviceroboter 17 oder in der Cloud 18 befindet. Auf Basis der erfassten Daten erfolgt eine Prognose von Bewegungsabläufen auf Basis von Übungsplankonfiguration, Patientendaten und/oder Bewegungsablaufkorrektur (Schritt 4350). So kann bspw. ermittelt werden, auf Basis welcher Parameter für eine Übungsplankonfiguration für bestimmte Patiententypen (Alter, usw.) und mit welchen Bewegungsablaufkorrekturen ein Bewegungsablauf beim Patienten erreicht werden kann, der bestimmte Anforderungen erfüllt (bspw. der besonders flüssig ist, dem normalen Gangbild besonders nahekommt, usw.). Die Bewegungsabläufe können, in einem Aspekt, klassifiziert sein, bspw. als „normaler“ Bewegungsablauf vs. ein krankheitsbedingter Bewegungsablauf. Die Prognose von Bewegungsabläufen geschieht mittels Algorithmen des maschinellen Lernens. So kann hier bspw. ein Strukturgleichungsmodell eingesetzt werden, bspw. aus dem Toolkit Semopy für Python oder aber ein Regressionsmodell basierend auf Scikit Learn für Python. In einem Aspekt können hier auch neuronale Netze eingesetzt werden. Auf Basis dieser Auswertung wird ermittelt, welche Übungsplankonfiguration und/oder welche Bewegungsablaufkorrektur zu welchem Ergebnis führt. Dazu wird im Rahmen der Prognoseerstellung ermittelt, welche Kombination von welchen Einflussfaktoren wie Übungsplankonfigurationen, Personendaten und Bewegungsablaufkorrekturen zu welchen Bewegungsabläufen führt. Darauf basierend wird eine Übungsplankonfiguration und/oder die Klassifikation der Bewegungsablaufkorrektur angepasst (Schritt 4355), d.h. es werden die Übungsplankonfigurationen und/oder Bewegungsablaufkorrekturen übermittelt, die zu definierten Bewegungsabläufen führen. Die Übermittlung erfolgt an ein System zur Erfassung der Bewegungsdaten auf Basis von Ausgaben eines Übungsplans, bspw. einen Serviceroboter 17, ein Mobiltelefon oder einen Computer handelt, der stationär oder mobil ist, bspw. ein Tablet. Bei dem System kann es sich bspw. um einen Serviceroboter 17 handeln oder ein stationäres System. In einem Aspekt kann die Übermittlung auch an ein Regelwerk 150 erfolgen, von dem aus die Distribution der Regeln an mehr als ein weiteres Gerät erfolgt.
[0358] Zusammengefasst stellt sich der Ablauf wie folgt dar: Zusammenführen von Personendaten, Übungsplankonfigurationen, Bewegungsablaufkorrekturen und klassifizierter Bewegungsabläufe im Zeitverlauf für verschiedene Personen in mindestens einem Speicher (10); Prognose von Bewegungsabläufen auf Basis der Übungsplankonfigurationen, Personendaten und/oder der Bewegungsablaufkorrekturen; Ermittlung von Übungsplankonfigurationen und/oder Bewegungsablaufkorrekturen, welche zu definierten Bewegungsabläufen führen; Übermittlung der Übungsplankonfigurationen und/oder Bewegungsablaufkorrekturen an ein System zur Erfassung von Bewegungsabläufen. Weiterhin: eine Erfassung einer Person, eine Erstellung eines Skelettmodells von der Person, eine Gelenkpunktextraktion von Gelenkpunkten der Person über einen Bewegungsablauf, eine Bewegungsablaufklassifizierung der extrahierten Gelenkpunkte zur Bewertung von Bewegungsabläufen und eine Ermittlung einer Bewegungsablaufkorrektur.
[0359] Die Erkennung und Auswertung von Gangparametern wird hier durch folgende Aspekte AEAG1 bis AEAG14 charakterisiert):
AEAG1. Computer-implementiertes Verfahren zur Prognose von Bewegungsabläufen, umfassend
• Zusammenführen von Personendaten, Übungsplankonfigurationen, Bewegungsablaufkorrekturen und klassifizierter Bewegungsabläufe im Zeitverlauf für verschiedene Personen in mindestens einem Speicher (10);
• Prognose von Bewegungsabläufen auf Basis der Übungsplankonfigurationen, Personendaten und/oder der Bewegungsablaufkorrekturen;
• Ermittlung von Übungsplankonfigurationen und/oder Bewegungsablaufkorrekturen, welche zu definierten Bewegungsabläufen führen;
• Übermittlung der Übungsplankonfigurationen und/oder Bewegungsablaufkorrekturen an ein System zur Erfassung von Bewegungsabläufen. AEAG2. Computer-implementiertes Verfahren nach AEAG1, umfassend die Ausgabe von Anweisungen auf Basis eines Übungsplans.
AEAG3. Computer-implementiertes Verfahren nach AEAG1, umfassend eine Erfassung einer Person, eine Erstellung eines Skelettmodells von der Person, eine Gelenkpunktextraktion von Gelenkpunkten der Person über einen Bewegungsablauf, eine
Bewegungsablaufklassifizierung der extrahierten Gelenkpunkte zur Bewertung von Bewegungsabläufen und eine Ermittlung einer Bewegungsablaufkorrektur.
AEAG4. Computer-implementiertes Verfahren nach AEAG3, ferner für ein Bein die Schätzung der Position des zugehörigen Fußgelenkpunkts über die Ermittlung der Distanz zwischen dem zugehörigen Kniegelenkpunkt und dem Boden, der Ermittlung der
Orientierung des zugehörigen Unterschenkels als Richtungsvektor, dessen Länge sich aus der Distanz zwischen dem zugehörigen Kniegelenkpunkt und dem Boden ergibt.
AEAG5. Computer-implementiertes Verfahren nach AEAG4, wobei die Distanz zwischen dem Kniegelenkpunkt und dem Boden dann ermittelt wird, wenn sich der Richtungsvektor zwischen Kniegelenkpunkt und zugehörigem Hüftgelenkpunkt in etwa im Lot befindet.
AEAG6. Computer-implementiertes Verfahren nach AEAG4, wobei die Distanz zwischen dem Kniegelenkpunkt und dem Boden über die Differenz aus der Distanz zwischen Hüftgelenkpunkt und Boden und Hüftgelenkpunkt und Kniegelenkpunkt ermittelt wird.
AEAG7. Computer-implementiertes Verfahren nach AEAG3, wobei die Bodenaufsetzposition der von der erfassten Person genutzten Gehhilfe ermittelt wird.
AEAG8. Computer-implementiertes Verfahren nach AEAG3 und AEAG7, wobei die Bewegungsablaufklassifikation durch die gleichzeitige Auswertung von mehr als zwei Gelenkpunkten und mindestens einer Bodenaufsetzposition der mindestens einen Gehhilfe erfolgt. AEAG9. Computer-implementiertes Verfahren nach AEAG3, wobei die
Bewegungsablaufkorrektur eine Ausgabe über einen Lautsprecher (192) und/oder ein Display (2) umfasst.
AEAG10. Computer-implementiertes Verfahren nach AEAG8, wobei es sich bei den ausgewerteten Gelenkpunkten mindestens um einen Fußgelenkpunkt handelt. AEAG1 1. Computer-implementiertes Verfahren nach AEAG1, wobei es sich beim System um einen Serviceroboter 17 handelt. AEAG12. Vorrichtung zur Durchführung eines Verfahrens nach AEAG1-AEAG11.
AEAG13. Vorrichtung zur Durchführung eines Verfahrens nach AEAG11, wobei es sich beim System zum Erfassen von Bewegungsabläufen um einen Serviceroboter 17 handelt.
AEAG14. Vorrichtung zur Durchführung eines Verfahrens nach AEAG11, wobei es sich beim System zum Erfassen von Bewegungsabläufen um ein Mobiltelefon, ein Tablet- Computer oder einen stationären Computer handelt.
B ezugsb ezei chnungen
1 LIDAR
2 Display
3 Sensor zur berührungslosen Erfassung einer Person
4 druckempfindliche Stoßstange
5 Stützrad
6 Antriebsrad
7 Antriebseinheit
8 Energiequelle
9 Rechner
10 Speicher
17 Serviceroboter
13 Terminal
18 Cloud
100 Softwareebene
101 Navigationsmodul
102 2D oder 3D-Umfelderfassungsmodul
103 Pfadplanungsmodul
104 Bewegungsplaner
105 Selbstlokalisierungsmodul
106 Kartierungsmodul
107 Kartenmodul
108 Lademodul
110 Personenerkennungsmodul
111 Personenidentifizierungsmodul
112 visuelles Personentracking-Modul
113 laserbasiertes Personentracking-Modul
114 Personenreidentifizierungsmodul
115 Sitzerkennungsmodul
120 Bewegungsauswertungsmodul
121 Bewegungsablauf extraktionsmodul
122 Bewegungsablaufbewertungsmodul
130 Mensch -Roboter-Interaktionsmodul
131 graphi sehe Nutzerob erfl äche 132 Sprachauswertungsmodul
133 Sprachsyntheseeinheit
150 Regelwerk
151 Rechner des Regelwerks
152 Speicher des Regelwerks
160 Patientenadministrationsmodul
161 Rechner des Patientenadministrationsmoduls
162 Speicher des Patientenadministrationsmoduls
170 Navigationsmodul in der Cloud
171 Navigationsrechner
172 Navigationsspeicher
180 Hardwareneb ene
181 Odometrie
183 RFID
185 Kamera
186 Bedienelemente
188 Schnittstelle
190 Ladesteuerung
191 Motorsteuerung
192 Lautsprecher
193 Mikrofon
194 Radar und/oder Ultraschallsensor
195 Detektor
196 Spektrometer
197 Projektionsvorrichtung
905 Stuhl
910 Person
915 proj izierte Markierung
920 Projektionsvorrichtung
925, 930, 935, 940 verschiedene Linien
4415 Personen-Positions-Ermittlungs-Modul
4420 Audioquellen-Positionsermittlungs-Modul
4425 Audi osignal -V ergl ei chs-Modul
4430 Audiosignal -Personen -Modul 4435 Audiosequenz -Eingabe-Modul
4510 Zeitdauer-Wegstrecken-Modul
4515 Geschwindigkeits-Wegstreckenmodul
4520 Zeitdauer-Wegstrecken-Bewertungsmodul
4525 Hörtesteinheit
4530 Sehtesteinheit
4535 Test-auf-gei stige-F ähigkeiten -Einheit 4540 Stuhldetektionsmodul
4605 Personenerfassungs- und Trackingeinheit
4606 Bewegungsfrequenzermittlungseinheit
4607 Bewegungseinheit
4615 Puls- Atem -Auswertungseinheit
4620 Bewegungssignalerfassungs- und Verarbeitungseinheit
4625 stilisierte Verkörperungselemente
4705 Blattdetektionsmodul
4710 F altbewegungsermittlungsmodul
4720 Blatt-Abstands-Ecken-Kanten-Modul
4725 Blattformänderungs-Modul
4730 Blattkrümmungs-Modul
4740 Blattdimensions-Modul
4745 Bl attrand-Ori enti erungs-Modul
4750 Fingerkuppen- Ab Stands-Modul
4755 Blattsegmentierungsmodul
4760 Blattklassifikations-Modul
4770 Manipulationsversuchs-Detektionsmodul
4775 Person-Roboter- Abstandsermittlungs-Modul
4780 Größe- Arml änge-Ori enti erungs-Modul
4785 Eingabe-Registrierungs-Vergleichsmodul
4805 Spektrometer-Ausrichtungseinheit
4810 Körperregions-Detektions-Modul
4815 Körperregion-Tracking-Modul
4820 Spektrometer-Messmodul
4825 Referenzspektren-Datenbank
4830 Krankheitsbilder-Datenbank 4835 Perspirations-Modul
4840 Delirium-Detection-Score-Ermittlungs-Modul
4845 Kognitive-Fähigkeiten-Bewertungs-Modul
4850 Thermometer
4905 taktiler Sensor
4910 taktile Sensor- Auswertungseinheit
4915 taktile-Sensor- Ausgabe-Vergleichsmodul
4920 Aktor
4925 Aktor-Positionierungseinheit 4930 Handidentifizierungsmodul 4940 Zahlenwert-Ausgabe-Modul 4950 Roboterhand
4955 Einheit zur Ausgabe von Fingerposen der Roboterhand
4960 Handposen-Detektions-Modul
5005 Gesichtserkennungs-Modul
5010 Gesichts-Kandidatenregion-Modul
5015 Emotions-Klassifikations-Modul
5020 Emotions-Bewertungs-Modul
5025 Betterkennungs-Modul
5035 obere-Extremitäten- Auswertungs-Modul
5040 Schmerzstatus-Berechnungsmodul
5055 Schmerzvokalisations-Modul
5065 Beatmungsvorrichtungs-Erkennungsmodul
5085 Schmerzempfindungs-Auswertungsmodul
5110 kardiovaskuläre-Bewegungen -Modul
5120 Leuchte
5125 Blutdruck-Ermittlungs-Modul 5130 Kippeinheit 5205 Auswertungslaser 5210 weiterer Laser 5215 Medium
5220 Laserablenkungs-Auswertungs-Modul
5225 Laser-Variations-Modul
5230 Fingerpositionierungs-Erkennungs-Modul 5250 Sensor auf Basis des Fotoeffekts 5270 Lichtquelle
5275 Wellenlängenvariations-Einheit
5280 Wellenlängenvariations-Auswertungs-Einheit
5295 Stoffklassifikationsmodul-Modul
5305 F euchtigkeitsermittlungsmodul
5310 Feuchtigkeitsbewertungsmodul
5405 Sturzdetektions-Modul
5410 Sturzereignis-Bewertungs-Modul
5415 Vitalparameter-Erfassungs-Einheit
5420 Vitalparameter-Auswertungs-Modul
5425 Vitalparameter-Sensor
5430 Sturzrisiko-Ermittlungsmodul
5605 Gangmerkmalsextraktions-Modul
5610 Gangmerkmalsklassifizierungs-Modul
5615 Gangablaufklassifizierungs-Modul
5620 Inertialsensor
5625 Personen-Geschwindigkeits-Modul 5635 Skelett-Erstellungs-Modul
5640 skelettmodell-basiertes Merkmalsextraktion-Modul 5645 Transversal-Gelenkpunkte-Auswertungs-Modul 5650 Lot-Gelenkpunkte-Auswertungs-Modul 5655 Personengröße- Auswertungs-Modul 5660 Handabstands- Auswertungs-Modul
5665 sagittalebenenbasiertes Gelenkpunktverlauf-Auswertungs-Modul
5670 F ußgel enkpunkt-Kl as sifizi erungs-Modul
5675 Spurweiten-Schrittweiten-Modul
5677 Fußgelenkpunkt-Gehhilfenpositions-Modul
5680 Drehbewegungs-Merkmalsklassifikation-Modul
5682 Winkelauswertungs-Modul
5685 F ußgel enkpunkt-Di stanz -Ermittlungs-Modul
5690 Hüft-Knie-Orienti erungs-Modul
5695 Drehbewegung-Größe-Balance-Schrittlänge-Klassifizierungs-Modul
5696 Positions-Ermittlungs-Linien-Modul 5697 Wegstreckenmodul
5698 Bewegungsrichtungs-Modul 5705 Segmentierungsmodul 5710 Leistungsdichte-Modul
5715 Skelettmodell-Korrektur-Modul
5720 Gelenkpunkt-Selektionsmodul
5740 Bildausschnitt-Anpassungs-Modul
5745 Bildausschnitt-Änderungsgeschwindigkeit-Modul
5750 Bildausschnitt-Abstands-Modul
5755 Bildausschnitt-Vergrößerungs-Einheit
5760 Gelenkpunkt-Bildausschnitt-Modul
5570 Positionierungs-Modul
6070 erfasste Feuchtigkeit auf dem Boden
6071 Gang
6072 initial ermittelter Pfad
6073 neu errechneter Pfad auf Basis der Feuchtigkeit als Hindernis
6074 Abstandsermittlung zwischen zwei feuchten Flächensegmenten

Claims

Ansprüche
1. Computer-implementiertes Verfahren zur Positionierung einer Erfassungs und/oder Auswertungseinheit in einem Erfassungswinkel von größer 30° zur Laufrichtung einer Person, umfassend
• Erfassung und Tracken der Person durch zumindest einen Sensor,
• Ermittlung der Laufrichtung der Person, und
• Repositionierung der Erfassungs- und/oder Auswertungseinheit.
2. Computer-implementiertes Verfahren nach Anspruch 1, umfassend eine Ausgabe einer Anweisung an die Person, im Wesentlichen geradeaus zu gehen.
3. Computer-implementiertes Verfahren nach Anspruch 1, wobei die Repositionierung der Erfassungs- und/oder Auswertungseinheit im Wesentlichen eine seitliche Erfassung der Person ermöglicht.
4. Computer-implementiertes Verfahren nach Anspruch 1, umfassend eine Prognose über einen von der Person zurückzulegenden Pfad basierend auf der Laufrichtung der Person.
5. Computer-implementiertes Verfahren nach Anspruch 4, wobei die Re positionierung der Erfassungs- und/oder Auswertungseinheit zu dem Pfad in dem Erfassungswinkel erfolgt.
6. Computer-implementiertes Verfahren nach Anspruch 4, wobei die Re positionierung der Erfassungs- und/oder Auswertungseinheit in dem Erfassungswinkel zu einem Objekt erfolgt.
7. Computer-implementiertes Verfahren nach Anspruch 4, wobei sich der Erfassungswinkel aus einer mittelzentrischen Achse des Sensors einerseits und einem Objekt, der Laufrichtung und/oder dem prognostizierten Pfad andererseits jeweils auf eine horizontale Ebene projiziert ergibt.
8. Computer-implementiertes Verfahren nach Anspruch 1, weiter umfassend eine laufende Neuberechnung des Erfassungswinkels; und die Positionierung der Erfassungs- und/oder Auswertungseinheit, damit der Erfassungswinkel in etwa konstant gehalten wird.
9. Computer-implementiertes Verfahren nach Anspruch 1, weiter umfassend eine laufende Berechnung des Abstands zwischen der Erfassungs- und/oder Auswertungseinheit und der Person; und
Positionierung der Erfassungs- und/oder Auswertungseinheit, damit ein Mindestwert für den Abstand zwischen der Erfassungs- und/oder Auswertungseinheit und der Person eingehalten wird.
10. Computer-implementiertes Verfahren nach Anspruch 1, weiter umfassend die Repositionierung der Erfassungs- und/oder Auswertungseinheit nach einer definierten Zeit und/oder Wegstrecke, damit der Erfassungswinkels danach im Wesentlichen kleiner als 30° ist.
11. Computer-implementiertes Verfahren nach Anspruch 1, weiter umfassend die Repositionierung der Erfassungs- und/oder Auswertungseinheit nach einer definierten Zeit und/oder Wegstrecke, damit der Erfassungswinkels danach im Wesentlichen kleiner als 30° ist.
12. Computer-implementiertes Verfahren nach Anspruch 1, weiter umfassend im Laufe der Erfassung und Tracking der Person eine Ausgabe über einen Hinweis über die Bewegungsrichtung der Person und/oder der der Erfassungs- und/oder Auswertungseinheit.
13. Computer-implementiertes Verfahren nach Anspruch 1, weiter umfassend eine Auswertung des Bewegungsablaufs unter Berücksichtigung der Laufrichtung der Person.
14. Vorrichtung zur Durchführung des computer-implementiertes Verfahren nach Anspruch 1- 13.
15. System zur Positionierung einer Erfassungs- und/oder Auswertungseinheit in einem Winkel von größer 30° zur Laufrichtung einer Person, umfassend einen Rechner (9), einen Speicher (10) und mindestens einen Sensor zur Erfassung der Person im Zeitablauf, ein Trackingmodul (112, 113) zur Tracking der Person und ein Positionierungs-Modul (5570) zur Initiierung und Überwachung der Positionierung.
16. System nach Anspruch 15, weiter umfassend einen Bewegungsplaner (104) zur Erstellung einer Prognose des von der Person zurückzulegenden Pfads, zur Bewegung der Erfassungs- und/oder Auswertungseinheit neben der Person, zum Einhalten eines in etwa konstanten Abstands zwischen der Erfassungs- und/oder Auswertungseinheit und der Person, zum Einnehmen eines definierten Erfassungswinkels und/oder zur Rotation der Erfassungs- und/oder Auswertungseinheit.
17. System nach Anspruch 15, umfassend eine Kippeinheit (5130), die die Ausrichtung des Sensors bei fixer Orientierung der Erfassungs- und/oder Auswertungseinheit ermöglicht.
18. System nach Anspruch 15, umfassend ein Bewegungsablaufextraktionsmodul (121) zur Merkmalsextraktion eines Bewegungsablaufs der Person und ein Bewegungsablaufbewertungsmodul (122).
PCT/EP2020/074240 2019-08-30 2020-08-31 System zur erfassung von bewegungsabläufen und/oder vitalparametern einer person WO2021038109A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US17/639,254 US20220331028A1 (en) 2019-08-30 2020-08-31 System for Capturing Movement Patterns and/or Vital Signs of a Person
CN202080076764.2A CN114980810A (zh) 2019-08-30 2020-08-31 用于检测人的运动过程和/或生命体征参数的系统
EP20764658.9A EP4003164A1 (de) 2019-08-30 2020-08-31 System zur erfassung von bewegungsabläufen und/oder vitalparametern einer person
DE112020004118.2T DE112020004118A5 (de) 2020-01-30 2020-08-31 System zur Erfassung von Bewegungsabläufen und/oder Vitalparametern einer Person

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
DE102019123304 2019-08-30
DE102019123304.6 2019-08-30
DE102020102315.4 2020-01-30
DE102020102315 2020-01-30
DE102020112853.3 2020-05-12
DE102020112853 2020-05-12

Publications (2)

Publication Number Publication Date
WO2021038109A1 true WO2021038109A1 (de) 2021-03-04
WO2021038109A9 WO2021038109A9 (de) 2021-05-27

Family

ID=72292546

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2020/074240 WO2021038109A1 (de) 2019-08-30 2020-08-31 System zur erfassung von bewegungsabläufen und/oder vitalparametern einer person

Country Status (4)

Country Link
US (1) US20220331028A1 (de)
EP (1) EP4003164A1 (de)
CN (1) CN114980810A (de)
WO (1) WO2021038109A1 (de)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113743239A (zh) * 2021-08-12 2021-12-03 青岛图灵科技有限公司 行人重识别方法、装置及电子设备
CN113925476A (zh) * 2021-10-18 2022-01-14 谢俊 一种检测人体心率的智能系统及其检测方法
CN114147702A (zh) * 2021-11-04 2022-03-08 合肥欣奕华智能机器有限公司 一种机器人及手指端的位置调整方法
CN114330384A (zh) * 2021-11-24 2022-04-12 南京邮电大学 一种基于无源rfid相位信息的手臂运动轨迹追踪方法
US20230024435A1 (en) * 2021-07-22 2023-01-26 Kar-Han Tan Autonomous mobile robot
WO2023208760A1 (en) * 2022-04-27 2023-11-02 Bearcover GmbH Monitoring device and method for operating a monitoring device
RU2816045C1 (ru) * 2023-08-22 2024-03-26 Общество с ограниченной ответственностью "ЗЕЛЕНОГРАДСКИЙ ЦЕНТР КИНЕЗИТЕРАПИИ" Способ лечения функциональных нарушений плечевого сустава
DE102022128862A1 (de) 2022-10-31 2024-05-02 tediro GmbH Objektlokalisierung durch einen mobilen Roboter
DE102022128864A1 (de) 2022-10-31 2024-05-02 tediro GmbH Objektlokalisierung durch einen mobilen Roboter
DE102023123138A1 (de) 2022-10-31 2024-05-02 tediro GmbH Objektlokalisierung durch einen mobilen Roboter
CN118051841A (zh) * 2024-04-12 2024-05-17 上海迎智正能健康科技有限公司 一种基于生理参数提取的情绪识别方法及系统

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200115696A (ko) * 2019-03-07 2020-10-08 삼성전자주식회사 전자 장치 및 그 제어 방법
US11129032B2 (en) * 2019-11-26 2021-09-21 Motorola Mobility Llc Optimal device position for wireless communication
KR20210088371A (ko) * 2020-01-06 2021-07-14 주식회사 비햅틱스 촉각자극 제공 시스템
US20210253135A1 (en) * 2020-02-18 2021-08-19 Toyota Motor North America, Inc. Determining transport operation level for gesture control
US20210275807A1 (en) * 2020-03-06 2021-09-09 Northwell Health, Inc. System and method for determining user intention from limb or body motion or trajectory to control neuromuscular stimuation or prosthetic device operation
KR20210130325A (ko) * 2020-04-21 2021-11-01 현대자동차주식회사 노이즈 제어 장치, 그를 가지는 차량 및 그 제어 방법
US20210358202A1 (en) * 2020-05-13 2021-11-18 Electronic Caregiver, Inc. Room Labeling Drawing Interface for Activity Tracking and Detection
US11796637B1 (en) * 2020-09-10 2023-10-24 Amazon Technologies, Inc. Fall detection on uneven surfaces using radar
JP2022052345A (ja) * 2020-09-23 2022-04-04 キヤノンメディカルシステムズ株式会社 超音波診断装置、撮像方法、及び撮像プログラム
WO2022086161A1 (ko) * 2020-10-20 2022-04-28 삼성전자주식회사 로봇 및 그 제어 방법
JP2023549111A (ja) * 2020-11-06 2023-11-22 ヒンジ ヘルス, インコーポレイテッド コンピュータビジョンを通したオブジェクトの運動に関する洞察の導出
US20220222853A1 (en) * 2020-12-22 2022-07-14 Industrial Technology Research Institute Method and device for calculating the distance between eyes and the eyes? target
EP4043914A1 (de) * 2021-02-15 2022-08-17 Leica Geosystems AG Six-dof-messhilfsmittel
JP2024508843A (ja) * 2021-02-25 2024-02-28 チェリッシュ ヘルス インコーポレイテッド 定義区域内の対象物を追跡する技術
CN112926514A (zh) * 2021-03-26 2021-06-08 哈尔滨工业大学(威海) 一种多目标检测及跟踪方法、系统、存储介质及应用
CN113456042A (zh) * 2021-06-30 2021-10-01 浙江师范大学 一种基于3d cnn的无接触面部血压测量方法
CN114898471B (zh) * 2022-07-12 2022-09-30 华中科技大学 一种基于人体骨架特征的行为检测方法及存储介质
WO2024097300A1 (en) * 2022-11-03 2024-05-10 Tellus You Care, Inc. Mapping a living area using lidar
CN116935016B (zh) * 2023-07-28 2024-03-08 上海济目科技有限公司 一种集成隧道施工现场风险识别与激光定位方法
CN116740846B (zh) * 2023-08-02 2024-08-27 深圳零和壹物联科技有限公司 一种rfid智能顶装式门禁终端控制方法
CN117806356B (zh) * 2024-02-28 2024-07-19 南京大学 一种基于物联网的飞艇数据传输管理系统及方法
CN118351595A (zh) * 2024-04-28 2024-07-16 北京小米机器人技术有限公司 步态识别方法、装置、电子设备及存储介质
CN118398850B (zh) * 2024-07-01 2024-09-17 同济大学 一种燃料电池闭环状态管理方法、装置、介质及产品

Citations (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5222495A (en) 1990-02-02 1993-06-29 Angiomedics Ii, Inc. Non-invasive blood analysis by near infrared absorption measurements using two closely spaced wavelengths
US5372135A (en) 1991-12-31 1994-12-13 Vivascan Corporation Blood constituent determination based on differential spectral analysis
US5460177A (en) 1993-05-07 1995-10-24 Diasense, Inc. Method for non-invasive measurement of concentration of analytes in blood using continuous spectrum radiation
US5533509A (en) 1993-08-12 1996-07-09 Kurashiki Boseki Kabushiki Kaisha Method and apparatus for non-invasive measurement of blood sugar level
US6008889A (en) 1997-04-16 1999-12-28 Zeng; Haishan Spectrometer system for diagnosis of skin disease
US6088605A (en) 1996-02-23 2000-07-11 Diasense, Inc. Method and apparatus for non-invasive blood glucose sensing
US6172743B1 (en) 1992-10-07 2001-01-09 Chemtrix, Inc. Technique for measuring a blood analyte by non-invasive spectrometry in living tissue
US6240306B1 (en) 1995-08-09 2001-05-29 Rio Grande Medical Technologies, Inc. Method and apparatus for non-invasive blood analyte measurement with fluid compartment equilibration
CN101862245A (zh) 2010-05-28 2010-10-20 上海市古美高级中学 医院服务机器人
US8475171B2 (en) 2007-05-09 2013-07-02 Oregon Health & Science University Object recognition testing tools and techniques for measuring cognitive ability and cognitive impairment
US8552359B2 (en) 2009-04-01 2013-10-08 The Curators of the Univesity of Missouri Optical spectroscopy device for non-invasive blood glucose detection and associated method of use
CN203338133U (zh) 2012-11-12 2013-12-11 常熟理工学院 一种智能医疗服务机器人
CN203527474U (zh) 2013-07-09 2014-04-09 常熟理工学院 一种助老服务机器人
CN103956171A (zh) 2014-04-01 2014-07-30 中国科学院软件研究所 一种多通道简易精神状态检测系统
US9117274B2 (en) 2011-08-01 2015-08-25 Fuji Xerox Co., Ltd. System and method for interactive markerless paper documents in 3D space with mobile cameras and projectors
CN104889994A (zh) 2015-06-30 2015-09-09 广州绿松生物科技有限公司 智能健康服务机器人
US9189068B2 (en) 2011-03-14 2015-11-17 Lg Electronics Inc. Apparatus and a method for gesture recognition
CN204772554U (zh) 2015-06-30 2015-11-18 广州绿松生物科技有限公司 智能健康服务机器人
CN105078449A (zh) 2015-08-24 2015-11-25 华南理工大学 基于健康服务机器人的老年痴呆症监护系统
CN105078445A (zh) 2015-08-24 2015-11-25 华南理工大学 基于健康服务机器人的老年人健康服务系统
CN105082149A (zh) 2015-08-24 2015-11-25 华南理工大学 一种可实现血氧饱和度检测的健康服务机器人
CN105078450A (zh) 2015-08-24 2015-11-25 华南理工大学 一种可实现脑电检测的健康服务机器人
US20150363651A1 (en) 2014-06-12 2015-12-17 GM Global Technology Operations LLC Vision-based wet road surface detection using texture analysis
US9307940B2 (en) 2009-10-07 2016-04-12 The University Court Of The University Of Edinburgh Apparatus and method for testing sustained attention and delirium
US9372546B2 (en) 2011-08-12 2016-06-21 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
US9423879B2 (en) 2013-06-28 2016-08-23 Chia Ming Chen Systems and methods for controlling device operation according to hand gestures
US20170011258A1 (en) 2010-06-07 2017-01-12 Affectiva, Inc. Image analysis in support of robotic manipulation
CN106407715A (zh) 2016-10-19 2017-02-15 上海派毅智能科技有限公司 一种智能服务机器人健康辨识系统及方法
CN205950753U (zh) 2016-05-14 2017-02-15 深圳市华科安测信息技术有限公司 医院导诊服务机器人
US9619613B2 (en) 2012-06-22 2017-04-11 Integrated Deficit Examinations, LLC Device and methods for mobile monitoring and assessment of clinical function through sensors and interactive patient responses
CN106671105A (zh) 2017-01-17 2017-05-17 五邑大学 面向老人的智能陪护机器人
US9659150B2 (en) 2012-07-20 2017-05-23 Care Innovations, Llc Method for assessing cognitive function and predicting cognitive decline through quantitative assessment of the TUG test
CN106709254A (zh) 2016-12-29 2017-05-24 天津中科智能识别产业技术研究院有限公司 一种医疗诊断机器人系统
US20170146455A1 (en) 2014-06-16 2017-05-25 Diamontech Gmbh Non-Invasive Substance Analysis
US9690984B2 (en) 2015-04-14 2017-06-27 Microsoft Technology Licensing, Llc Two-dimensional infrared depth sensing
CN107518989A (zh) 2017-10-21 2017-12-29 长沙展朔轩兴信息科技有限公司 医院服务机器人
CN206833244U (zh) 2017-04-21 2018-01-02 山东大学 一种基于云平台的医院服务机器人
CN107544266A (zh) 2016-06-28 2018-01-05 广州零号软件科技有限公司 家庭健康服务机器人
CN107598943A (zh) 2017-10-30 2018-01-19 文杨 一种陪伴老人的机器人
CN108039193A (zh) 2017-11-17 2018-05-15 哈尔滨工大服务机器人有限公司 一种自动生成体检报告的方法及装置
CN108053889A (zh) 2017-12-20 2018-05-18 中国科学院合肥物质科学研究院 一种基于Agent技术的健康促进服务机器人
CN108073104A (zh) 2016-11-10 2018-05-25 贺州学院 基于stm32嵌入式多用途护理服务机器人
CN108422427A (zh) 2018-03-21 2018-08-21 南通市巨久新材料科技有限公司 一种康复服务机器人
US10111593B2 (en) 2011-10-07 2018-10-30 Koninklijke Philips N.V. Monitoring system for monitoring a patient and detecting delirium of the patient
US20190012599A1 (en) 2010-06-07 2019-01-10 Affectiva, Inc. Multimodal machine learning for emotion metrics
US20190077007A1 (en) * 2017-09-14 2019-03-14 Sony Interactive Entertainment Inc. Robot as Personal Trainer
US10242527B2 (en) 2014-10-16 2019-03-26 Arb Labs Inc. Systems, methods and devices for monitoring game activities
US10268277B2 (en) 2014-09-30 2019-04-23 Hewlett-Packard Development Company, L.P. Gesture based manipulation of three-dimensional images
US20190216322A1 (en) 2016-11-25 2019-07-18 Samsung Electronics Co., Ltd. Compact spectrometer system for non-invasive measurement of absorption and transmission spectra in biological tissue samples

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8698888B2 (en) * 2009-10-30 2014-04-15 Medical Motion, Llc Systems and methods for comprehensive human movement analysis
EP3205269B1 (de) * 2016-02-12 2024-01-03 Tata Consultancy Services Limited System und verfahren zur analyse des haltungsgleichgewichts einer person

Patent Citations (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5222495A (en) 1990-02-02 1993-06-29 Angiomedics Ii, Inc. Non-invasive blood analysis by near infrared absorption measurements using two closely spaced wavelengths
US5372135A (en) 1991-12-31 1994-12-13 Vivascan Corporation Blood constituent determination based on differential spectral analysis
US6172743B1 (en) 1992-10-07 2001-01-09 Chemtrix, Inc. Technique for measuring a blood analyte by non-invasive spectrometry in living tissue
US5460177A (en) 1993-05-07 1995-10-24 Diasense, Inc. Method for non-invasive measurement of concentration of analytes in blood using continuous spectrum radiation
US5533509A (en) 1993-08-12 1996-07-09 Kurashiki Boseki Kabushiki Kaisha Method and apparatus for non-invasive measurement of blood sugar level
US6240306B1 (en) 1995-08-09 2001-05-29 Rio Grande Medical Technologies, Inc. Method and apparatus for non-invasive blood analyte measurement with fluid compartment equilibration
US6088605A (en) 1996-02-23 2000-07-11 Diasense, Inc. Method and apparatus for non-invasive blood glucose sensing
US6008889A (en) 1997-04-16 1999-12-28 Zeng; Haishan Spectrometer system for diagnosis of skin disease
US6069689A (en) 1997-04-16 2000-05-30 Derma Technologies, Inc. Apparatus and methods relating to optical systems for diagnosis of skin diseases
US8475171B2 (en) 2007-05-09 2013-07-02 Oregon Health & Science University Object recognition testing tools and techniques for measuring cognitive ability and cognitive impairment
US8552359B2 (en) 2009-04-01 2013-10-08 The Curators of the Univesity of Missouri Optical spectroscopy device for non-invasive blood glucose detection and associated method of use
US9307940B2 (en) 2009-10-07 2016-04-12 The University Court Of The University Of Edinburgh Apparatus and method for testing sustained attention and delirium
CN101862245A (zh) 2010-05-28 2010-10-20 上海市古美高级中学 医院服务机器人
US20190012599A1 (en) 2010-06-07 2019-01-10 Affectiva, Inc. Multimodal machine learning for emotion metrics
US20170011258A1 (en) 2010-06-07 2017-01-12 Affectiva, Inc. Image analysis in support of robotic manipulation
US9189068B2 (en) 2011-03-14 2015-11-17 Lg Electronics Inc. Apparatus and a method for gesture recognition
US9117274B2 (en) 2011-08-01 2015-08-25 Fuji Xerox Co., Ltd. System and method for interactive markerless paper documents in 3D space with mobile cameras and projectors
US9372546B2 (en) 2011-08-12 2016-06-21 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
US10111593B2 (en) 2011-10-07 2018-10-30 Koninklijke Philips N.V. Monitoring system for monitoring a patient and detecting delirium of the patient
US9619613B2 (en) 2012-06-22 2017-04-11 Integrated Deficit Examinations, LLC Device and methods for mobile monitoring and assessment of clinical function through sensors and interactive patient responses
US9659150B2 (en) 2012-07-20 2017-05-23 Care Innovations, Llc Method for assessing cognitive function and predicting cognitive decline through quantitative assessment of the TUG test
CN203338133U (zh) 2012-11-12 2013-12-11 常熟理工学院 一种智能医疗服务机器人
US9423879B2 (en) 2013-06-28 2016-08-23 Chia Ming Chen Systems and methods for controlling device operation according to hand gestures
CN203527474U (zh) 2013-07-09 2014-04-09 常熟理工学院 一种助老服务机器人
CN103956171A (zh) 2014-04-01 2014-07-30 中国科学院软件研究所 一种多通道简易精神状态检测系统
US20150363651A1 (en) 2014-06-12 2015-12-17 GM Global Technology Operations LLC Vision-based wet road surface detection using texture analysis
US20170146455A1 (en) 2014-06-16 2017-05-25 Diamontech Gmbh Non-Invasive Substance Analysis
US10268277B2 (en) 2014-09-30 2019-04-23 Hewlett-Packard Development Company, L.P. Gesture based manipulation of three-dimensional images
US10242527B2 (en) 2014-10-16 2019-03-26 Arb Labs Inc. Systems, methods and devices for monitoring game activities
US9690984B2 (en) 2015-04-14 2017-06-27 Microsoft Technology Licensing, Llc Two-dimensional infrared depth sensing
CN104889994A (zh) 2015-06-30 2015-09-09 广州绿松生物科技有限公司 智能健康服务机器人
CN204772554U (zh) 2015-06-30 2015-11-18 广州绿松生物科技有限公司 智能健康服务机器人
CN105078449A (zh) 2015-08-24 2015-11-25 华南理工大学 基于健康服务机器人的老年痴呆症监护系统
CN105078450A (zh) 2015-08-24 2015-11-25 华南理工大学 一种可实现脑电检测的健康服务机器人
CN105078445A (zh) 2015-08-24 2015-11-25 华南理工大学 基于健康服务机器人的老年人健康服务系统
CN105082149A (zh) 2015-08-24 2015-11-25 华南理工大学 一种可实现血氧饱和度检测的健康服务机器人
CN205950753U (zh) 2016-05-14 2017-02-15 深圳市华科安测信息技术有限公司 医院导诊服务机器人
CN107544266A (zh) 2016-06-28 2018-01-05 广州零号软件科技有限公司 家庭健康服务机器人
CN106407715A (zh) 2016-10-19 2017-02-15 上海派毅智能科技有限公司 一种智能服务机器人健康辨识系统及方法
CN108073104A (zh) 2016-11-10 2018-05-25 贺州学院 基于stm32嵌入式多用途护理服务机器人
US20190216322A1 (en) 2016-11-25 2019-07-18 Samsung Electronics Co., Ltd. Compact spectrometer system for non-invasive measurement of absorption and transmission spectra in biological tissue samples
CN106709254A (zh) 2016-12-29 2017-05-24 天津中科智能识别产业技术研究院有限公司 一种医疗诊断机器人系统
CN106671105A (zh) 2017-01-17 2017-05-17 五邑大学 面向老人的智能陪护机器人
CN206833244U (zh) 2017-04-21 2018-01-02 山东大学 一种基于云平台的医院服务机器人
US20190077007A1 (en) * 2017-09-14 2019-03-14 Sony Interactive Entertainment Inc. Robot as Personal Trainer
CN107518989A (zh) 2017-10-21 2017-12-29 长沙展朔轩兴信息科技有限公司 医院服务机器人
CN107598943A (zh) 2017-10-30 2018-01-19 文杨 一种陪伴老人的机器人
CN108039193A (zh) 2017-11-17 2018-05-15 哈尔滨工大服务机器人有限公司 一种自动生成体检报告的方法及装置
CN108053889A (zh) 2017-12-20 2018-05-18 中国科学院合肥物质科学研究院 一种基于Agent技术的健康促进服务机器人
CN108422427A (zh) 2018-03-21 2018-08-21 南通市巨久新材料科技有限公司 一种康复服务机器人

Non-Patent Citations (27)

* Cited by examiner, † Cited by third party
Title
BAI ET AL.: "Real-Time Robust Noncontact Heart Rate Monitoring With a Camera", IEEE ACCESS, vol. 6, 2018
DRUGMAN ET AL.: "Objective Study of Sensor Relevance for Automatic Cough Detection", IEEE JOURNAL OF BIOMEDICAL AND HEALTH INFORMATICS, vol. 17, no. 3, May 2013 (2013-05-01), pages 699 - 707, XP011506359, DOI: 10.1109/JBHI.2013.2239303
ESPY ET AL.: "Independent Influence of Gait Speed and Step Length on Stability and Fall Risk", GAIT POSTURE, vol. 32, no. 3, July 2010 (2010-07-01), pages 278 - 282, XP027298253
GHIJSSEN ET AL., BIOMEDICAL OPTICS EXPRESS, vol. 9, no. 8, 2018, pages 3937 - 3952
ISHARA KALANA ET AL: "Mobile robotic active view planning for physiotherapy and physical exercise guidance", 2015 IEEE 7TH INTERNATIONAL CONFERENCE ON CYBERNETICS AND INTELLIGENT SYSTEMS (CIS) AND IEEE CONFERENCE ON ROBOTICS, AUTOMATION AND MECHATRONICS (RAM), IEEE, 15 July 2015 (2015-07-15), pages 130 - 136, XP033206519, ISBN: 978-1-4673-7337-1, [retrieved on 20150923], DOI: 10.1109/ICCIS.2015.7274609 *
KASSER ET AL.: "A Prospective Evaluation of Balance, Gait, and Strength to Predict Falling in Women with Multiple Sclerosis", ARCHIVES OF PHYSICAL MEDECINE AND REHABILITATION, vol. 92, no. 11, 16 August 2011 (2011-08-16), pages 1840 - 1846, XP028326361, DOI: 10.1016/j.apmr.2011.06.004
KOBILAROV M ET AL: "People tracking and following with mobile robot using an omnidirectional camera and a laser", 2006 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA) : ORLANDO, FLORIDA, 15 - 19 MAY 2006, IEEE OPERATIONS CENTER, PISCATAWAY, NJ, 15 May 2006 (2006-05-15), pages 557 - 562, XP010921331, ISBN: 978-0-7803-9505-3, DOI: 10.1109/ROBOT.2006.1641769 *
KURYLYAK ET AL.: "Blood Pressure Estimation from a PPG Signal", IEEE INTERNATIONAL INSTRUMENTATION AND MEASUREMENT TECHNOLOGY CONFERENCE (I2MTC). DOI: 10.1109/I2MTC.2013.6555424, 2013
LEE ET AL.: "Vision-Based Measurement of Heart Rate from Ballistocardiographic Head Movements Using Unsupervised Clustering", SENSORS, vol. 19, 2019, pages 3263
LIU ET AL.: "Transdermal optical imaging revealed different spatiotemporal patterns of facial cardiovascular activities", SCIENTIFIC REPORTS, vol. 8, 2018, pages 10588
LUO ET AL.: "Smartphone-Based Blood Pressure Measurement Using Transdermal Optical Imaging Technology", CIRCULAR CARDIOVASCULAR IMAGING. 2019;12:E008857. DOI: 10.1161/CIRCIMAGING.119.008857
MARTINEZ ET AL.: "Breathing Rate Monitoring during Sleep from a Depth Camera under Real-Life Conditions", 2017 IEEE WINTER CONFERENCE ON APPLICATIONS OF COMPUTER VISION (WACV, 2017
MCDUFF ET AL.: "Remote Detection of Photoplethysmographic Systolic and Diastolic Peaks Using a Digital Camera", IEEE TRANSACTIONS ON BIOMEDICAL ENGINEERING, vol. 61, no. 12, December 2014 (2014-12-01)
MCGUNNICLE: "Detecting Wet Surfaces using near-Infrared Lighting", JOURNAL OF THE OPTICAL SOCIETY OF AMERICA A, vol. 27, no. 5, 2010, pages 1137 - 1144
PARATI ET AL.: "Spectral Analysis of Blood Pressure and Heart Rate Variability in Evaluating Cardiovascular Regulation", HYPERTENSION, vol. 25, 1995, pages 1276 - 1286
PASQUADIBISCEGLIE ET AL.: "A personal healthcare system for contact-less estimation of cardiovascular parameters", AEIT INTERNATIONAL ANNUAL CONFERENCE. DOI: 10.23919/AEIT.2018.8577458, 2018
ROSERMOSSMANN: "Classification ofWeather Situations on Single-Colour Images", 2008 IEEE INTELLIGENT VEHICLES SYSMPOSIUM, 2 June 2008 (2008-06-02)
ROUAST ET AL.: "Remote heart rate measurement using low-cost RGB face video: a technical literature review", FRONT. COMPUT. SCI., vol. 12, no. 5, 2018, pages 858 - 872, XP036595096, DOI: 10.1007/s11704-016-6243-6
SANJAY D ET AL: "Robotic system using fuzzy logic for person following", 2015 INTERNATIONAL CONFERENCE ON ELECTRICAL, ELECTRONICS, SIGNALS, COMMUNICATION AND OPTIMIZATION (EESCO), IEEE, 24 January 2015 (2015-01-24), pages 1 - 4, XP033200335, ISBN: 978-1-4799-7676-8, [retrieved on 20150909], DOI: 10.1109/EESCO.2015.7253862 *
SENDEN ET AL.: "Accelerometry-based Gait Analysis, an additional objective approach to screen subjects at risk for falling", GAIT POSTURE, vol. 36, no. 2, June 2012 (2012-06-01), pages 296 - 300, XP028499140, DOI: 10.1016/j.gaitpost.2012.03.015
UNAKAFOV: "Pulse rate estimation using imaging photoplethysmography: generic framework and comparison of methods on a publicly available dataset", BIOMED. PHYS. ENG. EXPRESS, vol. 4, 2018, pages 045001
VAN SCHOOTEN ET AL.: "Ambulatory Fall-Risk Assessment: Amount and Quality of Daily-Life Gait Predict Falls in Older Adults", JOURNALS OF GERONTOLOGY: SERIES A, vol. 70, no. 5, May 2015 (2015-05-01), pages 608 - 615
VERKRUYSSE ET AL., REMOTE PLETHYSMOGRAPHIC IMAGING USING AMBIENT LIGHT, vol. 16, no. 26, 22 December 2008 (2008-12-22)
WANG ET AL.: "Cuff-Free Blood Pressure Estimation Using Pulse Transit Time and Heart Rate", 12TH INTERNATIONAL CONFERENCE ON SIGNAL PROCESSING (ICSP). DOI: 10.1109/ICOSP.2014.7014980, 2014
WEI ET AL.: "Transdermal Optical Imaging Reveal Basal Stress via Heart Rate Variability Analysis: A Novel Methodology Comparable to Electrocardiography", FRONTIERS IN PSYCHOLOGY 9:98. DOI: 10.3389/FPSYG.2018.00098
YAMADA ET AL.: "Discrimination of the Road Condition toward Understanding of Vehicle Driving Environments", IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS, vol. 2, no. 1, March 2001 (2001-03-01), pages 26 - 31, XP011028385
ZAUNSEDER ET AL.: "Cardiovascular assessment by imaging photoplethysmography - a review", BIOMED. ENG.-BIOMED. TECH., vol. 63, no. 5, 2018, pages 617 - 634

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230024435A1 (en) * 2021-07-22 2023-01-26 Kar-Han Tan Autonomous mobile robot
CN113743239A (zh) * 2021-08-12 2021-12-03 青岛图灵科技有限公司 行人重识别方法、装置及电子设备
CN113925476A (zh) * 2021-10-18 2022-01-14 谢俊 一种检测人体心率的智能系统及其检测方法
CN114147702A (zh) * 2021-11-04 2022-03-08 合肥欣奕华智能机器有限公司 一种机器人及手指端的位置调整方法
CN114330384A (zh) * 2021-11-24 2022-04-12 南京邮电大学 一种基于无源rfid相位信息的手臂运动轨迹追踪方法
WO2023208760A1 (en) * 2022-04-27 2023-11-02 Bearcover GmbH Monitoring device and method for operating a monitoring device
DE102022128862A1 (de) 2022-10-31 2024-05-02 tediro GmbH Objektlokalisierung durch einen mobilen Roboter
DE102022128864A1 (de) 2022-10-31 2024-05-02 tediro GmbH Objektlokalisierung durch einen mobilen Roboter
DE102023123138A1 (de) 2022-10-31 2024-05-02 tediro GmbH Objektlokalisierung durch einen mobilen Roboter
RU2816045C1 (ru) * 2023-08-22 2024-03-26 Общество с ограниченной ответственностью "ЗЕЛЕНОГРАДСКИЙ ЦЕНТР КИНЕЗИТЕРАПИИ" Способ лечения функциональных нарушений плечевого сустава
RU2816046C1 (ru) * 2023-08-22 2024-03-26 Общество с ограниченной ответственностью "ЗЕЛЕНОГРАДСКИЙ ЦЕНТР КИНЕЗИТЕРАПИИ" Способ реабилитации после операции на тазобедренный сустав
CN118051841A (zh) * 2024-04-12 2024-05-17 上海迎智正能健康科技有限公司 一种基于生理参数提取的情绪识别方法及系统

Also Published As

Publication number Publication date
EP4003164A1 (de) 2022-06-01
WO2021038109A9 (de) 2021-05-27
US20220331028A1 (en) 2022-10-20
CN114980810A (zh) 2022-08-30

Similar Documents

Publication Publication Date Title
EP4003164A1 (de) System zur erfassung von bewegungsabläufen und/oder vitalparametern einer person
US11659350B1 (en) Metaverse dating
US11989340B2 (en) Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location in at least one of a virtual and augmented reality system
Tang et al. Towards BCI-actuated smart wheelchair system
Duan et al. Design of a multimodal EEG-based hybrid BCI system with visual servo module
Xu et al. Continuous hybrid BCI control for robotic arm using noninvasive electroencephalogram, computer vision, and eye tracking
WO2014112631A1 (ja) 動作情報処理装置及びプログラム
CN103338699A (zh) 医学用动作成像和捕捉系统及方法
CN104274183A (zh) 动作信息处理装置
Romdhane et al. Automatic video monitoring system for assessment of Alzheimer's disease symptoms
EP3908969A1 (de) Verfahren und system zur erfassung des bewegungsablaufs einer person
CN109765991A (zh) 社交互动系统、用于帮助用户进行社交互动的系统及非暂时性计算机可读存储介质
US20210339024A1 (en) Therapeutic space assessment
JP2021506052A (ja) コミュニケーション方法及びシステム
Montaño-Serrano et al. Artificial vision algorithms for socially assistive Robot applications: A review of the literature
WO2024140417A1 (zh) 可穿戴扩展现实设备的人机交互采集方法、装置和系统
Atallah et al. An ear-worn sensor for the detection of gait impairment after abdominal surgery
Lanata et al. Robust head mounted wearable eye tracking system for dynamical calibration
EP3529764A1 (de) Vorrichtung zur ermittlung von merkmalen einer person
US20230013233A1 (en) Image-based risk analysis of individuals in clinical settings
Sinyukov Semi-autonomous robotic wheelchair controlled with low throughput human-machine interfaces
Kyberd et al. A Tool to Assist in the Analysis of Gaze Patterns in Upper Limb Prosthetic Use
Almeida Intellwheels-Controlling an Intelligent Wheelchair using a Multimodal Interface
US20240212804A1 (en) Automated, Non-Invasive Artificial Intelligence Machine Learning Method and System for Identifying and Redacting Personally Identifiable Information in a Monitored Environment using Real-Time Sensor Data
DE102022104499A1 (de) Synchronisierung von Bewegungen eines Serviceroboters mit denen einer Person

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20764658

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020764658

Country of ref document: EP

Effective date: 20220224

REG Reference to national code

Ref country code: DE

Ref legal event code: R225

Ref document number: 112020004118

Country of ref document: DE