DE102020210933A1 - Camera-based registration of patients in the event of a major disaster - Google Patents

Camera-based registration of patients in the event of a major disaster Download PDF

Info

Publication number
DE102020210933A1
DE102020210933A1 DE102020210933.8A DE102020210933A DE102020210933A1 DE 102020210933 A1 DE102020210933 A1 DE 102020210933A1 DE 102020210933 A DE102020210933 A DE 102020210933A DE 102020210933 A1 DE102020210933 A1 DE 102020210933A1
Authority
DE
Germany
Prior art keywords
evaluation unit
information
image
interface
patient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020210933.8A
Other languages
German (de)
Inventor
Christian Riess
Alexander Grupp
Daniel Wolf
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102020210933.8A priority Critical patent/DE102020210933A1/en
Priority to EP21755699.2A priority patent/EP4205137A1/en
Priority to PCT/EP2021/070774 priority patent/WO2022042968A1/en
Publication of DE102020210933A1 publication Critical patent/DE102020210933A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/90Services for handling of emergency or hazardous situations, e.g. earthquake and tsunami warning systems [ETWS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Public Health (AREA)
  • Tourism & Hospitality (AREA)
  • Human Computer Interaction (AREA)
  • Child & Adolescent Psychology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Remote Sensing (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Die Erfindung betrifft eine Auswerteinheit mit mindestens einer Schnittstelle zum Empfangen mindestens eines Bildes einer Kamera; wobei die Auswerteinheit ausgebildet ist, einen oder mehrere Patienten in dem mindestens einen Bild zu erkennen. Die Auswerteinheit ist ausgebildet, den Patienten Informationen zu der jeweiligen Verletzung und/oder Erkrankung zuzuordnen.The invention relates to an evaluation unit with at least one interface for receiving at least one image from a camera; wherein the evaluation unit is designed to recognize one or more patients in the at least one image. The evaluation unit is designed to assign information about the respective injury and/or illness to the patient.

Description

Die Erfindung betrifft eine Auswerteinheit nach dem Oberbegriff von Anspruch 1 und ein Verfahren nach Anspruch 10.The invention relates to an evaluation unit according to the preamble of claim 1 and a method according to claim 10.

Um Verletzte bei einem Großschadensereignis zu identifizieren, werden sogenannte Verletztenanhängekarten verwendet. Auf den Verletztenanhängekarten werden Informationen zum Gesundheitszustand des jeweiligen Patienten vermerkt. Gewöhnliche Verletztenanhängekarten liegen in gedruckter Form vor. Es sind aber auch digitale Verletztenanhängekarten bekannt. Dies sind elektronische Geräte, die den Patienten angehängt werden. Die relevanten Patienteninformationen werden von dem jeweiligen Gerät den vor Ort befindlichen Rettungskräften angezeigt und über eine Funkverbindung zu einer Einsatzzentrale übertragen.In order to identify the injured in a major loss event, so-called injury tag cards are used. Information on the patient's state of health is noted on the injury tags. Normal injury attachment cards are available in printed form. However, digital injury tag cards are also known. These are electronic devices that are attached to patients. The relevant patient information is displayed by the respective device to the rescue workers on site and transmitted to an operations center via a radio link.

Bei Großschadensereignissen werden zudem Drohnen verwendet, mit denen sich die Einsatzleitung einen Überblick über das Geschehen verschaffen kann. Mittels der Drohnen lässt sich feststellen, an welchen Orten Patienten mit welchen Verletzungen zu versorgen sind, und wo sich die Einsatzkräfte befinden.In the case of major incidents, drones are also used, with which the operations center can get an overview of what is happening. The drones can be used to determine where patients with which injuries are to be treated and where the emergency services are located.

Der Erfindung liegt die Aufgabe zugrunde, die Versorgung von Verletzten bei Großschadensereignissen zu verbessern. Diese Aufgabe wird gelöst durch eine Auswerteinheit nach Anspruch 1 und ein Verfahren nach Anspruch 10. Bevorzugte Weiterbildungen sind in den Unteransprüchen enthalten und ergeben sich aus nachfolgender Beschreibung.The object of the invention is to improve the care of injured persons in the event of major damage. This object is achieved by an evaluation unit according to claim 1 and a method according to claim 10. Preferred developments are contained in the dependent claims and result from the following description.

Die erfindungsgemäße Auswerteinheit umfasst mindestens eine Schnittstelle zum Empfangen mindestens eines Bildes einer Kamera. Bei der Kamera handelt es sich vorzugsweise um eine optische Kamera, das heißt eine Foto- oder Videokamera.The evaluation unit according to the invention comprises at least one interface for receiving at least one image from a camera. The camera is preferably an optical camera, ie a photo or video camera.

Mindestens ein von der Kamera aufgenommenes Bild wird über eine Signalleitung zu der Schnittstelle der Auswerteinheit übertragen. Die Signalleitung ist vorzugsweise als Funkverbindung ausgestaltet. Dies erlaubt es, die Kamera an einem Luftfahrzeug anzubringen. Insbesondere kann die Kamera an einem unbemannten Luftfahrzeug, das heißt an einer Drohne angebracht werden. Auch ist es möglich, auf eine stationäre Kamera zurückzugreifen und mindestens ein Bild dieser Kamera zu der Schnittstelle der Auswerteinheit zu übertragen.At least one image recorded by the camera is transmitted to the interface of the evaluation unit via a signal line. The signal line is preferably designed as a radio link. This allows the camera to be mounted on an aircraft. In particular, the camera can be attached to an unmanned aircraft, ie to a drone. It is also possible to use a stationary camera and to transmit at least one image from this camera to the interface of the evaluation unit.

Die erfindungsgemäße Auswerteinheit dient dazu, Patienten, das heißt Verletzte und/oder Erkrankte, bei einem Großschadensereignis zu erkennen. Entsprechend ist die Auswerteinheit ausgebildet, einen oder mehrere Patienten, die in dem mindestens einen Bild enthalten sind, zu erkennen. Dies bedeutet, dass die Auswerteinheit diejenigen Bereiche des mindestens einen Bildes, in denen die Patienten enthalten sind, das heißt bei denen es sich um eine Abbildung jeweils eines Patienten handelt, von den übrigen Bereichen des Bildes abzugrenzen. Die Auswerteinheit ist also ausgebildet, die Abbilder der ein oder mehreren Patienten in dem mindestens einen Bild und die übrigen Bereiche des mindestens einen Bildes, die kein Abbild der ein oder mehreren Patienten enthalten, zu identifizieren.The evaluation unit according to the invention is used to identify patients, that is to say injured and/or sick people, in the event of a major accident. Accordingly, the evaluation unit is designed to identify one or more patients contained in the at least one image. This means that the evaluation unit delimits those areas of the at least one image in which the patients are contained, ie which represent an image of a patient, from the other areas of the image. The evaluation unit is therefore designed to identify the images of the one or more patients in the at least one image and the remaining areas of the at least one image that do not contain an image of the one or more patients.

Verfahren zum Erkennen von Personen in Kamerabildern sind aus dem Stand der Technik bekannt. Derartige Verfahren eignen sich zum Erkennen der ein oder mehreren Patienten in dem mindestens einen Bild. Vorzugsweise implementiert die Auswerteinheit ein solches Verfahren.Methods for recognizing people in camera images are known from the prior art. Such methods are suitable for recognizing the one or more patients in the at least one image. The evaluation unit preferably implements such a method.

Die Patienten zeichnen sich dadurch aus, dass sie verletzt und/oder erkrankt sind. Die Auswerteinheit ist erfindungsgemäß ausgebildet, den Patienten Informationen zu der jeweiligen Verletzung und/oder Erkrankung zuzuordnen. Jeweils einem der ein oder mehreren Patienten werden also durch die Auswerteinheit Informationen zu der Verletzung und/oder Erkrankung des jeweiligen Patienten zugeordnet. Bei den Informationen kann es sich um konkrete Angaben zu der jeweiligen Verletzung und/oder Erkrankung handeln oder um allgemeine Informationen zur körperlichen Verfassung und zum Zustand des Patienten, wie sie etwa auf herkömmlichen Verletztenanhängekarten zu finden sind.Patients are characterized by being injured and/or ill. According to the invention, the evaluation unit is designed to assign information about the respective injury and/or illness to the patient. Information about the injury and/or illness of the respective patient is thus assigned to one of the one or more patients by the evaluation unit. The information can be specific to the injury and/or illness, or general information about the physical condition and condition of the patient, such as that found on traditional injury tags.

Bevorzugt ist die Auswerteinheit weitergebildet, eine oder mehrere Gesten von mindestens einer in dem mindestens einen Bild enthaltenen Person zu erkennen. Bei der mindestens einen Person handelt es sich etwa um eine Rettungskraft, medizinisches Personal oder einen Ersthelfer. Die Person befindet sich vor Ort, begutachtet die Patienten, diagnostiziert - im Rahmen ihrer Möglichkeiten - die jeweilige Verletzung und/oder Erkrankung und teilt der Auswerteinheit das Ergebnis durch entsprechende Gesten mit. Den Gesten sind also Informationen zu den Verletzungen und/oder Erkrankungen zugeordnet. Diese Informationen werden von der Auswerteinheit extrahiert und dem jeweiligen Patienten zugeordnet.The evaluation unit is preferably further developed to recognize one or more gestures of at least one person contained in the at least one image. The at least one person is, for example, a rescue worker, medical personnel or a first responder. The person is on site, assesses the patient, diagnoses - as far as possible - the respective injury and/or illness and communicates the result to the evaluation unit with appropriate gestures. Information about the injuries and/or illnesses is therefore assigned to the gestures. This information is extracted by the evaluation unit and assigned to the respective patient.

Die Zuordnung erfolgt bevorzugt über eine räumliche Koinzidenz der gestikulierenden Person und dem Patienten. Die von der gestikulierenden Person mitgeteilten Informationen zu Verletzungen und/oder Erkrankungen werden also bevorzugt demjenigen Patienten zugeordnet, welcher der gestikulierenden Person räumlich am nächsten ist. Die räumliche Nähe, das heißt ein räumlicher Abstand zwischen der gestikulierenden Person und dem in dem mindestens einen Bild enthaltenen Patienten wird zu diesem Zweck bevorzugt von der Auswerteinheit ermittelt und ausgewertet.The assignment preferably takes place via a spatial coincidence of the gesticulating person and the patient. The information about injuries and/or illnesses communicated by the gesticulating person is therefore preferably assigned to that patient who is spatially closest to the gesticulating person. The spatial proximity, ie a spatial distance between the gesticulating person and the patient contained in the at least one image is preferably determined and evaluated by the evaluation unit for this purpose.

Die Informationen zu den Verletzungen und/oder Erkrankungen können nicht nur per Gesten, sondern auch - alternativ oder ergänzend - per Sprache mitgeteilt werden. Um die Sprache zu erfassen, weist die Auswerteinheit in einer bevorzugten Weiterbildung mindestens eine Schnittstelle zum Empfangen eines Signals eines Mikrofons auf. Das Mikrofon befindet sich bevorzugt in unmittelbarer Nähe zu der Kamera. Insbesondere kann das Mikrofon zusammen mit der Kamera an einem bevorzugt unbemannten Luftfahrzeug angebracht sein.The information about the injuries and/or illnesses can be communicated not only by gestures, but also - alternatively or additionally - by speech. In order to record the speech, in a preferred development the evaluation unit has at least one interface for receiving a signal from a microphone. The microphone is preferably in close proximity to the camera. In particular, the microphone can be attached together with the camera to a preferably unmanned aircraft.

Weiterbildungsgemäß erkennt die Auswerteinheit Sprache, die in dem über die weiterbildungsgemäße Schnittstelle empfangenen Signal enthalten ist. Geeignete Spracherkennungsalgorithmen sind aus dem Stand der Technik bekannt. Bevorzugt implementiert die Auswerteinheit einen derartigen Algorithmus.According to the development, the evaluation unit recognizes speech contained in the signal received via the interface according to the development. Suitable speech recognition algorithms are known from the prior art. The evaluation unit preferably implements such an algorithm.

Die Auswerteinheit ordnet weiterbildungsgemäß die auf sprachlichem Wege mitgeteilten Informationen zu den Verletzungen und/oder Erkrankungen dem jeweiligen Patienten zu. Auch hier erfolgt die Zuordnung bevorzug über räumliche Koinzidenz, d.h. anhand der räumlichen Nähe zwischen der sprechenden Person und dem Patienten.In accordance with the training, the evaluation unit assigns the information about the injuries and/or illnesses communicated verbally to the respective patient. Here, too, the assignment is preferably based on spatial coincidence, i.e. on the basis of the spatial proximity between the person speaking and the patient.

In einer darüber hinaus bevorzugten Weiterbildung werden die Informationen über die Verletzungen und/oder Erkrankungen der Patienten über ein Eingabegerät, beispielsweise ein Mobiltelefon, der Auswerteinheit mitgeteilt. Entsprechend ist die Auswerteinheit bevorzugt mit mindestens einer Schnittstelle zum Empfangen eines Signals eines solchen Eingabegeräts weitergebildet. Informationen zu den Verletzungen und/oder Erkrankungen, die in dem Signal enthalten sind, ordnet die Auswerteinheit weiterbildungsgemäß dem jeweiligen Patienten zu. Die Information wird bevorzugt dem Patienten zugeordnet, der dem Eingabegerät bzw. einer Person, die das Eingabegerät bedient, räumlich am nächsten ist.In a further preferred development, the information about the injuries and/or illnesses of the patient is communicated to the evaluation unit via an input device, for example a mobile phone. Accordingly, the evaluation unit is preferably further developed with at least one interface for receiving a signal from such an input device. The evaluation unit assigns information on the injuries and/or illnesses contained in the signal to the respective patient in accordance with the training. The information is preferably assigned to the patient who is spatially closest to the input device or to a person who operates the input device.

Bevorzugt ist die Auswerteinheit darüber hinaus mit mindestens einer Schnittstelle zum Empfangen eines Signals, in dem Positionsinformationen enthalten sind, weitergebildet. Die Positionsinformationen kennzeichnen die räumliche Position der Kamera, des Mikrofons und/oder des Eingabegeräts. Anhand dieser Positionsinformationen lassen sich die räumlichen Positionen der Patienten bestimmen. Entsprechende bildbasierte Verfahren sind aus dem Stand der Technik bekannt. Die Auswerteinheit implementiert vorzugsweise ein derartiges Verfahren. Weiterbildungsgemäß ordnet die Auswerteinheit die Positionsinformationen dem jeweiligen Patienten zu. Jedem der Patienten wird von der Auswerteinheit also seine zuvor bestimmte räumliche Position zugeordnet.In addition, the evaluation unit is preferably further developed with at least one interface for receiving a signal containing position information. The position information characterizes the spatial position of the camera, the microphone and/or the input device. The spatial positions of the patients can be determined on the basis of this position information. Corresponding image-based methods are known from the prior art. The evaluation unit preferably implements such a method. According to a development, the evaluation unit allocates the position information to the respective patient. The evaluation unit therefore assigns each of the patients their previously determined spatial position.

Bevorzugt ist die Auswerteinheit mit mehreren Schnittstellen zum Empfangen jeweils mindestens eines Bildes einer Kamera weitergebildet. Die Auswerteinheit fusioniert die Bilder, das heißt sie berechnet ein fusioniertes Bild. In dem fusionierten Bild sind Bildinformationen der von der Auswerteinheit über die Schnittstellen empfangenen Bilder enthalten. Deren Position relativ zueinander in dem fusionierten Bild entspricht dabei der Position der Kameras relativ zueinander.The evaluation unit is preferably further developed with a number of interfaces for receiving at least one image from a camera. The evaluation unit merges the images, ie it calculates a merged image. The merged image contains image information of the images received by the evaluation unit via the interfaces. Their position relative to one another in the merged image corresponds to the position of the cameras relative to one another.

Geeignete Verfahren zum Fusionieren von Bildern sind aus dem Stand der Technik bekannt. Bevorzugt implementiert die Auswerteinheit ein solches Verfahren.Suitable methods for fusing images are known from the prior art. The evaluation unit preferably implements such a method.

Durch die Fusion mehrerer Datenquellen kann die Aussagefähigkeit deutlich erhöht werden. Weiterbildungsgemäß wird daher das fusionierte Bild zur Erkennung der Patienten herangezogen. Die Auswerteinheit ist also weitergebildet, in dem fusionierten Bild enthaltene ein oder mehrere Patienten zu erkennen.By merging several data sources, the informative value can be significantly increased. According to the development, the merged image is therefore used to identify the patient. The evaluation unit is therefore further developed to recognize one or more patients contained in the merged image.

Bevorzugt ist die Anordnung als Teil einer Auswerteinheit weitergebildet, die darüber hinaus das oben beschriebene Luftfahrzeug umfasst, das die oben beschriebene Kamera aufweist. Die Anordnung umfasst darüber hinaus Übertragungsmittel zum Übertragen des oben beschriebenen mindestens einen Bildes der Kamera zu der entsprechenden Schnittstelle der Auswerteinheit.The arrangement is preferably developed as part of an evaluation unit which also includes the aircraft described above, which has the camera described above. The arrangement also includes transmission means for transmitting the at least one image of the camera described above to the corresponding interface of the evaluation unit.

Das Luftfahrzeug ist bevorzugt mit dem oben beschriebenen Mikrofon weitergebildet. Darüber hinaus sind Übertragungsmittel zum Übertragen des oben beschriebenen Signals des Mikrofons zu der entsprechenden Schnittstelle der Auswerteinheit vorgesehen.The aircraft is preferably further developed with the microphone described above. In addition, transmission means are provided for transmitting the microphone signal described above to the corresponding interface of the evaluation unit.

Weiterhin bevorzugt ist das Luftfahrzeug mit mindestens einem Mittel zur Lokalisierung weitergebildet. Damit lässt sich die räumliche Position des Luftfahrzeugs bestimmen. Bei dem mindestens einen Mittel handelt es sich bevorzugt um ein Navigationssatellitensystem, etwa GPS.Furthermore, the aircraft is preferably further developed with at least one localization means. This allows the spatial position of the aircraft to be determined. The at least one means is preferably a navigation satellite system, such as GPS.

Die Anordnung ist bevorzugt zudem mit Übertragungsmitteln zum Übertragen eines Signals, in dem Informationen zu der mit dem mindestens einen Mittel bestimmten räumlichen Position des Luftfahrzeugs enthalten sind, weitergebildet. Das Signal wird zu einer entsprechenden Schnittstelle der Auswerteinheit übertragen.The arrangement is preferably further developed with transmission means for transmitting a signal containing information on the spatial position of the aircraft determined with the at least one means. The signal is transmitted to a corresponding interface of the evaluation unit.

Bei dem oben beschriebenen, durch die erfindungsgemäße Auswerteinheit ausgeführten Verfahren handelt es sich um ein erfindungsgemäßes computerimplementiertes Verfahren. Dieses ist zur Ausführung bei Großschadensereignissen vorgesehen und umfasst die Verfahrensschritte

  • - Erkennen eines oder mehrerer in mindestens einem Bild enthaltener Patienten; und
  • - Zuordnen von Informationen über die jeweilige Verletzung und/oder Erkrankung zu dem Patienten.
In the case of the above-described, executed by the evaluation unit according to the invention The method is a computer-implemented method according to the invention. This is intended to be carried out in the event of major damage events and includes the procedural steps
  • - identifying one or more patients included in at least one image; and
  • - Associating information about the respective injury and/or disease with the patient.

Claims (10)

Auswerteinheit mit mindestens einer Schnittstelle zum Empfangen mindestens eines Bildes einer Kamera; wobei die Auswerteinheit ausgebildet ist, einen oder mehrere Patienten in dem mindestens einen Bild zu erkennen; dadurch gekennzeichnet, dass die Auswerteinheit ausgebildet ist, den Patienten Informationen zu der jeweiligen Verletzung und/oder Erkrankung zuzuordnen.Evaluation unit with at least one interface for receiving at least one image from a camera; wherein the evaluation unit is designed to recognize one or more patients in the at least one image; characterized in that the evaluation unit is designed to assign information about the respective injury and/or illness to the patient. Auswerteinheit nach Anspruch 1; dadurch gekennzeichnet, dass die Auswerteinheit ausgebildet ist, eine oder mehrere Gesten von mindestens einer in dem mindestens einen Bild enthaltenen Person zu erkennen, denen Informationen zu Verletzungen und/oder Erkrankungen zugeordnet sind, und die Informationen den Verletzten und/oder Erkrankten zuzuordnen.evaluation unit claim 1 ; characterized in that the evaluation unit is designed to recognize one or more gestures of at least one person contained in the at least one image, to which information on injuries and/or illnesses is assigned, and to assign the information to the injured and/or ill person. Auswerteinheit nach einem der vorhergehenden Ansprüche; gekennzeichnet durch mindestens eine Schnittstelle zum Empfangen eines Signals eines Mikrofons; wobei die Auswerteinheit ausgebildet ist, in dem Signal enthaltene Sprache mit Informationen zu Verletzungen und/oder Erkrankungen zu erkennen, und die Informationen den Patienten zuzuordnen.Evaluation unit according to one of the preceding claims; characterized by at least one interface for receiving a signal from a microphone; wherein the evaluation unit is designed to recognize speech contained in the signal with information on injuries and/or illnesses, and to assign the information to the patient. Auswerteinheit nach einem der vorhergehenden Ansprüche; gekennzeichnet durch mindestens eine Schnittstelle zum Empfangen eines Signals eines Eingabegeräts; wobei in dem Signal Informationen zu Verletzungen und/oder Erkrankungen enthalten sind; und wobei die Auswerteinheit ausgebildet ist, die Informationen den Patienten zuzuordnen.Evaluation unit according to one of the preceding claims; characterized by at least one interface for receiving a signal from an input device; information about injuries and/or illnesses is included in the signal; and wherein the evaluation unit is designed to assign the information to the patient. Auswerteinheit nach einem der vorhergehenden Ansprüche; gekennzeichnet, durch mindestens eine Schnittstelle zum Empfangen eines Signals, in dem Positionsinformationen enthalten sind; wobei die Auswerteinheit ausgebildet ist, anhand der Positionsinformation die Positionen der Patienten zu bestimmen und dem jeweiligen Patienten zuzuordnen.Evaluation unit according to one of the preceding claims; marked by at least one interface for receiving a signal containing position information; wherein the evaluation unit is designed to use the position information to determine the positions of the patients and to assign them to the respective patient. Auswerteinheit nach einem der vorhergehenden Ansprüche; gekennzeichnet durch mehrere Schnittstellen zum Empfangen von Bildern mehrerer Kameras; wobei die Auswerteinheit ausgebildet ist, die Bilder zu fusionieren und ein oder mehrere Verletzte und/oder Erkrankte in einem fusionierten Bild zu erkennen.Evaluation unit according to one of the preceding claims; characterized by multiple interfaces for receiving images from multiple cameras; wherein the evaluation unit is designed to merge the images and to recognize one or more injured and/or sick people in a merged image. Anordnung mit einer Auswerteinheit nach einem der vorhergehenden Ansprüche; gekennzeichnet durch ein Luftfahrzeug mit mindestens einer Kamera und durch Übertragungsmittel zum Übertragen mindestens eines Bilds der Kamera zu der Schnittstelle der Auswerteinheit.Arrangement with an evaluation unit according to one of the preceding claims; characterized by an aircraft with at least one camera and by transmission means for transmitting at least one image from the camera to the interface of the evaluation unit. Anordnung nach dem vorhergehenden Anspruch; dadurch gekennzeichnet, dass das Luftfahrzeug mindestens ein Mikrofon aufweist; wobei die Anordnung Übertragungsmittel zum Übertragen eines Signals des Mikrofons zu einer Schnittstelle der Auswerteinheit umfasst.Arrangement according to the preceding claim; characterized in that the aircraft has at least one microphone; wherein the arrangement comprises transmission means for transmitting a signal from the microphone to an interface of the evaluation unit. Anordnung nach einem der vorhergehenden zwei Ansprüche; dadurch gekennzeichnet, dass das Luftfahrzeug mindestens ein Mittel zur Lokalisierung aufweist; wobei die Anordnung Übertragungsmittel zum Übertragen eines Signals, in dem Positionsinformationen enthalten sind, von dem Mittel zu einer Schnittstelle der Auswerteinheit umfasst.Arrangement according to one of the preceding two claims; characterized in that the aircraft has at least one localization means; wherein the arrangement comprises transmission means for transmitting a signal containing position information from the means to an interface of the evaluation unit. Computerimplementiertes Verfahren zur Anwendung bei Großschadensereignissen mit den Schritten - Erkennen eines oder mehrere in mindestens einem Bild enthaltener Patienten; und - Zuordnen von Informationen über die jeweilige Verletzung und/oder Erkrankung zu den Patienten.Computer-implemented procedure for use in major loss events with the steps - identifying one or more patients included in at least one image; and - Matching information about the respective injury and/or disease to the patient.
DE102020210933.8A 2020-08-31 2020-08-31 Camera-based registration of patients in the event of a major disaster Pending DE102020210933A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102020210933.8A DE102020210933A1 (en) 2020-08-31 2020-08-31 Camera-based registration of patients in the event of a major disaster
EP21755699.2A EP4205137A1 (en) 2020-08-31 2021-07-26 Camera-based registration of patients in an event causing great damage
PCT/EP2021/070774 WO2022042968A1 (en) 2020-08-31 2021-07-26 Camera-based registration of patients in an event causing great damage

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020210933.8A DE102020210933A1 (en) 2020-08-31 2020-08-31 Camera-based registration of patients in the event of a major disaster

Publications (1)

Publication Number Publication Date
DE102020210933A1 true DE102020210933A1 (en) 2022-03-03

Family

ID=77367397

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020210933.8A Pending DE102020210933A1 (en) 2020-08-31 2020-08-31 Camera-based registration of patients in the event of a major disaster

Country Status (3)

Country Link
EP (1) EP4205137A1 (en)
DE (1) DE102020210933A1 (en)
WO (1) WO2022042968A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017223531A1 (en) 2016-06-24 2017-12-28 Culver Matthew Systems and methods for unmanned aerial vehicles
JP2019192029A (en) 2018-04-26 2019-10-31 株式会社イームズラボ Complementing device, complementing method and complementing program for electronic triage tag
CN112478160A (en) 2020-12-03 2021-03-12 桂林航天工业学院 Rescue unmanned aerial vehicle

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2474007A (en) * 2009-08-27 2011-04-06 Simon R Daniel Communication in and monitoring of a disaster area, optionally including a disaster medical pack
US8948935B1 (en) * 2013-01-02 2015-02-03 Google Inc. Providing a medical support device via an unmanned aerial vehicle
US10579863B2 (en) * 2015-12-16 2020-03-03 Global Tel*Link Corporation Unmanned aerial vehicle with biometric verification
JP6935988B2 (en) * 2016-05-30 2021-09-15 テルモ株式会社 Unmanned aerial vehicle, rescue system
US11075992B2 (en) * 2016-07-28 2021-07-27 International Business Machines Corporation System and method for providing medical attention

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017223531A1 (en) 2016-06-24 2017-12-28 Culver Matthew Systems and methods for unmanned aerial vehicles
JP2019192029A (en) 2018-04-26 2019-10-31 株式会社イームズラボ Complementing device, complementing method and complementing program for electronic triage tag
CN112478160A (en) 2020-12-03 2021-03-12 桂林航天工业学院 Rescue unmanned aerial vehicle

Also Published As

Publication number Publication date
EP4205137A1 (en) 2023-07-05
WO2022042968A1 (en) 2022-03-03

Similar Documents

Publication Publication Date Title
EP3682367B1 (en) Gesture control for communication with an autonomous vehicle on the basis of a simple 2d camera
DE102014225592A1 (en) Person identification for multi-level person checks
DE102007050024A1 (en) Person control system and method for performing a person control
DE102019204954A1 (en) Autonomous aircraft to rescue the injured
DE102016200706A1 (en) Pedestrian navigation in a parking garage
DE102015104437B4 (en) Mirror with display
DE102018118421A1 (en) SYSTEMS AND METHOD FOR DETECTING ALARMING MOVEMENT TRAINS OF OBJECTS
WO2018153563A1 (en) Artificial neural network and unmanned aerial vehicle for recognizing a road accident
DE102009035659B4 (en) Procedure for the telemedical assistance of end users
DE102020210933A1 (en) Camera-based registration of patients in the event of a major disaster
DE102015214542A1 (en) First aid kit
DE102012216208B4 (en) Method for transmitting an emergency call data record from a control unit of a motor vehicle
DE102014106103A1 (en) System and method for involving at least one expert in an activity to be performed by a non-expert
DE102017006785A1 (en) Method for targeted detection of persons
DE102018222664B3 (en) Autonomous taxi and method for operating an autonomous taxi
EP3611711A1 (en) Method for classifying data relating to a parking space for a motor vehicle
DE102020004513A1 (en) Method for identifying specific behaviors of drivers of vehicles on the basis of camera images
WO2019042689A1 (en) Person recognition in areas with limited data transmission and data processing
WO2018185237A1 (en) Releasing medical modules of a medical equipment
DE102009035658A1 (en) Method for tele-medical assistance of end users over central point e.g. service center, involves marking end user data with marking during and/or after recording of data, and registering data provided with marking in central point
DE102021207951A1 (en) Procedures for situation reconnaissance and/or mission support
WO2023036535A1 (en) Triage device with card reader
DE102019210513A1 (en) Procedure for accident assistance, unmanned aircraft and motor vehicle
DE3230567A1 (en) Complex information system for increasing the speed of urgent surgical interventions and the effectiveness of medical consulting time
DE10254938A1 (en) Operating telematic system in health service involves trainer suggesting stored data record for training depending on defined aim, storing suggested record in training database with reference results

Legal Events

Date Code Title Description
R163 Identified publications notified