DE102019125049A1 - Sensoreinheit und verfahren zur auswertung der körperhaltung von personen - Google Patents

Sensoreinheit und verfahren zur auswertung der körperhaltung von personen Download PDF

Info

Publication number
DE102019125049A1
DE102019125049A1 DE102019125049.8A DE102019125049A DE102019125049A1 DE 102019125049 A1 DE102019125049 A1 DE 102019125049A1 DE 102019125049 A DE102019125049 A DE 102019125049A DE 102019125049 A1 DE102019125049 A1 DE 102019125049A1
Authority
DE
Germany
Prior art keywords
functional unit
unit
dimensional
sensor unit
camera units
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102019125049.8A
Other languages
English (en)
Inventor
Michel Findeisen
Norbert Link
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3dvisionlabs GmbH
Inferics GmbH
Original Assignee
3dvisionlabs GmbH
Inferics GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 3dvisionlabs GmbH, Inferics GmbH filed Critical 3dvisionlabs GmbH
Priority to DE102019125049.8A priority Critical patent/DE102019125049A1/de
Publication of DE102019125049A1 publication Critical patent/DE102019125049A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)

Abstract

Bekannte Sensoreinheiten erfordern es, dass ein zu betrachtender Raumbereich von mehreren Seiten mit Kameras überwacht wird, um eine möglichst vollständige Abdeckung zu erhalten. Darüber hinaus sollen diese Sensoreinheiten eine zuverlässige Feststellung von Alarmsituationen ermöglichen. Dies wird bislang nur unzulänglich gelöst.Die Erfindung sieht daher vor, eine Mehrzahl von synchron arbeitenden Kameraeinheiten mit Fischaugenobjektiven einzusetzen, deren Bilder als stereoskopische Bilder verwendet werden, um eine Situation zu überwachen. Aus den stereoskopischen Bildern werden Lagen und Posen von anwesenden Personen ermittelt und aus diesen Alarmzustände abgeleitet. Hierdurch kann ein zuverlässiges Verfahren in einer einzigen, einen zu betrachtenden Raum allein abdeckenden, Sensoreinheit verwirklicht werden.

Description

  • Die vorliegende Erfindung betrifft eine Sensoreinheit sowie ein Verfahren zur Auswertung der Körperhaltung von Personen innerhalb eines von Kameraeinheiten der Sensoreinheit betrachteten Raums.
  • Derartige Verfahren sind bereits grundsätzlich bekannt. Insbesondere, aber nicht ausschließlich, finden diese Anwendung im Bereich der Sicherheit von älteren Menschen, bei denen derartige Sensoreinheiten Stürze, gefährliche Fehlhaltungen oder Unbeweglichkeit erkennen und diesen Zustand an einen externen Dienst signalisieren sollen, um bedarfsweise Hilfe herbeizurufen.
  • So ist bereits auf der Seite https://grannyguard.de/ ein System beschrieben, welches eine bildgebende Sensorik für thermische Strahlung aufweist. Mithilfe von Wärmebildkameras werden dort Bildaufzeichnungen erstellt und computergestützt ausgewertet, um am Boden liegende Personen zu erkennen. Allerdings ist die Installation dort stets im Bereich eines Lichtschalters als dessen Ersatzgerät vorgesehen, so dass eine Raumabdeckung nur unvollständig möglich ist.
  • Des Weiteren ist ein thermischer Kontrast des Körpers zur Umgebung erforderlich, der bei Bedeckung mit Bekleidung häufig nicht gegeben ist, da deren Oberfläche die Umgebungstemperatur annimmt. Durch die perspektivische 2D-Abbildung mit geringer Winkelauflösung sind keine detaillierteren Aussagen über die Körperhaltung aus den Daten zu gewinnen. Zahlreiche Notsituationsbilder können hierdurch somit nicht abgebildet werden, vielmehr sind nur solche Probleme erkennbar, die in einer durch die Thermosensoren erkennbar problematischen Lage resultieren.
  • Unter http://falldetektor.de wird ein Gerät beschrieben, bei dem es sich im Wesentlichen um ein stark vereinfachtes Mobiltelefon handelt, das bei einer Betätigung oder bei einem Aufprall eine Alarmsignalisierung aussendet. Allerdings kann ein solches Gerät ohne Weiteres Fehlalarme auslösen, wenn es herabfällt und nicht sofort wieder gefunden werden kann. Auch hier wird umgekehrt nur dann ein Alarm ausgelöst, wenn ein Problem in einem Sturz resultiert. Bewusstlosigkeit in einer stabilen Sitzposition hingegen ist nicht detektierbar.
  • Unter https-//www.easierlife.de ist ein System beschrieben, das aufgrund der mittels eines einfachen Bewegungsmelders detektierten Bewegungen Rückschlüsse auf Probleme zieht. Über Türkontakte in Verbindung mit dem Bewegungsmelder wird die Anwesenheit festgestellt, es werden Abwesenheits- und Schlafenszeiten mit üblichen Werten verglichen um Abweichungen von der Norm festzustellen. Eine Alarmierung erfolgt bei zu langer Inaktivität und Abwesenheit. Eine Notsituation hingegen kann nicht detektiert werden. Bleibt die Person hilflos, aber noch beweglich am Boden liegen, so löst das System keinen Alarm aus.
  • Bei dem unter https://cogvis.at/fearless.html beschriebenen Produkt handelt es sich um eine passive Stereo-Raumerfassung, welche die Bewegungen einer Person auswertet und im Fall von Stürzen alarmieren kann. Auch kann diese bei Aufstehbewegungen im Dunkeln das Licht einschalten und so Stürze verhindern helfen. Auch hier werden jedoch Notfälle abseits von Stürzen nicht mit abgedeckt. Der Beobachtungswinkel ist ferner bauartbedingt stark eingeschränkt.
  • Weiter ist unter https://future-shape.com/ ein Produkt beschrieben, das mithilfe von Sensormatten, die auf dem Boden verlegt werden, insbesondere Stürze erkennen hilft. Die unter dem Bodenbelag verlegten Drucksensoren und kapazitiven Sensoren erfassen aber nur eine Annäherung eines Körpers, unabhängig davon, ob dies gewollt oder ungewollt, oder gar ob dies eventuell ein Haustier ist.
  • Die vorstehend erläuterten Ansätze sind jedoch allesamt nicht in der Lage, einen ganzen Raum mittels eines einzigen Sensors zu erfassen. Hierbei wäre es bereits ausreichend, einen Halbraum zu erfassen, wenn der Sensor an einer Fläche, Wand oder Decke, montiert ist oder so aufgestellt ist, dass eine Person sich nicht mehr hinter dem Sensor aufhalten kann.
  • Ausgehend von diesem Problem liegt der vorliegenden Erfindung die Aufgabe zu Grunde, eine Sensoreinheit sowie ein Verfahren zur Auswertung der Körperhaltung von Personen in einem betrachteten Raumbereich zu schaffen, welche eine Auswertung in einem ganzen Raum, mithin einem Halbraum bei Flächenmontage, ermöglicht und hierbei jedwede nach außen eindeutig wahrnehmbare Alarmsituation erkennen kann.
  • Gelöst wird diese Aufgabe durch eine Sensoreinheit zur Auswertung der Körperhaltung von Personen in einem betrachteten Raumbereich gemäß den Merkmalen des Anspruchs 1, sowie durch ein solches Verfahren gemäß den Merkmalen des nebengeordneten Anspruchs 8. Weitere sinnvolle Ausgestaltungen sowohl der Sensoreinheit als auch des Verfahrens können den sich jeweils an die unabhängigen Ansprüche anschließenden abhängigen Ansprüchen entnommen werden.
  • Erfindungsgemäß ist vorgesehen, dass eine Sensoreinheit zur Auswertung der Körperhaltung von Personen alleine einen ganzen Raum, allgemein gesprochen einen Raumbereich überwachen soll. Hierfür eignet sich besonders ein Kamerasystem, dessen Kameras mit so genannten Fischaugenobjektiven ausgestattet sind. Diese Fischaugenobjektive können mit einer geeigneten Verzeichnung einen Halbraum, gegebenenfalls auch darüber hinaus, komplett abbilden. Die Abbildung ist tonnenförmig und sorgt für eine realitätsgetreue Abbildung des Raumes und ermöglicht es, aufgrund der praktisch rundum freien Sicht bei einer geeigneten Aufstellung, etwa einem Abhängen von einer Zimmerdecke bei gleichzeitig unverstelltem Blick in alle Richtungen, den gesamten Raum zu überwachen.
  • Hierbei wird auch eine dreidimensionale Auswertung der von dem Kamerasystem erfassten Bilder möglich, indem mehrere einzelne, koplanar, also in einer gemeinsamen Ebene, angeordnete Kameraeinheiten mit Fischaugenobjektiven eingesetzt werden, welche Bilder synchron aufgenommen, zu Bildpaaren zusammengefügt und aufgrund der Parallaxen zwischen den Kameras als stereoskopische Bilder ausgewertet werden können. Es erfolgt mithilfe einer internen Steuereinheit eine Auswertung der synchronen Bilddatensätze und im Fall einer Feststellung einer Alarmsituation eine Signalisierung über eine der Sensoreinheit zugeordnete Kommunikationseinheit.
  • Eine solche Sensoreinheit kann mit einigem Vorteil genau drei äquidistant zueinander angeordnete Kameraeinheiten aufweisen, so dass jeweils zwei Kameraeinheiten gemeinsam ein stereoskopisches Bild erstellen können. Es ergeben sich aus drei Kameras drei stereoskopische Bilder, wobei wiederum der Einfachheit halber die Kameraeinheiten alle gleichweit voneinander entfernt angeordnet sind. Hierdurch ergeben sich die gleichen Parallaxen und damit die gleichen Auswertevorschriften für alle Bildpaare. Für die Anordnung der Kameraeinheiten bietet sich dadurch eine Positionierung an den drei Ecken eines gleichseitigen Dreiecks und für die Anzahl genau drei Kameraeinheiten an, welche jeweils wenigstens eine Wandung des Gehäuses in Richtung des betrachteten Raumbereichs durchgreifen oder auf deren Außenseite angeordnet sind.
  • Die Kameraeinheiten können hierbei Farbkameras sein, welche herkömmliche, wenngleich aufgrund der sphärischen Abbildungsgeometrie verzeichnete, Bilder aufnehmen. Mit einigem Vorteil handelt es sich aber um infrarot-empfindliche Kameras, da diese auch Reflexionen von Infrarotlicht aufzeichnen, welches ohne Störung von Menschen auch nachts durchgeführt werden kann. Hierzu können dem Gehäuse der Sensoreinheit neben den Kameraeinheiten auch Infrarotleuchtmittel, vorzugsweise Licht emittierende Dioden, kurz Infrarotleuchtdioden, zugeordnet sein, welche den Raum mit für den Menschen unsichtbarem Infrarotem Licht beleuchten. Hierdurch ist eine Überwachung tagsüber ebenso wie nachts ermöglicht. Insbesondere sind die Infrarotleuchtdioden derart über das Gehäuse der Sensoreinheit verteilt, dass der betrachtete Raumbereich möglichst vollständig und gleichmäßig ausgeleuchtet werden kann.
  • Die Fischaugenobjektive der Kameraeinheiten sollen idealerweise Öffnungswinkel von 180° aufweisen, um einen Innenraum vollständig als Halbraum abzubilden. Allerdings sind bereits Fischaugenobjektive mit noch weiteren Öffnungswinkeln bekannt, deren Verwendung jedoch lediglich den hinter der Kamera befindlichen Raum abdeckt, wie z.B. die Decke bei deckenmontierter Kamera, und somit keinen zusätzlichen Nutzen bringt.
  • Wird ein Alarmfall festgestellt, so wird von der Steuereinheit ein externer Dienst informiert, welche Personal, Angehörige oder Hilfskräfte alarmiert. Eine solche Alarmierung kann sowohl drahtgebunden als auch drahtlos erfolgen, wobei beliebige Kommunikationsverfahren vorgesehen sein können. So kann unter den drahtgebundenen Systemen mit besonderem Vorteil ein Lokales Netzwerk, oder auch ein Bussystem aufgebaut werden. Bei den drahtlosen Verfahren sind wiederum insbesondere Wireless Local Area Networks, Bluetooth, Zigbee, aber auch Mobilfunk-Verfahren einsetzbar.
  • Innerhalb des zu überwachenden Raumbereichs kann die Sensoreinheit sowohl an einer geeigneten Fläche, insbesondere an einer Wand oder der Zimmerdecke montiert werden, als auch auf einem Stativ, welches entweder eine gerade oder auch eine schräge Stellung in Bezug auf die Horizontale oder die Vertikale ermöglichen kann. Auch kann das Gehäuse direkt einen Standfuß, oder ganz einfach eine Standfläche aufweisen.
  • Im Hinblick auf die Funktionseinheiten können diese prinzipiell im Gehäuse angeordnet sein, insbesondere in der Steuereinheit integriert sein. Es kann auch als Steuereinheit ein herkömmlicher Rechner vorgesehen sein, welcher die Funktionseinheiten in Software abbildet. Ferner ist es möglich, dass mehrere Funktionseinheiten gemeinsam in einem Softwaremodul oder einer Hardwareeinheit abgebildet sind.
  • Technisch ist es auch möglich, die Funktionseinheiten außerhalb der Sensoreinheit anzuordnen. Beispielsweise können die Funktionseinheiten auch in dem externen Dienst vorgesehen sein, so dass mehrere Sensoreinheiten von einem externen Dienst und damit von einem Satz Funktionseinheiten versorgt werden können. Allerdings ist es bevorzugt, die Kamerabilder ausschließlich innerhalb der Sensoreinheit zu verarbeiten und diese nicht über die Kommunikationseinheit zu versenden. Es sollen vorzugsweise vielmehr nur die aufgrund der Auswertung der Bilddaten erstellten Alarmsignalisierungen nach außen kommuniziert werden, sowie eventuell weitere reine Kommunikationsdaten wie Statusmeldungen, Overhead und Vergleichbares, jedoch keinerlei Bilddaten.
  • In konkreter Ausgestaltung des Verfahrens werden zunächst synchrone Bilddatensätze erstellt, wobei eine gleichzeitige Ausleuchtung mithilfe von Infrarotleuchtdioden erfolgen kann, wenn die Kameras als infrarotempfindliche Kameras ausgestaltet sind. Die synchron aufgenommenen Einzelbilder werden nach dem Erstellen an die Funktionseinheiten weitergeleitet und von diesen ausgewertet. Hierbei spielt es prinzipiell keine Rolle, ob es sich um einzelne Bilder oder um synchrone Bildsequenzen handelt. Besonders bei Bildsequenzen können aufgrund der redundanten Informationen Hintergründe leicht von Personen unterschieden und falsch klassifizierte Körperteile korrekt erkannt werden. Jeweils zwei synchrone Bilder unterschiedlicher Kameraeinheiten werden dabei zu einem synchronen Bildpaar zusammengenommen und als stereoskopisches Bild ausgewertet. Eine Funktionseinheit wertet die Bildpaare aus und ermittelt daraus die Körperlage und dreidimensionale Pose einer im betrachteten Raum anwesenden Person und wertet diese schließlich aus.
  • Mit einigem Vorteil können mehrere Funktionseinheiten vorgesehen sein. Eine erste Funktionseinheit kann anhand der synchronen Bildpaare eine dreidimensionale Lage und/oder eine dreidimensionalen Pose in dem betrachteten Raumbereich anwesender Personen berechnen. Hierbei kann das System bereits auf eine kritische Situation aufmerksam werden, wenn die Lage der beobachteten Person etwa liegend an einer Stelle ist, die zum Liegen nicht vorgesehen ist, mithin auf dem Fußboden. Die Beweglichkeit der Person, welche sich aus der mehrfachen Bildauswertung nacheinander aufgezeichneter synchroner Bilddatensätze oder synchroner Bildsequenzen ergibt, ist hierbei ebenfalls ein starkes Indiz.
  • Dabei greift die erste Funktionseinheit für die Berechnung der dreidimensionalen Lage und/oder der dreidimensionalen Pose auf einen Datensatz mit den Freiheitsgraden des menschlichen Körpers zurück. Aus einer solchen Datenbank können etwa die Positionen der Gelenke und deren Freiheitsgrade in Bezug auf den restlichen Körper abgerufen werden. Bei der Auswertung durch die erste Funktionseinheit können diese Parameter besonders berücksichtigt werden. Ist insoweit beispielsweise ein Bein in eine Richtung verdreht, die nicht vorgesehen ist, so kann gegebenenfalls auf eine Verletzung zurückgeschlossen werden.
  • Für eine solche Berechnung der dreidimensionalen Lage des Körpers oder eine von diesem angenommene dreidimensionale Pose kann auf ein auf künstlicher Intelligenz basierendes Schätzverfahren zurückgegriffen werden, welches die erste Funktionseinheit auf eines der Einzelbilder einer als Referenzkamera betrachteten Kameraeinheit anwenden kann.
  • Eine zweite Funktionseinheit kann ferner die Ergebnisse der Berechnungen der ersten Funktionseinheit aufgreifen und diese im betrachteten Raumbereich mit Bezug zu einem Kamerakoordinatensystem oder einem äußeren Koordinatensystem, vorzugsweise in metrischen Entfernungsmaßen, lokalisieren. Dem im Raum hinsichtlich seiner Lage eingeschätzten Körper wird also zusätzlich eine Raumposition zugeordnet. Hierbei stellt das Kamerakoordinatensystem eine rein auf die Kameraanordnung ausgerichtete Positionierung dar, während ein äußeres Koordinatensystem beispielsweise an dem Raum orientiert sein könnte und durch Transformation aus dem Kamerakoordinatensystem berechnet werden kann.
  • Darüber hinaus kann die zweite Funktionseinheit in diesem Zusammenhang die dreidimensionalen Lagen beziehungsweise die dreidimensionalen Posen aller im betrachteten Raumbereich anwesenden Personen über die Zeit verfolgen. Dies kann über mehrere synchrone Bilddatensätze oder über eine oder mehrere synchrone Bildsequenzen erreicht werden. Fehlmessungen und/oder fehlerbehaftete Schätzungen können dabei erkannt und korrigiert werden, wozu vorzugsweise ein Tracking-Filter, insbesondere ein Kalman-Filter eingesetzt werden kann. Es kann hierbei vermieden werden, den Körper einer in dem betrachteten Raum anwesenden Person falsch zu interpretieren, also etwa bei einer gekrümmt liegenden Person einen Arm mit einem Bein zu verwechseln.
  • Eine dritte Funktionseinheit wiederum greift erneut auf die ursprünglichen Bilddaten der Kameraeinheiten zurück und erstellt aus den synchronen Bildpaaren mittels eines stereoskopischen Verfahrens eine dichte Entfernungskarte, also eine Bildwiedergabe, bei der jeder Pixel mit einer Entfernung zur Kamera versehen wird. Dies stellt letzthin eine dreidimensionale Punktewolke der Umgebung der Sensoreinheit zu jeweils einem Zeitpunkt dar. Auch hier kann dabei eine Bildkorrelation vorgenommen werden, die vorzugsweise mittels eines Block-Matching oder Semiglobal Matching, durchgeführt wird.
  • Auf Basis einer von der dritten Funktionseinheit erstellten dreidimensionalen Punktewolke kann eine vierte Funktionseinheit Raumbegrenzungen detektieren und feststehende Gegenstände identifizieren, die im Folgenden als Hintergrund klassifiziert werden. Soweit diese Gegenstände sichtbar sind, kann es sich hierbei nicht um Personen oder Körperteile handeln, die zugeordnet werden müssen, was die Bildauswertung vereinfacht und verbessert.
  • Schließlich werden die so ermittelten Daten letzthin bei der fünften Funktionseinheit zusammengeführt, welche die Lage und Position eines Körpers unter Berücksichtigung der unbeweglichen Hintergründe auswertet und insbesondere mit einer Datenbank vergleicht, in der Lagen und Posen, sowie Abweichungen von Freiheitsgraden von Körperteilen innerhalb der Posen verzeichnet sind. Abhängig von den Ergebnissen dieser Vergleiche kann die fünfte Funktionseinheit Alarmsignalisierungen erstellen, welche an die Kommunikationseinheit weitergegeben und von dieser an einen externen Dienst übermittelt werden. Über den Dienst kann dann Personal alarmiert werden, welches der überwachten Person zu Hilfe kommt.
  • Insbesondere werden gemessen und detektiert, ob ein Sturz auf den Bodenebenen oder schrägen Ebenen, also Treppen und Rampen, Liegen auf dem Bett über einen vorgegebenen Zeitraum hinaus, Liegen auf den Bodenebenen oder schrägen Ebenen, Sitzen auf dem Bett oder einer hierfür vorgesehenen Sitzgelegenheit oder den Bodenebenen oder den schrägen Ebenen stattfindet. Ferner kann vorzugsweise eine Zählung der Personen im Raum erfolgen, die Bewegung im Raum erfasst werden, sowie die Regungslosigkeit eines zuvor als Person detektierten Körpers. Schließlich kann auch ein Betreten und Verlassen des betrachteten Raumbereichs detektiert werden um die Anzahl der anwesenden Personen zu aktualisieren. Abweichungen unter anderem von den Vorgaben hinsichtlich dieser Messwerte können zu den genannten Alarmsignalisierungen führen.
  • Die vorstehend beschriebene Erfindung wird im Folgenden anhand eines Ausführungsbeispiels näher erläutert.
  • Figurenliste
    • 1 eine Sensoreinheit mit drei Kameraeinheiten in einer frontalen Draufsicht auf eine in den zu überwachenden Raum gerichtete Sichtseite, sowie
    • 2 eine schematische Darstellung des Funktionsablaufs bei einer Datenverarbeitung in der Sensoreinheit gemäß 1.
  • 1 zeigt eine Sensoreinheit 1 , welche nach außen hin ein Gehäuse 5 aufweist, in welchem mit Blick nach außen drei Kameraeinheiten 2 äquidistant zueinander an den Spitzen eines gedachten gleichseitigen Dreiecks angeordnet sind. Hierbei weisen die einzelnen Kameraeinheiten 2 jeweils einen Öffnungswinkel von wenigstens 180° auf, was sowohl einen vertikalen Öffnungswinkel 3 als auch einen horizontalen Öffnungswinkel 4 betrifft. Die Bezeichnung eines vertikalen Öffnungswinkels 3 und eines horizontalen Öffnungswinkels 4 beziehen sich auf die Ebene, in welcher die einzelnen Kameraeinheiten angeordnet sind.
  • Die Sensoreinheit 1 kann wahlweise an der Decke, an einer Wand oder an einem Stativ aufgestellt werden, sowie über einen Standfuß oder eine Standfläche verfügen.
  • 2 zeigt sodann schematisch die Funktion der vorgenannten Sensoreinheit 1. Mithilfe der drei koplanar angeordneten Kameraeinheiten 2 mit Fischaugenobjektiven werden synchron drei Einzelbilder 14 aufgenommen. Da es sich bei den Kameraeinheiten 2 um infrarotempfindliche Kameras handelt, wird der zu überwachende Raumbereich mithilfe von Infrarotleuchtmitteln 6 ausgeleuchtet, so dass eine optimale Belichtung der Kameraeinheiten 2 sichergestellt ist. Mithilfe eines integrierten Prozessors, im Weiteren als Steuereinheit 7 bezeichnet, sowie darin integrierter Funktionseinheiten 9, 10, 11, 12, 13 wird die weitere Auswertung der Einzelbilder 14 durchgeführt. Hierbei werden die Einzelbilder 14 nicht aus der Sensoreinheit 1 herausgesandt, sondern ausschließlich darin verarbeitet. Es dringen nur Alarmsignalisierungen 20 nach außen, die lediglich die für eine schnelle Hilfe wesentlichen Daten enthalten, jedoch keine Bilder. Diese werden an eine Kommunikationseinheit 8 bereitgestellt und im Falle einer Alarmsignalisierung an eine Zentralstelle übermittelt.
  • Zuvor jedoch erfolgt in regelmäßigen oder unregelmäßigen Abständen eine Auswertung der erfassten synchronen Bilddatensätze aus Einzelbildern 14 der Kameraeinheiten 2 durch die Funktionseinheiten 9, 10, 11, 12, 13 der Steuereinheit 7. Zunächst wird dazu eine erste Funktionseinheit 9 zur Schätzung der dreidimensionalen Posen 15 von in dem betrachteten Raumbereich anwesenden Personen einen synchronen Bilddatensatz mit drei synchron von den Kameraeinheiten 2 aufgenommenen Einzelbildern 14 mit omnidirektionaler Abbildung auswerten. Dies erfolgt unter Ausnutzung der dabei entstehenden Parallaxen in jeweils zusammengestellten Bildpaaren.
  • Ferner wird ein auf einer künstlichen Intelligenz basierendes Verfahren zur Schätzung von zweidimensionalen Körperhaltungen auf die Einzelbilder 14 angewendet, wobei das Bild einer Referenzkamera der Stereo-Anordnung mit einem tiefen Faltungsnetz analysiert wird, um mit einem speziell für die sphärische Abbildungsgeometrie der omnidirektionalen Sensorik augmentierten Datensatz mittels Backpropagation das Erkennungsmodell zu trainieren.
  • Auch wird unter Verwendung eines ebenfalls auf einer künstlichen Intelligenz basierenden Verfahren zur Schätzung von dreidimensionalen Körperhaltungen, welches auf den drei zueinander gehörenden Ergebnissen der vorangegangenen Schätzung von zweidimensionalen Körperhaltungen basiert, unter Berücksichtigung der zur Verfügung stehenden Freiheitsgrade des menschlichen Körpers eine Schätzung der dreidimensionalen Pose 15 vorgenommen.
  • Parallel greift eine dritte Funktionseinheit 11 auf dieselben Bilddaten zurück, um eine dichte Entfernungskarte 17 zu bestimmen, welche die dreidimensionale Struktur des beobachteten Raums beschreibt und diese mithilfe eines verfügbaren stereoskopischen Verfahrens zur omnidirektionalen Entfernungsberechnung sowie zur Bildkorrelation berechnet.
  • Diese Ergebnisse der ersten Funktionseinheit 9 und der dritten Funktionseinheit 11 greift sodann eine zweite Funktionseinheit 10 auf, welche die dreidimensionalen Posen 15 anwesender Personen im Raum mit Bezug zum Kamerakoordinatensystem oder zu einem vorher festgelegten Weltkoordinatensystem in metrischen Entfernungsmaßen lokalisiert und diese Lokalisierung 16 an eine fünfte Funktionseinheit 13 weiterleitet. Ferner berechnet die zweite Funktionseinheit 10 ein Tracking der dreidimensionalen Posen 15 anwesender Personen über die Zeit und damit der Korrektur von Fehlmessungen und fehlerbehafteten Schätzungen der dreidimensionalen Posenbestimmung mit einem Trackingfilter, wie etwa einem Kalman-Filter.
  • Parallel hierzu erstellt eine vierte Funktionseinheit 12 ein Hintergrundmodell des betrachteten Raumbereichs durch Mittelwertbildung und Filterung der Entfernungskarten 17 über mehrere zeitlich versetzte Bilder hinweg, um die seitlichen Raumbegrenzungen, die Bodenebenen und die schrägen ebenen, insbesondere Treppen, zu identifizieren. Auch diese Informationen werden der fünften Funktionseinheit 13 zugeleitet.
  • Die fünfte Funktionseinheit 13 ermittelt aus der Pose 15, ihrer Lokalisierung, sowie unter Berücksichtigung des isolierten Hintergrunds und dessen Raumbegrenzungen 19 die sich in dem betrachteten Raumbereich darstellende Situation und vergleicht diese mit in einer Datenbank vorgegebenen Szenarien. Sofern eine als Alarmszenario vermerkte Situation festgestellt wird, erfolgt eine Alarmsignalisierung 20 an die Kommunikationseinheit 8, welche ein Alarmsignal an einen externen Dienst übermittelt. Diese löst dann weitere Schritte aus.
  • Vorstehend beschrieben ist somit eine Sensoreinheit sowie ein Verfahren zur Auswertung der Körperhaltung von Personen in einem betrachteten Raumbereich zu schaffen, welche eine Auswertung in einem ganzen Raum, mithin einem Halbraum bei Flächenmontage, ermöglicht und hierbei jedwede nach au-ßen eindeutig wahrnehmbare Alarmsituation erkennen kann.
  • Bezugszeichenliste
  • 1
    Sensoreinheit
    2
    Kameraeinheit
    3
    vertikaler Öffnungswinkel
    4
    horizontaler Öffnungswinkel
    5
    Gehäuse
    6
    Infrarotleuchtmittel
    7
    Steuereinheit
    8
    Kommunikationseinheit
    9
    erste Funktionseinheit
    10
    zweite Funktionseinheit
    11
    dritte Funktionseinheit
    12
    vierte Funktionseinheit
    13
    fünfte Funktionseinheit
    14
    Einzelbild
    15
    Pose
    16
    Lokalisierung
    17
    Entfernungskarte
    18
    Bildkorrelation
    19
    Raumbegrenzungen
    20
    Alarmsignalisierung

Claims (17)

  1. Sensoreinheit zur Auswertung der Körperhaltung von Personen in einem von einer Mehrzahl koplanar angeordneter Kameraeinheiten (2) mit Fischaugenobjektiven betrachteten Raumbereich, umfassend ein Gehäuse (5) zur Aufnahme der Kameraeinheiten (2) sowie einer Kommunikationseinheit (8) zur Kommunikation mit einem externen Dienst, sowie wenigstens eine Funktionseinheit (9, 10, 11, 12, 13) zur Auswertung jeweils synchron aufgenommener Bilddatensätze der Kameraeinheiten (2), welche jeweils mit einer internen Steuereinheit (7) datenverbunden sind.
  2. Sensoreinheit gemäß Anspruch 1 mit genau drei äquidistant zueinander angeordneten Kameraeinheiten (2), welche jeweils wenigstens eine Wandung des Gehäuses (5) in Richtung des betrachteten Raumbereichs durchgreifen oder auf deren Außenseite angeordnet sind.
  3. Sensoreinheit gemäß einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die Kameraeinheiten (2) infrarotempfindliche Kameras sind, wobei das Gehäuse (5) ferner Infrarotleuchtmittel (6) zur Beleuchtung des von den Kameraeinheiten (2) betrachteten Raumbereichs aufweist.
  4. Sensoreinheit gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Fischaugenobjektive der Kameraeinheiten (2) einen Öffnungswinkel (3, 4) von wenigstens 180° aufweisen.
  5. Sensoreinheit gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Kommunikationseinheit (8) für eine drahtgebundene und/oder eine drahtlose Datenkommunikation mit dem externen Dienst hergerichtet ist.
  6. Sensoreinheit gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Gehäuse (5) zur Wand- oder Deckenmontage oder zur Montage auf einem Stativ hergerichtet oder mit einem Standfuß oder einer Standfläche versehen ist.
  7. Sensoreinheit gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die wenigstens eine Funktionseinheit (9, 10, 11, 12, 13) in dem Gehäuse (5) angeordnet und direkt mit der Steuereinheit (7) datenverbunden oder in diese integriert ist oder extern angeordnet und über die Kommunikationseinheit (8) mit der Steuereinheit (7) datenverbunden ist.
  8. Verfahren zur Auswertung der Körperhaltung von Personen in einem von einer Mehrzahl in einer Sensoreinheit (1) koplanar angeordneter Kameraeinheiten (2) mit Fischaugenobjektiven betrachteten Raumbereich, wobei die Kameraeinheiten (2) zunächst synchron jeweils wenigstens ein Einzelbild (14) erzeugen und diese Einzelbilder (14) von einer internen Steuereinheit (7) an eine oder mehrere zur Auswertung dieser synchronen Bilddatensätze mit den Kameraeinheiten (2) datenverbundene Funktionseinheiten (9, 10, 11, 12, 13) übermittelt werden, wobei eine Funktionseinheit (9, 10, 11, 12, 13)jedes Einzelbild (14) mit jedem anderen Einzelbild (14) desselben synchronen Bilddatensatzes zu einer Mehrzahl von synchronen Bildpaaren zusammenfügt und diese als Stereobilder des betrachteten Raumbereichs interpretiert, sowie hieraus die Körperhaltung in dem betrachteten Raumbereich anwesender Personen berechnet und auswertet.
  9. Verfahren gemäß Anspruch 8, dadurch gekennzeichnet, dass eine erste Funktionseinheit (9) anhand der synchronen Bildpaare eine dreidimensionale Lage und/oder eine dreidimensionalen Pose (15) in dem betrachteten Raumbereich anwesender Personen berechnet.
  10. Verfahren gemäß Anspruch 9, dadurch gekennzeichnet, dass die erste Funktionseinheit (9) für die Berechnung der dreidimensionalen Lage und/oder der dreidimensionalen Pose (15) auf einen Datensatz mit den Freiheitsgraden des menschlichen Körpers zurückgreift und dort hinterlegte Parameter berücksichtigt.
  11. Verfahren gemäß einem der Ansprüche 9 oder 10, dadurch gekennzeichnet, dass die erste Funktionseinheit (9) für die Berechnung der dreidimensionalen Lage und/oder der dreidimensionalen Pose (15) ein auf künstlicher Intelligenz basierendes Schätzverfahren einsetzt und dieses auf eines der Einzelbilder (14) einer als Referenzkamera betrachteten Kameraeinheit (2) anwendet.
  12. Verfahren gemäß einem der Ansprüche 9 bis 11, dadurch gekennzeichnet, dass eine zweite Funktionseinheit (10) die von der ersten Funktionseinheit (9) berechnete dreidimensionale Lage und/oder dreidimensionale Pose (15) im betrachteten Raumbereich mit Bezug zu einem Kamerakoordinatensystem oder einem äußeren Koordinatensystem, vorzugsweise in metrischen Entfernungsmaßen, lokalisiert.
  13. Verfahren gemäß Anspruch 12, dadurch gekennzeichnet, dass die zweite Funktionseinheit (10) die dreidimensionalen Lagen und/oder dreidimensionalen Posen (15) aller im betrachteten Raumbereich anwesender Personen über die Zeit verfolgt und Fehlmessungen und/oder fehlerbehaftete Schätzungen, vorzugsweise mit einem Tracking-Filter, insbesondere einem Kalman-Filter, korrigiert.
  14. Verfahren gemäß einem der Ansprüche 8 bis 13, dadurch gekennzeichnet, dass eine dritte Funktionseinheit (11) aus den synchronen Bildpaaren mittels eines stereoskopischen Verfahrens eine dichte Entfernungskarte (17), also eine dreidimensionale Punktewolke der Umgebung der Sensoreinheit (1), berechnet.
  15. Verfahren gemäß Anspruch 14, dadurch gekennzeichnet, dass die dritte Funktionseinheit (11) ferner eine Bildkorrelation (18), vorzugsweise mittels eines Block-Matching oder Semiglobal Matching, durchführt.
  16. Verfahren gemäß einem der Ansprüche 14 oder 15, dadurch gekennzeichnet, dass eine vierte Funktionseinheit (12) innerhalb einer von der dritten Funktionseinheit (11) bestimmten dichten Entfernungskarte (17) oder dreidimensionalen Punktewolke Raumbegrenzungen (19) und/oder feststehende Gegenstände identifiziert und als Hintergrund klassifiziert.
  17. Verfahren gemäß einem der Ansprüche 8 bis 16, dadurch gekennzeichnet, dass eine fünfte Funktionseinheit (13) für eine Auswertung einer von der ersten Funktionseinheit (9) berechneten dreidimensionalen Lage und/oder dreidimensionalen Pose (15) auf einen Datensatz mit vorgegebenen Alarmlagen oder Alarmposen zugreift und diese mit den berechneten dreidimensionalen Lagen und/oder dreidimensionalen Posen sowie deren Lokalisierung (16) im betrachteten Raumbereich vergleicht, sowie im Fall einer Übereinstimmung vermittels einer der Sensoreinheit (1) zugeordneten Kommunikationseinheit (8) eine Alarmsignalisierung (20) an einen externen Dienst übermittelt.
DE102019125049.8A 2019-09-17 2019-09-17 Sensoreinheit und verfahren zur auswertung der körperhaltung von personen Ceased DE102019125049A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019125049.8A DE102019125049A1 (de) 2019-09-17 2019-09-17 Sensoreinheit und verfahren zur auswertung der körperhaltung von personen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019125049.8A DE102019125049A1 (de) 2019-09-17 2019-09-17 Sensoreinheit und verfahren zur auswertung der körperhaltung von personen

Publications (1)

Publication Number Publication Date
DE102019125049A1 true DE102019125049A1 (de) 2021-03-18

Family

ID=74686953

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019125049.8A Ceased DE102019125049A1 (de) 2019-09-17 2019-09-17 Sensoreinheit und verfahren zur auswertung der körperhaltung von personen

Country Status (1)

Country Link
DE (1) DE102019125049A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009015537A1 (de) * 2009-04-01 2010-10-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Warnsystem und Verfahren zum Erkennen einer Notsituation
DE102009022555A1 (de) * 2009-05-25 2010-12-02 Austrian Research Centers Gmbh - Arc Verfahren und Vorrichtung zur Überwachung von Personen
EP2763116A1 (de) * 2013-02-01 2014-08-06 FamilyEye BVBA Falldetektionssystem und Verfahren zur Detektion eines Falls einer überwachten Person
WO2014117266A1 (en) * 2013-02-04 2014-08-07 Valorisation-Recherche, Limited Partnership Omnistereo imaging

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009015537A1 (de) * 2009-04-01 2010-10-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Warnsystem und Verfahren zum Erkennen einer Notsituation
DE102009022555A1 (de) * 2009-05-25 2010-12-02 Austrian Research Centers Gmbh - Arc Verfahren und Vorrichtung zur Überwachung von Personen
EP2763116A1 (de) * 2013-02-01 2014-08-06 FamilyEye BVBA Falldetektionssystem und Verfahren zur Detektion eines Falls einer überwachten Person
WO2014117266A1 (en) * 2013-02-04 2014-08-07 Valorisation-Recherche, Limited Partnership Omnistereo imaging

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Mobiler Notruf mit Sturzerkennung, Ortsbestimmung, SOS-Taste und Telefon - Der Falldetektor. URL: http://falldetektor.de [abgerufen am 11.02.2020] *

Similar Documents

Publication Publication Date Title
DE69832119T2 (de) Verfahren und Apparat zur visuellen Erfassung von Menschen für aktive öffentliche Schnittstellen
EP2122572B1 (de) Verfahren und vorrichtung zum sichern eines arbeitsraums
US8427324B2 (en) Method and system for detecting a fallen person using a range imaging device
DE102008001391B4 (de) Brandmeldervorrichtung sowie Verfahren zur Branddetektion
DE102006057605A1 (de) Verfahren und Vorrichtung zum Überwachen eines dreidimensionalen Raumbereichs
EP3701340A1 (de) Überwachungsvorrichtung, industrieanlage, verfahren zur überwachung sowie computerprogramm
WO1998040855A1 (de) Einrichtung zur videoüberwachung einer fläche
WO2021114766A1 (zh) 一种基于深度数据的人员行为模式分析方法和系统
CN110210461B (zh) 基于摄像机网格的多视图协同异常行为检测方法
Auvinet et al. Fall detection using multiple cameras
JP2019106631A (ja) 画像監視装置
CN108537172A (zh) 一种基于机器视觉识别人的行为的方法和装置
DE19621612A1 (de) Verfahren und Vorrichtung zur optischen Freiraumüberwachung
DE102005004278A1 (de) Humanbilderkennungssystem
DE102016115414A1 (de) Präsenzdetektion bei unbewegten objekten
EP1956570A1 (de) Verfahren zur zentralen Überwachung sowie Anordnung zur Aufnahme, Auswertung und selektiven Anzeige von Bildern ruhender Personen
DE102019125049A1 (de) Sensoreinheit und verfahren zur auswertung der körperhaltung von personen
KR102546045B1 (ko) 라이다(LiDAR)를 이용한 인체 감시장치
CN108986407B (zh) 一种用于独居老人的安全侦测系统及方法
EP3021256A1 (de) Verfahren zur bildverarbeitung, präsenzdetektor und beleuchtungssystem
Brutti et al. A joint particle filter to track the position and head orientation of people using audio visual cues
WO2023141381A1 (en) Computer vision system and methods for anomalous event detection
EP2362244B1 (de) Verfahren zur Überwachung eines Raumes
DE102014219754B4 (de) Gestenbasierte industrielle Überwachung
EP3171348A1 (de) Vorrichtung und verfahren zum bestimmen einer atypischen bewegung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final