DE102016107667A1 - Bewegungsanalyse- und/oder -verfolgungssystem von bewegten oder sich bewegenden, sich thermisch von ihrer Umgebung abhebenden Objekten - Google Patents

Bewegungsanalyse- und/oder -verfolgungssystem von bewegten oder sich bewegenden, sich thermisch von ihrer Umgebung abhebenden Objekten Download PDF

Info

Publication number
DE102016107667A1
DE102016107667A1 DE102016107667.8A DE102016107667A DE102016107667A1 DE 102016107667 A1 DE102016107667 A1 DE 102016107667A1 DE 102016107667 A DE102016107667 A DE 102016107667A DE 102016107667 A1 DE102016107667 A1 DE 102016107667A1
Authority
DE
Germany
Prior art keywords
camera
unit
tracking system
motion analysis
thermal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102016107667.8A
Other languages
English (en)
Inventor
Andreas Russ
Philipp Russ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Simi Reality Motion Systems GmbH
Original Assignee
Simi Reality Motion Systems GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Simi Reality Motion Systems GmbH filed Critical Simi Reality Motion Systems GmbH
Priority to DE102016107667.8A priority Critical patent/DE102016107667A1/de
Priority to PCT/DE2017/100331 priority patent/WO2017186225A1/de
Priority to CA3061269A priority patent/CA3061269A1/en
Priority to EP17736558.2A priority patent/EP3449463A1/de
Priority to US16/607,744 priority patent/US20220237808A1/en
Priority to DE112017002158.8T priority patent/DE112017002158A5/de
Publication of DE102016107667A1 publication Critical patent/DE102016107667A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Bewegungsanalyse- und/oder -verfolgungssystem (1) von bewegten oder sich bewegenden, sich thermisch von ihrer Umgebung abhebenden Objekten (90), welches sich durch eine Kameragruppe (11, 12, ...; 21, 22, ...) mit wenigstens einer Wärmebildkamera (11), einer Kalibrierungseinheit (51), einer Synchronisierungseinheit (52), einer Segmentierungseinheit (61), einer Rekonstruierungseinheit (62), einer Projizierungseinheit (63) sowie einer Identifizierungseinheit (64) auszeichnet. Mit einem solchen System (1) wird vorteilhaft eine thermisch gestützte Segmentierung ermöglicht und zwar unabhängig von den Umgebungsbedingungen eines zu analysierenden und/oder verfolgenden Objekts (90) und ohne dass es am Objekt (90) anzubringender Markerelemente bedarf.

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Bewegungsanalyse- und/oder -verfolgungssystem von bewegten oder sich bewegenden, sich thermisch von ihrer Umgebung abhebenden Objekten.
  • Hintergrund der Erfindung
  • Der Bedarf an Bewegungsanalyse- und/oder -verfolgungssystemen von bewegten oder sich bewegenden Objekten ist weit verbreitet und in den unterschiedlichsten Bereichen gegeben. Vornehmlich werden Bewegungsanalysen bei lebenden Objekten wie Menschen durchgeführt, um in Medizin oder Sport die Biomechanik zu verbessern und Schwachpunkte in einem Bewegungsablauf aufzudecken. Ein vergleichbares Ziel wird bei industriellen Objekten mit der Analyse der Bewegungsabläufe von Roboterarmen oder dergleichen Greifern verfolgt. Grundlage einer jeden Bewegungsanalyse ist dabei die zuverlässige Erfassung insbesondere von Distanz- und Winkel-/Orientierungs-Daten möglichst in Echtzeit.
  • Markerbasierte Systeme
  • In vielen Anwendungen wird dabei das zu analysierende Objekt mit mehreren Markerelementen versehen. Die Datenerfassung erfolgt mit Hilfe von Videokameras, welche die Positionsänderungen der am Bewegungsapparat des Objektes angebrachten Markerelemente durch fortlaufende digitale Speicherung von 2D-Videobildern mittels wenigstens eines Videobildaufnehmers aufnehmen und diese Aufnahmen einem Datenverarbeitungssystem zur Auswertung bereitstellen.
  • Eine Schwierigkeit besteht bei diesen Anwendungen darin, die Bewegung jedes einzelnen Markerelementes im 2D-Videobild in Echtzeit zu verfolgen und diesen automatisiert eine eindeutige Identität zuzuordnen.
  • Ein diesbezüglich ertüchtigtes System wurde im Handel unter der Bezeichnung Aktisys® bekannt und in der WO 2011/141531 A1 eingehend beschriebenen.
  • Markerlose Systeme
  • Neben markerbasierten Systemen besteht im Bereich der Bewegungsanalyse- und -verfolgung auch ein hoher Bedarf an flexibel einsetzbaren Systemen, die ohne das Anbringen zusätzlicher Marker am Zielobjekt auskommen.
  • Zur Lösung dessen wurden Bewegungsanalyse- und/oder -verfolgungssysteme entwickelt, welche die Lokalisierung markerloser Objekte in digitalen Bildsequenzen zum Ziel haben. Diesbezüglich sei exemplarisch auf die US 7,257,237 B1 , die WO 2008/109567 A2 sowie die WO 2012/156141 A1 verwiesen. Obwohl es auch darüber hinaus eine Vielzahl verschiedener Veröffentlichungen zu diesem Thema gibt, unterscheiden sich bekannte markerlose Bewegungsanalyse- und/oder -verfolgungssysteme in der grundlegenden Vorgehensweise recht wenig: Alle bekannten Systeme benötigen eine Form der Segmentierung der Videobilder, welche 2D-Pixel-Regionen nach vordefinierten Homogenitätskriterien erzeugt und den zu erfassenden Objekten zuordnet.
  • Die bekannten, bisher existierenden und eingesetzten markerlosen Bewegungsanalyse- und/oder -verfolgungssysteme funktionieren jedoch lediglich unter Laborbedingungen mit stabilen und kontrollierten Eigenschaften der Umgebung und/oder der Zielobjekte hinreichend gut.
  • Außerhalb einer kontrollierten Laborumgebung aber ist eine automatische, robuste und hochgenaue Bewegungsanalyse- und/oder -verfolgung nach aktuellem Stand der Technik nicht verfügbar. Verhindert wird eine stabile Segmentierung in beliebigen Umgebungen dabei insbesondere durch
    • – sich bewegende Objekte im Hintergrund der Videobilder wie Zuschauer bei einer Sportveranstaltung oder sich im Wind bewegende Bäume etc.; und/oder
    • – schnell und inhomogen wechselnde Beleuchtungsintensitäten wie bewegte Lichtquellen (Scheinwerfer), bewegte Schattenquellen (Wolken) oder Reflektionen von bewegten Oberflächen (Wasser) etc.; und/oder
    • – unzureichende Beleuchtungsintensitäten wie insbesondere in Höhlen, Kammern, oder bei Dämmerungs-/Nachtaufnahmen etc. anzutreffen.
  • Ganz besonders für Anwendungen im Outdoor-Bereich stellen alle diese Punkte große Herausforderungen dar.
  • Im Interesse stehende Einsatzmöglichkeiten
  • Ohne eine Lösung der beschriebenen Probleme bei der Segmentierung aber bleiben Outdoor-Anwendungen für den Einsatz von Bewegungsanalyse- und/oder -verfolgungssystemen verschlossen. Dies betrifft beispielsweise die Analyse von Sportwettkämpfen unter freiem Himmel ebenso wie die Verhaltensanalyse von Tieren in ihrem natürlichen Umfeld. Aber auch im Interesse stehende Anwendungen in geschlossenen Räumen (Sportwettkampfanalyse, Sicherheitstechnik, Tierforschung) haben eine Teilmenge der beschriebenen Hindernisse zu bewältigen, sobald die Umgebung eines zu analysierenden und/oder verfolgenden Objekts nicht wie in einem Labor dediziert auf den Einsatz der bekannten Systeme abgestimmt werden kann.
  • Der Erfindung zugrundeliegende Aufgabe
  • Hiervon ausgehend liegt der vorliegenden Erfindung die Aufgabe zugrunde, ein verbessertes Bewegungsanalyse- und/oder -verfolgungssystem von bewegten oder sich bewegenden, sich thermisch von ihrer Umgebung abhebenden Objekten bereitzustellen,
    • – welches die vorstehend aus dem Stand der Technik bekannten Probleme beim Einsatz außerhalb einer kontrollierten Laborumgebung bewältigt,
    • – vorzugsweise ohne dass es am Objekt anzubringender Markerelemente bedarf.
  • Erfindungsgemäße Lösung
  • Die der vorliegenden Erfindung zugrunde liegende Aufgabe wird durch ein Bewegungsanalyse- und/oder -verfolgungssystem von bewegten oder sich bewegenden, sich thermisch von ihrer Umgebung abhebenden Objekten mit den Merkmalen des Patentanspruches 1 gelöst. Vorteilhafte Ausgestaltungen der Erfindung, welche einzeln oder in Kombination miteinander einsetzbar sind, sind in den abhängigen Ansprüchen angegeben.
  • Ein Bewegungsanalyse- und/oder -verfolgungssystem nach der Erfindung zeichnet sich durch eine Kameragruppe mit wenigstens einer Wärmebildkamera, eine Kalibrierungseinheit, eine Synchronisierungseinheit, eine Segmentierungseinheit, eine Rekonstruierungseinheit, eine Projizierungseinheit sowie eine Identifizierungseinheit aus.
  • Mit einem solchen System wird vorteilhaft eine thermisch gestützte Segmentierung ermöglicht und zwar unabhängig von den Umgebungsbedingungen eines zu analysierenden und/oder verfolgenden Objekts und ohne dass es am Objekt anzubringender Markerelemente bedarf.
  • Neue Einsatzmöglichkeiten
  • Die vorliegende Erfindung eröffnet bislang verschlossene Einsatzmöglichkeiten für hier interessierende Bewegungsanalyse- und/oder -verfolgungssysteme, insbesondere in den Bereichen Sportwettkampfanalyse, Sicherheitstechnik und Tierforschung:
    Die Sportwissenschaft hat gegenwärtig unter anderem das Problem, dass sie Bewegungen vor allem in Laboren analysiert aber nicht dort, wo die Sportbewegungen tatsächlich stattfinden: unter Wettkampfbedingungen und im freien Feld. Mit einer markerlosen Erfassung und thermisch gestützten Segmentierung wie mit der vorliegenden Erfindung gelehrt, ist es nun erstmals möglich, die genaue Biomechanik beispielsweise eines Fußballspielers im Moment seiner Kreuzbandverletzung zu analysieren und dessen Bewegung zu verfolgen. Diese und ähnliche Informationen sind von hoher Relevanz für den Sport, insbesondere im Hinblick der Erklärung und Veranschaulichung von Leistungs- und Verletzungsfragen.
  • Neuere wissenschaftliche Arbeiten zeigen, dass Menschen auch anhand ihres eindeutigen Gang- und Bewegungsmusters identifiziert werden können. Wo Methoden wie Fingerabdrücke und Gesichtserkennung an ihre Grenzen stoßen, können Bewegungsmerkmale weniger leicht umgangen werden. Mit einem System der markerlosen Bewegungsanalyse- und/oder -verfolgung und thermisch gestützten Segmentierung wie mit der vorliegenden Erfindung gelehrt, ist es erstmals auch möglich, Gang- und Bewegungsmusters als Merkmale bei der Identifikation von Personen einzusetzen.
  • Im Bereich der Erforschung tierischen Lebensraums oder tierischer Verhaltensmuster (Tierkunde) sowie der präklinischen Forschung ist die Analyse und/oder Verfolgung der Bewegung von Tieren ein wesentliches Forschungselement. Dabei werden neue medizinische Verfahren besonders in den Bereichen Parkinson, Paresen und Alzheimer untersucht. Das Anbringen von Markern an Tieren ist problematisch, da diese in der Regel keine Marker akzeptieren. Die markerlose Erfassung ist hier besonders gefragt. Allerdings erschweren häufig sehr kleine Endeffektoren und Verdeckungen durch Fell eine saubere Segmentierung und Bewegungsanalyse und/oder -verfolgung. Ferner beeinflussen speziell installierte Lichtquellen das Verhalten der Tiere und verfälschen somit die erhaltenen Daten. Mit Hilfe der thermisch gestützten Segmentierung wie mit der vorliegenden Erfindung gelehrt, ist es schließlich erstmals gelungen, diese Probleme zu umgehen und eine leistungsfähige markerlose Bewegungsanalyse und/oder -verfolgung bei Tieren anzubieten.
  • Kurzbeschreibung der Zeichnungen
  • Zusätzliche Einzelheiten und weitere Vorteile der Erfindung werden nachfolgend an Hand bevorzugter Ausführungsbeispiele, auf welche die vorliegende Erfindung jedoch nicht beschränkt ist, und in Verbindung mit den beigefügten Zeichnungen beschrieben.
  • Es zeigen schematisch:
  • 1 beispielhaft anhand eines Flussdiagramms ein Bewegungsanalyse- und/oder -verfolgungssystem nach der Erfindung;
  • 2 beispielhaft die Anordnung einer ersten Gruppe an Kameras, welche zumindest eine Wärmebildkamera und zumindest zwei Videobildkameras umfasst;
  • 3 beispielhaft die Anordnung einer zweiten Gruppe an Kameras, welche zumindest zwei Wärmebildkameras und ggf. Videobildkameras umfasst;
  • 4 beispielhaft die Anordnung einer dritten Gruppe an Kameras, welche ausschließlich zwei oder mehr Wärmebildkameras umfasst; und
  • 5 beispielhaft die Anordnung einer vierten Gruppe an Kameras, welche eine Vielzahl beliebig zueinander angeordneter Wärme- und Videobildkameras umfasst.
  • Ausführliche Figurenbeschreibung
  • Bei der nachfolgenden Beschreibung bevorzugter Ausführungsformen der vorliegenden Erfindung bezeichnen gleiche Bezugszeichen gleiche oder vergleichbare Komponenten.
  • 1 zeigt (verteilt auf drei Blätter: 1a, 1b, 1c) beispielhaft anhand eines Flussdiagrammes ein Bewegungsanalyse- und/oder -verfolgungssystem 1 nach der Erfindung.
  • Dabei werden im Kontext der vorliegenden Erfindung mit „Videobildkameras“ 21, 22, ... Geräte bezeichnet, die elektromagnetische Strahlung im Bereich des sichtbaren Lichts (Wellenlängenbereich von 400 bis 780 nm) mittels spezieller Detektoren (Videobildaufnehmer 20) aufzeichnen und aus den erhaltenen elektrischen Signale (zweidimensionale) 2D-Videobilder VB generieren. Diese Videobilder VB liegen dann in Form von Pixelgrafiken vor.
  • Eine Pixelgrafik ist eine computerlesbare Form der Beschreibung eines Bildes, bei der die Bildpunkte (Pixel) rasterförmig angeordnet sind und jedem Pixel ein Pixelwert zugewiesen ist. Im Fall von 2D-Videobildern VB im Kontext dieser Erfindung wird den Pixeln als Pixelwert typischerweise eine bestimmte Farbe (eine bestimmte Wellenlänge des sichtbaren Lichts) zugeordnet.
  • Unter dem Begriff „Voxel“ (volumetric pixel) wird entsprechend ein Datenelement („Bild“punkt) in einem dreidimensionalen Gitter verstanden.
  • Im Kontext der Erfindung werden 3D-Voxel-Modelle 93 des oder der Objekte 90 aus segmentierten 2D-Pixel-Regionen 91; 92 von Aufnahmen von mindestens zwei Kameras mittels einer erfindungsgemäßen Rekonstruierungseinheit 62 rekonstruiert, d.h. entworfen. Der Entwurf (Rekonstruktion) eines 3D-Voxel-Modells 93 aus segmentierten 2D-Pixel-Regionen wird mitunter auch als „Space Carving“ bezeichnet.
  • „Wärmebildkameras“ 11, 12, ... bezeichnen im Kontext der vorliegenden Erfindung Geräte, die elektromagnetische Strahlung im Infrarot-Bereich („Wärmestrahlung“; Wellenlängenbereich: 780 nm bis 1 mm) aufzeichnen, welche insbesondere von lebenden Objekten (Menschen, Tiere) ausgesendet (emittiert) wird. Die Pixelwerte, der so erhaltenen Wärmebilder WB repräsentieren Temperaturwerte.
  • Diesbezüglich macht die Erfindung sich zunutze, dass sich die Körpertemperatur von lebenden Objekten (Menschen, Tiere) normalerweise von der Temperatur unbelebter Objekte 90 in der Umgebung unterscheidet, so dass sich aus Wärmebildern über sog. Schwellenwertverfahren (engl. „thresholding“) die Silhouetten lebender Objekte gut von der unbelebten Umgebung (als Hintergrund) extrahieren lassen. Dabei spielen Umgebungseinflüsse, wie die Belichtungsbedingungen, die Farbähnlichkeit zwischen Objekt und Hintergrund sowie etwaige Abschattungen, wie sie für Videokameras störend sind, bei Wärmebildkameras keine Rolle.
  • Selbst bei starker Sonneneinstrahlung und der damit einhergehenden Aufheizung der Umgebung im Vergleich zur Körpertemperatur lebender Objekten, lassen sich, insbesondere durch Kalibrierung des Temperaturbereichs der Bildaufnahme auf einen engen Bereich um die jeweilige Körpertemperatur, Silhouetten vorteilhaft noch vom Hintergrund unterscheiden.
  • Das erfindungsgemäße System 1 zeichnet sich zunächst durch eine Gruppe dergestalt beliebig zueinander angeordneter Kameras 11, 12, ...; 21, 22, ... aus,
    • – dass das Sichtfeld 111, 121, ...; 211, 221, ... einer jeden Kamera 11, 12, ...; 21, 22, ... sich mit dem Sichtfeld 111, 121, ...; 211, 221, ... wenigstens einer anderen Kamera 11, 12, ...; 21, 22, ... der Gruppe so überschneidet, dass die Menge aller Sichtfelder 111, 121, : 211, 211, ... zumindest mittelbar zusammenhängt, und
    • – dass die Kameragruppe zumindest eine erste und zweite Kamera umfasst, deren Objektive 112, 122, ...; 212, 222, ... zueinander in einem Abstand x von mindestens zwei Metern angeordnet und/oder deren optische Achsen 113, 123, ...; 213, 223, ... zueinander unter einem Winkel α von mindestens 45° ausgerichtet sind,
    • – wobei die erste Kamera eine Wärmebildkamera 11 ist zur Aufnahme von Wärmestrahlung durch fortlaufende digitale Speicherung von 2D-Wärmebildern WB mittels wenigstens eines Wärmebildaufnehmers 10, und
    • – wobei die zweite Kamera
    • – eine weitere Wärmebildkamera 12 ist oder
    • – eine Videobildkamera 21 ist zur Aufnahme von Lichtstrahlung durch fortlaufende digitale Speicherung von 2D-Videobildern VB mittels wenigstens eines Videobildaufnehmers 20.
  • Mittels einer Kalibrierungseinheit 51 wird – beispielsweise nach bekanntem Stand der Technik – eine simultane räumliche 3D-Kalibrierung aller Wärme- 11, 12, ... und ggf. Videokameras 21, 22, ... mit überschneidenden Sichtfeldern 111, 121, ...; 211, 221, ... sichergestellt.
  • Darüber hinaus stellt eine Synchronisierungseinheit 52 sicher, dass die Aufnahme, also die fortlaufende digitale Speicherung von Wärme-WB und etwaigen Videobildern VB zeitgleich erfolgt und/oder die Aufnahmezeitpunkte der Wärme-WB und etwaigen Videobilder VB bekannt sind. Bei einer gemischten, Wärme- 11, 12, ... und Videobildkameras 21, 22, ..., umfassenden Kameragruppe hat sich vorzugsweise bewährt, die Frequenz der Videokameras 21, 22, ... auf ein ganzzahliges Vielfaches der Frequenz der Wärmekameras 11, 12, ... zu setzen. Die Aufnahmezeitpunkte können beispielsweise durch ein externes Trigger-Signal gesteuert sein.
  • Des Weiteren ist nach der Erfindung eine Segmentierungseinheit 61 vorgesehen, welche in den Wärme-WB und etwaigen Videobildern VB zugehörige 2D-Pixel-Regionen 91; 92 des oder der Objekte 90 nach vordefinierten Homogenitätskriterien segmentiert, d.h. bestimmt. Der Begriff „Segmentierung“ bezeichnet dabei die Erzeugung von inhaltlich zusammenhängenden Regionen durch Zusammenfassung benachbarter Pixel oder Voxel entsprechend vordefinierter Homogenitätskriterien. Zur Segmentierung können erfindungsgemäß bevorzugt insbesondere Bildbearbeitungsverfahren 80 wie die der Hintergrundsubtraktion, der Kantenerkennung, Schwellenwertverfahren, regionenbasierte Methoden sowie die Orientierung an Modellsilhouetten (berechnet aus MO) herangezogen werden. Dabei können auf Wärmebilder WB optional andere Methoden angewendet werden, als auf Videobilder VB – zum Beispiel Bayes-Klassifikatoren. „Homogenitätskriterien“ sind im Kontext der Erfindung insbesondere die Pixel- und/oder Voxelwerte „Farbe“ und/oder „Temperatur“.
  • Mittels einer erfindungsgemäßen Rekonstruierungseinheit 62 lässt sich sodann aus segmentierten 2D-Pixel-Regionen 91; 92 ein 3D-Voxel-Modell 93 des oder der Objekte 90 rekonstruieren, d.h. entwerfen. Der Entwurf (Rekonstruktion) eines 3D-Voxel-Modells 93 aus segmentierten 2D-Pixel-Regionen wird mitunter auch als „Space Carving“ bezeichnet. Im Rahmen der vorliegenden Erfindung kann die Auswahl der tatsächlich zum „Space Carving“ verwendeten Kameras 11, 12, ...; 21, 22, ... vorteilhaft anwendungsbezogen, also flexibel erfolgen – es können zum Beispiel stets alle 11, 12, ...; 21, 22, ... oder aber auch lediglich die Wärmekameras 11, 12, ... Verwendung finden. Synchronisierung 52 und Kalibrierung 51 sind notwendige Voraussetzungen für die Rekonstruierungseinheit 62.
  • Die vorliegende Erfindung zeichnet sich des Weiteren durch eine Projizierungseinheit 63 aus, mittels welcher das 3D-Voxel-Modell 93 als Referenz für einen Suchraum SR in die Wärme-WB und etwaige Videobilder VB rückprojiziert wird.
  • Schließlich zeichnet sich die vorliegende Erfindung durch eine Identifizierungseinheit 64 aus, mittels welcher sich in den Wärme-WB und etwaigen Videobildern VB Silhouetten 94 des oder der Objekte 90 auf Basis des durch die Rückprojektion definierten Suchraums SR identifizieren, d.h. erkennen, lassen.
  • Das erfindungsgemäße System 1 ermöglicht vorteilhaft eine thermisch gestützte Segmentierung und zwar unabhängig von den Umgebungsbedingungen eines zu analysierenden und/oder verfolgenden Objekts 90 und ohne dass es am Objekt 90 anzubringender Markerelemente bedarf. Die vorliegende Erfindung eröffnet damit bislang verschlossene Einsatzmöglichkeiten für hier interessierende Bewegungsanalyse- und/oder -verfolgungssysteme 1, insbesondere in den Bereichen Sportwettkampfanalyse, Sicherheitstechnik und Tierforschung.
  • Soweit die Bildfrequenz, d.h. die Anzahl Bilder pro Zeiteinheit, der mittels einer Videobildkamera 21, 22, ... aufgenommener Videobilder VB höher ist als die Bildfrequenz der mittels einer Wärmebildkamera 11, 12, ... aufgenommener Wärmebilder WB wird in einer bevorzugten Ausgestaltung der Erfindung eine 2D-Ergänzungseinheit 53 vorgeschlagen, welche fehlende Wärmebilder WB so ergänzt, dass zu jedem Videobild VB stets ein synchrones Wärmebild WB vorhanden ist. Hierfür hat sich in der Praxis beispielsweise eine (nicht dargestellte) Key-Frame-Interpolation-Einrichtung für die Daten des Wärmebilds WB bewährt.
  • Soweit die Modellfrequenz, d.h. die Anzahl erzeugter Modelle pro Zeiteinheit, der von der Rekonstruierungseinheit 62 erzeugten 3D-Voxel-Modelle 93 geringer ist als die Bildfrequenz der mittels einer Wärmebildkamera 11, 12, ... aufgenommener Wärmebilder WB und/oder etwaiger mit einer Videokamera 21, 22, ... aufgenommener Videobilder VB, wird in einer bevorzugten Ausgestaltung der Erfindung eine 3D-Ergänzungseinheit 54 vorgeschlagen, welche fehlende 3D-Voxel-Modelle 93 so ergänzt, dass zu jedem Wärme-WB und etwaigem Videobild VB stets ein synchrones 3D-Voxel-Modell 93 vorhanden ist. Auch hierfür hat sich in der Praxis beispielsweise eine (nicht dargestellte) Key-Frame-Interpolation-Einrichtung für die 3D-Daten des Voxel-Modells 93 bewährt.
  • 2 zeigt beispielhaft die Anordnung einer ersten Gruppe von Kameras, welche zumindest eine Wärmebildkamera 11, 12, ... und zumindest zwei Videobildkameras 21, 22, ... umfasst. In 2 ersichtlich ist, wie
    • – als erste Kamera eine Wärmebildkamera 11 und als zweite Kamera eine Videobildkamera 21 vorgesehen sind, deren Objektive 112; 212 zueinander in einem Abstand x von mindestens zwei Metern angeordnet und/oder deren optische Achsen 113; 213 zueinander unter einem Winkel α von mindestens 45° ausgerichtet sind,
    • – und wie als dritte Kamera eine Videobildkamera 22 vorgesehen ist, deren Objektiv 222 unmittelbar benachbart zum Objektiv 112 der Wärmebildkamera 11 so angeordnet ist, dass die optischen Achsen 113; 223 beider Kameras 11, 22 zueinander im Wesentlichen parallel ausgerichtet sind.
    Die Anordnung zumindest einer Wärmebildkamera 11 in einer zumindest zwei Videokameras 21, 22, ... umfassenden Gruppe an Kameras erlaubt vorteilhaft zumindest eine erste Plausibilisierung nur unzureichend segmentierbarer Videobilder VB durch die Segmentierungseinheit 61 und damit die vorteilhafte Rekonstruierung weniger fehlerbehafteter 3D-Voxel-Modelle 93 als im Stand der Technik anzutreffen.
  • 1 zeigt optional eine iterative Abfolge (Prozess), bei dem die Segmentierungseinheit 61 und die Rekonstruierungseinheit 62 wiederholt durchlaufen werden. Dabei umfasst das Bewegungsanalyse- und/oder -verfolgungssystem 1 in einer weiteren bevorzugten Ausgestaltung eine weitere Segmentierungseinheit 61, welche zusätzlich Einschränkungen des Suchraums SR aus dem vorangehenden Iterationsschritt berücksichtigt und Homogenitätskriterien dem aktuellen Iterationsschritt anpasst. Dies steigert vorteilhaft die Robustheit des Systems 1, insbesondere profitieren Segmentierungen einzelner schlecht segmentierbarer Wärme-WB und/oder etwaiger Videobilder VB von guten Segmentierungsergebnissen in anderen Wärme-WB und/oder etwaigen Videobildern VB.
  • In einer alternativen oder kumulativen Ausgestaltung kann die Robustheit des Systems 1 weiter gesteigert werden durch eine Rekonstruierungseinheit 62, welche in einer iterativen Abfolge zusätzlich die zur Rekonstruktion des 3D-Voxel-Modelles 93 verwendeten segmentierten 2D-Pixel Regionen 91, 92 in Abhängigkeit des aktuellen Iterationsschritts, der Art der Kamera 11; 21; 31 und/oder der Qualitätskriterien der 2D-Pixelregionen auswählt. Insbesondere hat sich eine Rekonstruierungseinheit 62 bewährt, welche das 3D-Voxel-Model 93 zusätzlich auf Basis des Tiefenbildes TB einer Tiefenbildkamera 31 rekonstruiert. Im Ergebnis ist vorteilhaft eine iterative Abfolge von Suchraumeinschränkungen erhältlich, bestehend aus Segmentierungseinheit 61, Rekonstruierungseinheit 62 und Projizierungseinheit 63.
  • 3 zeigt beispielhaft die Anordnung einer zweiten Gruppe an Kameras, welche zumindest zwei Wärmebildkameras 11, 12, ... und ggf. Videobildkameras 21, 22, ... umfasst. In 3 ersichtlich ist, wie zum Beispiel
    • – als erste Kamera eine Wärmebildkamera 11 und als zweite Kamera eine Wärmebildkamera 12 vorgesehen sind, deren Objektive 112; 122 zueinander in einem Abstand x von mindestens zwei Metern angeordnet und/oder deren optische Achsen 113; 123 zueinander unter einem Winkel α von mindestens 45° ausgerichtet sind,
    • – und wie als dritte Kamera eine Videobildkamera 21 vorgesehen ist, deren Objektiv 212 unmittelbar benachbart zum Objektiv 122 der zweiten Wärmebildkamera 12 so angeordnet ist, dass die optischen Achsen 123; 213 beider Kamera 12, 21 zueinander im Wesentlichen parallel ausgerichtet sind.
  • 4 zeigt beispielhaft die Anordnung einer dritten Gruppe an Kameras, welche eine Vielzahl beliebig zueinander angeordneter, insbesondere zwei bis drei, Wärme- 11, 12, ... und, insbesondere fünf bis sechs, Videobildkameras 21, 22, ... umfasst. Bei weniger Kameras würden man die Positionen der Kameras zweckmäßiger Weise in der Reihenfolge der Kameranummern 11, 12, ...; 21, 22, ... besetzen oder an die speziellen Bedürfnisse der anwendungsspezifischen Bewegungsanalyse und/oder -verfolgung anpassen.
  • Die Anordnung einer zumindest zwei Wärmebildkameras 11, 12, ... umfassenden Gruppe an Kameras – wie beispielhaft in 3 oder 4 vorgeschlagen – erlaubt vorteilhaft eine besonders zuverlässige Segmentierung von Wärmebildern WB mittels der Segmentierungseinheit 61. So ermöglichen bereits zwei Wärmekameras 11, 12, ..., deren optische Achsen 113, 123, ... unter einem passenden Winkel α angeordnet sind, die Rekonstruierung eines 3D-Voxel-Modells 93 rein aus Wärmebildern WB. Erfindungsgemäß bevorzugt ist daher eine Rekonstruierungseinheit 62, welche zuerst allein aus segmentierten 2D-WB-Pixel-Regionen 91 ein 3D-Voxel-Modell 93 des oder der Objekte 90 rekonstruiert.
  • Das so, rein aus Daten des Wärmebilds WB, gewonnene 3D-WB-Voxel-Modell 93 ist insoweit besonders zuverlässig, als es eine besonders robuste Einschränkung eines Suchraums SR in den Videobildern VB der Videokameras 21, 22, ... liefert. Erfindungsgemäß bevorzugt ist daher eine Projizierungseinheit 63, welche zunächst ein 3D-Wärmebild-WB-Voxel-Modell 93 als Referenz für einen Suchraum SR in die synchron vorliegenden Wärme-WB und etwaige Videobilder VB rückprojiziert.
  • In einer weiteren bevorzugten Ausgestaltung umfasst das Bewegungsanalyse- und/oder -verfolgungssystem 1 weiterhin eine Zuordnungseinheit 65, welche Punkte der identifizierten Silhouetten 94 Punkte vorbekannter Silhouetten 95 eines Modells MO des oder der Objekte 90 als Korrespondenz zuordnet und/oder Punkten der vorbekannten Silhouetten 95 eines Modells MO des oder der Objekte 90 Punkte der identifizierten Silhouetten 94 als Korrespondenz zuordnet. Das Modell MO stellt vorteilhaft ein virtuelles Abbild des oder der Objekte 90 dar. Im Regelfall wird es als kinematische Kette mit zugehörigem Punktgitter und ggf. weiteren Referenzen auf Sensoren ausgestaltet sein. Es ist somit möglich, das Modell MO in seiner aktuellen Ausrichtung mittels der Kalibrierungseinheit 51 in die Wärme-WB und ggf. Videobilder VB zu projizieren und den Umriss, d.h. die Silhouette 95, zu bestimmen.
  • Dabei hat sich insbesondere eine Zuordnungseinheit 65 bewährt, welche optional zusätzlich zu den aus Daten der Silhouetten 95 gewonnenen Korrespondenzen Daten insbesondere weiterer Sensoren 40, etwaiger Bildverarbeitungseinheiten 80 und/oder einer Tiefenbildkamera 31, 32, ... zur Erstellung von Korrespondenzen verwendet. Diese werden in Bezug zu Zustandsgrößen eines Modells MO, also Eigenschaften in Bezug auf die aktuelle Ausrichtung eines Modells MO gesetzt. Im Ergebnis ist eine Zuordnungseinheit erhältlich, welche vorteilhaft zusätzliche Korrespondenzen durch Zuordnung weiterer Zustandsgrößen eines Modells MO des oder der Objekte 90 zu Daten insbesondere von weiteren Sensoren 40, etwaiger Bildverarbeitungseinheiten 80 und/oder einer Tiefenbildkamera 31, 32, ... erstellt. An weiteren Sensoren 40 haben sich insbesondere Orientierungssensoren (Gyroskope), Beschleunigungssensoren oder aktive Wärmemarker bewährt. An Bildverarbeitungseinheiten 80 sind bekannte Gesichtserkenner, Mustererkenner oder sog. Pattern Matcher bevorzugt. Als Tiefenbildkamera 31, 32, ... können alle Kameras zum Einsatz kommen, welche die bildliche Darstellung von Entfernungen erlauben. Dabei erhält jedes Pixel nicht die Farbe des zu sehenden Objekts 90 wie bei einer Videokamera 21, 22, ... oder die Temperatur des Objekts wie bei einer Wärmebildkamera 11, 12, ..., sondern den Abstand des Punkts des Objekts 90, der in dem entsprechenden Pixel sichtbar ist. Tiefenbildkameras 31, 32, ... gibt es in unterschiedlichen Ausführungen wie:
    • – Stereokameras;
    • – Structured Light, hierbei wird ein Lichtmuster, erzeugt durch Licht des sichtbaren oder infraroten Wellenlängenbereichs, auf die aufzunehmende Szene projiziert, mit einer Kamera aufgezeichnet und aus der Verzerrung des Musters gegenüber dem unverzerrten Muster die Tiefeninformation berechnet;
    • – TOF-Kameras (Time of flight), welche aus Laufzeitmessungen des Lichts auf die Distanz schließen; oder
    • – Lichtfeldkameras, welche neben Position und Intensität des einfallenden Lichts auch den Winkel bestimmt und somit die Berechnung von Tiefeninformation erlaubt.
  • Ebenso hat sich eine Gewichtungseinheit 66 bewährt, welche erstellte Korrespondenzen nach fest vordefinierten und/oder variablen Parametern gewichtet. Insbesondere können Gewichtungskriterien implementiert sein, die ein Nutzer ggf. mittels Parameter anpassen kann.
  • In einer weiteren bevorzugten Ausgestaltung umfasst das Bewegungsanalyse- und/oder -verfolgungssystem 1 weiterhin eine Bewegungsverfolgungseinheit 71, welche aus zugeordneten Korrespondenzen eine Neuausrichtung eines Modells MO des oder der Objekte 90 vornimmt.
  • Dabei hat sich insbesondere eine Bewegungsverfolgungseinheit 71 bewährt, welche in einem iterativen Vorgehen nach jeder Iteration mit bereits vorhandenen Korrespondenzen und/oder mit erneut auf der Basis eines aktualisierten Modells MO erstellten Korrespondenzen eine Neuausrichtung eines Modells MO des oder der Objekte 90 vornimmt, bis die Ausrichtung des Modells MO ein vordefiniertes Kriterium erfüllt. Ein solches Kriterium ist beispielsweise dann erfüllt, wenn die Ausrichtung des Modells MO sich weniger als ein vordefinierter Schwellenwert ändert oder eine bestimmte Iterationsanzahl erreicht ist. Dies liefert vorteilhaft neue Silhouetten 95.
  • In einer weiteren bevorzugten Ausgestaltung umfasst das Bewegungsanalyse- und/oder -verfolgungssystem 1 weiterhin eine Bewegungsanalyseeinheit 72, welche aus einer final vorliegenden Ausrichtung eines Modells MO des oder der Objekte 90 Stellungen, insbesondere vorhandene Knie- oder andere Gelenkwinkel, und/oder Bewegungen des oder der Objekte 90 analysiert.
  • In einer weiteren vorteilhaften Ausgestaltung kann das Bewegungsanalyse- und/oder -verfolgungssystem 1 um eine Visualisierungseinheit 73 ergänzt werden. Dabei hat sich eine Visualisierungseinheit 73 bewährt, mit welcher wahlweise die Temperaturdaten der segmentierten 2D-WB-Pixel-Regionen 91 auf dem 3D-Voxel-Modell 93 oder auf einem, insbesondere final, ausgerichteten Modell MO mittels Texture-Mapping dargestellt werden können.
  • 5 schließlich zeigt beispielhaft die Anordnung einer vierten Gruppe an Kameras, welche ausschließlich zwei oder mehr Wärmebildkameras 11, 12, 13, ... umfasst. In 5 ersichtlich ist, wie die Objektive 112, 122, 132 der beispielshaft dargestellten drei Wärmebildkameras 11, 12, 13 zueinander in einem Abstand x von mindestens zwei Metern angeordnet und/oder deren optischen Achsen 113, 123, 133 zueinander unter einem Winkel α von mindestens 45° ausgerichtet sind. Die Anordnung einer ausschließlich aus Wärmebildkameras 11, 12, 13, ... gebildeten Gruppe an Kameras erlaubt vorteilhaft die Bewegungsanalyse- und/oder -verfolgung von Objekten 90 auch bei völliger Dunkelheit, was insbesondere für die Erforschung nachtaktiver Tiere oder bei der Kriminalitätsbekämpfung von Interesse ist.
  • Das erfindungsgemäße System 1 ermöglicht vorteilhaft eine thermisch gestützte Segmentierung und zwar unabhängig von den Umgebungsbedingungen eines zu analysierenden und/oder zu verfolgenden Objekts 90 und ohne dass es am Objekt 90 anzubringender Markerelemente bedarf. Die vorliegende Erfindung eröffnet damit bislang verschlossene Einsatzmöglichkeiten für hier interessierende Bewegungsanalyse- und/oder -verfolgungssysteme 1, insbesondere in den Bereichen Sportwettkampfanalyse, Sicherheitstechnik und Tierforschung.
  • Bezugszeichenliste
  • 1
    Bewegungsanalyse- und/oder -verfolgungssystem
    10
    Wärmebildaufnehmer
    11, 12, ...
    Wärmebildkameras
    111, 121, ...
    Sichtfeld der Wärmebildkamera (11, 12, ...)
    112, 122, ...
    Objektiv der Wärmebildkamera (11, 12, ...)
    113, 123, ...
    optische Achse (Blickrichtung) der Wärmebildkamera (11, 12, ...)
    20
    Videobildaufnehmer
    21, 22, ...
    Videobildkameras
    211, 221, ...
    Sichtfeld der Videobildkamera (21, 22, ...)
    212, 222, ...
    Objektiv der Videobildkamera (21, 22, ...)
    213, 223, ...
    optische Achse (Blickrichtung) der Videobildkamera (21, 22, ...)
    30
    Tiefenbildaufnehmer
    31, 32, ...
    Tiefenbildkameras
    311, 321, ...
    Sichtfeld der Tiefenbildkamera (31, 32, ...)
    312, 322, ...
    Objektiv der Tiefenbildkamera (31, 32, ...)
    313, 333, ...
    optische Achse (Blickrichtung) der Tiefenbildkamera (31, 32, ...)
    40
    andere Sensoren
    51
    Kalibrierungseinheit
    52
    Synchronisierungseinheit
    53
    2D-Ergänzungseinheit, insb. Key-Frame-Interpolation-Einrichtung
    54
    3D-Ergänzungseinheit, insb. Key-Frame-Interpolation-Einrichtung
    61
    Segmentierungseinheit
    62
    Rekonstruierungseinheit
    63
    Projizierungseinheit
    64
    Identifizierungseinheit
    65
    Zuordnungseinheit
    66
    Gewichtungseinheit
    71
    Bewegungsverfolgungseinheit
    72
    Bewegungsanalyseeinheit
    73
    Visualisierungseinheit
    80
    diverse Bildverarbeitungseinheiten
    90
    Objekt
    91
    2D-WB-Pixel-Region/en des oder der Objekte (90)
    92
    2D-VB-Pixel-Region/en des oder der Objekte (90)
    93
    3D-Voxel-Modell des oder der Objekte (90)
    94
    identifizierte Silhouetten des oder der Objekte (90)
    95
    (vor-)bekannte Silhouetten des Modells (MO) des oder der Objekte (90)
    MO
    Modell des Objekts (90)
    WB
    Wärmebild
    VB
    Videobild
    TB
    Tiefenbild
    SR
    Suchraum
    x
    Abstand zwischen dem Objektiv (112) der ersten Kamera (11) und dem Objektiv (122) oder (212) der zweiten Kamera (12) oder (21)
    α
    Winkel zwischen der optischen Achse (113) der ersten Kamera (11) und der optischen Achse (123) oder (213) der zweiten Kamera (12) oder (21)
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2011/141531 A1 [0005]
    • US 7257237 B1 [0007]
    • WO 2008/109567 A2 [0007]
    • WO 2012/156141 A1 [0007]

Claims (15)

  1. Bewegungsanalyse- und/oder -verfolgungssystem (1) von bewegten oder sich bewegenden, sich thermisch von ihrer Umgebung abhebenden Objekten (90), wenigstens umfassend: – eine Gruppe dergestalt beliebig zueinander angeordneter Kameras (11, 12, ...; 21, 22, ...), – dass das Sichtfeld (111, 121, ...; 211, 221, ...) einer jeden Kamera (11, 12, ...; 21, 22, ...) sich mit dem Sichtfeld (111, 121, ...; 211, 221, ...) wenigstens einer anderen Kamera (11, 12, ...; 21, 22, ...) der Gruppe so überschneidet, dass die Menge aller Sichtfelder (111, 121, : 211, 211, ...) zumindest mittelbar zusammenhängt, und – dass die Kameragruppe zumindest eine erste und zweite Kamera umfasst, deren Objektive (112, 122, ...; 212, 222, ...) zueinander in einem Abstand x von mindestens zwei Metern angeordnet und/oder deren optische Achsen (113, 123, ...; 213, 223, ...) zueinander unter einem Winkel α von mindestens 45° ausgerichtet sind, – wobei die erste Kamera eine Wärmebildkamera (11) ist zur Aufnahme von Wärmestrahlung durch fortlaufende digitale Speicherung von 2D-Wärmebildern (WB) mittels wenigstens eines Wärmebildaufnehmers (10), und – wobei die zweite Kamera – eine weitere Wärmebildkamera (12) ist oder – eine Videobildkamera (21) ist zur Aufnahme von Lichtstrahlung durch fortlaufende digitale Speicherung von 2D-Videobildern (VB) mittels wenigstens eines Videobildaufnehmers (20); – eine Kalibrierungseinheit (51), welche eine räumliche 3D-Kalibrierung aller Kameras (11, 12, ...; 21, 22, ...) mit überschneidenden Sichtfeldern (111, 121, ...; 211, 221, ...) sicherstellt; – eine Synchronisierungseinheit (52), welche sicherstellt, dass die Aufnahme von Wärme-(WB) und etwaigen Videobildern (VB) zeitgleich erfolgt und/oder die Aufnahmezeitpunkte der Bilder bekannt sind; – eine Segmentierungseinheit (61), welche in synchron vorliegenden Wärme-(WB) und etwaigen Videobildern (VB) zugehörige 2D-Pixel-Regionen (91; 92) des oder der Objekte (90) nach vordefinierten Homogenitätskriterien segmentiert; – eine Rekonstruierungseinheit (62), welche aus segmentierten 2D-Pixel-Regionen (91; 92) ein 3D-Voxel-Modell (93) des oder der Objekte (90) rekonstruiert; – eine Projizierungseinheit (63), welche das 3D-Voxel-Modell (93) als Referenz für einen Suchraum (SR) in die synchron vorliegenden Wärme-(WB) und etwaige Videobilder (VB) rückprojiziert; und – eine Identifizierungseinheit (64), welche in synchron vorliegenden Wärme-(WB) und etwaigen Videobildern (VB) Silhouetten (94) des oder der Objekte (90) auf Basis des durch die Rückprojektion definierten Suchraums (SR) identifiziert.
  2. Bewegungsanalyse- und/oder -verfolgungssystem (1) nach Anspruch 1, wobei die Bildfrequenz mittels einer Videobildkamera (21, 22, ...) aufgenommener Videobilder (VB) höher ist als die Bildfrequenz mittels einer Wärmebildkamera (11, 12, ...) aufgenommener Wärmebilder (WB), weiterhin umfassend: – eine 2D-Ergänzungseinheit (53), welche fehlende Wärmebilder (WB) so ergänzt, dass zu jedem Videobild (VB) stets ein synchrones Wärmebild (WB) vorhanden ist.
  3. Bewegungsanalyse- und/oder -verfolgungssystem (1) nach Anspruch 1 oder 2, wobei die Modellfrequenz von der Rekonstruierungseinheit (62) erzeugter 3D-Voxel-Modelle (93) geringer ist als die Bildfrequenz mittels einer Wärmebildkamera (11, 12, ...) aufgenommener Wärmebilder (WB) und/oder etwaiger mit einer Videobildkamera (21, 22, ...) aufgenommener Videobilder (VB), weiterhin umfassend: – eine 3D-Ergänzungseinheit (54), welche fehlende 3D-Voxel-Modelle (93) so ergänzt, dass zu jedem Wärme-(WB) und/oder etwaigem Videobild (VB) stets ein synchrones 3D-Voxel-Modell (93) vorhanden ist.
  4. Bewegungsanalyse- und/oder -verfolgungssystem (1) nach einem der Ansprüche 1 bis 3, wobei die Kameragruppe zumindest eine Wärmebildkamera (11, 12, ...) und zumindest zwei Videobildkameras (21, 22, ...) umfasst, – wobei die erste Kamera eine Wärmebildkamera (11) und die zweite Kamera eine Videobildkamera (21) ist, deren Objektive (112; 212) zueinander in einem Abstand x von mindestens zwei Metern angeordnet und/oder deren optische Achsen (113; 213) zueinander unter einem Winkel α von mindestens 45° ausgerichtet sind, – und wobei die dritte Kamera eine Videobildkamera (22) ist, deren Objektiv (222) unmittelbar benachbart zum Objektiv (112) der Wärmebildkamera (11) so angeordnet ist, dass die optischen Achsen (113; 223) beider Kamera (11, 22) zueinander im Wesentlichen parallel ausgerichtet sind.
  5. Bewegungsanalyse- und/oder -verfolgungssystem (1) nach einem der vorherigen Ansprüche; weiterhin umfassend: – eine Segmentierungseinheit (61), welche in einer iterativen Abfolge durchlaufen wird und dabei zusätzlich Suchraum-(SR)-einschränkungen aus dem vorangehenden Iterationsschritt berücksichtigt sowie Homogenitätskriterien dem aktuellen Iterationsschritt anpasst.
  6. Bewegungsanalyse- und/oder -verfolgungssystem (1) nach einem der vorherigen Ansprüche; weiterhin umfassend: – eine Rekonstruierungseinheit (62), welche in einer iterativen Abfolge zusätzlich die zur Rekonstruktion des 3D-Voxel-Modelles (93) verwendeten segmentierten 2D-Pixel Regionen (91, 92) in Abhängigkeit des aktuellen Iterationsschritts, der Art der Kamera (11; 21; 31) und/oder der Qualitätskriterien der 2D-Pixelregionen auswählt.
  7. Bewegungsanalyse- und/oder -verfolgungssystem (1) nach einem der vorherigen Ansprüche, wobei die Kameragruppe zumindest zwei Wärmebildkameras (11, 12) umfasst; weiterhin umfassend: – eine Rekonstruierungseinheit (62), welche zuerst allein aus segmentierten 2D-WB-Pixel-Regionen (91) ein 3D-WB-Voxel-Modell (93) des oder der Objekte (90) rekonstruiert.
  8. Bewegungsanalyse- und/oder -verfolgungssystem (1) nach Anspruch 7, weiterhin umfassend: – eine Projizierungseinheit (63), welche zunächst ein 3D-WB-Voxel-Modell (93) als Referenz für einen Suchraum (SR) in die synchron vorliegenden Wärme-(WB) und etwaige Videobilder (VB) rückprojiziert.
  9. Bewegungsanalyse- und/oder -verfolgungssystem (1) nach einem der vorherigen Ansprüche, weiterhin umfassend: – eine Zuordnungseinheit (65), welche Punkten der identifizierten Silhouetten (94) Punkte vorbekannter Silhouetten (95) eines Modells (MO) des oder der Objekte (90) als Korrespondenz zuordnet und/oder Punkten der vorbekannten Silhouetten (95) eines Modells (MO) des oder der Objekte (90) Punkte der identifizierten Silhouetten (94) als Korrespondenz zuordnet.
  10. Bewegungsanalyse- und/oder -verfolgungssystem (1) nach einem der vorherigen Ansprüche, weiterhin umfassend: – eine Zuordnungseinheit (65), welche optional zusätzlich zu den aus Daten der Silhouetten (95) gewonnenen Korrespondenzen Daten insbesondere weiterer Sensoren (40), etwaiger Bildverarbeitungseinheiten (80) und/oder einer Tiefenbildkamera (31, 32, ...) zur Erstellung von Korrespondenzen verwendet.
  11. Bewegungsanalyse- und/oder -verfolgungssystem (1) nach Anspruch 9 oder 10, weiterhin umfassend: – eine Gewichtungseinheit (66), welche erstellte Korrespondenzen nach fest vordefinierten und/oder variablen Parametern gewichtet.
  12. Bewegungsanalyse- und/oder -verfolgungssystem (1) nach einem der vorherigen Ansprüche, weiterhin umfassend: – eine Bewegungsverfolgungseinheit (71), welche aus zugeordneten Korrespondenzen eine Neuausrichtung eines Modells (MO) des oder der Objekte (90) vornimmt.
  13. Bewegungsanalyse- und/oder -verfolgungssystem (1) nach einem der vorherigen Ansprüche, weiterhin umfassend: – eine Bewegungsverfolgungseinheit (71), welche in einem iterativen Vorgehen nach jeder Iteration mit bereits vorhandenen Korrespondenzen und/oder mit erneut erstellten Korrespondenzen eine Neuausrichtung eines Modells (MO) des oder der Objekte (90) vornimmt, bis die Ausrichtung des Modells (MO) ein vordefiniertes Kriterium erfüllt.
  14. Bewegungsanalyse- und/oder -verfolgungssystem (1) nach einem der vorherigen Ansprüche, weiterhin umfassend: – eine Bewegungsanalyseeinheit (72), welche aus einer final vorliegenden Ausrichtung eines Modells (MO) des oder der Objekte (90) Stellungen und/oder Bewegungen des oder der Objekte (90) analysiert.
  15. Bewegungsanalyse- und/oder -verfolgungssystem (1) nach einem der vorhergehenden Ansprüche, weiterhin umfassend: – eine Visualisierungseinheit (73), welche zur Visualisierung der Temperaturdaten der segmentierten 2D-WB-Pixel-Regionen (91) auf dem 3D-Voxel-Modell (93) und/oder einem, insbesondere final, ausgerichteten Modell (MO) ein Texture-Mapping nutzt.
DE102016107667.8A 2016-04-25 2016-04-25 Bewegungsanalyse- und/oder -verfolgungssystem von bewegten oder sich bewegenden, sich thermisch von ihrer Umgebung abhebenden Objekten Withdrawn DE102016107667A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE102016107667.8A DE102016107667A1 (de) 2016-04-25 2016-04-25 Bewegungsanalyse- und/oder -verfolgungssystem von bewegten oder sich bewegenden, sich thermisch von ihrer Umgebung abhebenden Objekten
PCT/DE2017/100331 WO2017186225A1 (de) 2016-04-25 2017-04-24 Bewegungsanalysesystem und ein dieses umfassendes bewegungsverfolgungssystem von bewegten oder sich bewegenden, sich thermisch von ihrer umgebung abhebenden objekten
CA3061269A CA3061269A1 (en) 2016-04-25 2017-04-24 Motion analysis system and motion tracking system comprising same of moved or moving objects that are thermally distinct from their surroundings
EP17736558.2A EP3449463A1 (de) 2016-04-25 2017-04-24 Bewegungsanalysesystem und ein dieses umfassendes bewegungsverfolgungssystem von bewegten oder sich bewegenden, sich thermisch von ihrer umgebung abhebenden objekten
US16/607,744 US20220237808A1 (en) 2016-04-25 2017-04-24 Motion analysis system and motion tracking system comprising same of moved or moving objects that are thermally distinct from their surroundings
DE112017002158.8T DE112017002158A5 (de) 2016-04-25 2017-04-24 Bewegungsanalysesystem und ein dieses umfassendes bewegungsverfolgungssystem von bewegten oder sich bewegenden, sich thermisch von ihrer umgebung abhebenden objekten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016107667.8A DE102016107667A1 (de) 2016-04-25 2016-04-25 Bewegungsanalyse- und/oder -verfolgungssystem von bewegten oder sich bewegenden, sich thermisch von ihrer Umgebung abhebenden Objekten

Publications (1)

Publication Number Publication Date
DE102016107667A1 true DE102016107667A1 (de) 2017-10-26

Family

ID=59294885

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102016107667.8A Withdrawn DE102016107667A1 (de) 2016-04-25 2016-04-25 Bewegungsanalyse- und/oder -verfolgungssystem von bewegten oder sich bewegenden, sich thermisch von ihrer Umgebung abhebenden Objekten
DE112017002158.8T Withdrawn DE112017002158A5 (de) 2016-04-25 2017-04-24 Bewegungsanalysesystem und ein dieses umfassendes bewegungsverfolgungssystem von bewegten oder sich bewegenden, sich thermisch von ihrer umgebung abhebenden objekten

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE112017002158.8T Withdrawn DE112017002158A5 (de) 2016-04-25 2017-04-24 Bewegungsanalysesystem und ein dieses umfassendes bewegungsverfolgungssystem von bewegten oder sich bewegenden, sich thermisch von ihrer umgebung abhebenden objekten

Country Status (5)

Country Link
US (1) US20220237808A1 (de)
EP (1) EP3449463A1 (de)
CA (1) CA3061269A1 (de)
DE (2) DE102016107667A1 (de)
WO (1) WO2017186225A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10885630B2 (en) * 2018-03-01 2021-01-05 Intuitive Surgical Operations, Inc Systems and methods for segmentation of anatomical structures for image-guided surgery

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7257237B1 (en) 2003-03-07 2007-08-14 Sandia Corporation Real time markerless motion tracking using linked kinematic chains
WO2008109567A2 (en) 2007-03-02 2008-09-12 Organic Motion System and method for tracking three dimensional objects
WO2011141531A1 (de) 2010-05-11 2011-11-17 Movolution Gmbh Bewegungsanalyse- und/oder -verfolgungssystem
WO2012156141A1 (en) 2011-05-16 2012-11-22 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Fast articulated motion tracking

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10033979B2 (en) * 2012-03-23 2018-07-24 Avigilon Fortress Corporation Video surveillance systems, devices and methods with improved 3D human pose and shape modeling

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7257237B1 (en) 2003-03-07 2007-08-14 Sandia Corporation Real time markerless motion tracking using linked kinematic chains
WO2008109567A2 (en) 2007-03-02 2008-09-12 Organic Motion System and method for tracking three dimensional objects
WO2011141531A1 (de) 2010-05-11 2011-11-17 Movolution Gmbh Bewegungsanalyse- und/oder -verfolgungssystem
WO2012156141A1 (en) 2011-05-16 2012-11-22 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Fast articulated motion tracking

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Holte, Michael B., et al. "Human pose estimation and activity recognition from multi-view videos: Comparative explorations of recent developments." IEEE Journal of selected topics in signal processing 6.5 (2012): 538-552 *
Van Baar, Jeroen, et al. "Sensor fusion for depth estimation, including tof and thermal sensors." 3D Imaging, Modeling, Processing, Visualization and Transmission (3DIMPVT), 2012 Second International Conference on. IEEE, 2012 *
Wu, Zheng, et al. "A thermal infrared video benchmark for visual analysis." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops. 2014 *
Wu, Zheng, et al. Tracking-Reconstruction or Reconstruction-Tracking?. CS Department, Boston University, 2010 *

Also Published As

Publication number Publication date
CA3061269A1 (en) 2017-11-02
US20220237808A1 (en) 2022-07-28
DE112017002158A5 (de) 2019-01-24
EP3449463A1 (de) 2019-03-06
WO2017186225A1 (de) 2017-11-02

Similar Documents

Publication Publication Date Title
DE69226512T2 (de) Verfahren zur Bildverarbeitung
DE69910757T2 (de) Wavelet-basierte gesichtsbewegungserfassung für avataranimation
EP2297701B1 (de) Videoanalyse
EP2087459B1 (de) Vorrichtung, verfahren und computerprogramm zum bestimmen einer position basierend auf einem kamerabild
DE102009023896B4 (de) Vorrichtung und Verfahren zum Erfassen einer Pflanze
WO2008083869A1 (de) Verfahren, vorrichtung und computerprogramm zur selbstkalibrierung einer überwachungskamera
DE112011103690T5 (de) Erkennung und Verfolgung sich bewegender Objekte
CN108731587A (zh) 一种基于视觉的无人机动态目标跟踪与定位方法
DE102009038364A1 (de) Verfahren und System zur automatischen Objekterkennung und anschließenden Objektverfolgung nach Maßgabe der Objektform
DE102011054658A1 (de) Verfahren zur Unterscheidung zwischen einem realen Gesicht und einer zweidimensionalen Abbildung des Gesichts in einem biometrischen Erfassungsprozess
EP2901414B1 (de) Verfahren und bildverarbeitungsanlage zum bestimmen von parametern einer kamera
WO2007107315A1 (de) Multisensorieller hypothesen-basierter objektdetektor und objektverfolger
DE102010028904A1 (de) Bewegunganalyse- und/oder -Verfolgungssystem
DE102007013664A1 (de) Multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger
DE112020004301T5 (de) Objekterkennungsvorrichtung
DE102014106718B4 (de) System, welches eine Blickfelddarstellung in einer gegenständlichen Lage in einem veränderbaren Raumwinkelbereich darbietet
DE102016107667A1 (de) Bewegungsanalyse- und/oder -verfolgungssystem von bewegten oder sich bewegenden, sich thermisch von ihrer Umgebung abhebenden Objekten
DE10145608B4 (de) Modellbasierte Objektklassifikation und Zielerkennung
DE102012014022A1 (de) Verfahren und Einrichtung zur objekt- und szenenbezogenen Speicherung von Bild-, Sensor- und/oder Tonsequenzen
DE102021101336A1 (de) Verfahren zur Auswertung von Sensordaten eines Abstandssensors, Ermittlungseinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
EP2940624A1 (de) Verfahren zum Erstellen eines dreidimensionalen virtuellen Modells einer Umgebung für Anwendungen zur Positionsbestimmung
DE102018208604A1 (de) Ermitteln eines Aufnahmeverhaltens einer Aufnahmeeinheit
DE102019102423A1 (de) Verfahren zur Live-Annotation von Sensordaten
Zhuravlev Study of a Method for Effective Noise Suppression in Passive Personnel Screening Systems
DE102022123577B4 (de) Verfahren zum Simulieren von Echosignalen einer mittels eines auf elektromagnetischen Strahlen basierenden Messsystems abgetasteten Szene

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R118 Application deemed withdrawn due to claim for domestic priority