EP3449463A1 - Motion analysis system and motion tracking system comprising same of moved or moving objects that are thermally distinct from their surroundings - Google Patents

Motion analysis system and motion tracking system comprising same of moved or moving objects that are thermally distinct from their surroundings

Info

Publication number
EP3449463A1
EP3449463A1 EP17736558.2A EP17736558A EP3449463A1 EP 3449463 A1 EP3449463 A1 EP 3449463A1 EP 17736558 A EP17736558 A EP 17736558A EP 3449463 A1 EP3449463 A1 EP 3449463A1
Authority
EP
European Patent Office
Prior art keywords
camera
unit
motion analysis
thermal
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP17736558.2A
Other languages
German (de)
French (fr)
Inventor
Andreas Russ
Philipp Russ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Simi Reality Motion Systems GmbH
Original Assignee
Simi Reality Motion Systems GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Simi Reality Motion Systems GmbH filed Critical Simi Reality Motion Systems GmbH
Publication of EP3449463A1 publication Critical patent/EP3449463A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Definitions

  • Motion analysis system and a comprehensive motion tracking system of moving or moving, thermally contrasting from their environment objects
  • the present invention relates to a motion analysis system and a motion tracking system comprising moving or moving objects that are thermally different from their surroundings.
  • movement analyzes are carried out on living objects such as humans in order to improve biomechanics in medicine or sport and to uncover weak points in a movement sequence.
  • a comparable goal is pursued in industrial objects with the analysis of the movements of robot arms or similar grippers.
  • the basis of any movement analysis is the reliable detection, in particular of distance and angle / orientation data, if possible in real time.
  • the object to be analyzed is provided with several marker elements.
  • the data acquisition takes place with the aid of video cameras which record the changes in position of the marker elements attached to the musculoskeletal system of the object by means of continuous digital storage of 2D video images by means of at least one video image recorder and make these recordings available to a data processing system for evaluation.
  • One difficulty with these applications is tracking the movement of each individual marker element in the 2D video image in real time and automatically assigning it a unique identity.
  • a system suitable for this purpose was known commercially under the name Aktisys® and described in detail in WO 2011/141531 AI.
  • Markerless systems In addition to marker-based systems, there is also a high demand in the field of motion analysis and tracking for flexibly deployable systems that can do without attaching additional markers to the target object.
  • moving objects in the background of video images such as spectators at a sporting event or trees moving in the wind, etc .
  • illumination intensities such as moving light sources (headlights), moving shadow sources (clouds) or reflections from moving surfaces (water) etc .
  • headlights moving light sources
  • shadow sources clouds
  • reflections from moving surfaces water etc .
  • insufficient illumination intensities such as in particular in caves, chambers, or in twilight / night shots etc.
  • the object on which the present invention is based is achieved by a motion analysis system and a movement tracking system comprising moving or moving objects that are thermally lifted from their surroundings with the features of the independent patent claims 1 and 12, respectively.
  • a motion analysis system is characterized by a camera group with at least one thermal imaging camera, a calibration unit, a synchronization unit, a segmentation unit, a reconstruction unit, a projection unit and an identification unit.
  • a motion tracking system comprises such a motion analysis system and is characterized by a motion tracking unit which realigns a model of the object (s) from associated correspondences.
  • the present invention opens up hitherto closed application possibilities for motion analysis and / or tracking systems of interest here, in particular in the areas of sports competition analysis, security technology and animal research:
  • sport science has the problem that it analyzes movements primarily in laboratories, but not where the sports movements actually take place: under competitive conditions and in the open field.
  • markerless acquisition and thermal based segmentation as with the present invention. teaches, it is now possible for the first time to analyze the exact biomechanics of, for example, a football player at the moment of his cruciate ligament injury and to follow its movement. This and similar information is of high relevance to sport, in particular with regard to explanation and illustration of performance and injury issues.
  • thermographic analysis provides the opportunity to directly determine the average skin temperature during a sport activity, as well as to map the muscle groups involved in a movement.
  • physiological processes of thermoregulation of the body can not only be tracked directly, but also sports-specific questions can be considered in detail during the course of physical activity.
  • thermographic analysis is primarily used to detect local sources of inflammation. Since the heat generation and radiation of a healthy body is relatively symmetrical, deviations from this symmetry may indicate injuries and possibly diseases. Thus, for example, diseased blood vessels, the formation of certain cancer cells, dysfunction of the thyroid gland, but also fractures or, in a comparatively reduced heat radiation, circulatory disorders can be detected in thermographic images.
  • FIG. 1 shows schematically by way of example a flow analysis diagram of a movement analysis and / or tracking system according to the invention; for example, the arrangement of a first group of cameras, which comprises at least one thermal imaging camera and at least two video image cameras;
  • FIG. 3 shows, by way of example, the arrangement of a second group of cameras, which comprises at least two thermal imaging cameras and optionally video image cameras;
  • FIG. 4 shows by way of example the arrangement of a third group of cameras, which exclusively comprises two or more thermal imaging cameras; and
  • FIG. 5 shows, by way of example, the arrangement of a fourth group of cameras, which comprises a multiplicity of heat and video image cameras arranged arbitrarily with one another.
  • FIG. 1 shows (distributed over three sheets: FIGS. 1 a, 1 b, 1 c) a movement analysis and / or tracking system 1 according to the invention by way of example with reference to a flowchart.
  • video image cameras 21, 22,... Refer to devices which record electromagnetic radiation in the visible light range (wavelength range from 400 to 780 nm) by means of special detectors (video image pickup 20) and from the received electrical signals Generating signals (two-dimensional) 2D video images VB These 2D video images VB are then in the form of pixel graphics.
  • a pixel graphic is a computer readable form of describing an image in which the pixels are arranged in a raster pattern and each pixel is assigned a pixel value.
  • the pixels are typically assigned a particular color (a particular wavelength of visible light) as the pixel value.
  • voxel volumetric pixel
  • 3D voxel models 93 of the object or objects 90 are made up of segmented 2D pixel regions 91; 92 is reconstructed from recordings of at least two cameras by means of a reconstruction unit 62 according to the invention, i. designed.
  • the design (reconstruction) of a 3D voxel model 93 of segmented 2D pixel regions is sometimes referred to as "space carving".
  • thermal imaging cameras 1 1, 12,... Designate devices which record electromagnetic radiation in the infrared range ("heat radiation”, wavelength range: 780 nm to 1 mm), which is particularly of living objects (humans, animals ) is emitted (emitted).
  • the pixel values of the resulting 2D Thermal images WB represent temperature values, which can advantageously also be used for the plausibility of depth information in the 2D heat WB and / or 2D video image VB.
  • the invention makes use of the fact that the body temperature of living objects (humans, animals) normally differs from the temperature of inanimate objects 90 in the environment, so that silhouettes become more vivid from thermal images via so-called thresholding Extracting objects well from the inanimate environment (as a background), environmental factors such as the exposure conditions, the color similarity between the object and the background as well as shading, as they are disturbing for video cameras, are irrelevant in thermal imaging cameras.
  • silhouettes can be advantageously distinguished from the background, in particular by calibrating the temperature range of the image recording to a narrow range around the respective body temperature.
  • the movement analysis system is initially characterized by a group of cameras 11, 12, ..., arranged arbitrarily to one another. 21, 22, ... that the field of view 111, 121, ...; 211, 221, ... of each camera 11, 12, ...; 21, 22, ... with the field of view 111, 121, ...; 211, 221, ... at least one other camera 11, 12, ...; 21, 22, ... of the group intersects so that the set of all fields of view 111, 121,: 211, 211, ... is at least indirectly connected, and
  • the camera group comprises at least one first and second camera whose objectives 112, 122, ...; 212, 222, ... arranged at a distance x of at least two meters and / or their optical axes 113, 123, ...; 213, 223, ... are aligned with each other at an angle ⁇ of at least 45 °,
  • the first camera is a thermal imaging camera 11 for recording thermal radiation by continuous digital storage of 2D Thermal images WB by means of at least one thermal image niehehmers 10, and
  • a video image camera 21 is for recording light radiation by continuous digital storage of 2D video images VB by means of at least one video image pickup 20.
  • a calibration unit 51 is - for example, according to known prior art - a simultaneous 3D spatial calibration of all heat- 1 1, 12, ... and possibly video cameras 21, 22, ... with overlapping fields of view 1 1 1, 121, 21 1, 221, ... ensured.
  • a synchronization unit 52 ensures that the recording, ie the continuous digital storage of 2D heat WB and any 2D video images VB takes place at the same time and / or the recording times of the 2D heat WB and any 2D video images VB are known , In the case of a mixed camera group comprising thermal heat 1 1, 12,... And video image cameras 21, 22, the frequency of the video cameras 21, 22,... Has proven to be an integer multiple of the frequency of the thermal cameras 11 , 12, ... to put.
  • the recording times can be controlled for example by an external trigger signal.
  • a segmentation unit 61 which in the 2D heat WB and any 2D video images VB associated 2D pixel regions 91; 92 of the object or objects 90 according to predefined homogeneity criteria segmented, ie determined.
  • the term “segmentation” refers to the generation of contiguous regions by combining adjacent pixels or voxels according to predefined homogeneity criteria. ⁇ br/> ⁇ br/>
  • image processing methods 80 such as background subtraction, edge detection, threshold value methods, region-based methods, and orientation to model silhouettes can be used
  • 2D methods of thermal imaging WB can optionally use methods other than 2D video images VB - for example Bayesian classifiers.
  • "homogeneity criteria" are in particular the pixel and / or voxel values "color” and / or "temperature”.
  • segmented 2D pixel regions 91; 92 reconstruct a 3D voxel model 93 of the object or objects 90, i. design.
  • the design (reconstruction) of a 3D voxel model 93 of segmented 2D pixel regions is sometimes referred to as "space carving."
  • the present invention is further distinguished by a projection unit 63, by means of which the 3D voxel model 93, which combines pixels from a plurality of synchronously present 2D heat WB and / or any 2D video images VB, as a reference for a search space SR is backprojected into the 2D heat WB and any 2D video images VB.
  • the back-projected pixels of the 3D voxel model 93 correspond to the fields of view 111, 121, ...; 211, 221, ...
  • the present invention finally features an identification unit 64, by means of which silhouettes 94 of the object or objects 90 are identified, ie recognized, in synchronously present 2D heat WB and possible 2D video images VB on the basis of the search space SR defined by the backprojection , to let.
  • the motion analysis system advantageously allows thermally assisted segmentation of both the 2D thermal images and any 2D video images, regardless of the environmental conditions of an object 90 to be analyzed and / or tracked, and without requiring marker elements to be attached to the object 90.
  • the present invention thus opens up hitherto closed application possibilities for motion analysis and / or tracking systems 1 of interest here, in particular in the areas of sports competition analysis, security technology and animal research.
  • 2D thermal images WB is in a preferred embodiment of Invention proposed a 2D supplementary unit 53, which complements missing 2D thermal images WB so that for each 2D video image VB always a synchronous 2D thermal image WB is present.
  • a (not shown) Key Frame Inte ⁇ olation device for the data of the 2D thermal image WB has been proven.
  • the 3D voxel models 93 generated by the reconstruction unit 62 is less than the frame rate of the 2D thermal images WB recorded by means of a thermal imaging camera 11, 12, a video camera 21, 22, ... recorded 2D video images VB
  • an SD supplementation unit 54 is proposed, which complements missing 3D voxel models 93 so that each 2D heat WB and possibly 2D video image VB always a synchronous 3D voxel model 93 is present.
  • this has in practice, for example, a (not shown) Key Frame Inte ⁇ olation device for the 3D data of the voxel model 93 proven.
  • FIG. 2 shows, by way of example, the arrangement of a first group of cameras which comprises at least one thermal imaging camera 11, 12,... And at least two video image cameras 21, 22,.
  • a first group of cameras which comprises at least one thermal imaging camera 11, 12,... And at least two video image cameras 21, 22,.
  • a thermal imaging camera 11 is provided as first camera and a video image camera 21 as second camera, whose objectives 112; 212 arranged at a distance x of at least two meters and / or their optical axes 113; 213 are aligned with each other at an angle ⁇ of at least 45 °,
  • a video image camera 22 is provided, the lens 222 is disposed immediately adjacent to the lens 112 of the thermal imaging camera 11 so that the optical axes 113; 223 of both cameras 11, 22 are aligned substantially parallel to each other.
  • the arrangement of at least one thermal imaging camera 11 in a group of cameras comprising at least two video cameras 21, 22, advantageously permits at least a first plausibility check of insufficiently segmentable 2D video images VB by the segmentation unit 61 and thus the advantageous reconstruction of less faulty 3D cameras.
  • Voxel models 93 are found in the prior art.
  • FIG. 1 optionally shows an iterative sequence (process) in which the segmentation unit 61 and the reconstruction unit 62 are run through repeatedly.
  • the movement analysis and / or tracking system 1 comprises a further segmentation unit 61 which additionally takes into account restrictions of the search space SR based on the results of the 3D voxel model of the preceding iteration step and adapts homogeneity criteria to the current iteration step.
  • the robustness of the system 1 can be further increased by a reconstruction unit 62, which additionally uses in an iterative sequence the segmented 2D pixels regions 91, 92 used for the reconstruction of the 3D voxel model 93 as a function of the current iteration step , the type of camera 11; 21; 31 and / or the quality criteria of the 2D pixel regions.
  • a reconstruction unit 62 which reconstructs the 3D voxel model 93 on the basis of the depth image TB of a depth image camera 31 has proven itself.
  • an iterative sequence of search space restrictions is advantageously available, consisting of segmentation unit 61, reconstruction unit 62 and projection unit 63.
  • FIG. 3 shows, by way of example, the arrangement of a second group of cameras, which encompasses at least two thermal imaging cameras 1 1, 12,... And possibly video image cameras 21, 22,.
  • Fig. 3 it can be seen, as for example
  • a thermal imaging camera 11 as a first camera, a thermal imaging camera 11 and as a second camera, a thermal imaging camera 12 are provided, the lenses 112; 122 arranged at a distance x of at least two meters and / or their optical axes 113; 123 are aligned with each other at an angle ⁇ of at least 45 °,
  • a video image camera 21 is provided, the lens 212 is disposed immediately adjacent to the lens 122 of the second thermal imaging camera 12 so that the optical axes 123; 213 of both camera 12, 21 are aligned substantially parallel to each other.
  • FIG. 4 shows, by way of example, the arrangement of a third group of cameras which comprises a plurality of video cameras 21, 22,..., Arranged in any desired manner, in particular two to three, heat 11, 12,..., And in particular 5 to 6 , With fewer cameras, one would conveniently occupy the positions of the cameras in the order of the camera numbers 11, 12, 21, 22, ... or adapt them to the specific needs of the application-specific motion analysis and / or tracking.
  • the arrangement of a group of cameras encompassing at least two thermal imaging cameras 11, 12,... - as suggested by way of example in FIG. 3 or FIG. 4 - advantageously permits a particularly reliable segmentation of 2D thermal images WB by means of the navigation system.
  • mentation unit 61 two thermal cameras 1 1, 12 whose optical axes 1, 13, 123, ... are arranged at a suitable angle ⁇ already enable the reconstruction of a 3D voxel model 93 purely from 2D thermal images WB.
  • a reconstruction unit 62 which first reconstructs a 3D voxel model 93 of the object or objects 90 from segmented 2D WB pixel regions 91 alone is preferred.
  • the 3D WB voxel model 93 thus obtained purely from data of the 2D thermal image WB is particularly reliable insofar as there is a particularly robust restriction of a search space SR in the 2D video images VB of the video cameras 21, 22,. .. supplies.
  • a projection unit 63 is preferred, which first projects back an SD thermal image WB voxel model 93 as a reference for a search space SR into the synchronously present 2D heat WB and any 2D video images VB.
  • the motion analysis and / or tracking system 1 further comprises an allocation unit 65 which assigns points of the identified silhouettes 94 points of known silhouettes 95 of a model MO of the object or objects 90 as correspondence and / or points of the known silhouettes 95 of a Model MO of the object (s) 90 assigns points of the identified silhouettes 94 as correspondence.
  • the model MO advantageously represents a virtual image of the object or objects 90. As a rule, it will be designed as a kinematic chain with associated point grid and possibly further references to sensors. It is thus possible to project the model MO in its current orientation by means of the calibration unit 51 into the 2D heat WB and possibly 2D video images VB and to display the outline, i. the Silhouette 95, to determine.
  • an allocation unit 65 has proven to be useful which, in addition to the correspondences obtained from data of the silhouettes 95, optionally uses data, in particular further sensors 40, any image processing units 80 and / or a depth camera 31, 32, to generate correspondence. These are related to state variables of a model MO, ie properties related to the current orientation of a model MO.
  • an allocation unit is available, which advantageously additional correspondences by assignment of further state variables of a model MO of the object or objects 90 to data, in particular of further sensors 40, any image processing units 80 and / or a depth image camera 31, 32, ... created.
  • orientation sensors geoscopes
  • acceleration sensors or active heat markers have proven to be suitable for further sensors 40.
  • a depth image camera 31, 32 ... all cameras can be used, which allow the pictorial representation of distances. In this case, each pixel does not receive the color of the object 90 to be seen, as in a video camera 21, 22,... Or the temperature of the object as in a thermal imaging camera 11, 12,..., But the distance of the point of the object 90, is visible in the corresponding pixel.
  • Depth image cameras 31, 32, ... are available in different versions such as:
  • Structured Light in which a light pattern, produced by light of the visible or infrared wavelength range, is projected onto the scene to be recorded, recorded with a camera and the depth information is calculated from the distortion of the pattern with respect to the undistorted pattern;
  • TOF cameras time of flight, which close the distance from transit time measurements of the light
  • Light field cameras which also determines the angle in addition to position and intensity of the incident light and thus allows the calculation of depth information.
  • weighting unit 66 has proven itself, which weighs correspondences created according to fixed predefined and / or variable parameters.
  • weighting criteria can be implemented, which a user can possibly adjust by means of parameters.
  • the movement analysis and / or tracking system 1 further comprises a movement tracking unit 71, which realigns a model MO of the object or objects 90 from associated correspondences.
  • a movement tracking unit 71 has proved particularly useful, which in an iterative procedure after each iteration with already existing correspondences and / or re-aligning a model MO of the object (s) 90 with correspondence created again based on an updated model MO until the orientation of the model MO meets a predefined criterion.
  • a criterion is met, for example, if the orientation of the model MO changes less than a predefined threshold or if a certain number of iterations has been reached. This advantageously provides new silhouettes 95.
  • the movement analysis and / or tracking system 1 further comprises a movement analysis unit 72, which from a final alignment of a model MO of the object or objects 90 positions, in particular existing knee or other joint angle, and / or movements of or of the objects 90 analyzed.
  • the motion analysis and / or tracking system 1 can be supplemented by a visualization unit 73.
  • a visualization unit 73 has proved successful with which either the temperature data of the segmented 2D WB pixel regions 91 can be displayed on the 3D voxel model 93 or on a, in particular final, aligned model MO by means of texture mapping.
  • Such a visualization of the temperature data can advantageously enable thermographic analyzes, in particular during the course of movement of an object 90 to be examined.
  • FIG. 5 shows by way of example the arrangement of a fourth group of cameras which exclusively comprises two or more thermal imaging cameras 11, 12, 13,.
  • FIG. 5 shows how the objectives 1 12, 122, 132 of the exemplary three thermal imaging cameras 11, 12, 13 are arranged at a distance x of at least two meters and / or their optical axes 113, 123, 133 to each other below a Angle ⁇ of at least 45 ° are aligned.
  • the arrangement of a group of cameras formed exclusively of thermal imaging cameras 11, 12, 13,... Advantageously allows the movement analysis and / or tracking of objects 90 even in complete darkness, which is particularly useful for the investigation of nocturnal animals or in the fight against crime is of interest.
  • the motion analysis and / or tracking system 1 of the present invention advantageously allows for thermally-assisted segmentation of both the 2D thermal images and any 2D video images, regardless of the environmental conditions of an object 90 to be analyzed and / or tracked, and without Object 90 marker elements to be attached requires.
  • the present invention thus opens up hitherto closed application possibilities for motion analysis and / or tracking systems 1 of interest here, in particular in the areas of sports competition analysis, security technology and animal research.
  • Lens (122) or (212) of the second camera (12) or (21) ⁇ angle between the optical axis (113) of the first camera (11) and the optical axis (123) or (213) of the second camera (12) or (21)

Abstract

The invention relates to a motion analysis system and motion tracking system comprising same of moved or moving objects (90) that are thermally distinct from their surroundings. Said system is characterized by a camera group (11, 12,...; 21, 22,... ) having at least one thermographic camera (11), a calibration unit (51), a synchronization unit (52), a segmentation unit (61), a reconstruction unit (62), a projection unit (63) and an identification unit (64). Such a system advantageously allows a thermally aided segmentation both of the 2D thermogragraphic images and of any 2D video images, specifically irrespective of the ambient conditions of an object (90) to be analyzed and/or to be tracked and without requiring marker elements attached to the object (90).

Description

Bewegungsanalysesystem und ein dieses umfassendes Bewegungsverfolgungssystem von bewegten oder sich bewegenden, sich thermisch von ihrer Umgebung abhebenden Objekten  Motion analysis system and a comprehensive motion tracking system of moving or moving, thermally contrasting from their environment objects
Gebiet der Erfindung Die vorliegende Erfindung betrifft ein Bewegungsanalysesystem und ein dieses umfassendes Bewegungsverfolgungssystem von bewegten oder sich bewegenden, sich thermisch von ihrer Umgebung abhebenden Objekten. FIELD OF THE INVENTION The present invention relates to a motion analysis system and a motion tracking system comprising moving or moving objects that are thermally different from their surroundings.
Hintergrund der Erfindung Background of the invention
Der Bedarf an Bewegungsanalyse- und/oder -verfolgungssystemen von bewegten oder sich bewegenden Objekten ist weit verbreitet und in den unterschiedlichsten Bereichen gegeben. Vornehmlich werden Bewegungsanalysen bei lebenden Objekten wie Menschen durchgeführt, um in Medizin oder Sport die Biomechanik zu verbessern und Schwach- punkte in einem Bewegungsablauf aufzudecken. Ein vergleichbares Ziel wird bei industriellen Objekten mit der Analyse der Bewegungsabläufe von Roboterarmen oder dergleichen Greifern verfolgt. Grundlage einer jeden Bewegungsanalyse ist dabei die zuverlässige Erfassung insbesondere von Distanz- und Winkel-/Orientierungs-Daten möglichst in Echtzeit. The need for motion analysis and / or tracking systems of moving or moving objects is widespread and in a variety of fields. In particular, movement analyzes are carried out on living objects such as humans in order to improve biomechanics in medicine or sport and to uncover weak points in a movement sequence. A comparable goal is pursued in industrial objects with the analysis of the movements of robot arms or similar grippers. The basis of any movement analysis is the reliable detection, in particular of distance and angle / orientation data, if possible in real time.
Markerbasierte Systeme Marker-based systems
In vielen Anwendungen wird dabei das zu analysierende Objekt mit mehreren Markerelementen versehen. Die Datenerfassung erfolgt mit Hilfe von Videokameras, welche die Positionsänderungen der am Bewegungsapparat des Objektes angebrachten Markerelemente durch fortlaufende digitale Speicherung von 2D-Videobildern mittels wenigstens eines Videobildaufnehmers aufnehmen und diese Aufnahmen einem Datenverarbeitungssystem zur Auswertung bereitstellen. Eine Schwierigkeit besteht bei diesen Anwendungen darin, die Bewegung jedes einzelnen Markerelementes im 2D-Videobild in Echtzeit zu verfolgen und diesen automatisiert eine eindeutige Identität zuzuordnen. Ein diesbezüglich ertüchtigtes System wurde im Handel unter der Bezeichnung Aktisys® bekannt und in der WO 2011/141531 AI eingehend beschriebenen. In many applications, the object to be analyzed is provided with several marker elements. The data acquisition takes place with the aid of video cameras which record the changes in position of the marker elements attached to the musculoskeletal system of the object by means of continuous digital storage of 2D video images by means of at least one video image recorder and make these recordings available to a data processing system for evaluation. One difficulty with these applications is tracking the movement of each individual marker element in the 2D video image in real time and automatically assigning it a unique identity. A system suitable for this purpose was known commercially under the name Aktisys® and described in detail in WO 2011/141531 AI.
Markerlose Systeme Neben markerbasierten Systemen besteht im Bereich der Bewegungsanalyse- und - Verfolgung auch ein hoher Bedarf an flexibel einsetzbaren Systemen, die ohne das Anbringen zusätzlicher Marker am Zielobjekt auskommen. Markerless systems In addition to marker-based systems, there is also a high demand in the field of motion analysis and tracking for flexibly deployable systems that can do without attaching additional markers to the target object.
Zur Lösung dessen wurden Bewegungsanalyse- und/oder -verfolgungssysteme entwi- ekelt, welche die Lokalisierung markerloser Objekte in digitalen Bildsequenzen zum Ziel haben. Diesbezüglich sei exemplarisch auf die US 7,257,237 B l, die WO 2008/109567 A2 sowie die WO 2012/ 156141 AI verwiesen. Obwohl es auch darüber hinaus eine Vielzahl verschiedener Veröffentlichungen zu diesem Thema gibt, unterscheiden sich bekannte markerlose Bewegungsanalyse- und/oder -verfolgungssysteme in der grundlegenden Vorgehensweise recht wenig: Alle bekannten Systeme benötigen eine Form der Segmentierung der Videobilder, welche 2D-Pixel-Regionen nach vordefinierten Homogenitätskriterien erzeugt und den zu erfassenden Objekten zuordnet. To solve this, motion analysis and / or tracking systems have been developed that aim to locate markerless objects in digital image sequences. In this regard, reference is made by way of example to US Pat. No. 7,257,237 B 1, WO 2008/109567 A2 and WO 2012/156141 Al. Although there are also a variety of different publications on the subject, known markerless motion analysis and / or tracking systems differ very little in the basic approach: all known systems require some form of segmentation of the video images, which are 2D pixel regions generates predefined homogeneity criteria and assigns them to the objects to be acquired.
Die bekannten, bisher existierenden und eingesetzten markerlosen Bewegungsanalyse- und/oder -verfolgungssysteme funktionieren jedoch lediglich unter Laborbedingungen mit stabilen und kontrollierten Eigenschaften der Umgebung und/oder der Zielobjekte hinreichend gut. However, the known, previously existing and employed markerless motion analysis and / or tracking systems function reasonably well only under laboratory conditions with stable and controlled properties of the environment and / or target objects.
Außerhalb einer kontrollierten Laborumgebung aber ist eine automatische, robuste und hochgenaue Bewegungsanalyse- und/oder -Verfolgung nach aktuellem Stand der Technik nicht verfügbar. Verhindert wird eine stabile Segmentierung in beliebigen Umgebungen dabei insbesondere durch However, out of a controlled laboratory environment, an automatic, robust and highly accurate state-of-the-art motion analysis and / or tracking is not available. A stable segmentation in any environment is prevented in particular by
sich bewegende Objekte im Hintergrund der Videobilder wie Zuschauer bei einer Sportveranstaltung oder sich im Wind bewegende Bäume etc.; und/oder schnell und inhomogen wechselnde Beleuchtungsintensitäten wie bewegte Lichtquellen (Scheinwerfer), bewegte Schattenquellen (Wolken) oder Reflektionen von bewegten Oberflächen (Wasser) etc.; und/oder moving objects in the background of video images such as spectators at a sporting event or trees moving in the wind, etc .; and or rapidly and inhomogeneously changing illumination intensities such as moving light sources (headlights), moving shadow sources (clouds) or reflections from moving surfaces (water) etc .; and or
unzureichende Beleuchtungsintensitäten wie insbesondere in Höhlen, Kammern, oder bei Dämmerungs-/Nachtaufnahmen etc. anzutreffen.  insufficient illumination intensities such as in particular in caves, chambers, or in twilight / night shots etc.
Ganz besonders für Anwendungen im Outdoor-Bereich stellen alle diese Punkte große Herausforderungen dar. Im Interesse stehende Einsatzmöglichkeiten Especially for applications in the outdoor area, all of these points represent major challenges. In the interest of possible applications
Ohne eine Lösung der beschriebenen Probleme bei der Segmentierung aber bleiben Out- door-Anwendungen für den Einsatz von Bewegungsanalyse- und/oder verfolgungssystemen verschlossen. Dies betrifft beispielsweise die Analyse von Sport- wettkämpfen unter freiem Himmel ebenso wie die Verhaltensanalyse von Tieren in ihrem natürlichen Umfeld. Aber auch im Interesse stehende Anwendungen in geschlossenen Räumen (Sportwettkampfanalyse, Sicherheitstechnik, Tierforschung) haben eine Teilmenge der beschriebenen Hindernisse zu bewältigen, sobald die Umgebung eines zu analysierenden und/oder verfolgenden Objekts nicht wie in einem Labor dediziert auf den Einsatz der bekannten Systeme abgestimmt werden kann. However, without a solution to the segmentation problems described above, out- door applications remain closed to the use of motion analysis and / or tracking systems. This includes, for example, the analysis of outdoor sports competitions as well as the behavioral analysis of animals in their natural environment. However, applications in closed spaces (sports competition analysis, security technology, animal research) that are of interest also have to cope with a subset of the obstacles described, as soon as the environment of an object to be analyzed and / or tracked is not tuned to the use of the known systems, as in a laboratory can.
Der Erfindung zugrundeliegende Aufgabe The problem underlying the invention
Hiervon ausgehend liegt der vorliegenden Erfindung die Aufgabe zugrunde, ein verbes- sertes Bewegungsanalysesystem und ein dieses umfassendes Bewegungsverfolgungssys- tem von bewegten oder sich bewegenden, sich thermisch von ihrer Umgebung abhebenden Objekten bereitzustellen, On this basis, it is an object of the present invention to provide an improved motion analysis system and a motion tracking system comprising moving or moving objects which thermally contrast with their surroundings,
welches die vorstehend aus dem Stand der Technik bekannten Probleme beim Einsatz außerhalb einer kontrollierten Laborumgebung bewältigt,  which overcomes the problems known from the prior art when used outside a controlled laboratory environment,
- vorzugsweise ohne dass es am Objekt anzubringender Markerelemente bedarf. Erfindungsgemäße Lösung Preferably, without requiring marker elements to be attached to the object. Inventive solution
Die der vorliegenden Erfindung zugrunde liegende Aufgabe wird durch ein Bewegungsanalysesystem und ein dieses umfassendes Bewegungsverfolgungssystem von bewegten oder sich bewegenden, sich thermisch von ihrer Umgebung abhebenden Objekten mit den Merkmalen der unabhängigen Patentansprüche 1 beziehungsweise 12 gelöst. The object on which the present invention is based is achieved by a motion analysis system and a movement tracking system comprising moving or moving objects that are thermally lifted from their surroundings with the features of the independent patent claims 1 and 12, respectively.
Vorteilhafte Ausgestaltungen der Erfindung, welche einzeln oder in Kombination miteinander einsetzbar sind, sind in den abhängigen Ansprüchen angegeben. Advantageous embodiments of the invention, which can be used individually or in combination with one another, are specified in the dependent claims.
Ein Bewegungsanalysesystem nach der Erfindung zeichnet sich durch eine Kameragruppe mit wenigstens einer Wärmebildkamera, eine Kalibrierungseinheit, eine Synchronisie- rungseinheit, eine Segmentierungseinheit, eine Rekonstruierungseinheit, eine Projizie- rungseinheit sowie eine Identifizierungseinheit aus. A motion analysis system according to the invention is characterized by a camera group with at least one thermal imaging camera, a calibration unit, a synchronization unit, a segmentation unit, a reconstruction unit, a projection unit and an identification unit.
Ein Bewegungsverfolgungssystem nach Erfindung umfasst ein solches Bewegungsanalysesystem und zeichnet sich durch eine Bewegungsverfolgungseinheit aus, welche aus zugeordneten Korrespondenzen eine Neuausrichtung eines Modells des oder der Objekte vornimmt. A motion tracking system according to the invention comprises such a motion analysis system and is characterized by a motion tracking unit which realigns a model of the object (s) from associated correspondences.
Beide Systeme ermöglichen vorteilhaft eine thermisch gestützte Segmentierung unabhängig von den Umgebungsbedingungen eines zu analysierenden und/oder verfolgenden Objekts und ohne dass es am Objekt anzubringender Markerelemente bedarf. Neue Einsatzmöglichkeiten Both systems advantageously allow thermally assisted segmentation regardless of the environmental conditions of an object to be analyzed and / or tracked and without requiring marker elements to be attached to the object. New uses
Die vorliegende Erfindung eröffnet bislang verschlossene Einsatzmöglichkeiten für hier interessierende Bewegungsanalyse- und/oder -verfolgungssysteme, insbesondere in den Bereichen Sportwettkampfanalyse, Sicherheitstechnik und Tierfbrschung: The present invention opens up hitherto closed application possibilities for motion analysis and / or tracking systems of interest here, in particular in the areas of sports competition analysis, security technology and animal research:
Die Sportwissenschaft hat gegenwärtig unter anderem das Problem, dass sie Bewegungen vor allem in Laboren analysiert aber nicht dort, wo die Sportbewegungen tatsächlich stattfinden: unter Wettkampfbedingungen und im freien Feld. Mit einer markerlosen Erfassung und thermisch gestützten Segmentierung wie mit der vorliegenden Erfindung ge- lehrt, ist es nun erstmals möglich, die genaue Biomechanik beispielsweise eines Fußballspielers im Moment seiner Kreuzbandverletzung zu analysieren und dessen Bewegung zu verfolgen. Diese und ähnliche Informationen sind von hoher Relevanz für den Sport, insbesondere im Hinblick der Erklärung und Veranschaulichung von Leistungs- und Ver- letzungsfragen. Among other things, sport science has the problem that it analyzes movements primarily in laboratories, but not where the sports movements actually take place: under competitive conditions and in the open field. With markerless acquisition and thermal based segmentation as with the present invention. teaches, it is now possible for the first time to analyze the exact biomechanics of, for example, a football player at the moment of his cruciate ligament injury and to follow its movement. This and similar information is of high relevance to sport, in particular with regard to explanation and illustration of performance and injury issues.
Darüber hinaus können die von der oder den Wärmebildkameras aufgenommenen Daten auch vorteilhaft zur thermografischen Analyse herangezogen werden. Thermografische Messmethoden bieten die Möglichkeit, die mittlere Hauttemperatur während einer sport- liehen Aktivität direkt zu ermitteln, wie auch die bei einer Bewegung beteiligten Muskelgruppen abzubilden. Dadurch können physiologische Abläufe der Thermoregulation des Körpers nicht nur direkt verfolgt, vielmehr können auch sportartspezifische Fragestellungen im Verlauf der körperlichen Tätigkeit eingehend betrachtet werden. In der Allgemeinmedizin wird die thermografische Analyse in erster Linie verwendet, um lokale Ent- zündungsherde zu erkennen. Da die Wärmeerzeugung und -abstrahlung eines gesunden Körpers relativ symmetrisch ist, können Abweichungen von dieser Symmetrie auf Verletzungen und gegebenenfalls auf Erkrankungen hinweisen. So können bspw. erkrankte Blutgefäße, die Bildung bestimmter Krebszellen, Fehlfunktionen der Schilddrüse, aber auch Knochenbrüche oder, bei einer vergleichsweise reduzierten Wärmeabstrahlung, Durchblutungsstörungen in Thermographie-Bildern erkannt werden. In addition, the data recorded by the thermal imaging camera or cameras can also be advantageously used for thermographic analysis. Thermographic measurement methods provide the opportunity to directly determine the average skin temperature during a sport activity, as well as to map the muscle groups involved in a movement. As a result, physiological processes of thermoregulation of the body can not only be tracked directly, but also sports-specific questions can be considered in detail during the course of physical activity. In general practice, thermographic analysis is primarily used to detect local sources of inflammation. Since the heat generation and radiation of a healthy body is relatively symmetrical, deviations from this symmetry may indicate injuries and possibly diseases. Thus, for example, diseased blood vessels, the formation of certain cancer cells, dysfunction of the thyroid gland, but also fractures or, in a comparatively reduced heat radiation, circulatory disorders can be detected in thermographic images.
Neuere wissenschaftliche Arbeiten zeigen, dass Menschen auch anhand ihres eindeutigen Gang- und Bewegungsmusters identifiziert werden können. Wo Methoden wie Fingerabdrücke und Gesichtserkennung an ihre Grenzen stoßen, können Bewegungsmerkmale weniger leicht umgangen werden. Mit einem System der markerlosen Bewegungsanalyse- und/oder -Verfolgung und thermisch gestützten Segmentierung wie mit der vorliegenden Erfindung gelehrt, ist es erstmals auch möglich, Gang- und Bewegungsmusters als Merkmale bei der Identifikation von Personen einzusetzen. Im Bereich der Erforschung tierischen Lebensraums oder tierischer Verhaltensmuster (Tierkunde) sowie der präklinischen Forschung ist die Analyse und/oder Verfolgung der Bewegung von Tieren ein wesentliches Forschungselement. Dabei werden neue medizinische Verfahren besonders in den Bereichen Parkinson, Paresen und Alzheimer untersucht. Das Anbringen von Markern an Tieren ist problematisch, da diese in der Regel keine Marker akzeptieren. Die markerlose Erfassung ist hier besonders gefragt. Allerdings erschweren häufig sehr kleine Endeffektoren und Verdeckungen durch Fell eine saubere Segmentierung und Bewegungsanalyse und/oder -Verfolgung. Ferner beeinflussen speziell installierte Lichtquellen das Verhalten der Tiere und verfälschen somit die erhaltenen Daten. Mit Hilfe der thermisch gestützten Segmentierung wie mit der vorliegenden Erfindung gelehrt, ist es schließlich erstmals gelungen, diese Probleme zu umgehen und eine leistungsfähige markerlose Bewegungsanalyse und/oder -Verfolgung bei Tieren anzubieten. Kurzbeschreibung der Zeichnungen Recent scientific work shows that people can also be identified by their unique gait and movement pattern. Where methods such as fingerprints and facial recognition reach their limits, movement characteristics are less easily circumvented. With a system of markerless motion analysis and / or tracking and thermal based segmentation as taught by the present invention, it is also possible for the first time to employ gait and movement patterns as features in the identification of persons. In the field of research on animal habitat or animal behavior patterns (animal science) as well as preclinical research, the analysis and / or tracing of the movement of animals is an essential research element. New medical procedures are being investigated, particularly in the areas of Parkinson's, paresis and Alzheimer's disease. The attachment of markers to animals is problematic, as these are usually do not accept markers. The markerless registration is particularly in demand here. However, very small coat endings and hides often complicate clean segmentation and motion analysis and / or tracing. Furthermore, specially installed light sources affect the behavior of the animals and thus distort the data obtained. Finally, with the aid of thermally assisted segmentation as taught by the present invention, it has been possible for the first time to circumvent these problems and to offer powerful markerless motion analysis and / or tracking in animals. Brief description of the drawings
Zusätzliche Einzelheiten und weitere Vorteile der Erfindung werden nachfolgend an Hand bevorzugter Ausführungsbeispiele, auf welche die vorliegende Erfindung jedoch nicht beschränkt ist, und in Verbindung mit den beigefügten Zeichnungen beschrieben. Additional details and further advantages of the invention will be described below with reference to preferred embodiments, to which, however, the present invention is not limited, and in conjunction with the accompanying drawings.
Es zeigen schematisch: beispielhaft anhand eines Flussdiagramms ein Bewegungsanalyse- und/oder verfolgungssystem nach der Erfindung; beispielhaft die Anordnung einer ersten Gruppe an Kameras, welche zumindest eine Wärmebildkamera und zumindest zwei Videobildkameras umfasst; 1 shows schematically by way of example a flow analysis diagram of a movement analysis and / or tracking system according to the invention; for example, the arrangement of a first group of cameras, which comprises at least one thermal imaging camera and at least two video image cameras;
Fig. 3 beispielhaft die Anordnung einer zweiten Gruppe an Kameras, welche zumindest zwei Wärmebildkameras und ggf. Videobildkameras umfasst; FIG. 3 shows, by way of example, the arrangement of a second group of cameras, which comprises at least two thermal imaging cameras and optionally video image cameras;
Fig. 4 beispielhaft die Anordnung einer dritten Gruppe an Kameras, welche ausschließlich zwei oder mehr Wärmebildkameras umfasst; und Fig. 5 beispielhaft die Anordnung einer vierten Gruppe an Kameras, welche eine Vielzahl beliebig zueinander angeordneter Wärme- und Videobildkameras umfasst. Ausführliche Figurenbeschreibung 4 shows by way of example the arrangement of a third group of cameras, which exclusively comprises two or more thermal imaging cameras; and FIG. 5 shows, by way of example, the arrangement of a fourth group of cameras, which comprises a multiplicity of heat and video image cameras arranged arbitrarily with one another. Detailed description of the figures
Bei der nachfolgenden Beschreibung bevorzugter Ausführungsformen der vorliegenden Erfindung bezeichnen gleiche Bezugszeichen gleiche oder vergleichbare Komponenten. In the following description of preferred embodiments of the present invention, like reference characters designate like or similar components.
Fig. 1 zeigt (verteilt auf drei Blätter: Figuren la, lb, lc) beispielhaft anhand eines Fluss- diagrammes ein Bewegungsanalyse- und/oder -verfolgungssystem 1 nach der Erfindung. FIG. 1 shows (distributed over three sheets: FIGS. 1 a, 1 b, 1 c) a movement analysis and / or tracking system 1 according to the invention by way of example with reference to a flowchart.
Dabei werden im Kontext der vorliegenden Erfindung mit„Videobildkameras" 21, 22, ... Geräte bezeichnet, die elektromagnetische Strahlung im Bereich des sichtbaren Lichts (Wellenlängenbereich von 400 bis 780 nm) mittels spezieller Detektoren (Videobildaufnehmer 20) aufzeichnen und aus den erhaltenen elektrischen Signale (zweidimensionale) 2D-Videobilder VB generieren. Diese 2D-Videobilder VB liegen dann in Form von Pixelgrafiken vor. In the context of the present invention, "video image cameras" 21, 22,... Refer to devices which record electromagnetic radiation in the visible light range (wavelength range from 400 to 780 nm) by means of special detectors (video image pickup 20) and from the received electrical signals Generating signals (two-dimensional) 2D video images VB These 2D video images VB are then in the form of pixel graphics.
Eine Pixelgrafik ist eine computerlesbare Form der Beschreibung eines Bildes, bei der die Bildpunkte (Pixel) rasterförmig angeordnet sind und jedem Pixel ein Pixelwert zugewiesen ist. Im Fall von 2D-Videobildern VB im Kontext dieser Erfindung wird den Pixeln als Pixelwert typischerweise eine bestimmte Farbe (eine bestimmte Wellenlänge des sichtbaren Lichts) zugeordnet. A pixel graphic is a computer readable form of describing an image in which the pixels are arranged in a raster pattern and each pixel is assigned a pixel value. In the case of 2D video images VB in the context of this invention, the pixels are typically assigned a particular color (a particular wavelength of visible light) as the pixel value.
Unter dem Begriff „Voxel" (volumetric pixel) wird entsprechend ein Datenelement (,,Bild"punkt) in einem dreidimensionalen Gitter verstanden. Im Kontext der Erfindung werden 3D-Voxel-Modelle 93 des oder der Objekte 90 aus segmentierten 2D-Pixel-Regionen 91 ; 92 von Aufnahmen von mindestens zwei Kameras mittels einer erfindungsgemäßen Rekonstruierungseinheit 62 rekonstruiert, d.h. entworfen. Der Entwurf (Rekonstruktion) eines 3D-Voxel-Modells 93 aus segmentierten 2D- Pixel-Regionen wird mitunter auch als„Space Carving" bezeichnet. The term "voxel" (volumetric pixel) is accordingly understood to mean a data element ("image" point) in a three-dimensional grid. In the context of the invention, 3D voxel models 93 of the object or objects 90 are made up of segmented 2D pixel regions 91; 92 is reconstructed from recordings of at least two cameras by means of a reconstruction unit 62 according to the invention, i. designed. The design (reconstruction) of a 3D voxel model 93 of segmented 2D pixel regions is sometimes referred to as "space carving".
„Wärmebildkameras" 1 1, 12, ... bezeichnen im Kontext der vorliegenden Erfindung Geräte, die elektromagnetische Strahlung im Infrarot-Bereich („Wärmestrahlung"; Wellenlängenbereich: 780 nm bis 1 mm) aufzeichnen, welche insbesondere von lebenden Objekten (Menschen, Tiere) ausgesendet (emittiert) wird. Die Pixelwerte, der so erhaltenen 2D- Wärmebilder WB repräsentieren Temperaturwerte, welche vorteilhaft auch zur Plausibilisierung von Tiefeninformationen im 2D-Wärme- WB und/oder 2D-Videobild VB herangezogen werden können. In the context of the present invention, "thermal imaging cameras" 1 1, 12,... Designate devices which record electromagnetic radiation in the infrared range ("heat radiation", wavelength range: 780 nm to 1 mm), which is particularly of living objects (humans, animals ) is emitted (emitted). The pixel values of the resulting 2D Thermal images WB represent temperature values, which can advantageously also be used for the plausibility of depth information in the 2D heat WB and / or 2D video image VB.
Diesbezüglich macht die Erfindung sich zunutze, dass sich die Körpertemperatur von lebenden Objekten (Menschen, Tiere) normalerweise von der Temperatur unbelebter Objekte 90 in der Umgebung unterscheidet, so dass sich aus Wärmebildern über sog. Schwellenwertverfahren (engl,„thresholding") die Silhouetten lebender Objekte gut von der unbelebten Umgebung (als Hintergrund) extrahieren lassen. Dabei spielen Umgebungseinflüsse, wie die Belichtungsbedingungen, die Farbähnlichkeit zwischen Objekt und Hintergrund sowie etwaige Abschattungen, wie sie für Videokameras störend sind, bei Wärmebildkameras keine Rolle. In this regard, the invention makes use of the fact that the body temperature of living objects (humans, animals) normally differs from the temperature of inanimate objects 90 in the environment, so that silhouettes become more vivid from thermal images via so-called thresholding Extracting objects well from the inanimate environment (as a background), environmental factors such as the exposure conditions, the color similarity between the object and the background as well as shading, as they are disturbing for video cameras, are irrelevant in thermal imaging cameras.
Selbst bei starker Sonneneinstrahlung und der damit einhergehenden Aufheizung der Umgebung im Vergleich zur Körpertemperatur lebender Objekten, lassen sich, insbesondere durch Kalibrierung des Temperaturbereichs der Bildaufnahme auf einen engen Bereich um die jeweilige Körpertemperatur, Silhouetten vorteilhaft noch vom Hintergrund unterscheiden. Even in strong sunlight and the associated heating of the environment compared to the body temperature of living objects, silhouettes can be advantageously distinguished from the background, in particular by calibrating the temperature range of the image recording to a narrow range around the respective body temperature.
Das erfindungsgemäße Bewegungsanalysesystem zeichnet sich zunächst durch eine Gruppe dergestalt beliebig zueinander angeordneter Kameras 11, 12, ... ; 21, 22, ... aus, dass das Sichtfeld 111, 121, ... ; 211, 221, ... einer jeden Kamera 11, 12, ... ; 21, 22, ... sich mit dem Sichtfeld 111, 121, ... ; 211, 221, ... wenigstens einer anderen Kamera 11, 12, ... ; 21, 22, ... der Gruppe so überschneidet, dass die Menge aller Sichtfelder 111, 121, : 211, 211, ... zumindest mittelbar zusammenhängt, und The movement analysis system according to the invention is initially characterized by a group of cameras 11, 12, ..., arranged arbitrarily to one another. 21, 22, ... that the field of view 111, 121, ...; 211, 221, ... of each camera 11, 12, ...; 21, 22, ... with the field of view 111, 121, ...; 211, 221, ... at least one other camera 11, 12, ...; 21, 22, ... of the group intersects so that the set of all fields of view 111, 121,: 211, 211, ... is at least indirectly connected, and
dass die Kameragruppe zumindest eine erste und zweite Kamera umfasst, deren Objektive 112, 122, ... ; 212, 222, ... zueinander in einem Abstand x von mindestens zwei Metern angeordnet und/oder deren optische Achsen 113, 123, ... ; 213, 223, ... zueinander unter einem Winkel α von mindestens 45° ausgerichtet sind,  the camera group comprises at least one first and second camera whose objectives 112, 122, ...; 212, 222, ... arranged at a distance x of at least two meters and / or their optical axes 113, 123, ...; 213, 223, ... are aligned with each other at an angle α of at least 45 °,
wobei die erste Kamera eine Wärmebildkamera 11 ist zur Aufnahme von Wärmestrahlung durch fortlaufende digitale Speicherung von 2D- Wärmebildern WB mittels wenigstens eines Wärmebildaufhehmers 10, und wherein the first camera is a thermal imaging camera 11 for recording thermal radiation by continuous digital storage of 2D Thermal images WB by means of at least one thermal image Aufhehmers 10, and
wobei die zweite Kamera  being the second camera
eine weitere Wärmebildkamera 12 ist  another thermal imaging camera 12 is
oder  or
eine Videobildkamera 21 ist zur Aufnahme von Lichtstrahlung durch fortlaufende digitale Speicherung von 2D-Videobildern VB mittels wenigstens eines Videobildaufnehmers 20. Mittels einer Kalibrierungseinheit 51 wird - beispielsweise nach bekanntem Stand der Technik - eine simultane räumliche 3D-Kalibrierung aller Wärme- 1 1 , 12, ... und ggf. Videokameras 21, 22, ... mit überschneidenden Sichtfeldern 1 1 1 , 121 , 21 1, 221, ... sichergestellt. Darüber hinaus stellt eine Synchronisierungseinheit 52 sicher, dass die Aufnahme, also die fortlaufende digitale Speicherung von 2D-Wärme- WB und etwaigen 2D- Videobildern VB zeitgleich erfolgt und/oder die Aufnahmezeitpunkte der 2D-Wärme- WB und etwaigen 2D-Videobilder VB bekannt sind. Bei einer gemischten, Wärme- 1 1, 12, ... und Videobildkameras 21, 22, umfassenden Kameragruppe hat sich vorzugs- weise bewährt, die Frequenz der Videokameras 21, 22, ... auf ein ganzzahliges Vielfaches der Frequenz der Wärmekameras 1 1, 12, ... zu setzen. Die Aufnahmezeitpunkte können beispielsweise durch ein externes Trigger-Signal gesteuert sein.  A video image camera 21 is for recording light radiation by continuous digital storage of 2D video images VB by means of at least one video image pickup 20. By means of a calibration unit 51 is - for example, according to known prior art - a simultaneous 3D spatial calibration of all heat- 1 1, 12, ... and possibly video cameras 21, 22, ... with overlapping fields of view 1 1 1, 121, 21 1, 221, ... ensured. In addition, a synchronization unit 52 ensures that the recording, ie the continuous digital storage of 2D heat WB and any 2D video images VB takes place at the same time and / or the recording times of the 2D heat WB and any 2D video images VB are known , In the case of a mixed camera group comprising thermal heat 1 1, 12,... And video image cameras 21, 22, the frequency of the video cameras 21, 22,... Has proven to be an integer multiple of the frequency of the thermal cameras 11 , 12, ... to put. The recording times can be controlled for example by an external trigger signal.
Des Weiteren ist nach der Erfindung eine Segmentierungseinheit 61 vorgesehen, welche in den 2D-Wärme- WB und etwaigen 2D-Videobildern VB zugehörige 2D-Pixel- Regionen 91 ; 92 des oder der Objekte 90 nach vordefinierten Homogenitätskriterien segmentiert, d.h. bestimmt. Der Begriff „Segmentierung" bezeichnet dabei die Erzeugung von inhaltlich zusammenhängenden Regionen durch Zusammenfassung benachbarter Pixel oder Voxel entsprechend vordefinierter Homogenitätskriterien. Zur Segmentierung können erfindungsgemäß bevorzugt insbesondere Bildbearbeitungsverfahren 80 wie die der Hintergrundsubtraktion, der Kantenerkennung, Schwellenwertverfahren, regionenbasierte Methoden sowie die Orientierung an Modellsilhouetten (berechnet aus MO) herangezogen werden. Dabei können auf 2D-Wärmebilder WB optional andere Methoden angewendet werden, als auf 2D-Videobilder VB - zum Beispiel Bayes-Klassifikatoren. „Homogenitätskriterien" sind im Kontext der Erfindung insbesondere die Pixel- und/oder Voxelwerte„Farbe" und/oder„Temperatur". Furthermore, according to the invention, a segmentation unit 61 is provided, which in the 2D heat WB and any 2D video images VB associated 2D pixel regions 91; 92 of the object or objects 90 according to predefined homogeneity criteria segmented, ie determined. The term "segmentation" refers to the generation of contiguous regions by combining adjacent pixels or voxels according to predefined homogeneity criteria. <br/><br/> For segmentation, particularly image processing methods 80 such as background subtraction, edge detection, threshold value methods, region-based methods, and orientation to model silhouettes can be used In this case, 2D methods of thermal imaging WB can optionally use methods other than 2D video images VB - for example Bayesian classifiers. In the context of the invention, "homogeneity criteria" are in particular the pixel and / or voxel values "color" and / or "temperature".
Mittels einer erfindungsgemäßen Rekonstruierungseinheit 62 lässt sich sodann aus seg- mentierten 2D-Pixel-Regionen 91; 92 ein 3D-Voxel-Modell 93 des oder der Objekte 90 rekonstruieren, d.h. entwerfen. Der Entwurf (Rekonstruktion) eines 3D-Voxel-Modells 93 aus segmentierten 2D-Pixel-Regionen wird mitunter auch als„Space Carving" bezeichnet. Im Rahmen der vorliegenden Erfindung kann die Auswahl der tatsächlich zum „Space Carving" verwendeten Kameras 11, 12, ... ; 21, 22, ... vorteilhaft anwendungsbe- zogen, also flexibel erfolgen - es können zum Beispiel stets alle 11, 12, 21, 22, ... oder aber auch lediglich die Wärmekameras 11, 12, ... Verwendung finden. Die Berücksichtigung der Sichtfelder 111, 121, ... ; 211, 221, ... mehrerer, räumlich versetzter Kameras 11, 12, ... ; 21, 22, deren Objektive 112, 122, ... ; 212, 222, ... zueinander in einem Abstand x von mindestens zwei Metern angeordnet und/oder deren optische Ach- sen 113, 123, ... ; 213, 223, ... zueinander unter einem Winkel α von mindestens 45° ausgerichtet sind, erlaubt vorteilhaft die Rekonstruktion eines 3D-Voxel-Modells 93, in welchem jedes 3D-Voxel die Information mehrerer, in unterschiedlichen Sichtfeldern 111, 121, ... ; 21 1, 221, ... aufgenommener Pixel aus synchron vorliegenden 2D-Wärme- WB und/oder etwaigen 2D-Videobildern VB vereint. Synchronisierung 52 und Kalibrie- rung 51 sind notwendige Voraussetzungen für die Rekonstruierungseinheit 62. By means of a reconstruction unit 62 according to the invention, segmented 2D pixel regions 91; 92 reconstruct a 3D voxel model 93 of the object or objects 90, i. design. The design (reconstruction) of a 3D voxel model 93 of segmented 2D pixel regions is sometimes referred to as "space carving." In the context of the present invention, the selection of the cameras 11, 12, actually used for "space carving" can be selected. ...; 21, 22,... Are advantageously application-related, that is to say flexible - for example, all 11, 12, 21, 22,... Or even only the thermal cameras 11, 12,... Can always be used. The consideration of the fields of view 111, 121, ...; 211, 221, ... of a plurality of spatially offset cameras 11, 12, ...; 21, 22, whose lenses 112, 122, ...; 212, 222, ... arranged at a distance x of at least two meters and / or their optical axes 113, 123, ...; 213, 223, ... are aligned with each other at an angle α of at least 45 °, advantageously allows the reconstruction of a 3D voxel model 93, in which each 3D voxel the information of several, in different fields of view 111, 121, .. .; 21 1, 221, ... taken from synchronously present 2D heat WB and / or any 2D video images VB united. Synchronization 52 and calibration 51 are necessary prerequisites for the reconstruction unit 62.
Die vorliegende Erfindung zeichnet sich des Weiteren durch eine Projizierungseinheit 63 aus, mittels welcher das, die Pixel aus mehreren synchron vorliegender 2D-Wärme- WB und/oder etwaiger 2D -Videobilder VB vereinende, 3D-Voxel-Modell 93 als Referenz für einen Suchraum SR in die 2D-Wärme- WB und etwaige 2D-Videobilder VB rückproji- ziert wird. Dabei korrespondieren die rückprojizierten Pixel des 3D-Voxel-Modells 93 mit den Sichtfeldern 111, 121, ... ; 211, 221, ... der jeweiligen 2D-Wärme- WB und/oder etwaiger 2D-Videobilder VB, wobei insbesondere Segmentierungen einzelner schlecht segmentierbarer 2D-Wärme- WB und/oder etwaiger 2D-Videobilder VB von guten Seg- mentierungsergebnissen synchron vorliegender 2D-Wärme- WB und/oder etwaigen 2D- Videobildern VB aus den Sichtfeldern 1 11, 121, ... ; 211, 221, ... anderer Kameras 11, 12, ... ; 21, 22, ... profitieren. Dies hat zum Vorteil, dass sich die Identifizierung von Silhouetten 94 des oder der Objekte 90 in den einzelnen 2D-Wärme- WB und/oder etwaigen 2D -Videobildern VB auf den so erzeugten Suchraum SR einschränken lässt. Folglich zeichnet sich die vorliegende Erfindung schließlich durch eine Identifizierungseinheit 64 aus, mittels welcher sich in synchron vorliegenden 2D-Wärme- WB und etwaigen 2D-Videobildern VB Silhouetten 94 des oder der Objekte 90 auf Basis des durch die Rückprojektion definierten Suchraums SR identifizieren, d.h. erkennen, lassen. The present invention is further distinguished by a projection unit 63, by means of which the 3D voxel model 93, which combines pixels from a plurality of synchronously present 2D heat WB and / or any 2D video images VB, as a reference for a search space SR is backprojected into the 2D heat WB and any 2D video images VB. In this case, the back-projected pixels of the 3D voxel model 93 correspond to the fields of view 111, 121, ...; 211, 221, ... of the respective 2D heat WB and / or any 2D video images VB, in particular segmentations of individual poorly segmentable 2D heat WB and / or any 2D video images VB of good segmentation results of synchronously present 2D -Warm- WB and / or any 2D video images VB from the fields of view 1 11, 121, ...; 211, 221, ... other cameras 11, 12, ...; 21, 22, ... benefit. This has the advantage that the identification of silhouettes 94 of the object or objects 90 in the individual 2D heat WB and / or any 2D video images VB can be limited to the search space SR thus created. Finally, the present invention finally features an identification unit 64, by means of which silhouettes 94 of the object or objects 90 are identified, ie recognized, in synchronously present 2D heat WB and possible 2D video images VB on the basis of the search space SR defined by the backprojection , to let.
Das erfindungsgemäße Bewegungsanalysesystem ermöglicht vorteilhaft eine thermisch gestützte Segmentierung, sowohl der 2D-Wärmebilder als auch etwaiger 2D-Videobilder, und zwar unabhängig von den Umgebungsbedingungen eines zu analysierenden und/oder verfolgenden Objekts 90 und ohne dass es am Objekt 90 anzubringender Markerelemente bedarf. Die vorliegende Erfindung eröffnet damit bislang verschlossene Einsatzmöglichkeiten für hier interessierende Bewegungsanalyse- und/oder -verfolgungssysteme 1, ins- besondere in den Bereichen Sportwettkampfanalyse, Sicherheitstechnik und Tierforschung. The motion analysis system according to the invention advantageously allows thermally assisted segmentation of both the 2D thermal images and any 2D video images, regardless of the environmental conditions of an object 90 to be analyzed and / or tracked, and without requiring marker elements to be attached to the object 90. The present invention thus opens up hitherto closed application possibilities for motion analysis and / or tracking systems 1 of interest here, in particular in the areas of sports competition analysis, security technology and animal research.
Soweit die Bildfrequenz, d.h. die Anzahl Bilder pro Zeiteinheit, der mittels einer Videobildkamera 21, 22, ... aufgenommener 2D-Videobilder VB höher ist als die Bildfrequenz der mittels einer Wärmebildkamera 1 1, 12, ... aufgenommener 2D-Wärmebilder WB wird in einer bevorzugten Ausgestaltung der Erfindung eine 2D-Ergänzungseinheit 53 vorgeschlagen, welche fehlende 2D-Wärmebilder WB so ergänzt, dass zu jedem 2D- Videobild VB stets ein synchrones 2D-Wärmebild WB vorhanden ist. Hierfür hat sich in der Praxis beispielsweise eine (nicht dargestellte) Key-Frame-Inteφolation-Einrichtung für die Daten des 2D-Wärmebilds WB bewährt. As far as the frame rate, i. the number of images per unit of time, which is higher than the frame rate of the captured by means of a video camera 21, 22, ... 2D video images VB 2 by means of a thermal imaging camera 1 1, 12, ... recorded 2D thermal images WB is in a preferred embodiment of Invention proposed a 2D supplementary unit 53, which complements missing 2D thermal images WB so that for each 2D video image VB always a synchronous 2D thermal image WB is present. For this purpose, in practice, for example, a (not shown) Key Frame Inteφolation device for the data of the 2D thermal image WB has been proven.
Soweit die Modellfrequenz, d.h. die Anzahl erzeugter Modelle pro Zeiteinheit, der von der Rekonstruierungseinheit 62 erzeugten 3D-Voxel-Modelle 93 geringer ist als die Bildfrequenz der mittels einer Wärmebildkamera 11, 12, ... aufgenommener 2D-Wärmebilder WB und/oder etwaiger mit einer Videokamera 21, 22, ... aufgenommener 2D- Videobilder VB, wird in einer bevorzugten Ausgestaltung der Erfindung eine SD- Ergänzungseinheit 54 vorgeschlagen, welche fehlende 3D-Voxel-Modelle 93 so ergänzt, dass zu jedem 2D-Wärme- WB und etwaigem 2D-Videobild VB stets ein synchrones 3D- Voxel-Modell 93 vorhanden ist. Auch hierfür hat sich in der Praxis beispielsweise eine (nicht dargestellte) Key-Frame-Inteφolation-Einrichtung für die 3D-Daten des Voxel- Modells 93 bewährt. Insofar as the model frequency, ie the number of generated models per unit of time, the 3D voxel models 93 generated by the reconstruction unit 62 is less than the frame rate of the 2D thermal images WB recorded by means of a thermal imaging camera 11, 12, a video camera 21, 22, ... recorded 2D video images VB, in a preferred embodiment of the invention, an SD supplementation unit 54 is proposed, which complements missing 3D voxel models 93 so that each 2D heat WB and possibly 2D video image VB always a synchronous 3D voxel model 93 is present. Again, this has in practice, for example, a (not shown) Key Frame Inteφolation device for the 3D data of the voxel model 93 proven.
Fig. 2 zeigt beispielhaft die Anordnung einer ersten Gruppe von Kameras, welche zumin- dest eine Wärmebildkamera 11, 12, ... und zumindest zwei Videobildkameras 21, 22, ... umfasst. In Fig. 2 ersichtlich ist, wie 2 shows, by way of example, the arrangement of a first group of cameras which comprises at least one thermal imaging camera 11, 12,... And at least two video image cameras 21, 22,. In Fig. 2 it can be seen how
als erste Kamera eine Wärmebildkamera 11 und als zweite Kamera eine Videobildkamera 21 vorgesehen sind, deren Objektive 112 ; 212 zueinander in einem Abstand x von mindestens zwei Metern angeordnet und/oder deren optische Ach- sen 113 ; 213 zueinander unter einem Winkel α von mindestens 45° ausgerichtet sind,  a thermal imaging camera 11 is provided as first camera and a video image camera 21 as second camera, whose objectives 112; 212 arranged at a distance x of at least two meters and / or their optical axes 113; 213 are aligned with each other at an angle α of at least 45 °,
und wie als dritte Kamera eine Videobildkamera 22 vorgesehen ist, deren Objektiv 222 unmittelbar benachbart zum Objektiv 112 der Wärmebildkamera 11 so angeordnet ist, dass die optischen Achsen 113 ; 223 beider Kameras 11, 22 zuei- nander im Wesentlichen parallel ausgerichtet sind.  and as a third camera, a video image camera 22 is provided, the lens 222 is disposed immediately adjacent to the lens 112 of the thermal imaging camera 11 so that the optical axes 113; 223 of both cameras 11, 22 are aligned substantially parallel to each other.
Die Anordnung zumindest einer Wärmebildkamera 11 in einer zumindest zwei Videokameras 21, 22, ... umfassenden Gruppe an Kameras erlaubt vorteilhaft zumindest eine erste Plausibilisierung nur unzureichend segmentierbarer 2D-Videobilder VB durch die Segmentierungseinheit 61 und damit die vorteilhafte Rekonstruierung weniger fehlerbe- hafteter 3D-Voxel-Modelle 93 als im Stand der Technik anzutreffen.  The arrangement of at least one thermal imaging camera 11 in a group of cameras comprising at least two video cameras 21, 22, advantageously permits at least a first plausibility check of insufficiently segmentable 2D video images VB by the segmentation unit 61 and thus the advantageous reconstruction of less faulty 3D cameras. Voxel models 93 are found in the prior art.
Fig. 1 zeigt optional eine iterative Abfolge (Prozess), bei dem die Segmentierungseinheit 61 und die Rekonstruierungseinheit 62 wiederholt durchlaufen werden. Dabei umfasst das Bewegungsanalyse- und/oder -verfolgungssystem 1 in einer weiteren bevorzugten Ausge- staltung eine weitere Segmentierungseinheit 61, welche zusätzlich Einschränkungen des Suchraums SR basierend auf den Ergebnissen des 3D-Voxelmodels des vorangehenden Iterationsschritt berücksichtigt und Homogenitätskriterien dem aktuellen Iterationsschritt anpasst. Dies steigert vorteilhaft die Robustheit des Systems 1, insbesondere profitieren Segmentierungen einzelner schlecht segmentierbarer 2D-Wärme- WB und/oder etwaiger 2D-Videobilder VB von guten Segmentierungsergebnissen in anderen synchron vorliegender 2D-Wärme- WB und/oder etwaigen 2D-Videobildern VB aus den Sichtfeldern 111, 121, ... ; 211, 221, ... anderer Kameras 11, 12, ... ; 21, 22, ... . In einer alternativen oder kumulativen Ausgestaltung kann die Robustheit des Systems 1 weiter gesteigert werden durch eine Rekonstruierungseinheit 62, welche in einer iterativen Abfolge zusätzlich die zur Rekonstruktion des 3D-Voxel-Modelles 93 verwendeten segmentierten 2D-Pixel Regionen 91, 92 in Abhängigkeit des aktuellen Iterationsschritts, der Art der Kamera 11 ; 21 ; 31 und/oder der Qualitätskriterien der 2D-Pixelregionen auswählt. Insbesondere hat sich eine Rekonstruierungseinheit 62 bewährt, welche das 3D- Voxel-Model 93 zusätzlich auf Basis des Tiefenbildes TB einer Tiefenbildkamera 31 rekonstruiert. Im Ergebnis ist vorteilhaft eine iterative Abfolge von Suchraumeinschränkungen erhältlich, bestehend aus Segmentierungseinheit 61, Rekonstruierungseinheit 62 und Projizierungseinheit 63. FIG. 1 optionally shows an iterative sequence (process) in which the segmentation unit 61 and the reconstruction unit 62 are run through repeatedly. In another preferred embodiment, the movement analysis and / or tracking system 1 comprises a further segmentation unit 61 which additionally takes into account restrictions of the search space SR based on the results of the 3D voxel model of the preceding iteration step and adapts homogeneity criteria to the current iteration step. This advantageously increases the robustness of the system 1, in particular the segmentations of individual poorly segmentable 2D heat WBs and / or any 2D video images VB benefit from good segmentation results in other synchronously present 2D heat WBs and / or any 2D video images VB Fields of view 111, 121, ...; 211, 221, ... other cameras 11, 12, ...; 21, 22, .... In an alternative or cumulative embodiment, the robustness of the system 1 can be further increased by a reconstruction unit 62, which additionally uses in an iterative sequence the segmented 2D pixels regions 91, 92 used for the reconstruction of the 3D voxel model 93 as a function of the current iteration step , the type of camera 11; 21; 31 and / or the quality criteria of the 2D pixel regions. In particular, a reconstruction unit 62 which reconstructs the 3D voxel model 93 on the basis of the depth image TB of a depth image camera 31 has proven itself. As a result, an iterative sequence of search space restrictions is advantageously available, consisting of segmentation unit 61, reconstruction unit 62 and projection unit 63.
Fig. 3 zeigt beispielhaft die Anordnung einer zweiten Gruppe an Kameras, welche zumindest zwei Wärmebildkameras 1 1, 12, ... und ggf. Videobildkameras 21, 22, ... um- fasst. In Fig. 3 ersichtlich ist, wie zum Beispiel 3 shows, by way of example, the arrangement of a second group of cameras, which encompasses at least two thermal imaging cameras 1 1, 12,... And possibly video image cameras 21, 22,. In Fig. 3 it can be seen, as for example
als erste Kamera eine Wärmebildkamera 11 und als zweite Kamera eine Wärmebildkamera 12 vorgesehen sind, deren Objektive 112 ; 122 zueinander in einem Abstand x von mindestens zwei Metern angeordnet und/oder deren optische Achsen 113 ; 123 zueinander unter einem Winkel α von mindestens 45° ausgerichtet sind,  as a first camera, a thermal imaging camera 11 and as a second camera, a thermal imaging camera 12 are provided, the lenses 112; 122 arranged at a distance x of at least two meters and / or their optical axes 113; 123 are aligned with each other at an angle α of at least 45 °,
und wie als dritte Kamera eine Videobildkamera 21 vorgesehen ist, deren Objektiv 212 unmittelbar benachbart zum Objektiv 122 der zweiten Wärmebildkamera 12 so angeordnet ist, dass die optischen Achsen 123 ; 213 beider Kamera 12, 21 zueinander im Wesentlichen parallel ausgerichtet sind.  and as a third camera, a video image camera 21 is provided, the lens 212 is disposed immediately adjacent to the lens 122 of the second thermal imaging camera 12 so that the optical axes 123; 213 of both camera 12, 21 are aligned substantially parallel to each other.
Fig. 4 zeigt beispielhaft die Anordnung einer dritten Gruppe an Kameras, welche eine Vielzahl beliebig zueinander angeordneter, insbesondere zwei bis drei, Wärme- 11, 12, ... und, insbesondere fünf bis sechs, Videobildkameras 21, 22, ... umfasst. Bei weniger Kameras würden man die Positionen der Kameras zweckmäßiger Weise in der Reihenfolge der Kameranummern 11, 12, 21, 22, ... besetzen oder an die speziellen Bedürfnisse der anwendungsspezifischen Bewegungsanalyse und/oder -Verfolgung anpassen. FIG. 4 shows, by way of example, the arrangement of a third group of cameras which comprises a plurality of video cameras 21, 22,..., Arranged in any desired manner, in particular two to three, heat 11, 12,..., And in particular 5 to 6 , With fewer cameras, one would conveniently occupy the positions of the cameras in the order of the camera numbers 11, 12, 21, 22, ... or adapt them to the specific needs of the application-specific motion analysis and / or tracking.
Die Anordnung einer zumindest zwei Wärmebildkameras 11, 12, ... umfassenden Gruppe an Kameras - wie beispielhaft in Fig. 3 oder Fig. 4 vorgeschlagen - erlaubt vorteilhaft eine besonders zuverlässige Segmentierung von 2D -Wärmebildern WB mittels der Seg- mentierungseinheit 61. So ermöglichen bereits zwei Wärmekameras 1 1, 12, deren optische Achsen 1 13, 123, ... unter einem passenden Winkel α angeordnet sind, die Rekonstruierung eines 3D-Voxel-Modells 93 rein aus 2D-Wärmebildern WB. Erfindungs- gemäß bevorzugt ist daher eine Rekonstruierungseinheit 62, welche zuerst allein aus segmentierten 2D-WB-Pixel-Regionen 91 ein 3D-Voxel-Modell 93 des oder der Objekte 90 rekonstruiert. The arrangement of a group of cameras encompassing at least two thermal imaging cameras 11, 12,... - as suggested by way of example in FIG. 3 or FIG. 4 - advantageously permits a particularly reliable segmentation of 2D thermal images WB by means of the navigation system. mentation unit 61. Thus, two thermal cameras 1 1, 12 whose optical axes 1, 13, 123, ... are arranged at a suitable angle α already enable the reconstruction of a 3D voxel model 93 purely from 2D thermal images WB. According to the invention, therefore, a reconstruction unit 62 which first reconstructs a 3D voxel model 93 of the object or objects 90 from segmented 2D WB pixel regions 91 alone is preferred.
Das so, rein aus Daten des 2D-Wärmebilds WB, gewonnene 3D-WB-Voxel-Modell 93 ist insoweit besonders zuverlässig, als es eine besonders robuste Einschränkung eines Such- raums SR in den 2D-Videobildern VB der Videokameras 21 , 22, ... liefert. Erfindungsgemäß bevorzugt ist daher eine Projizierungseinheit 63, welche zunächst ein SD- Wärmebild- WB-Voxel-Modell 93 als Referenz für einen Suchraum SR in die synchron vorliegenden 2D-Wärme- WB und etwaige 2D-Videobilder VB rückprojiziert. In einer weiteren bevorzugten Ausgestaltung umfasst das Bewegungsanalyse- und/oder - verfolgungssystem 1 weiterhin eine Zuordnungseinheit 65, welche Punkte der identifizierten Silhouetten 94 Punkte vorbekannter Silhouetten 95 eines Modells MO des oder der Objekte 90 als Korrespondenz zuordnet und/oder Punkten der vorbekannten Silhouetten 95 eines Modells MO des oder der Objekte 90 Punkte der identifizierten Silhouetten 94 als Korrespondenz zuordnet. Das Modell MO stellt vorteilhaft ein virtuelles Abbild des oder der Objekte 90 dar. Im Regelfall wird es als kinematische Kette mit zugehörigem Punktgitter und ggf. weiteren Referenzen auf Sensoren ausgestaltet sein. Es ist somit möglich, das Modell MO in seiner aktuellen Ausrichtung mittels der Kalibrierungseinheit 51 in die 2D-Wärme- WB und ggf. 2D-Videobilder VB zu projizieren und den Umriss, d.h. die Silhouette 95, zu bestimmen. The 3D WB voxel model 93 thus obtained purely from data of the 2D thermal image WB is particularly reliable insofar as there is a particularly robust restriction of a search space SR in the 2D video images VB of the video cameras 21, 22,. .. supplies. According to the invention, therefore, a projection unit 63 is preferred, which first projects back an SD thermal image WB voxel model 93 as a reference for a search space SR into the synchronously present 2D heat WB and any 2D video images VB. In a further preferred embodiment, the motion analysis and / or tracking system 1 further comprises an allocation unit 65 which assigns points of the identified silhouettes 94 points of known silhouettes 95 of a model MO of the object or objects 90 as correspondence and / or points of the known silhouettes 95 of a Model MO of the object (s) 90 assigns points of the identified silhouettes 94 as correspondence. The model MO advantageously represents a virtual image of the object or objects 90. As a rule, it will be designed as a kinematic chain with associated point grid and possibly further references to sensors. It is thus possible to project the model MO in its current orientation by means of the calibration unit 51 into the 2D heat WB and possibly 2D video images VB and to display the outline, i. the Silhouette 95, to determine.
Dabei hat sich insbesondere eine Zuordnungseinheit 65 bewährt, welche optional zusätzlich zu den aus Daten der Silhouetten 95 gewonnenen Korrespondenzen Daten insbesondere weiterer Sensoren 40, etwaiger Bildverarbeitungseinheiten 80 und/oder einer Tie- fenbildkamera 31, 32, ... zur Erstellung von Korrespondenzen verwendet. Diese werden in Bezug zu Zustandsgrößen eines Modells MO, also Eigenschaften in Bezug auf die aktuelle Ausrichtung eines Modells MO gesetzt. Im Ergebnis ist eine Zuordnungseinheit erhältlich, welche vorteilhaft zusätzliche Korrespondenzen durch Zuordnung weiterer Zustandsgrößen eines Modells MO des oder der Objekte 90 zu Daten insbesondere von weiteren Sensoren 40, etwaiger Bildverarbeitungseinheiten 80 und/oder einer Tiefenbildkamera 31, 32, ... erstellt. An weiteren Sensoren 40 haben sich insbesondere Orientierungssensoren (Gyroskope), Beschleunigungssensoren oder aktive Wärmemarker bewährt. An Bildverarbeitungseinheiten 80 sind bekannte Gesichtserkenner, Mustererken- ner oder sog. Pattern Matcher bevorzugt. Als Tiefenbildkamera 31, 32, ... können alle Kameras zum Einsatz kommen, welche die bildliche Darstellung von Entfernungen erlauben. Dabei erhält jedes Pixel nicht die Farbe des zu sehenden Objekts 90 wie bei einer Videokamera 21, 22, ... oder die Temperatur des Objekts wie bei einer Wärmebildkamera 11, 12, ... , sondern den Abstand des Punkts des Objekts 90, der in dem entsprechenden Pixel sichtbar ist. Tiefenbildkameras 31, 32, ... gibt es in unterschiedlichen Ausführungen wie: In this case, in particular, an allocation unit 65 has proven to be useful which, in addition to the correspondences obtained from data of the silhouettes 95, optionally uses data, in particular further sensors 40, any image processing units 80 and / or a depth camera 31, 32, to generate correspondence. These are related to state variables of a model MO, ie properties related to the current orientation of a model MO. As a result, an allocation unit is available, which advantageously additional correspondences by assignment of further state variables of a model MO of the object or objects 90 to data, in particular of further sensors 40, any image processing units 80 and / or a depth image camera 31, 32, ... created. In particular, orientation sensors (gyroscopes), acceleration sensors or active heat markers have proven to be suitable for further sensors 40. At image processing units 80, known face recognizers, pattern recognizers or so-called pattern matchers are preferred. As a depth image camera 31, 32, ... all cameras can be used, which allow the pictorial representation of distances. In this case, each pixel does not receive the color of the object 90 to be seen, as in a video camera 21, 22,... Or the temperature of the object as in a thermal imaging camera 11, 12,..., But the distance of the point of the object 90, is visible in the corresponding pixel. Depth image cameras 31, 32, ... are available in different versions such as:
Stereokameras;  Stereo cameras;
Structured Light, hierbei wird ein Lichtmuster, erzeugt durch Licht des sichtbaren oder infraroten Wellenlängenbereichs, auf die aufzunehmende Szene projiziert, mit einer Kamera aufgezeichnet und aus der Verzerrung des Musters gegenüber dem unverzerrten Muster die Tiefeninformation berechnet;  Structured Light, in which a light pattern, produced by light of the visible or infrared wavelength range, is projected onto the scene to be recorded, recorded with a camera and the depth information is calculated from the distortion of the pattern with respect to the undistorted pattern;
TOF-Kameras (Time of flight), welche aus Laufzeitmessungen des Lichts auf die Distanz schließen; oder  TOF cameras (time of flight), which close the distance from transit time measurements of the light; or
Lichtfeldkameras, welche neben Position und Intensität des einfallenden Lichts auch den Winkel bestimmt und somit die Berechnung von Tiefeninformation erlaubt.  Light field cameras, which also determines the angle in addition to position and intensity of the incident light and thus allows the calculation of depth information.
Ebenso hat sich eine Gewichtungseinheit 66 bewährt, welche erstellte Korrespondenzen nach fest vordefinierten und/oder variablen Parametern gewichtet. Insbesondere können Gewichtungskriterien implementiert sein, die ein Nutzer ggf. mittels Parameter anpassen kann. Likewise, a weighting unit 66 has proven itself, which weighs correspondences created according to fixed predefined and / or variable parameters. In particular, weighting criteria can be implemented, which a user can possibly adjust by means of parameters.
In einer weiteren bevorzugten Ausgestaltung umfasst das Bewegungsanalyse- und/oder - verfolgungssystem 1 weiterhin eine Bewegungsverfolgungseinheit 71, welche aus zuge- ordneten Korrespondenzen eine Neuausrichtung eines Modells MO des oder der Objekte 90 vornimmt. In a further preferred refinement, the movement analysis and / or tracking system 1 further comprises a movement tracking unit 71, which realigns a model MO of the object or objects 90 from associated correspondences.
Dabei hat sich insbesondere eine Bewegungsverfolgungseinheit 71 bewährt, welche in einem iterativen Vorgehen nach jeder Iteration mit bereits vorhandenen Korrespondenzen und/oder mit erneut auf der Basis eines aktualisierten Modells MO erstellten Korrespondenzen eine Neuausrichtung eines Modells MO des oder der Objekte 90 vornimmt, bis die Ausrichtung des Modells MO ein vordefiniertes Kriterium erfüllt. Ein solches Kriterium ist beispielsweise dann erfüllt, wenn die Ausrichtung des Modells MO sich weniger als ein vordefinierter Schwellenwert ändert oder eine bestimmte Iterationsanzahl erreicht ist. Dies liefert vorteilhaft neue Silhouetten 95. In this case, a movement tracking unit 71 has proved particularly useful, which in an iterative procedure after each iteration with already existing correspondences and / or re-aligning a model MO of the object (s) 90 with correspondence created again based on an updated model MO until the orientation of the model MO meets a predefined criterion. Such a criterion is met, for example, if the orientation of the model MO changes less than a predefined threshold or if a certain number of iterations has been reached. This advantageously provides new silhouettes 95.
In einer weiteren bevorzugten Ausgestaltung umfasst das Bewegungsanalyse- und/oder - verfolgungssystem 1 weiterhin eine Bewegungsanalyseeinheit 72, welche aus einer final vorliegenden Ausrichtung eines Modells MO des oder der Objekte 90 Stellungen, insbesondere vorhandene Knie- oder andere Gelenkwinkel, und/oder Bewegungen des oder der Objekte 90 analysiert. In a further preferred embodiment, the movement analysis and / or tracking system 1 further comprises a movement analysis unit 72, which from a final alignment of a model MO of the object or objects 90 positions, in particular existing knee or other joint angle, and / or movements of or of the objects 90 analyzed.
In einer weiteren vorteilhaften Ausgestaltung kann das Bewegungsanalyse- und/oder - verfolgungssystem 1 um eine Visualisierungseinheit 73 ergänzt werden. Dabei hat sich eine Visualisierungseinheit 73 bewährt, mit welcher wahlweise die Temperaturdaten der segmentierten 2D-WB-Pixel-Regionen 91 auf dem 3D-Voxel-Modell 93 oder auf einem, insbesondere final, ausgerichteten Modell MO mittels Texture-Mapping dargestellt werden können. Eine derartige Visualisierung der Temperaturdaten kann vorteilhaft thermo- grafische Analysen insbesondere während des Bewegungsablaufs eines zu untersuchenden Objekts 90 ermöglichen. In a further advantageous embodiment, the motion analysis and / or tracking system 1 can be supplemented by a visualization unit 73. In this case, a visualization unit 73 has proved successful with which either the temperature data of the segmented 2D WB pixel regions 91 can be displayed on the 3D voxel model 93 or on a, in particular final, aligned model MO by means of texture mapping. Such a visualization of the temperature data can advantageously enable thermographic analyzes, in particular during the course of movement of an object 90 to be examined.
Fig. 5 schließlich zeigt beispielhaft die Anordnung einer vierten Gruppe an Kameras, welche ausschließlich zwei oder mehr Wärmebildkameras 11, 12, 13, ... umfasst. In Fig. 5 ersichtlich ist, wie die Objektive 1 12, 122, 132 der beispielshaft dargestellten drei Wärmebildkameras 11, 12, 13 zueinander in einem Abstand x von mindestens zwei Metern angeordnet und/oder deren optischen Achsen 113, 123, 133 zueinander unter einem Winkel α von mindestens 45° ausgerichtet sind. Die Anordnung einer ausschließlich aus Wärmebildkameras 11, 12, 13, ... gebildeten Gruppe an Kameras erlaubt vorteilhaft die Bewegungsanalyse- und/oder -Verfolgung von Objekten 90 auch bei völliger Dunkelheit, was insbesondere für die Erforschung nachtaktiver Tiere oder bei der Kriminalitätsbe- kämpfüng von Interesse ist. Das erfindungsgemäße Bewegungsanalyse- und/oder -verfolgungssystem 1 ermöglicht vorteilhaft eine thermisch gestützte Segmentierung, sowohl der 2D-Wärmebilder als auch etwaiger 2D-Videobilder, und zwar unabhängig von den Umgebungsbedingungen eines zu analysierenden und/oder zu verfolgenden Objekts 90 und ohne dass es am Objekt 90 anzubringender Markerelemente bedarf. Die vorliegende Erfindung eröffnet damit bislang verschlossene Einsatzmöglichkeiten für hier interessierende Bewegungsanalyse- und/oder -verfolgungssysteme 1, insbesondere in den Bereichen Sportwettkampfanalyse, Sicherheitstechnik und Tierforschung. Finally, FIG. 5 shows by way of example the arrangement of a fourth group of cameras which exclusively comprises two or more thermal imaging cameras 11, 12, 13,. FIG. 5 shows how the objectives 1 12, 122, 132 of the exemplary three thermal imaging cameras 11, 12, 13 are arranged at a distance x of at least two meters and / or their optical axes 113, 123, 133 to each other below a Angle α of at least 45 ° are aligned. The arrangement of a group of cameras formed exclusively of thermal imaging cameras 11, 12, 13,... Advantageously allows the movement analysis and / or tracking of objects 90 even in complete darkness, which is particularly useful for the investigation of nocturnal animals or in the fight against crime is of interest. The motion analysis and / or tracking system 1 of the present invention advantageously allows for thermally-assisted segmentation of both the 2D thermal images and any 2D video images, regardless of the environmental conditions of an object 90 to be analyzed and / or tracked, and without Object 90 marker elements to be attached requires. The present invention thus opens up hitherto closed application possibilities for motion analysis and / or tracking systems 1 of interest here, in particular in the areas of sports competition analysis, security technology and animal research.
Bezugszeichenliste LIST OF REFERENCE NUMBERS
1 Bewegungsanalyse- und/oder -verfolgungssystem 1 motion analysis and / or tracking system
10 Wärmebildaufhehmer 10 thermal imagers
I I, 12, ... Wärmebildkameras  I I, 12, ... thermal imaging cameras
I I I, 121, ... Sichtfeld der Wärmebildkamera (11, 12, ... )  I I I, 121, ... Field of view of the thermal imaging camera (11, 12, ...)
112, 122, ... Objektiv der Wärmebildkamera (11, 12, ... ) 112, 122, ... Lens of the thermal imaging camera (11, 12, ...)
113, 123, ... optische Achse (Blickrichtung) der Wärmebildkamera (11, 12, ... )  113, 123, ... optical axis (viewing direction) of the thermal imaging camera (11, 12, ...)
20 Videobildaufnehmer 20 video image pickup
21 , 22, ... Videobildkameras  21, 22, ... video cameras
211, 221, ... Sichtfeld der Videobildkamera (21, 22, ... ) 211, 221, ... Field of view of the video camera (21, 22, ...)
212, 222, ... Objektiv der Videobildkamera (21, 22, ... )  212, 222, ... Lens of the video camera (21, 22, ...)
213, 223, ... optische Achse (Blickrichtung) der Videobildkamera (21, 22, ... )  213, 223, ... optical axis (viewing direction) of the video image camera (21, 22, ...)
30 Tiefenbildaufhehmer 30 depth image recorders
31, 32, ... Tiefenbildkameras 31, 32, ... depth image cameras
311, 321, ... Sichtfeld der Tiefenbildkamera (31, 32, ... )  311, 321, ... Field of view of the depth image camera (31, 32, ...)
312, 322, ... Objektiv der Tiefenbildkamera (31, 32, ... )  312, 322, ... Lens of the depth image camera (31, 32, ...)
313, 333, ... optische Achse (Blickrichtung) der Tiefenbildkamera (31, 32, ... ) 40 andere Sensoren  313, 333, ... optical axis (viewing direction) of the depth image camera (31, 32, ...) 40 other sensors
51 Kalibrierungseinheit 51 Calibration unit
52 Synchronisierungseinheit  52 Synchronization unit
53 2D-Ergänzungseinheit, insb. Key-Frame-Inteφolation-Einrichtung 54 3D-Ergänzungseinheit, insb. Key-Frame-Inteφolation-Einrichtung  53 2D supplementary unit, esp. Key frame integration unit 54 3D supplementary unit, in particular key frame integration unit
61 Segmentierungseinheit 61 segmentation unit
62 Rekonstruierungseinheit  62 reconstruction unit
63 Projizierungseinheit 64 Identifizierungseinheit 63 projection unit 64 identification unit
65 Zuordnungseinheit 65 allocation unit
66 Gewichtungseinheit 66 weighting unit
71 Bewegungsverfolgungseinheit 71 motion tracking unit
72 Bewegungsanalyseeinheit 72 motion analysis unit
73 Visualisierungseinheit 73 visualization unit
80 diverse Bildverarbeitungseinheiten 80 different image processing units
90 Objekt 90 object
91 2D-WB-Pixel-Region/en des oder der Objekte (90) 91 2D WB pixel region (s) of the object or objects (90)
92 2D-VB-Pixel-Region/en des oder der Objekte (90) 92 2D VB pixel region (s) of the object or objects (90)
93 3D-Voxel-Modell des oder der Objekte (90) 93 3D voxel model of the object or objects (90)
94 identifizierte Silhouetten des oder der Objekte (90) 94 identified silhouettes of the object or objects (90)
95 (vor-)bekannte Silhouetten des Modells (MO) des oder der Objekte (90) 95 (pre-) known silhouettes of the model (MO) of the object or objects (90)
MO Modell des Objekts (90) MO model of the object (90)
WB 2D-Wärmebild WB 2D thermal image
VB 2D-Videobild VB 2D video image
TB Tiefenbild TB depth image
SR Suchraum x Abstand zwischen dem Objektiv (112) der ersten Kamera (11) und dem SR search space x distance between the lens (112) of the first camera (11) and the
Objektiv (122) oder (212) der zweiten Kamera (12) oder (21) α Winkel zwischen der optischen Achse (113) der ersten Kamera (11) und der optischen Achse (123) oder (213) der zweiten Kamera (12) oder (21)  Lens (122) or (212) of the second camera (12) or (21) α angle between the optical axis (113) of the first camera (11) and the optical axis (123) or (213) of the second camera (12) or (21)

Claims

Patentansprüche claims
1. Bewegungsanalysesystem von bewegten oder sich bewegenden, sich thermisch von ihrer Umgebung abhebenden Objekten (90), 1. Motion analysis system of moving or moving objects thermally lifted from their surroundings (90),
wenigstens umfassend:  at least comprising:
eine Gruppe dergestalt beliebig zueinander angeordneter Kameras (11, 12, ... ; 21, 22, ...),  a group of such arbitrarily arranged cameras (11, 12, ...; 21, 22, ...),
dass das Sichtfeld (111, 121, ... ; 211, 221, ... ) einer jeden Kamera (11, 12, ... ; 21, 22, ... ) sich mit dem Sichtfeld (111, 121, ... ; 211, 221, ... ) wenigstens einer anderen Kamera (11, 12, ... ; 21, 22, ...) der Gruppe so überschneidet, dass die Menge aller Sichtfelder (111, 121, : 21 1, 21 1, ... ) zumindest mittelbar zusammenhängt, und  the field of view (111, 121, ...; 211, 221, ...) of each camera (11, 12, ...; 21, 22, ...) coincides with the field of view (111, 121,. ..; 211, 221, ...) of at least one other camera (11, 12, ...; 21, 22, ...) of the group intersects so that the set of all fields of view (111, 121, 21 1 , 21 1, ...) is at least indirectly connected, and
dass die Kameragruppe zumindest eine erste und zweite Kamera umfasst, deren Objektive (112, 122, ... ; 212, 222, ... ) zueinander in einem Abstand x von mindestens zwei Metern angeordnet und/oder deren optische Achsen (113, 123, ... ; 213, 223, ... ) zueinander unter einem Winkel α von mindestens 45° ausgerichtet sind,  the camera group comprises at least one first and second camera whose objectives (112, 122, ...; 212, 222, ...) are arranged at a distance x of at least two meters from one another and / or their optical axes (113, 123 , ...; 213, 223, ...) are aligned with each other at an angle α of at least 45 °,
wobei die erste Kamera eine Wärmebildkamera (11) ist zur Aufnahme von Wärmestrahlung durch fortlaufende digitale Speicherung von 2D-Wärmebildern (WB) mittels wenigstens eines Wärmebildaufnehmers (10), und wobei die zweite Kamera  wherein the first camera is a thermal imaging camera (11) for receiving thermal radiation by continuous digital storage of 2D thermal images (WB) by means of at least one thermal imager (10), and wherein the second camera
eine weitere Wärmebildkamera (12) ist oder  another thermal imaging camera (12) is or
eine Videobildkamera (21) ist zur Aufnahme von Lichtstrahlung durch fortlaufende digitale Speicherung von 2D-Videobildern (VB) mittels wenigstens eines Videobildaufnehmers (20); eine Kalibrierungseinheit (51), welche eine räumliche 3D-Kalibrierung aller Kameras (11, 12, ... ; 21, 22, ... ) mit überschneidenden Sichtfeldern (111, 121, ... ; 211, 221, ... ) sicherstellt; a video image camera (21) is for receiving light radiation by continuous digital storage of 2D video images (VB) by means of at least one video image recorder (20); a calibration unit (51), which performs a 3D spatial calibration of all cameras (11, 12, ...; 21, 22, ...) with overlapping fields of view (111, 121, ...; 211, 221, ... ) ensures;
eine Synchronisierungseinheit (52), welche sicherstellt, dass die Aufnahme von 2D-Wärme- (WB) und etwaigen 2D-Videobildern (VB) zeitgleich erfolgt und/oder die Aufnahmezeitpunkte der Bilder bekannt sind; eine Segmentierungseinheit (61), welche in synchron vorliegenden Wärme- (WB) und etwaigen Videobildern (VB) zugehörige 2D-Pixel- Regionen (91; 92) des oder der Objekte (90) nach vordefinierten Homogenitätskriterien segmentiert ;  a synchronization unit (52) which ensures that the recording of 2D thermal (WB) and any 2D video images (VB) takes place at the same time and / or the recording times of the images are known; a segmentation unit (61) which, in synchronously present thermal (WB) and any video images (VB), segments associated 2D pixel regions (91; 92) of the one or more objects (90) according to predefined homogeneity criteria;
eine Rekonstruierungseinheit (62), welche aus segmentierten 2D-Pixel- Regionen (91; 92) ein 3D-Voxel-Modell (93) des oder der Objekte (90) rekonstruiert;  a reconstructing unit (62) reconstructing a 3D voxel model (93) of the object or objects (90) from segmented 2D pixel regions (91; 92);
gekennzeichnet durch marked by
eine Projizierungseinheit (63), welche das 3D-Voxel-Modell (93) als Referenz für einen Suchraum (SR) in die synchron vorliegenden 2D- Wärme- (WB) und etwaige 2D-Videobilder (VB) rückprojiziert; und eine Identifizierungseinheit (64), welche in synchron vorliegenden 2D- Wärme- (WB) und etwaigen 2D-Videobildern (VB) Silhouetten (94) des oder der Objekte (90) auf Basis des durch die Rückprojektion definierten Suchraums (SR) identifiziert.  a projecting unit (63) which backprojects the 3D voxel model (93) as reference for a search space (SR) into the synchronously present 2D heat (WB) and any 2D video images (VB); and an identification unit (64) that identifies silhouettes (94) of the object (s) (90) in synchronous present 2D heat (WB) and any 2D video images (VB) based on the search space (SR) defined by the backprojection.
Bewegungsanalysesystem nach Anspruch 1, wobei die Bildfrequenz mittels einer Videobildkamera (21, 22, ... ) aufgenommener 2D-Videobilder (VB) höher ist als die Bildfrequenz mittels einer Wärmebildkamera (11, 12, ... ) aufgenommener 2D-Wärmebilder (WB), weiterhin umfassend: Motion analysis system according to claim 1, wherein the image frequency by means of a video camera (21, 22, ...) recorded 2D video images (VB) is higher than the image frequency by means of a thermal imaging camera (11, 12, ...) recorded 2D thermal images (WB ), further comprising:
eine 2D-Ergänzungseinheit (53), welche fehlende 2D-Wärmebilder (WB) so ergänzt, dass zu jedem 2D-Videobild (VB) stets ein synchrones 2D- Wärmebild (WB) vorhanden ist.  a 2D augmentation unit (53) which adds missing 2D thermal images (WB) such that a synchronous 2D thermal image (WB) is always present for each 2D video image (VB).
Bewegungsanalysesystem nach Anspruch 1 oder 2, wobei die Modellfrequenz von der Rekonstruierungseinheit (62) erzeugter 3D-Voxel-Modelle (93) geringer ist als die Bildfrequenz mittels einer Wärmebildkamera (11, 12, ... ) aufgenom- 2D-Wärmebilder (WB) und/oder etwaiger mit einer Videobildkamera (21, ) aufgenommener 2D-Videobilder (VB), weiterhin umfassend: A motion analysis system according to claim 1 or 2, wherein the model frequency of the 3D voxel models (93) generated by the reconstruction unit (62) is less than the frame rate recorded by means of a thermal imager (11, 12, ...). 2D thermal images (WB) and / or any 2D video images (VB) taken with a video image camera (21, 12), further comprising:
eine 3D-Ergänzungseinheit (54), welche fehlende 3D-Voxel-Modelle (93) so ergänzt, dass zu jedem 2D-Wärme- (WB) und/oder etwaigem 2D- Videobild (VB) stets ein synchrones 3D-Voxel-Modell (93) vorhanden ist.  a 3D augmentation unit (54) which supplements missing 3D voxel models (93) such that a synchronous 3D voxel model is always provided for each 2D heat (WB) and / or any 2D video image (VB) 93) is present.
Bewegungsanalysesystem nach einem der Ansprüche 1 bis 3, wobei die Kameragruppe zumindest eine Wärmebildkamera (11, 12, ... ) und zumindest zwei Videobildkameras (21, 22, ... ) umfasst, Motion analysis system according to one of claims 1 to 3, wherein the camera group comprises at least one thermal imaging camera (11, 12, ...) and at least two video image cameras (21, 22, ...),
wobei die erste Kamera eine Wärmebildkamera (11) und die zweite Kamera eine Videobildkamera (21) ist, deren Objektive (112 ; 212) zueinander in einem Abstand x von mindestens zwei Metern angeordnet und/oder deren optische Achsen (113 ; 213) zueinander unter einem Winkel α von mindestens 45° ausgerichtet sind,  wherein the first camera is a thermal imaging camera (11) and the second camera is a video camera (21) whose objectives (112; 212) are arranged at a distance x of at least two meters from one another and / or their optical axes (113; are oriented at an angle α of at least 45 °,
und wobei die dritte Kamera eine Videobildkamera (22) ist, deren Objektiv (222) unmittelbar benachbart zum Objektiv (112) der Wärmebildkamera (11) so angeordnet ist, dass die optischen Achsen (113; 223) beider Kamera (11, 22) zueinander im Wesentlichen parallel ausgerichtet sind.  and wherein the third camera is a video image camera (22) whose lens (222) is disposed immediately adjacent to the lens (112) of the thermal imager (11) such that the optical axes (113; 223) of both cameras (11, 22) are mutually aligned are aligned substantially parallel.
Bewegungsanalysesystem nach einem der vorherigen Ansprüche; weiterhin umfassend: Motion analysis system according to one of the preceding claims; further comprising:
eine Segmentierungseinheit (61), welche in einer iterativen Abfolge durchlaufen wird und dabei zusätzlich Suchraum-(SR)-einschränkungen aus dem vorangehenden Iterationsschritt berücksichtigt sowie Homogenitätskriterien dem aktuellen Iterationsschritt anpasst.  a segmentation unit (61), which is traversed in an iterative sequence and additionally takes into account search space (SR) restrictions from the preceding iteration step and adapts homogeneity criteria to the current iteration step.
Bewegungsanalysesystem nach einem der vorherigen Ansprüche; weiterhin umfassend: Motion analysis system according to one of the preceding claims; further comprising:
eine Rekonstruierungseinheit (62), welche in einer iterativen Abfolge zusätzlich die zur Rekonstruktion des 3D-Voxel-Modelles (93) verwendeten segmentierten 2D-Pixel Regionen (91, 92) in Abhängigkeit des aktuellen Iterationsschritts, der Art der Kamera (11; 21; 31) und/oder der Qualitätskriterien der 2D-Pixelregionen auswählt. Bewegungsanalysesystem nach einem der vorherigen Ansprüche, wobei die Kameragruppe zumindest zwei Wärmebildkameras (11, 12) umfasst; weiterhin umfassend: a reconstruction unit (62) which in an iterative sequence additionally uses the segmented 2D pixels regions (91, 92) used for the reconstruction of the 3D voxel model (93) as a function of the current iteration step, the type of camera (11; 31) and / or the quality criteria of the 2D pixel regions. Motion analysis system according to one of the preceding claims, wherein the camera group comprises at least two thermal imaging cameras (11, 12); further comprising:
eine Rekonstruierungseinheit (62), welche zuerst allein aus segmentierten 2D-WB-Pixel-Regionen (91) ein 3D-WB-Voxel-Modell (93) des oder der Objekte (90) rekonstruiert.  a reconstruction unit (62) which first reconstructs a 3D WB voxel model (93) of the object (s) (90) solely from segmented 2D WB pixel regions (91).
Bewegungsanalysesystem nach Anspruch 7, weiterhin umfassend: The motion analysis system of claim 7, further comprising:
eine Projizierungseinheit (63), welche zunächst ein 3D-WB-Voxel- Modell (93) als Referenz für einen Suchraum (SR) in die synchron vorliegenden 2D-Wärme- (WB) und etwaige 2D-Videobilder (VB) rückpro- jiziert.  a projection unit (63), which first backprojects a 3D WB voxel model (93) as reference for a search space (SR) into the synchronously present 2D heat (WB) and any 2D video images (VB).
Bewegungsanalysesystem nach einem der vorherigen Ansprüche, weiterhin umfassend: Motion analysis system according to one of the preceding claims, further comprising:
eine Zuordnungseinheit (65), welche Punkten der identifizierten Silhouetten (94) Punkte vorbekannter Silhouetten (95) eines Modells (MO) des oder der Objekte (90) als Korrespondenz zuordnet und/oder Punkten der vorbekannten Silhouetten (95) eines Modells (MO) des oder der Objekte (90) Punkte der identifizierten Silhouetten (94) als Korrespondenz zuordnet.  an allocation unit (65) which assigns points of the identified silhouettes (94) points of previously known silhouettes (95) of a model (MO) of the object (s) (90) as correspondence and / or points of the known silhouettes (95) of a model (MO) the object (s) (90) assigns points of the identified silhouettes (94) as correspondence.
Bewegungsanalysesystem nach einem der vorherigen Ansprüche, weiterhin umfassend: Motion analysis system according to one of the preceding claims, further comprising:
eine Zuordnungseinheit (65), welche optional zusätzlich zu den aus Daten der Silhouetten (95) gewonnenen Korrespondenzen Daten insbesondere weiterer Sensoren (40), etwaiger Bildverarbeitungseinheiten (80) und/oder einer Tiefenbildkamera (31, 32, ... ) zur Erstellung von Korrespondenzen verwendet.  an allocation unit (65), which optionally in addition to the obtained from data of the silhouettes (95) correspondence data, in particular further sensors (40), any image processing units (80) and / or a depth camera (31, 32, ...) for the creation of Correspondences used.
Bewegungsanalysesystem nach Anspruch 9 oder 10, weiterhin umfassend: eine Gewichtungseinheit (66), welche erstellte Korrespondenzen nach fest vordefinierten und/oder variablen Parametern gewichtet. A motion analysis system according to claim 9 or 10, further comprising: a weighting unit (66), which weighs created correspondences according to fixed predefined and / or variable parameters.
Bewegungsanalyse- und -verfolgungssystem Motion analysis and tracking system
gekennzeichnet durch marked by
ein Bewegungsanalysesystem nach einem der vorherigen Ansprüche, und eine Bewegungsverfolgungseinheit (71), welche aus zugeordneten Korrespondenzen eine Neuausrichtung eines Modells (MO) des oder der Objekte (90) vornimmt.  a motion analysis system according to any one of the preceding claims, and a motion tracking unit (71) which realigns a model (MO) of the object (s) (90) from associated correspondences.
Bewegungsanalyse- und -verfolgungssystem nach Anspruch 12,gekennzeichnet durch: Motion analysis and tracking system according to claim 12, characterized by:
eine Bewegungsverfolgungseinheit (71), welche in einem iterativen Vorgehen nach jeder Iteration mit bereits vorhandenen Korrespondenzen und/oder mit erneut erstellten Korrespondenzen eine Neuausrichtung eines Modells (MO) des oder der Objekte (90) vornimmt, bis die Ausrichtung des Modells (MO) ein vordefiniertes Kriterium erfüllt.  a movement tracking unit (71) which realizes a model (MO) of the object (s) (90) in an iterative procedure after each iteration with already existing correspondences and / or with newly created correspondences until the alignment of the model (MO) predefined criterion met.
Bewegungsanalysesystem nach einem der vorherigen Ansprüche 1 bis 11 und/oder Bewegungsverfolgungssystem nach Anspruch 12 oder 13 , gekennzeichnet durch: Motion analysis system according to one of the preceding claims 1 to 11 and / or motion tracking system according to claim 12 or 13, characterized by:
eine Bewegungsanalyseeinheit (72), welche aus einer final vorliegenden Ausrichtung eines Modells (MO) des oder der Objekte (90) Stellungen und/oder Bewegungen des oder der Objekte (90) analysiert.  a motion analysis unit (72) that analyzes positions and / or motions of the one or more objects (90) from a final alignment of a model (MO) of the object (s) (90).
Bewegungsanalyse- und/oder -verfolgungssystem (1) nach Anspruch 14, weiterhin umfassend: The motion analysis and / or tracking system (1) of claim 14, further comprising:
eine Visualisierungseinheit (73), welche zur Visualisierung der Temperaturdaten der segmentierten 2D-WB-Pixel-Regionen (91) auf dem 3D- Voxel-Modell (93) und/oder einem, insbesondere final, ausgerichteten Modell (MO) ein Texture-Mapping nutzt. a visualization unit (73), which for the visualization of the temperature data of the segmented 2D WB pixel regions (91) on the 3D voxel model (93) and / or a, in particular final, aligned model (MO), a texture mapping uses.
3/7 3.7
4/7 4.7
Fig. 2Fig. 2
11 5/7 11 5.7
Fig. 3Fig. 3
6/7 6.7
Fig. 4Fig. 4
11 7/7 11 7.7
EP17736558.2A 2016-04-25 2017-04-24 Motion analysis system and motion tracking system comprising same of moved or moving objects that are thermally distinct from their surroundings Withdrawn EP3449463A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102016107667.8A DE102016107667A1 (en) 2016-04-25 2016-04-25 Motion analysis and / or tracking system of moving or moving objects thermally lifted from their environment
PCT/DE2017/100331 WO2017186225A1 (en) 2016-04-25 2017-04-24 Motion analysis system and motion tracking system comprising same of moved or moving objects that are thermally distinct from their surroundings

Publications (1)

Publication Number Publication Date
EP3449463A1 true EP3449463A1 (en) 2019-03-06

Family

ID=59294885

Family Applications (1)

Application Number Title Priority Date Filing Date
EP17736558.2A Withdrawn EP3449463A1 (en) 2016-04-25 2017-04-24 Motion analysis system and motion tracking system comprising same of moved or moving objects that are thermally distinct from their surroundings

Country Status (5)

Country Link
US (1) US20220237808A1 (en)
EP (1) EP3449463A1 (en)
CA (1) CA3061269A1 (en)
DE (2) DE102016107667A1 (en)
WO (1) WO2017186225A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10885630B2 (en) * 2018-03-01 2021-01-05 Intuitive Surgical Operations, Inc Systems and methods for segmentation of anatomical structures for image-guided surgery

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7257237B1 (en) 2003-03-07 2007-08-14 Sandia Corporation Real time markerless motion tracking using linked kinematic chains
KR20090130003A (en) 2007-03-02 2009-12-17 오가닉 모션 System and method for tracking three dimensional objects
DE102010028904A1 (en) 2010-05-11 2011-11-17 Movolution Gmbh Motion analysis and / or tracking system
EP2710557B1 (en) 2011-05-16 2020-04-29 Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. Fast articulated motion tracking
US10033979B2 (en) * 2012-03-23 2018-07-24 Avigilon Fortress Corporation Video surveillance systems, devices and methods with improved 3D human pose and shape modeling

Also Published As

Publication number Publication date
US20220237808A1 (en) 2022-07-28
DE102016107667A1 (en) 2017-10-26
CA3061269A1 (en) 2017-11-02
DE112017002158A5 (en) 2019-01-24
WO2017186225A1 (en) 2017-11-02

Similar Documents

Publication Publication Date Title
EP2422297B1 (en) Device and method for recording a plant
Saberioon et al. Automated multiple fish tracking in three-dimension using a structured light sensor
DE69910757T2 (en) WAVELET-BASED FACIAL MOTION DETECTION FOR AVATAR ANIMATION
EP2791903B1 (en) Method and device for estimating a pose
DE112017000642T5 (en) Systems and methods for a possible collision between an object and detecting a patient
WO2015117906A1 (en) 2d image analyzer
DE102015013031B4 (en) Device, method and computer program for determining a position of at least two sub-segments of a patient support device
DE112010001224T5 (en) Motion compensation based CT device and CT method
DE102012112322A1 (en) Method for optically scanning and measuring an environment
CN108731587A (en) A kind of the unmanned plane dynamic target tracking and localization method of view-based access control model
WO2008083869A1 (en) Method, apparatus and computer program for the self-calibration of a surveillance camera
DE102011054658A1 (en) Method for distinguishing between a real face and a two-dimensional image of the face in a biometric capture process
DE102019212978A1 (en) Monitoring device for person recognition and method
DE112019007390T5 (en) Method, device and computer program for tracking moving objects
DE102016123149A1 (en) IMAGE-DATA-BASED RECONSTRUCTION OF THREE-DIMENSIONAL SURFACES
DE102014106718B4 (en) System that presents a field of view representation in a physical position in a changeable solid angle range
DE102020103575B4 (en) Feature point detection device and method for detecting feature points in image data
EP3449463A1 (en) Motion analysis system and motion tracking system comprising same of moved or moving objects that are thermally distinct from their surroundings
DE10145608B4 (en) Model-based object classification and target recognition
DE102014110570A1 (en) An imaging apparatus and method combining functional imaging and ultrasound imaging
DE102019133515B3 (en) Method and device for parallax determination of recordings of a multi-lens camera system
DE102021101336A1 (en) Method for evaluating sensor data from a distance sensor, determination device, computer program and electronically readable data carrier
DE102015112411A1 (en) System for the stereoscopic display of images of an endoscope
EP2940624A1 (en) Method for creating a three-dimensional virtual model of an environment for applications for determining positions
DE102012100848A1 (en) System for stereoscopic display of images of endoscope using dimensional map, has analyzing unit to test whether detected overexposure is reflection of light by object in spatial area based on three-dimensional model of spatial area

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20181124

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20200716

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20210127