WO2005088541A1 - Echtzeit-bewegungsanalysevorrichtung - Google Patents

Echtzeit-bewegungsanalysevorrichtung Download PDF

Info

Publication number
WO2005088541A1
WO2005088541A1 PCT/DE2005/000318 DE2005000318W WO2005088541A1 WO 2005088541 A1 WO2005088541 A1 WO 2005088541A1 DE 2005000318 W DE2005000318 W DE 2005000318W WO 2005088541 A1 WO2005088541 A1 WO 2005088541A1
Authority
WO
WIPO (PCT)
Prior art keywords
cameras
objects
central computer
image processing
data
Prior art date
Application number
PCT/DE2005/000318
Other languages
English (en)
French (fr)
Inventor
Hendrik Fehlis
Thorsten Mika
Original Assignee
Hendrik Fehlis
Thorsten Mika
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE102004044002A external-priority patent/DE102004044002A1/de
Application filed by Hendrik Fehlis, Thorsten Mika filed Critical Hendrik Fehlis
Priority to EP05715022A priority Critical patent/EP1725986A1/de
Publication of WO2005088541A1 publication Critical patent/WO2005088541A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image

Definitions

  • the present invention relates to a real time motion analyzer for moving objects in a room.
  • the space to be monitored is recorded with the aid of cameras, preferably video cameras, and the images obtained from the cameras are processed in such a way that the movements of all moving objects can be analyzed.
  • Such methods and devices are particularly suitable for recording and analyzing sporting events e.g. on a sports field.
  • the real-time motion analysis is ideal for team sports such as soccer or volleyball.
  • the idea of being able to better analyze the actual movement activity of moving objects (players, referees, devices ...) during sports games is not new, rather various devices and methods are known in the prior art which enable such an analysis.
  • the athletes or their coaches are provided with data with which the performance of the athletes can be evaluated, e.g. For example, in soccer games or similar team sports, it may be important to know what routes a player has traveled during the game or in certain situations. It can also be useful to analyze the areas in which the main game scenes played out.
  • real-time motion analysis devices and methods serve to present the actual performance of the players in sports events to readers in a manner that is more legible and understandable, so to speak. This includes e.g. B. that the viewer can always identify each player. This can be facilitated, for example, by the fact that names and shirt numbers can be displayed on a monitor or television set at any time. Real-time motion analysis devices can also help to better resolve special game situations, such as the offside in football, afterwards.
  • WO 02/071334 A2 describes a method and a system for collecting data relating to the movement of an athlete on a playing field.
  • the position of the player on the playing field is determined in a two-dimensional plane.
  • the device has a large number of cameras which overlook and record the playing field.
  • the object to be observed for example the player, moves across the field and is filmed or recorded depending on its position by another camera. His position is then determined by this one camera, which records him.
  • the position is only calculated two-dimensionally. If there are occlusions in a video image, a person manually determines the position of the undercover player. Alternatively, the position can also be determined using another camera for which the player is not covered.
  • WO 03/056809 AI discloses a similar system.
  • the system described is used for the automatic display of moving objects in real time within a limited space, for example a playing field.
  • surveillance cameras cover this area and record the moving objects in order to determine in real time data about the position of the moving objects from the video images.
  • auxiliary cameras are used which support one of the surveillance cameras if necessary. These auxiliary cameras are used in particular to be able to make a better determination of the objects when they are concentrated in a certain point. An auxiliary camera is then determined which is best positioned to help the actual surveillance camera and to record this concentration point together with it.
  • Another focus of this system is to calculate the concentration points that occur in order to be able to determine an auxiliary camera in good time.
  • the data to be calculated are essentially obtained from only one surveillance camera.
  • Auxiliary cameras are only used when there is a high concentration of players in a certain area.
  • the positions are also determined using two-dimensional data.
  • WO 00/31560 which describes a system specially designed for ice hockey. This only detects movements in the X and Y direction of the players, additional cameras are installed in the area of the goals in order to be able to calculate the height of the puck. With this system, however, it is necessary to mark the racket, helmet, jersey and puck with a label whose special color reflects infrared light.
  • the active illumination of the markers is realized by light sources near the cameras in conjunction with infrared narrowband filters in front of the cameras. All cameras are aligned as perpendicular to the floor as possible, whereby only one camera is used per surface. With this system, too, the measurement or calculation of the positions is carried out two-dimensionally. Only in the area of the gate does a volume tracking matrix calculate the height, i.e. three-dimensional values.
  • All devices and systems described are relatively complex and yet almost exclusively calculate two-dimensional data. For example, it is not possible to permanently determine the position of a ball during an entire football game without affecting the players and the ball. In particular, it is not possible to determine the height of the ball or, for example, the player's jumps, the distance from the ground. This information is essential for a complete and meaningful analysis of a sports game.
  • the object of the present invention is to provide a device and a method for real-time motion analysis for moving objects in a room, which allow the position of each object in the room to be determined in all three dimensions at any time.
  • the device should be as simple as possible to build and inexpensive to manufacture.
  • the generated data should enable a viewer to carry out a multitude of different analyzes regarding the movements of the objects.
  • the device or the method must under no circumstances have a disruptive influence on the scenes or games to be observed. The installation of facilities affecting the players or other moving objects should be avoided.
  • the object is achieved by a real-time motion analysis device for moving objects in a room with - a central computer, - at least one image processing unit, - a large number of cameras which overlook the room in such a way that each position in the room is always overlooked by at least two cameras , wherein - each image processing unit with at least one camera and all cameras are each in data exchange with at least one image processing unit, - each image processing unit is at least indirectly in data exchange with the central computer, - the cameras each produce video images of the room which are transmitted to the image processing unit , whereby each object is recorded by at least two cameras from different angles, the image processing unit calculates mathematical features from the video images, for example the center of gravity coordinates in the XY direction and the extent of the objects, and extracts the data of the objects from the data of their surroundings and forwards the results to the central computer, the central computer transmits them from the image processing units Data of intersecting video images, taking into account the calibrated positions of the cameras in the room, calculated the three-dimensional position of
  • space in the context of this invention is to be understood only in relation to all three dimensions. In this respect, the space results from the area recorded by the cameras, which does not have to be delimited by walls, for example.
  • the device according to the invention and the method according to the invention enables, for the first time, the calculation of the three-dimensional positions of all objects within the space to be monitored. It is therefore possible to include the distance of all objects from the floor in the analyzes. This in turn means that the device according to the invention or the method according to the invention permits considerably greater analysis options. So it is particularly advantageous in football games if, for example, the trajectory of high-played balls (flanks, high long passes) can be precisely determined. Sports can also be analyzed in which this third dimension is decisive. For example, the invention is also suitable for volleyball, badminton, tennis and similar sports.
  • Every object is permanently recorded by at least 2 cameras. This significantly reduces the likelihood of objects hiding one another. Depending on the number and arrangement of the cameras, coverage may even be almost impossible. Only in extremely rare cases can it happen that already identified objects lose their identification due to the very high concentration of objects in a small space and this has to be manually assigned again.
  • the invention is essentially based on the fact that as many surveillance cameras as possible, in their entirety, survey the entire area to be monitored. From the known positions of the cameras, a "beam" or several beams are calculated to the objects. The three-dimensional position of the object is calculated by crossing at least two beams. Later, further algorithms for the reliable tracking and identification of the objects are then added.
  • the optical parameters of the objective and the camera are preferably measured in advance in a laboratory.
  • the calibration of the camera parameters requires as input data an assignment of three-dimensional point coordinates of a calibration body to their two-dimensional pixel coordinates in the camera image.
  • the cameras are thus initially arranged in such a way that the entirety of the room to be monitored can be viewed. It is necessary for every point in the room to be viewed by at least two cameras. The areas monitored by the cameras must therefore overlap in such a way that an object can be detected by a next camera before leaving the surveillance area of two cameras.
  • the cameras are then calibrated based on known points within the room. This can be done, for example, with existing lines be on a playing field or a movable calibration body. If a movable calibration body is used, its trajectories should cover as much as possible all areas of the camera images or the area to be monitored. Data is recorded during the calibration of the position of all cameras.
  • the three-dimensional coordinates of its projection center within the previously defined world coordinate system are output as the position of a camera.
  • the orientation of a camera is output in the form of its Euler angles (pan, tilt and roll angle) with respect to the same coordinate system.
  • the image coordinates of the objects or groups of objects to be tracked are then determined.
  • the input data are e.g. the color and video signals from the sensor camera are available.
  • the objects to be tracked can be extracted by using an image processing method.
  • the user chooses a suitable method based on the environmental conditions, e.g. a keying process.
  • chroma key method the difference key method or the so-called edge detection, for example.
  • the user After selecting the appropriate process, the user sets the required process parameters for each camera.
  • the user also determines which image areas of the respective camera are excluded from further processing. Such an exclusion does not have to be done, but it can make sense depending on the environment. For example, grandstands, buildings, forest areas or the like can be hidden for the analysis.
  • the result of the respective setting is displayed to the user as a grayscale or binary image.
  • the binarized image obtained in this way is segmented in the next step, for example, into groups of connected object pixels, which are further processed as so-called "blobs".
  • Each "blob” represents the potential image of an object (eg the ball or player) on the playing field.
  • the mathematical features for example the center of gravity coordinates (X, Y) and the extent of each “blob” are calculated in the video image or on the basis of the video images. These data are transmitted from each image processing unit to the central computer.
  • the central computer calculates in real time the three-dimensional position of the objects with respect to the world coordinate system based on the result data of the image processing unit (s). Depending on the accuracy or the resolution of the data, it is also possible to calculate the position of limbs. This in turn is not possible with any previously known method. Not only can directions of movement or movements of entire objects be recorded and analyzed, it is also possible to include limbs in the analysis.
  • the matching and triangulation methods contain various consistency checks that reduce the likelihood of incorrect assignments and thus incorrect object identifications. If necessary, it is possible to add smoothing and / or interpolation of object positions.
  • the X, .Y and Z positions of the objects within the room are calculated and can be transferred directly to a database or the like. This can then have appropriate interfaces to other applications, for example mobile radio, television, Internet, etc.
  • a semi-automatic or automatic assignment of the objects to names or names follows. In this step, for example, the names of the players or their shirt numbers are assigned to the objects.
  • This assignment can take place automatically depending on the room to be monitored or the event to be monitored, namely if, for example, positions of certain people or objects of the recording are known. However, the assignment can also be made manually by a user if necessary.
  • the object is usually identified only once, and there is an automatic update of a unique identification number for each object. According to the invention, it can be provided that all identified and unidentified objects are visualized by special measures, so that a user can recognize at first glance which objects are not identified. For example, a two-dimensional graphic of a supervision can be used. The user can use this representation to make a new or modified assignment at any time if necessary.
  • the object names are transmitted together with the object positions and identification numbers via a network to a suitable display system.
  • every object in the room automatically receives a unique identification number.
  • each identification number can be assigned a name, for example a player name. If the assignment is missing, the user receives visual feedback and can make a manual assignment.
  • the identification numbers are sent via the same network that sends the position data to the corresponding display or "further processing system".
  • an identification if an identification was lost during the monitoring period, it is possible to redefine it and assign it retrospectively. This means that, for example, if the loss of an assigned identification was not immediately apparent, it can then be assigned manually later, whereupon the object is identified over the entire period when the recording is viewed again. Gaps in identification can therefore be closed retrospectively.
  • the data can be disseminated via all suitable media. It is particularly suitable for mobile communications, Internet systems or television, as well as the use of set-top boxes, digital television and so on, which prepare and display the data accordingly.
  • the invention is explained in connection with sporting events, but is not limited to it. Because almost all objects can be reliably identified at any time, the invention is also particularly suitable for monitoring security-relevant items Areas. For example, it is conceivable to equip buildings, banks, airports, intersections or publicly accessible places with such a system. Once identified, a person can then be safely observed and tracked at any time.
  • the device according to the invention and the method according to the invention can also help, for example, to monitor air traffic.
  • the invention is thus not only limited to the sports events explained by way of example, but is much more suitable for all areas of application in which objects in three dimensions in a room are to be monitored and analyzed in real time.
  • the method according to the invention and the device according to the invention further enables the three-dimensional recording of the scenery before the actual recording begins. All other recordings are based on a topography map, so to speak, which in turn enables significantly improved analysis options. Such a topography recording can be useful, for example, at golf events, airport monitoring or cross-country skiing events.
  • Fig. 2 A schematic diagram of the real-time motion analysis device according to the invention.
  • FIG. 1 shows an example of the arrangement of cameras 10 around a soccer field 12.
  • eight cameras 10 are used, but the number is arbitrary and depends only on the fact that all areas of the room to be monitored, here the soccer field 12, are provided by at least two cameras on- must be visible.
  • 14 soccer players and a ball are shown as examples on the soccer field 12 as objects to be monitored. Their position is determined at all times in every position in all three dimensions.
  • FIG. 2 illustrates the basic structure of a device according to the invention.
  • This consists of the cameras 10, each of which is connected to at least one image processing unit 16.
  • each camera 10 can be connected to an image processing unit 16, but several cameras 10 can also use only one image processing unit 16 or vice versa.
  • the image processing units 16 are in data exchange with one another. This can be ensured, for example, via a corresponding wired network or also via any other suitable technology (e.g. radio network, WLAN).
  • the image processing units 16 are in turn connected to a central computer 18 or are in data exchange with the latter.
  • the central computer 18 can be arranged spatially separate from the image processing units 16.
  • the image processing units 16 can be installed near the stadium roof, while the central computer 18 is in a suitable room in the stadium or even several thousand kilometers away in a control room.
  • the image processing units 16 can also be arranged very far apart.
  • the use of radio-based networks enables a spatially independent arrangement. It should only be ensured that the connection for the data exchange between the components is sufficiently fast and secure.
  • the number of cameras used can also be of any size and the space can be of any size.
  • Essentially video images are exchanged between the cameras 10 and the image processing units 16 and essentially only the data from the mathematical features of the video images and control data are exchanged between the image processing units 16 and the central computer 18.
  • the image processing units 16 control the connected cameras 10, for example they influence the aperture, exposure time, gain, color balance, etc. Furthermore, the image processing units 16 read in and process the video signals from the cameras 10.
  • Video cameras can be used as cameras 10, but higher resolution or improved scanning can be achieved by higher quality cameras 10 (improved scanning frequency, higher number of pixels, etc.). This in turn leads to an immediate improvement in the temporal and spatial resolution of the object recognition.
  • the type and properties of the image acquisition sensors can also be adapted to the respective application. For example, spectral sensitivity is also possible outside the visible range. Other required properties, such as weather resistance when used outdoors, can also be taken into account.
  • the central computer 18 is connected to the image processing units 16 or is in data exchange with them. In a second embodiment variant, the central computer 18 and the image processing units 16 can also be combined in one component.
  • the central computer 18 sends commands, for example, to the image processing units 16 or to the software programs installed on them.
  • the central computer 18 also receives the data from the image processing units 16.
  • the central computer 18 is formed by two computer units.
  • the first computer unit is used to calculate the object positions
  • the other computer unit is used to check the results, to operate the user interface and to calibrate.
  • the recorded video images of the cameras 10 can also be displayed on these via a connected monitor.
  • the calculated object positions and their identification can be faded in or out in the respective video image. All calculations The presentations and presentations take place in real time.
  • the central computer 18 calculates the object position and identifies the objects and assigns them an identifier. These data are then passed on in real time, for example to a database 20, for further processing (calculation of running paths, accelerations, ball contacts, etc.).
  • the database 20 is used to communicate with the respective applications 24 (mobile radio network, interactive television, Internet, etc.) and appropriate interfaces are made available.
  • At least two cameras 10 could also be equipped with an additional control for horizontal and vertical panning, if necessary also with a zoom lens. These cameras 10 could observe particularly interesting areas, for example the ball-carrying player. Since the image section is larger or the observed space is smaller, the quality of the data increases considerably. This can improve the three-dimensional reconstruction of the players (physical representation of all limbs etc.).
  • An input medium 22 can be connected to the central computer 18 in order to be able to use it to input necessary information, such as player names, etc.
  • necessary information such as player names, etc.
  • objects that are not identified, for example, can also be optically highlighted in the monitor.
  • An essential advantage of the invention is that only relatively small amounts of data have to be passed on from the database 20 to the further applications 24 in order to enable adequate analyzes. For example, gaming situations can be displayed in the form of graphics on a cell phone or PDA.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft eine Echtzeit-Bewegungsanalysevorrichtung für sich bewegende Objekte (14) in einem Raum. Diese weist einen Zentralrechner (18), mindestens eine Bildverarbeitungseinheit (16) und eine Vielzahl von Kameras (10) auf, die den Raum derart überblicken, dass jede Position im Raum stets von mindestens zwei Kameras (10) überblickt wird. Die Bildverarbeitungseinheiten (16) sind untereinander, mit den Kameras (10) und dem Zentralrechner verbunden. Die Kameras (10) produzieren jeweils Videobilder des Raumes, wobei jedes Objekt (14) von mindestens zwei Kameras (10) aus unterschiedlichen Blickwinkeln aufgenommen wird. Die Bildverarbeitungseinheit (16) berechnet aus den Videobildern mathematische Merkmale, beispielsweise Schwerpunktkoordinaten in X-Y Richtung und die Ausdehnung der Objekte (14) und leitet die Ergebnisse an den Zentralrechner (18) weiter. Dieser berechnet aus Daten sich kreuzender Videobilder unter Berücksichtigung der kalibrierten Lage der Kameras (10) (14) die dreidimensionale Position des Objektes (14) in dem Raum.

Description

Bezeichnung: Echtzeit-Bewegungsanalysevorrichtung
Die vorliegende Erfindung betrifft eine Echtzeit-Bewegungsanalysevorrichtung für sich bewegende Objekt in einem Raum. Mit Hilfe von Kameras, vorzugsweise Videokameras wird der zu überwachende Raum aufgenommen, und die von den Kameras gewonnenen Bilder werden derart aufbereitet, dass die Bewegungen alle sich bewegenden Objekte analysiert werden können.
Derartige Verfahren und die Vorrichtungen eignen sich insbesondere für die Aufzeichnung und Analyse von Sportveranstaltungen z.B. auf einem Sportfeld. Die Echtzeit-Bewegungsanalyse bietet sich für Mannschafts-Sportarten, wie Fußball, oder Volleyball an.
Die Idee, die tatsächliche Bewegungsaktivität von sich bewegenden Objekten (Spielern, Schiedsrichtern, Geräten ....) während Sportspielen besser analysieren zu können, ist nicht neu, vielmehr sind im Stand der Technik verschiedene Vorrichtungen und Verfahren bekannt, die eine solche Analyse ermöglichen. Den Sportlern oder ihren Trainern werden Daten zur Verfügung gestellt, mit denen die Leistung der Sportler ausgewertet werden kann, z. B. kann es bei Fußballspielen oder ähnlichen Mannschaftssportarten wichtig sein, zu wissen, welche Laufwege ein Spieler während des Spiels oder in bestimmten Situationen zurückgelegt hat. Auch kann es sinnvoll sein, zu analysieren, in welchen Bereichen sich wesentliche Spielszenen schwerpunktmäßig abgespielt haben.
Weiterhin dienen Echtzeit-Bewegungsanalysevorrichtungen bzw. Verfahren dazu, Zuschauern die tatsächliche Leistung der Spieler bei Sportereignissen sozusagen lesbarer und verständlicher darzustellen. Hierzu gehört z. B., dass der Zuschauer jeden Spieler stets identifizieren kann. Dies kann beispielsweise dadurch erleichtert werden, dass auf einem Monitor bzw. Fernsehgerät jederzeit Namen und Rückennummern eingeblendet werden können. Auch können Echtzeit- Bewegungsanalysevorrichtungen helfen, besondere Spielsituationen, wie beispielsweise das Abseits beim Fußball, im Nachhinein besser aufzulösen.
Bei Mannschaftssportarten liegt es in der Natur der Sache, dass sich meist eine Vielzahl von Spielern auf engstem Raum aufhalten. Dies führt beispielsweise dann zu Problemen der Identifikation der Spieler, wenn diese sich gegenseitig verdecken. Dies gilt im Besonderen auch für das Spielgerät, also z. B. den Fuß- ball oder den Volleyball.
Beispielsweise beschreibt die WO 02/071334 A2 ein Verfahren und ein System, um Daten bezüglich der Bewegung eines Sportlers auf einem Spielfeld zu erheben. Mit Hilfe eines kalibrierten Videobildes des Spielfeldes wird die Position des Spielers auf dem Spielfeld in einer zweidimensionalen Ebene bestimmt. Die Vorrichtung weist zu diesem Zweck eine Vielzahl von Kameras auf, die das Spielfeld überblicken und aufnehmen. Das zu beobachtende Objekt, beispielsweise der Spieler, bewegt sich über das Spielfeld und wird dabei je nach seiner Position von einer anderen Kamera gefilmt bzw. aufgenommen. Seine Position wird dann über diese eine, ihn aufnehmende Kamera bestimmt. Die Position wird dabei nur zwei- dimensional berechnet. Kommt es zu Verdeckungen in einem Videobild, bestimmt eine Person manuell die Position des verdeckten Spielers. Alternativ kann die Position aber auch über eine andere Kamera, für die der Spieler nicht verdeckt ist, bestimmt werden.
Die WO 03/056809 AI offenbart ein ähnliches System. Das beschriebene System dient der automatischen Anzeige beweglicher Objekte in Echtzeit innerhalb eines begrenzten Raumes, beispielsweise eines Spielfeldes. Auch in diesem System decken Überwachungskameras diesen Bereich ab und nehmen die beweglichen Objekte auf, um in Echtzeit Daten über die Position der beweglichen Objekte aus den Videobildern zu bestimmen. Im Gegensatz zum bereits beschriebenen System aus der WO 02/071334 A2 werden Hilfskameras eingesetzt, die im Bedarfsfall eine der Überwachungskameras unterstützen. Diese Hilfskameras dienen insbesondere dazu, dann eine bessere Bestimmung der Objekte vornehmen zu können, wenn sich diese in einem bestimmten Punkt konzentrieren. Es wird dann eine Hilfskamera bestimmt, die am besten positioniert ist, um der eigentlichen Ü- berwachungskamera zu helfen und gemeinsam mit ihr diesen Konzentrationspunkt aufzunehmen. Ein weiterer Schwerpunkt dieses Systems besteht darin, die auftretenden Konzentrationspunkte vorauszuberechnen, um rechtzeitig eine Hilfskamera bestimmen zu können. Auch bei diesem System werden die zu berechnenden Daten im Wesentlichen im Wechsel aus nur einer Überwachungskamera gewonnen. Hilfskameras werden nur dann genutzt, wenn eine hohe Konzentration von Spielern auf einer bestimmten Fläche auftritt. Die Bestimmung der Positionen erfolgt ebenfalls anhand zweidimensionaler Daten.
Ebenfalls bekannt ist die WO 00/31560, die ein speziell für Eishockey ausgelegtes System beschreibt. Bei diesem werden lediglich Bewegungen in X- und Y- Richtung der Spieler erkannt, zusätzliche Kameras sind im Bereich der Tore installiert, um auch die Höhe des Pucks berechnen zu können. Bei diesem System ist es jedoch notwendig, Schläger, Helm, Trikot und Puck mit Marken zu versehen, dessen spezielle Farbe Infrarotlicht reflektiert, Die aktive Beleuchtung der Marker wird durch Lichtquellen nahe den Kameras in Verbindung mit Infrarot- Schmalbandfiltern vor den Kameras realisiert. Alle Kameras werden möglichst senkrecht zum Boden ausgerichtet, wobei je Fläche nur eine Kamera verwendet wird. Auch bei diesem System erfolgt die Messung bzw. Berechnung der Positionen zweidimensional. Nur im Bereich des Tores berechnet eine Volumen- Tracking-Matrix auch die Höhe, also dreidimensionale Werte.
Alle beschriebenen Vorrichtungen und Systeme sind verhältnismäßig aufwendig und berechnen dennoch fast ausschließlich zweidimensionale Daten. So ist es nicht möglich, beispielsweise die Position eines Balls während eines gesamten Fußballspiels ohne Einwirkungen auf die Spieler und den Ball dauerhaft zu bestimmen. Insbesondere ist es nicht möglich, die Höhe des Balles oder auch beispielsweise bei Sprüngen der Spieler, deren Abstand zum Boden zu bestimmen. Gerade diese Informationen sind aber für eine vollständige und sinnvolle Analyse eines Sportspiels wesentlich.
Zusammenfassend lässt sich also feststellen, dass es zwar eine Vielzahl von Vorrichtungen und Verfahren gibt, die eine Echtzeit-Bewegungsanalyse in vereinfachter Form erlauben, jedoch meist das Problem der Berechnung der genauen dreidimensionalen Position jedes beweglichen Objekts zu jedem Zeitpunkt und unter Minimierung der Gefahr von Verwechslung von Spielern nicht zufrieden stellend lösen.
Die Aufgabe der vorliegenden Erfindung besteht darin, eine Vorrichtung und ein Verfahren für eine Echtzeit-Bewegungsanalyse für sich bewegende Objekte in einem Raum zu schaffen, die es erlauben, die Position jedes Objektes in dem Raum zu jeder Zeit in allen drei Dimensionen bestimmen zu können. Insbesondere soll es möglich sein, auch die Position von Objekten bestimmen zu können, die einen gewissen Abstand zum Untergrund aufweisen bzw. soll es möglich sein, den Abstand dieser Objekte genau bestimmen zu können. Mit Hilfe des Verfahrens und der Vorrichtung soll die Identifikation der Objekte zu jedem Zeitpunkt der Überwachung möglich sein. Die Vorrichtung soll dabei möglichst einfach aufzubauen und kostengünstig herstellbar sein. Die generierten Daten sollen einem Betrachter ermöglichen, eine Vielzahl unterschiedlicher Analysen bezüglich der Bewegungen der Objekte vornehmen zu können. Die Vorrichtung bzw. das Verfahren dürfen keinesfalls störenden Einfluss auf die zu beobachtenden Szenen oder Spiele haben. Die Installierung von Einrichtungen, die die Spieler oder die anderen sich bewegenden Objekt betreffen, sollten vermieden werden.
Erfindungsgemäß wird die Aufgabe durch eine Echtzeit- Bewegungsanalysevorrichtung für sich bewegende Objekte in einem Raum mit - einem Zentralrechner , - mindestens einer Bildverarbeitungseinheit , - einer Vielzahl von Kameras , die den Raum derart überblicken, dass jede Position im Raum stets von mindestens zwei Kameras überblickt wird, wobei - sich jede Bildverarbeitungseinheit mit mindestens einer Kamera und alle Kameras jeweils mit mindestens einer Bildverarbeitungseinheit im Datenaustausch befinden, - sich jede Bildverarbeitungseinheit zumindest mittelbar mit dem Zentralrechner im Datenaustausch befindet, - die Kameras jeweils Videobilder des Raumes produzieren, die an die Bildverarbeitungseinheit übermittelt werden, wobei jedes Objekt von mindestens zwei Kameras aus unterschiedlichen Blickwinkeln aufgenommen wird, - die Bildverarbeitungseinheit aus den Videobildern mathematische Merkmale, beispielsweise die Schwerpunktkoordinaten in X-Y Richtung und die Ausdehnung der Objekte berechnet, sowie die Daten der Objekte aus den Daten ihrer Umgebung extrahiert, und die Ergebnisse an den Zentralrechner weiterleitet, - der Zentralrechner aus von den Bildbearbeitungseinheiten übermittelten Daten sich kreuzender Videobilder unter Berücksichtigung kalibrierter Lagen der Kameras im Raum die dreidimensionale Position der Objekte im Raum errechnet, gelöst.
Weiterhin wird die Aufgabe durch ein Verfahren mit den Merkmalen des unabhängigen Verfahrensanspruchs gelöst.
Der Begriff Raum ist im Zusammenhang dieser Erfindung lediglich in Bezug auf alle drei Dimensionen zu verstehen. Insofern ergibt sich der Raum aus dem von den Kameras aufgenommenen Bereich, der nicht durch beispielsweise Wände begrenzt sein muss.
Die erfindungsgemäße Vorrichtung bzw. das erfϊndungsgemäße Verfahren ermöglicht erstmals die Berechnung der dreidimensionalen Positionen sämtlicher Objekte innerhalb des zu überwachenden Raumes. Es ist also möglich, den Abstand aller Objekte zum Boden in die Analysen mit einzubeziehen. Dies wiederum führt dazu, dass die erfindungsgemäße Vorrichtung, bzw. das erfindungsgemäße Verfahren erheblich größere Analysemöglichkeiten zulässt. So ist es gerade bei Fußballspielen vorteilhaft, wenn beispielsweise bei hoch gespielten Bällen (Flanken, hohe lange Pässe) deren Flugbahn genau bestimmt werden kann. Auch können Sportarten analysiert werden, bei denen gerade diese dritte Dimension entscheidend ist. So eignet sich die Erfindung beispielsweise auch für Volleyball, Badminton, Tennis und ähnliche Sportarten.
Es erfolgt eine ständige Berechnung aller Objekte, Hilfskameras und ein Umschalten zwischen den Kameras ist nicht erforderlich.
Ein weiterer wesentlicher Vorteil der Erfindung besteht darin, dass jedes Objekt permanent von mindestens 2 Kameras aufgenommen wird. Dadurch wird die Wahrscheinlichkeit, dass sich Objekte gegenseitig verdecken, deutlich reduziert. Je nach Anzahl und Anordnung der Kameras kann eine Überdeckung sogar nahezu ausgeschlossen werden. Nur in äußerst seltenen Fällen kann es passieren, dass bereits identifizierte Objekte auf Grund von sehr hoher Konzentration von Objekten auf kleinem Raum ihre Identifikation verlieren und diese manuell wieder zugeordnet werden muss.
Die Erfindung basiert im Wesentlichen darauf, dass möglichst viele Überwachungskameras in ihrer Gesamtheit den gesamten zu überwachenden Bereich überblicken. Von den bekanten Positionen der Kameras wird ein „Strahl" oder werden mehrere Strahlen zu den Objekten berechnet. Durch Kreuzung von mindestens zwei Strahlen errechnet sich die dreidimensionale Position des Objektes. Später werden dann weitere Algorithmen zur sicheren Verfolgung und Identifizierung der Objekte nachgeschaltet.
Die optischen Parameter des Objektives und der Kamera werden vorzugsweise vorab in einem Labor vermessen. Die Kalibrierung der Kameraparameter benötigt als Eingabedaten eine Zuordnung dreidimensionaler Punktkoordinaten eines Eichkörpers zu deren zweidimensionalen Pixelkoordinaten im Kamerabild.
Anschließend wird die Position und Orientierung aller Kameras vor Ort bezüglich des Weltkoordinatensystems ermittelt. Zur Berechnung sind die Ergebnisse der zu vorigen Objektivkalibrierung notwendig.
Die Kameras werden also zunächst derart angeordnet, dass sie in ihrer Gesamtheit den zu überwachenden Raum vollständig einsehen können. Dabei ist notwendig, dass jeder Punkt des Raumes von mindestens zwei Kameras eingesehen wird. Die von den Kameras überwachten Bereiche müssen sich also derart überlappen, das ein Objekt vor verlassen des Überwachungsbereichs zweier Kameras bereits von einer nächsten Kamera erfasst werden kann.
Anschließend erfolgt die Kalibrierung der Kameras anhand von bekannten Punkten innerhalb des Raumes. Dies können beispielsweise bereits vorhandene Linien auf einem Spielfeld oder ein beweglicher Eichkörper sein. Wird ein beweglicher Eichkörper verwendet, sollten seine Bewegungsbahnen möglichst alle Bereiche der Kamerabilder bzw. des zu überwachenden Raumes abdecken. Während der Kalibrierung der Lage aller Kameras erfolgt eine Datenaufnahme.
Als Position einer Kamera werden die dreidimensionalen Koordinaten ihres Projektionszentrums innerhalb des zuvor festgelegten Weltkoordinatensystems ausgegeben. Die Orientierung einer Kamera wird in Form ihrer eulerschen Winkel (Schwenk-, Neige- und Rollwinkel) bezüglich des gleichen Koordinatensystems ausgegeben.
Anschließend erfolgt die Bestimmung der Bildkoordinaten der zu verfolgenden Objekte oder Objektgruppen. Als Eingabedaten stehen z.B. die Färb-, Videosignale der Sensorkamera zur Verfügung. Durch Einsatz eines Bildverarbeitungsverfahren können die zu verfolgenden Objekte extrahiert werden. Dabei wählt der Benutzer aufgrund der Umgebungsbedingungen ein geeignetes Verfahren, z.B. ein Keyingverfahren aus.
Neben einer Vielzahl verschiedener Verfahren kann er dabei beispielsweise das Chroma- Key- Verfahren, das Differenz-Key-Verfahren oder die so genannte Kan- tendetektion verwenden.
Nach der Auswahl des geeigneten Verfahrens stellt der Benutzer die erforderlichen Verfahrensparameter für jede Kamera ein. Der Benutzer legt dabei ebenfalls fest, welche Bildbereiche der jeweiligen Kamera von der weiteren Verarbeitung ausgeschlossen werden. Ein solcher Ausschluss muss nicht erfolgen, kann aber je nach Umgebung sinnvoll sein. Beispielsweise können Tribünen, Gebäude, Waldbereiche oder ähnliches für die Analyse ausgeblendet werden. Das Ergebnis der jeweiligen Einstellung wird dem Benutzer als Graustufen oder Binärbild angezeigt.
Das so gewonnene binarisierte Bild wird im nächsten Schritt beispielsweise in Gruppen von zusammenhängenden Objektpixeln segmentiert, die als so genannte „Blobs" weiterverarbeitet werden. Jeder „Blob" repräsentiert dabei das potentielle Abbild eines Objekts (z.B. des Balles oder Spielers) auf dem Spielfeld. Die mathematischen Merkmale, beispielsweise die Schwerpunktkoordinaten (X, Y) und die Ausdehnung jedes „Blobs" werden im Videobild bzw. anhand der Vi- deobilder berechnet. Diese Daten werden von jeder Bildverarbeitungseinheit an den Zentralrechner übermittelt.
Es folgt die genaue Positionsberechnung der Objekte mit einem so genannten Matching- und Triangulationsverfahren. Der Zentralrechner berechnet in einem Trackingverfahren anhand der Ergebnisdaten der Bildverarbeitungseinheit(en) in Echtzeit die dreidimensionale Position der Objekte bezüglich des Weltkoordinatensystems. Je nach Genauigkeit bzw. je nach Auflösung der Daten, ist es grundsätzlich auch möglich, die Position von Körpergliedmaßen zu berechnen. Dies wiederum ist bei keinem bisher bekannten Verfahren möglich. Es können also nicht nur Bewegungsrichtungen bzw. Bewegungen gesamter Objekte aufgezeichnet und analysiert werden, es ist auch möglich, Körpergliedmaßen mit in die Analyse einzubeziehen.
Im Rahmen des Trackingverfahrens werden zunächst alle Objektiv- und Lageparameter jeder Kamera eingelesen. Im weiteren Verlauf werden mehrmals pro Sekunde die sich während des Spiels bzw. während der Beobachtungsdauer laufend ändernden Merkmal-Daten („Blob") von jeder Bildverarbeitungseinheit entgegen genommen. Anhand dieser Daten ordnet ein Matching-Verfahren die verschiedenen Merkmale denselben Objekten zu.
Es folgt die Berechnung der 3D Position der Objekte Die Matching- und Triangulationsverfahren enthalten verschiedene Konsistenzprüfungen, die die Wahrscheinlichkeit von falschen Zuordnungen und somit falschen Objektidentifikationen verringern. Bei Bedarf ist es möglich, eine Glättung und/oder Interpolation von Objekt-Positionen nachzuschalten.
Als Ergebnis werden die X-, .Y- und Z-Positionen der Objekte innerhalb des Raums berechnet und können direkt an eine Datenbank oder ähnliches übertragen werden. Diese kann dann entsprechende Schnittstellen zu weiteren Anwendungen, z.B. Mobilfunk, Fernsehen, Internet etc, aufweisen. Es folgt eine semiautomatische oder automatische Zuordnung der Objekte zu Bezeichnungen oder Namen. In diesem Schritt werden also beispielsweise den Objekten die Namen der Spieler oder deren Rückennummern zugeordnet.
Diese Zuordnung kann je nach zu überwachenden Raum oder zu überwachender Veranstaltung automatisch erfolgen, nämlich dann wenn beispielsweise Positionen bestimmter Personen oder Gegenstände der Aufzeichnung bekannt sind. Die Zuordnung kann jedoch im Bedarfsfall auch manuell durch einen Benutzer erfolgen. Die Objektidentifizierung erfolgt in der Regel nur einmal und es folgt eine automatische Nachführung einer eindeutigen Identifikationsnummer für jedes Objekt. Erfindungsgemäß kann vorgesehen sein, dass alle identifizierten und nicht identifizierten Objekte durch besondere Maßnahmen visualisiert werden, so das ein Benutzer auf den ersten Blick erkennen kann, welche Objekte nicht identifiziert sind. Es kann beispielsweise eine zweidimensionale Grafik einer Aufsicht genutzt werden. Der Benutzer kann anhand dieser Darstellung eine erneute oder abgeänderte Zuordnung im Bedarfsfall jederzeit vornehmen. Die Objektnamen werden gemeinsam mit den Objektpositionen und Identifikationsnummern über ein Netzwerk an ein geeignetes Darstellungssystem übertragen.
Als Ergebnis erhält also jedes Objekt innerhalb des Raumes automatisch eine eindeutige Identifikationsnummer. Möglichst jeder Identifikationsnummer kann eine Bezeichnung, beispielsweise ein Spielername zugeordnet werden. Bei einer fehlenden Zuordnung erhält der Benutzer eine visuelle Rückmeldung und kann eine manuelle Zuordnung vornehmen. Die Identifikationsnummern werden über das gleiche Netzwerk verschickt, das die Positionsdaten an das entsprechende Darstellungs- oder "weiterverarbeitende System" verschickt. Erfindungsgemäß ist es möglich, das dann, wenn eine Identifikation während des Überwachungszeitraums verloren ging, diese neu zu bestimmen und zeitlich rückwirkend zuzuordnen. Dies bedeutet, dass beispielsweise dann, wenn der Verlust einer zugeordneten Identifikation nicht sofort aufgefallen ist, diese dann später manuell zugeordnet werden kann, woraufhin beim wiederholten Betrachten der Aufzeichnung das Objekt über den gesamten Zeitraum identifiziert ist. Zeitliche Identifikationslücken können also nachträglich geschlossen werden. Mit Hilfe des erfindungsgemäßen Systems ist es auch möglich, alle gemessenen bzw. ermittelten Daten in einer Datenbank zu speichern und später relevante Berechnungen durch zu führen. Beispielsweise können im Nachhinein zurückgelegte Laufstrecken bzw. Laufwege der Spieler, Ballkontakte, Kopfbälle und ähnliches berechnet werden.
Die Verbreitung der Daten kann über alle geeigneten Medien erfolgen. Es bietet sich insbesondere Mobilfunk, Internetanlagen oder Fernsehen, sowie die Verwendung von SetTopboxen an, digitales Fernsehen und so weiter an, die die Daten entsprechend aufbereiten und darstellen.
Wie bereits angedeutet, können nicht nur die Positionen der Objekte sondern zum Beispiel auch die Positionen von Gliedmaßen berechnet werden. Dadurch kann von jedem Spieler ein Körpermodel erstellt werden. Dies wiederum hat für die grafische Aufbereitung und Visualisierung der Daten eine große Bedeutung. Während die reinen Positionsdaten der Objekte nur als Punkt auf einer zweidi- mensionalen Grafik dargestellt werden können, kann nun ein dreidimensionales Model der Szenerie erstellt werden. Damit wird beispielsweise bei einem Fußballspiel deutlich, wie zum Beispiel ein Spieler den Ball geschossen, den Gegner umlaufen oder gestürzt ist.
Besondere Vorteile des erfindungsgemäßen Systems liegen beispielsweise auch darin, dass immer alle Kameras (sozusagen gleichberechtigt) zusammenarbeiten. Es wird lediglich ein Zentralrechner zur Berechnung aller Positionen sämtlicher Objekte und zu ihrer Identifizierung verwendet. Auch werden keine Bilder aufgezeichnet, sondern es wird unmittelbar eine Bildverarbeitung eingesetzt, lediglich berechnete Daten werden gespeichert. Auch werden nur berechnete Daten an den Zentralrechner gesendet, was die Leistungsfähigkeit und Geschwindigkeit des Systems verbessert.
Es wird ausdrücklich darauf ingewiesen, dass die Erfindung zwar im Zusammenhang mit Sportveranstaltungen erläutert wird, sie jedoch nicht darauf reduziert ist. Dadurch, dass nahezu jederzeit alle Objekte sicher identifizierbar sind, eignet sich die Erfindung insbesondere auch für die Überwachung sicherheitsrelevanter Bereiche. So ist zum Beispiel denkbar, Gebäude, Banken, Flughäfen, Straßenkreuzungen oder öffentlich zugängliche Plätze mit einem solchen System auszustatten. Eine einmal identifizierte Person kann dann jederzeit sicher beobachtet und verfolgt werden. Auch kann die erfindungsgemäße Vorrichtung bzw. das erfindungsgemäße Verfahren helfen, beispielsweise Flugverkehr zu überwachen. Die Erfindung ist somit also nicht nur auf die beispielhaft erläuterten Sportveranstaltungen beschränkt, sondern eignet sich viel mehr für alle Anwendungsbereiche, in denen Objekte in drei Dimensionen in einem Raum in Echtzeit überwacht und analysiert werden sollen.
Das erfindungsgemäße Verfahren bzw. die erfindungsgemäße Vorrichtung ermöglicht weiterhin die dreidimensionale Aufnahme der Szenerie vor Beginn der eigentlichen Aufzeichnung. Allen weiteren Aufnahmen liegt dann sozusagen eine Topographiekarte zu Grunde, was wiederum deutlich verbesserte Analysemöglichkeiten ermöglicht. Eine derartige Topographie Aufnahme kann beispielsweise bei Golfveranstaltungen, bei der Flughafenüberwachung oder bei Ski- Langlaufveranstaltungen sinnvoll sein.
Anhand der nachfolgenden Figurenbeschreibung wird die Erfindung näher erläutert. Weitere Vorteile und Ausführungsformen ergeben sich weiterhin aus den Ansprüchen.
Es zeigen:
Fig. 1 : Eine beispielhafte Darstellung der Anordnung von Kameras um ein Fußballfeld,
Fig. 2: Eine Prinzipdarstellung der erfindungsgemäßen Echtzeit- Bewegungsanalysevorrichtung.
Figur 1 zeigt beispielhaft die Anordnung von Kameras 10 um ein Fußballfeld 12. Im vorliegenden Beispiel werden acht Kameras 10 eingesetzt, die Anzahl ist jedoch beliebig und lediglich davon abhängig, dass alle Bereiche des zu überwachenden Raumes, hier des Fußballfeldes 12, von mindestens zwei Kameras ein- sehbar sein müssen. Beispielsweise kann es sinnvoll sein, eine weitere Kamera 10 zentral oberhalb des Spielfeldes anzuordnen, sodass diese das gesamte Fußballfeld 12 vertikal von oben einsehen kann. Beispielhaft sind auf dem Fußballfeld 12 als zu überwachende Objekte 14 Fußballspieler und ein Ball dargestellt. Deren Position wird zu jedem Zeitpunkt an jeder Position in allen drei Dimensionen bestimmt.
Figur 2 verdeutlicht den grundsätzlichen Aufbaus einer erfindungsgemäßen Vorrichtung. Diese besteht aus den Kameras 10, die jeweils mit mindestens einer Bildverarbeitungseinheit 16 verbunden sind. Beispielsweise kann jede Kamera 10 mit einer Bildbearbeitungseinheit 16 verbunden sein, es können aber auch mehrere Kameras 10 auf nur eine Bildverarbeitungseinheit 16 bzw. umgekehrt zurückgreifen. Die Bildverarbeitungseinheiten 16 befinden sich untereinander im Datenaustausch. Dieser kann beispielsweise über ein entsprechendes kabelgebundenes Netzwerk oder auch über jede andere geeignete Technologie gewährleistet sein (z. B. Funknetzwerk, WLAN). Die Bildverarbeitungseinheiten 16 sind wiederum mit einem Zentralrechner 18 verbunden, bzw. befinden sich mit diesem im Datenaustausch. Der Zentralrechner 18 kann räumlich getrennt von den Bildverarbeitungseinheiten 16 angeordnet sein. Beispielsweise können in einem Stadium die Bildverarbeitungseinheiten 16 in der Nähe des Stadiondaches installiert sein, während sich der Zentralrechner 18 in einem geeigneten Raum im Stadion oder sogar mehrere tausend Kilometer entfernt in einem Kontrollraum befindet. Auch können die Bildverarbeitungseinheiten 16 sehr weit voneinander entfernt angeordnet sein. Die Nutzung von funkbasierten Netzwerken ermöglicht eine räumlich unabhängige Anordnung. Es sollte nur sichergestellt sein dass die Verbindung für den Datenaustausch zwischen den Komponenten ausreichend schnell und sicher ist. Auch kann die Anzahl der verwendeten Kameras beliebig hoch sein und der Raum beliebig groß.
Zwischen den Kameras 10 und den Bildverarbeitungseinheiten 16 werden im Wesentlichen Videobilder und zwischen den Bildverarbeitungseinheiten 16 und dem Zentralrechner 18 im Wesentlichen nur die Daten aus den mathematischen Merkmalen der Videobilder und Steuerungsdaten ausgetauscht. Die Bildverarbeitungseinheiten 16 steuern die angeschlossenen Kameras 10, beispielsweise nehmen sie Einfluss auf Blende, Belichtungsdauer, Verstärkung, Farbabgleich usw. Weiterhin lesen die Bildverarbeitungseinheiten 16 die Videosignale der Kameras 10 ein und verarbeiten sie.
Als Kameras 10 können handelsübliche Videokameras eingesetzt werden, eine höhere Auflösung bzw. verbesserte Abtastung kann jedoch durch höherwertige Kameras 10 erreicht werden (verbesserte Abtastfrequenz, höhere Anzahl der Pixel usw.). Dies wiederum führt dazu, dass sich unmittelbar die zeitliche und räumliche Auflösung der Objekterkennung verbessert.
Auch die Art und Eigenschaften der Bildaufnahmesensoren kann beliebig der jeweiligen Anwendung angepasst werden. So ist beispielsweise eine spektrale Empfindlichkeit auch außerhalb des sichtbaren Bereiches möglich. Weitere erforderliche Eigenschaften, wie Wetterfestigkeit bei Außeneinsätzen können ebenfalls berücksichtigt werden können.
Der Zentralrechner 18 ist in einer ersten Ausführungsvariante mit den Bildverarbeitungseinheiten 16 verbunden bzw. befindet sich im Datenaustausch mit diesen. In einer zweiten Ausführungsvariante können der Zentralrechner 18 und die Bildverarbeitungseinheiten 16 auch in einem Bauteil zusammengefasst sein.
Der Zentralrechner 18 sendet beispielsweise Befehle an die Bildverarbeitungseinheiten 16 bzw. an die auf diesen installierten Softwareprogrammen. Der Zentralrechner 18 empfängt aber auch die Daten der Bildverarbeitungseinheiten 16.
In einer besonders vorteilhaften Ausführungsvariante ist der Zentralrechner 18 durch zwei Rechnereinheiten gebildet. Die erste Rechnereinheit dient der Berechnung der Objektpositionen, die andere Rechnereinheit der Kontrolle der Ergebnisse, dem Betrieb der Benutzerschnittstelle und der Kalibrierung. Optional können an diesen über einen angeschlossenen Monitor auch die aufgenommenen Videobilder der Kameras 10 angezeigt werden. Zur besonders übersichtlichen Kontrolle des Ergebnisses lassen sich hier die berechneten Objektpositionen und deren Identifizierung im jeweiligen Videobild ein- bzw. überblenden. Alle Berech- nungen und Darstellungen erfolgen in Echtzeit.
Der Zentralrechner 18 berechnet die Objektposition und identifiziert die Objekte und weist ihnen eine Kennung zu. Diese Daten werden dann für die weitere Verarbeitung (Berechnung von Laufwegen, Beschleunigungen, Ballkontakte usw.) in Echtzeit beispielsweise an eine Datenbank 20 weitergegeben. Von der Datenbank 20 aus wird mit jeweiligen Anwendungen 24 (Mobilfunknetz, interaktives Fernsehen, Internet usw.) kommuniziert und entsprechende Schnittstellen werden zur Verfügung gestellt.
Auch könnten mindestens zwei Kameras 10 mit einer zusätzlichen Steuerung für horizontale und vertikale Schwenks ausgestaltet werden, ggf. auch mit einem Zoomobjektiv. Diese Kameras 10 könnten besonders interessante Bereiche, beispielsweise den ballführenden Spieler, beobachten. Da der Bildausschnitt größer bzw. der beobachtete Raum kleiner ist, steigt die Qualität der Daten erheblich. Hierdurch kann insbesondere die dreidimensionale Rekonstruktion der Spieler (körperliche Darstellung aller Glieder etc.) verbessert werden.
Am Zentralrechner 18 kann ein Eingabemedium 22 angeschlossen sein, um über dieses notwendige Informationen, wie beispielsweise Spielernamen usw. eingeben zu können. Um die Eingabe zu erleichtern, können weiterhin in dem Monitor beispielsweise nicht identifizierte Objekte optisch hervorgehoben werden.
Ein wesentlicher Vorteil der Erfindung besteht auch darin, dass aus der Datenbank 20 nur verhältnismäßig geringe Datenmengen an die weiteren Anwendungen 24 weitergegeben werden müssen, um ausreichende Analysen zu ermöglichen. Beispielsweise können auf einem Handy oder einem PDA Spielsituationen in Form von Grafiken dargestellt werden. Die dreidimensionale Identifizierung aller Objekte, einschließlich der Körpergliedmaßen ermöglichen sogar eine Darstellung mit Hilfe von Figuren bzw. einfachen Körpermodellen.

Claims

Bezeichnung: Echtzeit-BewegungsanalysevorrichtungPatentansprüche
1. Echtzeit-Bewegungsanalysevorrichtung für sich bewegende Objekte (14) in einem Raum mit - einem Zentralrechner (18), - mindestens einer Bildverarbeitungseinheit (16), - einer Vielzahl von Kameras (10), die den Raum derart überblicken, dass jede Position im Raum stets von mindestens zwei Kameras (10) überblickt wird, wobei - sich jede Bildverarbeitungseinheit (16) mit mindestens einer Kamera (10) und alle Kameras (10) jeweils mit mindestens einer Bildverarbeitungseinheit (16) im Datenaustausch befinden, - sich jede Bildverarbeitungseinheit (16) zumindest mittelbar mit dem Zentralrechner (18) im Datenaustausch befindet, - die Kameras (10) jeweils Videobilder des Raumes produzieren, die an die Bildverarbeitungseinheit (16) übermittelt werden, wobei jedes Objekt (14) von mindestens zwei Kameras (10) aus unterschiedlichen Blickwinkeln aufgenommen wird, - die Bildverarbeitungseinheit (16), aus den Videobildern mathematische Merkmale, beispielsweise die Schwerpunktkoordinaten in X-Y Richtung und die Ausdehnung der Objekte (14), berechnet sowie die Daten der Objekte (14) aus den Daten ihrer Umgebung extrahiert und die Ergebnisse an den Zentralrechner (18) weiterleitet, - der Zentralrechner aus von den Bildbearbeitungseinheiten (16) übermittelten Daten sich kreuzender Videobilder unter Berücksichtigung der kalibrierten Lagen der Kameras (10) im Raum die dreidimensionale Position des Objektes (14) im Raum errechnet.
2. Echtzeit-Bewegungsanalysevorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass der Zentralrechner (18) die Objekte (14) identifiziert und ihnen eine Kennung zuweist.
3. Echtzeit-Bewegungsanalysevorrichtung nach Anspruch 1 oder Anspruch 2, dadurch gekennzeichnet, dass den Objekten (14) über den Zentralrechner (18) manuell jederzeit eine Kennung zuweisbar ist, die den Objekten a b dann zeitlich rückwirkend und zukünftig zugewiesen wird.
4. Echtzeit-Bewegungsanalysevorrichtung nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass der Zentralrechner (18) mit einer Datenbank (20) in Verbindung steht und Daten an diese weitergibt und in dieser speichert.
5. Echtzeit-Bewegungsanalysevorrichtung nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass zwischen den Kameras (10) und den Bildverarbeitungseinheiten (16) vorwiegend Videobilder und zwischen den Bildverarbeitungseinheiten (16) und dem Zentralrechner (18) vorwiegend nur die Daten aus den mathematischen Merkmalen der Videobilder übertragen werden.
6. Echtzeit-Bewegungsanalysevorrichtung nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Bildverarbeitungseinheiten (16) die Kameras (10) steuern, insbesondere deren Blende, Belichtungsdauer und Verstärkung.
7. Echtzeit-Bewegungsanalysevorrichtung nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass der Zentralrechner (18) die dreidimensionale Position der Objekte (14) mit Hilfe eines Triangulationsverfahrens berechnet.
8. Echtzeit-Bewegungsanalysevorrichtung nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass der Zentralrechner (18) durch zwei Rechnereinheiten realisiert ist, wobei die erste Rechnereinheit zur Berechnung der Objektpositionen und die andere Rechnereinheit zur Kontrolle von Ergebnissen, einem Betrieb einer Benutzerschnittstelle und einer Kalibrierung dient.
9. Echtzeit-Bewegungsanalysevorrichtung nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass der Zentralrechner (18) mit einem Eingabemedium (22) und einer bildgebenden Vorrichtung verbunden ist.
10. Verfahren zur Echtzeit-Bewegungsanalysevorrichtung von sich bewegenden Objekten in einem Raum, gekennzeichnet durch die Verfahrensschritte 1. Aufzeichnen aller Bewegungen aller Objekte in einem Raum mit Hilfe von Kameras (10) derart, dass jede Position im Raum gleichzeitig von mindestens zwei Kameras (10) aus unterschiedlichen Blickwinkeln aufgenommen wird, 2. Weitergabe der von den Kameras aufgenommenen Videobilder an mindestens eine Bildverarbeitungseinheit (16), wobei die Bildverarbeitungseinheit (16) die Kameras (10) steuert, die Videosignale der Kameras (10) einliest und aus diesen mathematische Merkmale berechnet, beispielsweise die Schwerpunktkoordinaten in X-Y Richtung und die Ausdehnung der Objekte (14), sowie die Daten der Objekte (14) aus den Daten ihrer Umgebung extrahiert. 3. Weitergabe von aus den Videobildern berechneten Daten an einen Zentralrechner (18), der die dreidimensionalen Objektpositionen berechnet.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass der Zentralrechner (18) die Objektpositionen aus von der Bildverarbeitungseinheit (16) übermittelten Daten sich kreuzender Videobilder unter Berücksichtigung kalibrierter Lagen der Kameras (10) im Raum errechnet.
12. Verfahren nach Anspruch 10 oder Anspruch lldadurch gekennzeichnet, dass der Zentralrechner (18) die Objekte (14) identifiziert und ihnen eine Kennung zuweist.
13. Verfahren nach einem der Ansprüche 10 bis 12, dadurch gekennzeichnet, dass den Objekten (14) über den Zentralrechner (18) manuell jederzeit ei- ne Kennung zuweisbar ist, die den Objekten ab dann zeitlich rückwirkend und zukünftig zugewiesen wird.
14. Verfahren nach einem der Ansprüche 10 bis 12, dadurch gekennzeichnet, dass die vom Zentralrechner (18) berechneten Daten in einer Datenbank (20) gespeichert und weiteren Anwendungen (24) zur Verfügung gestellt werden.
PCT/DE2005/000318 2004-03-08 2005-02-25 Echtzeit-bewegungsanalysevorrichtung WO2005088541A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP05715022A EP1725986A1 (de) 2004-03-08 2005-02-25 Echtzeit-bewegungsanalysevorrichtung

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
DE102004011561 2004-03-08
DE102004011561.3 2004-03-08
DE102004044002A DE102004044002A1 (de) 2004-03-08 2004-09-09 Echtzeit-Bewegungsanalysevorrichtung
DE102004044002.6 2004-09-09

Publications (1)

Publication Number Publication Date
WO2005088541A1 true WO2005088541A1 (de) 2005-09-22

Family

ID=34961340

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2005/000318 WO2005088541A1 (de) 2004-03-08 2005-02-25 Echtzeit-bewegungsanalysevorrichtung

Country Status (2)

Country Link
EP (1) EP1725986A1 (de)
WO (1) WO2005088541A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2319087A1 (es) * 2008-11-03 2009-07-02 Universidad De Cordoba Sistema y metodo de captura, procesamiento y representacion de localizamiento tridimensional en tiempo real de una señal optica.
WO2010035182A1 (en) * 2008-09-26 2010-04-01 Koninklijke Philips Electronics N.V. Activity assistance apparatus
US20220050459A1 (en) * 2019-07-31 2022-02-17 Bell Textron Inc. Navigation system with camera assist
CN114693576A (zh) * 2022-03-28 2022-07-01 浙江大学 一种实验动物行为学三维数据记录方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273500A (ja) * 2000-03-23 2001-10-05 Hitachi Ltd 運動物体計測装置および球技分析システムおよびデータサービスシステム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273500A (ja) * 2000-03-23 2001-10-05 Hitachi Ltd 運動物体計測装置および球技分析システムおよびデータサービスシステム

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
DOCKSTADER S L ET AL: "Multiple camera tracking of interacting and occluded human motion", PROCEEDINGS OF THE IEEE IEEE USA, vol. 89, no. 10, October 2001 (2001-10-01), pages 1441 - 1455, XP002331012, ISSN: 0018-9219 *
INAMOTO N ET AL: "Immersive observation of virtualized soccer match at real stadium model", MIXED AND AUGMENTED REALITY, 2003. PROCEEDINGS. THE SECOND IEEE AND ACM INTERNATIONAL SYMPOSIUM ON 7-10 OCT. 2003, PISCATAWAY, NJ, USA,IEEE, 7 October 2003 (2003-10-07), pages 188 - 197, XP010662810, ISBN: 0-7695-2006-5 *
PATENT ABSTRACTS OF JAPAN vol. 2002, no. 02 2 April 2002 (2002-04-02) *
TOSHIHIKO MISU, SEIICHI GOHSHI, YOSHINORI IZUMI, YOSHIHIRO FUJITA AND MASAHIDE NAEMURA: "Robust Tracking of Athletes Using Multiple Features of Multiple Views", PROCEEDINGS OF THE 12TH INTERNATIONAL CONFERENCE IN CENTRAL EUROPE ON COMPUTER GRAPHICS, VISUALIZATION AND COMPUTER VISION, 2 February 2004 (2004-02-02), UNIVERSITY OF WEST BOHEMIA, CAMPUS BORY, PLZEN-BORY, CZECH REPUBLIC, pages 285 - 292, XP002331013 *
XU M ET AL: "Architecture and algorithms for tracking football players with multiple cameras", INTELLIGENT DISTRIBUTED SURVEILLANCE SYSTEMS (IDSS-04) IEE STEVENAGE, UK, 23 February 2004 (2004-02-23), pages 51 - 55, XP002331014, ISBN: 0-86341-392-7 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010035182A1 (en) * 2008-09-26 2010-04-01 Koninklijke Philips Electronics N.V. Activity assistance apparatus
ES2319087A1 (es) * 2008-11-03 2009-07-02 Universidad De Cordoba Sistema y metodo de captura, procesamiento y representacion de localizamiento tridimensional en tiempo real de una señal optica.
US20220050459A1 (en) * 2019-07-31 2022-02-17 Bell Textron Inc. Navigation system with camera assist
US11644828B2 (en) * 2019-07-31 2023-05-09 Textron Innovations Inc. Navigation system with camera assist
US20230305553A1 (en) * 2019-07-31 2023-09-28 Textron Innovations Inc. Navigation system with camera assist
US11914362B2 (en) * 2019-07-31 2024-02-27 Textron Innovations, Inc. Navigation system with camera assist
CN114693576A (zh) * 2022-03-28 2022-07-01 浙江大学 一种实验动物行为学三维数据记录方法
CN114693576B (zh) * 2022-03-28 2023-07-18 浙江大学 一种实验动物行为学三维数据记录方法

Also Published As

Publication number Publication date
EP1725986A1 (de) 2006-11-29

Similar Documents

Publication Publication Date Title
EP1864153B1 (de) Objektverfolgungs- und situationsanalysesystem
DE112005000929B4 (de) Automatisches Abbildungsverfahren und Vorrichtung
DE69728687T2 (de) Verfahren und Vorrichtung zur Hervorhebung von Signalteilen bei der Fernseh-Direktübertragung
EP2880853B1 (de) Vorrichtung und verfahren zur bestimmung der eigenlage einer bildaufnehmenden kamera
DE60213526T2 (de) Verfahren und System zur Verbesserung des Situationsbewusstseins von Kommando-Kontrolleinheiten
DE102012022005A1 (de) Verfahren, Vorrichtung und System
DE10137241A1 (de) Registrierung von Tiefenbildern mittels optisch projizierter Marken
DE102006033147A1 (de) Überwachungskamera, Verfahren zur Kalibrierung der Überwachungskamera sowie Verwendung der Überwachungskamera
DE10308525A1 (de) Vermessungssystem
EP2553660B1 (de) Verfahren zur visualisierung von aktivitätsschwerpunkten in überwachungsszenen
DE102019133756A1 (de) Systems and methods for generating a lighting design
DE10029463A1 (de) Auswerteeinheit und Verfahren zur Auswertung von statischen Zuständen und/oder Bewegungsabläufen
DE3802541C2 (de)
EP4051982A1 (de) Verfahren und mobile erfassungsvorrichtung zur erfassung von infrastrukturelementen eines unterirdischen leitungsnetzwerks
EP1725986A1 (de) Echtzeit-bewegungsanalysevorrichtung
DE102012022038A1 (de) Verfahren, Vorrichtung und Programm
EP3834171A1 (de) Spielverfolgung
WO2006032552A1 (de) Folgekamerasteuerung
DE102004044002A1 (de) Echtzeit-Bewegungsanalysevorrichtung
WO2013143982A1 (de) Verfahren zum automatischen betreiben einer überwachungsanlage
DE10039384A1 (de) Verfahren und Vorrichtung zur Bestimmung von Positionsdaten von beweglichen Objekten, zur Auswertung von Ereignissen und/oder zur Bestimmung der Relationen zwischen beweglichen Objekten
EP2940624B1 (de) Dreidimensionales virtuelles Modell einer Umgebung für Anwendungen zur Positionsbestimmung
WO2020065021A1 (de) Ballerkennungssystem, und verfahren zum erkennen eines ereignisses mit einem ball
EP2943934A1 (de) Verfahren zur aufnahme und wiedergabe einer abfolge von ereignissen
EP1434184B1 (de) Steuerung eines Multikamera-Systems

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005715022

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2005715022

Country of ref document: EP