WO2014173454A1 - Verfahren, system und computer zur bereitstellung von informationen in echtzeit auf einem bildschirm eines nutzers zu mindestens einem menschlichen und/oder gegenständlichen teilnehmer einer veranstaltung - Google Patents

Verfahren, system und computer zur bereitstellung von informationen in echtzeit auf einem bildschirm eines nutzers zu mindestens einem menschlichen und/oder gegenständlichen teilnehmer einer veranstaltung Download PDF

Info

Publication number
WO2014173454A1
WO2014173454A1 PCT/EP2013/058742 EP2013058742W WO2014173454A1 WO 2014173454 A1 WO2014173454 A1 WO 2014173454A1 EP 2013058742 W EP2013058742 W EP 2013058742W WO 2014173454 A1 WO2014173454 A1 WO 2014173454A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
event
computer
data
position data
Prior art date
Application number
PCT/EP2013/058742
Other languages
English (en)
French (fr)
Inventor
Lothar HERGARTEN
Original Assignee
Geas Gesellschaft Für Die Entwicklung Von Anwendungen Satellitengeschützter Navigationssysteme Mbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Geas Gesellschaft Für Die Entwicklung Von Anwendungen Satellitengeschützter Navigationssysteme Mbh filed Critical Geas Gesellschaft Für Die Entwicklung Von Anwendungen Satellitengeschützter Navigationssysteme Mbh
Priority to PCT/EP2013/058742 priority Critical patent/WO2014173454A1/de
Publication of WO2014173454A1 publication Critical patent/WO2014173454A1/de

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • G01S19/19Sporting applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices

Definitions

  • the invention relates to methods, a system and a computer for providing information in real time on a screen of a user to at least one human and / or representational participant of an event.
  • a human participant is a human.
  • An objective participant is one thing, for example, a football or a racing car.
  • the invention includes both types of participants.
  • This object is achieved by a method having the features of claim 1, a method having the features of claim 8, a method having the features of claim 24, a system having the features of claim 28 and a computer having the features of claim 35 ,
  • Embodiments of the invention are specified in the subclaims.
  • the solution according to the invention is based on the idea of attaching a transmitter / receiver of a satellite positioning system to each participant (human participant or subject participant) to be identified.
  • a transceiver includes a receiving function that allows it to receive data from a satellite positioning system.
  • Such a transmitter / receiver further comprises a transmitting function that allows it to transmit data via an antenna, as will be explained.
  • the transmitter / receiver attached to the subscriber in this case has an individual identifier, by means of which the subscriber on which the transmitter / receiver is located is identified.
  • the identifier may contain or encode the name or other characteristics of the subscriber.
  • the respective transmitter / receiver in the exercise of its receiving function continuously receives data from the satellite positioning system.
  • This data can either be forwarded and evaluated in another unit with regard to the determination of the geographical position or evaluated directly in the transmitter / receiver positioned at the subscriber with regard to geographical position data.
  • the received data or the geographical position data already calculated therefrom are sent together with the individual identifier by the respective transmitter / receiver in the exercise of its transmission function directly or indirectly to a computer, which may be a central processing unit. This transmission can be done directly or with the interposition of further units.
  • the computer determines from the data of the satellite positioning system, the geographical position data of the respective transmitter / receiver, if they have not already been calculated in each transmitter / receiver. The computer thus knows the geographical position data and the individual identifiers for all participants.
  • the computer now calculates which image coordinates of the receiving camera correspond to the obtained geographical position data.
  • By calculating which image coordinates of the receiving camera correspond to the geographical position data it is possible to superimpose the identifiers or information derived therefrom to the image information of the camera image such that the identifiers or the derived information are displayed at or near the image coordinates correspond to the geographical position data of the participants.
  • the identifiers or the information derived therefrom may be displayed on said image coordinates on an additional screen without the camera image information, e.g. on a virtual event field view on which the identifiers graphic figures of the participants and / or their name fonts are assigned.
  • the solution according to the invention makes it possible to reproduce in real time information on a screen, which is displayed directly at or next to the actual position of the participant and thus "runs along" with it, thus additionally giving the viewer the identities and / or others in the case of a large-area view Identification information and / or derived from this information of the individual participants of the event continuously and currently displayed.
  • the individual identifier of a transceiver attached to a participant of the event to be identified can be provided in a versatile manner.
  • the individual identifier is a name which the transmitter / receiver transmits together with the data of the satellite positioning system or position data derived therefrom to the computer.
  • it is a code, such as a number to which certain information is stored and retrievable in the computer, such as the name of the participant and his affiliation to a particular team, if it is the participant is a human. If the participant is an article, for example, a start number, a product name, the manufacturer and possibly a logo of the manufacturer are stored.
  • any further metadata may be stored, for example statistics of interest to the sport interested in the respective participant.
  • the computer calculates for calculating which image coordinates of the receiving camera correspond to the obtained geographical position data, an image section which is congruent with the current image section of the camera.
  • the identifiers or information derived therefrom are displayed on or at the geographical position data and forwarded for display on a screen.
  • This aspect of the invention thus provides a reference frame in which the currently detected position data are entered, wherein the reference frame is equal to the image section of the camera currently used for a television display. Of course, when the camera is changed, the reference frame also changes accordingly.
  • An advantageous embodiment of the invention provides that the camera, in whose image the information is displayed on the fly, is arranged statically, ie has a fixed geoposition. This does not exclude that the camera is adjustable in terms of its inclination, its inclination, its rotation angle and its zoom level.
  • a static arrangement means that the camera or its viewpoint starting point including its tripod is not displaceable on the whole. Accordingly, the camera has a fixed geoposition. This is, for example, at a point in the video camera, at which the axis of rotation, inclination axis and inclination axis, where existing, normally intersect.
  • the computer In order to be able to correctly assign each event participant geo position to a position of the current image section, the computer must know which pixel or which point within the reference frame corresponds to the respective event participant geo position. For this calculation, a plurality of parameters of the event recording camera or cameras is detected and evaluated, in particular the current position of the camera, the current rotation angle of the camera, the current tilt angle of the camera, the current tilt of the camera, the image frame or the bombardswinkltechnik the camera (without zoom), and the current zoom level of the camera, if necessary with associated distortion algorithms (see below).
  • the invention can also be used in a dynamically moving camera, such as free-guided, mobile or carried in helicopters cameras, so that the geographical position of the camera is constantly changing. Therefore, in the case of a dynamic arrangement of the camera in addition to the information that is detected in a static arrangement of the camera, further information for generating the reference frame detected, in particular 3D information on the current geographical position and orientation of the camera in the room.
  • the identifiers or the information derived therefrom are superimposed on the camera recording, before the camera recording is broadcast or transmitted.
  • the superposition is done centrally in the computer and the composite image information is transmitted together (via transmitter pole, satellite, cable, Internet, etc.).
  • the identifiers or information derived therefrom are transmitted as separate information and only superimposed on the users of the camera recording in each case in a set-top box. This makes it possible to respond more strongly to the user requests with regard to the query of the service and its implementation.
  • the transmitter / receiver attached to a participant of the event is additionally coupled to one or more sensors which either integrate into the transmitter / receiver or communicate with it, for example via a wireless interface.
  • Different sensors can be used.
  • the data obtained from the sensors or evaluations generated therefrom or with their help can be output, for example, at or with the identifier of the respective event subscriber.
  • at least one sensor is provided, which determines biometric data of the subscriber, for example, his blood pressure and heart rate and sends this information to the computer.
  • Another example is a sensor that detects the distance traveled since the beginning of the game and transmits the corresponding information to the central unit. Information recorded by sensors can be fed to a further analysis or statistical analysis.
  • the present invention relates to a method of providing real-time information on a user's screen to human and / or subject participants of an event taking place in an event field, but not overlaying the information on a camera image.
  • the method comprises the following steps:
  • each transmitter / receiver of a satellite positioning system having at least one individual identifier identifying the participant or containing information about the latter,
  • the computer from the data of the satellite positioning system determines the geographical position data, if they are not already in the respective transmitter Have been calculated so that the computer has the geographical position data and individual identifiers for all subscribers,
  • mapping consisting of or being generated from recorded and / or recorded data
  • the identifiers or information derived therefrom (including symbols) at or close to the image coordinates corresponding to the geographical position data of the participants are continuously updated in the image of the event field or sub-region, and the resulting image for playback is provided on at least one screen.
  • This variant of the invention differs from the first-mentioned variant of the invention in that the acquired position data or the information provided on the detected position data is not displayed on a camera image that changes with respect to orientation and zoom factor but is displayed on a virtual and / or photographic image. This consists of eg recorded by means of terrain surveying and / or eg photographically or by video recorded data and / or is generated from such.
  • the recorded data from which the image is generated may be, for example, geoposition data that is itself measured or taken from a digital terrain model.
  • the identifiers or the information derived from the identities of the participants may also include symbols, e.g. the subscribers that are continuously updated at or near the image coordinates that correspond to the geographic location data of the participants.
  • the derived information is a symbol or a schematic representation of the respective football player and additionally, in addition to the symbol, further information such as e.g. Name and / or statistical information included.
  • the derived information may include representations of the respective participant himself.
  • the image of the event field or of the partial area is a representation of a two-dimensional event field, in particular in a view from above.
  • This representation can be fixed or temporally variable or moved. It can be generated virtually from previously recorded data or provided on the basis of eg a photographic image.
  • the event field is an at least ideally planar event field in all points of its area.
  • this can then also be a photo / graphical, preferably from top view, which then optically distorts according to the respective perspective and the respective geoposition of the virtual viewer or "tilted" so that the identifiers of the event participants can each be output at the location of the event field that coincides with the reality.
  • This embodiment is characterized by a small amount of data to be processed, since it does not rely on three-dimensional data Terrain models (see below) need recourse.
  • a further embodiment of the second aspect of the invention provides that the mapping of the event field is a total view of the event field. This allows a user, for example, always to keep an overview of the overall events in parallel to a likewise ongoing television broadcast.
  • a further embodiment of the second aspect of the invention provides that the mapping of the event field or the subarea is provided on the basis of data from a digital terrain model or digital terrain maps. Such are commercially available.
  • This embodiment is basically chosen for the realization of virtual views and of 3D flights from / via non-plane event fields (s).
  • it can also be used for providing the mapping of a planned event field, wherein for a plan event field only a small number of defined geoposition data is required to define the image coordinates of the mapping of the event field. For example, for a rectangular event field such as a football field, only the four vertices need to be detected in terms of their geoposition to know all the image coordinates of the image with respect to their geoposition.
  • a further embodiment of the second aspect of the invention provides that the image of the event field or of the partial area is variable, in particular the image represents a variable 3D view of the event field or the partial area, wherein virtual flights can be carried out by the terrain model.
  • the user can thus make virtual flights through the event happening. He can then play the current game, z. For example, parallel to the television broadcast, individually follow from any virtual perspective in the room, even "running along" with individual players and virtually determine their line of sight.
  • At least one participant of the event experiences a separate visual location and on the basis of the data This visual location in the image of the event field or sub-area continuously updated.
  • a participant is, for example, a football whose position is, for example, therefore detected in another way, since the integration of a GPS transceiver in the Football Football is not possible.
  • the alternative locating takes place, for example, via image recognition methods. This embodiment is possible both in a picture-overlapping solution and in the stand-alone solution.
  • At least one participant of the event is reproduced with additional representation of the movement history of the participant, for example by displaying a tail, in the image of the event field or the partial area.
  • additional representation of the movement history of the participant for example by displaying a tail, in the image of the event field or the partial area.
  • At least one participant of the event additionally detects an orientation of the participant and is continuously updated in the image of the event field or the partial area.
  • This is particularly useful for elongated objects, eg. B. horses, racing bikes or cars.
  • the "normal" orientation ie, for example, outside of a crash or spin, can be generated as follows:
  • skew sensors are used and evaluated their data with regard to a fall of the participant.
  • skew sensors are used in at least two directions at the subscriber, which are preferably aligned crosswise and in the basic position horizontally.
  • Such sensors can be used to detect a "falling over" of a subscriber and to send it to the central unit, which, for example, can display in a virtual representation the subscribers or other symbols (shown there by graphic figures) in a corresponding oblique position or visually " fall over ".
  • An acceleration sensor may also be arranged on the subscriber, for example for representing a crash when the subscriber is a racing car or racing boat.
  • the data obtained from such sensors or evaluations generated therefrom or with their aid can then be output in a virtual view at or with the identifier of the respective event subscriber.
  • the present invention relates to a method for providing information in real time on a screen of a user to human and / or objective participants of an event that takes place in an event field, with the steps:
  • each transceiver having at least one unique identifier identifying or containing information about the subscriber
  • the computer from the data of the satellite positioning system determines the geographical position data, if they are not already in the respective transmitter Have been calculated so that the computer has the geographical position data and individual identifiers for all subscribers,
  • a virtual flight takes place in the 3D image based on a definable virtual perspective.
  • This third aspect of the invention relates to the making of virtual flights in a 3D image on the basis of data from a digital terrain model on the one hand and the geopositioning data of the participants represented in the 3D image on the other hand.
  • the identifiers of the subscribers or information derived therefrom (including symbols, eg the subscribers) at or close to the image coordinates that correspond to the geographical position data of the subscribers are displayed in the 3D image of the event field or a subregion of the event field. Field continuously updated.
  • An embodiment of the third aspect of the invention provides that a virtual flight takes place in the 3D image from a follow-on perspective of one of the participants.
  • the virtual flight takes place in the direction of looking at one of the other likewise mobile participants, for example, in the direction of a football as a non-human participant.
  • the virtual perspective is preferably selectable by a user, for example via an interaction with a set-top box. It can be used for virtual flights through the event happen also control modules, for example. Installed in the remote control or other control devices, such as joysticks or integrated.
  • the invention relates to a system for providing real-time information on a screen of a user to human and / or physical participants of an event taking place in an event field, the system comprising a plurality of transceivers of a satellite positioning system has a computer, and wherein:
  • the sender / receiver can be attached to participants of the event to be identified
  • each transmitter / receiver having at least one individual identifier identifying the participant or containing information about the same
  • each transmitter / receiver being adapted to receive data from the satellite positioning system
  • each transmitter / receiver being adapted to send the received data or geographical position data calculated therefrom together with the individual identifier to the computer, - wherein the computer from the data of the satellite positioning system determines the geographical position data, if they have not already been calculated in the respective transceiver, so that the computer has the geographical position data and individual identifiers to all participants, - wherein the computer is designed is to get an image of the event field or a portion of the event field,
  • the computer or a unit connected to it is designed to calculate which image coordinates of the image of the event field or of the subregion correspond to the obtained geographical position data
  • identifiers or information derived therefrom are continuously updated at or near the image coordinates in the image, which correspond to the geographical position data of the participants.
  • the image of the event field is the moving image of a camera recording the event continuously, wherein the computer continuously superimposes the identifiers or information derived therefrom camera recording so that the identifiers or the derived information to the or superimposed near the image coordinates that correspond to the geographical position data of the participants, or the identifiers or the derived information at these image coordinates are reproduced continuously on an additional screen.
  • the image of the event field or subregion is an image consisting of or recorded from recorded and / or recorded data, the identifiers or information derived therefrom being at or near the image coordinates representing the geographical Correspond position data of the participants, in the image of the event field or subsection continuously updated, and the resulting image is transmitted to a third party for playback on a separate screen.
  • This variant of the invention provides a "stand-alone" embodiment of the invention, which does not require the actual television picture. In this case, this aspect of the invention enables a user to follow a virtual image parallel to the television recording on a separate screen.
  • the invention relates to a computer for providing information in real time on a screen of a user human and / or objective participants of an event taking place in an event field, the computer being trained to:
  • each transmitter / receiver Receive data from at least one transmitter / receiver of a satellite positioning system, each transmitter / receiver is in each case attachable to a participant to be identified of the event, each transmitter / receiver has at least one individual identifier that identifies the participant or contains information about this, and each transmitter / receiver is adapted to receive data from the satellite positioning system and to send the received data or geographical position data calculated therefrom together with the individual identifier to the computer,
  • the computer is further configured to continuously update the identifiers or information derived therefrom at or near the image coordinates in the image that correspond to the geographic location data of the participants and to provide the resulting image for display on at least one screen.
  • the computer may be both a central processing unit and a plurality of computer units that communicate with each other and may be located at one location or a plurality of locations.
  • Figure 1 is a schematic representation of components of an inventive
  • FIG. 2 a representation of the geographical position data of the participants of an event in world coordinates on the one hand, in the image coordinates of a receiving camera on the other hand and their assignment;
  • FIG. 3 a representation of the geographical position data of the participants of a
  • FIG. 4 shows a further schematic illustration of components of a system according to the invention for displaying information on participants of an event on a screen, wherein both a superimposed representation can be provided, in which information is superimposed on a camera image, thus also a stand-alone representation, in which information is displayed virtually without overlay with a camera image.
  • Figure 1 illustrates the underlying scenario of the invention. It is considered an event, hereinafter also referred to as an event that includes a plurality of participants 1. The event takes place in a geographically defined area, which in principle can be arbitrarily large and which is called event field 2. In this case, the event is a car race. Basically, it can be any event, in particular sports event.
  • the participants are in the considered embodiment to racing cars 1, which are driven by racers.
  • the (present) participant is therefore a racing car.
  • Fixed to the participant or racing car 1 is a transmitter / receiver 3, which is designed to receive data from a satellite positioning system, for example a GPS system.
  • the transmitter / receiver 3 of each subscriber 1 continuously receives data from a plurality of satellites 4 of the satellite positioning system, which make it possible to determine the exact geographical position of the transmitter / receiver 3 and thus of the respective subscriber 1, as is known per se.
  • the respective transceivers 3 of the subscribers 1 furthermore comprise individual identifiers which identify the respective subscriber 1 or contain information about it.
  • the identifiers are embodied, for example, as a code to which certain information about the transceiver 1 is assigned in a database.
  • the identifiers can also be directly related to the desired information, for example the name of the driver or a start number.
  • the transmitter / receiver 3 are further configured to actively send signals and thus also include a transmitting unit.
  • This transmission unit continuously transmits the received data of the satellite positioning system or, if these have already been evaluated in the transmitter / receiver 3 with respect to the geographical position of the transmitter / receiver 1, the geographical position data to a central processing unit or a computer 7.
  • the transmitting unit sends this position data together with the individual identifier of the respective transmitter / receiver to the central unit 7, so that they can assign the received position data (or the still to be evaluated data of the satellite positioning system) a specific participant 1.
  • the transmission of the data from the individual transceivers 3 to the central unit 7 can take place either directly according to the arrow A or indirectly according to the arrows B, C.
  • An indirect transmission via one or more intermediate stations takes place, for example, in the event that the geographical distance between the individual transceivers 3 and the central unit 7 does not permit direct transmission.
  • the intermediate receiver to which the data is sent according to arrow B and forwards this according to arrow C to the central unit 7 to a helicopter 5, the at least one camera 6 (for example, a video camera) and with it hosts the event from above, providing large-scale views of the event.
  • the data of the satellite positioning system receives, so that the exact position of the helicopter or the camera located in this 6 in world coordinates can be detected exactly.
  • the camera 6 comprises sensors or other detection means which determine the angle of rotation of the camera, its inclination angle, its inclination angle and its zoom factor determine continuously, this information is also transmitted together with the image information of the camera according to the arrow F to the central unit 7.
  • the geographical position data of the individual transceivers 3 present in world coordinates ie with regard to latitude and longitude of the subscribers
  • this can be done by superimposing the additional information on a current camera recording or a camera image view.
  • the additional information is currently displayed as "follow-up information" on the screen that reproduces the camera image, and it is possible to display the information in the context of a single use, without overlapping with a current camera recording.
  • the former case is strongly related to a playback of the "on-going information" superimposed on the camera image, since in both cases the current image section of the camera must be determined.
  • the additional information ie, the identifiers or information derived therefrom
  • the camera 6 of course does not know how the video information of the camera image with the geographical Position data obtained via the transceiver 3 are to be related.
  • the implementation of the required assignment takes place in the central unit 7 and is explained by way of example with reference to FIGS. 2 and 3 in two exemplary embodiments.
  • the additional information of the camera view is superimposed in a unit 8, which may be part of the central unit 7.
  • the total information including the superimposed information according to arrow G is sent to a screen 9 and displayed there.
  • the illustration thus shows the video image of the camera together with the superimposed additional information, wherein each additional information is displayed concurrently at or near the corresponding subscriber.
  • an electronic representation of the event field is generated according to arrow E in the context of a single use and displayed in this the subscriber information or symbols to the current position data of the participants. If a single use is made using the current image section of the camera, the user has no further influence.
  • the user in the case of a single use or stand-alone use without using the current camera image in one embodiment, the user the current geo-position data of the event participants and the geo-position data a number of points of a virtual event field transmitted to the user, so the respective position the former can be assigned to the latter.
  • the user can then view the game in the stand-alone application by input by joystick, etc. from any position. It is provided that the positions represented by symbols of the player or virtual figures, for example, additional information such as names are attached.
  • the view calculations can be done by a setup box or the home computer by means of an appropriate program, such as in the form of an app.
  • FIG. 2 illustrates the problem of associating the geographical position data acquired in world coordinates with the image coordinates of the receiving camera, in this case the overlay of information about the video data of a current camera recording.
  • FIG. 2 shows the representation of additional information when superposed with the image data of a current camera recording:
  • FIG. 2 shows an event field 2, which is, for example, a football field on which a plurality of players, each equipped with a transmitter / receiver, move. Of the players, for better clarity, only three players or participants 1 a, 1 b, 1 c each with a transmitter / receiver 3a, 3b, 3c shown.
  • the transceivers 3a, 3b, 3c transmit geographical position data or data from which geographical position data can be calculated together with individual identifiers to a computer or a computing unit 7.
  • the arithmetic unit 7 thus receives to all players or participants the individual identifiers as well as the geographical position data.
  • the geographical position data are available as world coordinates.
  • the game is continuously recorded by a video camera, such as a conventional TV camera 6.
  • the television camera 6 is formed in the illustrated embodiment, but not necessarily as a stationary camera.
  • the camera image currently may not represent the entire playing field 2, but only a section of the playing field 2, which is schematically represented by the schematically represented field of view 12 of the camera 6 is illustrated.
  • the current camera recording which is identified by the reference numeral 60 in FIG. 2, does not include the entire playing field 2 but only a partial area of the playing field. Accordingly, only the players or participants 1 a, 1 b are shown in the current video image 60.
  • the position data received by the central unit 7 can be arranged in a representation 70 of the playing field 2 in world coordinates.
  • the positions of the transceivers 3a, 3b, 3c are represented as world coordinates WK1, WK2, WK3.
  • WK1, WK2, WK3 In order to be able to superimpose additional information on the subscribers 1 a, 1 b in the video image 60 at or at the positions at which the subscribers 1 a, 1 b are located, it is necessary to display the geographical position data WK1, WK2, which are present in world coordinates.
  • WK3 on a picture detail and an image size corresponding to the image detail and the image size of the video image 60.
  • Such a picture section is also referred to in this description as a reference frame or (in terms of its content) as an identification picture or ID viewer picture. It is therefore to be detected which image coordinates of the receiving camera in the video image 60 correspond to the geographical position data WK1, WK2, WK3.
  • a reference image or identification image identical to the video image 60 of the video camera 6 is generated with respect to its orientation and boundary, and the position data of the participants are imaged in this identical identification image, so that this identification image can be superimposed with the camera image ,
  • Such an identification image is designated by 80 in FIG.
  • the world coordinate WK1 is mapped to the position P1 in the identification image 80, wherein the position P1 has the image coordinates X1, Y1 which are identical to the image coordinates X1, Y1 of the video image 60.
  • the position WK2 in world coordinates becomes the position P2 mapped with image coordinates X2, Y2.
  • the exemplary embodiment is (initially) of a stationary installed, but rotating, tilting and tiltable and zoomable image camera.
  • a "stationarily installed” camera is understood to be one which is not movable overall laterally or vertically, but only rotations along the three spatial axes Thus, even with changes in rotation, inclination and inclination changes in the same position remains, albeit with each changed orientation. Should this condition in individual cases z. B. due to special local conditions can not be implemented, so the goal of a congruent view of camera image and identification image z. B. according to the principles for a non-stationary installed, so mobile camera (see below) can be achieved.
  • the image camera view 60 is determined by the current position of the image camera, its viewing axis (determined by the current rotation and tilt angle of the camera), the current (as far as mechanically provided) inclination of the camera, their image frame (that is, their horizontal and vertical viewing angle) and the zoom level used with the corresponding image frame constrictions and possible image distortions (eg caused by the zoom).
  • tracking stationary camera For each event happening tracking stationary camera (exactly their focus) is first determined their geographical position. This can be z. B. by a built-in camera GPS transmitter / receiver device. The position data of the cameras are entered together with their identifiers in the central computer 7. For each camera 6 is now a certain position in terms of their inclination, rotation (tilting) and possibly inclined position (injury or rotation angle about the visual axis) as zero or home position (hereinafter called "O position") defined and in entered the calculator. This can be z. B. done by the camera view first z. B.
  • the exact geographical position is also known and has been entered into the computer, is aligned (at a football field football, for example, a penalty spot or a field corner ).
  • the computer now "knows” under further premises (to be described below) the center of the view of the image camera and, on the basis of the knowledge of its geographical position, also its pan and tilt angle at the zero or home position defined in this way.
  • the image camera is doing in advance to be aligned so that the plane of rotation exactly horizontally and the pivot plane are exactly vertical.
  • a "rotation" of the camera also not to a tilt and skew the camera and only then can be dispensed with the camera for each rotation angle and a separate inclination and inclination angle for the calculation required for view determination processes or the Calculator must specify appropriate algorithms.
  • the program or computer accordingly also the information about the horizontal orientation of the rotation and the vertical orientation of the inclination plane to enter or the respective degree of deviation thereof and the deviation direction.
  • the computer must also input the respective skew angle of the rotary and / or pivot axis. It is also necessary to enter their geographical orientation for the inclination of the axis of rotation, so enter about the exact compass direction of the tilt axis whose inclination angle (with respect to the vertical or horizontal). Otherwise, with appropriate programming, it is sufficient to confirm that the axis of rotation is horizontal and / or the pivot axis is vertical.
  • the calculator for the definition of O-position further whose data are made available in relation to their current tilt relative to the horizontal.
  • this can be done by calibrating the camera (more precisely, its upper and lower bounds) in the horizontal by known techniques (as used for example in any modern smartphone), with subsequent input to the computer that the Image camera is in its O-position in the horizontal (or in another specific skew angle) is located.
  • the calculator needs the information about the image frame, that is, the angularity of the four image edges at a given zoom level, conveniently the zero zoom level.
  • the computer also requires the algorithms on the change in the image angles or the "picture frame” depending on the different zoom levels. If the camera image is distorted by zooming or other conditions, the computer further requires the distortion algorithms for the various states, eg. B. zoom levels.
  • the various states eg. B. zoom levels.
  • the computer 7 can now under the above conditions with knowledge of the geographical camera location, the camera viewing angles in the O-zoom level, the current zoom level, any distortion algorithms, and the current rotation, inclination and tilt angle (in each case relative to the O- zoom level.
  • Position of the image camera as well as knowledge of the current geographical position of the participants continuously create a virtual image, which is positional and congruent with the respective current image camera image with respect to the image frame or the viewing angles and the positions of the participants their identifiers or identifications associated therewith (name, team membership, sports equipment manufacturer etc.) identifies congruent with the positions of the participants on the camera image.
  • This identification image 80 which is identical to the image camera in terms of its orientation and boundary, is now superimposed on the camera image 60 (possibly after conversion of the identifiers into specific designations or names or subscriber-specific information) in a known manner. The viewer or consumer can then keep track of the television (or other) view at any point in the event as to which identified participant is located where and / or where to go.
  • the fade in or fade of the thus generated identification image or "ID Viewer” - view in the television (or other) image can be done in two ways:
  • the respective radiating end itself makes the overlay. He then decides z. For example, whether and from what visible participant size the identification is hidden (eg because the participant and / or the label on his clothes or his sports equipment on the camera image is already sufficiently large or recognizable).
  • the "ID viewer view” the viewer or the consumer separately for example via a set-top box, to a built-in television in the TV or the home computer via the Internet or in another way, about a second, separate television signal provided.
  • the identification image by the user / customer in principle in each case separately editable. The viewer can then decide currently whether he wants to see the camera image superimposed image or not.
  • He can then decide whether he would like to have the identification image signal superimposed on his camera image only for certain persons or a specific crew. He can also decide by means of an additional recognition software from which image size the individual participant should be hidden in relation to the camera image width and / or height of the identification of the participants (eg because of sufficient visibility). It is also possible to let the user choose between different view sizes of the identifications or symbols, as well as to determine their exact positioning at the event participant (eg at hip height directly next to the participant). All mentioned user options can alternatively be exercised by the emitter.
  • the visual output of the identifications does not necessarily have to be exactly at the position of the GPS transceiver unit at the event subscriber.
  • the pictorial output of the respective subscriber ID may be programmed to optionally be a certain distance above, below or next to the GPS receiving and transmitting unit. So it is z.
  • the identification As useful in football players football, which is the GPS reception transmitting unit z. B. sewn into the shirt collar, the identification figuratively z. B. at waist level, where the risk is comparatively low that it superimposed interesting game action (assuming that the football player usually moves the ball with his foot, leg or head or stops).
  • the participants perform not only targeted movements in a particular direction, but also movements in other directions, as z. B. in running athletes or football players football in the high-low movement during running is the case, which in principle would lead to an unwanted (in this case, high-low) movement of the ID output, so can attenuations for certain movement Directions, in the example cited, for the high-low movement.
  • the identification output will then perform its "hopping" movements only reduced or not at all while running.
  • the recognition or other software alternatively or additionally intervene supportive by z. B. for each player an upper or lower running height from the measured running movements, that is generated a kind of virtual bar on which the identification output virtually "hangs" in an always the same distance.
  • the basic system described here is also suitable for non-plane fields in fixedly positioned cameras, such as in motocross round races on hilly / hilly terrain.
  • GPS sight-independent positioning from above
  • the basic system described here is also suitable for non-plane fields in fixedly positioned cameras, such as in motocross round races on hilly / hilly terrain.
  • participants are located by the ID-Viewer system and their identifications are output, even though they are not visible on the current camera image due to an elevation or lowering.
  • the current zoom factor can be tapped electronically or electromechanically so that, in principle, all parameters for generating an identification image which coincides with the camera image area ("I D viewer view") can already be determined by techniques known per se.
  • Figure 3 Separate presentation of information without overlay with the image data of a current camera recording (stand-alone application):
  • FIG. 3 shows an exemplary embodiment in which information about participants of the event is likewise reproduced at positions of a picture detail which correspond to the actual geographical positions of the participants in the event, but without being overlaid with the image data of a current camera recording.
  • This application is therefore also considered as an individual case
  • a simple example of such a stand-alone application is the presentation of the desired information in a completely horizontal event field.
  • the stand-alone application is by no means limited thereto and, for example For the realization of virtual 3D-views and 3D-flights the initial description on the basis of a two-dimensional, planning event-field is only done, since the basic features of the stand-alone application are easily recognizable.
  • the position data is inserted into an image that represents the event field as a whole or a portion of the event field, for example, in a top view
  • the image may be static or dynamic
  • an image of the actual event field 2 is generated, which, for example, reproduces a top view, eg the photographed event field or a virtual event field Since this image is static in the simple example considered, then none must be Adaptation to changes in view or current zoom levels of a camera image, which significantly reduces the amount of data to be transmitted.
  • FIG. 3 like FIG. 2, shows an event field 2 on which a plurality of subscribers 1 a, 1 b, 1 c are located.
  • Transmitters / receivers 3a, 3b, 3c are attached to the subscribers.
  • the position data sent from the transceivers to the central unit 7 are world coordinates. These are arranged in a representation 100 of the playing field 2 in world coordinates.
  • the positions of the transceivers 3a, 3b, 3c are represented as world coordinates WK1, WK2, WK3.
  • the representation 100 includes geographical position data of defined points of the event field 2. These position data are also available as world coordinates. In the illustrated embodiment, it is the four vertices of the event field with position data WK01, WK02, WK03, WK04.
  • the positions WK1, WK2, WK3 of the representation 100 are to be transferred to an identification image as well as in FIG.
  • This is in the figure 3 by the reference numeral 1 10 is characterized.
  • this identification image 1 10 is static, that is to say image size, image sections etc. do not change. Accordingly, less computing power is needed to map the geographical position data of the transceivers 3a, 3b, 3c to the image data of the identification image 100.
  • the identification image 1 10 is calibrated by the geographic data of the defined position data WK01, WK02, WK03, WK04 are set in Figure 1 10 as vertices P4, P5, P6, P7.
  • the geographic data or geoposition data of the vertices WK01, WK02, WK03, WK04 are read in, for example, via an existing digital terrain model or, for example, measured by short-term arrangement of transmitters / receivers at the vertices of the rectangular event field. Possibilities for determining the geographical position of points of an event field will be described in detail below.
  • the computer 7 knows all or a sufficient number of points of a standard event field in terms of their geographical position, possibly with the event field markers (eg eleven-meter space at football), there are simple applications , For plan rectangular and horizontal Event fields z. For example, it is sufficient to enter the geographical data of the four vertices, so that the computer knows each point of the playing field; for standardized always identical playing surfaces (such as football), the markings are further informed by their one-time input, which can then be applied to the respective playing field (with its individual corner point geo-data) by the computer.
  • the event field markers eg eleven-meter space at football
  • the corner positions WK01, WK02, WK03 and WK04 as well as the current position data WK1, WK2, WK3 of the participants are thus mapped onto the identification image 110 in the exemplary embodiment of FIG.
  • This additional information is now displayed at the points in the identification image 1 10, where the respective participants are located.
  • the participants themselves can also be shown schematically.
  • This additional information is thus shown at points P1, P2, P3 corresponding to the current positions WK1, WK2, WK3.
  • This additional information is referred to as F (1 a), F (1 b) and F (1 c), that is, they depend on or mark the individual participants 1 a, 1 b, 1 c.
  • the identification image 110 thus makes it possible to display information about the individual actors of the event, wherein the information on the identification image 1 10 moves or changes according to the position of the participants.
  • the identification image 100 is sent, for example via the Internet or a separate television signal to a viewer or components. This can then follow the current events from the top view with subscriber identifications parallel to the television broadcast on his computer screen or smartphone or tablet computer or on a second TV. This view is for example for the evaluation of the positional game, for example in football of interest or serves as a total view to complement the most zoom-narrowed television images.
  • FIG. 3 illustrates only one embodiment of a stand-alone application of the present invention.
  • the stand-alone application may undergo numerous modifications and additions, for example, to realize virtual 3D flights. Several modifications and additions to the stand-alone application are described below.
  • Stand-alone application - modification "visual location" For events with balls or other (event) objects, it may be useful, especially in the stand-alone application, to integrate them into the system by installing GPS receiver / transmitter units and visualize their identity in the ID Viewer view.
  • GPS transceiver units are not small or lightweight or not insensitive enough to external influences for unproblematic constriction into the respective event object (eg soccer)
  • the location of event signals Objects in parallel also by other measures, eg done by means of an object recognition software. It is well within the scope of the invention to superimpose the locating system described with other positioning systems.
  • the event object so z.
  • a special color and / or structural area marking it can be identified by appropriate detection software.
  • each point on the camera image area or on the location grid corresponds to a specific virtual directional beam on which the event object or the ball is located.
  • the event object is now detected by two cameras fixed with regard to their location and viewing direction (and zoom level), which respectively capture the entire playing field, the exact position of the event object in space can be determined by calculation. It corresponds to the crossing point of the two beams determined by means of locating gratings.
  • the position of the event object, so z. B. the ball can now also in each ID viewer view are displayed 3-dimensional, with the 2-dimensional representation on the event field is sufficient for the top view from the top in the stand-alone application.
  • one or more of the image cameras used for the respective event are simultaneously used as a tracking camera.
  • the camera image it is necessary for the camera image additionally to be fed correspondingly into the respective computer for the beam determination by the localization network, as long as the beam determination does not already take place within the camera or the camera system.
  • the omission of separate cameras for event-object location by two image cameras requires, on the other hand, that at least two image cameras (whose views are used for beam location) also have the event object in their view and their visual axes never run parallel.
  • the additional visual location of event objects can also take place in the case of a superposed representation in accordance with FIG. 2. Standalone application - modification "virtual flights":
  • the computer 7 knows the geographical positions of all or a sufficiently large number of points of the event field 2 and the geographical positions of the participants and possibly event objects, it is possible for the user to make virtual flights through the event happening ,
  • the geographical positions of a sufficiently large number of points of the event field 2 are thereby communicated to the computer 7, for example by data of digital terrain models, which the computer 7 can access.
  • digital terrain models are preferred for non-planned event fields.
  • the user can then play the current game, z.
  • the “run along” can be activated with appropriate programming by a separate command input, such as a “mouse click” on or (on a touch screen) touching the identity output, if necessary, with an additional “scrolling” command.
  • a separate command input such as a "mouse click” on or (on a touch screen) touching the identity output, if necessary, with an additional “scrolling” command.
  • the user can "pin" the center of his virtual view to it by corresponding command input in a corresponding program, so that he automatically runs continuously from the point of view of a particular event participant Event item, e.g. B. Ball has in view.
  • Event item e.g. B. Ball has in view.
  • the attraction of such possibilities is revealed, for example, in the fact that it is possible for the user to watch a penalty shot (virtual) from the perspective of the goalkeeper during the football match, while the television camera offers a different view (for example from the point of view of the shooter).
  • the direction of view can also be generally specified or selected depending on the direction when “running along”. In this case, the movement direction of the respective participant or event object can be decisive in general.
  • the virtual view takes place at football match from the perspective of football in its respective direction of movement or “shooting direction” or z. B. also backwards, ie at 180% angle to its direction of movement or in the direction of the respective shooter.
  • the viewing direction can also be predefined or pre-selected by the (changing) positions of a specific (other) event participant or event object.
  • the viewing direction can also be specified by the user when running or by means of appropriate programming and selection by or in dependence on certain event field markings.
  • the general view direction defaults as a function of the direction of movement of one (or more) event participants or event objects.
  • the indicated view and gaze direction specifications are not only possible when "running along” but also from any room situation with virtual 2D movements or 3D flights. If the data described above for the generation of ID viewer views or 3D views are stored consecutively (with time determination) in parallel at the same time, the user can subsequently also review and assess each event situation from every position in the room.
  • the ID viewer view can be approximated to a real view with additional applications such as shadows or a virtual 3D view of participants / event objects.
  • the user can also "fold back and forth" between the camera image and the virtual image.
  • All stand-alone applications can also be used by a professional, eg. As television Internet providers are used, which then z. (professional) makes virtual trips through the event happenings and sends them to the spectator / consumer, who then has no or only a limited influence on the viewing position.
  • FIG. 4 schematically shows an exemplary embodiment of the invention in which both a superimposed representation can be provided, in which information is superimposed on a camera image, as well as a virtual representation in which information is displayed virtually without superposition with a camera image. It can be done in the virtual representation 3D flights.
  • each subscriber 1 there are subscribers 1 of an event, to each of which a transmitter / receiver 3 is attached, which is designed to receive data from a satellite positioning system, for example a GPS system.
  • the transmitter / receiver 3 of each subscriber 1 continuously receives data from a plurality of satellites 4 of the satellite positioning system, which make it possible to determine the exact geographical position of the transmitter / receiver 3 and thus of the respective subscriber 1.
  • the event takes place in a non-planning event field 2.
  • the respective transceivers 3 of the subscribers 1 furthermore comprise individual identifiers which identify the respective subscriber 1 or contain or encode information about it, as described with reference to FIG.
  • the transmitter / receiver 3 are adapted to send position data together with the individual identifier of the respective transceiver 3 according to the arrow A to a computer 7, so that this the received position data (or the still to be evaluated data of the satellite positioning system) a assign 1 to certain participants.
  • a camera 6 for example a video camera
  • a helicopter 5 with which the event is recorded and which for this purpose provides a camera image 60 which reproduces the event field 2 or a partial area of the event field 2.
  • another transmitter / receiver 11 which receives data from the satellite positioning system, so that the exact position of the helicopter or of the camera 6 located therein can also be precisely detected in world coordinates.
  • the camera 6 comprises sensors or other detection means which continuously determine the rotation angle of the camera, its inclination angle, its inclination angle and its zoom factor, this information also being transmitted to the computer 7 together with the image information of the camera.
  • the computer 7 accesses a digital terrain model DGM 14 or a digital map of the event field 2.
  • an overlay image 90 the image information of the camera 6, i. the camera image 60, and this superimposed and running additional information is displayed, as described with reference to Figure 2.
  • the illustrated additional information is e.g. the names of the participants or the names of the drivers of the participants (here: the names of the drivers of the racing cars), and / or e.g. Identification numbers such as e.g. the respective start number.
  • information about the participants can be displayed in a virtual image that is based on the data of the digital terrain model DGM 14 and in which the information is also displayed concurrently.
  • the virtual representation may, according to the image 130, be a virtual view in which a 3D image is displayed. Flight is realized as described above. The perspective of the 3D flight can be set by a user, for example, by means of a joystick 15 or the like.
  • the individual participants can be represented in the virtual view 130, for example by subscriber symbols 16. In addition, further information such as name, etc. can be displayed concurrently.
  • An extension of the concept in the stand-alone application provides that at the event participant and / or an event device (eg bicycle) either in the GPS transceiver unit or elsewhere bank angle sensors in at least two directions, best crosswise and in the basic position horizontally aligned, are attached, register a tilt of the participant to the point of "dropping" and send to the computer. This can then represent in the virtual view, the participants or other symbols also in a corresponding oblique position or visually "fall over”.
  • an event device eg bicycle
  • Stand-alone application - modification "visualization of the motion history” An additional extension of the concept in the stand-alone application or for the output of a virtual event image is the run or motion track of one or more / all To visualize participants and / or one / more event objects by a tail fading or becoming more transparent to its starting position or a "flag" of a specific length.
  • the professional and / or private user can specify in a further application form length and / or width and / or color of the tail or the flag and select which moving objects are hereby provided. Further or alternatively to the length of the tail, he can speed the z.
  • age-dependent fading or increase in transparency time-dependent determine. Each spot of the tail of the event (s) fades the older it is, the fading period up to the invisibility of the tail (at the end) by the private and / or professional user.
  • another form of (age-dependent) dissolution or decomposition of the tail such as "crumbling" can be used. It is also possible to keep the tail or the flag always at a certain length, so that regardless of the time sequence, the most recent movements of the respective event participant are always visualized over a certain length.
  • tails or bands can not only be generated in the stand-alone application, but can also be generated for superposition on a camera image because of the known (and storable) movement history of the participants through the ID viewer system.
  • a digital image of the event field 2 is basically possible as well.
  • Often field, being of free nature, is not available in terms of geographical coordination of the points of its elevations and depressions, that is, of all or a sufficient plurality of area or elevation points, as for example in a rectangular and plan
  • digital terrain models for a subarea of the earth's surface which describe the earth's surface through the spatial coordinates of a representative set of terrain points, altitude information is kept independent of scale and data processing NASA scans and other digital terrain maps are available.
  • the digital measuring points are sometimes insufficient in their number per unit area to allow (even with interpolation) a sufficiently accurate terrain surface for the ID-Viewer representation to generate.
  • digital maps are available with sufficient dot-tightness, they can be underlined the ID viewer view unproblematic.
  • the consumer can then track the event with the associated identifications unproblematically by means of a virtual 3D flight over (but also below) the event field.
  • the ID viewer output can be programmed so that it is prevented in case of perspective occlusion, especially by hills and mountains from the respective virtual view of the user / user.
  • the event field is initially of sufficient number with regard to the geographical positions to scan from field points, which takes place, for example, by streaking off / going off the field and taking as many positions as possible during the course of it by means of GPS with subsequent storage.
  • This is z.
  • the event track can be virtually compressed to visually slow down the movements of the participants and / or make slope more visible. This can be z. B. by factor application to the height position of the event field, the event participant positions or identifications and possibly the event objects, starting from an O-height position to be defined. Stand-alone application - variant without digital terrain models:
  • the backing of the respective event field in the form of digital terrain maps or digital terrain models (DTM) is basically useful in the case of virtual views / 3D flights from / via event fields).
  • the representation or computational implementation of the event field can also be a photo / graphic, preferably from top view, which then is optically distorted or brought into "skew" according to the respective perspective and the respective geoposition of the virtual viewer, so that the identifiers of the event participants can each be output at the matching with the reality point of the event field.
  • the photo / graphic event field in the top-view with the top-view of the ID-Viewer image are brought into coincidence.
  • This can be z. B. happen that are positioned at the four corners of a football field four receiver transmitting units (usually determine the geo-positions of the event participants and transmit) and then the four corners of the photo / graphical event field view with the Position image (ID viewer view) of the four transceiver units are matched by zooming in and out of the views.
  • the computer in the computer the height of the virtual viewer positioned here in the middle above the football field ("kick-off point") is entered as the starting position If the virtual viewer now leaves his position, the computer can be based on the virtual viewer provided Data now always generate an event field view that corresponds to the changed perspective of the virtual viewer due to its changed virtual position and the respective positions of the event participants can now be blended in. The computer is now based on its known (eg B.
  • a digital terrain model to be subordinated is already to be preferred because in the case of elevations and pits of the event field the underlaying of a (two-dimensional) photo / graphic event field is evident to optically ambiguous assignments of the respective position of the event Participant can lead.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Die Erfindung betrifft Verfahren, ein System und einen Computer zur Bereitstellung von Informationen in Echtzeit auf einem Bildschirm eines Nutzers zu mindestens einem menschlichen und/oder gegenständlichen Teilnehmer einer Veranstaltung. Gemäß einer Ausgestaltung umfasst das Verfahren die Schritte: - Bereitstellen eines Sender/Empfängers (3) eines Satelliten-Ortungssystems (4) an jedem der zu identifizierenden Teilnehmer (1) der Veranstaltung, wobei jeder Sender/Empfänger (3) mindestens eine individuelle Kennung aufweist, die den Teilnehmer (1) identifiziert oder Informationen über diesen enthält, - Empfangen von Daten des Satelliten-Ortungssystems im jeweiligen Sender/Empfänger (3), - Senden der empfangenen Daten oder aus diesen berechneter geographischer Positionsdaten zusammen mit der individuellen Kennung vom jeweiligen Sender/Empfänger (3) direkt oder indirekt an einen Computer (7), wobei der Computer (7) aus den Daten des Satelliten-Ortungssystems die geographischen Positionsdaten ermittelt, sofern diese nicht bereits im jeweiligen Sender/Empfänger (3) berechnet worden sind, so dass der Computer (7) die geographischen Positionsdaten und individuellen Kennungen zu sämtlichen Teilnehmern (1) aufweist, und - Berechnen im Computer (7), welchen Bildkoordinaten der aufnehmenden Kamera die erhaltenen geographischen Positionsdaten entsprechen, - wobei die Kennungen oder aus diesen abgeleitete Informationen der Kameraaufnahme fortlaufend derart überlagert werden, dass die Kennungen oder die abgeleiteten Informationen an den oder nahe der Bildkoordinaten eingeblendet werden, die den geographischen Positionsdaten der Teilnehmer (1) entsprechen, oder die Kennungen oder die abgeleiteten Informationen an diesen Bildkoordinaten fortlaufend auf einem zusätzlichen Bildschirm wiedergegeben werden.

Description

Verfahren, System und Computer zur Bereitstellung von Informationen in Echtzeit auf einem Bildschirm eines Nutzers zu mindestens einem menschlichen und/oder gegenständlichen Teilnehmer einer Veranstaltung
Beschreibung
Die Erfindung betrifft Verfahren, ein System und einen Computer zur Bereitstellung von Informationen in Echtzeit auf einem Bildschirm eines Nutzers zu mindestens einem menschlichen und/oder gegenständlichen Teilnehmer einer Veranstaltung. Ein menschlicher Teilnehmer ist ein Mensch. Ein gegenständlicher Teilnehmer ist eine Sache, beispielsweise ein Fußball oder ein Rennwagen. Die Erfindung umfasst beide Arten von Teilnehmern.
HINTERGRUND DER ERFINDUNG
Es stellt ein bekanntes Problem dar, dass bei der Übertragung von Sportveranstaltungen und anderen Großveranstaltungen im Fernsehen bei großflächigen Ansichten, zum Beispiel der vollständigen Ansicht eines Fußballfeldes, die einzelnen Spieler kaum oder gar nicht zu erkennen sind. Der sportinteressierte Fernsehzuschauer ist bei solchen Veranstaltungen oder Events jedoch in der Regel gerade bei großflächigen Aufnahmen daran interessiert zu wissen, welcher Spieler an welcher Stelle des Bildschirms steht oder agiert, beispielsweise um das Positionsspiel des Spielers besser beurteilen und mit anderen Fernsehzuschauern diskutieren zu können. Namens- und Schriftzüge, die üblicherweise auf den Spieler-Trikots angegeben sind, sind hierbei von geringem Nutzen, da sie auf dem Bildschirm bei großflächigen Aufnahmen nicht erkennbar bzw. zu klein sind.
Ähnliche Probleme ergeben sich bei anderen großflächig, insbesondere im Freien ausgeübten Sportarten, wie zum Beispiel Cart-Rennen, Marathonlauf, Motorrad- und Autorennen, Langstreckenrennen, Triathlon oder Segel- und Motorbootrennen. Auch hier ist anzunehmen, dass eine Vielzahl von Zuschauern bei der TV-Übertragung von Großansichten gerne mit einem Blick erkennen würde, welcher der Teilnehmer oder welche der Objekte der Veranstaltung sich gerade an welcher Position befindet. Ein eventuell vorhandener Kommentator kann das aufgezeigte Problem nicht beheben, da er verbal nur die Aktionen einzelner Spieler oder Teilnehmer beschreiben kann und es nicht denkbar ist, dass er verbal sämtliche sichtbaren Teilnehmer einer großflächigen Ansicht beschreibt.
Aus der DE 100 29 464 A1 ist ein Verfahren zur medialen Aufarbeitung von statischen Zuständen und/oder Bewegungsabläufen, insbesondere von Spielabläufen bekannt, das an den Spielern befestigte Sender umfasst. Dabei können zwar einem Fernsehzuschauer Zusatzinformationen bereitgestellt werden, aber nur durch allgemeine Einblendungen und zu einem betrachteten Zeitpunkt nur bezogen auf einzelne Spieler.
ZUSAMMENFASSUNG DER ERFINDUNG
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, Verfahren, ein System und einen Computer bereitzustellen, die es ermöglichen, die Identitäten von Teilnehmern von Sport- und anderen Veranstaltungen sowie von Gegenständen (zum Beispiel Bällen oder Sportwagen), die in solchen Veranstaltungen eingesetzt werden, live auf einen Fernsehbildschirm oder einem anderen Bildschirm angezeigt zu bekommen. Diese Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Anspruchs 1 , ein Verfahren mit den Merkmalen des Anspruchs 8, ein Verfahren mit den Merkmalen des Anspruchs 24, ein System mit den Merkmalen der Anspruch 28 und einen Computer mit den Merkmalen des Anspruchs 35 gelöst. Ausgestaltungen der Erfindung sind in den Unteransprüchen angegeben.
Danach beruht die erfindungsgemäße Lösung in einem ersten Erfindungsaspekt auf dem Gedanken, an jedem zu identifizierenden Teilnehmer (menschlicher Teilnehmer oder gegenständlicher Teilnehmer) einen Sender/Empfänger eines Satelliten-Ortungssystems anzubringen. Ein solcher Sender/Empfänger umfasst eine Empfangsfunktion, die es ihm erlaubt, Daten eines Satelliten-Ortungssystems zu empfangen. Ein solcher Sender/Empfänger umfasst des Weiteren eine Sendefunktion, die es ihm erlaubt, Daten über eine Antenne auszusenden, wie noch erläutert wird. Der am Teilnehmer angebrachte Sender/Empfänger weist dabei eine individuelle Kennung auf, durch die der Teilnehmer, an dem sich der Sender/Empfänger befindet, identifiziert ist. Beispielsweise kann die Kennung den Namen oder andere Eigenschaften des Teilnehmers enthalten oder kodieren. Es ist erfindungsgemäß vorgesehen, dass der jeweilige Sender/Empfänger in Ausübung seiner Empfangsfunktion fortlaufend Daten des Satelliten-Ortungssystems empfängt. Diese Daten können entweder weitergeleitet und in einer anderen Einheit im Hinblick auf die Ermittlung der geographischen Position ausgewertet oder direkt im am Teilnehmer positionierten Sender/Empfänger im Hinblick auf geographische Positionsdaten ausgewertet werden. Die empfangenen Daten oder die aus diesen bereits berechneten geographischen Positionsdaten werden zusammen mit der individuellen Kennung vom jeweiligen Sender/Empfänger in Ausübung seiner Sendefunktion direkt oder indirekt an einen Computer gesandt, bei dem es sich um eine zentrale Recheneinheit handeln kann. Dieses Übersenden kann direkt oder unter Zwischenschaltung weiterer Einheiten erfolgen. Der Computer ermittelt aus den Daten des Satelliten-Ortungssystems die geographischen Positionsdaten der jeweiligen Sender/Empfänger, sofern diese nicht bereits im jeweiligen Sender/Empfänger berechnet worden sind. Der Computer kennt somit die geographischen Positionsdaten und die individuellen Kennungen zu sämtlichen Teilnehmern auf.
Der Computer berechnet nun, welche Bildkoordinaten der aufnehmenden Kamera den erhaltenen geographischen Positionsdaten entsprechen. So ist es erforderlich, die in Weltkoordinaten (d.h. die die geographische Länge und Breite angebenden) vorliegenden geographischen Positionsdaten auf die entsprechenden Bildkoordinaten der aufnehmenden Kamera abzubilden, wobei die aufnehmende Kamera in unterschiedlichen Ausführungsvarianten stationär oder mobil angeordnet sein kann. Durch die Berechnung, welchen Bildkoordinaten der aufnehmenden Kamera die geographischen Positionsdaten entsprechen, ist es möglich, die Kennungen oder aus diesen abgeleitete Informationen den Bildinformationen der Kameraaufnahme derart zu überlagern, dass die Kennungen oder die abgeleiteten Informationen an den oder nahe der Bildkoordinaten eingeblendet werden, die den geographischen Positionsdaten der Teilnehmer entsprechen. Alternativ können die Kennungen oder die daraus abgeleiteten Informationen an den genannten Bildkoordinaten auf einem zusätzlichen Bildschirm ohne die Kamera-Bildinformationen dargestellt werden, z.B. auf einer virtuellen Event-Feld-Ansicht, auf welcher den Kennungen graphische Figuren der Teilnehmer und/oder deren Namensschriftzüge zugeordnet sind.
Die erfindungsgemäße Lösung ermöglicht es, in Echtzeit Informationen auf einem Bildschirm wiederzugeben, die unmittelbar an oder neben der tatsächlichen Position des Teilnehmers dargestellt werden und damit mit diesem „mitlaufen". Damit werden dem Zuschauer bei einer großflächigen Ansicht zusätzlich die Identitäten und/oder andere Identifikationsinformationen und/oder aus diesen abgeleitete Informationen der einzelnen Teilnehmer der Veranstaltung fortlaufend und aktuell angezeigt.
Die individuelle Kennung eines Sender/Empfängers, der an einem zu identifizierenden Teilnehmer der Veranstaltung angebracht ist, kann auf vielseitige Art und Weise bereitgestellt sein. Gemäß einer Ausgestaltung handelt es sich bei der individuellen Kennung um einen Namen, die der Sender/Empfänger zusammen mit den Daten des Satelliten-Ortungssystems oder aus diesem abgeleiteten Positionsdaten an den Computer übersendet. In einer anderen Ausgestaltung handelt es sich um einen Code, beispielsweise eine Nummer, zu der im Computer bestimmte Informationen hinterlegt und abrufbar sind, beispielsweise der Name des Teilnehmers und seine Zugehörigkeit zu einer bestimmten Mannschaft, sofern es sich bei dem Teilnehmer um einen Menschen handelt. Sofern es sich bei dem Teilnehmer um einen Gegenstand handelt, sind beispielsweise eine Startnummer, eine Produktbezeichnung, der Hersteller und gegebenenfalls ein Logo des Herstellers hinterlegt. Zusätzlich können beliebige weitere Metadaten hinterlegt sein, beispielsweise den Sportinteressierten interessierende Statistiken zu dem jeweiligen Teilnehmer.
Gemäß einer vorteilhaften Ausgestaltung der Erfindung berechnet der Computer zum Berechnen, welchen Bildkoordinaten der aufnehmenden Kamera die erhaltenen geographischen Positionsdaten entsprechen, einen Bildausschnitt, der mit dem aktuellen Bildausschnitt der Kamera deckungsgleich ist. In diesen Bildausschnitt werden dann die Kennungen oder daraus abgeleitete Informationen an oder bei den geographischen Positionsdaten dargestellt und zur Darstellung auf einem Bildschirm weitergegeben. Dieser Erfindungsaspekt stellt somit einen Referenzrahmen bereit, in den die aktuell erfassten Positionsdaten eingetragen werden, wobei der Referenzrahmen gleich dem Bildausschnitt der aktuell für eine Fernsehwiedergabe verwendeten Kamera ist. Bei einem Kamerawechsel wechselt dabei natürlich auch in entsprechender Weise der Referenzrahmen.
Eine vorteilhafte Ausgestaltung der Erfindung sieht vor, dass die Kamera, in deren Bild die Informationen mitlaufend eingeblendet werden, statisch angeordnet ist, d.h. eine feste Geoposition aufweist. Dies schließt nicht aus, dass die Kamera hinsichtlich ihrer Neigung, ihrer Schrägstellung, ihres Drehwinkels und ihrer Zoomstufe einstellbar ist. Eine statische Anordnung bedeutet, dass die Kamera bzw. deren Sicht-Ausgangspunkt einschließlich ihres Stativs insgesamt nicht verschiebbar ist. Dementsprechend besitzt die Kamera eine feste Geoposition. Diese befindet sich beispielsweise an einer Stelle in der Videokamera, an der sich Drehachse, Neigungsachse und Schrägstellungsachse, soweit existent, normalerweise schneiden.
Um jede Event-Teilnehmer-Geo-Position einer Stelle des aktuellen Bildausschnitts zutreffend zuzuordnen zu können, muss der Rechner wissen, welchem Bildpunkt bzw. welcher Stelle innerhalb des Referenzrahmens die jeweilige Event-Teilnehmer-Geo- Position entspricht. Für diese Berechnung wird eine Mehrzahl von Parametern der die Veranstaltung aufzeichnenden Kamera oder Kameras erfasst und ausgewertet, insbesondere die aktuelle Position der Kamera, der aktuelle Drehwinkel der Kamera, der aktuelle Neigungswinkel der Kamera, die aktuelle Schrägstellung der Kamera, der Bildrahmen bzw. die Ansichtswinkligkeit der Kamera (ohne Zoom), und die aktuelle Zoomstufe der Kamera, ggf. mit zugehörigen Verzerrungsalgorithmen (siehe unten).
Die Erfindung kann jedoch ebenso bei einer dynamisch bewegten Kamera eingesetzt werden, etwa frei geführten, mitfahrenden oder in Helikoptern mitgeführten Kameras, so dass sich die geographische Position der Kamera ständig verändert. Daher werden im Falle einer dynamischen Anordnung der Kamera zusätzlich zu den Informationen, die bei einer statischen Anordnung der Kamera erfasst werden, weitere Informationen zur Generierung des Referenzrahmens erfasst, insbesondere 3D-lnformationen zur aktuellen geographischen Position und Ausrichtung der Kamera im Raum.
Gemäß einer weiteren Ausgestaltung werden die Kennungen oder die aus diesen abgeleiteten Informationen der Kameraaufnahme überlagert, bevor die Kameraaufnahme ausgestrahlt oder übertragen wird. Die Überlagerung erfolgt also zentral im Computer und die zusammengesetzten Bildinformationen werden zusammen übertragen (per Sendemast, Satellit, Kabel, Internet, etc.). Alternativ kann dagegen vorgesehen sein, dass die Kennungen oder aus diesen abgeleitete Informationen als gesonderte Informationen übertragen und erst jeweils in einer Set-Top-Box der Nutzer der Kameraaufnahme überlagert werden. Dies erlaubt es, hinsichtlich der Abfrage des Dienstes und seiner Implementierung stärker auf die Nutzerwünsche einzugehen.
In einer Ausgestaltung der Erfindung ist der an einem Teilnehmer der Veranstaltung angebrachte Sender/Empfänger zusätzlich mit einem oder mehreren Sensoren gekoppelt, die entweder in den Sender/Empfänger integriert oder beispielsweise über eine Drahtlosschnittstelle mit diesem kommunizieren. Dabei können unterschiedliche Sensoren eingesetzt werden. Die aus den Sensoren gewonnenen Daten bzw. aus diesen bzw. mit deren Hilfe generierten Auswertungen können beispielsweise bei oder mit der Kennung des jeweiligen Event-Teilnehmers ausgegeben werden. Gemäß einer Ausgestaltung ist mindestens ein Sensor vorgesehen, der biometrische Daten des Teilnehmers, beispielsweise dessen Blutdruck und Herzfrequenz ermittelt und diese Informationen an den Computer übersendet. Ein weiteres Beispiel ist ein Sensor, der die seit Spielbeginn zurückgelegte Wegstrecke erfasst und die entsprechende Information an die zentrale Einheit überträgt. Durch Sensoren aufgenommene Informationen können einer weitergehenden Auswertung oder Statistikanalyse zugeführt werden. In einem zweiten Erfindungsaspekt betrifft die vorliegende Erfindung ein Verfahren zur Bereitstellung von Informationen in Echtzeit auf einem Bildschirm eines Nutzers zu menschlichen und/oder gegenständlichen Teilnehmern einer Veranstaltung, die in einem Event-Feld stattfindet, wobei die Informationen jedoch nicht einen Kamerabild überlagert werden. Das Verfahren weist folgende Schritte auf:
- Bereitstellen eines Sender/Empfängers eines Satelliten-Ortungssystems an jedem der zu identifizierenden Teilnehmer der Veranstaltung, wobei jeder Sender/Empfänger mindestens eine individuelle Kennung aufweist, die den Teilnehmer identifiziert oder Informationen über diesen enthält,
Empfangen von Daten des Satelliten-Ortungssystems im jeweiligen Sender/Empfänger,
- Senden der empfangenen Daten oder aus diesen berechneter geographischer Positionsdaten zusammen mit der individuellen Kennung vom jeweiligen Sender/Empfänger direkt oder indirekt an einen Computer, wobei der Computer aus den Daten des Satelliten-Ortungssystems die geographischen Positionsdaten ermittelt, sofern diese nicht bereits im jeweiligen Sender/Empfänger berechnet worden sind, so dass der Computer die geographischen Positionsdaten und individuellen Kennungen zu sämtlichen Teilnehmern aufweist,
Bereitstellen einer Abbildung des Event-Feldes oder eines Teilbereichs des Event- Feldes, wobei die Abbildung aus aufgezeichneten und/oder aufgenommenen Daten besteht oder aus solchen generiert wird; und
Berechnen im Computer, welchen Bildkoordinaten der Abbildung des Event-Feldes oder des Teilbereichs die erhaltenen geographischen Positionsdaten entsprechen,
- wobei die Kennungen oder aus diesen abgeleitete Informationen (inklusive Symbole) an den oder nahe der Bildkoordinaten, die den geographischen Positionsdaten der Teilnehmer entsprechen, in der Abbildung des Event-Feldes oder des Teilbereichs fortlaufend aktuell wiedergegeben werden, und das dabei entstehende Bild zur Wiedergabe auf mindestens einem Bildschirm bereitgestellt wird. Diese Erfindungsvariante unterscheidet sich von der erstgenannten Erfindungsvariante dadurch, dass die erfassten Positionsdaten bzw. die an den erfassten Positionsdaten bereitgestellten Informationen nicht auf ein sich im Hinblick auf Ausrichtung und Zoomfaktor veränderndes Kamerabild abgebildet, sondern auf einem virtuellem und/oder photographischem Bild dargestellt werden. Dieses besteht aus z.B. mittels Geländevermesseung aufgezeichneten und/oder z.B. photografisch oder per Video aufgenommenen Daten und/oder ist aus solchen generiert. Es liegt somit eine ohne Kamerabild einsetzbare Lösung vor, die daher im Folgenden auch als "Stand-Alone"- Lösung bezeichnet wird. Mittels der Stand-Alone-Lösung können im einfachsten Fall Ansichten von oben (z.B. abfotografiert oder virtuell), aber auch veränderbare Ansichten aus beliebigen Perspektiven und sogar virtuelle dreidimensionale Flüge (3D-Flüge) realisiert werden. Die aufgezeichneten Daten, aus denen die Abbildung generiert wird, können z.B. Geopositionsdaten sein, die selbst gemessen oder die einem digitalen Geländemodell entnommen sind.
Da im zweiten Erfindungsaspekt keine Überlagerung mit einem Kamerabild erfolgt, können die Kennungen oder die aus den Kennungen der Teilnehmer abgeleiteten Informationen auch Symbole, z.B. der Teilnehmer umfassen, die an den oder nahe der Bildkoordinaten, die den geographischen Positionsdaten der Teilnehmer entsprechen, fortlaufend aktuell wiedergegeben werden. So kann beispielsweise im Falle eines Fußballspiels vorgesehen sein, dass die abgeleiteten Informationen ein Symbol bzw. eine schematische Darstellung des jeweiligen Fußballspielers und zusätzlich, neben dem Symbol, weitere Informationen wie z.B. Name und/oder statistische Angaben enthalten. Es können somit im zweiten Erfindungsaspekt die abgleiteten Informationen Darstellungen des jeweiligen Teilnehmers selbst umfassen.
Gemäß einer Ausgestaltung des zweiten Erfindungsaspekts ist vorgesehen, dass die Abbildung des Event-Feldes oder des Teilbereichs eine Darstellung eines zweidimensionalen Event-Feldes, insbesondere in einer Ansicht von oben ist. Diese Darstellung kann fest oder zeitlich veränderlich bzw. bewegt sein. Sie kann virtuell aus zuvor aufgezeichneten Daten generiert oder auf der Grundlage z.B. einer photographischen Aufnahme bereitgestellt sein. Es handelt sich bei dieser Ausgestaltung somit bei dem Event-Feld um ein in allen Punkten seiner Fläche zumindest idealtypischerweise planes Event-Feld. Damit kann es sich dann bei der Darstellung bzw. rechnerischen Implementierung des Event-Feldes auch um eine photo-/graphische, vorzugsweise Von-Oben-Ansicht handeln, die dann entsprechend der jeweiligen Perspektive und der jeweiligen Geoposition des virtuellen Betrachters optisch verzerrt bzw. in „Schräglage" gebracht wird, so dass die Identifikationen der Event-Teilnehmer jeweils an der mit der Realität übereinstimmenden Stelle des Event-Feldes ausgegeben werden können. Diese Ausgestaltung zeichnet sich durch eine geringe Menge zu bearbeitender Daten aus, da nicht auf dreidimensionale Geländemodelle (siehe unten) zurückgegriffen werden braucht.
Eine weitere Ausgestaltung des zweiten Erfindungsaspekts sieht vor, dass die Abbildung des Event-Feldes eine Totalansicht des Event-Feldes ist. Dies erlaubt es einem Nutzer beispielsweise, parallel zu einer ebenfalls laufenden Fernsehübertragung stets einen Überblick über das Gesamtgeschehen zu behalten.
Eine weitere Ausgestaltung des zweiten Erfindungsaspekts sieht vor, dass die Abbildung des Event-Feldes oder des Teilbereichs auf Grund von Daten eines digitalen Geländemodells bzw. digitaler Geländekarten bereitgestellt wird. Solche sind kommerziell erhältlich. Diese Ausgestaltung wird grundsätzlich zur Realisierung virtueller Ansichten und von 3D-Flügen von/über nichtplane Event-Felder(n) gewählt. Sie kann aber auch zur Bereitstellung der Abbildung eines planen Event-Feldes herangezogen werden, wobei für ein planes Event-Feld nur eine geringe Anzahl definierter Geopositionsdaten erforderlich ist, um die Bildkoordinaten der Abbildung des Event-Feldes zu definieren. Beispielsweise müssen für ein rechteckiges Event-Feld wie ein Fu ßballfeld nur die vier Eckpunkte hinsichtlich ihrer Geoposition erfasst werden, um sämtliche Bildkoordinaten der Abbildung im Hinblick auf ihre Geoposition zu kennen.
Eine weitere Ausgestaltung des zweiten Erfindungsaspekts sieht vor, dass die Abbildung des Event-Feldes oder des Teilbereichs veränderlich ist, insbesondere die Abbildung eine veränderliche 3D-Ansicht des Event-Feldes oder des Teilbereichs darstellt, wobei virtuelle Flüge durch das Geländemodell durchführbar sind. Durch Bereitstellung einer ausreichend großen Anzahl von Punkten mit definierter Geoposition im Event-Feld kann der Anwender somit virtuelle Flüge durch das Event-Geschehen unternehmen. Er kann dann das aktuelle Spielgeschehen, z. B. parallel zur Fernsehübertragung, individuell aus jeder virtuellen Perspektive im Raum verfolgen, ja sogar mit einzelnen Spielern "mitlaufen" und deren Blickrichtung virtuell bestimmen.
Gemäß einer weiteren Ausgestaltung ist vorgesehen, dass mindestens ein Teilnehmer der Veranstaltung eine gesonderte visuelle Ortung erfährt und auf Grund der Daten dieser visuellen Ortung in der Abbildung des Event-Feldes oder des Teilbereichs fortlaufend aktuell wiedergegeben werden. Ein solcher Teilnehmer ist beispielsweise ein Fußball, dessen Position beispielsweise deswegen auf andere Weise erfasst wird, da die Integration eines GPS-Sender/Empfängers in den Fu ßball nicht möglich ist. Die alternative Ortung erfolgt beispielsweise über Bilderkennungsverfahren. Diese Ausgestaltung ist sowohl bei einer bildüberlagernden Lösung als auch bei der Stand- Alone-Lösung möglich.
Gemäß einer weiteren Ausgestaltung ist vorgesehen, dass mindestens ein Teilnehmer der Veranstaltung unter zusätzlicher Darstellung der Bewegungs-Historie des Teilnehmers, beispielsweise durch Darstellung eines Schweifes, in der Abbildung des Event-Feldes oder des Teilbereichs wiedergegeben wird. Diese Variante ist sowohl bei einer bildüberlagernden Lösung als auch bei der Stand-Alone-Lösung möglich.
Gemäß einer weiteren Ausgestaltung ist in der Stand-Alone-Lösung bzw. virtuellen Darstellung vorgesehen, dass mindestens bei einem Teilnehmer der Veranstaltung zusätzlich eine Ausrichtung des Teilnehmers erfasst und in der Abbildung des Event- Feldes oder des Teilbereichs fortlaufend aktuell wiedergegeben wird. Dies ist insbesondere sinnvoll bei länglichen Objekten, z. B. Pferden, Rennrädern oder -autos. In der virtuellen Ansicht kann dabei die„normale" Ausrichtung, also z. B. au ßerhalb eines Crashs oder Drehers, wie folgt generiert werden:
a) die Ausrichtung erfolgt stets in Richtung der (dem Rechner bekannten) Streckenführung oder,
b) es wird insbesondere auch, wenn es keine eindeutige Streckenführung gibt, die virtuelle (in der Regel Längs-)Ausrichtung durch den Einbau von zwei GPS-Empfangs- und Sendeeinheiten, vorne und hinten am/im Objekt erkannt, in den Rechner eingespeist und virtuell-bildlich dergestalt ausgegeben, dass das Objekt entlang der durch die beiden Ortungssysteme gekennzeichneten Linie ausgerichtet ist.
c) Die Ausrichtung erfolgt stets in der aktuellen, über einen bestimmten, vergleichsweise kurzem Zeitraum ermittelten Richtung der (bisherigen) Bewegung.
Eine weitere Ausgestaltung der Stand-Alone-Lösung bzw. virtuellen Anwendung sieht vor, dass Mittel zum Erfassen einer Schräglage eines Teilnehmers vorhanden sind. Hierzu werden beispielsweise zwei Schräglagesensoren eingesetzt und deren Daten im Hinblick auf ein Umfallen des Teilnehmers ausgewertet. Beispielsweise werden Schräglage-Sensoren in mindestens zwei Richtungen am Teilnehmer eingesetzt, die bevorzugt kreuzweise und in der Grundposition waagerecht ausgerichtet sind. Durch solche Sensoren ist es möglich, ein„Umfallen" eines Teilnehmers zu erkennen und an die zentrale Einheit zu senden. Dieser kann beispielsweise in einer virtuellen Darstellung die (dort durch graphische Figuren dargestellten) Teilnehmer oder sonstige Symbole ebenfalls in entsprechender Schräglage darstellen bzw. visuell„umfallen" lassen.
Auch ein Beschleunigungssensor kann am Teilnehmer angeordnet sein, beispielsweise zur Darstellung eines Crashs, wenn der Teilnehmer ein Rennauto oder Rennboot ist. Die aus solchen Sensoren gewonnenen Daten bzw. aus diesen bzw. mit deren Hilfe generierten Auswertungen können dann in einer virtuellen Ansicht bei oder mit der Kennung des jeweiligen Event-Teilnehmers ausgegeben werden.
In einem dritten Erfindungsaspekt betrifft die vorliegende Erfindung ein Verfahren zur Bereitstellung von Informationen in Echtzeit auf einem Bildschirm eines Nutzers zu menschlichen und/oder gegenständlichen Teilnehmern einer Veranstaltung, die in einem Event-Feld stattfindet, mit den Schritten:
Bereitstellen eines Sender/Empfängers eines Satelliten-Ortungssystems an jedem der zu identifizierenden Teilnehmer der Veranstaltung, wobei jeder Sender/Empfänger mindestens eine individuelle Kennung aufweist, die den Teilnehmer identifiziert oder Informationen über diesen enthält,
- Empfangen von Daten des Satelliten-Ortungssystems im jeweiligen Sender/Empfänger,
- Senden der empfangenen Daten oder aus diesen berechneter geographischer Positionsdaten zusammen mit der individuellen Kennung vom jeweiligen Sender/Empfänger direkt oder indirekt an einen Computer, wobei der Computer aus den Daten des Satelliten-Ortungssystems die geographischen Positionsdaten ermittelt, sofern diese nicht bereits im jeweiligen Sender/Empfänger berechnet worden sind, so dass der Computer die geographischen Positionsdaten und individuellen Kennungen zu sämtlichen Teilnehmern aufweist,
Bereitstellen einer virtuellen 3D-Abbildung des Event-Feldes oder eines Teilbereichs des Event-Feldes, wobei die 3D-Abbildung aufgrund von Daten eines digitalen Geländemodells bereitgestellt wird,
Berechnen im Computer, welchen Bildkoordinaten der 3D-Abbildung des Event- Feldes oder des Teilbereichs die erhaltenen geographischen Positionsdaten entsprechen,
- wobei die Kennungen (auch Teilnehmersymbole) oder aus diesen abgeleitete Informationen (inklusive Symbole) an den oder nahe der Bildkoordinaten, die den geographischen Positionsdaten der Teilnehmer entsprechen, in der 3D-Abbildung des Event-Feldes oder des Teilbereichs fortlaufend aktuell wiedergegeben werden, und wobei
ein virtueller Flug in der 3D-Abbildung auf der Grundlage einer definierbaren virtuellen Perspektive erfolgt.
Dieser dritte Erfindungsaspekt betrifft die Vornahme virtueller Flüge in einer 3D- Abbildung auf der Grundlage zum einen von Daten eines digitalen Geländemodells und zum anderen der Geopositionsdaten der Teilnehmer, die in der 3D-Abbildung dargestellt werden. Dabei werden wiederum die Kennungen der Teilnehmer oder aus diesen abgeleitete Informationen (inklusive Symbole, z.B. der Teilnehmer) an den oder nahe der Bildkoordinaten, die den geographischen Positionsdaten der Teilnehmer entsprechen, in der 3D-Abbildung des Event-Feldes oder eines Teilbereichs des Event-Feldes fortlaufend aktuell wiedergegeben. Eine Ausgestaltung des dritten Erfindungsaspekts sieht vor, dass ein virtueller Flug in der 3D-Abbildung aus einer mitlaufenden Perspektive eines der Teilnehmer erfolgt. Dabei kann zusätzlich vorgesehen sein, dass der virtuelle Flug in Blickrichtung auf einen der weiteren ebenfalls beweglichen Teilnehmer erfolgt, beispielsweise in Blickrichtung auf einen Fußball als nichtmenschlichen Teilnehmer. Die virtuelle Perspektive ist dabei bevorzugt durch einen Nutzer auswählbar, beispielsweise über eine Interaktion mit einer Set-Top-Box. Es können für virtuelle Flüge durch das Event-Geschehen auch Steuermodule, die bspw. in der Fernbedienung verbaut werden oder andere Steuerungsgeräte, wie etwa Joysticks angewandt bzw. integriert werden. Die Erfindung betrifft in einem vierten Erfindungsaspekt ein System zur Bereitstellung von Informationen in Echtzeit auf einem Bildschirm eines Nutzers zu menschlichen und/oder gegenständlichen Teilnehmern einer Veranstaltung, die in einem Event-Feld stattfindet, wobei das System mehrere Sender/Empfänger eines Satelliten-Ortungssystems und einen Computer aufweist, und wobei:
- die Sender/Empfänger an zu identifizierenden Teilnehmern der Veranstaltung anbringbar sind,
- wobei jeder Sender/Empfänger mindestens eine individuelle Kennung aufweist, die den Teilnehmer identifiziert oder Informationen über diesen enthält,
- wobei jeder Sender/Empfänger dazu ausgebildet ist, Daten des Satelliten- Ortungssystems zu empfangen,
- wobei jeder Sender/Empfänger dazu ausgebildet ist, die empfangenen Daten oder aus diesen berechnete geographischer Positionsdaten zusammen mit der individuellen Kennung an den Computer zu senden, - wobei der Computer aus den Daten des Satelliten-Ortungssystems die geographischen Positionsdaten ermittelt, sofern diese nicht bereits im jeweiligen Sender/Empfänger berechnet worden sind, so dass der Computer die geographischen Positionsdaten und individuellen Kennungen zu sämtlichen Teilnehmern aufweist, - wobei der Computer dazu ausgebildet ist, eine Abbildung des Event-Feldes oder eines Teilbereichs des Event-Feldes zu erhalten,
- wobei der Computer oder eine mit diesem verbundene Einheit dazu ausgebildet ist zu berechnen, welchen Bildkoordinaten der Abbildung des Event-Feldes oder des Teilbereichs die erhaltenen geographischen Positionsdaten entsprechen,
- wobei die Kennungen oder aus diesen abgeleitete Informationen an den oder nahe der Bildkoordinaten in der Abbildung fortlaufend aktuell wiedergegeben werden, die den geographischen Positionsdaten der Teilnehmer entsprechen.
Gemäß einer Ausgestaltung des erfindungsgemäßen Systems ist die Abbildung des Event-Feldes das bewegte Aufnahmebild einer Kamera, die die Veranstaltung fortlaufend aufnimmt, wobei der Computer die Kennungen oder aus diesen abgeleitete Informationen der Kameraaufnahme fortlaufend derart überlagert, dass die Kennungen oder die abgeleiteten Informationen an den oder nahe der Bildkoordinaten eingeblendet werden, die den geographischen Positionsdaten der Teilnehmer entsprechen, oder die Kennungen oder die abgeleiteten Informationen an diesen Bildkoordinaten fortlaufend auf einem zusätzlichen Bildschirm wiedergegeben werden.
In einer weiteren Ausgestaltung ist die Abbildung des Event-Feldes oder des Teilbereichs eine Abbildung, die aus aufgezeichneten und/der aufgenommenen Daten besteht oder aus solchen generiert ist, wobei die Kennungen oder aus diesen abgeleitete Informationen an den oder nahe der Bildkoordinaten, die den geographischen Positionsdaten der Teilnehmer entsprechen, in der Abbildung des Event-Feldes oder des Teilbereichs fortlaufend aktuell wiedergegeben werden, und das dabei entstehende Bild zur Wiedergabe auf einem gesonderten Bildschirm an Dritte übertragen wird. Diese Erfindungsvariante stellt eine "Stand-Alone" Ausführung der Erfindung bereit, die ohne das eigentliche Fernsehbild auskommt. Dabei ermöglich dieser Erfindungsaspekt einem Nutzer, ein virtuelles Bild parallel zur Fernsehaufzeichnung auf einem gesonderten Bildschirm zu verfolgen. Die Erfindung betrifft gemäß einem fünften Erfindungsaspekt einen Computer zur Bereitstellung von Informationen in Echtzeit auf einem Bildschirm eines Nutzers zu menschlichen und/oder gegenständlichen Teilnehmern einer Veranstaltung, die in einem Event-Feld stattfindet, wobei der Computer dazu ausgebildet ist:
Daten mindestens eines Sender/Empfängers eines Satelliten-Ortungssystems zu empfangen, wobei jeder Sender/Empfänger jeweils an einem zu identifizierenden Teilnehmer der Veranstaltung anbringbar ist, jeder Sender/Empfänger mindestens eine individuelle Kennung aufweist, die den Teilnehmer identifiziert oder Informationen über diesen enthält, und jeder Sender/Empfänger dazu ausgebildet ist, Daten des Satelliten- Ortungssystems zu empfangen und die empfangenen Daten oder aus diesen berechnete geographischer Positionsdaten zusammen mit der individuellen Kennung an den Computer zu senden,
- aus den Daten des Satelliten-Ortungssystems die geographischen Positionsdaten der Sender/Empfänger zu ermitteln, sofern diese nicht bereits im jeweiligen Sender/Empfänger berechnet worden sind, so dass der Computer die geographischen Positionsdaten und individuellen Kennungen zu sämtlichen Teilnehmern aufweist, - eine Abbildung des Event-Feldes oder eines Teilbereichs des Event-Feldes zu erhalten oder zu berechnen,
zu berechnen, welchen Bildkoordinaten der Abbildung des Event-Feldes oder des Teilbereichs die erhaltenen geographischen Positionsdaten entsprechen,
- wobei der Computer weiter dazu ausgebildet ist, die Kennungen oder aus diesen abgeleitete Informationen an den oder nahe der Bildkoordinaten in der Abbildung fortlaufend aktuell wiederzugeben, die den geographischen Positionsdaten der Teilnehmer entsprechen, und das dabei entstehende Bild zur Wiedergabe auf mindestens einem Bildschirm bereitzustellen. Bei dem Computer kann es sich sowohl um eine zentrale Recheneinheit handeln als auch um mehrere Computereinheiten, die miteinander kommunizieren und an einem Ort oder dezentral ein mehreren Orten angeordnet sein können.
BESCHREIBUNG VON AUSFÜHRUNGSBEISPIELEN DER ERFINDUNG
Die Erfindung wird nachfolgend unter Bezugnahme auf die Figuren der Zeichnung anhand mehrerer Ausführungsbeispiele näher erläutert. Es zeigen:
Figur 1 eine schematische Darstellung von Komponenten eines erfindungsgemäßen
Systems zur Darstellung von Zusatzinformationen zu Teilnehmern einer
Veranstaltung auf einen Bildschirm; Figur 2 eine Darstellung der geographischen Positionsdaten der Teilnehmer einer Veranstaltung in Weltkoordinaten einerseits, in den Bildkoordinaten einer aufnehmenden Kamera andererseits und deren Zuordnung; Figur 3 eine Darstellung der geographischen Positionsdaten der Teilnehmer einer
Veranstaltung in Weltkoordinaten einerseits, in den Bildkoordinaten einer statischen Darstellung des Event-Felder andererseits und deren Zuordnung; und Figur 4 eine weitere schematische Darstellung von Komponenten eines erfindungsgemäßen Systems zur Darstellung von Informationen zu Teilnehmern einer Veranstaltung auf einen Bildschirm, wobei sowohl eine überlagernde Darstellung vorgesehen sein kann, bei der Informationen einem Kamerabild überlagert werden, also auch eine Stand-Alone- Darstellung, bei der Informationen ohne Überlagerung mit einem Kamerabild virtuell dargestellt werden.
Figur 1 - Allgemeiner Svstemaufbau: Die Figur 1 stellt das der Erfindung zugrunde liegende Szenario dar. Es wird eine Veranstaltung betrachtet, nachfolgend auch als Event bezeichnet, die eine Mehrzahl von Teilnehmern 1 umfasst. Der Event findet in einem geographisch definierten Gebiet statt, das grundsätzlich beliebig groß sein kann und das als Event-Feld 2 bezeichnet wird. Im vorliegenden Fall handelt es sich bei der Veranstaltung um ein Autorennen. Grundsätzlich kann es sich um eine beliebige Veranstaltung, insbesondere Sportveranstaltung handeln.
Bei den Teilnehmern handelt es sich im betrachteten Ausführungsbeispiel um Rennwagen 1 , die von Rennfahrern gefahren werden. Der (gegenständliche) Teilnehmer ist daher ein Rennwagen. An dem Teilnehmer bzw. Rennwagen 1 ist fest ein Sender/Empfänger 3 befestigt, der dazu ausgebildet ist, Daten eines Satelliten- Ortungssystems, beispielsweise eines GPS-Systems zu empfangen. Der Sender/Empfänger 3 jedes Teilnehmers 1 erhält fortlaufend Daten einer Mehrzahl von Satelliten 4 des Satelliten-Ortungssystems, die es erlauben, die exakte geographische Position des Sender/Empfängers 3 und damit des jeweiligen Teilnehmers 1 zu bestimmen, wie an sich bekannt ist. Die jeweiligen Sender/Empfänger 3 der Teilnehmer 1 umfassen des Weiteren individuelle Kennungen, die den jeweiligen Teilnehmer 1 identifizieren oder Informationen über diesen enthalten. Die Kennungen sind beispielsweise als Code ausgeführt, dem in einer Datenbank bestimmte Informationen über den Sender/Empfänger 1 zugeordnet sind. Alternativ kann es sich bei den Kennungen auch unmittelbar um die gewünschten Informationen, beispielsweise den Namen des Fahrers oder eine Startnummer handeln.
Die Sender/Empfänger 3 sind ferner dazu ausgebildet, aktiv Signale auszusenden und umfassen insofern auch eine Sendeeinheit. Diese Sendeeinheit sendet fortlaufend die empfangenen Daten des Satelliten-Ortungssystems oder, sofern diese im Sender/Empfänger 3 bereits im Hinblick auf die geographische Position des Sender/Empfängers 1 ausgewertet wurden, die geographischen Positionsdaten an eine zentrale Recheneinheit bzw. einen Computer 7. Die Sendeeinheit sendet diese Positionsdaten zusammen mit der individuellen Kennung des jeweiligen Sender/Empfängers an die zentrale Einheit 7, so dass diese die empfangenen Positionsdaten (oder die noch auszuwertenden Daten des Satelliten-Ortungssystems) einem bestimmten Teilnehmer 1 zuordnen kann.
Die Übertragung der Daten von den einzelnen Sender/Empfängern 3 an die zentrale Einheit 7 kann entweder direkt entsprechend dem Pfeil A oder indirekt entsprechend den Pfeilen B, C erfolgen. Eine indirekte Übertragung über eine oder mehrere Zwischenstationen erfolgt beispielsweise für den Fall, dass die geographische Entfernung zwischen den einzelnen Sender/Empfängern 3 und der zentralen Einheit 7 eine Direktübertragung nicht zulässt.
Im dargestellten Ausführungsbeispiel handelt es sich bei dem Zwischenempfänger, an den die Daten gemäß Pfeil B gesandt werden und der diese gemäß Pfeil C an die zentrale Einheit 7 weiterleitet, um einen Helikopter 5, der mindestens eine Kamera 6 (beispielsweise eine Videokamera) aufweist und mit dieser die Veranstaltung von oben unter Bereitstellung von großflächigen Ansichten der Veranstaltung aufnimmt. Zusätzlich ist in dem Helikopter 5 ein weiterer Sender/Empfänger 1 1 enthalten, der Daten des Satelliten-Ortungssystems empfängt, so dass auch die genaue Position des Helikopters bzw. der sich in diesem befindlichen Kamera 6 in Weltkoordinaten genau erfassbar ist. Die Kamera 6 umfasst Sensoren oder andere Erfassungsmittel, die den Drehwinkel der Kamera, deren Neigungswinkel, deren Schrägstellungswinkel und deren Zoomfaktor fortlaufend bestimmen, wobei diese Informationen zusammen mit den Bildinformationen der Kamera gemäß dem Pfeil F ebenfalls an die zentrale Einheit 7 übertragen werden.
Es ist nun erforderlich, dass die in Weltkoordinaten (d.h. hinsichtlich geographischer Breite und Länge der Teilnehmer) vorliegenden geographischen Positionsdaten der einzelnen Sender/Empfänger 3 derart genutzt werden, dass mit ihrer Hilfe für den Zuschauer des Events nützliche Zusatzinformationen dargestellt werden können. Dies kann zum einen dadurch erfolgen, dass die Zusatzinformationen einer aktuellen Kameraaufnahme bzw. einer Kamerabild-Ansicht überlagert werden. Für diesen Fall werden die Zusatzinformationen als„mitlaufende Informationen" auf dem Bildschirm, der das Kamerabild wiedergibt, aktuell eingeblendet. Zum anderen ist es möglich, die Informationen im Rahmen einer Einzelnutzung anzuzeigen, ohne Überlagerung mit einer aktuellen Kameraaufnahme. Auch bei einer solchen Einzelnutzung (auch als Stand- Alone-Nutzung bezeichnet) ist es erforderlich, die erhaltenen geographischen Positionsdaten in Weltkoordinaten in geeigneter Weise einem Bildschirm zuzuordnen, so dass die entsprechenden Zusatzinformationen an den Stellen des Bildschirms angegeben werden, die den tatsächlichen Positionen der Event-Teilnehmer bzw. bei den diesen befindlichen Empfänger-Sende-Einheiten entsprechen. Bei einer Einzelnutzung bzw. Stand-Alone-Nutzung sind die beiden Fälle zu unterscheiden, dass einerseits die "mitlaufenden Informationen" lediglich auf einem separaten Bildschirm wiedergegeben werden, wobei der Bildausschnitt jedoch dem aktuellen Bildausschnitt der Kamera entspricht, und dass andererseits die "mitlaufenden Informationen" alternativ in einer virtuellen Darstellung des Event-Feldes wiedergegeben werden, die unabhängig von der Kameraaufnahme ist und auf bereits zuvor aufgezeichneten Daten des Event-Feldes beruht. Der erstgenannte Fall ist einer das Kamerabild überlagernden Wiedergabe der "mitlaufenden Informationen" stark verwandt, da in beiden Fällen der aktuelle Bildausschnitt der Kamera ermittelt werden muss. Für den Fall, dass die Zusatzinformationen (d.h. die Kennungen oder aus diesen abgeleitete Informationen) der Bildinformation der aktuellen Kameraaufnahme überlagert werden sollen, ist es erforderlich, die erfassten geographischen Positionsdaten in Weltkoordinaten den Bildkoordinaten der aufnehmenden Kamera zuzuordnen. Denn nur dann ist es möglich, die Zusatzinformationen an solchen Stellen des Videobildes der aufnehmenden Kamera einzublenden, die den tatsächlichen Positionen der Sender/Empfänger entsprechen. Dabei ist zu beachten, dass die Kamera 6 natürlich nicht weiß, wie die Videoinformation des Kamerabildes mit den geographischen Positionsdaten, die über die Sender/Empfänger 3 erhalten werden, in Beziehung zu setzen sind.
Die Durchführung der erforderlichen Zuordnung erfolgt in der zentralen Einheit 7 und wird anhand der Figuren 2 und 3 an zwei Ausführungsbeispielen exemplarisch erläutert. Nach einer solchen Zuordnung wird im Falle des Überlagerungsmodus entsprechend dem Pfeil D der Figur 1 die Zusatzinformation der Kameraansicht in einer Einheit 8, die Teil der zentralen Einheit 7 sein kann, überlagert. Anschließend wird die Gesamtinformation einschließlich der überlagerten Information gemäß Pfeil G an einen Bildschirm 9 gesandt und dort dargestellt. Die Darstellung zeigt somit das Videobild der Kamera zusammen mit den überlagerten Zusatzinformationen, wobei jede Zusatzinformation an oder nahe dem entsprechenden Teilnehmer mitlaufend dargestellt wird.
Allerdings ist es ebenfalls möglich, dass die Zusatzinformation der eigentlichen Kameraansicht erst beim Nutzer in einer dort angeordneten Set-Top-Box überlagert wird.
Alternativ wird gemäß Pfeil E im Rahmen einer Einzelnutzung eine elektronische Darstellung des Event-Feldes erzeugt und in diese die Teilnehmerinformationen bzw. -Symbole an den aktuellen Positionsdaten der Teilnehmer eingeblendet. Sofern eine Einzelnutzung unter Verwendung des aktuellen Bildausschnitts der Kamera erfolgt, hat der Nutzer dabei keine weiteren Einflussmöglichkeiten.
Dagegen werden im Falle einer Einzelnutzung bzw. Stand-Alone-Nutzung ohne Verwendung des aktuellen Kamerabilds in einer Ausführungsvariante dem Nutzer die laufenden Geo-Positionsdaten der Event-Teilnehmer sowie die Geo-Positionsdaten einer Anzahl von Punkten eines virtuellen Eventfeldes übermittelt, damit die jeweilige Position ersterer auf letzterem zugeordnet werden kann. Der Anwender kann dann in der Stand- Alone-Anwendung das Spielgeschehen durch Eingaben mittels Joystick etc. aus jeder beliebigen Position betrachten. Dabei ist vorgesehen, dass den z.B. durch Symbole dargestellten Positionen der Spieler bzw. virtuellen Figuren auch Zusatzinformationen z.B. Namen beigefügt werden. Dabei können die Ansichtsberechnungen durch eine Setup-Box bzw. den heimischen Rechner mittels eines entsprechenden Programms, etwa in Form einer App, erfolgen. Die Figur 2 illustriert die Problematik, die in Weltkoordinaten erfassten geographischen Positionsdaten den Bildkoordinaten der aufnehmenden Kamera zuzuordnen, für den Fall der Überlagerung der Informationen zu den Videodaten einer aktuellen Kameraaufnahme.
Figur 2 - Darstellung von Zusatzinformationen bei Überlagerung mit den Bilddaten einer aktuellen Kameraaufnahme:
Die Figur 2 zeigt ein Event-Feld 2, bei dem es sich beispielsweise um ein Fußballfeld handelt, auf dem eine Mehrzahl von Spielern, die jeweils mit einem Sender/Empfänger ausgerüstet sind, sich bewegen. Von den Spielern sind der besseren Übersicht halber lediglich drei Spieler bzw. Teilnehmer 1 a, 1 b, 1 c jeweils mit einem Sender/Empfänger 3a, 3b, 3c dargestellt.
Wie in Bezug auf die Figur 1 beschrieben, senden die Sender/Empfänger 3a, 3b, 3c geographische Positionsdaten oder Daten, aus denen sich geographischen Positionsdaten berechnen lassen, zusammen mit individuellen Kennungen an einen Computer bzw. eine Recheneinheit 7. Die Recheneinheit 7 empfängt somit zu sämtlichen Spielern bzw. Teilnehmern die individuellen Kennungen sowie die geographischen Positionsdaten. Die geographischen Positionsdaten liegen als Weltkoordinaten vor. Gleichzeitig wird das Spielgeschehen von einer Videokamera, beispielsweise einer üblichen Fernsehkamera 6 fortlaufend aufgezeichnet. Die Fernsehkamera 6 ist im dargestellten Ausführungsbeispiel, jedoch nicht zwingender Weise als stationäre Kamera ausgebildet. Abhängig von der aktuellen Neigung, der aktuellen Schrägstellung, dem aktuellen Drehwinkel und dem aktuellen Zoomfaktor der Kamera 6 stellt das Kamerabild aktuell eventuell nicht das gesamte Spielfeld 2 dar, sondern lediglich einen Ausschnitt des Spielfelds 2, was schematisch durch das schematisch dargestellte Sichtfeld 12 der Kamera 6 illustriert ist.
Dementsprechend umfasst die aktuelle Kameraaufnahme, die in Figur 2 mit dem Bezugszeichen 60 gekennzeichnet ist, nicht das gesamte Spielfeld 2, sondern nur einen Teilbereich des Spielfelds. Dementsprechend sind in dem aktuellen Videobild 60 nur die Spieler bzw. Teilnehmer 1 a, 1 b dargestellt.
Die von der zentralen Einheit 7 empfangenen Positionsdaten lassen sich in einer Darstellung 70 des Spielfelds 2 in Weltkoordinaten anordnen. Die Positionen der Sender/Empfänger 3a, 3b, 3c sind dabei als Weltkoordinaten WK1 , WK2, WK3 wiedergegeben. Um in dem Videobild 60 an oder bei den Positionen, an denen sich die Teilnehmer 1 a, 1 b befinden, Zusatzinformationen zu den Teilnehmern 1 a, 1 b einblenden zu können, ist es erforderlich, die in Weltkoordinaten vorliegenden geographischen Positionsdaten WK1 , WK2, WK3 auf einen Bildausschnitt und eine Bildgröße zu übertragen, die dem Bildausschnitt und der Bildgröße des Videobildes 60 entspricht. Ein solcher Bildausschnitt wird in dieser Beschreibung auch als Referenzrahmen oder (hinsichtlich seiner Inhaltes) als Identifikations-Bild oder ID-Viewer-Bild bezeichnet. Es ist also zu erfassen, welchen Bildkoordinaten der aufnehmenden Kamera im Videobild 60 die geographischen Positionsdaten WK1 , WK2, WK3 entsprechen.
Es wird somit ein mit dem Videobild 60 der Videokamera 6 hinsichtlich seiner Ausrichtung und Begrenzung identisches Referenzbild oder Identifikations-Bild erzeugt und es werden die Positionsdaten der Teilnehmer in dieses identische Identifikations-Bild abgebildet, so dass dieses Identifikations-Bild mit dem Kamerabild überlagert werden kann. Ein solches Identifikations-Bild ist in der Figur 2 mit 80 bezeichnet. Die Weltkoordinate WK1 wird auf die Position P1 im Identifikations-Bild 80 abgebildet, wobei die Position P1 die Bildkoordinaten X1 , Y1 aufweist, die identisch sind mit den Bildkoordinaten X1 , Y1 des Videobildes 60. Ebenso wird die Position WK2 in Weltkoordinaten in die Position P2 mit Bildkoordinaten X2, Y2 abgebildet.
An den Positionsdaten P1 , P2 werden nun die gewünschten Zusatzinformationen dargestellt, die schematisch und beispielhaft als Rechteck dargestellt sind und mit F(1 a) und F(1 b) bezeichnet sind. Dadurch, dass diese Zusatzinformationen nun an der „richtigen Stelle" im Identifikations-Bild 80 angeordnet sind, kann das Identifikations-Bild 80 in dem aktuellen Videobild 60 überlagert werden, wobei ein Überlagerungsbild 90 entsteht, dass in Echtzeit und damit mitlaufend zusätzlich zu den Videoinformationen der Kamera 6 und die Zusatzinformationen F(1 a) und F(1 b) darstellt. Um die Abbildungen WK1— >P1 und WK2— >P2 korrekt vorzunehmen, ist es erforderlich, eine Mehrzahl von Parametern der Kamera 6 zu erfassen und zu berücksichtigen. Dies wird im Folgenden anhand eines Ausführungsbeispiels beschrieben.
Das Ausführungsbeispiel geht (zunächst) von einer stationär installierten, aber Dreh-, Neig- und in Schrägstellung bringbaren sowie zoombaren Bild-Kamera aus. Unter einer „stationär installierten" Kamera wird dabei eine solche verstanden, die nicht lateral oder vertikal insgesamt bewegbar ist, sondern nur Drehungen entlang der drei Raumachsen erfahren kann, somit auch bei Dreh-, Neig- und Schrägstellungsänderungen an derselben Position verbleibt, wenn auch mit jeweils geänderter Ausrichtung. Sollten diese Voraussetzung im Einzelfall z. B. auf Grund besonderer örtlicher Voraussetzungen nicht umsetzbar sein, so kann das Ziel einer deckungsgleichen Ansicht von Kamerabild und Identifikationsbild z. B. auch nach den Grundsätzen für eine nicht stationär installierte, also bewegliche Kamera (s. u.) erreicht werden.
Die Bildkameraansicht 60 wird bestimmt durch die aktuelle Position der Bildkamera, deren Sichtachse (bestimmt durch den aktuellen Dreh- und Neigungswinkel der Kamera), die aktuelle (soweit mechanisch vorgesehene) Schrägstellung der Kamera, deren Bildrahmen (das heißt deren horizontale und vertikale Blickwinkeligkeit) und die verwendete Zoomstufe mit den entsprechenden Bildrahmenverengungen und eventuellen Bildverzerrungen (etwa bedingt durch den Zoom).
Für jede das Event-Geschehen verfolgende fixe stationierte Kamera (genau deren Focus) wird zunächst deren geographische Position ermittelt. Dies kann z. B. durch ein in der Kamera verbautes GPS-Sender/Empfängergerät erfolgen. Die Positionsdaten der Kameras werden zusammen mit deren Kennungen in den zentralen Rechner 7 eingegeben. Für jede Kamera 6 wird nun eine bestimmte Position hinsichtlich deren Neigung, Drehung (Schwenkung) und ggf. Schräglage (Kränkung bzw. Drehwinkel um deren Sichtachse) als Null- bzw. Ausgangsposition (im Weiteren nur "O-Position" genannt) definiert und in den Rechner eingegeben. Dies kann z. B. dadurch geschehen, dass die Kameraansicht zunächst z. B. mittels eines bildansichts-mittigen Fadenkreuzes auf irgendeinen Fixpunkt des Event-Feldes 2, dessen genaue geographische Position ebenfalls bekannt ist und in den Rechner eingegeben worden ist, ausgerichtet wird (bei einem Fu ßballfeld bspw. ein Elfmeter-Punkt oder ein Spielfeld-Eckpunkt). Der Rechner "kennt" nun unter weiteren (weiter unten darzulegenden) Prämissen den Ansichtsmittelpunkt der Bild-Kamera sowie auf Grund der Kenntnis deren geographischer Position auch deren Schwenk- und Neigungswinkel bei der so definierten Null- bzw. Ausgangsposition.
Zweckmäßigerweise ist die Bild-Kamera dabei vorab so auszurichten, dass die Drehebene genau waagerecht und die Schwenkebene genau senkrecht liegen. Denn nur dann führt eine "Drehung" der Kamera nicht auch zu einer Schwenkung und Schräglegung der Kamera und nur dann kann darauf verzichtet werden, der Kamera für jeden Drehungswinkel auch einen gesonderten Neigungs- und Schrägstellungswinkel für die zur Ansichtsbestimmung erforderlichen Rechenprozesse zuordnen bzw. dem Rechner entsprechende Algorithmen vorgeben zu müssen. Gleiches gilt entsprechend für die zweckmäßigerweise senkrecht auszurichtende Schwenkebene. Dem Programm bzw. Rechner sind dementsprechend auch die Informationen über die waagerechte Ausrichtung der Dreh- und die senkrechte Ausrichtung der Neigungsebene einzugeben bzw. der jeweilige Grad der Abweichung hiervon sowie die Abweichungsrichtung.
Ist eine genau waagerechte Drehachse und/oder eine genaue senkrechte Neigungsachse nicht realisierbar, so ist/sind dem Rechner ferner der die jeweiligen Schrägstellungswinkel der Dreh- und/oder Schwenkachse einzugeben. Dabei ist für die Schrägstellung der Drehachse auch deren geographische Ausrichtung einzugeben, also etwa die genaue Himmelsrichtung der Neigungsachse deren Schrägstellungswinkel (in Bezug auf die Senkrechte oder Waagerechte) einzugeben. Andernfalls genügt bei entsprechender Programmierung die Bestätigung, dass sich die Drehachse in der Waagerechten und/oder die Schwenkachse in der Senkrechten befinden.
Ist die fix stationierte Kamera (mit waagerechter Dreh- und senkrechter Schwenkebene) nicht nur dreh- und neigbar, sondern auch in Schräglage zu bringen (also nicht nur stets waagerecht in Bezug auf die obere und untere Bildkante), müssen dem Rechner für die Definition der O-Position ferner deren Daten bezüglich ihrer aktuellen Schräglage im Verhältnis zur Waagerechten zur Verfügung gestellt werden. Zweckmäßigerweise kann dies etwa durch eine Kalibrierung der Kamera (genau gesagt deren Bildober- und Unterbegrenzungen) in die Waagerechte mittels bekannter Techniken (wie sie z. B. in jedem modernen Smartphone verwendet werden) erfolgen, mit anschließender Eingabe in den Rechner, dass sich die Bild-Kamera bei ihrer O-Position in der Waagerechten (bzw. in einem anderen bestimmten Schräglagenwinkel) befindet.
Des Weiteren benötigt der Rechner die Informationen über den Bildrahmen, also die Winkeligkeit der vier Bildkanten bei einer bestimmten Zoomstufe, praktischerweise der Null-Zoomstufe. Der Rechner benötigt ferner die Algorithmen über die Veränderung der Bildwinkeligkeiten bzw. des "Bildrahmens" in Abhängigkeit von den verschiedenen Zoomstufen. Wird das Kamera-Bild durch Zoomen oder andere Voraussetzungen verzerrt, benötigt der Rechner des Weiteren die Verzerrungsalgorithmen für die verschiedenen Zustände, z. B. Zoomstufen. Bei der Bildaufnahme sind nun durch entsprechende Vorrichtungen laufend auf elektrischem, elektromechanischem oder elektronischem Weg die jeweils aktuellen Schwenk- (bzw. Dreh-), Neigungs- und Schrägstellungswinkel (jeweils bezogen auf die 0- Position), sowie die aktuelle Zoomstufe abzugreifen und dem Rechner 7 zur Verfügung zu stellen. Der Rechner 7 kann nun unter den oben genannten Voraussetzungen bei Kenntnis des geographischen Kamerastandortes, der Kamera-Blickwinkeligkeiten in der O-Zoomstufe, der aktuellen Zoomstufe, eventueller Verzerrungsalgorithmen, sowie des aktuellen Dreh-, Neigungs- und Schräglagewinkels (jeweils bezogen auf die O-Position) der Bild-Kamera sowie bei Kenntnis der jeweils aktuellen geographischen Position der Teilnehmer laufend ein virtuelles Bild erstellen, welches hinsichtlich des Bildrahmens bzw. der Blickwinkeligkeiten positions- und deckungsgleich mit dem jeweiligen aktuellen Bild-Kamera-Bild ist und die Positionen der Teilnehmer mit deren Kennungen bzw. mit diesen zugehörigen Identifikationen (Namen, Mannschaftszugehörigkeit, Sportgeräte- Hersteller etc.) deckungsgleich mit den Positionen der Teilnehmer auf dem Kamera-Bild ausweist.
Dieses mit der Bild-Kamera hinsichtlich seiner Ausrichtung und Begrenzung identische Identifikations-Bild 80 wird nun (ggf. nach Wandlung der Kennungen in konkrete Bezeichnungen bzw. Namen bzw. teilnehmerspezifische Informationen) dem Kamera- Bild 60 auf bekannte Weise überlagert. Der Zuschauer bzw. Konsument kann dann auf der Fernseher-(oder sonstigen)-Ansicht zu jedem Zeitpunkt des Events verfolgen, welcher identifizierte Teilnehmer sich wo befindet und/oder sich wohin bewegt.
Die Ein- bzw. Überblendung der so generierten Identifikations-Bild bzw. "ID-Viewer"- Ansicht in das Fernseh- (oder sonstige)-Bild kann dabei auf zweierlei Weise erfolgen:
Zum einen nimmt der jeweilige Ausstrahlende (z. B. Fernsehsender) selbst die Überlagerung vor. Er entscheidet dann z. B. selbst darüber, ob und ab welcher sichtbaren Teilnehmergröße die Identifikation ausgeblendet wird (z. B. weil der Teilnehmer und/oder die Beschriftung auf seiner Kleidung bzw. seinem Sportgerät auf dem Kamera-Bild bereits ausreichend groß bzw. erkennbar ist). Zum anderen wird die "ID-Viewer-Ansicht" dem Zuschauer bzw. dem Konsumenten gesondert, z.B. über eine Set-Top-Box, an einen in den Fernseher integrierten Rechner oder den heimischen Rechner mittels Internet oder auf eine andere Weise, etwa über ein zweites, gesondertes Fernsehsignal zur Verfügung gestellt. Bei letzterer Konstellation ist das Identifikations-Bild durch den Anwender/Kunden im Grundsatz jeweils gesondert bearbeitbar. Der Zuschauer kann dann jeweils aktuell entscheiden, ob er das dem Kamera-Bild überlagerbare Bild sehen will oder nicht. Er kann dann grundsätzlich auch entscheiden, ob er das Identifikations-Bild Signal nur für bestimmte Personen oder eine bestimmte Mannschaft seinem Kamera-Bild überlagert haben möchte. Er kann durch eine zusätzliche Erkennungssoftware des Weiteren entscheiden, ab welcher Bildgröße der einzelnen Teilnehmer im Verhältnis zur Kamera-Bild- Ansichtsbreite und/oder -höhe die Identifikation der Teilnehmer (z. B. wegen ausreichender Erkennbarkeit) ausgeblendet werden soll. Auch besteht die Möglichkeit, den Anwender zwischen verschiedenen Ansichtsgrößen der Identifikationen oder Symbole wählen zu lassen, sowie deren genaue Positionierung beim Event-Teilnehmer (z. B. in Hüfthöhe direkt neben dem Teilnehmer) zu bestimmen. Sämtliche genannten Anwenderoptionen können alternativ auch durch den Ausstrahlenden ausgeübt werden.
Werden mehrere Bild-Kameras eingesetzt, so führt dies automatisch bei Einspeisung der Daten der Einwechselkamera zu einer neuen, nunmehr das Bild der Einwechselkamera überlagernden I D-Viewer-Ansicht, da die geänderten Kamera-Ausgangsdaten "automatisch" eine neue ID- Viewer-Ansicht generieren.
Die bildliche Ausgabe der Identifikationen muss nicht zwangsläufig genau an Position der GPS-Sender/Empfänger-Sender-Einheit beim Event-Teilnehmer erfolgen. Die bildliche Ausgabe der jeweiligen Teilnehmer-ID kann so programmiert werden, dass sie wahlweise um einen bestimmten Abstand über, unter oder neben der GPS-Empfangs- und Sendeeinheit erfolgt. So ist es z. B. sinnvoll, bei Fu ßballspielern, welche die GPS- Empfangs-Sendeeinheit z. B. in den Hemdkragen eingenäht tragen, die Identifikation bildlich z. B. in Hüfthöhe zu positionieren, wo die Gefahr vergleichsweise gering ist, dass sie interessantes Spielgeschehen überlagert (wenn man davon ausgeht, dass der Fußballspieler den Ball für gewöhnlich mit dem Fuß, dem Bein oder dem Kopf bewegt oder stoppt). Dabei genügt für eine perfekte ID-Ausgabe, die bei allen Ansichtsgrößen des Teilnehmers in der Relation gleichweit vom Ortungspunkt des Teilnehmers entfernt ist, in der Regel nicht die Programmierung, dass die Ausgabe auf der Kamera-Bild-Ansicht z. B. um die Distanz eines bestimmten Bruchteils, z. B. von 5% des Gesamt-Bildhöhenmaßes, unter dem Ortungspunkt ausgegeben werden soll. Denn die optische Größe der Teilnehmer im Verhältnis zur Gesamt-Bildhöhe verändert sich entfernungs- und zoombedingt ständig. Bei einer solchen Vorgabe würde die optische Position der ID ständig relativ zum Teilnehmer "wandern" bzw. permanent verändert. Deshalb kann vorgesehen werden, eine Erkennungssoftware zu integrieren, welche die Spieler und deren relative Größe zum Kamerabild(-rahmen) erkennt und die Identifikationsausgabe unabhängig von der tatsächlichen Positionierung der Empfänger-Sender-Einheit beim Teilnehmer, z. B. grundsätzlich eben in der Körpermitte vornimmt, also z. B. an einem Punkt, der 60 % der gemessenen bildlichen Spielergröße (z. B. von unten an) entspricht.
Führen die Teilnehmer nicht nur zielgerichtete Bewegungen in eine bestimmte Richtung aus, sondern daneben auch noch Bewegungen in andere Richtungen, wie dies z. B. bei Laufsportlern oder Fu ßballspielern bei der Hoch-Tief-Bewegung während des Laufens der Fall ist, was grundsätzlich auch zu einer ungewollten (in diesem Falle Hoch-Tief-) Bewegung der ID-Ausgabe führen würde, so können Dämpfungen für bestimmte Bewegungs-Richtungen, im genannten Beispiel also für die Hoch-Tief-Bewegung, einprogrammiert werden. Im Falle eines Fu ßballers vollzieht die Identifikations-Ausgabe dann dessen "Hüpfbewegungen" beim Laufen nur reduziert oder überhaupt nicht nach. Hierbei kann die Erkennungs- oder eine andere Software alternativ oder zusätzlich unterstützend eingreifen, indem sie z. B. für jeden Spieler eine obere oder untere Laufhöhe aus den gemessen Laufbewegungen, also einer Art virtuellen Balken generiert, an welchem die Identifikationsausgabe virtuell in einem stets gleichen Abstand "hängt". Auf Grund der sichtunabhängigen Ortung von oben (GPS) ist das hier beschriebene Grundsystem (durch) bei fest positionierten Kameras auch geeignet für nicht-plane Felder, wie etwa bei Motocross-Rundrennen auf bergigem/hügeligem Gelände. Grundsätzlich besteht hier allerdings die Gefahr, dass Teilnehmer durch das ID-Viewer- System geortet und deren Identifikationen ausgegeben werden, obwohl sie durch eine Erderhebung oder -Senkung auf dem aktuellen Kamera-Bild nicht sichtbar sind. Wird das Gelände (und nicht nur die reine Fahrtstrecke) hinsichtlich seiner Erhebungen und Vertiefungen, etwa per GPS, eingescannt und/oder werden vorhandene Scans der Erdoberflache (wie z. B. der NASA) verwendet, und der Rechner anschließend so programmiert, dass er Identifikationen, deren zugehörige Teilnehmer wegen Erderhebungen/-absenkungen auf dem Kamera-Bild (abhängig von dessen jeweiliger Position bzw. Perspektive nicht sichtbar sind, programmmäßig identifiziert, kann die Ausgabe solcher Identifikationen programmtechnisch unterbunden werden. Alternativ kann eine Erkennungssoftware, welche die Teilnehmer bildlich erkennt, durch entsprechende programmtechnische Einbindung in die Identifikationsausgabe dieselbe verhindern, wenn sie an der Stelle der auf Grund der GPS Ortungs-Position vorgesehenen Identifikations-Ausgabe (etwa wegen Verdeckung durch einen Erdhügel) auf dem Kamerabild keinen zugehörigen Teilnehmer erkennen kann. Abwandlung des Ausführunqsbeispiels der Figur 2 durch Verwendung einer dynamischen Kamera: In der Beschreibung der Figur 2 wurde eine stationäre Filmkamera 6 betrachtet. Die Erfindung kann jedoch ebenso bei einer oder mehreren dynamisch bewegten Kameras eingesetzt werden, etwa frei geführten, mitfahrenden oder in Helikoptern mitgeführten Kameras. Dabei ist zum einen zu beachten, dass sich die geographische Position der Bild-Kamera ständig verändert, was als Problem dadurch gelöst wird, dass die geographische Position der Kamera 6 nunmehr laufend ermittelt und an den Rechner 7 kommuniziert wird.
Zum anderen ist der Tatsache Rechnung zu tragen, dass direkte physische Fixpunkte zum Abgriff des jeweiligen Dreh- bzw. Schwenk-, Neigungs- und Kränkungs- bzw. Schräglagewinkels mangels fixer Stationierung der Kamera nicht verfügbar sind. Unter Verwendung der Nord- (oder einer anderen) Peilung (z. B. bei 0° Nord) sowie zweier verschiedener Waagerecht-Kalibrierungen (bevorzugt kreuzweise) kann dieses Defizit jedoch beseitigt werden. Dabei kann durch z.B. GPS nicht nur die aktuelle Kamera-Position (Focus) sondern auch die Nord-Richtung bzw. die komplette Himmelsrichtungs-Grad-Skala und damit die jeweilige aktuelle Sicht-Achsen-Richtung der Bild-Kamera ermittelt werden. Zur Ermittlung der jeweiligen aktuellen Neigungs- und Schrägstellungswinkel können z.B. auch aus der Luftfahrt bekannte Techniken eingesetzt werden. Der aktuelle Zoomfaktor kann elektronisch bzw. elektromechanisch abgegriffen werden, so dass im Grundsatz sämtliche Parameter zur Generierung eines mit der Kamera-Bild-Fläche deckungsgleichen Identifikationsbildes ("I D-Viewer-Ansicht") bereits durch an sich bekannte Techniken ermittelt werden können. Figur 3 - Getrennte Darstellung von Informationen ohne Überlagerung mit den Bilddaten einer aktuellen Kameraaufnahme (Stand-Alone-Anwendung):
Die Figur 3 zeigt ein Ausführungsbeispiel, bei dem Informationen zu Teilnehmern der Veranstaltung zwar ebenfalls an Positionen eines Bildausschnitts wiedergegeben werden, die den tatsächlichen geographischen Positionen der Teilnehmer der Veranstaltung entsprechen, jedoch ohne dass eine Überlagerung mit den Bilddaten einer aktuellen Kameraaufnahme erfolgt. Diese Anwendung wird daher auch als Einzelfall- oder„Stand-Alone" Anwendung bezeichnet. Ein einfaches Beispiel einer solchen Stand- Alone Anwendung stellt die Darstellung der gewünschten Informationen in einem komplett in der waagerechten befindlichen Event-Feld dar. Die Stand-Alone-Anwendung ist jedoch keineswegs hierauf beschränkt und beispielsweise auch zur Realisierung virtueller 3D-Ansichten und 3D-Flüge geeignet. Die initiale Beschreibung anhand eines zweidimensionalen, planen Event-Feldes erfolgt lediglich, da hieran die Grundzüge der Stand-Alone Anwendung gut erkennbar sind.
Bei der„Stand-Alone" Anwendung werden die Positionsdaten in ein Bild eingefügt, das das Event-Feld insgesamt oder einen Teilbereich des Event-Feldes, beispielsweise in einer Ansicht von oben wiedergibt. Das Bild kann statisch oder dynamisch sein. Im Folgenden wird ein statisches Bild betrachtet. Es wird also eine Abbildung des tatsächlichen Event-Feldes 2 erzeugt, die beispielsweise eine Draufsicht von oben, z.B. das abfotografierte Event-Feld oder ein virtuelles Event-Feld wiedergibt. Da diese Abbildung im betrachteten einfachen Ausführungsbeispiel statisch ist, muss keine Anpassung an Ansichtsveränderungen oder aktuelle Zoomstufen eines Kamerabildes erfolgen, was die Menge der zu übermittelnden Daten deutlich reduziert.
Im Einzelnen zeigt die Figur 3 ähnlich wie die Figur 2 ein Event-Feld 2, auf dem sich eine Mehrzahl von Teilnehmern 1 a, 1 b, 1 c befinden. An den Teilnehmern sind jeweils Sender/Empfänger 3a, 3b, 3c befestigt. Die von den Sender/Empfängern an die zentrale Einheit 7 übersandten Positionsdaten sind Weltkoordinaten. Diese werden in einer Darstellung 100 des Spielfelds 2 in Weltkoordinaten angeordnet. Die Positionen der Sender/Empfänger 3a, 3b, 3c sind dabei als Weltkoordinaten WK1 , WK2, WK3 wiedergegeben. Zusätzlich umfasst die Darstellung 100 geographische Positionsdaten definierter Punkte des Event-Feldes 2. Diese Positionsdaten liegen ebenfalls als Weltkoordinaten vor. Im dargestellten Ausführungsbeispiel handelt es sich um die vier Eckpunkte des Event-Feldes mit Positionsdaten WK01 , WK02, WK03, WK04. Die Positionen WK1 , WK2, WK3 der Darstellung 100 sind ebenso wie in der Figur 2 auf ein Identifikations-Bild zu übertragen. Dieses ist in der Figur 3 mit dem Bezugszeichen 1 10 gekennzeichnet ist. Allerdings ist im Ausführungsbeispiel der Figur 3 dieses Identifikations-Bild 1 10 statisch, das heißt Bildgröße, Bildausschnitte etc. ändern sich nicht. Dementsprechend wird weniger Rechenleistung benötigt, die geographischen Positionsdaten der Sender/Empfänger 3a, 3b, 3c den Bilddaten des Identifikations-Bilds 100 zuzuordnen. Hierzu wird das Identifikations-Bild 1 10 kalibriert, indem die geographischen Daten der definierten Positionsdaten WK01 , WK02, WK03, WK04 im Bild 1 10 als Eckpunkte P4, P5, P6, P7 gesetzt werden. Indem die vier Eckpunkte des tatsächlichen Event-Feldes 2 auf die vier Eckpunkten P4, P5, P6, P7 des Identifikations-Bildes 1 10 abgebildet werden, können auch sämtliche andere sich innerhalb des Event-Feldes 2 befindliche Positionen auf das Identifikations-Bild 1 10 übertragen werden. So sind lediglich die aktuellen geographischen Positionsdaten im entsprechenden Verhältnis zu den Eckpunkten auf das Identifikations-Bild 1 10 zu übertragen. Die geographischen Daten bzw. Geopositionsdaten der Eckpunkte WK01 , WK02, WK03, WK04 werden beispielsweise über ein bereits vorhandenen digitales Geländemodell eingelesen oder z.B. durch kurzzeitige Anordnung von Sendern/Empfängern an den Eckpunkten des rechteckigen Event-Feldes gemessen. Möglichkeiten zur Bestimmung der geographischen Position von Punkten eines Event-Feldes werden weiter unten im Einzelnen beschrieben werden.
Kennt somit der Rechner 7 alle oder eine ausreichende Anzahl von Punkten eines Standard-Event-Feldes im Hinblick auf ihre geographische Position, ggf. mit den Event- Feld-Markierungen (z.B. Elf-Meter-Raum beim Fu ßball), ergeben sich einfache Anwendungsmöglichkeiten. Bei planen rechteckigen und in der Waagerechten befindlichen Event-Feldern z. B. genügt die Eingabe der geographischen Daten der vier Eckpunkte, damit dem Rechner jeder Punkt des Spielfeldes bekannt ist; bei standardisierten stets gleichen Spielflächen (wie z. B. beim Fu ßball) genügt zur Kenntnis der Markierungen ferner deren einmalige Eingabe, die dann auf das jeweilige Spielfeld (mit seinen individuellen Eckpunkt-Geo-Daten) durch den Rechner angewandt werden kann.
Die Eckpositionen WK01 , WK02, WK03 und WK04 sowie die aktuellen Positionsdaten WK1 , WK2, WK3 der Teilnehmer werden im Ausführungsbeispiel der Figur 3 somit auf das Identifikationsbild 1 10 abgebildet. Diese Zusatzinformationen werden nun an den Punkten im Identifikationsbild 1 10, an denen sich die jeweiligen Teilnehmer befinden, dargestellt. Zusätzlich können auch die Teilnehmer selbst schematisch dargestellt sein. Diese Zusatzinformationen sind somit an Punkten P1 , P2, P3, die den aktuellen Positionen WK1 , WK2, WK3 entsprechen, dargestellt. Diese Zusatzinformationen werden dabei als F(1 a), F(1 b) und F(1 c) bezeichnet, das heißt, sie hängen ab bzw. kennzeichnen die einzelnen Teilnehmer 1 a, 1 b, 1 c. Das Identifikations-Bild 1 10 ermöglicht somit die Darstellung von Informationen zu den einzelnen Akteuren der Veranstaltung, wobei die Informationen auf dem Identifikationsbild 1 10 sich entsprechend der Position der Teilnehmer bewegen bzw. verändern. Das Identifikations-Bild 100 wird beispielsweise über das Internet oder ein gesondertes Fernsehsignal an einen Zuschauer bzw. Komponenten versandt. Dieser kann dann das aktuelle Geschehen aus der Draufsicht mit Teilnehmer-Identifizierungen parallel zur Fernsehübertragung auf seinem Computerbildschirm oder Smartphone oder Tablet-Computer oder auf einem zweiten Fernseher verfolgen. Diese Ansicht ist beispielsweise für die Beurteilung des Stellungsspiels, etwa beim Fu ßball von Interesse oder dient einer Totalansicht zur Ergänzung der meist zoom-verengten Fernsehbilder.
Die Figur 3 stellt lediglich ein Ausführungsbeispiel einer Stand-Alone-Anwendung der vorliegenden Erfindung dar. Die Stand-Alone-Anwendung kann zahlreiche Abwandlungen und Ergänzungen erfahren, beispielsweise um virtuelle 3D-Flüge zu realisieren. Im Folgenden werden mehrere Abwandlungen und Ergänzungen der Stand-Alone- Anwendung beschrieben.
Stand-Alone-Anwendung - Abwandlung "visuelle Ortung": Bei Events mit Bällen oder anderen (Event-)Gegenständen kann es insbesondere in der Stand-Alone Anwendung sinnvoll sein, diese in das System durch Einbau von GPS- Empfangs-Sende-Einheiten zu integrieren und auch deren Identität in der ID-Viewer- Ansicht zu visualisieren. Insbesondere, solange solche GPS-Sende-Empfangs-Einheiten für eine unproblematische Verbauung in den jeweiligen Event-Gegenstand (z. B. Fußball) nicht klein bzw. leichtgewichtig bzw. nicht unempfindlich genug gegen äu ßere Einflüsse sind, kann die Ortung von Event-Gegenständen (und natürlich auch Teilnehmern) parallel auch durch andere Maßnahmen, z.B. mittels einer Objekterkennungssoftware erfolgen. Es liegt durchaus in Rahmen der Erfindung, das beschriebene Ortungssystem mit anderen Ortungssystemen zu überlagern.
Verfügt z.B. der Event-Gegenstand, also z. B. ein Ball, über eine besondere farbliche und/oder strukturelle flächige Markierung, kann er durch entsprechende Erkennungssoftware identifiziert werden. Wird das Spielfeld von zwei Bildkameras, deren Sichtachsen nicht parallel (bei rechteckigen Event-Feldern vorzugsweise je von einer Event-Feld-Ecke zur schräg gegenüberliegenden Event-Feld-Ecke) verlaufen, erfasst und sind die (wegen der vollflächigen Ansichten der beiden Kameras nicht notwendigerweise zu verändernden) Dreh-, Neige- und Schrägstellungswinkel sowie die geographische Position und der Zoomfaktor bzw. Bildrahmen (= Ansichtswinkeligkeit) der beiden Bildkameras sowie eventuelle Verzerrungsalgorithmen bekannt, so kann durch ein über das jeweilige Kamerabild gelegtes virtuelles Ortungsgitter mit Hilfe der Erkennungssoftware jederzeit elektronisch ermittelt werden, auf welchem geographisch bestimmten Richtungsstrahl, betrachtet von der jeweiligen Kamera aus, sich der Event- Gegenstand befindet. Mit anderen Worten: jeder Punkt auf der Kamera-Bildfläche bzw. auf dem Ortungsgitter entspricht einem bestimmten virtuellen Richtungsstrahl, auf welchem sich der Event-Gegenstand bzw. der Ball befindet. Wird der Event-Gegenstand nun durch zwei hinsichtlich ihres Standortes und ihrer Blickrichtung (und Zoomstufe) fixierten Kameras erfasst, die jeweils das ganze Spielfeld erfassen, lässt sich die genaue Position des Event-Gegenstandes im Raum rechnerisch ermitteln. Er entspricht dem Kreuzungspunkt der beiden mittels Ortungsgitter ermittelten Strahlen. Die Position des Event-Gegenstandes, also z. B. des Balles kann nun ebenfalls in jeder ID- Viewer-Ansicht 3-dimensional dargestellt werden, wobei für die Von-Oben-Draufsicht in der Stand-Alone- Anwendung die 2-dimensionale Darstellung auf dem Event-Feld genügt.
Es kann die Ortung per Erkennungssoftware über zwei Bild-Kameras, deren Sichtachsen nicht identisch verlaufen, mittels Erkennungssoftware auch erfolgen, wenn die beiden Bild-Kameras oder eine von ihnen nicht stationär fixiert sind und/oder diese ihren Neigungswinkel, Drehwinkel, Schrägstellungswinkel und/oder Zoomwinkel verändern (können). Die genannten Parameter sind dann abzugreifen und wie erläutert zusammen mit der von der Bild-Kamera bzw. dem dieser übergelagerten Ortungsnetz abgegriffenen Information so zu verarbeiten, dass jeweils die aktuelle geographische Position des Event-Gegenstandes ermittelt wird und eine entsprechende Bild-Ausgabe in die ID- Viewer-Ansicht erfolgt.
Ebenso ist vorstellbar, dass eine oder mehrere der für das jeweilige Event eingesetzten Bildkameras gleichzeitig als Ortungskamera eingesetzt werden. Hierzu ist zum einen erforderlich, dass das Kamera-Bild zusätzlich für die Strahl-Ermittlung durch das Ortungsnetz entsprechend in den jeweiligen Rechner eingespeist wird, sofern die Strahl- Ermittlung nicht bereits innerhalb der Kamera bzw. des Kamerasystems erfolgt. Der Verzicht auf gesonderte Kameras für die Event-Gegenstands-Ortung durch zwei Bild- Kameras setzt zum anderen voraus, dass mindestens zwei Bild-Kameras (deren Ansichten zur Strahl-Ortung verwendet werden) den Event-Gegenstand auch in ihrer Ansicht haben und ihre Sichtachsen nie parallel verlaufen. Es wird darauf hingewiesen, dass die zusätzliche visuelle Ortung von Event- Gegenständen auch bei einer überlagernden Darstellung entsprechend der Figur 2 erfolgen kann. Stand-Alone-Anwendunq - Abwandlung "virtuelle Flüge":
Wenn der Computer 7 die geographischen Positionen aller bzw. einer ausreichend großen Anzahl von Punkten des Event-Feldes 2 sowie die geographischen Positionen der Teilnehmer und ggf. Event-Gegenstände kennt, ist es möglich, dass der Anwender virtuelle Flüge durch das Event-Geschehen unternimmt. Die geographischen Positionen einer ausreichend großen Anzahl von Punkten des Event-Feldes 2 werden dem Computer 7 dabei beispielsweise durch Daten digitaler Geländemodelle mitgeteilt, auf die der Computer 7 zurückgreifen kann. Grundsätzlich wird dabei bei nicht-planen Event- Feldern bevorzugt auf digitale Geländemodelle zurückgegriffen.
Der Anwender kann dann das aktuelle Spielgeschehen, z. B. parallel zur Fernsehübertragung, individuell aus jeder virtuellen Perspektive im Raum verfolgen, ja sogar mit einzelnen Spielern "mitlaufen" und deren Blickrichtung virtuell bestimmen. Das "Mitlaufen" kann bei entsprechender Programmierung durch eine gesonderte Befehlseingabe, etwa einen "Mouseclick" auf die oder (auf einem Touchscreen) ein Berühren der Identitätsausgabe ggf. mit einem zusätzlichen "Mitlaufen"-Befehl aktiviert werden. Beim "Mitlaufen" kann der Anwender - wie generell bei seinen virtuellen 3-D- Flügen - neben der Blickrichtung auch die Winkeligkeit seiner Ansicht (Zoomstufe) bestimmen. Wird auch der Event-Gegenstand, etwa ein Fu ßball, laufend lokalisiert, kann der Anwender den Mittelpunkt seiner virtuellen Ansicht an diesen durch entsprechende Befehlseingabe in ein entsprechendes Programm "anheften", so dass er automatisch laufend aus der Sicht eines bestimmten Event-Teilnehmers den Event-Gegenstand, z. B. Ball im Blick hat. Der Reiz solcher Möglichkeiten offenbart sich beispielsweise darin, dass es für den Anwender möglich ist, beim Fußballspiel einen Elfmeterschuss (virtuell) aus der Perspektive des Torwarts zu verfolgen, während die Fernsehkamera eine andere Ansicht (etwa aus der Sicht des Schützen) anbietet.
Durch entsprechende Programmierung kann die Blickrichtung beim "Mitlaufen" auch richtungsabhängig generell vorgegeben bzw. selektiert werden. Maßgeblich kann dabei allgemein z.B. die Bewegungsrichtung des jeweiligen Teilnehmers bzw. Event- Gegenstandes sein. Beispiel: Die virtuelle Ansicht erfolgt beim Fu ßballspiel aus der Perspektive des Fußballs in dessen jeweilige Bewegungsrichtung bzw. "Schussrichtung" oder z. B. auch rückwärts, also im 180 %-Winkel zu seiner Bewegungsrichtung bzw. in Richtung des jeweiligen Schützen. Auf der Basis entsprechender Programmierung kann beim "Mitlaufen" die Blickrichtung auch durch die (sich verändernden) Positionen eines bestimmten (anderen) Event-Teilnehmers oder Event-Gegenstandes vorgegeben bzw. vorselektiert werden.
Beispiel: Der Fußballspieler, mit welchem "mitgelaufen" wird, schaut virtuell stets zu einem bestimmten gegnerischen Spieler, den er bewachen soll. Die Blickrichtung kann beim , Mitlaufen" durch entsprechende Programmierung und Selektion durch den Anwender auch durch bzw. in Abhängigkeit von bestimmten Event-Feld Markierungen vorgegeben werden.
Beispiel: Beim Fu ßball wird der virtuelle Blick eines Stürmers, mit dem mitgelaufen wird, stets auf den Mittelpunkt des gegnerischen Tors gerichtet oder z. B. stets parallel zu den seitlichen Längsbegrenzungslinien in Richtung gegnerisches Tor. Es sind auf Basis entsprechender Programmierungen und Anwenderselektionen beim "Mitlaufen" auch Kombinationen der allgemeinen Blickrichtungsvorgaben in Abhängigkeit von der Bewegungsrichtung eines (oder mehrerer) Event-Teilnehmer oder Event-Gegenstände möglich.
Beispiel: Die Richtung des virtuellen Blicks eines selektierten Fu ßball-Spielers erfolgt wechselnd stets zum Mittelpunkt des Tores hin, in dessen Richtung der Ball sich gerade (auch) bewegt.
Auch sind auf der vorgenannten Basis Kombinationen bedingter Blickrichtungsvorgaben möglich:
Beispiel: Im vorgenannten Beispiel ändert sich die Blickrichtung des Fu ßball-Spielers, wenn sich diesem der Fußball auf weniger als 2 m nähert. Die Blickrichtung geht dann automatisch auf den Fußball.
Die aufgezeigten Ansichts- bzw. Blickrichtungsvorgaben sind nicht nur beim "Mitlaufen", sondern auch aus jeder Raumsituation bei virtuellen 2D-Bewegungen oder 3D-Flügen möglich. Werden die zur Generierung von ID- Viewer-Ansichten bzw. 3D-Ansichten erforderlichen, oben beschriebenen Daten fortlaufend (mit Zeitfeststellung) zeitlich parallel gespeichert, so kann der Anwender auch im Nachhinein jede Event-Situation aus jeder Position im Raum betrachten und beurteilen.
Es können für virtuelle Flüge durch das Event-Geschehen auch Steuermodule, die bspw. in der Fernbedienung verbaut werden oder andere Steuerungsgeräte, wie etwa Joysticks angewandt bzw. integriert werden. In der Stand-Alone Anwendung kann die ID- Viewer-Ansicht mit weiteren Applikationen wie etwa Schattenwurf oder einer virtuellen 3D-Ansicht von Teilnehmern/Event- Gegenständen einer Real-Ansicht angenähert werden.
Grundsätzlich kann der Anwender bei Verfügbarkeit nur eines Bildschirmes auch zwischen dem Kamera-Bild und dem virtuellen Bild "hin- und herzappen".
Sämtliche Stand-Alone Anwendungen können auch von einem professionellen, z. B. Fernseh-Internet-Anbieter genutzt werden, der dann z.B. (professionelle) virtuelle Fahrten durch das Event-Geschehen vornimmt und diese an den Zuschauer/Konsumenten, der dann auf die Blickposition keinen oder nur noch einen eingeschränkten Einfluss hat, versendet.
Die Figur 4 zeigt schematisch ein Ausführungsbeispiel der Erfindung, bei der sowohl eine überlagernde Darstellung vorgesehen sein kann, bei der Informationen einem Kamerabild überlagert werden, als auch eine virtuelle Darstellung, bei der Informationen ohne Überlagerung mit einem Kamerabild virtuell dargestellt werden. Dabei können in der virtuellen Darstellung 3D-Flüge erfolgen.
Es sind ähnlich wie bei der Figur 1 Teilnehmer 1 einer Veranstaltung vorhanden, an denen jeweils ein Sender/Empfänger 3 befestigt ist, der dazu ausgebildet ist, Daten eines Satelliten-Ortungssystems, beispielsweise eines GPS-Systems zu empfangen. Der Sender/Empfänger 3 jedes Teilnehmers 1 erhält fortlaufend Daten einer Mehrzahl von Satelliten 4 des Satelliten-Ortungssystems, die es erlauben, die exakte geographische Position des Sender/Empfängers 3 und damit des jeweiligen Teilnehmers 1 zu bestimmen.
Die Veranstaltung findet in einem nicht-planen Event-Feld 2 statt. Die jeweiligen Sender/Empfänger 3 der Teilnehmer 1 umfassen des Weiteren individuelle Kennungen, die den jeweiligen Teilnehmer 1 identifizieren oder Informationen über diesen enthalten oder kodieren, wie in Bezug auf die Figur 1 beschrieben. Die Sender/Empfänger 3 sind dazu ausgebildet, Positionsdaten zusammen mit der individuellen Kennung des jeweiligen Sender/Empfängers 3 entsprechend dem Pfeil A an einen Computer 7 zu senden, so dass dieser die empfangenen Positionsdaten (oder die noch auszuwertenden Daten des Satelliten-Ortungssystems) einem bestimmten Teilnehmer 1 zuordnen kann.
Des Weiteren ist in einem Helikopter 5 eine Kamera 6 (beispielsweise eine Videokamera) angeordnet, mit der die Veranstaltung aufgenommen wird und die hierzu ein Kamerabild 60 bereitstellt, das das Event-Feld 2 oder einen Teilbereich des Event-Feldes 2 wiedergibt. Auch ist in dem Helikopter 5 ein weiterer Sender/Empfänger 1 1 enthalten, der Daten des Satelliten-Ortungssystems empfängt, so dass auch die genaue Position des Helikopters bzw. der sich in diesem befindlichen Kamera 6 in Weltkoordinaten genau erfassbar ist.
Die Kamera 6 umfasst Sensoren oder andere Erfassungsmittel, die den Drehwinkel der Kamera, deren Neigungswinkel, deren Schrägstellungswinkel und deren Zoomfaktor fortlaufend bestimmen, wobei diese Informationen zusammen mit den Bildinformationen der Kamera ebenfalls an den Computer 7 übertragen werden.
Des Weiteren greift der Computer 7 auf ein digitales Geländemodell DGM 14 bzw. eine digitale Karte des Event-Feldes 2 zu.
Es können nun zum einen in einem Überlagerungsbild 90 die Bildinformationen der Kamera 6, d.h. das Kamerabild 60, und diesem überlagert und mitlaufend Zusatzinformationen dargestellt werden, wie in Bezug auf die Figur 2 beschrieben. Die dargestellten Zusatzinformationen sind z.B. die Namen der Teilnehmer oder die Namen der Fahrer der Teilnehmer (hier: die Namen der Fahrer der Rennwagen), und/oder z.B. Identifikationsnummern wie z.B. die jeweilige Startnummer.
Zum anderen können Informationen zu den Teilnehmern in einem virtuellen Bild dargestellt werden, das auf den Daten des digitalen Geländemodells DGM 14 basiert und in dem die Informationen ebenfalls mitlaufend wiedergegeben sind. Die virtuelle Darstellung kann entsprechend dem Bild 130 eine virtuelle Ansicht sein, in der ein 3D- Flug realisiert wird, wie oben beschrieben. Die Perspektive des 3D-Flugs kann ein Nutzer beispielsweise mittels eines Joysticks 15 oder dergleichen festlegen. Die einzelnen Teilnehmer können in der virtuellen Ansicht 130 z.B. durch Teilnehmersymbole 16 dargestellt werden. Zusätzlich können weitere Informationen wie z.B. Namen etc. mitlaufend dargestellt werden.
Stand-Alone-Anwendunq - Abwandlung "Schräqlaqesensoren":
Eine Erweiterung des Konzeptes in der Stand-Alone Anwendung sieht vor, dass beim Event-Teilnehmer und/oder einem Event-Gerät (z. B. Fahrrad) entweder in der GPS- Sende-Empfangseinheit oder an anderer Stelle Schräglagensensoren in mindestens zwei Richtungen, am besten kreuzweise und in der Grundposition waagerecht ausgerichtet, angebracht werden, die eine Schräglage des Teilnehmers bis hin zum "Umfallen" registrieren und an den Rechner senden. Dieser kann dann in der virtuellen Ansicht die Teilnehmer oder sonstige Symbole ebenfalls in entsprechender Schräglage darstellen bzw. visuell "umfallen" lassen.
Stand-Alone-Anwendunq - Abwandlung "Visualisierung der Bewequnqs-Historie": Eine zusätzliche Erweiterung des Konzeptes in der Stand-Alone Anwendung bzw. für die Ausgabe eines virtuellen Event-Bildes besteht darin, die Lauf- bzw. Bewegungsspur einzelner oder mehrerer/aller Teilnehmer und/oder eines/mehrerer Event-Gegenstande durch einen zu seiner Ausgangsposition hin verblassenden bzw. transparenter werdenden Schweifs oder eine "Fahne" bestimmter Länge zu visualisieren.
Der professionelle und/oder private Anwender (z. B. Fernsehanstalt/Fernsehzuschauer) kann dabei in einer weiteren Anwendungsform Länge und/oder Breite und/oder Farbe des Schweifs bzw. der Fahne festlegen und selektieren, welche sich bewegenden Objekte hiermit versehen werden. Ferner oder alternativ zur Länge des Schweifs kann er die Geschwindigkeit dessen z. B. altersabhängiger Verblassung (bzw. Erhöhung der Transparenz) zeitabhängig bestimmen. Jede Stelle des/den Event-Teilnehmer(n) verfolgenden Schweifs verblasst dann umso mehr, je älter sie ist, wobei der Verblassungszeitraum bis hin zur Unsichtbarkeit des Schweifs (an dessen Ende)durch den privaten und/oder professionellen Anwender festgelegt werden kann. Statt der Verblassung kann auch eine andere Form der (altersabhängigen) Auflösung bzw. Zersetzung des Schweifs, etwa eine "Verbröselung" angewandt werden. Auch ist es möglich, den Schweif bzw. die Fahne stets auf einer bestimmten Länge zu halten, so dass unabhängig vom Zeitablauf stets die zeitlich letzten Bewegungen des betreffenden Event-Teilnehmers über eine bestimmte Länge visualisiert werden.
Solche„nachlaufenden" Schweife bzw. Bänder können aber nicht nur in der Stand-Alone- Anwendung generiert werden, sondern sind wegen der durch das ID- Viewer-System bekannten (und speicherbaren) Bewegungshistorie der Teilnehmer auch für eine Überlagerung auf ein Kamerabild generierbar.
Stand-Alone-Anwendunq - Abwandlung "Stand-Alone Einsatz bei nicht planen Event- Feldern":
Bei einem nicht-planen Event-Feld 2, also z. B. bei Radrennen, Triathlon oder Marathonläufen, ist grundsätzlich ebenfalls die im Hinblick auf die in Figur 3 erläuterte Anwendung unter Verwendung einer digitalen Abbildung („digitales Geländemodell") des Event-Feldes 2 möglich. Allerdings besteht grundsätzliche das Problem, dass das Event- Feld häufig, da aus freier Natur bestehend, hinsichtlich der geographischen Koordination der Punkte seiner Erhebungen und Niederungen, also hinsichtlich aller oder einer ausreichenden Vielzahl von Flächen- bzw. Höhen-Punkten nicht verfügbar ist, wie dies z. B. bei einem rechteckigen und planen Event-Feld mit geographisch bekannten und eingescannten Eckpunkten der Fall ist. Zwar existieren für einen Teilbereich der Erdoberflache sogenannte digitale Geländemodelle, welche die Erdoberfläche durch die räumlichen Koordinaten einer repräsentativen Menge von Geländepunkten beschreiben. Damit werden Höheninformationen maßstabsunabhängig und datenverarbeitungsgerecht vorgehalten. Auch stehen NASA-Scans und andere digitale Geländeoberflächen-Karten zur Verfügung. Zum einen ist dies jedoch nicht für alle Regionen der Erdkugel der Fall, zum anderen sind die digitalen Messpunkte mitunter in ihrer Anzahl pro Flächeneinheit nicht ausreichend, um (auch mit Interpolation) eine für die ID-Viewer-Darstellung im aufgezeigten Zusammenhang ausreichend genaue Geländeoberfläche zu generieren. Soweit solche digitalen Karten mit ausreichender Punkte-Dichtheit verfügbar sind, können sie der ID- Viewer-Ansicht unproblematisch unterlegt werden. Der Konsument kann dann den Event mit den zugehörigen Identifikationen unproblematisch auch mittels eines virtuellen 3D-Fluges über (aber auch unter) dem Event-Feld verfolgen. Hierbei kann die ID- Viewer-Ausgabe so programmiert sein, dass sie bei perspektivisch bedingter Verdeckung insbesondere durch Hügel und Berge aus der jeweiligen virtuellen Ansicht des Nutzers/ Anwenders unterbunden wird. Stehen dagegen keine tauglichen digitalen Geländemodelle zur Verfügung und soll dennoch der ID- Viewer-Ansicht in der Stand-Alone-Anwendung ein weitgehend der Realität entsprechendes virtuelles Event-Feld unterlegt werden, so ist das Event-Feld zunächst hinsichtlich der geographischen Positionen einer ausreichenden Anzahl von Feldpunkten zu scannen, was z.B. durch streifenweises Abfahren/Abgehen des Feldes und eine währenddessen erfolgende Messung möglichst vieler Positionen durch GPS mit anschließender Speicherung erfolgt. Dies ist z. B. eine praktikable Technik zum Scannen eines hügeligen oder bergigen Motocross Event-Feldes. Bei vielen Event-Arten wird es häufig genügen, nur die Event-Strecke mittels Abfahren oder Abgehen zu scannen. Wird in Vorbereitung der Übertragung eines Radrennens per Abfahren z. B. der rechte Straßenrand eingescannt und auf dieser Grundlage bei einer angenommenen durchschnittlichen Straßenbreite von 6 m ein virtuelles (bei Scannung des rechten Straßenrandes nach links 6 m ausgedehntes) in seiner Breiten-Dimension stets waagerechtes virtuelles Straßenband generiert, welches aus der Von-Oben und der Von-Unten-Ansicht jeweils unterschiedlich eingefärbt ist, kann der Nutzer bzw. Anwender das Event-Geschehen dreidimensional aus allen Richtungen, sogar "von unten" virtuell verfolgen, auch wenn keine ausreichenden digitalen Geländemodelle für die Umgebung der Event-Strecke zur Verfügung stehen.
Um das Event-Geschehen auf einer Event-Strecke ausreichend interessant zu visualisieren, kann und es vorteilhaft sein, die Event-Strecke in der virtuellen Ansicht optisch zu verbreitern und die Teilnehmer auf der verbreiterten Strecke maßstabsgerecht zu dieser, also in der Breite „auseinandergezogen", zu positionieren. Eine solche Verbreitung der Event-Strecke bzw. des Event-Feldes kann anbieterseitig durch ein starres System bereits im Rechner des I D-Viewer-Systems oder aber auch durch ein flexibles System geschehen, indem der Anwender die optische Breite der Event-Strecke und damit das "Auseinanderziehen" der Teilnehmer in die Breite durch entsprechende Eingaben in die Fernbedienung, den Joystick oder ein anderes Eingabegerät selbst vorgibt.
Ebenso kann die Event-Strecke virtuell gestaucht werden, um die Bewegungen der Teilnehmer optisch zu verlangsamen und/oder Gefälle deutlicher sichtbar zu machen. Dies kann z. B. erfolgen durch Faktoranwendung auf die Höhenposition des Event- Feldes, die Event-Teilnehmer-Positionen bzw. Identifikationen und ggf. der Event- Gegenstande, ausgehend von einer zu definierenden O-Höhenposition. Stand-Alone-Anwendunq - Variante ohne digitale Geländemodelle:
Wie dargelegt, ist grundsätzlich bei virtuellen Ansichten/3D-Flügen von/über Event- Feldern) die Unterlegung des jeweiligen Event-Feldes in Form digitaler Geländekarten bzw. digitaler Geländemodelle (DGM) sinnvoll. Handelt es sich allerdings um ein in allen Punkten seiner Fläche zumindest idealtypischerweise planes Event-Feld, so kann sich bei der Darstellung bzw. rechnerischen Implementierung des Event-Feldes auch um eine photo-/graphische, vorzugsweise Von-Oben-Ansicht handeln, die dann entsprechend der jeweiligen Perspektive und der jeweiligen Geoposition des virtuellen Betrachters optisch verzerrt bzw. in „Schräglage" gebracht wird, so dass die Identifikationen der Event- Teilnehmer jeweils an der mit der Realität übereinstimmenden Stelle des Event-Feldes ausgegeben werden können.
Hierzu muss - erläutert am Beispiel eines Fußballfeldes - zweckmäßigerweise a) das photo-/graphische Event-Feld in der Von-Oben-Ansicht mit der Von-Oben-Ansicht des ID-Viewer-Bildes in Deckungsgleichheit gebracht werden. Dies kann z. B. dadurch geschehen, dass an den vier Eckpunkten eines Fußballfeldes vier Empfänger- Sendeeinheiten (die normalerweise die Geo-Positionen der Event-Teilnehmer ermitteln und übermitteln) positioniert werden und anschließend die vier Eckpunkte der photo- /graphischen Event-Feld-Ansicht mit dem Positionsbild (ID-Viewer-Ansicht) der vier Sender-Empfänger-Einheiten durch Vergrößern/Verkleinern und Verschieben der Ansichten in Übereinstimmung gebracht werden. b) in den Rechner die Höhe des hierbei mittig über dem Fu ßballfeld („Anstoßpunkt") (virtuell) positionierten virtuellen Betrachters als Ausgangsposition eingegeben wird. Verlässt der virtuelle Betrachter nun seine Position, so kann der Rechner auf der Basis der ihm zur Verfügung gestellten Daten nun jederzeit eine Event-Feld-Ansicht generieren, die der veränderten Perspektive des virtuellen Betrachters auf Grund seiner veränderten virtuellen Position entspricht und der die jeweiligen Positionen der Event-Teilnehmer nun übergeblendet werden können. Der Rechner ist nun auf Grund der ihm bekannten (z. B. per Joystick) eingegebenen Positionsveränderung des virtuellen Betrachters in der Lage, eine Ansicht des Spielfeldes insbesondere mit entsprechender Schräglage, Ausrichtung und Spielfeldgröße zu generieren. c) dem Rechner, wenn etwa eine photographische Ansicht unterlegt wird, ein etwaiger Verzerrungsalgorithmus eingegeben werden, der z. B. daraus resultiert, dass etwa bei einer normalen photographischen Ansicht von oben die Entfernungseinheiten vom Ansichtsmittelpunkt (Spielfeldmittelpunkt) aus zu allen Seiten hin optisch kleiner werden. Diese Maßnahme entfällt z. B., wenn das Ansichtsphoto vom Spielfeld von vornherein entzerrt wird und erst in dieser Form weitere Verwendung findet oder von vornherein eine maßstabsgerechte Von-Oben-Graphik des Spielfeldes verwendet wird.
Die Deckungsgleichheit der ID- Viewer-Ansicht und der photo-/graphischen Eventfeld- Ansicht kann selbstverständlich auch aus einer anderen als der genau eventfeldmittigen Von-Oben-Betrachtung heraus generiert werden, was allerdings zu einem aufwendigeren Verfahren führt.
Bei einem unplanen Event-Feld ist ein unterzulegendes digitales Geländemodell schon deshalb zu bevorzugen, weil im Fall von Erhöhungen und Vertiefungen des Event-Feldes die Unterlegung eines (zweidimensionalen) photo-/graphischen Event-Feldes evident zu optisch uneindeutigen Zuordnungen der jeweiligen Position des Event-Teilnehmers führen kann.

Claims

Patentansprüche
Verfahren zur Bereitstellung von Informationen in Echtzeit auf einem Bildschirm eines Nutzers zu mindestens einem menschlichen und/oder gegenständlichen Teilnehmer einer Veranstaltung, die mit mindestens einer Kamera aufgenommen und deren Aufnahme verbreitet und auf dem Bildschirm wiedergegeben wird, mit den Schritten:
- Bereitstellen eines Sender/Empfängers (3) eines Satelliten-Ortungssystems (4) an jedem der zu identifizierenden Teilnehmer (1 ) der Veranstaltung, wobei jeder Sender/Empfänger (3) mindestens eine individuelle Kennung aufweist, die den Teilnehmer (1 ) identifiziert oder Informationen über diesen enthält,
- Empfangen von Daten des Satelliten-Ortungssystems im jeweiligen Sender/Empfänger (3),
- Senden der empfangenen Daten oder aus diesen berechneter geographischer Positionsdaten zusammen mit der individuellen Kennung vom jeweiligen Sender/Empfänger (3) direkt oder indirekt an einen Computer (7), wobei der Computer (7) aus den Daten des Satelliten-Ortungssystems die geographischen Positionsdaten ermittelt, sofern diese nicht bereits im jeweiligen Sender/Empfänger (3) berechnet worden sind, so dass der Computer (7) die geographischen Positionsdaten und individuellen Kennungen zu sämtlichen Teilnehmern (1 ) aufweist, und
- Berechnen im Computer (7), welchen Bildkoordinaten der aufnehmenden Kamera (6) die erhaltenen geographischen Positionsdaten entsprechen,
- wobei die Kennungen oder aus diesen abgeleitete Informationen der Kameraaufnahme (60) fortlaufend derart überlagert werden, dass die Kennungen oder die abgeleiteten Informationen an den oder nahe der Bildkoordinaten eingeblendet werden, die den geographischen Positionsdaten der Teilnehmer (1 ) entsprechen, oder die Kennungen oder die abgeleiteten Informationen an diesen Bildkoordinaten fortlaufend auf einem zusätzlichen Bildschirm wiedergegeben werden.
Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die individuelle Kennung einen Personennamen und/oder eine Mannschaftszugehörigkeit und/oder einen Produktnamen und/oder Zusatzinformationen enthält oder kodiert.
Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das Senden der ermittelten geographischen Positionsdaten zusammen mit der individuellen Kennung vom jeweiligen Sender/Empfänger (3) an den Computer (7) unter Zwischenschaltung mindestens einer Zwischeneinheit erfolgt.
Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass zum Berechnen, welchen Bildkoordinaten der aufnehmenden Kamera die erhaltenen geographischen Positionsdaten entsprechen, der Computer (7) einen Bildausschnitt bestimmt, der mit dem aktuellen Bildausschnitt der Kamera deckungsgleich ist, und in diesem Bildausschnitt die Kennungen oder daraus abgeleitete Informationen an oder bei den geographischen Positionsdaten dargestellt werden.
Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass zur Bestimmung des Bildausschnitts eine Mehrzahl von Parametern der die Veranstaltung aufzeichnenden Kamera erfasst und ausgewertet, insbesondere
- die aktuelle Position der Kamera,
- den aktuellen Drehwinkel der Kamera,
- den aktuellen Neigungswinkel der Kamera,
- die aktuelle Schrägstellung der Kamera,
- den aktuellen Bildrahmen der Kamera,
- die aktuelle Zoomstufe der Kamera, und/oder
eventuelle Verzerrungsalgorithmen.
Verfahren nach Anspruch 4 oder 5, dadurch gekennzeichnet, dass die Kamera statisch angeordnet ist.
Verfahren nach Anspruch 4 oder 5, dadurch gekennzeichnet, dass die Kamera dynamisch angeordnet ist, wobei zur Berechnung des Bildausschnitts zusätzlich SD- Informationen zur aktuellen Position und Ausrichtung der Kamera im Raum ausgewertet werden.
Verfahren zur Bereitstellung von Informationen in Echtzeit auf einem Bildschirm eines Nutzers zu mindestens einem menschlichen und/oder gegenständlichen Teilnehmer (1 ) einer Veranstaltung, die in einem Event-Feld (2) stattfindet, mit den Schritten: - Bereitstellen eines Sender/Empfängers (3) eines Satelliten-Ortungssystems an jedem der zu identifizierenden Teilnehmer (1 ) der Veranstaltung, wobei jeder Sender/Empfänger (3) mindestens eine individuelle Kennung aufweist, die den Teilnehmer (1 ) identifiziert oder Informationen über diesen enthält, - Empfangen von Daten des Satelliten-Ortungssystems im jeweiligen Sender/Empfänger (3),
- Senden der empfangenen Daten oder aus diesen berechneter geographischer Positionsdaten zusammen mit der individuellen Kennung vom jeweiligen Sender/Empfänger (3) direkt oder indirekt an einen Computer (7), wobei der
Computer (7) aus den Daten des Satelliten-Ortungssystems die geographischen Positionsdaten ermittelt, sofern diese nicht bereits im jeweiligen Sender/Empfänger (3) berechnet worden sind, so dass der Computer (7) die geographischen Positionsdaten und individuellen Kennungen zu sämtlichen Teilnehmern (1 ) aufweist,
- Bereitstellen einer Abbildung (1 10) des Event-Feldes (2) oder eines Teilbereichs des Event-Feldes (2), wobei die Abbildung aus zuvor aufgezeichneten und/oder aufgenommenen Daten besteht oder aus solchen generiert wird; und
- Berechnen im Computer (7), welchen Bildkoordinaten der Abbildung (1 10) des Event-Feldes (2) oder des Teilbereichs die erhaltenen geographischen
Positionsdaten entsprechen,
- wobei die Kennungen oder aus diesen abgeleitete Informationen an den oder nahe der Bildkoordinaten, die den geographischen Positionsdaten der Teilnehmer (1 ) entsprechen, in der Abbildung (1 10) des Event-Feldes (2) oder des Teilbereichs fortlaufend aktuell wiedergegeben werden, und das dabei entstehende Bild zur Wiedergabe auf mindestens einem Bildschirm bereitgestellt wird.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die Abbildung des Event-Feldes (2) oder des Teilbereichs eine Darstellung eines zweidimensionalen
Event-Feldes, insbesondere in einer Ansicht von oben ist.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass die Darstellung des zweidimensionalen Event-Feldes entsprechend der Perspektive und/oder Geoposition eines virtuellen Betrachtes optisch verzerrt wird.
1 1 . Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass die Abbildung des Event-Feldes (2) eine Totalansicht des Event-Feldes ist. 12. Verfahren nach einem der Ansprüche 8 bis 1 1 , dadurch gekennzeichnet, dass die Abbildung des Event-Feldes (2) oder des Teilbereichs aufgrund von Daten eines digitalen Geländemodells bereitgestellt wird.
13. Verfahren nach einem der Ansprüche 8 bis 12, dadurch gekennzeichnet, dass die die Abbildung des Event-Feldes oder des Teilbereichs veränderlich ist.
14. Verfahren nach den Ansprüchen 12 und 13, dadurch gekennzeichnet, dass die Abbildung eine veränderliche 3D-Ansicht des Event-Feldes oder des Teilbereichs darstellt, wobei virtuelle Flüge durch das Geländemodell durchführbar sind.
15. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass mindestens ein Teilnehmer der Veranstaltung eine gesonderte visuelle Ortung erfährt und aufgrund der Daten dieser visuellen Ortung in der Abbildung (1 10) des
Event-Feldes (2) oder des Teilbereichs fortlaufend aktuell wiedergegeben werden.
16. Verfahren nach einem der Ansprüche 8 bis 15, dadurch gekennzeichnet, dass mindestens ein Teilnehmer der Veranstaltung unter zusätzlicher Darstellung der Bewegungs-Historie des Teilnehmers, beispielsweise durch Darstellung eines
Schweifes, in der Abbildung (1 10) des Event-Feldes (2) oder des Teilbereichs wiedergegeben wird.
17. Verfahren nach einem der Ansprüche 8 bis 16, dadurch gekennzeichnet, dass zu mindestens einem Teilnehmer der Veranstaltung zusätzlich eine Ausrichtung des
Teilnehmers erfasst und in der Abbildung (1 10) des Event-Feldes (2) oder des Teilbereichs fortlaufend aktuell wiedergegeben wird.
18. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass an jedem Teilnehmer (1 ) zusätzlich mindestens ein Sensor angeordnet ist, dessen Daten über den Sender/Empfänger (3) des Satelliten-Ortungssystems an den Computer (7) übertragen und ausgewertet werden.
19. Verfahren nach Anspruch 18, dadurch gekennzeichnet, dass der Sensor ein biometrischer Sensor ist, der biometrische Daten zu dem Teilnehmer (1 ), an dem der Sender/Empfänger (3) befestigt ist, überträgt.
20. Verfahren nach Anspruch 18, dadurch gekennzeichnet, dass mindestens zwei Schräglagesensoren vorgesehen sind und deren Daten im Hinblick auf ein Umfallen des Teilnehmers (1 ) ausgewertet werden.
21 . Verfahren nach Anspruch 18, dadurch gekennzeichnet, dass ein Beschleunigungsoder Verzögerungssensor vorgesehen ist, dessen Daten im Hinblick auf eine plötzliche Geschwindigkeitsänderung des Teilnehmers (1 ) ausgewertet werden. 22. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Kennungen oder aus diesen abgeleitete Informationen der Kameraaufnahme überlagert werden, bevor die Kameraaufnahme ausgestrahlt oder übertragen wird. 23. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Kennungen oder aus diesen abgeleitete Informationen als gesonderte Informationen übertragen und erst jeweils in einer Set-Top-Box der Nutzer der Kameraaufnahme überlagert werden.
24. Verfahren zur Bereitstellung von Informationen in Echtzeit auf einem Bildschirm eines Nutzers zu mindestens einem menschlichen und/oder gegenständlichen Teilnehmer (1 ) einer Veranstaltung, die in einem Event-Feld (2) stattfindet, mit den Schritten:
- Bereitstellen eines Sender/Empfängers (3) eines Satelliten-Ortungssystems an jedem der zu identifizierenden Teilnehmer (1 ) der Veranstaltung, wobei jeder Sender/Empfänger (3) mindestens eine individuelle Kennung aufweist, die den Teilnehmer (1 ) identifiziert oder Informationen über diesen enthält,
- Empfangen von Daten des Satelliten-Ortungssystems im jeweiligen Sender/Empfänger (3),
- Senden der empfangenen Daten oder aus diesen berechneter geographischer Positionsdaten zusammen mit der individuellen Kennung vom jeweiligen Sender/Empfänger (3) direkt oder indirekt an einen Computer (7), wobei der Computer (7) aus den Daten des Satelliten-Ortungssystems die geographischen Positionsdaten ermittelt, sofern diese nicht bereits im jeweiligen Sender/Empfänger (3) berechnet worden sind, so dass der Computer (7) die geographischen Positionsdaten und individuellen Kennungen zu sämtlichen Teilnehmern (1 ) aufweist,
- Bereitstellen einer virtuellen 3D-Abbildung (1 10) des Event-Feldes (2) oder eines Teilbereichs des Event-Feldes (2), wobei die 3D-Abbildung aufgrund von Daten eines digitalen Geländemodells bereitgestellt wird,
- Berechnen im Computer (7), welchen Bildkoordinaten der 3D-Abbildung (1 10) des Event-Feldes (2) oder des Teilbereichs die erhaltenen geographischen Positionsdaten entsprechen, - wobei die Kennungen oder aus diesen abgeleitete Informationen an den oder nahe der Bildkoordinaten, die den geographischen Positionsdaten der Teilnehmer (1 ) entsprechen, in der 3D-Abbildung (1 10) des Event-Feldes (2) oder des Teilbereichs fortlaufend aktuell wiedergegeben werden, und wobei
- ein virtueller Flug in der 3D-Abbildung auf der Grundlage einer definierbaren virtuellen Perspektive erfolgt.
25. Verfahren nach Anspruch 24, dadurch gekennzeichnet, dass ein virtueller Flug in der 3D-Abbildung aus einer mitlaufenden Perspektive eines der Teilnehmer erfolgt.
26. Verfahren nach Anspruch 24, dadurch gekennzeichnet, dass ein virtueller Flug in der 3D-Abbildung aus der Perspektive eines der Teilnehmer und dabei in Blickrichtung auf einen der weiteren Teilnehmer erfolgt. 27. Verfahren nach einem der Ansprüche 24 bis 26, dadurch gekennzeichnet, dass die virtuelle Perspektive durch einen Nutzer auswählbar ist.
28. System zur Bereitstellung von Informationen in Echtzeit auf einem Bildschirm eines Nutzers zu mindestens einem menschlichen und/oder gegenständlichen Teilnehmer (1 ) einer Veranstaltung, die in einem Event-Feld stattfindet, wobei das System mehrere Sender/Empfänger (3) eines Satelliten-Ortungssystems und einen Computer (7) aufweist, wobei:
- die Sender/Empfänger (3) an zu identifizierenden Teilnehmern (1 ) der Veranstaltung anbringbar sind,
- wobei jeder Sender/Empfänger (3) mindestens eine individuelle Kennung aufweist, die den Teilnehmer (1 ) identifiziert oder Informationen über diesen enthält,
- wobei jeder Sender/Empfänger (3) dazu ausgebildet ist, Daten des Satelliten- Ortungssystems zu empfangen,
- wobei jeder Sender/Empfänger (3) dazu ausgebildet ist, die empfangenen Daten oder aus diesen berechnete geographischer Positionsdaten zusammen mit der individuellen Kennung an den Computer (7) zu senden,
- wobei der Computer (7) aus den Daten des Satelliten-Ortungssystems die geographischen Positionsdaten ermittelt, sofern diese nicht bereits im jeweiligen Sender/Empfänger (3) berechnet worden sind, so dass der Computer (7) die geographischen Positionsdaten und individuellen Kennungen zu sämtlichen Teilnehmern (1 ) aufweist, - wobei der Computer (7) dazu ausgebildet ist, eine Abbildung des Event-Feldes (2) oder eines Teilbereichs des Event-Feldes (2) zu erhalten,
- wobei der Computer (7) oder eine mit diesem verbundene Einheit dazu ausgebildet ist zu berechnen, welchen Bildkoordinaten der Abbildung des Event- Feldes (2) oder des Teilbereichs die erhaltenen geographischen Positionsdaten entsprechen,
- wobei die Kennungen oder aus diesen abgeleitete Informationen an den oder nahe der Bildkoordinaten in der Abbildung fortlaufend aktuell wiedergegeben werden, die den geographischen Positionsdaten der Teilnehmer (1 ) entsprechen.
29. System nach Anspruch 28, dadurch gekennzeichnet, dass die Abbildung des Event-Feldes (2) oder des Teilbereichs das bewegte Aufnahmebild einer Kamera ist, die die Veranstaltung aufnimmt, wobei der Computer (7) die Kennungen oder aus diesen abgeleitete Informationen der Kameraaufnahme fortlaufend derart überlagert, dass die Kennungen oder die abgeleiteten Informationen an den oder nahe der
Bildkoordinaten eingeblendet werden, die den geographischen Positionsdaten der Teilnehmer (1 ) entsprechen, oder die Kennungen oder die abgeleiteten Informationen an diesen Bildkoordinaten fortlaufend auf einem zusätzlichen Bildschirm wiedergegeben werden.
30. System nach Anspruch 28, dadurch gekennzeichnet, dass die Abbildung des Event-Feldes (2) oder des Teilbereichs eine Abbildung ist, die aus zuvor aufgezeichneten und/oder aufgenommenen Daten besteht oder aus solchen generiert ist, wobei die Kennungen oder aus diesen abgeleitete Informationen an den oder nahe der Bildkoordinaten, die den geographischen Positionsdaten der Teilnehmer (1 ) entsprechen, in der Abbildung des Event-Feldes (2) oder des Teilbereichs fortlaufend aktuell wiedergegeben werden, und das dabei entstehende Bild zur Wiedergabe auf einem gesonderten Bildschirm an Dritte übertragen wird. 31 . System nach Anspruch 28 oder 30, dadurch gekennzeichnet, dass die Abbildung des Event-Feldes (2) oder des Teilbereichs eine virtuelle 3D-Abbildung (1 10) ist, die aufgrund von Daten eines digitalen Geländemodells bereitgestellt wird.
32. System nach Anspruch 31 , dadurch gekennzeichnet, dass der Computer (7) dazu ausgebildet ist, virtuelle Flüge in der 3D-Abbildung auf der Grundlage definierbarer virtueller Perspektiven zu erzeugen.
33. System nach einem der Ansprüche 28 bis 32, dadurch gekennzeichnet, dass der Computer (7) zum Berechnen, welchen Bildkoordinaten der Abbildung des Event- Feldes (2) die aktuellen geographischen Positionsdaten der Teilnehmer (1 ) entsprechen, einen Bildausschnitt berechnet, der mit der Abbildung des Event-Feldes (2) deckungsgleich ist, und in diesem Bildausschnitt die Kennungen oder daraus abgeleitete Informationen an oder bei den geographischen Positionsdaten darstellt.
34. System nach einem der Ansprüche 28 bis 33, dadurch gekennzeichnet, dass der Computer (7) eine zentrale Recheneinheit darstellt.
35. Computer zur Bereitstellung von Informationen in Echtzeit auf einem Bildschirm eines Nutzers zu mindestens einem menschlichen und/oder gegenständlichen Teilnehmer (1 ) einer Veranstaltung, die in einem Event-Feld stattfindet, wobei der Computer dazu ausgebildet ist:
- Daten mindestens eines Sender/Empfängers (3) eines Satelliten-Ortungssystems zu empfangen, wobei jeder Sender/Empfänger (3) jeweils an einem zu identifizierenden Teilnehmer (1 ) der Veranstaltung anbringbar ist, jeder Sender/Empfänger (3) mindestens eine individuelle Kennung aufweist, die den Teilnehmer (1 ) identifiziert oder Informationen über diesen enthält, und jeder Sender/Empfänger (3) dazu ausgebildet ist, Daten des Satelliten-Ortungssystems zu empfangen und die empfangenen Daten oder aus diesen berechnete geographischer Positionsdaten zusammen mit der individuellen Kennung an den Computer (7) zu senden,
- aus den Daten des Satelliten-Ortungssystems die geographischen Positionsdaten der Sender/Empfänger (3) zu ermitteln, sofern diese nicht bereits im jeweiligen
Sender/Empfänger (3) berechnet worden sind, so dass der Computer (7) die geographischen Positionsdaten und individuellen Kennungen zu sämtlichen Teilnehmern (1 ) aufweist,
- eine Abbildung des Event-Feldes (2) oder eines Teilbereichs des Event-Feldes (2) zu erhalten oder zu berechnen,
- zu berechnen, welchen Bildkoordinaten der Abbildung des Event-Feldes (2) oder des Teilbereichs die erhaltenen geographischen Positionsdaten entsprechen,
- wobei der Computer (7) weiter dazu ausgebildet ist, die Kennungen oder aus diesen abgeleitete Informationen an den oder nahe der Bildkoordinaten in der Abbildung fortlaufend aktuell wiederzugeben, die den geographischen
Positionsdaten der Teilnehmer (1 ) entsprechen, und das dabei entstehende Bild zur Wiedergabe auf mindestens einem Bildschirm bereitzustellen.
PCT/EP2013/058742 2013-04-26 2013-04-26 Verfahren, system und computer zur bereitstellung von informationen in echtzeit auf einem bildschirm eines nutzers zu mindestens einem menschlichen und/oder gegenständlichen teilnehmer einer veranstaltung WO2014173454A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/EP2013/058742 WO2014173454A1 (de) 2013-04-26 2013-04-26 Verfahren, system und computer zur bereitstellung von informationen in echtzeit auf einem bildschirm eines nutzers zu mindestens einem menschlichen und/oder gegenständlichen teilnehmer einer veranstaltung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2013/058742 WO2014173454A1 (de) 2013-04-26 2013-04-26 Verfahren, system und computer zur bereitstellung von informationen in echtzeit auf einem bildschirm eines nutzers zu mindestens einem menschlichen und/oder gegenständlichen teilnehmer einer veranstaltung

Publications (1)

Publication Number Publication Date
WO2014173454A1 true WO2014173454A1 (de) 2014-10-30

Family

ID=48520904

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2013/058742 WO2014173454A1 (de) 2013-04-26 2013-04-26 Verfahren, system und computer zur bereitstellung von informationen in echtzeit auf einem bildschirm eines nutzers zu mindestens einem menschlichen und/oder gegenständlichen teilnehmer einer veranstaltung

Country Status (1)

Country Link
WO (1) WO2014173454A1 (de)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1042282A (ja) * 1996-04-23 1998-02-13 Shigeyuki Yamaguchi 映像提示システム
DE10029464A1 (de) 2000-03-06 2001-09-20 Cairos Technologies Ag Einrichtung und Verfahren zur medialen Aufbereitung von statischen Zuständen und/oder Bewegungsabläufen
US20090027494A1 (en) * 2007-07-27 2009-01-29 Sportvision, Inc. Providing graphics in images depicting aerodynamic flows and forces
EP2106830A1 (de) * 2008-03-07 2009-10-07 Virtually Live Ltd Mediensystem und Verfahren
US20100257448A1 (en) * 2009-04-06 2010-10-07 Interactical Llc Object-Based Interactive Programming Device and Method
US7901292B1 (en) * 2004-04-15 2011-03-08 Navteq North America, Llc Method for comparing performances on remotely located courses
US7934983B1 (en) * 2009-11-24 2011-05-03 Seth Eisner Location-aware distributed sporting events
US20120004956A1 (en) * 2005-07-14 2012-01-05 Huston Charles D System and Method for Creating and Sharing an Event Using a Social Network

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1042282A (ja) * 1996-04-23 1998-02-13 Shigeyuki Yamaguchi 映像提示システム
DE10029464A1 (de) 2000-03-06 2001-09-20 Cairos Technologies Ag Einrichtung und Verfahren zur medialen Aufbereitung von statischen Zuständen und/oder Bewegungsabläufen
US7901292B1 (en) * 2004-04-15 2011-03-08 Navteq North America, Llc Method for comparing performances on remotely located courses
US20120004956A1 (en) * 2005-07-14 2012-01-05 Huston Charles D System and Method for Creating and Sharing an Event Using a Social Network
US20090027494A1 (en) * 2007-07-27 2009-01-29 Sportvision, Inc. Providing graphics in images depicting aerodynamic flows and forces
EP2106830A1 (de) * 2008-03-07 2009-10-07 Virtually Live Ltd Mediensystem und Verfahren
US20100257448A1 (en) * 2009-04-06 2010-10-07 Interactical Llc Object-Based Interactive Programming Device and Method
US7934983B1 (en) * 2009-11-24 2011-05-03 Seth Eisner Location-aware distributed sporting events

Similar Documents

Publication Publication Date Title
US10152826B2 (en) Augmented reality display system, terminal device and augmented reality display method
DE69904492T3 (de) Computerspiel
EP2474162B1 (de) Verfahren und vorrichtung zur relativen steuerung mehrerer kameras
EP2464098B1 (de) Umfeld-Darstellungsvorrichtung sowie ein Fahrzeug mit einer derartigen Umfeld-Darstellungsvorrichtung und Verfahren zur Darstellung eines Panoramabildes
DE60020123T2 (de) System zur simulation von ereignissen in einer echten umgebung
US9813610B2 (en) Method and apparatus for relative control of multiple cameras using at least one bias zone
DE112012001022T5 (de) Ausrichtungssteuerung in einem am Kopf zu tragenden Gerät mit erweiterter Realität
DE60213526T2 (de) Verfahren und System zur Verbesserung des Situationsbewusstseins von Kommando-Kontrolleinheiten
EP3410405A1 (de) Verfahren zur darstellung von virtueller information in einer ansicht einer realen umgebung
EP2880853B1 (de) Vorrichtung und verfahren zur bestimmung der eigenlage einer bildaufnehmenden kamera
WO2017103270A1 (de) Verfahren und vorrichtung zur bewegungsanalyse eines sportgeräts
DE102010037169A1 (de) Uneingeschränktes räumlich ausgerichtetes Blickfeld-Darstellungsgerät
DE112017006836T5 (de) Informationsverarbeitungsgerät, informationsverarbeitungsverfahren und programm
DE10029463A1 (de) Auswerteeinheit und Verfahren zur Auswertung von statischen Zuständen und/oder Bewegungsabläufen
EP2350977B1 (de) Verfahren zur bildfusion von zumindest zwei bildern zu einem panoramabild
CN109120901A (zh) 一种摄像机间画面切换的方法
EP3012712A1 (de) Virtuelles zeichnen in realer umgebung
US9906769B1 (en) Methods and apparatus for collaborative multi-view augmented reality video
WO2017144049A1 (de) Verfahren zum betrieb einer anzeigevorrichtung und system zur anzeige von realen bildinhalten einer realumgebung überlagerten virtuellen bildinhalten
WO2014173454A1 (de) Verfahren, system und computer zur bereitstellung von informationen in echtzeit auf einem bildschirm eines nutzers zu mindestens einem menschlichen und/oder gegenständlichen teilnehmer einer veranstaltung
WO2005088541A1 (de) Echtzeit-bewegungsanalysevorrichtung
DE102011009952A1 (de) Verfahren zum Bestimmen der Position und Lage eines Astronauten
WO2014071918A1 (de) Verfahren zur aufnahme und wiedergabe einer abfolge von ereignissen
DE102014202712A1 (de) Bildanpassung für kontaktanaloge Darstellungen auf Datenbrillen
DE10039384A1 (de) Verfahren und Vorrichtung zur Bestimmung von Positionsdaten von beweglichen Objekten, zur Auswertung von Ereignissen und/oder zur Bestimmung der Relationen zwischen beweglichen Objekten

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13725087

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13725087

Country of ref document: EP

Kind code of ref document: A1