EP1609307B1 - Image reproduction device - Google Patents

Image reproduction device Download PDF

Info

Publication number
EP1609307B1
EP1609307B1 EP01982397A EP01982397A EP1609307B1 EP 1609307 B1 EP1609307 B1 EP 1609307B1 EP 01982397 A EP01982397 A EP 01982397A EP 01982397 A EP01982397 A EP 01982397A EP 1609307 B1 EP1609307 B1 EP 1609307B1
Authority
EP
European Patent Office
Prior art keywords
image data
processing unit
image
unit
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
EP01982397A
Other languages
German (de)
French (fr)
Other versions
EP1609307A1 (en
Inventor
Margit Frank
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE10062503A external-priority patent/DE10062503A1/en
Application filed by Individual filed Critical Individual
Publication of EP1609307A1 publication Critical patent/EP1609307A1/en
Application granted granted Critical
Publication of EP1609307B1 publication Critical patent/EP1609307B1/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • H04N5/58Control of contrast or brightness in dependence upon ambient light

Definitions

  • the present invention relates to an image reproducing apparatus having an input unit for receiving image data connected to an image data source and an output unit for outputting image data at least indirectly connected to the input unit and configured to output image data to an image display such as a screen issue.
  • Such systems are widely known, for example, females are used to reproduce images.
  • a video recorder which plays back image data stored on a video cassette and which receives and reproduces a monitor.
  • Such a picture display system consisting of video recorder and television monitor has the disadvantage that it can only reproduce recorded picture information.
  • the image playback system is not able to react to external influences.
  • Image reproduction systems that can at least partially respond to external influences are known from public transport. For example, monitors are placed in subway stations to present advertisements to passers-by. These images are simply played from an image data source that stores the images.
  • An image reproducing apparatus comprises: an input unit for receiving image data connected to an image data source and an output unit for outputting image data at least indirectly connected to the input unit and configured to output image data to an image display such as a screen; a processing unit having an input for receiving at least one temporally variable parameter originating externally from outside the device, the processing unit being connected to the input unit and the output unit and being designed to receive image data received from the input unit in subregions defined by masks as a function of the parameters continuously change and output to the output unit. At least one of the parameters is deprived of direct influence by a user or viewer.
  • the image display receives the image data in the appropriate form from the output unit, which in turn is connected to the processing unit. This receives the time-variable parameter via an input.
  • the image data originating from the image data source are continuously changed by the processing unit in partial areas depending on the parameter. It is thus possible for the device for image reproduction to respond to the parameters in such a way that the reproduced images are changed in partial areas.
  • the change in the images thus not only causes the display of a completely different image, but also the display of an image changed in some areas. Also, the reproduced images no longer correspond to an image originating from an image data source, but are changed from it.
  • the image data reproduced after processing are new and their appearance is determined solely by the dependence between the incoming parameters and the associated change of the image data by the processing unit.
  • the continuous dependencies of the image processing effects on the input parameters are coordinated via a sequence control and optionally varied in time according to a user.
  • the temporal variation can be both spontaneously during the ongoing processing, as well as in advance.
  • the sequence control is designed in such a way that the incoming measurement results and images are optimized depending on the performing medium, its image size, refresh rate, color depth and contrast range. For the same input data, so different images are generated, for example, as regards the richness of detail, yet convey the same message. This will be further illustrated in the context of the dissemination of image data over networks.
  • the device according to the invention is thus able to respond in a much more differentiated manner to external events, as is known from the prior art.
  • post-production systems such as Photoshop, Flame and others are known from the prior art. These are intended to edit stored on a storage medium image data by means of a personal computer targeted.
  • the effects of input commands for image editing are displayed on the screen of the PC.
  • the PC receives no time-varying parameters such as temperature or brightness of a particular environment via an input, but commands via a keyboard or other input means for targeted and predictable editing of images.
  • the image changes produced by these image processing programs are usually pre-produced as effects.
  • the continuous change of image parameters such as color and brightness as a function of an external parameter can not be made visible by means of these programs. Instead, initial and final states of image parameters are calculated in these post-production systems.
  • the intermediate states are either pre-produced dynamically, achieved by effect filters or determined by a mixture of the initial and final states. However, a recalculation in the strict sense does not take place. Such solutions are sufficient as long as the information to contain the image data as the final product is predictable. However, the requirements change as soon as unpredictable events affect the displayed image. In this case, the change of the image data must be continuous depending on the parameters. That is, a parameter value P (t) received at a certain time t causes a change in the image data BD (t) received at the same time t. If the change of the image data takes place for a limited time sequence of successive image data and parameter values as described above, there is a continuous change of the image data as a function of the parameter.
  • the manipulation of the image data by the processing unit thus represents a procedural animation of the image data in the area of the masks.
  • the masks can be fixed or can themselves be changed depending on the parameters, so that the masks themselves undergo a procedural animation.
  • the received parameters represent events outside the device.
  • An external event is any form of temporal change that is not generated by the device itself but is received via the input of the processing unit. Any conceivable physical variable such as brightness, volume or temperature can serve as a parameter.
  • the parameters may also represent events such as the landing of an aircraft, the current value of a stock index or the number of accesses to an Internet site.
  • the image processing apparatus is set in relation to its environment. The changes in the reproduced image in their own way reflect the events outside the device. For the unbiased viewer, the observation of the image is of high entertainment value, especially if it itself can manipulate the image changes as part of the environment of the device, and generally serves to intuitively capture information.
  • the processing unit is configured to change the image data by performing computational processes that realizes the change of the image data by the parameters.
  • the one of the processing unit The calculation process performed is based on an algorithm that determines how the parameters affect the image data.
  • the actual changes that occur are also a function of the time-varying parameter and thus unique for each value of the parameter. With prior knowledge of the incoming parameter, the temporal changes of the image data are determined, but since the knowledge of this parameter is generally unknown, the altered image data is unpredictable.
  • the processing unit of the device according to the invention is preferably designed such that it changes the received image data on the basis of the parameters in real time.
  • a processing unit if necessary with the components of the device directly connected with it, is also referred to below as "real-time system".
  • real-time system By changing the image data in real time, it is understood that if it is impossible for a human observer to detect a delay in processing.
  • Such a real-time change thus represents for an observer a temporally direct relationship between the received parameters and the reproduced image.
  • the device is thus able to reflect the current events in a different form. By looking at the reproduced image, the current external events can be derived by thought.
  • the reproduced image thus represents a decipherable code, that is to say a kind of language, which represents the external events.
  • the processing unit can also be designed such that it changes the image parameters of the received image data such as color, brightness, contrast, gradation or sharpness.
  • the image parameters are related to the parameters that represent the environment of the device.
  • the appearance of a changed portion of the rendered image thus represents a complex representation of different events.
  • the processing unit can also be configured to change from a plurality of pixels composite image objects by influencing their position in the (virtual) space, their surface texture or the like.
  • the image objects can also be calculated three-dimensionally.
  • the processing unit is designed either to time-transform image objects of the temporally variable (control) parameter or also to regenerate new, not only naturalistic but also artificial appearing image objects as a function of the time-variable parameter and to add them to the incoming image data ,
  • the processing unit is preferably designed to influence the dynamics of image sequences or image sequences, either by direct, time-controlled influencing of the incoming image data or by processing dependent on the temporally variable (control) parameter-dependent processing and stored sequences.
  • a special embodiment of the invention is characterized in that the output unit is designed to output the changed image data to image displays via the Internet or television picture transmitter.
  • the output unit is designed to output the changed image data to image displays via the Internet or television picture transmitter.
  • the device according to the invention comprises a control unit which is connected to the sensor and the output unit and is suitable for controlling the sensor, the control unit receiving image data from the output unit and controlling the sensor in dependence on the image data received from the output unit. This returns the output, changed images with the image data source.
  • the device comprises an input unit connected to the processing unit for determining the processing processes of the processing unit.
  • This allows an "author" to specify how the parameters change the image data.
  • the computing processes performed by the processing unit can be determined via the input unit.
  • the input unit has a user interface that visualizes the computing processes of the processing unit. The author can thus check at any time, which computational processes are performed by the processing unit. Particularly in connection with the use of image masks, the speed and intensity of the image change can be determined by the input unit. specify by fading in and out of the masks.
  • the input unit can also be an authoring system mentioned below.
  • the computing processes of the processing unit can also serve to simulate the movement of liquids, gases, physical particles or solids.
  • the parameters received by the sensor thus produce changes that appear to the viewer of the image as the movements of real fluids, gases, or solids.
  • solid bodies also include living objects such as animals, humans and plants.
  • the illustrated image changes create the illusion of a real movement, such as that of a water jet.
  • the Navier-Stokes equation is preferably used.
  • the Navier-Stokes equation describes the motion of flowing substances whose velocity of motion is well below the speed of sound.
  • the observed in everyday life liquids such as water droplets are described for example by the Navier-Stokes equation.
  • the Navier-Stokes equations the previously mentioned, artificial image objects can also be generated.
  • the apparatus includes an image data source 2.
  • the image data source 2 any storage medium for images such as video cassettes, photographs, DVD disks, and hard disks is contemplated.
  • the image data is reproduced by the input unit 1.
  • the input unit can be the image data sources corresponding playback devices such as VCR, DVD drive or the read head of a hard drive can be used.
  • the input unit 1 transmits the reproduced image data to the processing unit 6.
  • the processing unit 6 receives temporally variable information from a sensor 5.
  • an electronic computer capable of performing various operations on the received image data is usually employed perform. First, the processing unit 6 selects from the received image data a partial area defined by a mask.
  • the manipulation of the image data occurs only within the selected mask.
  • the position and size of the mask can be predetermined, so that the processing unit 6 only has to recognize the image data to be processed on the basis of the mask.
  • the processing unit 6 automatically determines a mask by means of predetermined mask recognition methods.
  • the processing unit 6 may be configured to determine the masks in dependence on the parameters received from the sensor 5.
  • any type of detector can be used, which detects such variables as temperature or brightness of a particular environment. It is also possible to use a plurality of detectors combined with one another so that the sensor 5 can receive a plurality of different information and forward it to the processing unit 6. The different information reaches the processing unit 6 as time-variable parameters.
  • the image data transmitted by the input unit 1 are generally not changed by the processing unit 6 when the processing unit 6 does not receive information from the sensor 5.
  • the processing unit 6 calculates new image data by means of a predetermined arithmetic operation from the received parameters and the image data in the masks to be changed.
  • the dependence of the change of the image data on the received parameters can be chosen arbitrarily.
  • an input unit 7 is provided. This input unit 7 allows a user to determine how the processing unit 6 changes the image data in dependence on the parameters, that is, which arithmetic operations are used and to what extent.
  • As input unit 7 may be provided a keyboard or an electronic pen.
  • the image data is finally sent from the processing unit 6 to an output unit 3 issued.
  • the output unit ensures that the image data is output to an image display 4 in a suitable form. In particular, it can be provided to output the image data to a plurality of image displays 4 in different forms. If the transmission takes place on image displays 4 via the Internet, the output unit ensures that the image data are continuously retrievable as compressed data packets from an Internet site. The retrieval of the data packets is carried out automatically by means of suitable software, which ensures that the image data are displayed on the corresponding screen. As image display 4, any type of monitor or projector can be used.
  • a control unit 8 for controlling the sensor 5 is provided which also receives the image data output from the output unit 3.
  • control unit 8 converts the received image data into control commands for controlling the sensor 5.
  • control unit 8 changes, for example, the position or orientation of the sensor 5.
  • control of the sensor 5 may be to increase or decrease its sensitivity.
  • the image data changed as a function of the parameters of the sensor 5 thus in turn cause a change in the parameters received via the sensor 5 via the control unit 8.
  • Fig. 2 shows a block diagram of the processing unit 6 according to the first embodiment.
  • a mask recognition unit 10 is provided, which ensures that subareas to be processed of the image data received by the input unit 1 are selected.
  • the mask recognition unit 10 is connected to the input unit 1.
  • the mask recognition unit 10 selects the image data to be processed on the basis of predetermined mask recognition methods and transmits them to a mask processing unit 11.
  • the remaining image data are buffered by the mask recognition unit 10 in an image data memory 12.
  • the mask processing unit 11 receives, in addition to the image data to be processed, time-varying parameters from the sensor 5, and calculates new image data depending on the received image data and the received parameters.
  • the mask processing unit 11 does not receive parameter information from the sensor 5, it outputs the image data obtained from the mask recognition unit 10 unchanged to a mixing unit 14.
  • This is connected to the mask processing unit 11 and the image data memory 12 and reassembles the image data unchanged from the mask processing unit 11 with the image data stored in the image data memory 12.
  • the composite image data in this case correspond to the image data originally transmitted from the input unit 1 and are then transmitted from the mixing unit 14 to the output unit 3.
  • the mask processing unit 11 when it receives temporally variable parameters from the sensor 5, it computes new image data for the mask area.
  • the algorithm for calculating the new image data is stored in an operation memory 13.
  • the mask processing unit 11 accesses the operation memory 13 to perform the calculation process for calculating new image data stored therein.
  • the operation memory 13 is in turn connected to the input unit 7, which is provided to determine the operations of the mask processing unit 11 by storing the operations to be performed via the input unit 7 in the operation memory 13.
  • the mask processing unit 11 transmits the newly calculated image data to the mixing unit 14. This composes the newly calculated image data with the image data stored in the image data memory 12, so that an image data set is produced which differs in the mask area from the image data input via the input unit 1.
  • This image data set is in turn output from the mixing unit 14 to the output unit 3.
  • the operation memory 13 is also provided to store the mask detection operations to be performed by the mask recognition unit 10. These operations can also be written into the operation memory 13 via the input unit 7.
  • the mask recognition unit 10 is connected to the operation memory 13 and executes the mask recognition operations stored therein.
  • Fig. 3 shows the second embodiment of the present invention.
  • the features corresponding to the first embodiment are denoted by the same reference numerals.
  • a processing unit 9 is shown, which has extended possibilities. This processing unit is in detail in Fig. 4 shown. However, the processing unit 9 still causes a change in the incoming image data depending on the parameters.
  • the control unit 8 has a second input, via which it receives the unchanged image data from the input unit 1.
  • the control unit 8 is also designed to control the sensor 5 both in response to the changed image data from the output unit 3 and in dependence on the unchanged image data from the input unit 1.
  • control unit 8 can be designed such that it collects a difference between the unchanged image data and the changed image data and controls the sensor as a function of the difference. This difference corresponds to the change of the image data in the area of the masks.
  • the control of the sensor is thus a function of the change of the image data.
  • Fig. 4 shows the processing unit 9 of the second embodiment in detail.
  • the same components of the processing unit as in Fig. 6 are indicated by the same reference numerals.
  • a second mask processing unit 15 is provided in addition to a first mask processing unit 11, the mask processing unit Fig. 2 corresponds.
  • This is connected to a mask memory 17 and a parameter memory 16, in which the parameters derived from the sensor are stored.
  • the second mask processing unit 15 accesses these memories to change the image data in the mask area.
  • the change of the image data is carried out according to the principle of the superimposition of so-called image layers.
  • Image data suitable for the overlay are stored in the mask memory 17.
  • the image data obtained in this way are available at the output of the mask processing unit 15 and can be mixed in the mixing unit 14 with the image data output in real time by the first mask recognition unit 11. In this way it is possible, depending on the parameter originating from the sensor, to achieve cross-fading effects between the image data stored in the mask memory 17 and the image data originating from the first mask recognition unit 10 within image sections defined by the respective masks.
  • the degree of the cross-fading is already determined by the second mask processing unit 15, in which the image data originating from the mask memory 17 is amplified or attenuated as a function of the parameter stored in the parameter memory 16.
  • the image data originating from the input unit 1 are already amplified or attenuated in the first mask processing unit 11 as a function of the parameter originating from the sensor, so that the already mentioned cross-fading effects result from superposition of the image data processed in this way for certain masks.
  • the modification of image data in the manner described last by superimposition with image data previously stored in the mask memory 17 is associated with a lower computation outlay than the completely new calculation of image data for specific masks, so that the embodiment of FIG. 4 is suitable to realize the real-time image manipulation as a function of the parameter with less computational effort.
  • the input unit 7 may be directly connected to the layer memory 17 and the mask processing unit 15, for example, to make the mask processing dependent on the input image signal.
  • the processing unit is adapted to OpenGL.
  • OpenGL is a standardized interface that allows you to program a variety of graphics operations. The operations are performed either in software on the central processor or on the graphics card, depending on the system configuration. OpenGL is standardized and exists for a variety of different systems, so programs can be transferred with relatively little effort if the standard is adhered to. OpenGL is also a quasi-standard for three-dimensional image processing, but its potential in the two-dimensional area is hardly exhausted.
  • a network may include, in addition to direct, wired connections, radio or satellite links, or the like.
  • the hardware that is used to generate the data in real time is complex and requires a high degree of technical infrastructure and reliability all components; this requires a certain amount of space.
  • the various displays should be as mobile and undemanding as possible in order to be very flexible everywhere.
  • a computer system can certainly record any number of displays with content, which considerably reduces the cost per recorded display.
  • a local processing unit is provided in the display, which makes a local adjustment of the global image streams with relatively little computational and financial outlay. This method will be described in more detail later.
  • Real-time compression can significantly reduce transmission rates and costs, but places high demands.
  • Each terminal receives a comparatively simple and cheap own image processing unit to the from the Server to enrich coming, elaborately designed material with interactive and local aspects.
  • the server image stream at least one level is defined, which is changed in accordance with the image composition by the display.
  • only explicitly released areas in the local image processing unit are processed in order to integrate locally acquired data.
  • the authoring system (input unit) consists of a configuration module and a processing module.
  • the configuration module specifies the hardware of the system. This includes the number of screens, the specification of the input data (measuring stations, music, interaction components), etc.
  • the interactive editing module maps procedures (CFD, image processing) and masks to the actual video stream on a frame basis, which in turn are linked to the input data. In this way, the video image can be edited creatively.
  • the specified sequences must already be simulated in the processing module. Both the data generated in the configuration module and in the processing module are saved in a specially designed data format. As a result, any scripts and configurations can be generated and reused at any time.
  • a new video data stream is composed of one or more video input streams, CFD, and procedurally controlled image manipulation.
  • the real-time system reads the configuration and the editing file.
  • temporal boundary conditions play a minor role in the authoring system.
  • Interactive response times are perfectly adequate.
  • the user interface which can even be completely dispensed with in the case of the real-time system, depending on the application.
  • a user interface for the real-time system is only interesting if the system is to respond directly to the users. This is e.g. This is the case if one of the output devices contains a touch screen that allows the user to control the images, or if the video should respond to voice input.
  • the input data streams converge.
  • the composition module builds a 3D scene with video textures and generates and animates masks on the frames of the input video, eg with the aid of the stencil buffer.
  • the composition module communicates with the input module, the CFD module, the volume visualizer, and the image processing unit.
  • the 3D scene description is modified accordingly and finally rendered and the image is forwarded to the image output unit.
  • the image output unit can be omitted if, for example, the image data is passed directly from the frame buffer via a VGA interface to a corresponding output device. Otherwise, appropriate compression algorithms and archiving methods can be implemented as required.
  • the input unit usefully encapsulates the different input data streams (scalar values) through a normalized interface.
  • a graphics computer which supports video textures.
  • the hardware must have a sufficiently fast bus and a sufficiently fast disk access to store the output video stream.
  • the software interfaces also play a significant role in the selection of a system.
  • various manufacturers offer the corresponding software support in the form of an extension of the standard OpenGL instruction set with commands for video texturing and image processing in hardware. These possibilities (also in the form of expansion cards) exist on practically all platforms. The most important differences are here regarding the resolution and the number of video streams that can be processed in real time.
  • Desirable hardware features are: support of DVE (Digital Video Editing), many image processing operations in hardware, such as Texture filtering, convolution, histogram creation, color matrix and linear color space conversion, lookup tables with up to 4096 color entries, atmospheric effects, e.g. Fog.
  • DVE Digital Video Editing
  • image processing operations in hardware such as Texture filtering, convolution, histogram creation, color matrix and linear color space conversion, lookup tables with up to 4096 color entries, atmospheric effects, e.g. Fog.
  • the pre-produced sequences are preferably 10-12 minutes long, they can not be held in RAM but must be loaded to process external media.
  • the video stream must be decompressed in real time. If several layers are to be mixed, then at the time of mixing the layers must be available as uncompressed video streams. Because of the high bandwidth required, preferably fast memory accesses of a shared memory architecture come into question here.
  • a hardware bandwidth of 80OMB / sac peak performance is basically sufficient, for example, to load 5 video data streams from memory, merge them into one processor (when only performing very basic operations) and write them back to memory as a data stream.
  • POSIX threads are supported by the IRIX operating system of Silicon Graphics Inc. (SGI). Since the necessary data transfer rates are very high at 5 layers and 1024 x 1280 resolution, a great deal of care must be taken when implementing software of any kind, since the synchronization effects of each instruction must be considered.
  • SGI Silicon Graphics Inc.
  • the loading of a (video data) stream can usually be carried out much more efficiently than that of multiple streams, for example repositioning the hard disk head occur less frequently, etc. Also other operations, such as reading the data on so-called “slave” computers and transfer to the "Master” calculators such as via Fast Ethemet remain in a similar range. To limit the bandwidth for video streaming, it is useful to compress the video data, depending on the hardware.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Emergency Management (AREA)
  • Environmental & Geological Engineering (AREA)
  • Environmental Sciences (AREA)
  • Remote Sensing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The invention relates to an image reproduction device comprising an input unit (1) which is used to receive image data and which is connected to an image data source (2), and an output unit (3) which is used to emit image data and which is at least indirectly connected to the input unit (1). The output unit is embodied in such a way that it supplies image data to at least one image display screen (4). A processing unit (6, 9) comprises an input for receiving at least one temporally changeable parameter (5). The processing unit (6, 9) is connected to the input unit (1) and the output unit (3), and is embodied in such a way that the image data received by the input unit (1) is continuously modified according to parameters in partial regions defined by masks, and the image data is supplied to the output unit (3).

Description

Die vorliegende Erfindung betrifft eine Vorrichtung zur Bildwiedergabe mit einer Eingangseinheit zum Empfangen von Bilddaten, die mit einer Bilddatenquelle verbunden ist, und einer Ausgangseinheit zum Ausgeben von Bilddaten, die zumindest mittelbar mit der Eingangseinheit verbunden ist und ausgebildet ist, Bilddaten an eine Bildanzeige wie einen Bildschirm auszugeben.The present invention relates to an image reproducing apparatus having an input unit for receiving image data connected to an image data source and an output unit for outputting image data at least indirectly connected to the input unit and configured to output image data to an image display such as a screen issue.

Solche Systeme sind weitgehend bekannt, beispielsweise werden Femsehmonitore dazu verwendet Bilder wiederzugeben. Als Bilddatenquelle dient häufig ein Videorekorder, der auf einer Videokassette abgespeicherte Bilddaten abspielt, die ein Monitor empfängt und wiedergibt. Ein solches Bildwiedergabesystem bestehend aus Videorekorder und Fernsehmonitor hat den Nachteil, dass es lediglich aufgezeichnete Bildinformationen wiedergeben kann. Das Bildwiedergabesystem ist nicht in der Lage auf äußere Einflüsse zu reagieren. Bildwiedergabesysteme, die zumindest zum Teil auf äußere Einflüsse reagieren können sind aus dem öffentlichen Nahverkehr bekannt. Monitore werden beispielsweise in U-Bahnhöfen aufgestellt, um Passanten Werbung zu präsentieren. Diese Bilder werden einfach von einer Bilddatenquelle abgespielt, auf der die Bilder gespeichert sind.Such systems are widely known, for example, females are used to reproduce images. Frequently used as an image data source is a video recorder which plays back image data stored on a video cassette and which receives and reproduces a monitor. Such a picture display system consisting of video recorder and television monitor has the disadvantage that it can only reproduce recorded picture information. The image playback system is not able to react to external influences. Image reproduction systems that can at least partially respond to external influences are known from public transport. For example, monitors are placed in subway stations to present advertisements to passers-by. These images are simply played from an image data source that stores the images.

Wenn jedoch ein Zug einfährt, so wird dem Zuschauer auf den Monitoren ein Bild präsentiert, das ihn auf dieses Ereignis aufmerksam macht. Beispielsweise erscheint auf dem Monitor der Hinweis: "Achtung ein Zug fährt ein". Die Interaktivität mit der Umgebung wird dadurch erreicht, dass im Fall eines einfahrenden Zuges, der Monitor seine Informationen von einer zweiten Bilddatenquelle erhält. Diese Bilddatenquelle enthält die Bilddaten, die den auszugebenden Warnhinweis darstellen. Letztlich werden also nur vorhandene Bilddaten wiedergegeben, lediglich die Reihenfolge und der Zeitpunkt, in der diese Bilddaten wiedergegeben werden, kann durch die Umgebung beeinflusst werden, denn es wird zwischen zwei Bilddatenquellen umgeschaltet. Die Fähigkeit dieses Bildwiedergabegerätes, auf sein Umgebung zu reagieren, ist also weiterhin stark eingeschränkt.However, when a train enters, the viewer is presented with an image on the monitors that draws his attention to this event. For example, the message "Attention, a train enters" appears on the monitor. Interactivity with the environment is achieved by having the monitor receive its information from a second image data source in the event of an incoming train. This image data source contains the image data representing the warning message to be issued. Ultimately, therefore, only existing image data are reproduced, only the order and the time in which these image data are reproduced can be influenced by the environment, because it is switched between two image data sources. The ability of this image display device to respond to its environment is therefore still severely limited.

Eine weitere allgemein übliche Anwendung interaktiver Bilderzeugung stellen Computerspiele dar. Der Spieler ist Bildern ausgesetzt, die ihm eine Situation vorspiegeln, auf die er mittels Eingabegeräten (üblicherweise Joystick, Tastatur oder Computermaus) direkt Einfluss nimmt, um so die von der Situation vorgegebenen Aufgaben zu lösen. Die Situation kann dabei verschiedensten Bereichen entnommen, der realen Welt in möglichst genauer Weise nachempfunden oder in Darstellung und Inhalt hochgradig abstrakt sein.
Aus US-A-4090 216 ist eine Vorrichtung bekannt, in der abhängig von der Helligkeit der Umgebung eine Bearbeitung von Helligkeit oder Kontrast eines Fernschbildes erfolgt.
Es ist Aufgabe der vorliegende Erfindung, eine Vorrichtung zur Bildwiedergabe mit erweiterten und veränderten Möglichkeiten bereitzustellen.
Another common application of interactive imaging is computer games. The player is exposed to images that suggest a situation to which he has direct influence by means of input devices (typically joystick, keyboard, or computer mouse) to solve the tasks given by the situation , The situation can be taken from a wide variety of areas, modeled on the real world as accurately as possible, or highly abstract in appearance and content.
Out US-A-4090 216 a device is known in which, depending on the brightness of the environment, a processing of brightness or contrast of a telephoto image takes place.
It is an object of the present invention to provide a device for image reproduction with extended and changed possibilities.

Die Aufgabe wird gelöst durch eine Vorrichtung mit den Merkmalen des Anspruchs 1. Die abhängigen Ansprüche betreffen bevorzugte Ausführungsformen.The object is achieved by a device having the features of claim 1. The dependent claims relate to preferred embodiments.

Eine Vorrichtung zur Bildwiedergabe weist auf: Eine Eingangseinheit zum Empfangen von Bilddaten, die mit einer Bilddatenquelle verbunden ist, und eine Ausgangseinheit zum Ausgeben von Bilddaten, die zumindest mittelbar mit der Eingangseinheit verbunden ist und ausgebildet ist, Bilddaten an eine Bildanzeige wie einen Bildschirm auszugeben, eine Bearbeitungseinheit mit einem Eingang zum Empfangen mindestens eines zeitlich veränderlichen, extern von außerhalb der Vorrichtung stammenden Parameters, wobei die Bearbeitungseinheit mit der Eingangseinheit und der Ausgangseinheit verbunden ist und ausgebildet ist, von der Eingangseinheit empfangene Bilddaten in durch Masken definierten Teilbereichen in Abhängigkeit der Parameter vorzugsweise kontinuierlich zu verändern und an die Ausgangseinheit auszugeben. Mindestens einer der Parameter ist der direkten Einflussnahme durch einen Benutzer oder Betrachter entzogen.An image reproducing apparatus comprises: an input unit for receiving image data connected to an image data source and an output unit for outputting image data at least indirectly connected to the input unit and configured to output image data to an image display such as a screen; a processing unit having an input for receiving at least one temporally variable parameter originating externally from outside the device, the processing unit being connected to the input unit and the output unit and being designed to receive image data received from the input unit in subregions defined by masks as a function of the parameters continuously change and output to the output unit. At least one of the parameters is deprived of direct influence by a user or viewer.

Die Bildanzeige erhält die Bilddaten in der geeigneten Form von der Ausgangseinheit, welche wiederum mit der Bearbeitungseinheit verbunden ist. Diese empfängt den zeitlich veränderlichen Parameter über einen Eingang. Die von der Bilddatenquelle stammenden Bilddaten werden von der Bearbeitungseinheit in Teilbereichen abhängig von dem Parameter kontinuierlich verändert. Es ist somit möglich für die Vorrichtung zur Bildwiedergabe auf die Parameter derart zu reagieren, dass die wiedergegebenen Bilder in Teilbereichen verändert sind. Die Veränderung der Bilder bewirkt also nicht lediglich die Anzeige eines völlig anderen Bildes, sondern auch die Anzeige eines in Teilbereichen veränderten Bildes. Die wiedergegebenen Bilder entsprechen auch nicht mehr einem von einer Bilddatenquelle stammenden Bild, sondern sind diesem gegenüber verändert. Die nach der Bearbeitung wiedergegebenen Bilddaten sind neu und ihr Erscheinungsbild wird allein von der Abhängigkeit zwischen den eingehenden Parametern und der damit verbundenen Veränderung der Bilddaten durch die Bearbeitungseinheit bestimmt.The image display receives the image data in the appropriate form from the output unit, which in turn is connected to the processing unit. This receives the time-variable parameter via an input. The image data originating from the image data source are continuously changed by the processing unit in partial areas depending on the parameter. It is thus possible for the device for image reproduction to respond to the parameters in such a way that the reproduced images are changed in partial areas. The change in the images thus not only causes the display of a completely different image, but also the display of an image changed in some areas. Also, the reproduced images no longer correspond to an image originating from an image data source, but are changed from it. The image data reproduced after processing are new and their appearance is determined solely by the dependence between the incoming parameters and the associated change of the image data by the processing unit.

Die kontinuierlichen Abhängigkeiten der Bildbearbeitungseffekte von den Eingangsparametern werden über eine Ablaufsteuerung koordiniert und gegebenenfalls nach Maßgabe eines Benutzers zeitlich variiert. Die zeitliche Variation kann dabei sowohl spontan während der laufenden Bearbeitung, als auch im voraus festgelegt werden. Die Ablaufsteuerung ist dabei dergestalt ausgeprägt, dass die eingehenden Messergebnisse und Bilder in Abhängigkeit vom darstellenden Medium, dessen Bildgröße, Bildwiederholfrequenz, Farbtiefe und Kontrastumfang optimiert werden. Bei gleichen Eingangsdaten, werden also unterschiedliche Bilder erzeugt, beispielsweise, was den Detailreichtum betrifft, die dennoch die gleiche Aussage vermitteln. Dies wird im Zusammenhang mit der Verbreitung der Bilddaten über Netzwerke noch genauer dargestellt werden.The continuous dependencies of the image processing effects on the input parameters are coordinated via a sequence control and optionally varied in time according to a user. The temporal variation can be both spontaneously during the ongoing processing, as well as in advance. The sequence control is designed in such a way that the incoming measurement results and images are optimized depending on the performing medium, its image size, refresh rate, color depth and contrast range. For the same input data, so different images are generated, for example, as regards the richness of detail, yet convey the same message. This will be further illustrated in the context of the dissemination of image data over networks.

Die erfindungsgemäße Vorrichtung ist somit in der Lage, in weitaus differenzierterer Weise auf äußere Ereignisse zu reagieren, als dies aus dem Stand der Technik bekannt ist.The device according to the invention is thus able to respond in a much more differentiated manner to external events, as is known from the prior art.

Zwar sind aus dem Stand der Technik Postproduktions-Systeme wie Photoshop, Flame u. a. bekannt. Diese sind dazu vorgesehen, auf einem Speichermedium gespeicherte Bilddaten mittels eines Personalcomputers gezielt zu bearbeiten. Die Effekte von eingegebenen Befehlen zur Bildbearbeitung werden auf dem Bildschirm des PCs dargestellt. Der PC empfängt also keine zeitlich veränderlichen Parameter wie Temperatur oder Helligkeit einer bestimmten Umgebung über einen Eingang, sondern Befehle über eine Tastatur oder ein anderes Eingabemittel zur gezielten und voraussagbaren Bearbeitung von Bildern. Ferner werden die von diesen Bildbearbeitungsprogrammen hervorgerufenen Bildveränderungen in der Regel als Effekte vorproduziert. Die kontinuierliche Veränderung von Bildparametern wie Farbe und Helligkeit in Abhängigkeit von einem äußeren Parameter können mittels dieser Programme nicht sichtbar gemacht werden. Stattdessen werden bei diesen Postproduktionssystemen Anfangs- und Endzustände von Bildparametern berechnet. Die Zwischenzustände werden entweder dynamisch vorproduziert, durch Effektfilter erzielt oder durch eine Mischung der Anfangs- und Endzustände ermittelt. Eine Neuberechnung im engeren Sinne erfolgt jedoch nicht. Solche Lösungen sind ausreichend, solange die Information, die die Bilddaten als Endprodukt enthalten sollen, vorhersagbar sind. Die Anforderungen ändern sich jedoch, sobald nicht vorhersagbare Ereignisse das wiedergegebene Bild beeinflussen. In diesem Fall muss die Veränderung der Bilddaten in Abhängigkeit von den Parametern kontinuierlich erfolgen. D. h., dass ein zu einem gewissen Zeitpunkt t empfangener Parameterwert P(t) eine Veränderung der zu demselben Zeitpunkt t empfangenen Bilddaten BD(t) hervorruft. Wenn die Veränderung der Bilddaten für eine begrenzte zeitliche Folge von aufeinanderfolgenden Bilddaten und Parameterwerten wie vorstehend beschrieben erfolgt, so liegt eine kontinuierliche Veränderung der Bilddaten in Abhängigkeit von dem Parameter vor. Die Manipulation der Bilddaten durch die Bearbeitungseinheit stellt somit eine prozedurale Animation der Bilddaten im Bereich der Masken dar. Die Masken können fest vorgegeben sein oder auch selbst wiederum in Abhängigkeit von den Parametern verändert werden, so dass die Masken selber eine prozedurale Animation erfahren.Although post-production systems such as Photoshop, Flame and others are known from the prior art. These are intended to edit stored on a storage medium image data by means of a personal computer targeted. The effects of input commands for image editing are displayed on the screen of the PC. Thus, the PC receives no time-varying parameters such as temperature or brightness of a particular environment via an input, but commands via a keyboard or other input means for targeted and predictable editing of images. Furthermore, the image changes produced by these image processing programs are usually pre-produced as effects. The continuous change of image parameters such as color and brightness as a function of an external parameter can not be made visible by means of these programs. Instead, initial and final states of image parameters are calculated in these post-production systems. The intermediate states are either pre-produced dynamically, achieved by effect filters or determined by a mixture of the initial and final states. However, a recalculation in the strict sense does not take place. Such solutions are sufficient as long as the information to contain the image data as the final product is predictable. However, the requirements change as soon as unpredictable events affect the displayed image. In this case, the change of the image data must be continuous depending on the parameters. That is, a parameter value P (t) received at a certain time t causes a change in the image data BD (t) received at the same time t. If the change of the image data takes place for a limited time sequence of successive image data and parameter values as described above, there is a continuous change of the image data as a function of the parameter. The manipulation of the image data by the processing unit thus represents a procedural animation of the image data in the area of the masks. The masks can be fixed or can themselves be changed depending on the parameters, so that the masks themselves undergo a procedural animation.

Vorzugsweise repräsentieren die empfangenen Parameter Ereignisse außerhalb der Vorrichtung. Als äußeres Ereignis wird jede Form von zeitlicher Veränderung verstanden, die nicht von der Vorrichtung selbst generiert wird, sondern über den Eingang der Bearbeitungseinheit empfangen wird. Als Parameter kann jede denkbare physikalische Größe wie Helligkeit, Lautstärke oder Temperatur dienen. Ferner können die Parameter auch Ereignisse wie die Landung eines Flugzeuges, der aktuelle Wert eines Aktienindexes oder die Anzahl der Zugriffe auf eine Internet-Seite repräsentieren. Damit wird die Vorrichtung zur Bildbearbeitung in eine Beziehung zu ihrer Umwelt gesetzt. Die Veränderungen des wiedergegebenen Bildes spiegeln auf ihre Weise die Vorgänge außerhalb der Vorrichtung wieder. Für den unbefangenen Betrachter ist die Beobachtung des Bildes von hohem Unterhaltungswert, insbesondere, wenn er selbst als Teil der Umwelt der Vorrichtung die Bildveränderungen manipulieren kann und dient allgemein einer intuitiven Erfassung von Information.Preferably, the received parameters represent events outside the device. An external event is any form of temporal change that is not generated by the device itself but is received via the input of the processing unit. Any conceivable physical variable such as brightness, volume or temperature can serve as a parameter. Furthermore, the parameters may also represent events such as the landing of an aircraft, the current value of a stock index or the number of accesses to an Internet site. Thus, the image processing apparatus is set in relation to its environment. The changes in the reproduced image in their own way reflect the events outside the device. For the unbiased viewer, the observation of the image is of high entertainment value, especially if it itself can manipulate the image changes as part of the environment of the device, and generally serves to intuitively capture information.

In einer bevorzugten Ausführungsform ist die Bearbeitungseinheit derart ausgebildet, dass sie die Bilddaten ändert, indem sie Rechenprozesse durchführt, die die Änderung der Bilddaten durch die Parameter realisiert. Der von der Bearbeitungseinheit durchgeführte Rechenprozess basiert auf einem Algorithmus, der festlegt, wie die Parameter die Bilddaten beeinflussen. Somit ist es unmöglich, vorauszusehen, welche Veränderungen der Bilddaten auftreten werden, denn der unbekannte zeitliche Verlauf des Parameters bestimmt die Veränderung der Bilddaten. Die tatsächlich auftretenden Veränderungen sind zudem eine Funktion des zeitlich veränderlichen Parameters und damit einzigartig für jeden Wert des Parameters. Bei vorheriger Kenntnis des eingehenden Parameters sind die zeitlichen Veränderungen der Bilddaten determiniert, da jedoch die Kenntnis dieses Parameters im allgemeinen unbekannt ist, sind die veränderten Bilddaten unvorhersagbar.In a preferred embodiment, the processing unit is configured to change the image data by performing computational processes that realizes the change of the image data by the parameters. The one of the processing unit The calculation process performed is based on an algorithm that determines how the parameters affect the image data. Thus, it is impossible to predict which changes of the image data will occur, because the unknown timing of the parameter determines the change of the image data. The actual changes that occur are also a function of the time-varying parameter and thus unique for each value of the parameter. With prior knowledge of the incoming parameter, the temporal changes of the image data are determined, but since the knowledge of this parameter is generally unknown, the altered image data is unpredictable.

Die Bearbeitungseinheit der erfindungsgemäßen Vorrichtung ist bevorzugt derart ausgestaltet, dass sie die empfangenen Bilddaten anhand der Parameter in Echtzeit verändert. Eine solche Bearbeitungseinheit ggf. mit den mit ihr unmittelbar verbundenen Bestandteilen der Vorrichtung wird im Folgenden auch als "Echtzeitsystern" bezeichnet. Unter Änderung der Bilddaten in Echtzeit wird verstanden, wenn es für einen menschlichen Beobachter unmöglich ist, eine zeitliche Verzögerung durch die Bearbeitung festzustellen. Eine solche Echtzeit-Veränderung stellt also für einen Beobachter einen zeitlich unmittelbaren Zusammenhang zwischen den empfangenen Parametern und dem wiedergegebenen Bild dar. Die Vorrichtung ist somit in der Lage, die aktuellen Ereignisse in anderer Form wiederzuspiegeln. Durch Betrachtung des wiedergegebenen Bildes lassen sich die aktuellen äußeren Ereignisse gedanklich herleiten. Das wiedergegebene Bild stellt somit einen entschlüsselbaren Code, also eine Art Sprache, dar, welche die äußeren Ereignisse repräsentiert.The processing unit of the device according to the invention is preferably designed such that it changes the received image data on the basis of the parameters in real time. Such a processing unit, if necessary with the components of the device directly connected with it, is also referred to below as "real-time system". By changing the image data in real time, it is understood that if it is impossible for a human observer to detect a delay in processing. Such a real-time change thus represents for an observer a temporally direct relationship between the received parameters and the reproduced image. The device is thus able to reflect the current events in a different form. By looking at the reproduced image, the current external events can be derived by thought. The reproduced image thus represents a decipherable code, that is to say a kind of language, which represents the external events.

Die Bearbeitungseinheit kann auch derart ausgestaltet sein, dass sie die Bildparameter der empfangenen Bilddaten wie Farbe, Helligkeit, Kontrast, Gradation oder Schärfe verändert. Auf diese Weise werden die Bildparameter in eine Beziehung zu den Parametern gesetzt, die die Umwelt der Vorrichtung repräsentieren. Das Erscheinungsbild eines veränderten Teilbereichs des wiedergegebenen Bildes stellt also eine komplexe Repräsentation unterschiedlicher Ereignisse dar. Neben solchen einzelne Bildpunkte oder Pixel unmittelbar beschreibenden Parametern kann die Bearbeitungseinheit auch ausgebildet sein, aus einer Vielzahl von Bildpunkten zusammengesetzte Bildobjekte durch Beeinflussung von deren Position im (virtuellen) Raum, deren Oberflächentextur oder dergleichen zu verändern. Die Bildobjekte können auch dreidimensional berechenbare sein.The processing unit can also be designed such that it changes the image parameters of the received image data such as color, brightness, contrast, gradation or sharpness. In this way, the image parameters are related to the parameters that represent the environment of the device. The appearance of a changed portion of the rendered image thus represents a complex representation of different events. Besides such individual pixels or pixels directly descriptive parameters, the processing unit can also be configured to change from a plurality of pixels composite image objects by influencing their position in the (virtual) space, their surface texture or the like. The image objects can also be calculated three-dimensionally.

In bevorzugten Varianten der Bearbeitungseinheit ist diese ausgebildet, entweder Bildobjekte von dem zeitlich veränderbaren (Steuer-) Parameter abhängig zeitgesteuert zu transformieren oder auch neue, nicht nur naturalistische sondern auch artifiziell erscheinende Bildobjekte in Abhängigkeit des zeitlich veränderbaren Parameters neu zu generieren und den eingehenden Bilddaten hinzuzufügen.In preferred variants of the processing unit, the processing unit is designed either to time-transform image objects of the temporally variable (control) parameter or also to regenerate new, not only naturalistic but also artificial appearing image objects as a function of the time-variable parameter and to add them to the incoming image data ,

Weiterhin ist die Bearbeitungseinheit vorzugsweise ausgebildet, die Dynamik von Bildsequenzen oder Bildfolgen zu beeinflussen, und zwar entweder durch unmittelbares, zeitgesteuertes Beeinflussen der eingehenden Bilddaten oder durch eine von dem zeitlich veränderbaren (Steuer-) Parameter abhängige Verarbeitung vorbereiterer und gespeicherter Sequenzen.Furthermore, the processing unit is preferably designed to influence the dynamics of image sequences or image sequences, either by direct, time-controlled influencing of the incoming image data or by processing dependent on the temporally variable (control) parameter-dependent processing and stored sequences.

Eine spezielle Ausführungsform der Erfindung ist dadurch gekennzeichnet, dass die Ausgangseinheit ausgebildet ist, die veränderten Bilddaten über das Internet oder Fernsehbild-Sender an Bildanzeigen auszugeben. Damit ist es möglich, die Bilddaten an eine Vielzahl von Bildanzeigen an unterschiedlichen Orten gleichzeitig auszugeben.A special embodiment of the invention is characterized in that the output unit is designed to output the changed image data to image displays via the Internet or television picture transmitter. Thus, it is possible to output the image data to a plurality of image displays at different locations simultaneously.

Vorzugsweise umfasst die erfindungsgemäße Vorrichtung eine Steuereinheit, die mit dem Sensor und der Ausgangseinheit verbunden ist und geeignet ist, den Sensor zu steuern, wobei die Steuereinheit Bilddaten von der Ausgangseinheit empfängt und den Sensor in Abhängigkeit von den von der Ausgangseinheit empfangenen Bilddaten steuert. Damit werden die ausgegebenen, veränderten Bilder mit der Bilddatenquelle rückgekoppelt.Preferably, the device according to the invention comprises a control unit which is connected to the sensor and the output unit and is suitable for controlling the sensor, the control unit receiving image data from the output unit and controlling the sensor in dependence on the image data received from the output unit. This returns the output, changed images with the image data source.

Gemäß einer bevorzugten Ausführungsform umfasst die Vorrichtung eine mit der Bearbeitungseinheit verbundene Eingabeeinheit zum Bestimmender Rechenprozesse der Bearbeitungseinheit. Damit wird es einem "Autor" ermöglicht vorzugeben, wie die Parameter die Bilddaten verändern. Denn die von der Bearbeitungseinheit durchgeführten Rechenprozesse können über die Eingabeeinheit bestimmtwerden. Ferner kann vorgesehen sein, dass die Eingabeeinheit eine die Rechenprozesse der Bearbeitungseinheit visualisierende Benutzeroberfläche aufweist. Der Autor kann somit jederzeit überprüfen, welche Rechenprozesse von der Bearbeitungseinheit durchgeführt werden. Insbesondere im Zusammenhang mit der Verwendung von Bildmasken lässt sich durch die Eingabeeinheit die Geschwindigkeit und Intensität der Bildveränderung z.B. durch Ein- und Ausblenden der Masken vorgeben. Als Eingabeeinheit kann auch ein im folgenden erwähntes Autorensystem dienen.According to a preferred embodiment, the device comprises an input unit connected to the processing unit for determining the processing processes of the processing unit. This allows an "author" to specify how the parameters change the image data. Because the computing processes performed by the processing unit can be determined via the input unit. Furthermore, it can be provided that the input unit has a user interface that visualizes the computing processes of the processing unit. The author can thus check at any time, which computational processes are performed by the processing unit. Particularly in connection with the use of image masks, the speed and intensity of the image change can be determined by the input unit. specify by fading in and out of the masks. The input unit can also be an authoring system mentioned below.

Die Rechenprozesse der Bearbeitungseinheit können auch dazu dienen, die Bewegung von Flüssigkeiten, Gasen, physikalischen Teilchen oder festen Körpern zu simulieren. Die vom Sensor empfangenen Parameter erzeugen somit Veränderungen, die dem Betrachter des Bildes als die Bewegungen von realen Flüssigkeiten, Gasen oder festen Körpern erscheinen. Unter festen Körpern sind neben leblosen Gegenständen wie Kristalle auch belebte Gegenstände wie Tiere, Menschen und Pflanzen zu verstehen. Die dargestellten Bildveränderungen erzeugen die Illusion von einer realen Bewegung, beispielsweise derjenigen eines Wasserstrahls.The computing processes of the processing unit can also serve to simulate the movement of liquids, gases, physical particles or solids. The parameters received by the sensor thus produce changes that appear to the viewer of the image as the movements of real fluids, gases, or solids. In addition to lifeless objects such as crystals, solid bodies also include living objects such as animals, humans and plants. The illustrated image changes create the illusion of a real movement, such as that of a water jet.

Zur Simulation von fließenden Stoffen wie Gase, Flüssigkeiten oder feste erodierende Stoffe wird vorzugsweise die Navier-Stokes-Gleichung verwendet. Die Navier-Stokes-Gleichung beschreibt die Bewegung von fließenden Stoffen, deren Bewegungsgeschwindigkeit deutlich unterhalb der Schallgeschwindigkeit liegt. Die im Alltag beobachteten Flüssigkeiten wie Wassertropfen werden beispielsweise durch die Navier-Stokes-Gleichung beschrieben. Unter Verwendung der Navier-Stokes-Gleichungen lassen sich auch die zuvor angesprochenen, artifiziellen Bildobjekte generieren.To simulate flowing substances such as gases, liquids or solid erosive substances, the Navier-Stokes equation is preferably used. The Navier-Stokes equation describes the motion of flowing substances whose velocity of motion is well below the speed of sound. The observed in everyday life liquids such as water droplets are described for example by the Navier-Stokes equation. Using the Navier-Stokes equations, the previously mentioned, artificial image objects can also be generated.

Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend anhand der beigefügten Figuren beschrieben.Preferred embodiments of the present invention will be described below with reference to the accompanying drawings.

Es zeigen:

Fig. 1
eine Vorrichtung zur Bilddatenwiedergabe gemäß einem ersten bevorzugten Ausführungsbeispiel,
Fig. 2
eine Bearbeitungseinheit der Vorrichtung zur Bilddatenwiedergabe gemäß dem ersten Ausführungsbeispiel,
Fig. 3
eine Vorrichtung zur Bilddatenwiedergabe gemäß einem zweiten Ausführungsbeispiel,
Fig. 4
eine Bearbeitungseinheit der Vorrichtung zur Bilddatenwiedergabe gemäß dem zweiten Ausführungsbeispiel, und
Fig. 5
eine schematische Übersicht über ein alternatives Echtzeit-Bildatenverarbeitungssystem.
Show it:
Fig. 1
an image data reproducing apparatus according to a first preferred embodiment;
Fig. 2
a processing unit of the image data reproducing apparatus according to the first embodiment;
Fig. 3
a device for image data reproduction according to a second embodiment,
Fig. 4
a processing unit of the image data reproducing apparatus according to the second embodiment, and
Fig. 5
a schematic overview of an alternative real-time image processing system.

Im Folgenden wird die Vorrichtung in Fig. 1 beschrieben. Die Vorrichtung gemäß dem ersten Ausführungsbeispiel umfasst eine Bilddatenquelle 2. Als Bilddatenquelle 2 kommt jedes Speichermedium für Bilder in Betracht, wie beispielsweise Videokassetten, Photographien, DVD-Disketten und Festplatten in Betracht. Die Bilddaten werden von der Eingangseinheit 1 wiedergegeben. Als Eingangseinheit können den Bilddatenquellen entsprechende Abspielgeräte wie Videorekorder, DVD-Laufwerk oder der Lesekopf einer Festplatte verwendet werden. Die Eingangseinheit 1 überträgt die abgespielten Bilddaten an die Bearbeitungseinheit 6. Gleichzeitig empfängt die Bearbeitungseinheit 6 zeitlich veränderliche Informationen von einem Sensor 5. Als Bearbeitungseinheit 6 wird in der Regel ein elektronischer Rechner eingesetzt, der in der Lage ist, vielfältige Operationen an den empfangenen Bilddaten durchzuführen. Zunächst wählt die Bearbeitungseinheit 6 aus den empfangenen Bilddaten einen Teilbereich aus, der durch eine Maske definiert ist. Die Manipulation der Bilddaten erfolgt nur innerhalb der ausgewählten Maske. Die Lage und Größe der Maske kann vorbestimmt sein, so dass die Bearbeitungseinheit 6 lediglich die zu bearbeitenden Bilddaten anhand der Maske erkennen muss. Es kann jedoch auch vorgesehen sein, dass die Bearbeitungseinheit 6 mittels vorgegebener Maskenerkennungsverfahren eine Maske selbsttätig bestimmt. Ferner kann die Bearbeitungseinheit 6 dazu ausgebildet sein, die Masken in Abhängigkeit von den von dem Sensor 5 empfangenen Parameter zu bestimmen. Als Sensor kann jede Art von Detektor eingesetzt werden, der Größen wie beispielsweise Temperatur oder Helligkeit einer bestimmten Umgebung erfasst. Es können auch mehrere miteinander kombinierte Detektoren eingesetzt werden, so dass der Sensor 5 mehrere unterschiedliche Informationen aufnehmen und an die Bearbeitungseinheit 6 weiterleiten kann. Die unterschiedlichen Informationen erreichen die Bearbeitungseinheit 6 jeweils als zeitlich veränderliche Parameter. Die von der Eingangseinheit 1 übermittelten Bilddaten werden in der Regel von der Bearbeitungseinheit 6 nicht verändert, wenn die Bearbeitungseinheit 6 keine Informationen von dem Sensor 5 empfängt.The following is the device in Fig. 1 described. The apparatus according to the first embodiment includes an image data source 2. As the image data source 2, any storage medium for images such as video cassettes, photographs, DVD disks, and hard disks is contemplated. The image data is reproduced by the input unit 1. The input unit can be the image data sources corresponding playback devices such as VCR, DVD drive or the read head of a hard drive can be used. The input unit 1 transmits the reproduced image data to the processing unit 6. At the same time, the processing unit 6 receives temporally variable information from a sensor 5. As the processing unit 6, an electronic computer capable of performing various operations on the received image data is usually employed perform. First, the processing unit 6 selects from the received image data a partial area defined by a mask. The manipulation of the image data occurs only within the selected mask. The position and size of the mask can be predetermined, so that the processing unit 6 only has to recognize the image data to be processed on the basis of the mask. However, it can also be provided that the processing unit 6 automatically determines a mask by means of predetermined mask recognition methods. Furthermore, the processing unit 6 may be configured to determine the masks in dependence on the parameters received from the sensor 5. As a sensor, any type of detector can be used, which detects such variables as temperature or brightness of a particular environment. It is also possible to use a plurality of detectors combined with one another so that the sensor 5 can receive a plurality of different information and forward it to the processing unit 6. The different information reaches the processing unit 6 as time-variable parameters. The image data transmitted by the input unit 1 are generally not changed by the processing unit 6 when the processing unit 6 does not receive information from the sensor 5.

Die Bearbeitungseinheit 6 errechnet mittels einer vorgegebener Rechenoperation aus den empfangenen Parametern und den Bilddaten in den zu verändernden Masken neue Bilddaten. Die Abhängigkeit der Veränderung der Bilddaten von den empfangenen Parametern kann beliebig gewählt werden. Zur Festlegung der Anwendung der Rechenoperationen, die die Bearbeitungseinheit 6 durchführt, ist eine Eingabeeinheit 7 vorgesehen. Diese Eingabeeinheit 7 erlaubt einem Anwender zu bestimmen, auf welche Weise die Bearbeitungseinheit 6 die Bilddaten in Abhängigkeit von den Parametern ändert, d.h welche Rechenoperationen in welchem Maße zur Anwendung kommen. Als Eingabeeinheit 7 kann eine Tastatur oder ein elektronischer Zeichenstift vorgesehen sein.The processing unit 6 calculates new image data by means of a predetermined arithmetic operation from the received parameters and the image data in the masks to be changed. The dependence of the change of the image data on the received parameters can be chosen arbitrarily. In order to determine the application of the arithmetic operations performed by the processing unit 6, an input unit 7 is provided. This input unit 7 allows a user to determine how the processing unit 6 changes the image data in dependence on the parameters, that is, which arithmetic operations are used and to what extent. As input unit 7 may be provided a keyboard or an electronic pen.

Die Bilddaten werden schließlich von der Bearbeitungseinheit 6 an eine Ausgangseinheit 3 ausgegeben. Die Ausgangseinheit sorgt dafür, dass die Bilddaten in geeigneter Form an eine Bildanzeige 4 ausgegeben werden. Sie kann insbesondere dazu vorgesehen sein, die Bilddaten an eine Vielzahl von Bildanzeigen 4 in unterschiedlicher Form auszugeben. Findet die Übertragung an Bildanzeigen 4 über das Internet statt, so sorgt die Ausgangseinheit dafür, dass die Bilddaten als komprimierte Datenpakete von einer Internet-Seite laufend abrufbar sind. Der Abruf der Datenpakete erfolgt automatisch mittels einer geeigneten Software, die dafür sorgt, dass die Bilddaten auf dem entsprechenden Bildschirm wiedergegeben werden. Als Bildanzeige 4 kann jede Art von Monitor oder auch Projektor verwendet werden. Eine Steuereinheit 8 zur Steuerung des Sensors 5 ist vorgesehen, die ebenfalls die von der Ausgangseinheit 3 ausgegebenen Bilddaten empfängt. Durch vorgegebene Operationen wandelt die Steuereinheit 8 die empfangenen Bilddaten in Steuerbefehle zur Steuerung des Sensors 5 um. Durch diese Befehle verändert die Steuereinheit 8 beispielsweise die Lage oder Orientierung des Sensors 5. Ferner kann die Steuerung des Sensors 5 darin bestehen, dessen Empfindlichkeit zu erhöhen oder zu verringern. Die in Abhängigkeit von den Parametern des Sensors 5 veränderten Bilddaten bewirken also wiederum über die Steuereinheit 8 eine Veränderung der über den Sensor 5 empfangenen Parameter.The image data is finally sent from the processing unit 6 to an output unit 3 issued. The output unit ensures that the image data is output to an image display 4 in a suitable form. In particular, it can be provided to output the image data to a plurality of image displays 4 in different forms. If the transmission takes place on image displays 4 via the Internet, the output unit ensures that the image data are continuously retrievable as compressed data packets from an Internet site. The retrieval of the data packets is carried out automatically by means of suitable software, which ensures that the image data are displayed on the corresponding screen. As image display 4, any type of monitor or projector can be used. A control unit 8 for controlling the sensor 5 is provided which also receives the image data output from the output unit 3. By predetermined operations, the control unit 8 converts the received image data into control commands for controlling the sensor 5. By these commands, the control unit 8 changes, for example, the position or orientation of the sensor 5. Further, the control of the sensor 5 may be to increase or decrease its sensitivity. The image data changed as a function of the parameters of the sensor 5 thus in turn cause a change in the parameters received via the sensor 5 via the control unit 8.

Fig. 2 zeigt ein Blockschaltbild der Bearbeitungseinheit 6 gemäß dem ersten Ausführungsbeispiel. Darin ist eine Maskenerkennungseinheit 10 vorgesehen, die dafür sorgt, dass zu bearbeitende Teilbereiche der von der Eingangseinheit 1 empfangenen Bilddaten ausgewählt werden. Dazu ist die Maskenerkennungseinheit 10 mit der Eingangseinheit 1 verbunden. Die Maskenerkennungseinheit 10 wählt anhand vorgegebener Maskenerkennungsverfahren die zu bearbeitenden Bilddaten aus und übermittelt sie an eine Maskenbearbeitungseinheit 11. Die übrigen Bilddaten werden von der Maskenerkennungseinheit 10 in einem Bilddatenspeicher 12 zwischengespeichert. Die Maskenbearbeitungseinheit 11 erhält neben den zu bearbeitenden Bilddaten zeitlich veränderliche Parameter von dem Sensor 5, und sie errechnet neue Bilddaten in Abhängigkeit von den empfangenen Bilddaten und den empfangenen Parametern. Fig. 2 shows a block diagram of the processing unit 6 according to the first embodiment. Therein, a mask recognition unit 10 is provided, which ensures that subareas to be processed of the image data received by the input unit 1 are selected. For this purpose, the mask recognition unit 10 is connected to the input unit 1. The mask recognition unit 10 selects the image data to be processed on the basis of predetermined mask recognition methods and transmits them to a mask processing unit 11. The remaining image data are buffered by the mask recognition unit 10 in an image data memory 12. The mask processing unit 11 receives, in addition to the image data to be processed, time-varying parameters from the sensor 5, and calculates new image data depending on the received image data and the received parameters.

Empfängt die Maskenbearbeitungseinheit 11 keine Parameterinformationen von dem Sensor 5, so gibt sie die von der Maskenerkennungseinheit 10 erhaltenen Bilddaten unverändert an eine Mischungseinheit 14 aus. Diese ist mit der Maskenbearbeitungseinheit 11 und dem Bilddatenspeicher 12 verbunden und setzt die von der Maskenbearbeitungseinheit 11 unverändert übertragenen Bilddaten mit den im Bilddatenspeicher 12 gespeicherten Bilddaten wieder zusammen. Die zusammengesetzten Bilddaten entsprechen in diesem Fall den ursprünglich von der Eingangseinheit 1 übertragenen Bilddaten und werden dann von der Mischungseinheit 14 an die Ausgangseinheit 3 übertragen.If the mask processing unit 11 does not receive parameter information from the sensor 5, it outputs the image data obtained from the mask recognition unit 10 unchanged to a mixing unit 14. This is connected to the mask processing unit 11 and the image data memory 12 and reassembles the image data unchanged from the mask processing unit 11 with the image data stored in the image data memory 12. The composite image data in this case correspond to the image data originally transmitted from the input unit 1 and are then transmitted from the mixing unit 14 to the output unit 3.

Empfängt die Maskenbearbeitungseinheit 11 hingegen zeitlich veränderliche Parameter von dem Sensor 5, so errechnet sie neue Bilddaten für den Maskenbereich. Der Algorithmus zur Berechnung der neuen Bilddaten ist in einem Operationsspeicher 13 abgespeichert. Die Maskenbearbeitungseinheit 11 greift auf den Operationsspeicher 13 zu, um das in diesem abgespeicherte Berechnungsverfahren zur Berechnung neuer Bilddaten durchzuführen. Der Operationsspeicher 13 ist wiederum mit der Eingabeeinheit 7 verbunden, die dazu vorgesehen ist, die Operationen der Maskenbearbeitungseinheit 11 zu bestimmen, indem die durchzuführenden Operationen über die Eingabeeinheit 7 in dem Operationsspeicher 13 abgespeichert werden. Die Maskenbearbeitungseinheit 11 überträgt die neu berechneten Bilddaten an die Mischungseinheit 14. Diese setzt die neu berechneten Bilddaten mit den im Bilddatenspeicher 12 gespeicherten Bilddaten zusammen, so dass ein Bilddatensatz entsteht, der sich im Bereich der Maske von den über die Eingangseinheit 1 eingegebenen Bilddaten unterscheidet. Dieser Bilddatensatz wird wiederum von der Mischungseinheit 14 an die Ausgangseinheit 3 ausgegeben. Schließlich ist der Operationsspeicher 13 auch dazu vorgesehen, die von der Maskenerkennungseinheit 10durchzuführenden Maskenerkennungsoperationen abzuspeichern. Diese Operationen können ebenfalls über die Eingabeeinheit 7 in den Operationsspeicher 13 eingeschrieben werden. Die Maskenerkennungseinheit 10 ist mit dem Operationsspeicher 13 verbunden und führt die in diesem gespeicherten Maskenerkennungsoperationen aus.On the other hand, when the mask processing unit 11 receives temporally variable parameters from the sensor 5, it computes new image data for the mask area. The algorithm for calculating the new image data is stored in an operation memory 13. The mask processing unit 11 accesses the operation memory 13 to perform the calculation process for calculating new image data stored therein. The operation memory 13 is in turn connected to the input unit 7, which is provided to determine the operations of the mask processing unit 11 by storing the operations to be performed via the input unit 7 in the operation memory 13. The mask processing unit 11 transmits the newly calculated image data to the mixing unit 14. This composes the newly calculated image data with the image data stored in the image data memory 12, so that an image data set is produced which differs in the mask area from the image data input via the input unit 1. This image data set is in turn output from the mixing unit 14 to the output unit 3. Finally, the operation memory 13 is also provided to store the mask detection operations to be performed by the mask recognition unit 10. These operations can also be written into the operation memory 13 via the input unit 7. The mask recognition unit 10 is connected to the operation memory 13 and executes the mask recognition operations stored therein.

Fig. 3 zeigt das zweite Ausführungsbeispiel der vorliegenden Erfindung. In dieser Figur sind die dem ersten Ausführungsbeispiel entsprechenden Merkmale mit denselben Bezugszeichen bezeichnet. Anstelle der Bearbeitungseinheit 6 ist eine Bearbeitungseinheit 9 dargestellt, die erweiterte Möglichkeiten hat. Diese Bearbeitungseinheit ist im Detail in Fig. 4 dargestellt. Die Bearbeitungseinheit 9 bewirkt jedoch nach wie vor eine Veränderung der eingehenden Bilddaten in Abhängigkeit von den Parametern. Ein Unterschied zu der in Fig. 1 beschriebenen Vorrichtung besteht darin, dass die Steuereinheit 8 einen zweiten Eingang besitzt, über den sie die unveränderten Bilddaten von der Eingangseinheit 1 empfängt. Die Steuereinheit 8 ist zudem dazu ausgelegt, den Sensor 5 sowohl in Abhängigkeit von den veränderten Bilddaten von der Ausgangseinheit 3 als auch in Abhängigkeit von den unveränderten Bilddaten von der Eingangseinheit 1 zu steuern. Insbesondere kann die Steuereinheit 8 derart ausgelegt sein, dass sie eine Differenz zwischen den unveränderten Bilddaten und den veränderten Bilddaten erhebt und in Abhängigkeit von der Differenz den Sensor steuert. Diese Differenz entspricht der Änderung der Bilddaten im Bereich der Masken. Die Steuerung des Sensors ist somit eine Funktion der Änderung der Bilddaten. Fig. 3 shows the second embodiment of the present invention. In this figure, the features corresponding to the first embodiment are denoted by the same reference numerals. Instead of the processing unit 6, a processing unit 9 is shown, which has extended possibilities. This processing unit is in detail in Fig. 4 shown. However, the processing unit 9 still causes a change in the incoming image data depending on the parameters. A difference to the in Fig. 1 described device is that the control unit 8 has a second input, via which it receives the unchanged image data from the input unit 1. The control unit 8 is also designed to control the sensor 5 both in response to the changed image data from the output unit 3 and in dependence on the unchanged image data from the input unit 1. In particular, the control unit 8 can be designed such that it collects a difference between the unchanged image data and the changed image data and controls the sensor as a function of the difference. This difference corresponds to the change of the image data in the area of the masks. The control of the sensor is thus a function of the change of the image data.

Fig. 4 zeigt die Bearbeitungseinheit 9 des zweiten Ausführungsbeispiels im Detail. Die gleichen Bestandteile der Bearbeitungseinheit wie in Fig. 6 sind mit denselben Bezugszeichen gekennzeichnet. Neben einer ersten Maskenbearbeitungseinheit 11, die der Maskenbearbeitungseinheit aus Fig. 2 entspricht, ist eine zweite Maskenbearbeitungseinheit 15 vorgesehen. Diese ist mit einem Maskenspeicher 17 und einem Parameterspeicher 16 verbunden, in dem die von dem Sensor stammenden Parameter abgespeichert werden. Die zweite Maskenbearbeitungseinheit 15 greift auf diese Speicher zu, um die Bilddaten im Bereich der Maske zu verändern. Die Veränderung der Bilddaten erfolgt dabei nach dem Prinzip der Überlagerung sogenannter Bildlayer. Für die Überlagerung geeignete Bilddaten sind in dem Maskenspeicher 17 abgelegt. In Abhängigkeit von dem im Parameterspeicher 16 abgelegten Werte des vom Sensor stammenden Parameters werden durch die zweite Maskenbearbeitungseinheit 15 in dem Maskenspeicher 17 gespeicherte Bilddaten für die jeweils wie vorgegeben zu verändernde Bildmaske abgerufen und gegebenenfalls in Abhängigkeit des Parameters bearbeitet. Die auf diese Weise gewonnenen Bilddaten stehen am Ausgang der Maskenbearbeitungseinheit 15 zur Verfügung und können in der Mischungseinheit 14 mit den in Echtzeit von der ersten Maskenerkennungseinheit 11 ausgegebenen Bilddaten gemischt werden. Auf diese Weise ist es möglich, in Abhängigkeit des vom Sensor stammenden Parameters Überblendeffekte zwischen den in dem Maskenspeicher 17 gespeicherten Bilddaten und den von der ersten Maskenerkennungseinheit 10 stammenden Bilddaten innerhalb durch die jeweiligen Masken definierter Bildausschnitte zu erzielen. Der Grad der Überblendung wird bereits durch die zweite Maskenbearbeitungseinheit 15 festgelegt, in der die aus dem Maskenspeicher 17 stammenden Bilddaten in Abhängigkeit des im Parameterspeicher 16 gespeicherten Parameters verstärkt oder abgeschwächt werden. Die von der Eingangseinheit 1 stammenden Bilddaten werden bereits in der ersten Maskenbearbeitungseinheit 11 in Abhängigkeit von dem vom Sensor stammenden Parameter verstärkt oder abgeschwächt, so dass sich durch Überlagerung der auf diese Weise bearbeiteten Bilddaten für bestimmte Masken die bereits erwähnten Überblendeffekte ergeben. Die Veränderung von Bilddaten auf die zuletzt beschriebene Weise durch Überlagerung mit zuvor in dem Maskenspeicher 17 abgelegten Bilddaten ist mit einem geringeren Rechenaufwand verbunden, als die vollständig neue Berechnung von Bilddaten für bestimmte Masken, so dass die Ausführungsform nach Figur 4 geeignet ist, die Echtzeitbildmanipulation in Abhängigkeit des Parameters auch mit geringerem Rechenaufwand zu verwirklichen. Zusätzlich kann die Eingabeeinheit 7 direkt mit dem Layerspeicher 17 und der Maskenbearbeitungseinheit 15 verbunden sein, um beispielsweise die Maskenbearbeitung vom Eingangsbildsignal abhängig zu machen. Fig. 4 shows the processing unit 9 of the second embodiment in detail. The same components of the processing unit as in Fig. 6 are indicated by the same reference numerals. In addition to a first mask processing unit 11, the mask processing unit Fig. 2 corresponds, a second mask processing unit 15 is provided. This is connected to a mask memory 17 and a parameter memory 16, in which the parameters derived from the sensor are stored. The second mask processing unit 15 accesses these memories to change the image data in the mask area. The change of the image data is carried out according to the principle of the superimposition of so-called image layers. Image data suitable for the overlay are stored in the mask memory 17. Depending on the values of the parameter originating from the sensor stored in the parameter memory 16, image data stored in the mask memory 17 by the second mask processing unit 15 for the image mask to be changed in each case as specified and, if appropriate, processed as a function of the parameter. The image data obtained in this way are available at the output of the mask processing unit 15 and can be mixed in the mixing unit 14 with the image data output in real time by the first mask recognition unit 11. In this way it is possible, depending on the parameter originating from the sensor, to achieve cross-fading effects between the image data stored in the mask memory 17 and the image data originating from the first mask recognition unit 10 within image sections defined by the respective masks. The degree of the cross-fading is already determined by the second mask processing unit 15, in which the image data originating from the mask memory 17 is amplified or attenuated as a function of the parameter stored in the parameter memory 16. The image data originating from the input unit 1 are already amplified or attenuated in the first mask processing unit 11 as a function of the parameter originating from the sensor, so that the already mentioned cross-fading effects result from superposition of the image data processed in this way for certain masks. The modification of image data in the manner described last by superimposition with image data previously stored in the mask memory 17 is associated with a lower computation outlay than the completely new calculation of image data for specific masks, so that the embodiment of FIG FIG. 4 is suitable to realize the real-time image manipulation as a function of the parameter with less computational effort. In addition, the input unit 7 may be directly connected to the layer memory 17 and the mask processing unit 15, for example, to make the mask processing dependent on the input image signal.

Im folgenden sollen nun Aspekte der technischen Realisierung näher erläutert werden:

  • Die Berechnung der Bildströme in Echtzeit ist aufwändig, wobei der Rechenaufwand natürlich von der verwendeten Bildgröße und -wiederholfrequenz abhängt.
  • Daher wird bei hohen Auflösungen ein zentraler Server mit großer Rechenleistung die Bilder berechnen. Bei niedrigerer Auflösung ist auch eine lokale Berechnung mit preiswerteren Systemen denkbar.
In the following, aspects of the technical realization will be explained in more detail:
  • The calculation of the image streams in real time is complex, the computational effort of course depends on the image size and frequency used.
  • Therefore, at high resolutions, a central server with high computing power will compute the images. At lower resolution, a local calculation with cheaper systems is conceivable.

Besonders interessant sind verteilte Systeme, die einen Anteil der Logik in jedem einzelnen Display enthalten, während der Großteil auf einem Server konzentriert ist. Dies wird noch gesondert beschrieben werden.Particularly interesting are distributed systems, which contain a portion of the logic in each single display, while the majority is concentrated on a server. This will be described separately.

Grundsätzlich existieren verschiedene Architekturen mit jeweiligen Vor-und Nachteilen, um die Bilder oder Teile davon zu berechnen:

  1. 1) Hochleistungsgrafikrechner:
    • Solche Rechner - zur Zeit insbesondere die von sgi - enthalten spezielle Hardwarebeschleuniger, die die benötigten Rechenoperationen übernehmen. Über einen genormte Schnittstelle (OpenGL) wird die Grafikhardware programmiert. Diese Lösung bietet große Flexibilität, auch was die eventuelle zusätzliche Darstellung dreidimensionaler Bildinhalte betrifft.
  2. 2) Cluster von "normalen" PCs:
    • Der Vorteil dieser Lösung liegt in der nahezu beliebigen Erweiterbarkeit durch Hinzufügen weiterer Rechner. Es existieren auch für diese Systeme Grafikbeschleuniger und mit derselben Programmierschnittstelle (OpenGL), wie bei den Hochleistungsgrafikrechnern, was eine eventuelle Übertragung vereinfacht und auch die Möglichkeit hybrider Systeme eröffnet.
  3. 3) Bildeffektkarten und Videohardware, wie sie für den digitalen Videoschnitt verwendet werden:
    • Der Vorteil liegt in einem moderaten Preis bei hoher Leistung auf speziellen Gebieten. Der Nachteil ist die Begrenzung auf sehr bestimmte Auflösungen und relativ geringe Flexibilität, da die Effekte sehr genau auf die Karten abgestimmt sein müssen. Komponenten einer Serienproduktion in höheren Stückzahlen können allerdings durchaus diesem Bereich entnommen sein.
  4. 4) Signalprozessorsysteme (insbesondere DSP, digitale Signalprozessoren):
    • Diese bieten extrem hohe Rechenleistung bei allerdings begrenztem Datenein- und -ausgang, was sich jedoch in näherer Zukunft aller Voraussicht nach ändern wird.
Basically, different architectures exist with respective advantages and disadvantages to calculate the pictures or parts of them:
  1. 1) High performance graphics calculator:
    • Such computers - currently especially those of sgi - contain special hardware accelerators, which take over the required arithmetic operations. A standardized interface (OpenGL) is used to program the graphics hardware. This solution offers great flexibility, also with regard to the possible additional representation of three-dimensional image content.
  2. 2) Clusters of "normal" PCs:
    • The advantage of this solution lies in the almost arbitrary expandability by adding more computers. Graphics accelerators and the same programming interface (OpenGL) also exist for these systems, as in the high-performance graphics computers, which simplifies any possible transmission and also opens up the possibility of hybrid systems.
  3. 3) Image effect maps and video hardware as used for digital video editing:
    • The advantage is a moderate price with high performance in special areas. The disadvantage is the limitation to very specific resolutions and relatively little flexibility, since the effects must be very accurately matched to the cards. However, components of a series production in larger quantities can certainly be taken from this area.
  4. 4) Signal processor systems (in particular DSP, digital signal processors):
    • These offer extremely high computing power, but with limited data input and output, which is likely to change in the near future.

Vorzugsweise ist die Berabeitungseinheit an OpenGLangepasst.Preferably, the processing unit is adapted to OpenGL.

OpenGL ist eine genormte Schnittstelle, die es erlaubt eine Vielzahl von Grafikoperationen zu programmieren. Die Operationen werden je nach Systemausstattung entweder in Software auf dem Zentralprozessor oder aber auf der Grafikkarte ausgeführt. OpenGL ist genormt und existiert für eine Vielzahl vom unterschiedlichen Systemen, sodass Programme mit relativ geringem Aufwand übertragbar sind, wenn der Standard eingehalten wird. OpenGL ist zudem ein Quasi-Standard für die dreidimensionale Bildbearbeitung, dessen Potential im zweidimensionalen Bereich allerdings kaum ausgeschöpft wird.OpenGL is a standardized interface that allows you to program a variety of graphics operations. The operations are performed either in software on the central processor or on the graphics card, depending on the system configuration. OpenGL is standardized and exists for a variety of different systems, so programs can be transferred with relatively little effort if the standard is adhered to. OpenGL is also a quasi-standard for three-dimensional image processing, but its potential in the two-dimensional area is hardly exhausted.

OpenGL bietet grundsätzlich zunächst einmal Befehle, um dreidimensionale Körper darzustellen. Allerdings können Bilder - sogenannte Texturen - auf diese Körper gelegt und auf vielfältige Weise manipuliert werden. Dadurch bieten sich mächtige Werkzeuge für die Veränderung zweidimensionaler Bilder:

  • Veränderung der Geometrie der Körper oder der Texturkoordinaten für Verzerrungen der Videobilder
  • Lagen (layer) mehrerer teilweise transparenter Körper übereinander für Blendeneffekte
  • Lookup Tables und Farbkorrekturmatrizen während der Texturdarstellung für Farbeffekte
  • Beleuchtung: gleichmäßig, gerichtet, punktförmig und vieles mehr
  • Multiple Texturen auf einem Körper
  • Unschärfen und andere matritzenbasierte Effekte wie Eckenerkennung während der Texturdarstellung
  • Entfernungsabhängige Nebeleffekte zur Farbkorrektur
  • Partikelsysteme aus kleineren texturierten Objekten oder verzerrte Texturen zur Darstellung von Wirbeln oder anderen physikalischen Phänomenen.
In principle, OpenGL initially offers commands to display three-dimensional bodies. However, images - so-called textures - can be placed on these bodies and manipulated in a variety of ways. This provides powerful tools for changing two-dimensional images:
  • Change the geometry of the bodies or the texture coordinates for video image distortions
  • Layers (layer) of several partially transparent bodies one above the other for glare effects
  • Lookup tables and color correction matrices during texture rendering for color effects
  • Lighting: even, directional, punctiform and much more
  • Multiple textures on a body
  • Blurs and other matrice-based effects such as corner detection during texture rendering
  • Distance-dependent fog effects for color correction
  • Particle systems of smaller textured objects or distorted textures to represent vertebrae or other physical phenomena.

Wird all dieses in Hardware ausgeführt (Architektur 1), so ist, je nach Ausstattung allerdings verschieden, eine Begrenzung der gleichzeitig ausführbaren Effekte gegeben. Das heißt, die Effekte müssen auf die sogenannte Grafikpipeline dergestalt abgebildet werden, dass ein Echtzeitverhalten möglich ist. Eine zusätzliche Einheit ist vorgesehen, um diese Abhängigkeiten im Vorfeld zu planen und Effekte auf die entsprechende Hardware abzubilden.If all of this is done in hardware (architecture 1), then, depending on the equipment but different, a limitation of the simultaneously executable effects is given. That is, the effects must be mapped to the so-called graphics pipeline in such a way that a real-time behavior is possible. An additional unit is provided to plan these dependencies in advance and to map effects to the corresponding hardware.

Sowohl für 1) als auch für 2) gilt, dass bei steigender Komplexität der Effekte auch mehreren Systeme entweder parallel oder hintereinander geschaltet werden können, was Nachteile bezüglich Komplexität und Wartbarkeit mit sich bringt.For both 1) and 2), as the complexity of the effects increases, multiple systems can be switched either in parallel or in series, which entails disadvantages in terms of complexity and maintainability.

Eine wichtige Rolle in der Verwirklichung der hier dargestellten Konzepte spielt die Übertragung über Netzwerke. Ein Netzwerk kann neben unmittelbaren, drahtgebundenen Verbindungen auch Funk- oder Satellitenverbindungen oder Ähnliches enthalten.An important role in the realization of the concepts presented here plays the transmission over networks. A network may include, in addition to direct, wired connections, radio or satellite links, or the like.

Aus kosten- und wartungstechnischen Gründen ist es vorzugsweise vorgesehen, die Rechnersysteme, die für die Bilderzeugung nötig sind, zentral aufzustellen: Die Hardware, die benutzt wird, um die Daten in Echtzeit zu generieren ist aufwändig und erfordert ein hohes Maß an technischer Infrastruktur sowie Ausfallsicherheit aller Komponenten; dazu wird eine gewisse Platzausstattung benötigt. Die verschiedenen Displays sollen jedoch möglichst mobil und anspruchslos sein, um sehr flexibel überall einsetzbar zu sein.For cost and maintenance reasons, it is preferably provided to centrally set up the computer systems that are necessary for the image generation: The hardware that is used to generate the data in real time is complex and requires a high degree of technical infrastructure and reliability all components; this requires a certain amount of space. However, the various displays should be as mobile and undemanding as possible in order to be very flexible everywhere.

Ein Rechnersystem kann durchaus eine beliebige Anzahl von Displays mit Inhalten bespielen, was die Kosten pro bespieltem Display beträchtlich senkt. Um dabei dennoch ein hohes Maß an Integration des Betrachters in das projizierte Geschehen zu gewährleisten, ist eine lokale Recheneinheit im Display vorgesehen, die mit vergleichsweise geringem rechnerischem wie finanziellem Aufwand eine lokale Anpassung der globalen Bildströme vornimmt. Dieses Verfahren wird im weiteren noch ausführlicher beschrieben werden.A computer system can certainly record any number of displays with content, which considerably reduces the cost per recorded display. In order to still ensure a high degree of integration of the viewer in the projected events, a local processing unit is provided in the display, which makes a local adjustment of the global image streams with relatively little computational and financial outlay. This method will be described in more detail later.

Eine Komprimierung in Echtzeit kann die Übertragungsraten und Kosten signifikant senken, stellt jedoch hohe Anforderungen.Real-time compression can significantly reduce transmission rates and costs, but places high demands.

Die Übertragung über schmalbandige Netzwerke, wobei besonders dem Internet eine wichtige Rolle zukommt, stellt weitere Anforderungen. Zwar gibt es Techniken, multimediale Inhalte, dabei insbesondere bewegte Bilder und Ton, auch im Internet komprimiert zu übertragen, dennoch sind die Datenraten zu niedrig, um hohe Bildauflösungen zu erreichen.The transmission over narrow-band networks, whereby the Internet in particular plays an important role, places further requirements. Although there are techniques to transfer multimedia content, in particular moving images and sound, even on the Internet to transmit compressed, but the data rates are too low to achieve high image resolution.

Es müssen also Bilder in kleineren Auflösungen zu sehen sein, was eine grundlegende Anpassung der Bildbearbeitungseffekte durch die Ablaufsteuerung erfordert. Die gleichen Eingangsparameter und -Bildsequenzen führen bei variabler Bildauflösung zu ähnlichen und aussagegleichen aber - beispielsweise den Detailreichtum, die Farbtiefe oder die Veränderungsgeschwindigkeit betreffend - dennoch unterschiedlichen Ausgangsbildern.Thus, images must be seen in smaller resolutions, which requires a fundamental adaptation of the image processing effects by the process control. The same input parameters and image sequences result in variable image resolution to similar and meaningful but - for example, the richness of detail, the color depth or the rate of change - yet different output images.

Es ist weiterhin vorgesehen, dass ein gut ausgestatteter und entsprechend teurer Server eine Reihe von Terminals bespielt, um die Kosten pro Terminal zu senken. Das wirkt sich jedoch nachteilig auf die Integration des Betrachters in das dargestellte Geschehen aus, was den Reiz des beschriebenen Systems ausmacht.It is also envisaged that a well-equipped and correspondingly expensive server would be able to run a number of terminals to reduce the cost per terminal. However, this has a detrimental effect on the integration of the viewer in the events shown, which is the charm of the described system.

Dieser Nachteil kann jedoch vermieden werden: Jedes Terminal erhält eine vergleichsweise einfache und billige eigene Bildbearbeitungseinheit, um das vom Server kommende, aufwändig gestaltete Material mit interaktiven und lokalen Aspekten anzureichern. Dazu wird beispielsweise im Serverbildstrom wenigstens eine Ebene definiert, die nach Maßgabe der Bildkomposition durch das Display verändert wird. Es werden also lediglich explizit dafür freigegebene Bereiche in der lokalen Bildbearbeitungseinheit aufbereitet, um lokal erfasste Daten zu integrieren.However, this disadvantage can be avoided: Each terminal receives a comparatively simple and cheap own image processing unit to the from the Server to enrich coming, elaborately designed material with interactive and local aspects. For this purpose, for example, in the server image stream at least one level is defined, which is changed in accordance with the image composition by the display. Thus, only explicitly released areas in the local image processing unit are processed in order to integrate locally acquired data.

Schließlich soll ein spezifisches, alternatives System zur prozeduralen Echtzeitmanipulation von Bilddaten und Varianten desselben mit Bezug auf Figur 5 erläutert werden.Finally, a specific, alternative system for real-time procedural manipulation of image data and variants thereof with reference to FIG. 5 be explained.

Für das System zur prozeduralen Echtzeitmanipulation sind grundsätzlich zwei Komponenten zu unterscheiden, das Autorensystem und das Echtzeitsystem.For the system for real-time procedural manipulation basically two components have to be distinguished: the authoring system and the real-time system.

Das Autorensystem (Eingabeeinheit) besteht aus einem Konfigurationsmodul und einem Bearbeitungsmodul. Mit Hilfe des Konfigurationsmoduls wird die Hardware des Systems spezifiziert. Dazu gehört die Anzahl der Bildschirme, die Spezifikation der Eingabedaten (Messstationen, Musik, Interaktionskomponenten), etc. Mit dem interaktiven Bearbeitungsmodul werden dem eigentlichen Videodatenstrom auf Framebasis Prozeduren (CFD, Bildverarbeitung) und Masken zugeordnet, die ihrerseits mit den Eingabedaten verknüpft werden. Auf diese Weise kann das Videobild gestalterisch bearbeitet werden. Darüber hinaus müssen sich die spezifizierten Sequenzen bereits im Bearbeitungsmodul simulieren lassen. Sowohl die im Konfigurationsmodul als auch die im Bearbeitungsmodul erzeugten Daten werden in einem eigens dafür zu entwerfenden Datenformat abgespeichert. Dadurch lassen sich beliebige Skripte und Konfigurationen erzeugen und jederzeit wiederverwenden.The authoring system (input unit) consists of a configuration module and a processing module. The configuration module specifies the hardware of the system. This includes the number of screens, the specification of the input data (measuring stations, music, interaction components), etc. The interactive editing module maps procedures (CFD, image processing) and masks to the actual video stream on a frame basis, which in turn are linked to the input data. In this way, the video image can be edited creatively. In addition, the specified sequences must already be simulated in the processing module. Both the data generated in the configuration module and in the processing module are saved in a specially designed data format. As a result, any scripts and configurations can be generated and reused at any time.

Im Echtzeitsystem (Bearbeitungseinheit) erfolgt die Komposition eines neuen Videodatenstroms aus einem oder mehreren Videoeingangsströmen, CFD, und prozedural gesteuerter Bildmanipulation. Dazu liest das Echtzeitsystem neben den Videoeingangsdaten die Konfigurations- und die Bearbeitungsdatei.In the real-time system (processing unit), a new video data stream is composed of one or more video input streams, CFD, and procedurally controlled image manipulation. In addition to the video input data, the real-time system reads the configuration and the editing file.

Im Gegensatz zum Echtzeitsystem spielen zeitliche Randbedingungen im Autorensystem eine untergeordnete Rolle. Interaktive Antwortzeiten sind vollkommen ausreichend. Wichtig beim Autorensystem ist jedoch die Benutzerschnittstelle, auf die beim Echtzeitsystem je nach Anwendung sogar vollständig verzichtet werden kann. Interessant ist eine Benutzerschnittstelle für das Echtzeitsystem nur dann, wenn das System direkt auf die Benutzer reagiern soll. Dies ist z.B. der Fall, wenn eines der Ausgabegeräte einen Touch-Screen enthält, mit der der Benutzer die Bilder steuern kann, oder wenn das Video auf Spracheingabe reagieren soll.Unlike the real-time system, temporal boundary conditions play a minor role in the authoring system. Interactive response times are perfectly adequate. Important in the case of the authoring system, however, is the user interface, which can even be completely dispensed with in the case of the real-time system, depending on the application. A user interface for the real-time system is only interesting if the system is to respond directly to the users. This is e.g. This is the case if one of the output devices contains a touch screen that allows the user to control the images, or if the video should respond to voice input.

Das Echtzeitsystem setzt sich im Ausführungsbeispiel aus folgenden Komponenten zusammen:

  • Video/Bildeingangsmodul 20, Eingabemodul 21, insbesondere Messwerterfassungsmodul, CFD-Simulator 22 (CFD: Computational Fluid Dynamics), Volumenvisualsierungseinheit 23, Bildverarbeitungseinheit 24 (OpenGL basiert), Ausgabeeinheit 25, Bilddatenspeicher 26 und zentrales Kompositionsmodul 27.
The real-time system is composed in the embodiment of the following components:
  • Video / image input module 20, input module 21, in particular measured value acquisition module, CFD simulator 22 (CFD: Computational Fluid Dynamics), volume visualization unit 23, image processing unit 24 (OpenGL based), output unit 25, image data memory 26 and central composition module 27.

Im Kompositionsmodul laufen die Eingabedatenströme zusammen. Anhand der Spezifikation in der Bearbeitungsdatei baut der Kompositionsmodul eine 3D Szene mit Videotexturen auf und generiert und animiert z.B. mit Hilfe des Stencil-Buffers Masken auf den Frames des Eingangsvideos. Zur prozeduralen Animation von Bildinhalten kommuniziert der Kompositionsmodul mit dem Eingabemodul, dem CFD-Modul, dem Volumenvisualisierer und der Bildverarbeitungseinheit. Mit Hilfe der Manipulationsmodule wird die 3D- Szenenbeschreibung entsprechend modifiziert und schließlich gerendert und das Bild an die Bildausgabeeinheit weitergeleitet. Die Bildausgabeeinheit kann dabei wegfallen, wenn z.B. die Bilddaten direkt aus dem Framebufferüber eine VGA-Schnittstelle an ein entsprechendes Ausgabegerät weitergereicht werden. Ansonsten sind je nach Bedarf entsprechende Komprimierungsalgorithmen und Archivierungsmethoden zu realisieren. Die Eingabeeinheit kapselt sinnvollerweise die unterschiedlichen Eingabedatenströme (skalare Werte) durch ein normiertes Interface.In the composition module, the input data streams converge. On the basis of the specification in the editing file, the composition module builds a 3D scene with video textures and generates and animates masks on the frames of the input video, eg with the aid of the stencil buffer. For procedural animation of image content, the composition module communicates with the input module, the CFD module, the volume visualizer, and the image processing unit. With the aid of the manipulation modules, the 3D scene description is modified accordingly and finally rendered and the image is forwarded to the image output unit. The image output unit can be omitted if, for example, the image data is passed directly from the frame buffer via a VGA interface to a corresponding output device. Otherwise, appropriate compression algorithms and archiving methods can be implemented as required. The input unit usefully encapsulates the different input data streams (scalar values) through a normalized interface.

Als technische Grundlage wird ein Graphikrechner eingesetzt, der Videotexturen unterstützt. Zusätzlich muss die Hardware über einen hinreichend schnellen Bus und über einen hinreichend schnellen Plattenzugriff zur Speicherung des Ausgangsvideostroms verfügen.As a technical basis, a graphics computer is used, which supports video textures. In addition, the hardware must have a sufficiently fast bus and a sufficiently fast disk access to store the output video stream.

Neben Hardwareunterstützung spielen bei der Auswahl eines Systems auch die Softwareschnittstellen eine bedeutende Rolle. Hier bieten verschiedene Hersteller neben der Hardwareunterstützung auch den entsprechenden Softwaresupport in Form einer Erweiterung des Standard OpenGL-Befehlsatzes um Befehle zur Videotexturierung und Bildverarbeitung in Hardware. Diese Möglichkeiten (auch in Form von Erweiterungskarten) existieren auf praktisch allen Plattformen. Die wichtigsten Unterschiede gibt es hier bzgl. der Auflösung und der Anzahl der Videoströme die in Echtzeit verarbeitet werden können.In addition to hardware support, the software interfaces also play a significant role in the selection of a system. In addition to the hardware support, various manufacturers offer the corresponding software support in the form of an extension of the standard OpenGL instruction set with commands for video texturing and image processing in hardware. These possibilities (also in the form of expansion cards) exist on practically all platforms. The most important differences are here regarding the resolution and the number of video streams that can be processed in real time.

Wünschenswerte Hardwareeigenschaften sind: Unterstützung von DVE (Digital Video Editing), viele Bildverarbeitungsoperationen in Hardware, wie z.B. Texturefilterung, Faltung, Histogrammerstellung, Farb-Matrix und lineare Farbraumkonversion, Lookup Tabellen mit bis zu 4096 Farbeinträgen, atmosphärische Effekte, wie z.B. Nebel.Desirable hardware features are: support of DVE (Digital Video Editing), many image processing operations in hardware, such as Texture filtering, convolution, histogram creation, color matrix and linear color space conversion, lookup tables with up to 4096 color entries, atmospheric effects, e.g. Fog.

Wichtig ist ist auch die Berücksichtigung der Datenraten. Da die vorproduzierten Sequenzen vorzugsweise 10-12 Minuten lang sind, können diese nicht im RAM gehalten werden, sondern müssen zum Verarbeiten von externen Medien geladen werden.It is also important to consider the data rates. Since the pre-produced sequences are preferably 10-12 minutes long, they can not be held in RAM but must be loaded to process external media.

Bei Verwendung von 1024 x 1280 Punkten Auflösung für die Videobilder ergibt sich für eine Farbtiefe von 8x8x8 Bit , d.h. 16 Mio. Farben und 25 Bildern pro Sekunde ein unkomprimierter Datenstrom von 93,75 MByte/sec. Verglichen mit 29,66 Mbyte/sec für unkomprimiertes PAL ist dies mehr als ein Faktor 3. Verwendet man die durchaus übliche 4:2:2 Kodierung für die Farben, so kommt man bei PAL auf 19,78 Mbyte/sec und bei einer Auflösung von 1024 x 1280 auf beachtliche 62,5 Mbyte/sec. Ohne weitere Komprimierung lässt sich dieser Datenstrom daher nicht von Platte einlesen, wenn man von einer max. Transferrate von 40 Mbyte/sec für einen ULTRA SCSI Adapter ausgeht. D.h. zusätzlich zu allen möglichen Berechnungen muss der Videostrom in Echtzeit dekomprimiert werden. Sollen mehrere Layer gemischt werden, dann müssen zum Zeitpunkt des Mischens die Layer als unkomprimierte Videoströme vorliegen. Wegen der hohen notwendigen Bandbreite kommen hier vorzugsweise schnelle Speicherzugriffe einer SharedMemory Architektur in Frage. Eine Hardware-Bandbreite von 80OMB/sac Peak Performance reicht grundsätzlich aus, z.B. 5 Video-DatenStröme aus dem Speicher zu laden, in einem Prozessor zu vereinigen (wenn nur elementarste Operationen durchgeführt werden) und als einen Datenstrom wieder in den Speicher zu schreiben.When using 1024 x 1280 pixels video image resolution results in an uncompressed data stream of 93.75 MB / s for a color depth of 8x8x8 bits, ie 16 million colors and 25 frames per second. Compared to 29.66 Mbytes / sec for uncompressed PAL, this is more than a factor of 3. If you use the quite usual 4: 2: 2 coding for the colors, you get PAL at 19.78 Mbytes / sec and at a resolution from 1024 x 1280 on considerable 62.5 Mbytes / sec. Without further compression, this data stream can therefore not be read from disk, if one of a max. Transfer rate of 40 Mbytes / sec for an ULTRA SCSI adapter. That is, in addition to all possible calculations, the video stream must be decompressed in real time. If several layers are to be mixed, then at the time of mixing the layers must be available as uncompressed video streams. Because of the high bandwidth required, preferably fast memory accesses of a shared memory architecture come into question here. A hardware bandwidth of 80OMB / sac peak performance is basically sufficient, for example, to load 5 video data streams from memory, merge them into one processor (when only performing very basic operations) and write them back to memory as a data stream.

Mit realistischem Aufwand zu implementieren sind diese Operationen z.B., wenn auf POSIX-Threads zurückgegriffen werden kann und die dort vorhandenen Synchronisationsprimitiva. POSIX-Threads werden von dem IRIX Betriebssystem der Firma Silicon Graphics Inc. (SGI) unterstützt. Da die notwendigen Datentransferraten bei 5 Layers und 1024 x 1280 Auflösung sehr hoch sind, muss bei der Implementierung von Software gleich jeder Art sehr viel Sorgfalt aufgewandt werden, da die Synchronisationseffekte eines jeden Befehls bedacht werden müssen.For example, these operations can be implemented with realistic effort when using POSIX threads and the synchronization primitives available there. POSIX threads are supported by the IRIX operating system of Silicon Graphics Inc. (SGI). Since the necessary data transfer rates are very high at 5 layers and 1024 x 1280 resolution, a great deal of care must be taken when implementing software of any kind, since the synchronization effects of each instruction must be considered.

Das Laden eines (Videodaten-)Stromes kann in der Regel wesentlich effizienter durchgeführt werden wie das mehrerer Ströme, weil beispielweise Repositionierungen des Festplattenkopfes seltener vorkommen usw. Auch andere Vorgänge, wie etwa Lesen der Daten auf sogenannten "Slave"-Rechnern und Transfer an den "Master"-Rechner etwa via Fast-Ethemet bleiben in einer ähnlichen Bandbreite. Um die Bandbreite für die Übertragung von Videoströmen zu beschränken, ist eine Komprimierung der Videodaten sinnvoll und je nach Hardware erforderlich.The loading of a (video data) stream can usually be carried out much more efficiently than that of multiple streams, for example repositioning the hard disk head occur less frequently, etc. Also other operations, such as reading the data on so-called "slave" computers and transfer to the "Master" calculators such as via Fast Ethemet remain in a similar range. To limit the bandwidth for video streaming, it is useful to compress the video data, depending on the hardware.

Claims (18)

  1. Device for the procedural real-time manipulation of image data streams comprising an input unit (1) for receiving image data streams, which is connected to an image data source (2), and an output unit (3) for outputting image data, which is connected to the input unit (1) at least indirectly and is designed to output image data to at least one image display (4), comprising a processing unit (6; 9) having an input for receiving at least one temporally variable, external parameter derived from ambient variables originating from outside the device, such as the ambient temperature, for example, wherein the processing unit (6; 9) is connected to the input unit (1) and the output unit (3) and is designed to change image data received from the input unit (1) in a manner dependent on the parameters in the image parameters and to output them to the output unit (3), wherein the processing unit (6; 9) is designed in such a way that it changes the received image data by carrying out computational processes which determine the change in the image data by means of the parameters, wherein the device comprises an input unit (7) - connected to the processing unit - for determining the computational processes of the processing unit, and wherein the processing unit (6) comprises a mask recognition unit (10), which ensures that partial regions to be processed of the image data received from the input unit (1) are selected, and wherein the mask recognition unit (10) is connected to the input unit (1) and, on the basis of predetermined mask recognition methods, selects the image data to be processed from the incoming image data stream and communicates them to a mask processing unit (11), and wherein the mask processing unit (11) receives temporally variable parameters alongside the image data to be processed and calculates new image data depending on the received image data and the received parameters, and wherein the processing unit (6; 9) is designed to change the masks depending on the parameters, such that the masks themselves experience a procedural animation.
  2. Device according to Claim 1, characterized in that the processing unit (6; 9) is designed to continuously change the image data received from the input unit (1) depending on the parameters in such a way that even an abrupt change in the parameter brings about a gradual change in the image data, and to output them to the output unit (3).
  3. Device according to Claim 2, characterized in that the processing unit (6; 9) is designed to continuously change the image data received from the input unit (1) by transformation proceeding from predetermined image information.
  4. Device according to Claim 1, characterized in that the processing unit (6; 9) is designed to change the image data received from the input unit (1) by generating new, artificial image information.
  5. Device according to Claim 1, characterized in that the processing unit (6; 9) is designed to change the received image data pixel by pixel.
  6. Device according to Claim 1, characterized in that the parameters represent events taking place outside the device.
  7. Device according to any of the preceding claims, characterized in that the processing unit (6; 9) is configured in such a way that it changes the received image data in real time.
  8. Device according to any of the preceding claims, characterized in that the processing unit (6; 9) is configured in such a way that it changes image parameters of the received image data such as colour, brightness, contrast, gradation, sharpness.
  9. Device according to any of the preceding claims, characterized in that the processing unit (6; 9) is configured in such a way that it changes the sequential speed of image sequences, the speed of image transformations, form profiles, positioning and extent of three-dimensional bodies, textures of image objects, combinations - predetermined by stylizations - of parameters determining the appearance of image objects, a depth representation, or image objects in the form of geometrical effects.
  10. Device according to any of the preceding claims, in particular according to Claim 3, characterized in that the processing unit (6; 9) is designed to change a received image data by superimposition with previously stored image data within image regions defined by masks.
  11. Device according to any of the preceding claims, characterized in that the output unit (3) is designed to output the changed image data to the image displays (4) via a network such as the Internet, television picture transmitters or computer networks.
  12. Device according to any of the preceding claims, characterized by a detector (5) connected to the input of the processing unit (6; 9) and serving for measuring the image-influencing temporally variable parameters.
  13. Device according to Claim 12, characterized in that the detector (5) is designed such that it cannot be influenced in its state by a viewer of the image data output to the output unit (3).
  14. Device according to Claim 12 or 13, characterized by a control unit (8), which is connected to the detector (5) and the output unit (3) and is suitable for controlling the detector (5), wherein the control unit (8) receives image data from the output unit (3) and controls the detector (5) depending on the image data received from the output unit (3).
  15. Device according to Claim 1, characterized in that the input unit (7) is designed to determine the computational processes on the basis of an algorithmic rule system.
  16. Device according to Claim 1, characterized in that the input unit (7) has a user interface that visualizes the computational processes of the processing unit (6; 9).
  17. Device according to Claim 1, characterized in that the processing unit (6; 9) is designed to simulate the movement of liquids, gases, particles, physical particles or solid bodies by means of the computation processes.
  18. Device according to Claim 17, characterized in that the processing unit (6; 9) is designed to simulate the movement of flowing substances by means of the Navier-Stokes equation.
EP01982397A 2000-10-04 2001-10-04 Image reproduction device Expired - Lifetime EP1609307B1 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
DE10050672 2000-10-04
DE10050672 2000-10-04
DE10062503A DE10062503A1 (en) 2000-10-04 2000-12-08 Image display device
DE10062503 2000-12-08
PCT/EP2001/011467 WO2002030110A1 (en) 2000-10-04 2001-10-04 Image reproduction device

Publications (2)

Publication Number Publication Date
EP1609307A1 EP1609307A1 (en) 2005-12-28
EP1609307B1 true EP1609307B1 (en) 2012-05-09

Family

ID=26007346

Family Applications (1)

Application Number Title Priority Date Filing Date
EP01982397A Expired - Lifetime EP1609307B1 (en) 2000-10-04 2001-10-04 Image reproduction device

Country Status (3)

Country Link
EP (1) EP1609307B1 (en)
AU (1) AU2002213994A1 (en)
WO (1) WO2002030110A1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4090216A (en) * 1976-05-26 1978-05-16 Gte Sylvania Incorporated Ambient light contrast and color control circuit
US5048390A (en) * 1987-09-03 1991-09-17 Yamaha Corporation Tone visualizing apparatus
US5557424A (en) * 1988-08-26 1996-09-17 Panizza; Janis M. Process for producing works of art on videocassette by computerized system of audiovisual correlation

Also Published As

Publication number Publication date
WO2002030110A1 (en) 2002-04-11
EP1609307A1 (en) 2005-12-28
AU2002213994A1 (en) 2002-04-15

Similar Documents

Publication Publication Date Title
EP3329682B1 (en) A system for compositing video with interactive, dynamically rendered visual aids
US6570581B1 (en) On-location video assistance system with computer generated imagery overlay
DE10110358B4 (en) Arrangement and method for spatial visualization
DE69333508T2 (en) Apparatus and method for processing video signals
DE69922705T2 (en) SYSTEM FOR NUMERICAL COLLECTION AND RECORDING OF PANORAMIC IMAGES.
WO2005045729A1 (en) System and method for carrying out and visually displaying simulations in an augmented reality
CA2911553C (en) Audio-video compositing and effects
DE102017218559A1 (en) RECORDING DIGITAL COMPREHENSIVE EXPERIENCES HIGH PERFORMANCE BY CALCULATIONS OUTSIDE A DEVICE
CN109348156A (en) Courseware recording and playing method and device, intelligent interactive panel and storage medium
CN106502402A (en) A kind of Three-Dimensional Dynamic Scene Teaching system and method
WO1999050988A2 (en) A method of relaying digital video and audio data via a communication media
EP2201524A2 (en) Method for creating and/or updating textures of background object models, video monitoring system for carrying out the method, and computer program
CN112446939A (en) Three-dimensional model dynamic rendering method and device, electronic equipment and storage medium
EP1609307B1 (en) Image reproduction device
DE3323946C2 (en) Facility for producing large images
DE19624151C2 (en) Video presentation system
DE102013016921A1 (en) Image display system and method for motion-synchronous image display in a means of transport
DE102016119637A1 (en) Television transmission system for generating enriched images
DE10062503A1 (en) Image display device
DE102016015136A1 (en) Interacting with 3D digital content and control thereof
EP1184794B1 (en) Method and apparatus for creating activatable objects for elements of a video sequence
AT506618B1 (en) INTERACTIVE MULTIMEDIA PRESENTATION DEVICE
CN1193145A (en) Cartoon interface editing method
Shin et al. Design of a framework for interoperable motion effects for 4D theaters using human-centered motion data
EP1638101B1 (en) Video assist system for efficient recording of video data to facilitate reproduction on multiple displays

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20030926

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE TR

19U Interruption of proceedings before grant

Effective date: 20071001

19W Proceedings resumed before grant after interruption of proceedings

Effective date: 20090102

17Q First examination report despatched

Effective date: 20091109

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

Ref country code: AT

Ref legal event code: REF

Ref document number: 557527

Country of ref document: AT

Kind code of ref document: T

Effective date: 20120515

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 50116110

Country of ref document: DE

Effective date: 20120712

REG Reference to a national code

Ref country code: NL

Ref legal event code: VDEP

Effective date: 20120509

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120509

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120509

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120509

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120910

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120810

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120509

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120509

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120509

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

26N No opposition filed

Effective date: 20130212

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120820

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: LU

Payment date: 20130424

Year of fee payment: 12

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 50116110

Country of ref document: DE

Effective date: 20130212

REG Reference to a national code

Ref country code: IE

Ref legal event code: MM4A

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20121004

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: AT

Payment date: 20131022

Year of fee payment: 13

Ref country code: MC

Payment date: 20131023

Year of fee payment: 13

Ref country code: CH

Payment date: 20131220

Year of fee payment: 13

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120509

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 14

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MC

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20141031

REG Reference to a national code

Ref country code: CH

Ref legal event code: PL

REG Reference to a national code

Ref country code: AT

Ref legal event code: MM01

Ref document number: 557527

Country of ref document: AT

Kind code of ref document: T

Effective date: 20141004

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20131004

Ref country code: LI

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20141031

Ref country code: CH

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20141031

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: GB

Payment date: 20150427

Year of fee payment: 14

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20141004

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20150427

Year of fee payment: 14

GBPC Gb: european patent ceased through non-payment of renewal fee

Effective date: 20151004

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GB

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20151004

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DE

Payment date: 20160422

Year of fee payment: 15

REG Reference to a national code

Ref country code: FR

Ref legal event code: ST

Effective date: 20160630

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: FR

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20151102

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: BE

Payment date: 20160422

Year of fee payment: 15

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20161031

REG Reference to a national code

Ref country code: DE

Ref legal event code: R119

Ref document number: 50116110

Country of ref document: DE

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: DE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20170503

REG Reference to a national code

Ref country code: BE

Ref legal event code: MM

Effective date: 20161031