DE10062503A1 - Vorrichtung zur Bildwiedergabe - Google Patents

Vorrichtung zur Bildwiedergabe

Info

Publication number
DE10062503A1
DE10062503A1 DE10062503A DE10062503A DE10062503A1 DE 10062503 A1 DE10062503 A1 DE 10062503A1 DE 10062503 A DE10062503 A DE 10062503A DE 10062503 A DE10062503 A DE 10062503A DE 10062503 A1 DE10062503 A1 DE 10062503A1
Authority
DE
Germany
Prior art keywords
image data
unit
processing unit
image
designed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE10062503A
Other languages
English (en)
Inventor
Margit Frank
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FLUYDS GMBH, 10829 BERLIN, DE
Original Assignee
MARGIT FRANK MEDIA ART GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MARGIT FRANK MEDIA ART GmbH filed Critical MARGIT FRANK MEDIA ART GmbH
Priority to DE10062503A priority Critical patent/DE10062503A1/de
Priority to AU2002213994A priority patent/AU2002213994A1/en
Priority to AT01982397T priority patent/ATE557527T1/de
Priority to PCT/EP2001/011467 priority patent/WO2002030110A1/de
Priority to EP01982397A priority patent/EP1609307B1/de
Publication of DE10062503A1 publication Critical patent/DE10062503A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • H04N5/58Control of contrast or brightness in dependence upon ambient light

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Emergency Management (AREA)
  • Environmental & Geological Engineering (AREA)
  • Environmental Sciences (AREA)
  • Remote Sensing (AREA)
  • Picture Signal Circuits (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Vorrichtung zur Bildwiedergabe mit einer Eingangseinheit (1) zum Empfangen von Bilddaten, die mit einer Bilddatenquelle (2) verbunden ist, und einer Ausgangseinheit (3) zum Ausgeben von Bilddaten, die zumindest mittelbar mit der Eingangseinheit (1) verbunden ist und ausgebildet ist, Bilddaten an mindestens eine Bildanzeige (4) auszugeben, wobei eine Bearbeitungseinheit (6; 9) mit einem Eingang zum Empfangen mindestens eines zeitlich veränderlichen Parameters (5) sowie die Bearbeitungseinheit (6; 9) mit der Eingangseinheit (1) und der Ausgangseinheit (3) verbunden ist, und ausgebildet ist, von der Eingangseinheit (1) empfangene Bilddaten in durch Masken definierten Teilbereichen in Abhängigkeit von den Parametern kontinuierlich zu verändern und an die Ausgangseinheit (3) auszugeben.

Description

Die vorliegende Erfindung betrifft eine Vorrichtung zur Bildwiedergabe mit einer Eingangseinheit zum Empfangen von Bilddaten, die mit einer Bilddatenquelle verbunden ist, und einer Ausgangseinheit zum Ausgeben von Bilddaten, die zu­ mindest mittelbar mit der Eingangseinheit verbunden ist und ausgebildet ist, Bilddaten an eine Bildanzeige wie einen Bildschirm auszugeben.
Solche Systeme sind weitgehend bekannt, beispielsweise werden Fernsehmonitore dazu verwendet Bilder wiederzugeben. Als Bilddatenquelle dient häufig ein Videore­ korder, der auf einer Videokassette abgespeicherte Bilddaten abspielt, die ein Monitor empfängt und wiedergibt. Ein solches Bildwiedergabesystem bestehend aus Videorekorder und Fernsehmonitor hat den Nachteil, dass es lediglich aufge­ zeichnete Bildinformationen wiedergeben kann. Das Bildwiedergabesystem ist nicht in der Lage auf äußere Einflüsse zu reagieren. Bildwiedergabesysteme, die zu­ mindest zum Teil auf äußere Einflüsse reagieren können sind aus dem öffentlichen Nahverkehr bekannt. Monitore werden beispielsweise in U-Bahnhöfen aufgestellt, um Passanten Werbung zu präsentieren. Diese Bilder werden einfach von einer Bilddatenquelle abgespielt, auf der die Bilder gespeichert sind.
Wenn jedoch ein Zug einfährt, so wird dem Zuschauer auf den Monitoren ein Bild präsentiert, das ihn auf dieses Ereignis aufmerksam macht. Beispielsweise er­ scheint auf dem Monitor der Hinweis: "Achtung ein Zug fährt ein". Die Interaktivi­ tät mit der Umgebung wird dadurch erreicht, dass im Fall eines einfahrenden Zuges, der Monitor seine Informationen von einer zweiten Bilddatenquelle erhält. Diese Bilddatenquelle enthält die Bilddaten, die den auszugebenden Warnhinweis darstellen. Letztlich werden also nur vorhandene Bilddaten wiedergegeben, lediglich die Reihenfolge und der Zeitpunkt, in der diese Bilddaten wiedergegeben werden, kann durch die Umgebung beeinflusst werden, denn es wird zwischen zwei Bild­ datenquellen umgeschaltet. Die Fähigkeit dieses Bildwiedergabegerätes, auf sein Umgebung zu reagieren, ist also weiterhin stark eingeschränkt.
Es ist Aufgabe der vorliegende Erfindung, eine Vorrichtung zur Bildwiedergabe mit erweiterten Möglichkeiten bereitzustellen.
Die Aufgabe wird gelöst durch eine Vorrichtung zur Bildwiedergabe mit einer Eingangseinheit zum Empfangen von Bilddaten, die mit einer Bilddatenquelle verbunden ist, und einer Ausgangseinheit zum Ausgeben von Bilddaten, die zu­ mindest mittelbar mit der Eingangseinheit verbunden ist und ausgebildet ist, Bilddaten an eine Bildanzeige wie einen Bildschirm auszugeben, gekennzeichnet durch eine Bearbeitungseinheit mit einem Eingang zum Empfangen mindestens eines zeitlich veränderlichen Parameters, wobei die Bearbeitungseinheit mit der Eingangseinheit und der Ausgangseinheit verbunden ist und ausgebildet ist, von der Eingangseinheit empfangene Bilddaten in durch Masken definierten Teilberei­ chen in Abhängigkeit der Parameter kontinuierlich zu verändern und an die Aus­ gangseinheit auszugeben.
Die Bildanzeige erhält die Bilddaten in der geeigneten Form von der Ausgangsein­ heit, welche wiederum mit der Bearbeitungseinheit verbunden ist. Diese empfängt den zeitlich veränderlichen Parameter über einen Eingang. Die von der Bilddaten­ quelle stammenden Bilddaten werden von der Bearbeitungseinheit in Teilbereichen abhängig von dem Parameter kontinuierlich verändert. Es ist somit möglich für die Vorrichtung zur Bildwiedergabe auf die Parameter derart zu reagieren, dass die wie­ dergegebenen Bilder in Teilbereichen verändert sind. Die Veränderung der Bilder bewirkt also nicht lediglich die Anzeige eines völlig anderen Bildes, sondern auch die Anzeige eines in Teilbereichen veränderten Bildes. Die wiedergegebenen Bilder entsprechen auch nicht mehr einem von einer Bilddatenquelle stammenden Bild, sondern sind diesem gegenüber verändert. Die nach der Bearbeitung wiedergegebe­ nen Bilddaten sind neu und ihr Erscheinungsbild wird allein von der Abhängigkeit zwischen den eingehenden Parametern und der damit verbundenen Veränderung der Bilddaten durch die Bearbeitungseinheit bestimmt. Die erfindungsgemäße Vorrichtung ist somit in der Lage, in weitaus differenzierterer Weise auf äußere Ereignisse zu reagieren, als dies aus dem Stand der Technik bekannt ist.
Zwar sind aus dem Stand der Technik Postproduktions-Systeme wie Photoshop, Flame u. a. bekannt. Diese sind dazu vorgesehen, auf einem Speichermedium gespeicherte Bilddaten mittels eines Personalcomputers gezielt zu bearbeiten. Die Effekte von eingegebenen Befehlen zur Bildbearbeitung werden auf dem Bildschirm des PCs dargestellt. Der PC empfängt also keine zeitlich veränderlichen Parameter wie Temperatur oder Helligkeit einer bestimmten Umgebung über einen Eingang, sondern Befehle über eine Tastatur oder ein anderes Eingabemittel zur gezielten und voraussagbaren Bearbeitung von Bildern. Ferner werden die von diesen Bild­ bearbeitungsprogrammen hervorgerufenen Bildveränderungen in der Regel als Effekte vorproduziert. Die kontinuierliche Veränderung von Bildparametern wie Farbe und Helligkeit in Abhängigkeit von einem äußeren Parameter können mittels dieser Programme nicht sichtbar gemacht werden. Stattdessen werden bei diesen Postproduktionssystemen Anfangs- und Endzustände von Bildparametern berech­ net. Die Zwischenzustände werden entweder dynamisch vorproduziert, durch Effektfilter erzielt oder durch eine Mischung der Anfangs- und Endzustände er­ mittelt. Eine Neuberechnung im engeren Sinne erfolgt jedoch nicht. Solche Lösun­ gen sind ausreichend, solange die Information, die die Bilddaten als Endprodukt enthalten sollen, vorhersagbar sind. Die Anforderungen ändern sich jedoch, sobald nicht vorhersagbare Ereignisse das wiedergegebene Bild beeinflussen. In diesem Fall muss die Veränderung der Bilddaten in Abhängigkeit von den Parametern kontinuierlich erfolgen. D. h., dass ein zu einem gewissen Zeitpunkt t empfangener Parameterwert P(t) eine Veränderung der zu demselben Zeitpunkt t empfangenen Bilddaten BD(t) hervorruft. Wenn die Veränderung der Bilddaten für eine begrenzte zeitliche Folge von aufeinanderfolgenden Bilddaten und Parameterwerten wie vorstehend beschrieben erfolgt, so liegt eine kontinuierliche Veränderung der Bild­ daten in Abhängigkeit von dem Parameter vor. Die Manipulation der Bilddaten durch die Bearbeitungseinheit stellt somit eine prozedurale Animation der Bilddaten im Bereich der Masken dar. Die Masken können fest vorgegeben sein oder auch selbst wiederum in Abhängigkeit von den Parametern verändert werden, so dass die Masken selber eine prozedurale Animation erfahren.
Vorzugsweise repräsentieren die empfangenen Parameter Ereignisse außerhalb der Vorrichtung. Als äußeres Ereignis wird jede Form von zeitlicher Veränderung verstanden, die nicht von der Vorrichtung selbst generiert wird, sondern über den Eingang der Bearbeitungseinheit empfangen wird. Als Parameter kann jede denk­ bare physikalische Größe wie Helligkeit, Lautstärke oder Temperatur dienen. Ferner können die Parameter auch Ereignisse wie die Landung eines Flugzeuges, der aktuelle Wert eines Aktienindexes oder die Anzahl der Zugriffe auf eine Internet- Seite repräsentieren. Damit wird die Vorrichtung zur Bildbearbeitung in eine Bezie­ hung zu ihrer Umwelt gesetzt. Die Veränderungen des wiedergegebenen Bildes spiegeln auf ihre Weise die Vorgänge außerhalb der Vorrichtung wieder. Für den unbefangenen Betrachter ist die Beobachtung des Bildes von hohem Unterhal­ tungswert, insbesondere, wenn er selbst als Teil der Umwelt der Vorrichtung die Bildveränderungen manipulieren kann und dient allgemein einer intuitiven Erfassung von Information.
In einer bevorzugten Ausführungsform ist die Bearbeitungseinheit derart ausgebil­ det, dass sie die Bilddaten ändert, indem sie Rechenprozesse durchführt, die die Änderung der Bilddaten durch die Parameter realisiert. Der von der Bearbeitungs­ einheit durchgeführte Rechenprozess basiert auf einem Algorithmus, der festlegt, wie die Parameter die Bilddaten beeinflussen. Somit ist es unmöglich, vorauszuse­ hen, welche Veränderungen der Bilddaten auftreten werden, denn der unbekannte zeitliche Verlauf des Parameters bestimmt die Veränderung der Bilddaten. Die tatsächlich auftretenden Veränderungen sind zudem eine Funktion des zeitlich ver­ änderlichen Parameters und damit einzigartig für jeden Wert des Parameters. Bei vorheriger Kenntnis des eingehenden Parameters sind die zeitlichen Veränderungen der Bilddaten determiniert, da jedoch die Kenntnis dieses Parameters im allgemei­ nen unbekannt ist, sind die veränderten Bilddaten unvorhersagbar.
Die Bearbeitungseinheit der erfindungsgemäßen Vorrichtung ist bevorzugt derart ausgestaltet, dass sie die empfangenen Bilddaten anhand der Parameter in Echtzeit verändert. Unter Änderung der Bilddaten in Echtzeit wird verstanden, wenn es für einen menschlichen Beobachter unmöglich ist, eine zeitliche Verzögerung durch die Bearbeitung festzustellen. Eine solche Echtzeit-Veränderung stellt also für einen Beobachter einen zeitlich unmittelbaren Zusammenhang zwischen den empfange­ nen Parametern und dem wiedergegebenen Bild dar. Die Vorrichtung ist somit in der Lage, die aktuellen Ereignisse in anderer Form wiederzuspiegeln. Durch Be­ trachtung des wiedergegebenen Bildes lassen sich die aktuellen äußeren Ereignisse gedanklich herleiten. Das wiedergegebene Bild stellt somit einen entschlüsselbaren Code, also eine Art Sprache, dar, welche die äußeren Ereignisse repräsentiert.
Die Bearbeitungseinheit kann auch derart ausgestaltet sein, dass sie die Bildpa­ rameter der empfangenen Bilddaten wie Farbe, Helligkeit, Kontrast, Gradation oder Schärfe verändert. Auf diese Weise werden die Bildparameter in eine Beziehung zu den Parametern gesetzt, die die Umwelt der Vorrichtung repräsentieren. Das Erscheinungsbild eines veränderten Teilbereichs des wiedergegebenen Bildes stellt also eine komplexe Repräsentation unterschiedlicher Ereignisse dar.
Eine spezielle Ausführungsform der Erfindung ist dadurch gekennzeichnet, dass die Ausgangseinheit ausgebildet ist, die veränderten Bilddaten über das Internet oder Fernsehbild-Sender an Bildanzeigen auszugeben. Damit ist es möglich, die Bilddaten an eine Vielzahl von Bildanzeigen an unterschiedlichen Orten gleichzeitig auszu­ geben.
Vorzugsweise umfasst die erfindungsgemäße Vorrichtung eine Steuereinheit, die mit dem Sensor und der Ausgangseinheit verbunden ist und geeignet ist, den Sensor zu steuern, wobei die Steuereinheit Bilddaten von der Ausgangseinheit empfängt und den Sensor in Abhängigkeit von den von der Ausgangseinheit empfangenen Bilddaten steuert. Damit werden die ausgegebenen, veränderten Bilder mit der Bilddatenquelle rückgekoppelt.
Gemäß einer bevorzugten Ausführungsform umfasst die Vorrichtung eine mit der Bearbeitungseinheit verbundene Eingabeeinheit zum Bestimmender Rechenprozes­ se der Bearbeitungseinheit. Damit wird einem "Autoren" ermöglicht vorzugeben, wie die Parameter die Bilddaten verändern. Denn die von der Bearbeitungseinheit durchgeführten Rechenprozesse können über die Eingabeeinheit bestimmt werden. Ferner kann vorgesehen sein, dass die Eingabeeinheit eine die Rechenprozesse der Bearbeitungseinheit visualisierende Benutzeroberfläche aufweist. Der Autor kann somit jederzeit überprüfen, welche Rechenprozesse von der Bearbeitungseinheit durchgeführt werden.
Die Rechenprozesse der Bearbeitungseinheit können auch dazu dienen, die Bewe­ gung von Flüssigkeiten, Gasen oder festen Körpern zu simulieren. Die vom Sensor empfangenen Parameter erzeugen somit Veränderungen, die dem Betrachter des Bildes als die Bewegungen von realen Flüssigkeiten, Gasen oder festen Körpern erscheinen. Unter festen Körpern sind neben leblosen Gegenständen wie Kristallen auch belebte Gegenstände wie Tiere, Menschen und Pflanzen zu verstehen. Die dargestellten Bildveränderung erzeugen die Illusion von einer realen Bewegung, beispielsweise derjenigen eines Wasserstrahls. Zur Simulation von fließenden Stoffen wie Gase, Flüssigkeiten oder feste erodierende Stoffe wird vorzugsweise die Navier-Stokes-Gleichung verwendet. Die Navier-Stokes-Gleichung beschreibt die Bewegung von fließenden Stoffen, deren Bewegungsgeschwindigkeit deutlich unterhalb der Schallgeschwindigkeit liegt. Die im Alltag beobachteten Flüssigkeiten wie Wassertropfen werden beispielsweise durch die Navier-Stokes-Gleichung beschrieben.
Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung wird nachfolgend anhand der beigefügten Figuren beschrieben.
Es zeigen
Fig. 1 eine Vorrichtung zur Bilddatenwiedergabe gemäß einem ersten bevorzugten Ausführungsbeispiel,
Fig. 2 eine Bearbeitungseinheit der Vorrichtung zur Bilddatenwiedergabe gemäß dem ersten Ausführungsbeispiel,
Fig. 3 eine Vorrichtung zur Bilddatenwiedergabe gemäß einem zweiten Ausführungsbeispiel, und
Fig. 4 eine Bearbeitungseinheit der Vorrichtung zur Bilddatenwiedergabe gemäß dem zweiten Ausführungsbeispiel.
Im Folgenden wird die Vorrichtung in Fig. 1 beschrieben. Die Vorrichtung gemäß dem ersten Ausführungsbeispiel umfasst eine Bilddatenquelle 2. Als Bilddatenquelle 2 kommt jedes Speichermedium für Bilder in Betracht, wie beispielsweise Videokas­ setten, Photographien, DVD-Disketten und Festplatten in Betracht. Die Bilddaten werden von der Eingangseinheit 1 wiedergegeben. Als Eingangseinheit können den Bilddatenquellen entsprechende Abspielgeräte wie Videorekorder, DVD-Laufwerk oder der Lesekopf einer Festplatte verwendet werden. Die Eingangseinheit 1 überträgt die abgespielten Bilddaten an die Bearbeitungseinheit 6. Gleichzeitig empfängt die Bearbeitungseinheit 6 zeitlich veränderliche Informationen von einem Sensor 5. Als Bearbeitungseinheit 6 wird in der Regel ein elektronischer Rechner eingesetzt, der in der Lage ist, vielfältige Operationen an den empfangenen Bild­ daten durchzuführen. Zunächst wählt die Bearbeitungseinheit 6 aus den empfange­ nen Bilddaten einen Teilbereich aus, der durch eine Maske definiert ist. Die Manipu­ lation der Bilddaten erfolgt nur innerhalb der ausgewählten Maske. Die Lage und Größe der Maske kann vorbestimmt sein, so dass die Bearbeitungseinheit 6 le­ diglich die zu bearbeitenden Bilddaten anhand der Maske erkennen muss. Es kann jedoch auch vorgesehen sein, dass die Bearbeitungseinheit 6 mittels vorgegebener Maskenerkennungsverfahren eine Maske selbsttätig bestimmt. Ferner kann die Be­ arbeitungseinheit 6 dazu ausgebildet sein, die Masken in Abhängigkeit von den von dem Sensor 5 empfangenen Parameter zu bestimmen. Als Sensor kann jede Art von Detektor eingesetzt werden, der Größen wie beispielsweise Temperatur oder Helligkeit einer bestimmten Umgebung erfasst. Es können auch mehrere mitein­ ander kombinierte Detektoren eingesetzt werden, so dass der Sensor 5 mehrere unterschiedliche Informationen aufnehmen und an die Bearbeitungseinheit 6 weiterleiten kann. Die unterschiedlichen Informationen erreichen die Bearbeitungs­ einheit 6 jeweils als zeitlich veränderliche Parameter. Die von der Eingangseinheit 1 übermittelten Bilddaten werden in der Regel von der Bearbeitungseinheit 6 nicht verändert, wenn die Bearbeitungseinheit 6 keine Informationen von dem Sensor 5 empfängt.
Die Bearbeitungseinheit 6 errechnet mittels einer vorgegebener Rechenoperation aus den empfangenen Parametern und den Bilddaten in den zu verändernden Masken neue Bilddaten. Die Abhängigkeit der Veränderung der Bilddaten von den empfangenen Parametern kann beliebig gewählt werden. Zur Festlegung der Anwendung der Rechenoperationen, die die Bearbeitungseinheit 6 durchführt, ist eine Eingabeeinheit 7 vorgesehen. Diese Eingabeeinheit 7 erlaubt einem Anwender zu bestimmen, auf welche Weise die Bearbeitungseinheit 6 die Bilddaten in Ab­ hängigkeit von den Parametern ändert, d. h welche Rechenoperationen in welchem Maße zur Anwendung kommen. Als Eingabeeinheit 7 kann eine Tastatur oder ein elektronischer Zeichenstift vorgesehen sein.
Die Bilddaten werden schließlich von der Bearbeitungseinheit 6 an eine Ausgangs­ einheit 3 ausgegeben. Die Ausgangseinheit sorgt dafür, dass die Bilddaten in geeigneter Form an eine Bildanzeige 4 ausgegeben werden. Sie kann insbesondere dazu vorgesehen sein, die Bilddaten an eine Vielzahl von Bildanzeigen 4 in unter­ schiedlicher Form auszugeben. Findet die Übertragung an Bildanzeigen 4 über das Internet statt, so sorgt die Ausgangseinheit dafür, dass die Bilddaten als kompri­ mierte Datenpakete von einer Internet-Seite laufend abrufbar sind. Der Abruf der Datenpakete erfolgt automatisch mittels einer geeigneten Software, die dafür sorgt, dass die Bilddaten auf dem entsprechenden Bildschirm wiedergegeben werden. Als Bildanzeige 4 kann jede Art von Monitor oder auch Projektor verwendet werden. Eine Steuereinheit 8 zur Steuerung des Sensors 5 ist vorgesehen, die ebenfalls die von der Ausgangseinheit 3 ausgegebenen Bilddaten empfängt. Durch vorgegebene Operationen wandelt die Steuereinheit 8 die empfangenen Bilddaten in Steuerbe­ fehle zur Steuerung des Sensors 5 um. Durch diese Befehle verändert die Steuer­ einheit 8 beispielsweise die Lage oder Orientierung des Sensors 5. Ferner kann die Steuerung des Sensors 5 darin bestehen, dessen Empfindlichkeit zu erhöhen oder zu verringern. Die in Abhängigkeit von den Parametern des Sensors 5 veränderten Bilddaten bewirken also wiederum über die Steuereinheit 8 eine Veränderung der über den Sensor 5 empfangenen Parameter.
Fig. 2 zeigt ein Blockschaltbild der Bearbeitungseinheit 6 gemäß dem ersten Aus­ führungsbeispiel. Darin ist eine Maskenerkennungseinheit 10 vorgesehen, die dafür sorgt, dass zu bearbeitende Teilbereiche der von der Eingangseinheit 1 empfange­ nen Bilddaten ausgewählt werden. Dazu ist die Maskenerkennungseinheit 10 mit der Eingangseinheit 1 verbunden. Die Maskenerkennungseinheit 10 wählt anhand vorgegebener Maskenerkennungsverfahren die zu bearbeitenden Bilddaten aus und übermittelt sie an eine Maskenbearbeitungseinheit 11. Die übrigen Bilddaten werden von der Maskenerkennungseinheit 10 in einem Bilddatenspeicher 12 zwischengespeichert. Die Maskenbearbeitungseinheit 11 erhält neben den zu bearbeitenden Bilddaten zeitlich veränderliche Parameter von dem Sensor 5, und sie errechnet neue Bilddaten in Abhängigkeit von den empfangenen Bilddaten und den empfangenen Parametern.
Empfängt die Maskenbearbeitungseinheit 11 keine Parameterinformationen von dem Sensor 5, so gibt sie die von der Maskenerkennungseinheit 10 erhaltenen Bilddaten unverändert an eine Mischungseinheit 14 aus. Diese ist mit der Masken­ bearbeitungseinheit 11 und dem Bilddatenspeicher 12 verbunden und setzt die von der Maskenbearbeitungseinheit 11 unverändert übertragenen Bilddaten mit den im Bilddatenspeicher 12 gespeicherten Bilddaten wieder zusammen. Die zusammen­ gesetzten Bilddaten entsprechen in diesem Fall den ursprünglich von der Eingangs­ einheit 1 übertragenen Bilddaten und werden dann von der Mischungseinheit 14 an die Ausgangseinheit 3 übertragen.
Empfängt die Maskenbearbeitungseinheit 11 hingegen zeitlich veränderliche Para­ meter von dem Sensor 5, so errechnet sie neue Bilddaten für den Maskenbereich. Der Algorithmus zur Berechnung der neuen Bilddaten ist in einem Operations­ speicher 13 abgespeichert. Die Maskenbearbeitungseinheit 11 greift auf den Operationsspeicher 13 zu, um das in diesem abgespeicherte Berechnungsverfahren zur Berechnung neuer Bilddaten durchzuführen. Der Operationsspeicher 13 ist wiederum mit der Eingabeeinheit 7 verbunden, die dazu vorgesehen ist, die Opera­ tionen der Maskenbearbeitungseinheit 11 zu bestimmen, indem die durchzuführen­ den Operationen über die Eingabeeinheit 7 in dem Operationsspeicher 13 abge­ speichert werden. Die Maskenbearbeitungseinheit 11 überträgt die neu berech­ neten Bilddaten an die Mischungseinheit 14. Diese setzt die neu berechneten Bilddaten mit den im Bilddatenspeicher 12 gespeicherten Bilddaten zusammen, so dass ein Bilddatensatz entsteht, der sich im Bereich der Maske von den über die Eingangseinheit 1 eingegebenen Bilddaten unterscheidet. Dieser Bilddatensatz wird wiederum von der Mischungseinheit 14 an die Ausgangseinheit 3 ausgegeben. Schließlich ist der Operationsspeicher 13 auch dazu vorgesehen, die von der Mas­ kenerkennungseinheit 10 durchzuführenden Maskenerkennungsoperationen ab­ zuspeichern. Diese Operationen können ebenfalls über die Eingabeeinheit 7 in den Operationsspeicher 13 eingeschrieben werden. Die Maskenerkennungseinheit 10 ist mit dem Operationsspeicher 13 verbunden und führt die in diesem gespeicher­ ten Maskenerkennungsoperationen aus.
Fig. 3 zeigt das zweite Ausführungsbeispiel der vorliegenden Erfindung. In dieser Figur sind die dem ersten Ausführungsbeispiel entsprechenden Merkmale mit denselben Bezugszeichen bezeichnet. Anstelle der Bearbeitungseinheit 6 ist eine Bearbeitungseinheit 9 dargestellt, die erweiterte Möglichkeiten hat. Diese Bearbei­ tungseinheit ist im Detail in Fig. 4 dargestellt. Die Bearbeitungseinheit 9 bewirkt jedoch nach wie vor eine Veränderung der eingehenden Bilddaten in Abhängigkeit von den Parametern. Ein Unterschied zu der in Fig. 1 beschriebenen Vorrichtung besteht darin, dass die Steuereinheit 8 einen zweiten Eingang besitzt, über den sie die unveränderten Bilddaten von der Eingangseinheit 1 empfängt. Die Steuereinheit 8 ist zudem dazu ausgelegt, den Sensor 5 sowohl in Abhängigkeit von den ver­ änderten Bilddaten von der Ausgangseinheit 3 als auch in Abhängigkeit von den unveränderten Bilddaten von der Eingangseinheit 1 zu steuern. Insbesondere kann die Steuereinheit 8 derart ausgelegt sein, dass sie eine Differenz zwischen den unveränderten Bilddaten und den veränderten Bilddaten erhebt und in Abhängigkeit von der Differenz den Sensor steuert. Diese Differenz entspricht der Änderung der Bilddaten im Bereich der Masken. Die Steuerung des Sensors ist somit eine Funk­ tion der Änderung der Bilddaten.
Fig. 4 zeigt die Bearbeitungseinheit 9 des zweiten Ausführungsbeispiels im Detail. Die gleichen Bestandteile der Bearbeitungseinheit wie in Fig. 6 sind mit denselben Bezugszeichen gekennzeichnet. Neben einer ersten Maskenbearbeitungseinheit 11, die der Maskenbearbeitungseinheit aus Fig. 2 entspricht, ist eine zweite Masken­ bearbeitungseinheit 15 vorgesehen. Diese ist mit einem Maskenspeicher 17 und einem Parameterspeicher 16 verbunden, in dem die von dem Sensor stammenden Parameter abgespeichert werden. Die zweite Maskenbearbeitungseinheit 15 greift auf diese Speicher zu, um die Bilddaten im Bereich der Maske zu verändern. Die Veränderung der Bilddaten erfolgt dabei nach dem Prinzip der Überlagerung soge­ nannter Bildlayer. Für die Überlagerung geeignete Bilddaten sind in dem Masken­ speicher 17 abgelegt. In Abhängigkeit von dem im Parameterspeicher 16 abgeleg­ ten Werte des vom Sensor stammenden Parameters werden durch die zweite Maskenbearbeitungseinheit 15 in dem Maskenspeicher 17 gespeicherte Bilddaten für die jeweils wie vorgegeben zu verändernde Bildmaske abgerufen und gegebe­ nenfalls in Abhängigkeit des Parameters bearbeitet. Die auf diese Weise gewonne­ nen Bilddaten stehen am Ausgang der Maskenbearbeitungseinheit 15 zur Ver­ fügung und können in der Mischungseinheit 14 mit den in Echtzeit von der ersten Maskenerkennungseinheit 11 ausgegebenen Bilddaten gemischt werden. Auf diese Weise ist es möglich, in Abhängigkeit des vom Sensor stammenden Parameters Überblendeffekte zwischen den in dem Maskenspeicher 17 gespeicherten Bilddaten und den von der ersten Maskenerkennungseinheit 10 stammenden Bilddaten innerhalb durch die jeweiligen Masken definierter Bildausschnitte zu erzielen. Der Grad der Überblendung wird bereits durch die zweite Maskenbearbeitungseinheit 15 festgelegt, in der die aus dem Maskenspeicher 17 stammenden Bilddaten in Abhängigkeit des im Parameterspeicher 16 gespeicherten Parameters verstärkt oder abgeschwächt werden. Die von der Eingangseinheit 1 stammenden Bilddaten werden bereits in der ersten Maskenbearbeitungseinheit 11 in Abhängigkeit von dem vom Sensor stammenden Parameter verstärkt oder abgeschwächt, so dass sich durch Überlagerung der auf diese Weise bearbeiteten Bilddaten für bestimmte Masken die bereits erwähnten Überblendeffekte ergeben. Die Veränderung von Bilddaten auf die zuletzt beschriebene Weise durch Überlagerung mit zuvor in dem Maskenspeicher 17 abgelegten Bilddaten ist mit einem geringeren Rechenaufwand verbunden, als die vollständig neue Berechnung von Bilddaten für bestimmte Masken, so dass die Ausführungsform nach Fig. 4 geeignet ist, die Echtzeitbild­ manipulation in Abhängigkeit des Parameters auch mit geringerem Rechenaufwand zu verwirklichen. Zusätzlich kann die Eingabeeinheit 7 direkt mit dem Layerspeicher 17 und der Maskenbearbeitungseinheit 15 verbunden sein, um beispielsweise die Maskenbearbeitung vom Eingangsbildsignal abhängig zu machen.

Claims (15)

1. Vorrichtung zur Bildwiedergabe mit einer Eingangseinheit (1) zum Empfan­ gen von Bilddaten, die mit einer Bilddatenquelle (2) verbunden ist, und einer Ausgangseinheit (3) zum Ausgeben von Bilddaten, die zumindest mittelbar mit der Eingangseinheit (1) verbunden ist und ausgebildet ist, Bilddaten an mindestens eine Bildanzeige (4) auszugeben, gekennzeichnet durch eine Bearbeitungseinheit (6; 9) mit einem Eingang zum Empfangen mindestens eines zeitlich veränderlichen Parameters (5), wobei die Bearbeitungseinheit (6; 9) mit der Eingangseinheit (1) und der Ausgangseinheit (3) verbunden ist und ausgebildet ist, von der Eingangseinheit (1) empfangene Bilddaten in Abhängigkeit von den Parametern kontinuierlich zu verändern und an die Ausgangseinheit (3) auszugeben.
2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Bearbei­ tungseinheit (6, 9) ausgebildet ist, die empfangenen Bilddaten in durch Masken definierten Teilbereichen zu verändern.
3. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Bearbei­ tungseinheit (6, 9) ausgebildet ist, die empfangenen Bilddaten pixelweise zu verändern.
4. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Parameter außerhalb der Vorrichtung stattfindende Ereignisse repräsentieren.
5. Vorrichtung nach einem der vorstehenden Ansprüche, dadurch gekennzeich­ net, dass die Bearbeitungseinheit (6; 9) derart ausgestaltet ist, dass sie die empfangenen Bilddaten in Echtzeit verändert.
6. Vorrichtung nach einem der vorstehenden Ansprüche, dadurch gekenn­ zeichnet, dass die Bearbeitungseinheit (6; 9) derart ausgebildet ist, dass sie die empfangenen Bilddaten ändert, indem sie Rechenprozesse durchführt, die die Änderung der Bilddaten durch die Parameter bestimmen.
7. Vorrichtung nach einem der vorstehenden Ansprüche, dadurch gekenn­ zeichnet, dass die Bearbeitungseinheit (6; 9) derart ausgestaltet ist, dass sie Bildparameter der empfangenen Bilddaten wie Farbe, Helligkeit, Kontrast, Gradation oder Schärfe verändert.
8. Vorrichtung nach einem der vorstehenden Ansprüche, insbesondere nach Anspruch 3, dadurch gekennzeichnet, dass die Bearbeitungseinheit (6, 9) ausgebildet ist, die empfangenen Bilddaten durch Überlagerung mit zuvor gespeicherten Bilddaten innerhalb durch Masken definierter Bildbereiche zu verändern.
9. Vorrichtung nach einem der vorstehenden Ansprüche, dadurch gekennzeich­ net, dass die Ausgangseinheit (3) ausgebildet ist, die veränderten Bilddaten über das Internet oder Fernsehbild-Sender an die Bildanzeigen (4) auszu­ geben.
10. Vorrichtung nach einem der vorstehenden Ansprüche, gekennzeichnet durch einen mit dem Eingang der Bearbeitungseinheit (6; 9) verbundenen Sensor (5) zum Messen der zeitlich veränderlichen Parameter.
11. Vorrichtung nach Anspruch 10, gekennzeichnet durch eine Steuereinheit (8), die mit dem Sensor (5) und der Ausgangseinheit (3) verbunden ist und geeignet ist, den Sensor (5) zu steuern, wobei die Steuereinheit (8) Bild­ daten von der Ausgangseinheit (3) empfängt und den Sensor (5) in Ab­ hängigkeit von den von der Ausgangseinheit (3) empfangenen Bilddaten steuert.
12. Vorrichtung nach Anspruch 6, gekennzeichnet durch eine mit der Bearbei­ tungseinheit (6; 9) verbundene Eingabeeinheit (7), die ausgebildet ist, die Rechenprozesse der Bearbeitungseinheit (6; 9) zu bestimmen.
13. Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, dass die Eingabe­ einheit (7) eine die Rechenprozesse der Bearbeitungseinheit (6; 9) visuali­ sierende Benutzeroberfläche aufweist.
14. Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, dass die Bearbei­ tungseinheit ausgebildet ist, durch die Rechenprozesse die Bewegung von Flüssigkeiten, Gasen oder festen Körpern zu simulieren.
15. Vorrichtung nach Anspruch 14, dadurch gekennzeichnet, dass die Bearbei­ tungseinheit (6; 9) ausgebildet ist, die Bewegung fließender Stoffe mittels der Navier-Stokes-Gleichung zu simulieren.
DE10062503A 2000-10-04 2000-12-08 Vorrichtung zur Bildwiedergabe Withdrawn DE10062503A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE10062503A DE10062503A1 (de) 2000-10-04 2000-12-08 Vorrichtung zur Bildwiedergabe
AU2002213994A AU2002213994A1 (en) 2000-10-04 2001-10-04 Image reproduction device
AT01982397T ATE557527T1 (de) 2000-10-04 2001-10-04 Vorrichtung zur bildwiedergabe
PCT/EP2001/011467 WO2002030110A1 (de) 2000-10-04 2001-10-04 Vorrichtung zur bildwiedergabe
EP01982397A EP1609307B1 (de) 2000-10-04 2001-10-04 Vorrichtung zur bildwiedergabe

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10050672 2000-10-04
DE10062503A DE10062503A1 (de) 2000-10-04 2000-12-08 Vorrichtung zur Bildwiedergabe

Publications (1)

Publication Number Publication Date
DE10062503A1 true DE10062503A1 (de) 2002-04-11

Family

ID=7659603

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10062503A Withdrawn DE10062503A1 (de) 2000-10-04 2000-12-08 Vorrichtung zur Bildwiedergabe

Country Status (2)

Country Link
AT (1) ATE557527T1 (de)
DE (1) DE10062503A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009013761A1 (de) * 2009-03-17 2010-09-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Ein Endoskop und eine Bildaufnahmevorrichtung

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3310806C2 (de) * 1982-03-24 1987-09-24 Ampex Corp., Redwood City, Calif., Us
DE3043253C2 (de) * 1979-11-21 1988-07-21 N.V. Philips' Gloeilampenfabrieken, Eindhoven, Nl
WO1997008892A2 (en) * 1995-08-31 1997-03-06 Philips Electronics N.V. Information handling for interactive apparatus
DE19757912A1 (de) * 1996-12-27 1998-07-02 Olympus America Inc Verfahren und Vorrichtung zum Vorsehen einer mehrere Quellen darstellenden Anzeige und ein speziell an die Verwendung mit der Vorrichtung angepaßtes Fernsicht-Inspektionssystem
DE19815422A1 (de) * 1997-04-07 1998-12-24 Philips Patentverwaltung Mischeinrichtung mit anwendungsspezifischen Parametersätzen
DE19948546A1 (de) * 1999-02-16 2000-08-17 Voxar Ag Verfahren und Vorrichtung zur darstellungsoptimierten Übertragung von Video- und Audiodaten

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3043253C2 (de) * 1979-11-21 1988-07-21 N.V. Philips' Gloeilampenfabrieken, Eindhoven, Nl
DE3310806C2 (de) * 1982-03-24 1987-09-24 Ampex Corp., Redwood City, Calif., Us
WO1997008892A2 (en) * 1995-08-31 1997-03-06 Philips Electronics N.V. Information handling for interactive apparatus
DE69611029T2 (de) * 1995-08-31 2001-05-10 Koninkl Philips Electronics Nv Informationsverarbeitung für interaktive Apparatur
DE19757912A1 (de) * 1996-12-27 1998-07-02 Olympus America Inc Verfahren und Vorrichtung zum Vorsehen einer mehrere Quellen darstellenden Anzeige und ein speziell an die Verwendung mit der Vorrichtung angepaßtes Fernsicht-Inspektionssystem
DE19815422A1 (de) * 1997-04-07 1998-12-24 Philips Patentverwaltung Mischeinrichtung mit anwendungsspezifischen Parametersätzen
DE19948546A1 (de) * 1999-02-16 2000-08-17 Voxar Ag Verfahren und Vorrichtung zur darstellungsoptimierten Übertragung von Video- und Audiodaten

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009013761A1 (de) * 2009-03-17 2010-09-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Ein Endoskop und eine Bildaufnahmevorrichtung

Also Published As

Publication number Publication date
ATE557527T1 (de) 2012-05-15

Similar Documents

Publication Publication Date Title
EP1683063A1 (de) System und verfahren zur durchführung und visualisierung von simulationen in einer erweiterten realität
DE60302063T2 (de) Graphische benutzeroberfläche für einen flugsimulator basierend auf einer client-server-architektur
DE102005011126A1 (de) Generierung virtueller Welten auf Basis einer realen Umgebung
WO2009049973A2 (de) Verfahren zur erzeugung und/oder aktualisierung von texturen von hintergrundobjektmodellen, videoüberwachungssystem zur durchführung des verfahrens sowie computerprogramm
DE10037978A1 (de) Vorrichtung und Verfahren zur Speicherung von Information über das Fahren eines Fahrzeugs
DE102004016329A1 (de) System und Verfahren zur Durchführung und Visualisierung von Simulationen in einer erweiterten Realität
DE3918768C2 (de) Schneidanordnung für eine Vielzahl von Videobandrecordern und dabei anwendbares Schneidverfahren
DE10062503A1 (de) Vorrichtung zur Bildwiedergabe
EP1609307B1 (de) Vorrichtung zur bildwiedergabe
DE19624151C2 (de) Videopräsentationssystem
WO2018069218A1 (de) Fernsehübertragungssystem zur erzeugung angereicherter bilder
EP3263389B1 (de) Verfahren zum anzeigen einer fahrzeugfunktion
EP1184794B1 (de) Verfahren und Vorrichtung zur Erstellung aktivierbarer Objekte für Elemente einer Videosequenz
DE102019112471A1 (de) Verfahren, Computerprogramm, computerlesbares Medium, Fahrerassistenzsystem und Fahrzeug zum Bereitstellen visueller Information über mindestens einen verdeckten Teil einer Umgebung
DE10125309C1 (de) Verfahren und Anordnung zum Steuern von audiovisuellen medialen Inhalten
DE3816545A1 (de) Vorrichtung zur erzeugung von ton- und zufallsgesteuerter bilder
DE102004044718A1 (de) Augmented Reality Autoren System
DE2806820A1 (de) Verfahren zum synthetischen generieren von trickfilmen
EP1502145B1 (de) Verfahren und vorrichtung zur konsistenten darstellung von realen und virtuellen objekten
Łucjan Perception of the contents of animated maps
EP4087235A1 (de) Abspielen von akustischen daten
WO2023232819A1 (de) Generierung von hologrammen zur darstellung in einer augmented reality umgebung
EP1032197B1 (de) System zum Aufzeichnen und Wiedergeben von Videobildern
DE10301341A1 (de) Verfahren und Vorrichtung zur Bearbeitung von Bildsequenzen
EP1189443A1 (de) Verfahren und Vorrichtung zur Steuerung von Interaktivität von Elementen einer Videosequenz

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8127 New person/name/address of the applicant

Owner name: FLUYDS GMBH, 10829 BERLIN, DE

8141 Disposal/no request for examination