DE10062503A1 - Vorrichtung zur Bildwiedergabe - Google Patents
Vorrichtung zur BildwiedergabeInfo
- Publication number
- DE10062503A1 DE10062503A1 DE10062503A DE10062503A DE10062503A1 DE 10062503 A1 DE10062503 A1 DE 10062503A1 DE 10062503 A DE10062503 A DE 10062503A DE 10062503 A DE10062503 A DE 10062503A DE 10062503 A1 DE10062503 A1 DE 10062503A1
- Authority
- DE
- Germany
- Prior art keywords
- image data
- unit
- processing unit
- image
- designed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42202—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/426—Internal components of the client ; Characteristics thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4318—Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/445—Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/57—Control of contrast or brightness
- H04N5/58—Control of contrast or brightness in dependence upon ambient light
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Ecology (AREA)
- Emergency Management (AREA)
- Environmental & Geological Engineering (AREA)
- Environmental Sciences (AREA)
- Remote Sensing (AREA)
- Picture Signal Circuits (AREA)
- Processing Or Creating Images (AREA)
Abstract
Vorrichtung zur Bildwiedergabe mit einer Eingangseinheit (1) zum Empfangen von Bilddaten, die mit einer Bilddatenquelle (2) verbunden ist, und einer Ausgangseinheit (3) zum Ausgeben von Bilddaten, die zumindest mittelbar mit der Eingangseinheit (1) verbunden ist und ausgebildet ist, Bilddaten an mindestens eine Bildanzeige (4) auszugeben, wobei eine Bearbeitungseinheit (6; 9) mit einem Eingang zum Empfangen mindestens eines zeitlich veränderlichen Parameters (5) sowie die Bearbeitungseinheit (6; 9) mit der Eingangseinheit (1) und der Ausgangseinheit (3) verbunden ist, und ausgebildet ist, von der Eingangseinheit (1) empfangene Bilddaten in durch Masken definierten Teilbereichen in Abhängigkeit von den Parametern kontinuierlich zu verändern und an die Ausgangseinheit (3) auszugeben.
Description
Die vorliegende Erfindung betrifft eine Vorrichtung zur Bildwiedergabe mit einer
Eingangseinheit zum Empfangen von Bilddaten, die mit einer Bilddatenquelle
verbunden ist, und einer Ausgangseinheit zum Ausgeben von Bilddaten, die zu
mindest mittelbar mit der Eingangseinheit verbunden ist und ausgebildet ist,
Bilddaten an eine Bildanzeige wie einen Bildschirm auszugeben.
Solche Systeme sind weitgehend bekannt, beispielsweise werden Fernsehmonitore
dazu verwendet Bilder wiederzugeben. Als Bilddatenquelle dient häufig ein Videore
korder, der auf einer Videokassette abgespeicherte Bilddaten abspielt, die ein
Monitor empfängt und wiedergibt. Ein solches Bildwiedergabesystem bestehend
aus Videorekorder und Fernsehmonitor hat den Nachteil, dass es lediglich aufge
zeichnete Bildinformationen wiedergeben kann. Das Bildwiedergabesystem ist nicht
in der Lage auf äußere Einflüsse zu reagieren. Bildwiedergabesysteme, die zu
mindest zum Teil auf äußere Einflüsse reagieren können sind aus dem öffentlichen
Nahverkehr bekannt. Monitore werden beispielsweise in U-Bahnhöfen aufgestellt,
um Passanten Werbung zu präsentieren. Diese Bilder werden einfach von einer
Bilddatenquelle abgespielt, auf der die Bilder gespeichert sind.
Wenn jedoch ein Zug einfährt, so wird dem Zuschauer auf den Monitoren ein Bild
präsentiert, das ihn auf dieses Ereignis aufmerksam macht. Beispielsweise er
scheint auf dem Monitor der Hinweis: "Achtung ein Zug fährt ein". Die Interaktivi
tät mit der Umgebung wird dadurch erreicht, dass im Fall eines einfahrenden
Zuges, der Monitor seine Informationen von einer zweiten Bilddatenquelle erhält.
Diese Bilddatenquelle enthält die Bilddaten, die den auszugebenden Warnhinweis
darstellen. Letztlich werden also nur vorhandene Bilddaten wiedergegeben, lediglich
die Reihenfolge und der Zeitpunkt, in der diese Bilddaten wiedergegeben werden,
kann durch die Umgebung beeinflusst werden, denn es wird zwischen zwei Bild
datenquellen umgeschaltet. Die Fähigkeit dieses Bildwiedergabegerätes, auf sein
Umgebung zu reagieren, ist also weiterhin stark eingeschränkt.
Es ist Aufgabe der vorliegende Erfindung, eine Vorrichtung zur Bildwiedergabe mit
erweiterten Möglichkeiten bereitzustellen.
Die Aufgabe wird gelöst durch eine Vorrichtung zur Bildwiedergabe mit einer
Eingangseinheit zum Empfangen von Bilddaten, die mit einer Bilddatenquelle
verbunden ist, und einer Ausgangseinheit zum Ausgeben von Bilddaten, die zu
mindest mittelbar mit der Eingangseinheit verbunden ist und ausgebildet ist,
Bilddaten an eine Bildanzeige wie einen Bildschirm auszugeben, gekennzeichnet
durch eine Bearbeitungseinheit mit einem Eingang zum Empfangen mindestens
eines zeitlich veränderlichen Parameters, wobei die Bearbeitungseinheit mit der
Eingangseinheit und der Ausgangseinheit verbunden ist und ausgebildet ist, von
der Eingangseinheit empfangene Bilddaten in durch Masken definierten Teilberei
chen in Abhängigkeit der Parameter kontinuierlich zu verändern und an die Aus
gangseinheit auszugeben.
Die Bildanzeige erhält die Bilddaten in der geeigneten Form von der Ausgangsein
heit, welche wiederum mit der Bearbeitungseinheit verbunden ist. Diese empfängt
den zeitlich veränderlichen Parameter über einen Eingang. Die von der Bilddaten
quelle stammenden Bilddaten werden von der Bearbeitungseinheit in Teilbereichen
abhängig von dem Parameter kontinuierlich verändert. Es ist somit möglich für die
Vorrichtung zur Bildwiedergabe auf die Parameter derart zu reagieren, dass die wie
dergegebenen Bilder in Teilbereichen verändert sind. Die Veränderung der Bilder
bewirkt also nicht lediglich die Anzeige eines völlig anderen Bildes, sondern auch
die Anzeige eines in Teilbereichen veränderten Bildes. Die wiedergegebenen Bilder
entsprechen auch nicht mehr einem von einer Bilddatenquelle stammenden Bild,
sondern sind diesem gegenüber verändert. Die nach der Bearbeitung wiedergegebe
nen Bilddaten sind neu und ihr Erscheinungsbild wird allein von der Abhängigkeit
zwischen den eingehenden Parametern und der damit verbundenen Veränderung
der Bilddaten durch die Bearbeitungseinheit bestimmt. Die erfindungsgemäße
Vorrichtung ist somit in der Lage, in weitaus differenzierterer Weise auf äußere
Ereignisse zu reagieren, als dies aus dem Stand der Technik bekannt ist.
Zwar sind aus dem Stand der Technik Postproduktions-Systeme wie Photoshop,
Flame u. a. bekannt. Diese sind dazu vorgesehen, auf einem Speichermedium
gespeicherte Bilddaten mittels eines Personalcomputers gezielt zu bearbeiten. Die
Effekte von eingegebenen Befehlen zur Bildbearbeitung werden auf dem Bildschirm
des PCs dargestellt. Der PC empfängt also keine zeitlich veränderlichen Parameter wie Temperatur oder Helligkeit einer bestimmten Umgebung über einen Eingang,
sondern Befehle über eine Tastatur oder ein anderes Eingabemittel zur gezielten
und voraussagbaren Bearbeitung von Bildern. Ferner werden die von diesen Bild
bearbeitungsprogrammen hervorgerufenen Bildveränderungen in der Regel als
Effekte vorproduziert. Die kontinuierliche Veränderung von Bildparametern wie
Farbe und Helligkeit in Abhängigkeit von einem äußeren Parameter können mittels
dieser Programme nicht sichtbar gemacht werden. Stattdessen werden bei diesen
Postproduktionssystemen Anfangs- und Endzustände von Bildparametern berech
net. Die Zwischenzustände werden entweder dynamisch vorproduziert, durch
Effektfilter erzielt oder durch eine Mischung der Anfangs- und Endzustände er
mittelt. Eine Neuberechnung im engeren Sinne erfolgt jedoch nicht. Solche Lösun
gen sind ausreichend, solange die Information, die die Bilddaten als Endprodukt
enthalten sollen, vorhersagbar sind. Die Anforderungen ändern sich jedoch, sobald
nicht vorhersagbare Ereignisse das wiedergegebene Bild beeinflussen. In diesem
Fall muss die Veränderung der Bilddaten in Abhängigkeit von den Parametern
kontinuierlich erfolgen. D. h., dass ein zu einem gewissen Zeitpunkt t empfangener
Parameterwert P(t) eine Veränderung der zu demselben Zeitpunkt t empfangenen
Bilddaten BD(t) hervorruft. Wenn die Veränderung der Bilddaten für eine begrenzte
zeitliche Folge von aufeinanderfolgenden Bilddaten und Parameterwerten wie
vorstehend beschrieben erfolgt, so liegt eine kontinuierliche Veränderung der Bild
daten in Abhängigkeit von dem Parameter vor. Die Manipulation der Bilddaten
durch die Bearbeitungseinheit stellt somit eine prozedurale Animation der Bilddaten
im Bereich der Masken dar. Die Masken können fest vorgegeben sein oder auch
selbst wiederum in Abhängigkeit von den Parametern verändert werden, so dass
die Masken selber eine prozedurale Animation erfahren.
Vorzugsweise repräsentieren die empfangenen Parameter Ereignisse außerhalb der
Vorrichtung. Als äußeres Ereignis wird jede Form von zeitlicher Veränderung
verstanden, die nicht von der Vorrichtung selbst generiert wird, sondern über den
Eingang der Bearbeitungseinheit empfangen wird. Als Parameter kann jede denk
bare physikalische Größe wie Helligkeit, Lautstärke oder Temperatur dienen. Ferner
können die Parameter auch Ereignisse wie die Landung eines Flugzeuges, der
aktuelle Wert eines Aktienindexes oder die Anzahl der Zugriffe auf eine Internet-
Seite repräsentieren. Damit wird die Vorrichtung zur Bildbearbeitung in eine Bezie
hung zu ihrer Umwelt gesetzt. Die Veränderungen des wiedergegebenen Bildes
spiegeln auf ihre Weise die Vorgänge außerhalb der Vorrichtung wieder. Für den
unbefangenen Betrachter ist die Beobachtung des Bildes von hohem Unterhal
tungswert, insbesondere, wenn er selbst als Teil der Umwelt der Vorrichtung die
Bildveränderungen manipulieren kann und dient allgemein einer intuitiven Erfassung
von Information.
In einer bevorzugten Ausführungsform ist die Bearbeitungseinheit derart ausgebil
det, dass sie die Bilddaten ändert, indem sie Rechenprozesse durchführt, die die
Änderung der Bilddaten durch die Parameter realisiert. Der von der Bearbeitungs
einheit durchgeführte Rechenprozess basiert auf einem Algorithmus, der festlegt,
wie die Parameter die Bilddaten beeinflussen. Somit ist es unmöglich, vorauszuse
hen, welche Veränderungen der Bilddaten auftreten werden, denn der unbekannte
zeitliche Verlauf des Parameters bestimmt die Veränderung der Bilddaten. Die
tatsächlich auftretenden Veränderungen sind zudem eine Funktion des zeitlich ver
änderlichen Parameters und damit einzigartig für jeden Wert des Parameters. Bei
vorheriger Kenntnis des eingehenden Parameters sind die zeitlichen Veränderungen
der Bilddaten determiniert, da jedoch die Kenntnis dieses Parameters im allgemei
nen unbekannt ist, sind die veränderten Bilddaten unvorhersagbar.
Die Bearbeitungseinheit der erfindungsgemäßen Vorrichtung ist bevorzugt derart
ausgestaltet, dass sie die empfangenen Bilddaten anhand der Parameter in Echtzeit
verändert. Unter Änderung der Bilddaten in Echtzeit wird verstanden, wenn es für
einen menschlichen Beobachter unmöglich ist, eine zeitliche Verzögerung durch die
Bearbeitung festzustellen. Eine solche Echtzeit-Veränderung stellt also für einen
Beobachter einen zeitlich unmittelbaren Zusammenhang zwischen den empfange
nen Parametern und dem wiedergegebenen Bild dar. Die Vorrichtung ist somit in
der Lage, die aktuellen Ereignisse in anderer Form wiederzuspiegeln. Durch Be
trachtung des wiedergegebenen Bildes lassen sich die aktuellen äußeren Ereignisse
gedanklich herleiten. Das wiedergegebene Bild stellt somit einen entschlüsselbaren
Code, also eine Art Sprache, dar, welche die äußeren Ereignisse repräsentiert.
Die Bearbeitungseinheit kann auch derart ausgestaltet sein, dass sie die Bildpa
rameter der empfangenen Bilddaten wie Farbe, Helligkeit, Kontrast, Gradation oder
Schärfe verändert. Auf diese Weise werden die Bildparameter in eine Beziehung zu
den Parametern gesetzt, die die Umwelt der Vorrichtung repräsentieren. Das
Erscheinungsbild eines veränderten Teilbereichs des wiedergegebenen Bildes stellt
also eine komplexe Repräsentation unterschiedlicher Ereignisse dar.
Eine spezielle Ausführungsform der Erfindung ist dadurch gekennzeichnet, dass die
Ausgangseinheit ausgebildet ist, die veränderten Bilddaten über das Internet oder
Fernsehbild-Sender an Bildanzeigen auszugeben. Damit ist es möglich, die Bilddaten
an eine Vielzahl von Bildanzeigen an unterschiedlichen Orten gleichzeitig auszu
geben.
Vorzugsweise umfasst die erfindungsgemäße Vorrichtung eine Steuereinheit, die
mit dem Sensor und der Ausgangseinheit verbunden ist und geeignet ist, den
Sensor zu steuern, wobei die Steuereinheit Bilddaten von der Ausgangseinheit
empfängt und den Sensor in Abhängigkeit von den von der Ausgangseinheit
empfangenen Bilddaten steuert. Damit werden die ausgegebenen, veränderten
Bilder mit der Bilddatenquelle rückgekoppelt.
Gemäß einer bevorzugten Ausführungsform umfasst die Vorrichtung eine mit der
Bearbeitungseinheit verbundene Eingabeeinheit zum Bestimmender Rechenprozes
se der Bearbeitungseinheit. Damit wird einem "Autoren" ermöglicht vorzugeben,
wie die Parameter die Bilddaten verändern. Denn die von der Bearbeitungseinheit
durchgeführten Rechenprozesse können über die Eingabeeinheit bestimmt werden.
Ferner kann vorgesehen sein, dass die Eingabeeinheit eine die Rechenprozesse der
Bearbeitungseinheit visualisierende Benutzeroberfläche aufweist. Der Autor kann
somit jederzeit überprüfen, welche Rechenprozesse von der Bearbeitungseinheit
durchgeführt werden.
Die Rechenprozesse der Bearbeitungseinheit können auch dazu dienen, die Bewe
gung von Flüssigkeiten, Gasen oder festen Körpern zu simulieren. Die vom Sensor
empfangenen Parameter erzeugen somit Veränderungen, die dem Betrachter des
Bildes als die Bewegungen von realen Flüssigkeiten, Gasen oder festen Körpern
erscheinen. Unter festen Körpern sind neben leblosen Gegenständen wie Kristallen
auch belebte Gegenstände wie Tiere, Menschen und Pflanzen zu verstehen. Die
dargestellten Bildveränderung erzeugen die Illusion von einer realen Bewegung,
beispielsweise derjenigen eines Wasserstrahls. Zur Simulation von fließenden
Stoffen wie Gase, Flüssigkeiten oder feste erodierende Stoffe wird vorzugsweise
die Navier-Stokes-Gleichung verwendet. Die Navier-Stokes-Gleichung beschreibt
die Bewegung von fließenden Stoffen, deren Bewegungsgeschwindigkeit deutlich
unterhalb der Schallgeschwindigkeit liegt. Die im Alltag beobachteten Flüssigkeiten
wie Wassertropfen werden beispielsweise durch die Navier-Stokes-Gleichung
beschrieben.
Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung wird nachfolgend
anhand der beigefügten Figuren beschrieben.
Es zeigen
Fig. 1 eine Vorrichtung zur Bilddatenwiedergabe gemäß einem ersten
bevorzugten Ausführungsbeispiel,
Fig. 2 eine Bearbeitungseinheit der Vorrichtung zur Bilddatenwiedergabe
gemäß dem ersten Ausführungsbeispiel,
Fig. 3 eine Vorrichtung zur Bilddatenwiedergabe gemäß einem zweiten
Ausführungsbeispiel, und
Fig. 4 eine Bearbeitungseinheit der Vorrichtung zur Bilddatenwiedergabe
gemäß dem zweiten Ausführungsbeispiel.
Im Folgenden wird die Vorrichtung in Fig. 1 beschrieben. Die Vorrichtung gemäß
dem ersten Ausführungsbeispiel umfasst eine Bilddatenquelle 2. Als Bilddatenquelle
2 kommt jedes Speichermedium für Bilder in Betracht, wie beispielsweise Videokas
setten, Photographien, DVD-Disketten und Festplatten in Betracht. Die Bilddaten
werden von der Eingangseinheit 1 wiedergegeben. Als Eingangseinheit können den
Bilddatenquellen entsprechende Abspielgeräte wie Videorekorder, DVD-Laufwerk
oder der Lesekopf einer Festplatte verwendet werden. Die Eingangseinheit 1
überträgt die abgespielten Bilddaten an die Bearbeitungseinheit 6. Gleichzeitig
empfängt die Bearbeitungseinheit 6 zeitlich veränderliche Informationen von einem
Sensor 5. Als Bearbeitungseinheit 6 wird in der Regel ein elektronischer Rechner
eingesetzt, der in der Lage ist, vielfältige Operationen an den empfangenen Bild
daten durchzuführen. Zunächst wählt die Bearbeitungseinheit 6 aus den empfange
nen Bilddaten einen Teilbereich aus, der durch eine Maske definiert ist. Die Manipu
lation der Bilddaten erfolgt nur innerhalb der ausgewählten Maske. Die Lage und
Größe der Maske kann vorbestimmt sein, so dass die Bearbeitungseinheit 6 le
diglich die zu bearbeitenden Bilddaten anhand der Maske erkennen muss. Es kann
jedoch auch vorgesehen sein, dass die Bearbeitungseinheit 6 mittels vorgegebener
Maskenerkennungsverfahren eine Maske selbsttätig bestimmt. Ferner kann die Be
arbeitungseinheit 6 dazu ausgebildet sein, die Masken in Abhängigkeit von den von
dem Sensor 5 empfangenen Parameter zu bestimmen. Als Sensor kann jede Art
von Detektor eingesetzt werden, der Größen wie beispielsweise Temperatur oder
Helligkeit einer bestimmten Umgebung erfasst. Es können auch mehrere mitein
ander kombinierte Detektoren eingesetzt werden, so dass der Sensor 5 mehrere
unterschiedliche Informationen aufnehmen und an die Bearbeitungseinheit 6
weiterleiten kann. Die unterschiedlichen Informationen erreichen die Bearbeitungs
einheit 6 jeweils als zeitlich veränderliche Parameter. Die von der Eingangseinheit
1 übermittelten Bilddaten werden in der Regel von der Bearbeitungseinheit 6 nicht
verändert, wenn die Bearbeitungseinheit 6 keine Informationen von dem Sensor 5
empfängt.
Die Bearbeitungseinheit 6 errechnet mittels einer vorgegebener Rechenoperation
aus den empfangenen Parametern und den Bilddaten in den zu verändernden
Masken neue Bilddaten. Die Abhängigkeit der Veränderung der Bilddaten von den
empfangenen Parametern kann beliebig gewählt werden. Zur Festlegung der
Anwendung der Rechenoperationen, die die Bearbeitungseinheit 6 durchführt, ist
eine Eingabeeinheit 7 vorgesehen. Diese Eingabeeinheit 7 erlaubt einem Anwender
zu bestimmen, auf welche Weise die Bearbeitungseinheit 6 die Bilddaten in Ab
hängigkeit von den Parametern ändert, d. h welche Rechenoperationen in welchem
Maße zur Anwendung kommen. Als Eingabeeinheit 7 kann eine Tastatur oder ein
elektronischer Zeichenstift vorgesehen sein.
Die Bilddaten werden schließlich von der Bearbeitungseinheit 6 an eine Ausgangs
einheit 3 ausgegeben. Die Ausgangseinheit sorgt dafür, dass die Bilddaten in
geeigneter Form an eine Bildanzeige 4 ausgegeben werden. Sie kann insbesondere
dazu vorgesehen sein, die Bilddaten an eine Vielzahl von Bildanzeigen 4 in unter
schiedlicher Form auszugeben. Findet die Übertragung an Bildanzeigen 4 über das
Internet statt, so sorgt die Ausgangseinheit dafür, dass die Bilddaten als kompri
mierte Datenpakete von einer Internet-Seite laufend abrufbar sind. Der Abruf der
Datenpakete erfolgt automatisch mittels einer geeigneten Software, die dafür sorgt,
dass die Bilddaten auf dem entsprechenden Bildschirm wiedergegeben werden. Als
Bildanzeige 4 kann jede Art von Monitor oder auch Projektor verwendet werden.
Eine Steuereinheit 8 zur Steuerung des Sensors 5 ist vorgesehen, die ebenfalls die
von der Ausgangseinheit 3 ausgegebenen Bilddaten empfängt. Durch vorgegebene
Operationen wandelt die Steuereinheit 8 die empfangenen Bilddaten in Steuerbe
fehle zur Steuerung des Sensors 5 um. Durch diese Befehle verändert die Steuer
einheit 8 beispielsweise die Lage oder Orientierung des Sensors 5. Ferner kann die
Steuerung des Sensors 5 darin bestehen, dessen Empfindlichkeit zu erhöhen oder
zu verringern. Die in Abhängigkeit von den Parametern des Sensors 5 veränderten
Bilddaten bewirken also wiederum über die Steuereinheit 8 eine Veränderung der
über den Sensor 5 empfangenen Parameter.
Fig. 2 zeigt ein Blockschaltbild der Bearbeitungseinheit 6 gemäß dem ersten Aus
führungsbeispiel. Darin ist eine Maskenerkennungseinheit 10 vorgesehen, die dafür
sorgt, dass zu bearbeitende Teilbereiche der von der Eingangseinheit 1 empfange
nen Bilddaten ausgewählt werden. Dazu ist die Maskenerkennungseinheit 10 mit
der Eingangseinheit 1 verbunden. Die Maskenerkennungseinheit 10 wählt anhand
vorgegebener Maskenerkennungsverfahren die zu bearbeitenden Bilddaten aus und
übermittelt sie an eine Maskenbearbeitungseinheit 11. Die übrigen Bilddaten
werden von der Maskenerkennungseinheit 10 in einem Bilddatenspeicher 12
zwischengespeichert. Die Maskenbearbeitungseinheit 11 erhält neben den zu
bearbeitenden Bilddaten zeitlich veränderliche Parameter von dem Sensor 5, und
sie errechnet neue Bilddaten in Abhängigkeit von den empfangenen Bilddaten und
den empfangenen Parametern.
Empfängt die Maskenbearbeitungseinheit 11 keine Parameterinformationen von
dem Sensor 5, so gibt sie die von der Maskenerkennungseinheit 10 erhaltenen
Bilddaten unverändert an eine Mischungseinheit 14 aus. Diese ist mit der Masken
bearbeitungseinheit 11 und dem Bilddatenspeicher 12 verbunden und setzt die von
der Maskenbearbeitungseinheit 11 unverändert übertragenen Bilddaten mit den im
Bilddatenspeicher 12 gespeicherten Bilddaten wieder zusammen. Die zusammen
gesetzten Bilddaten entsprechen in diesem Fall den ursprünglich von der Eingangs
einheit 1 übertragenen Bilddaten und werden dann von der Mischungseinheit 14 an
die Ausgangseinheit 3 übertragen.
Empfängt die Maskenbearbeitungseinheit 11 hingegen zeitlich veränderliche Para
meter von dem Sensor 5, so errechnet sie neue Bilddaten für den Maskenbereich.
Der Algorithmus zur Berechnung der neuen Bilddaten ist in einem Operations
speicher 13 abgespeichert. Die Maskenbearbeitungseinheit 11 greift auf den
Operationsspeicher 13 zu, um das in diesem abgespeicherte Berechnungsverfahren
zur Berechnung neuer Bilddaten durchzuführen. Der Operationsspeicher 13 ist
wiederum mit der Eingabeeinheit 7 verbunden, die dazu vorgesehen ist, die Opera
tionen der Maskenbearbeitungseinheit 11 zu bestimmen, indem die durchzuführen
den Operationen über die Eingabeeinheit 7 in dem Operationsspeicher 13 abge
speichert werden. Die Maskenbearbeitungseinheit 11 überträgt die neu berech
neten Bilddaten an die Mischungseinheit 14. Diese setzt die neu berechneten
Bilddaten mit den im Bilddatenspeicher 12 gespeicherten Bilddaten zusammen, so
dass ein Bilddatensatz entsteht, der sich im Bereich der Maske von den über die
Eingangseinheit 1 eingegebenen Bilddaten unterscheidet. Dieser Bilddatensatz wird
wiederum von der Mischungseinheit 14 an die Ausgangseinheit 3 ausgegeben.
Schließlich ist der Operationsspeicher 13 auch dazu vorgesehen, die von der Mas
kenerkennungseinheit 10 durchzuführenden Maskenerkennungsoperationen ab
zuspeichern. Diese Operationen können ebenfalls über die Eingabeeinheit 7 in den
Operationsspeicher 13 eingeschrieben werden. Die Maskenerkennungseinheit 10
ist mit dem Operationsspeicher 13 verbunden und führt die in diesem gespeicher
ten Maskenerkennungsoperationen aus.
Fig. 3 zeigt das zweite Ausführungsbeispiel der vorliegenden Erfindung. In dieser
Figur sind die dem ersten Ausführungsbeispiel entsprechenden Merkmale mit
denselben Bezugszeichen bezeichnet. Anstelle der Bearbeitungseinheit 6 ist eine
Bearbeitungseinheit 9 dargestellt, die erweiterte Möglichkeiten hat. Diese Bearbei
tungseinheit ist im Detail in Fig. 4 dargestellt. Die Bearbeitungseinheit 9 bewirkt
jedoch nach wie vor eine Veränderung der eingehenden Bilddaten in Abhängigkeit
von den Parametern. Ein Unterschied zu der in Fig. 1 beschriebenen Vorrichtung
besteht darin, dass die Steuereinheit 8 einen zweiten Eingang besitzt, über den sie
die unveränderten Bilddaten von der Eingangseinheit 1 empfängt. Die Steuereinheit
8 ist zudem dazu ausgelegt, den Sensor 5 sowohl in Abhängigkeit von den ver
änderten Bilddaten von der Ausgangseinheit 3 als auch in Abhängigkeit von den
unveränderten Bilddaten von der Eingangseinheit 1 zu steuern. Insbesondere kann
die Steuereinheit 8 derart ausgelegt sein, dass sie eine Differenz zwischen den
unveränderten Bilddaten und den veränderten Bilddaten erhebt und in Abhängigkeit
von der Differenz den Sensor steuert. Diese Differenz entspricht der Änderung der
Bilddaten im Bereich der Masken. Die Steuerung des Sensors ist somit eine Funk
tion der Änderung der Bilddaten.
Fig. 4 zeigt die Bearbeitungseinheit 9 des zweiten Ausführungsbeispiels im Detail.
Die gleichen Bestandteile der Bearbeitungseinheit wie in Fig. 6 sind mit denselben
Bezugszeichen gekennzeichnet. Neben einer ersten Maskenbearbeitungseinheit 11,
die der Maskenbearbeitungseinheit aus Fig. 2 entspricht, ist eine zweite Masken
bearbeitungseinheit 15 vorgesehen. Diese ist mit einem Maskenspeicher 17 und
einem Parameterspeicher 16 verbunden, in dem die von dem Sensor stammenden
Parameter abgespeichert werden. Die zweite Maskenbearbeitungseinheit 15 greift
auf diese Speicher zu, um die Bilddaten im Bereich der Maske zu verändern. Die
Veränderung der Bilddaten erfolgt dabei nach dem Prinzip der Überlagerung soge
nannter Bildlayer. Für die Überlagerung geeignete Bilddaten sind in dem Masken
speicher 17 abgelegt. In Abhängigkeit von dem im Parameterspeicher 16 abgeleg
ten Werte des vom Sensor stammenden Parameters werden durch die zweite
Maskenbearbeitungseinheit 15 in dem Maskenspeicher 17 gespeicherte Bilddaten
für die jeweils wie vorgegeben zu verändernde Bildmaske abgerufen und gegebe
nenfalls in Abhängigkeit des Parameters bearbeitet. Die auf diese Weise gewonne
nen Bilddaten stehen am Ausgang der Maskenbearbeitungseinheit 15 zur Ver
fügung und können in der Mischungseinheit 14 mit den in Echtzeit von der ersten
Maskenerkennungseinheit 11 ausgegebenen Bilddaten gemischt werden. Auf diese
Weise ist es möglich, in Abhängigkeit des vom Sensor stammenden Parameters
Überblendeffekte zwischen den in dem Maskenspeicher 17 gespeicherten Bilddaten
und den von der ersten Maskenerkennungseinheit 10 stammenden Bilddaten
innerhalb durch die jeweiligen Masken definierter Bildausschnitte zu erzielen. Der
Grad der Überblendung wird bereits durch die zweite Maskenbearbeitungseinheit
15 festgelegt, in der die aus dem Maskenspeicher 17 stammenden Bilddaten in
Abhängigkeit des im Parameterspeicher 16 gespeicherten Parameters verstärkt
oder abgeschwächt werden. Die von der Eingangseinheit 1 stammenden Bilddaten
werden bereits in der ersten Maskenbearbeitungseinheit 11 in Abhängigkeit von
dem vom Sensor stammenden Parameter verstärkt oder abgeschwächt, so dass
sich durch Überlagerung der auf diese Weise bearbeiteten Bilddaten für bestimmte
Masken die bereits erwähnten Überblendeffekte ergeben. Die Veränderung von
Bilddaten auf die zuletzt beschriebene Weise durch Überlagerung mit zuvor in dem
Maskenspeicher 17 abgelegten Bilddaten ist mit einem geringeren Rechenaufwand
verbunden, als die vollständig neue Berechnung von Bilddaten für bestimmte
Masken, so dass die Ausführungsform nach Fig. 4 geeignet ist, die Echtzeitbild
manipulation in Abhängigkeit des Parameters auch mit geringerem Rechenaufwand
zu verwirklichen. Zusätzlich kann die Eingabeeinheit 7 direkt mit dem Layerspeicher
17 und der Maskenbearbeitungseinheit 15 verbunden sein, um beispielsweise die
Maskenbearbeitung vom Eingangsbildsignal abhängig zu machen.
Claims (15)
1. Vorrichtung zur Bildwiedergabe mit einer Eingangseinheit (1) zum Empfan
gen von Bilddaten, die mit einer Bilddatenquelle (2) verbunden ist, und einer
Ausgangseinheit (3) zum Ausgeben von Bilddaten, die zumindest mittelbar
mit der Eingangseinheit (1) verbunden ist und ausgebildet ist, Bilddaten an
mindestens eine Bildanzeige (4) auszugeben, gekennzeichnet durch eine
Bearbeitungseinheit (6; 9) mit einem Eingang zum Empfangen mindestens
eines zeitlich veränderlichen Parameters (5), wobei die Bearbeitungseinheit
(6; 9) mit der Eingangseinheit (1) und der Ausgangseinheit (3) verbunden ist
und ausgebildet ist, von der Eingangseinheit (1) empfangene Bilddaten in
Abhängigkeit von den Parametern kontinuierlich zu verändern und an die
Ausgangseinheit (3) auszugeben.
2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Bearbei
tungseinheit (6, 9) ausgebildet ist, die empfangenen Bilddaten in durch
Masken definierten Teilbereichen zu verändern.
3. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Bearbei
tungseinheit (6, 9) ausgebildet ist, die empfangenen Bilddaten pixelweise zu
verändern.
4. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Parameter
außerhalb der Vorrichtung stattfindende Ereignisse repräsentieren.
5. Vorrichtung nach einem der vorstehenden Ansprüche, dadurch gekennzeich
net, dass die Bearbeitungseinheit (6; 9) derart ausgestaltet ist, dass sie die
empfangenen Bilddaten in Echtzeit verändert.
6. Vorrichtung nach einem der vorstehenden Ansprüche, dadurch gekenn
zeichnet, dass die Bearbeitungseinheit (6; 9) derart ausgebildet ist, dass sie
die empfangenen Bilddaten ändert, indem sie Rechenprozesse durchführt,
die die Änderung der Bilddaten durch die Parameter bestimmen.
7. Vorrichtung nach einem der vorstehenden Ansprüche, dadurch gekenn
zeichnet, dass die Bearbeitungseinheit (6; 9) derart ausgestaltet ist, dass sie
Bildparameter der empfangenen Bilddaten wie Farbe, Helligkeit, Kontrast,
Gradation oder Schärfe verändert.
8. Vorrichtung nach einem der vorstehenden Ansprüche, insbesondere nach
Anspruch 3, dadurch gekennzeichnet, dass die Bearbeitungseinheit (6, 9)
ausgebildet ist, die empfangenen Bilddaten durch Überlagerung mit zuvor
gespeicherten Bilddaten innerhalb durch Masken definierter Bildbereiche zu
verändern.
9. Vorrichtung nach einem der vorstehenden Ansprüche, dadurch gekennzeich
net, dass die Ausgangseinheit (3) ausgebildet ist, die veränderten Bilddaten
über das Internet oder Fernsehbild-Sender an die Bildanzeigen (4) auszu
geben.
10. Vorrichtung nach einem der vorstehenden Ansprüche, gekennzeichnet
durch einen mit dem Eingang der Bearbeitungseinheit (6; 9) verbundenen
Sensor (5) zum Messen der zeitlich veränderlichen Parameter.
11. Vorrichtung nach Anspruch 10, gekennzeichnet durch eine Steuereinheit
(8), die mit dem Sensor (5) und der Ausgangseinheit (3) verbunden ist und
geeignet ist, den Sensor (5) zu steuern, wobei die Steuereinheit (8) Bild
daten von der Ausgangseinheit (3) empfängt und den Sensor (5) in Ab
hängigkeit von den von der Ausgangseinheit (3) empfangenen Bilddaten
steuert.
12. Vorrichtung nach Anspruch 6, gekennzeichnet durch eine mit der Bearbei
tungseinheit (6; 9) verbundene Eingabeeinheit (7), die ausgebildet ist, die
Rechenprozesse der Bearbeitungseinheit (6; 9) zu bestimmen.
13. Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, dass die Eingabe
einheit (7) eine die Rechenprozesse der Bearbeitungseinheit (6; 9) visuali
sierende Benutzeroberfläche aufweist.
14. Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, dass die Bearbei
tungseinheit ausgebildet ist, durch die Rechenprozesse die Bewegung von
Flüssigkeiten, Gasen oder festen Körpern zu simulieren.
15. Vorrichtung nach Anspruch 14, dadurch gekennzeichnet, dass die Bearbei
tungseinheit (6; 9) ausgebildet ist, die Bewegung fließender Stoffe mittels
der Navier-Stokes-Gleichung zu simulieren.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10062503A DE10062503A1 (de) | 2000-10-04 | 2000-12-08 | Vorrichtung zur Bildwiedergabe |
AU2002213994A AU2002213994A1 (en) | 2000-10-04 | 2001-10-04 | Image reproduction device |
AT01982397T ATE557527T1 (de) | 2000-10-04 | 2001-10-04 | Vorrichtung zur bildwiedergabe |
PCT/EP2001/011467 WO2002030110A1 (de) | 2000-10-04 | 2001-10-04 | Vorrichtung zur bildwiedergabe |
EP01982397A EP1609307B1 (de) | 2000-10-04 | 2001-10-04 | Vorrichtung zur bildwiedergabe |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10050672 | 2000-10-04 | ||
DE10062503A DE10062503A1 (de) | 2000-10-04 | 2000-12-08 | Vorrichtung zur Bildwiedergabe |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10062503A1 true DE10062503A1 (de) | 2002-04-11 |
Family
ID=7659603
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10062503A Withdrawn DE10062503A1 (de) | 2000-10-04 | 2000-12-08 | Vorrichtung zur Bildwiedergabe |
Country Status (2)
Country | Link |
---|---|
AT (1) | ATE557527T1 (de) |
DE (1) | DE10062503A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009013761A1 (de) * | 2009-03-17 | 2010-09-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Ein Endoskop und eine Bildaufnahmevorrichtung |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3310806C2 (de) * | 1982-03-24 | 1987-09-24 | Ampex Corp., Redwood City, Calif., Us | |
DE3043253C2 (de) * | 1979-11-21 | 1988-07-21 | N.V. Philips' Gloeilampenfabrieken, Eindhoven, Nl | |
WO1997008892A2 (en) * | 1995-08-31 | 1997-03-06 | Philips Electronics N.V. | Information handling for interactive apparatus |
DE19757912A1 (de) * | 1996-12-27 | 1998-07-02 | Olympus America Inc | Verfahren und Vorrichtung zum Vorsehen einer mehrere Quellen darstellenden Anzeige und ein speziell an die Verwendung mit der Vorrichtung angepaßtes Fernsicht-Inspektionssystem |
DE19815422A1 (de) * | 1997-04-07 | 1998-12-24 | Philips Patentverwaltung | Mischeinrichtung mit anwendungsspezifischen Parametersätzen |
DE19948546A1 (de) * | 1999-02-16 | 2000-08-17 | Voxar Ag | Verfahren und Vorrichtung zur darstellungsoptimierten Übertragung von Video- und Audiodaten |
-
2000
- 2000-12-08 DE DE10062503A patent/DE10062503A1/de not_active Withdrawn
-
2001
- 2001-10-04 AT AT01982397T patent/ATE557527T1/de active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3043253C2 (de) * | 1979-11-21 | 1988-07-21 | N.V. Philips' Gloeilampenfabrieken, Eindhoven, Nl | |
DE3310806C2 (de) * | 1982-03-24 | 1987-09-24 | Ampex Corp., Redwood City, Calif., Us | |
WO1997008892A2 (en) * | 1995-08-31 | 1997-03-06 | Philips Electronics N.V. | Information handling for interactive apparatus |
DE69611029T2 (de) * | 1995-08-31 | 2001-05-10 | Koninkl Philips Electronics Nv | Informationsverarbeitung für interaktive Apparatur |
DE19757912A1 (de) * | 1996-12-27 | 1998-07-02 | Olympus America Inc | Verfahren und Vorrichtung zum Vorsehen einer mehrere Quellen darstellenden Anzeige und ein speziell an die Verwendung mit der Vorrichtung angepaßtes Fernsicht-Inspektionssystem |
DE19815422A1 (de) * | 1997-04-07 | 1998-12-24 | Philips Patentverwaltung | Mischeinrichtung mit anwendungsspezifischen Parametersätzen |
DE19948546A1 (de) * | 1999-02-16 | 2000-08-17 | Voxar Ag | Verfahren und Vorrichtung zur darstellungsoptimierten Übertragung von Video- und Audiodaten |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009013761A1 (de) * | 2009-03-17 | 2010-09-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Ein Endoskop und eine Bildaufnahmevorrichtung |
Also Published As
Publication number | Publication date |
---|---|
ATE557527T1 (de) | 2012-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1683063A1 (de) | System und verfahren zur durchführung und visualisierung von simulationen in einer erweiterten realität | |
DE60302063T2 (de) | Graphische benutzeroberfläche für einen flugsimulator basierend auf einer client-server-architektur | |
DE102005011126A1 (de) | Generierung virtueller Welten auf Basis einer realen Umgebung | |
WO2009049973A2 (de) | Verfahren zur erzeugung und/oder aktualisierung von texturen von hintergrundobjektmodellen, videoüberwachungssystem zur durchführung des verfahrens sowie computerprogramm | |
DE10037978A1 (de) | Vorrichtung und Verfahren zur Speicherung von Information über das Fahren eines Fahrzeugs | |
DE102004016329A1 (de) | System und Verfahren zur Durchführung und Visualisierung von Simulationen in einer erweiterten Realität | |
DE3918768C2 (de) | Schneidanordnung für eine Vielzahl von Videobandrecordern und dabei anwendbares Schneidverfahren | |
DE10062503A1 (de) | Vorrichtung zur Bildwiedergabe | |
EP1609307B1 (de) | Vorrichtung zur bildwiedergabe | |
DE19624151C2 (de) | Videopräsentationssystem | |
WO2018069218A1 (de) | Fernsehübertragungssystem zur erzeugung angereicherter bilder | |
EP3263389B1 (de) | Verfahren zum anzeigen einer fahrzeugfunktion | |
EP1184794B1 (de) | Verfahren und Vorrichtung zur Erstellung aktivierbarer Objekte für Elemente einer Videosequenz | |
DE102019112471A1 (de) | Verfahren, Computerprogramm, computerlesbares Medium, Fahrerassistenzsystem und Fahrzeug zum Bereitstellen visueller Information über mindestens einen verdeckten Teil einer Umgebung | |
DE10125309C1 (de) | Verfahren und Anordnung zum Steuern von audiovisuellen medialen Inhalten | |
DE3816545A1 (de) | Vorrichtung zur erzeugung von ton- und zufallsgesteuerter bilder | |
DE102004044718A1 (de) | Augmented Reality Autoren System | |
DE2806820A1 (de) | Verfahren zum synthetischen generieren von trickfilmen | |
EP1502145B1 (de) | Verfahren und vorrichtung zur konsistenten darstellung von realen und virtuellen objekten | |
Łucjan | Perception of the contents of animated maps | |
EP4087235A1 (de) | Abspielen von akustischen daten | |
WO2023232819A1 (de) | Generierung von hologrammen zur darstellung in einer augmented reality umgebung | |
EP1032197B1 (de) | System zum Aufzeichnen und Wiedergeben von Videobildern | |
DE10301341A1 (de) | Verfahren und Vorrichtung zur Bearbeitung von Bildsequenzen | |
EP1189443A1 (de) | Verfahren und Vorrichtung zur Steuerung von Interaktivität von Elementen einer Videosequenz |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
8127 | New person/name/address of the applicant |
Owner name: FLUYDS GMBH, 10829 BERLIN, DE |
|
8141 | Disposal/no request for examination |