Beschreibung Verfahren zum Erstellen einer Raumbildvorlage für Abbildunosverfahren mit räumlichen Tiefenwirkungen und Vorrichtung zum Anzeigen einer Raumbildvorlage Die Erfindung betrifft ein Verfahren zum Erstellen einer Raumbildvorlage nach dem Oberbegriff des Anspruchs 1 und eine Vorrichtung zum Anzeigen einer Raumbildvorlage nach dem Oberbegriff des Anspruchs 16.
Dreidimensionale Objekte werden mit monokularen Aufnahmeeinrichtungen nur zweidimensional abgebildet. Das liegt daran, daß diese Objekte von einem einzigen Beobachtungsstandort und unter nur einem Beobachtungswinkel aufgenommen werden. Bei einem derartigen Aufnahmeverfahren wird das räumliche Objekt auf einen Film, einen photovoltaischen Empfänger, insbesondere ein CCD-Array oder eine andere lichtempfindliche Fläche projiziert. Ein räumlicher Eindruck ergibt sich von dem abgebildeten Objekt erst dann, wenn das Objekt von mindestens zwei unterschiedlichen Beobachtungspunkten bzw. unter mindestens zwei verschiedenen Betrachtungswinkeln aufgenommen und einem Betrachter so präsentiert wird, daß die beiden zweidimensionalen monokularen Bilder von beiden Augen getrennt wahrgenommen und in dessen physiologischem Wahrnehmungsapparat zusammengefügt werden. Dazu werden die monokularen Einzelbilder zu einer Raumbildvorlage kombiniert, die unter Verwendung eines dafür geeigneten Abbildungsverfahrens zu einem räumlichen Bildeindruck beim Betrachter führen. Derartige Verfahren werden auch als „Anaglyphentechnik" bezeichnet.
Eine für ein solches Verfahren verwendbare Raumbildvorlage kann auf verschiedene Weise vorliegen bzw. erstellt werden. Als einfachstes Beispiel sind hier die bekannten Stereo-Diabetrachter zu erwähnen, bei denen der Betrachter mit je einem Auge je ein in einem verschiedenen Blickwinkel aufgenommenes Bildmotiv betrachtet. Bei einer zweiten Möglichkeit wird das unter dem ersten Blickwinkel erzeugte Bild mit einer ersten Farbe und das andere unter dem zweiten Blickwinkel fotografierte Bild mit einer zweiten Farbe eingefärbt. Beide Bilder werden mit einer dem natürlichen Blickwinkelunterschied der menschlichen Augen oder dem Blickwinkelunterschied des Kamerasystems entsprechenden Versetzung zum Erstellen einer Raumbildvorlage übereinander gedruckt oder übereinander projiziert, wobei der Betrachter eine Zweifarbenbrille zum Betrachten der Bildvorlage benutzt. Dabei wird die jeweils andere Blickwinkelkomponente durch das entsprechend gefärbte Brillenglas ausgefiltert. Jedes Auge des Betrachters erhält somit ein entsprechend des
unterschiedlichen Blickwinkels differierendes Bild, wobei bei dem Betrachter ein räumlicher Eindruck der Bildvorlage entsteht. Ein derartiges Verfahren ist vorteilhaft, wenn Daten aus einer Stereokamera in Echtzeit und unter geringem apparativem Aufwand übertragen und dargestellt werden sollen. Darüber hinaus werden auch simulierte räumliche Abbildungen mit einem derartigen Verfahren zum Erzeugen einer Raumbildvorlage dargestellt, wobei der Betrachter einen besseren Eindruck komplizierter räumlicher Strukturen, beispielsweise komplizierter simulierter Molekülstrukturen und dergleichen erhalten kann.
Weiterhin können subtiler wirkende Mechanismen des physiologischen Wahrnehmungsapparates zum Erzeugen der Raumbildvorlage angewendet werden. So ist beispielsweise bekannt, daß zwei kurz innerhalb der Reaktionszeit nacheinander wahrgenommene Bilder zu einem subjektiven Gesamteindruck zusammengeführt werden. Sendet man demnach als kombinierte Raumbildvorlage kurz hintereinander zwei Bild-informationen, die jeweils aus Aufnahmen bestehen, die aus dem ersten, bzw. dem zweiten Betrachtungswinkel gemacht wurden, fügen diese sich in der Wahrnehmung des Betrachters zu einem subjektiven räumlichen Gesamteindruck unter Verwendung einer Shutterbrille zusammen.
Allen erwähnten Verfahren ist jedoch gemeinsam, daß mindestens eine binokulare Aufnahme des räumlichen Bildmotivs vorab vorliegen muß. Das heißt, daß mindestens zwei aus unterschiedlichen Betrachtungswinkeln gemachte Aufnahmen von vornherein vorhanden sein oder (wie zum Beispiel bei Zeichnungen) von Anfang an erzeugt werden müssen. Bilder oder Filme, Videosequenzen und dergleichen Abbildungen, die von vornherein monokular erzeugt wurden und daher nur monokulare Bildinformationen tragen, sind demnach nicht für eine räumliche Darstellung des Objektes verwendbar. Ein beispielsweise mit einem monokularen Fotoapparat aufgenommenes Foto ist eine zweidimensionale Projektion ohne Raumtiefe. Die Information über die Raumtiefe ist durch die monokulare Abbildung unwiederbringlich verlorengegangen und uss vom Betrachter aufgrund von Erfahrungswerten in das Bild hinein interpretiert werden. Verständlicherweise ergibt sich dabei aber keine echte räumliche Abbildung mit Tiefenwirkung.
Dies ist insofern nachteilig, als daß bei einer ganzen Reihe derartiger zweidimensionaler monokular erzeugter Aufnahmen ein beträchtlicher Teil der ursprünglichen Wirkung und der Information des Bildmotivs verlorengeht. Der Betrachter muß sie sich hinzudenken oder versuchen, dies anderen Betrachtern zu erklären, wobei natürlich der ursprüngliche Eindruck der Räumlichkeit mit keinem räumlichen Abbildungsverfahren der oben genannten Beispiele zurück zu gewinnen ist.
Es besteht somit die Aufgabe, ein Verfahren zum Erstellen von Raumbildvorlagen aus zweidimensionalen Bilddaten, insbesondere von Bilddaten aus Bildsequenzen, Videofilmen und dergleichen Informationen anzugeben, bei dem aus einer zweidimensionalen Aufnahme eine Raumbildvorlage für ein Abbildungsverfahren mit räumlicher Tiefenwirkung erzeugt wird.
Diese Aufgabe wird mit einem Verfahren gemäß den Merkmalen des Anspruchs 1 gelöst, wobei die Unteransprüche mindestens ausgestaltende Merkmale der Erfindung enthalten.
Bei der folgenden Beschreibung wird unter dem Begriff des „Urbildes" die anfangs gegebene monokular angefertigte zweidimensionale Abbildung verstanden. Es ist unmittelbar einsichtig, daß eine Anwendung des nachfolgend beschriebenen erfindungsgemäßen Verfahrens auch auf Sequenzen von derartigen Urbildern anwendbar ist und daher ohne weiteres auch für bewegte Bilder, insbesondere Videooder Filmaufnahmen, verwendet werden kann, sofern diese aus einer Serie aufeinander abfolgender Abbildungen bestehen oder in diese überführt werden können.
Erfindungsgemäß wird auf der Grundlage von aus monokularen Urbilddaten ermittelten Bildinformationen abgebildeter Objekte ein auf einer vermutungsbasierten Bildtiefenabstufung beruhendes virtuelles dreidimensionales Bildgerüst erzeugt. Die Urbilddaten werden auf das virtuelle dreidimensionale Bildgerüst zum Erzeugen eines virtuellen dreidimensionalen Bildmodells angepaßt. Die Daten des virtuellen dreidimensionalen Bildmodells werden als Vorlage zum Erstellen der Raumbildvorlage für das Abbildungsverfahren mit räumlicher Tiefenwirkung verwendet.
Es werden erfindungsgemäß somit zunächst die auf der zweidimensionalen Abbildung abgebildeten Objekte ermittelt. Dann wird diesen Objekten jeweils eine Vermutung über deren Raumtiefe zugeordnet. Es entsteht ein virtuelles dreidimensionales Modell, wobei die ursprünglichen Bilddaten der zweidimensionalen Abbildung auf dieses virtuelle dreidimensionale Modell angepaßt werden. Dieses virtuelle dreidimensionale Modell bildet nun ein virtuelles Objekt, dessen Daten den Ausgangspunkt zum Erzeugen der Raumbildvorlage darstellen.
Auf den monokularen Urbilddaten wird zum Ermitteln der Bildinformation ein Verfahren zu einer Kantenerkennung der abgebildeten Objekte mit einer Generierung eines kantenmarkierten Bildes ausgeführt. Dabei werden bei der vermutungsbasierten Bildtiefenabstufung Urbildareale aufgrund eines ermittelten Kantenreichtums verschiedenen virtuellen Tiefenebenen, insbesondere einem Hintergrund und/oder Vordergrund zugeordnet.
Hier wird die Erkenntnis genutzt, daß detailreiche und damit kantenreiche Objekte im allgemeinen zu einer anderen Bildtiefe und damit Tiefenebene gehören, als detailarme und damit auch kantenarme Objekte. Der Schritt der Kantenerkennung sortiert demnach Bestandteile des Urbilds aus, von denen auszugehen ist, dass sich diese im Hintergrund des Bildes befinden und separiert sie von denen, die im Vordergrund oder einer weiteren Tiefenebene zu vermuten sind.
Bei einer weiteren Vorgehensweise zum Ermitteln der Bildinformation wird ein Verfahren zum Ermitteln der Farbinformation gegebener Urbildareale ausgeführt. Dabei wird bei der vermutungsbasierten Bildtiefenabstufung mindestens eine erste identifizierte Farbinformation einer ersten virtuellen Tiefenebene und eine zweite Farbinformation einer zweiten virtuellen Tiefenebene zugeordnet.
Dabei wird hier die Erfahrungstatsache angewandt, daß bestimmte Farben oder Farbkombinationen bei gewissen Bildmotiven bevorzugt in einer anderen Tiefenebene auftreten, als andere Farben oder Farbkombinationen. Beispiele sind hierfür Blau als eine typische Hintergrundfarbe bei Landschaften einerseits und Rot oder Grün als typische Vordergrundfarben des abgebildeten Motivs andererseits.
Das Verfahren zur Kantenerkennung und das Verfahren zum Ermitteln der Farbinformation können sowohl einzeln oder in Kombination miteinander angewendet werden, wobei vor allem eine kombinierte Anwendung aus Kantenerkennung und Ermitteln der Farbinformation weitere Differenzierungsmöglichkeiten der Urbilddaten, insbesondere ein feineres Festlegen weiterer Tiefenebenen erlaubt.
Auf dem kantenmarkierten Bild wird in einer zweckmäßigen Ausgestaltung ein Weichzeichnungsverfahren zur Verstärkung und zum Vereinheitlichen eines kantenreichen Urbildareals angewendet. Damit werden einerseits mögliche Fehler bei der Kantenerkennung ausgeglichen und andererseits nebeneinander liegende, nicht zufällig vorgegebene Strukturen verstärkt. Optional können die Werte des kantenmarkierten Bildes zusätzlich tonwertkorrigiert werden.
Auf der Grundlage des weichgezeichneten und/oder zusätzlich tonwertkorrigierten kantenmarkierten Bildes, wird eine auf dem Tonwert eines Bildpunktes basierende Zuordnung eines betreffenden Bildabschnittes zu einer Tiefenebene ausgeführt. Die Strukturen des kantenmarkierten Bildes, das weichgezeichnet und optional tonwertkorrigiert ist, werden nun je nach ihrem Tonwert einzelnen definierten Tiefenebenen zugeordnet. Das kantenmarkierte, weichgezeichnete und optional tonwertkorrigierte Bild bildet daher die Grundlage für eine eindeutige Zuweisung der einzelnen Bildstrukturen zu den Tiefenebenen, wie beispielsweise dem definierten virtuellen Hintergrund, einer virtuellen Bildebene oder einem virtuellen Vordergrund.
Bei einer dabei ausgeführten Fixpunktdefinition erfolgt eine Begrenzung der Farb- und/oder Tonwerte auf einen vorgegebenen Wert. Damit wird ein virtueller Drehpunkt für die später zu erzeugenden Einzelansichten festgelegt. Dabei bildet der ausgewählte Färb- und/oder Tonwert einen Referenzwert, der einer virtuellen Bildebene zugeordnet wird und somit einen virtuellen Tiefenhintergrund von einem virtuell aus der Bildebene herausragenden Vordergrund trennt.
Die Zuweisung einer virtuellen Tiefenebene kann auf verschiedene Weise erfolgen. Die bereits dargestellten Verfahrensschritte legen zweckmäßigerweise eine Zuordnung einer Tiefenebene an einen jeweils vorgegebenen Färb- und/oder Helligkeitswert eines Bildpixels nahe. Objekte mit Bildpixeln, die somit gleiche Färb- und/oder Helligkeitswerte aufweisen, werden somit einer Tiefenebene zugeordnet.
Alternativ dazu besteht auch die Möglichkeit, willkührlich festgelegte Bildabschnitte, insbesondere einen Bildrand und/oder die Bildmitte, einer virtuellen Tiefenebene zuzuordnen. Damit wird insbesondere eine virtuelle „Wölbung", „Verspannung", „Kippung" und dergleichen dreidimensionale Bildeffekte erreicht.
Zum Erzeugen des virtuellen dreidimensionalen Bildmodells wird das virtuelle dreidimensionale Bildgerüst als eine entsprechend der virtuellen Tiefenebenen deformierte virtuelle Netzstruktur erzeugt und das zweidimensionale Urbild in einem Mapping-Verfahren als Textur auf die deformierte Netzstruktur angepaßt. Die Netzstruktur bildet dabei eine Art virtuelle dreidimensionale „Matrize" oder „Profilform", während das zweidimensionale Urbild eine Art „elastisches Tuch" darstellt, das über die Matrize gespannt und in die Matrize in einer Art virtuellem „Tiefziehverfahren" hineingepreßt wird. Das Ergebnis ist ein virtuelles dreidimensionales Bildmodell mit den Bildinformationen des zweidimensionalen Urbilds und der zusätzlich dem Urbild aufgeprägten „virtuellen Tiefziehstruktur" der virtuellen dreidimensionelen Matrize.
Von diesem dreidimensionalen Bildmodell können virtuelle binokulare oder auch multiokulare Ansichten abgeleitet werden. Das geschieht dadurch, indem von dem virtuellen dreidimensionalen Bildmodell aus einer Reihe von virtuellen Bobachtungswinkeln eine Reihe von virtuellen, die Ansichten des virtuellen dreidimensionalen Bildmodells wiedergebenen Einzelbildern erzeugt werden, bei denen die einer festgelegten Tiefenebene entsprechenden Bildabschnitte des Urbildes entsprechend des virtuellen Beobachtungswinkels verschoben und/oder verzerrt werden. Das virtuelle dreidimensionale Bildmodell dient somit als ein virtuelles räumliches Objekt, das virtuell binokular oder multiokular betrachtet wird, wobei dabei virtuelle Ansichten gewonnen werden, die sich entsprechend den Beobachtungswinkeln unterscheiden.
Diese virtuellen Einzelbilder werden nach einem für das Abbildungsverfahren mit zusätzlicher Raumwirkung geeigneten Algorithmus zum Erzeugen einer Raumbildvorlage kombiniert. Dabei werden die virtuellen Einzelbilder wie real binokular oder multiokular aufgenommene Einzelbilder behandelt, die nun für ein dreidimensionales Darstellungsverfahren geeignet aufbereitet und kombiniert werden.
Damit liegt eine virtuell gewonnene binokulare oder multiokulare Bildinformation vor, die für jedes beliebige räumliche Abbildungsverfahren verwendet werden kann.
Zum Erstellen der Raumbildvorlage wird bei einer Ausführungsform des Verfahrens eine Bildbearbeitung einzelner Bildbereiche des Urbildes, insbesondere ein Skalieren und/oder Drehen und/oder Spiegeln ausgeführt und die so erzeugte Raumbildvorlage mittels eines darüber liegenden monofokalen Linsenrasters angezeigt.
Dabei werden die Bildstrukturen, die in dem virtuellen dreidimensionalen Bildmodell gewissen Tiefenebenen zugeordnet werden, so verändert, dass diese bei Anzeige der so erzeugten Raumbildvorlage einen ausreichenden Akkomodationsreiz für das betrachtende menschliche Auge bieten. Die so hervorgehobenen Bildstrukturen werden mittels der optischen Abbildung durch das Linsenraster entweder vor oder hinter der gegebenen Bildebene wahrgenommen und führen somit zu einem räumlichen Eindruck beim Betrachten des Bildes. Dieses Verfahren benötigt nur eine relativ einfach gestaltete Raumbildvorlage in Verbindung mit einer einfachen Ausführung des Abbildungsverfahrens mit räumlicher Tiefenwirkung.
Das zweidimensionale Urbild kann auch direkt ohne eine Bildbearbeitung durch das monofokale Linsenraster angezeigt werden. Das zweidimensionale Urbild ist somit sofort als Raumbildvorlage für eine Anzeige durch das monofokale Linsenraster verwendbar. Eine derartige Vorgehensweise ist besonders dann zweckmäßig, wenn einfache Bildstrukturen vor einem homogen strukturierten Hintergrund, insbesondere Zeichen vor einem einheitlich ausgebildeten Texthintergrund, mit Tiefenwirkung anzuzeigen sind. Der durch die abbildene Wirkung des monofokalen Linsenrasters erzielte Akkomodationsreiz für das betrachtende Auge bewirkt dann einen Tiefeneffekt, wobei das Urbild an sich für eine derartige Anzeige nicht vorher aufbereitet werden muß.
Eine Vorrichtung zum Anzeigen einer Raumbildvorlage ist durch eine zweidimensionale Raumbildvorlage und ein über der Raumbildvorlage angeordnetes monofokales Linsenraster gekennzeichnet. Das monofokale Linsenraster bildet hierbei Bereiche der Raumbildvorlage ab und bewirkt einen entsprechenden Akkomodationsreiz im betrachtenden Auge.
Die zweidimensionale Bildvorlage ist dazu zweckmäßigerweise aus einem Mosaik aus der Rasterstruktur des Linsenrasters zugeordneten Bildabschnitten ausgeführt, wobei im wesentlichen jeweils ein Bildabschnitt ein Abbildungsobjekt für im wesentlichen jeweils ein zugehöriges Linsenelement des monofokalen Linsenrasters ist. Die zweidimensionale Bildvorlage ist demnach in eine Gesamtheit einzelner Bildbereiche aufgeteilt, die jeweils durch ein Linsenelement angezeigt werden.
Bei dieser Vorrichtung sind prinzipiell zwei Ausführungsformen der Bildvorlage und insbesondere der Bildbereiche möglich. Bei einer ersten Ausführungsform sind die Bildabschnitte im wesentlichen unveränderte Bildbestandteile der zweidimensionalen Bildvorlage des Urbildes. Das heißt, dass bei dieser Ausführungsform das im wesentlichen unveränderte zweidimensionale Bild die Raumbildvorlage für das Linsenraster bildet. Bei dieser Ausführungsform wird somit, abgesehen von Größenänderungen oder Skalierungen des gesamten Bildes, auf eine Bildbearbeitung einzelner Bildbereiche verzichtet.
Bei einer weiteren Ausführungsform sind die Bildabschnitte zur Kompensation der Abbildungswirkungen des Linsenrasters skaliert und/oder gespiegelt und/oder gedreht. Dadurch wird eine verbesserte Bildqualität erreicht, wobei allerdings der Aufwand für die Erstellung der Raumbildvorlage zunimmt.
Die zweidimensionale Bildvorlage ist insbesondere ein auf einem Display erzeugtes Bild, während das Linsenraster auf der Oberfläche des Displays befestigt ist. Das Linsenraster wird somit auf einem vorab vorhandenen Display, beispielsweise einem Röhren- oder Flachbildschirm, an einer geeigneten Stelle angebracht und befindet sich somit über dem auf dem Display angezeigten Bild. Diese Anordnung läßt sich in sehr einfacher Weise verwirklichen.
In einer ersten Ausführungsform ist das Linsenraster als eine rasterartige, auf der Display-Oberfläche haftende Fresnel-Linsen-Anordnung ausgeführt. Die Verwendung von Fresnel-Linsen gewährleistet eine flache und einfache Gestaltung des Linsenrasters, wobei die für Fresnel-Linsen typischen Rillenstrukturen in der nach dem Stand der Technik bekannten Weise in ein durchsichtiges Kunststoffmaterial, insbesondere eine Kunststofffolie eingearbeitet werden können.
In einer zweiten Ausführungsform ist das Linsenraster als eine rasterartige, insbesondere flexible, auf der Display-Oberfläche haftende Zonenplatten-Anordnung ausgeführt. Eine Zonenplatte ist ein konzentrisches System aus hellen und dunklen Ringen, die durch Lichtinterferenz eine Bündelung des hindurchlaufenden Lichtes bewirken und damit eine abbildende Wirkung ermöglichen. Eine derartige Ausführungsform ist durch ein Bedrucken einer durchsichtigen flexiblen Folie in aufwandsarmer und kostengünstiger Weise herstellbar.
Bei einer dritten Ausführungsform ist das Linsenraster auch als eine Anordnung konventionell geformter Konvexlinsen möglich, wobei allerdings die Dicke der gesamten Anordnung und damit auch deren Materialverbrauch zunimmt.
Das Verfahren und die Vorrichtung sollen im Folgenden anhand von Ausführungsbeispielen näher erläutert werden. Zur Verdeutlichung dienen die angefügten Figuren. Es werden für gleiche oder gleich wirkende Verfahrensschritte und Verfahrensbestandteile die gleichen Bezugszeichen verwendet. Es zeigt:
Fig. 1 einen ersten Teil eines beispielhaften schematischen Programmablaufplanes des Verfahrens,
Fig. 2 einen beispielhaften Ablaufplan einer Kantenerkennung,
Fig. 3 einen zweiten Teil eines beispielhaften schematischen Programmablaufplanes des Verfahrens,
Fig. 4 ein beispielhaftes Auswahlmenü zum Ausführen der Kantenerkennung,
Fig. 5a ein beispielhaftes Urbild,
Fig. 5b ein beispielhaftes kantenmarkiertes Bild als Ergebnis einer auf dem beispielhaften Urbild aus Fig. 5a ausgeführten Kantenerkennung,
Fig. 6a ein beispielhaftes Ergebnis einer auf dem kantenmarkierten Bild nach Fig. 5b ausgeführten Weichzeichnung,
Fig. 6b ein beispielhaftes Ergebnis einer auf dem kantenmarkierten Bild nach Fig. 6a ausgeführten Tonwertkorrektur,
Fig. 7a ein beispielhaftes Auswahlmenü für eine Fixpunktdefinition,
Fig. 7b ein beispielhaftes fixpunktdefiniertes Bild,
Fig. 8a ein schematisches Beispiel für graphische Objekte in einem schematischen zweidimensionalen Urbild,
Fig. 8b ein schematisches Beispiel einer Tiefenebenenzuordnung der graphischen Objekte aus Fig. 8a und einer Erzeugung eines virtuellen dreidimensionalen Bildmodells entlang beispielhafter Schnitte entlang der Linien A-A und B-B aus Fig. 8a,
Fig. 9a ein schematisches Beispiel einer virtuellen binokularen Betrachtung und Projektion des virtuellen dreidimensionalen Bildmodells entlang der Linie A-A aus den Figuren 8a und 8b,
Fig, 9b ein schematisches Beispiel einer beispielhaften virtuellen binokularen Betrachtung und Projektion des virtuellen dreidimensionalen Bildmodells entlang der Linie B-B aus den Figuren 8a und 8b,
Fig. 10 ein schematisches Beispiel einer virtuellen Einzelbilderzeugung aus einem beispielhaften Betrachtungswinkel entlang der beispielhaften Linie A-A nach Figur 9a,
Fig. 11a eine Reihe beispielhafter virtueller Einzelbilder unterschiedlicher Betrachtungswinkel unter Verwendung des Urbildes aus Fig. 5a,
Fig. 11b eine beispielhafte Kombination der in der Fig. 11a gezeigten virtuellen Einzelbilder in einer beispielhaften Raumbildvorlage für ein Abbildungsverfahren mit zusätzlicher Tiefenwirkung,
Fig. 12a, b beispielhafte Darstellungen einer zweidimensionalen Bildvorlage und eines darüber befindlichen monofokalen Linsenrasters,
Fig. 13a-c beispielhafte Darstellungen einer Abbildung eines zweidimensionalen Bildabschnittes mittels des monofokalen Linsenrasters der vorhergehenden Abbildungen.
Die Figuren 1 und 3 zeigen in zwei Teilen einen beispielhaften schematischen Ablaufplan des Verfahrens. Figur 2 erläutert ein Kantenerkennungsverfahren in einem detaillierteren Ablaufplan. Die Figuren 4 bis 11b zeigen beispielhafte Resultate und weitere Einzelheiten des in den Ablaufplänen erläuterten erfindungsgemäßen Verfahrens.
Den Ausgangspunkt des Verfahrens bildet eine Menge von Urbilddaten 10 eines vorgegebenen zweidimensionalen, zweckmäßigerweise digitalisierten, Urbildes. Sofern das Urbild ein Einzelbild als Bestandteil einer Bildsequenz oder eines digitalisiert vorliegenden Films ist, ist bei der nachfolgenden Beschreibung davon auszugehen, daß alle weiteren Einzelbilder der Bildsequenz in einer dem Einzelbild entsprechenden Weise verarbeitet werden können. Daher ist das im folgenden beispielhaft beschriebene Verfahren auch für Bildsequenzen, Filme und dergleichen verwendbar.
Zweckmäßigerweise wird davon ausgegangen, daß die Urbilddaten 10 in einer Bilddatei, einer digitalen Speichereinrichtung oder einer vergleichbaren Speichereinheit vorliegen. Diese Daten können durch die üblichen Mittel zum Erzeugen digitalisierter Bilddaten, insbesondere durch einen bekannten Scan-Vorgang, eine Digitalfotografie, eine digitalisierte Videoinformation und dergleichen weitere bekannte Bildgewinnungsverfahren erzeugt werden. Dies schließt insbesondere auch Bilddaten ein, die unter der Verwendung sogenannter Frame Grabber aus Video- bzw. Filmsequenzen gewonnen wurden. Als Datenformate sind prinzipiell alle bekannten Bildformate, insbesondere das BMP-, JPEG-, PNG-, TGA-, TIFF- oder EPS-Format in allen jeweiligen Versionen verwendbar. Obwohl bei den nachfolgend beschriebenen Ausführungsbeispielen auf Figuren Bezug genommen wird, die aus Darstellungsgründen schwarz-weiß, bzw. in Grauwerten abgebildet sind, können die Urbilddaten ohne weiteres Farbinformationen beinhalten.
Die Urbilddaten 10 werden in einem Einleseschritt 20 in einen Arbeitsspeicher zum Ausführen des Verfahrens geladen. In einem Verfahrensschritt eines Anpassens 30 werden zunächst die Urbilddaten für eine optimale Verfahrensausführung angepaßt. Das Anpassen 30 der Bildeigenschaften umfaßt mindestens ein Verändern der Bildgröße und des Farbmodells des Bildes. Kleinere Bilder werden in der Regel dann bevorzugt, wenn die Rechenzeit des Verfahrens zu minimieren ist. Eine Bildgrößenänderung kann jedoch auch eine mögliche Fehlerquelle für das erfindungsgemäße Verfahren sein. Als anzupassendes Farbmodell können prinzipiell alle derzeit gebräuchlichen Farbmodelle, insbesondere RGB- und CMYK- oder Graustufenmodelle, aber auch Lab-, Index- bzw. Duplex-Modelle je nach Erfordernis verwendet werden.
Für die weitere Verarbeitung werden die angepaßten Bilddaten in einem Schritt 40 für einen wiederholten Zugriff zwischengespeichert. Die zwischengespeicherten Bilddaten 50 bilden die Grundlage im wesentlichen aller nachfolgenden Datenoperationen.
In Abhängigkeit von dem vermuteten räumlichen Bildaufbau, d.h. der vermuteten Abstufung der Tiefenebenen im Urbild, folgt nun optional unter einem Zugriff auf die zwischengespeicherten Bilddaten 50 entweder eine Änderung des Farbkanals/der Farbverteilung 60 oder eine Überführung der Bilddaten in ein grauwertabgestuftes Bild mittels einer Grauwertabstufung 70. Die Grauwertabstufung 70 ist vor allem dann vorteilhaft, wenn davon auszugehen ist, daß vorwiegend den auf dem Bild dargestellten Objektkonturen eine Tiefeninformation zuzuordnen ist. In diesem Fall sind alle Farbinformationen des Bildes für eine Tiefeninterpretation des Urbildes gleich relevant und können demnach in gleicher Weise in Grauwerte überführt werden. Eine Abwandlung des Farbkanals bzw. der Farbverteilung in den Bilddaten ist dann zweckmäßig, wenn anzunehmen ist, daß im wesentlichen ein Farbkanal Träger der interpretierten Tiefeninformation ist und daher für die folgende Bearbeitung besonders hervorzuheben bzw. zu berücksichtigen ist. Bei der hier gegebenen beispielhaften Beschreibung des Verfahrensablaufs wird auch aus Gründen der besseren Darstellung insbesondere in Hinblick auf die Figuren davon ausgegangen, daß die zwischengespeicherten Bilddaten 50 unabhängig von ihren Farbwerten in Grauwerte umgewandelt werden, wobei die Farbinformation unverändert bleibt.
Im weiteren Verfahrensverlauf schließt sich eine Kantenerkennung 80 an. Dabei wird von der Annahme ausgegangen, daß die in das zweidimensionale Urbild hinein interpretierten Tiefenebenen vor allem durch in die in dem Bildmotiv vorhandenen Objekte definiert sind. Beispielsweise kann davon ausgegangen werden, dass reich strukturierte und damit stark durch Konturen und somit kantenartigen Strukturen geprägte Objekte vorwiegend im Vordergrund des Bildes vorhanden sind und konturarme, verwaschene und somit kantenarme Objekte den Bildhintergrund bilden. Das Kantenerkennungsverfahren 80 wird ausgeführt, um die unterschiedlichen Areale des Urbildes, die aufgrund ihrer Strukturierung zu verschiedenen Tiefenebenen gehören, eindeutig zu identifizieren und voneinander möglichst eindeutig zu unterscheiden.
Fig. 2 stellt einen schematischen und beispielhaften Ablaufplan zur Kantenerkennung dar. Fig. 4 zeigt in Verbindung damit ein beispielhaftes Eingabemenü 89 zur Festlegung der durchzuführenden Veränderungen an den Helligkeitswerten eines zentralen Pixels und einer festgelegten Pixelumgebung. Die durch ihren Grauwert definierten Bildpixel 81 werden in einem Schleifenprozeß fortlaufend bearbeitet. Zunächst erfolgt eine Auswahl 82 eines Pixels und ein Einlesen dessen Helligkeitswertes 83. Dieser Helligkeitswert wird mit einem möglichst großen positiven Wert (in dem hier dargestellten Beispiel mit dem willkürlichen Wert +10) multipliziert, wodurch ein sehr heller Bildpixel 85 erzeugt wird. Ein Helligkeitswert eines jeweils rechts davon liegenden Pixels wird dagegen mit einem möglichst stark negativen Wert (in dem hier dargestellten Beispiel mit -10) in einem Schritt 86 multipliziert, wodurch ein sehr dunkler Pixel 87 erzeugt wird. Dann wird in einem Schritt 88 der nächste Pixel eingelesen. Das Resultat der Kantenerkennung ist ein kantenmarkiertes Bild. Dort, wo das ursprüngliche Bild einen großen Struktur- und damit Kantenreichtum zeigt, bestehen die nunmehr gegebenen kantenmarkierten Bilddaten aus einer Struktur sehr heller bzw. sehr dunkler Pixel, während strukturarme und daher kontur- und kantenarme Bildbereiche eine einheitliche dunkle Färbung aufweisen. Die Struktur der abwechselnd sehr hellen und sehr dunklen Pixel und des damit markierten Objekts weist demnach einen höheren durchschnittlichen Helligkeitswert auf, als ein Areal durchgängig dunkler Pixel.
Nebeneinander liegende Strukturen werden nachfolgend mittels eines als „Weichzeichnung" bezeichneten Verfahrensschrittes 90 verstärkt. Dabei werden die
Helligkeitswerte einer bestimmten ausgewählten Pixelmenge im kantenmarkierten Bild nach einem bestimmten Algorithmus gemittelt und den Pixeln der ausgewählten Menge zugewiesen. Bewährt hat sich hier insbesondere ein Gaussches Weichzeichnungsverfahren. Im weichgezeichneten kantenmarkierten Bild heben sich die Objektstrukturen als eine hellere Pixelmenge vom dem übrigen Bilddteil ab und ermöglichen eine Identifizierung eines einheitlichen Objektes.
Gegebenenfalls kann anschließend in einem Schritt 100 eine Tonwertkorrektur des kantenmarkierten weichgezeichneten Bildes erfolgen. Dabei werden vorzugsweise die Tonwerte der Bildpunkte so korrigiert, dass sich ein möglichst deutlicher Kontrast zwischen der Objektstruktur und dem als Hintergrund des Bildes definierten Rest ergibt.
Der nächste Verfahrensschritt ist durch eine Fixpunktfestlegung 110 bezeichnet. Bei diesem Schritt werden die Färb- und/oder Grauwerte des kantenmarkierten weichgezeichneten Bildes auf einen gewissen Wert so begrenzt, dass de facto der virtuelle Drehpunkt der zu erzeugenden virtuellen Einzelansichten definiert wird. Die Fixpunktfestlegung 110 definiert mit anderen Worten die Objekte oder Strukturen, die virtuell als vor oder hinter der Bildoberfläche gelegen angenommen und später so in ihrer Tiefenwirkung abgebildet werden sollen.
Weiterhin können optional in einem Verfahrensschritt 120 weitere Fixpunktoptionen berücksichtigt werden. So kann beispielsweise eine erste Vermutung angewendet werden, dass größere blaue Flächen vorwiegend einen Hintergrund (blauer Himmer, Wasser usw.) bilden, während kleinere, scharf umgrenzte und farblich hervorstechende Objekte den Vordergrund des Bildes bilden. Ebenso können gewissen Farbwerten gewisse virtuelle Tiefenebenen von von Beginn an zugeordnet werden. So können zum Beispiel Farbwerte, die einer Gesichtsfarbe entsprechen, einer virtuellen Tiefenebene zugeordnet werden, die einer mittleren Bildtiefe entspricht. Ebenso können definierte Bildabschnitte, wie zum Beispiel der Bildrand oder die Bildmitte gewissen Tiefenebenen, zum Beispiel dem Vordergrund oder dem Hintergrund zugeordnet werden, wobei eine „Vorspannung" oder „Wölbung" des später erzeugten räumlichen Bildes erzeugt werden kann.
Durch die so erzeugten Abstufungen der virtuellen Tiefenebenen wird ein virtuelles dreidimensionales Bildgerüst erzeugt, die als eine Verzerrungsmaske oder „Displacement-Map" dient und in Form einer Graustufenmaske visualisiert werden kann. Dieses virtuelle dreidimensionale Bildgerüst wird in einem Schritt 130 zur weiteren Verwendung gespeichert.
Das virtuelle dreidimensionales Bildgerüst dient als Verzerrungsmaske und virtuelle Form zum Erzeugen eines virtuellen dreidimensionalen Bildmodells. Dabei wird in einem Verfahrensschritt 150, der in Fig. 3 als „Displace" bezeichnet ist, das Urbild als Textur über das virtuelle Bildgerüst gelegt und so verzerrt, daß die entsprechenden Urbildabschnitte auf die virtuellen Tiefenebenen „tiefgezogen" d.h. diesen Tiefenebenen zugeordnet werden. Von diesem virtuellen dreidimensionalen Bildmodell werden nun von einer Reihe verschiedener virtueller Betrachtungswinkel aus virtuelle Einzelbilder 160 des virtuellen dreidimensionalen Bildmodells durch eine virtuelle Projektion der Bilddaten des virtuellen dreidimensionalen Bildmodells entsprechend bekannter perspektivischer Abbildungsgesetze erzeugt.
In einem Kombinationsschritt 170 werden die virtuellen Einzelbilder nach einem für das Abbildungsverfahren mit zusätzlicher Tiefenwirkung festgelegten Algorithmus so kombiniert, dass schließlich Bilddaten 180 für die dreidimensionale Abbildung des anfänglichen Urbildes vorliegen.
Im Folgenden werden einige Bildbearbeitungen anhand von Beispielen näher erläutert. Fig. 5a zeigt ein, im allgemeinen farbiges, zweidimensionales Urbild 200. Wie dem Bild zu entnehmen ist, befinden sich eine Reihe von Pflanzen offensichtlich im Vordergrund des Bildmotivs, während offensichtlich weiter im Hintergrund gelegene undeutliche Hafenanlagen, Gebäude und ein weitgehend strukturloser Strand zu erkennen sind. Weiterhin wird der praktisch im Unendlichen gelegene Hintergrund im Urbild 200 durch einen weich verlaufenden Himmel gebildet. Wie der Fig. 5a zu entnehmen ist, zeichnen sich die im offensichtlichen Vordergrund angeordneten Pflanzen durch einen im Vergleich zum Hintergrund beträchtlichen Detailreichtum aus, der sich unter anderem in einer großen Anzahl von „Kanten", beispielsweise im Bereich der Blätter oder der Blüten, zeigt. Der Hintergrund ist im Vergleich dazu kantenarm bzw. kantenfrei. Es ist demnach naheliegend, die Dichte der Kanten im Urbild 200 als Indikator für die räumliche Lage der dargestellten Objekte heranzuziehen.
Fig. 5b zeigt ein aus dem Urbild 200 nach einer Graustufenumwandlung und einer optionalen Größenkorrektur gewonnenes kantenmarkiertes Bild 210. Dort, wo sich die strukturreichen Pflanzen aus dem in Fig. 5a gezeigten Urbild 200 befinden, zeigt das kantenmarkierte Bild 210 eine Vielzahl durch helle Pixel markierter Kanten, die besonders im rechten Bildbereich zu einer höheren mittleren Bildhelligkeit führen. Dagegen sind sowohl der Himmel als auch der Strandbereich aus dem Urbild 200 kantenarm und daher im kantenmarkierten Bild 210 vorwiegend dunkel, während die im Urbild 200 erkennbaren Gebäude einige wenige Kantenstrukturen in Form vereinzelter heller Bildpunkte erzeugen.
Die Figuren 6a und 6b zeigen ein weichgezeichnetes kantenmarkiertes Bild 220 und ein weichgezeichnetes kantenmarkiertes und zusätzlich tonwertkorrigiertes Bild 230. Auf dem weichgezeichneten Bild 220 ist zu erkennen, daß sich der rechte Bilddteil durch einen höheren Bildhelligkeitswert vom linken Bildteil unterscheidet. Dieser Unterschied zeigt sich noch deutlicher im tonwertkorrigierten Bild 230 in Fig. 6b. Der Kantenreichtum im Bereich der Pflanzen des Urbildes, mit anderen Worten der Strukturreichtum des angenommenen Vordergrundes, zeigt sich in den Bildern 220 und 230 deutlich als ein heller Bereich. Deutlich ist im tonwertkorrigierten Bild 230 auf der linken Bildhälfte ein etwas hellerer Streifen zu erkennen, der allerdings deutlich dunkler als der Bildbereich der Pflanzen ist. Dieser Streifen entspricht den abgebildeten Gebäuden aus dem Urbild 200 aus Fig. 5a. Der deutlich dunklere Helligkeitswert verweist auf die kantenärmere Struktur der abgebildeten Gebäude und somit auf deren Anordnung im angenommenen Bildhintergrund.
Im weichgezeichneten und tonwertkorrigierten Bild bilden der Himmel und der Strand aus dem Urbild 200 eine einheitlich dunkle Fläche. Obwohl der Strand eher zum mittleren Vordergrund des Bildes, als zum durch den Himmel gebildeten Hintergrund zu rechnen ist, kann aus dem kantenmarkierten sowie dem weichgezeichneten und tonwerkorrigierten Bild allein dessen mittlere Vordergrundlage nicht eindeutig bestimmt werden. Hier bietet sich eine Zuordnung des Strandes zu einer virtuellen mittleren Tiefenebene aufgrund des gelben oder braunen Farbwertes an, der sich in diesem Beispiel eindeutig vom Farbwert des blauen Himmels unterscheidet.
Dies ist mit der oben bereits erwähnten Fixpunktfestlegung 110 möglich. Fig. 7a zeigt ein diesbezügliches beispielhaftes Menü 239, Fig. 7b das dem Menü entsprechende Bild 240. In einem Histogramm 241 sind eine Reihe von Farbkanälen dargestellt, die in dem in Fig. 7a gezeigten Ausführungsbeispiel eine Reihe von Grauwerten sind. Die entsprechenden Grauwerte sind in einer Grauwertleiste 242 angezeigt. Im linken Teil des Histogramms 241, bzw. der Grauwertleiste 242 befinden sich die dunklen Helligkeitswerte, im rechten Teil die hellen Helligkeitswerte. Die Größe der Histogrammbalken zeigt die Häufigkeitsverteilung der entsprechenden Grauwerte an. Zu erkennen ist, dass sich der helle Bereich des weichgezeichneten, bzw. tonwertkorrigierten Bildes 220 oder 230 in einem breiten Maximum des Histogramms 241 zeigt, während die dunklen Bereiche in den Bildern 220 und 230 zu einem Maximum im linken Teil des Histogramms 241 bei den dunklen Helligkeitswerten führt. Mittels Indikatorenzeigern 243 können gewisse Helligkeitswerte ausgewählt werden. Mit Hilfe der Tasten 245 können Helligkeitswerte ausgewählter Pixel direkt aus dem Bild 241 in das Histogramm 241 ausgelesen und übertragen werden.
In dem hier dargestellten Beispiel stellt sich heraus, dass sich der dem Strand aus dem Urbild 200 entsprechende Bereich in seinem Helligkeitswert vom dem dem Himmel aus dem Urbild 210 entsprechenden Bildabschnitt unterscheidet. Dieser kann mittels eines Auswahlindikators 244 als virtuelle Bildebene ausgewählt werden und bildet einen möglichen Fixpunkt für virtuelle Einzelansichten des später zu erzeugenden virtuellen dreidimensionalen Bildmodells.
Die Figuren 8a und 8b zeigen an einem sehr stark schematisierten Beispiel eine Tiefenebenenzuordnung und eine Konstruktion eines virtuellen dreidimensionalen Bildgerüstes. In Fig. 8a ist ein stark schematisiertes monokular erzeugtes zweidimensionales Urbild 301 dargestellt, dessen einzelne Objekte in ihrer räumlichen Lage im Bild schon durch die vorhergehend beschriebenen Konturerkennungsverfahren identifiziert worden seien. Das in Fig. 8a beispielhaft dargestellte schematische Urbild 301 weist ein erstes Objekt 303, ein zweites Objekt 304 und ein drittes Objekt 305 auf, die vor einer als Hintergrund identifizierten Fläche 306 angeordnet sind und sich von dieser abheben.
Die vorhergehend beschriebenen Verfahren zur Konturenmarkierung, zur Fixpunktdefinition und weitere Vermutungen über die Bildtiefe lassen es beispielhafter
Weise für das schematische Urbild 301 in Fig. 8a in sinnvoll erscheinen, das erste Objekt 303 in der Tiefenebene im Vordergrund anzuordnen, während die Objekte 304 und 305 weiter im Bildhintergrund vermuteten Tiefenebenen zuzuordnen sind. Die Fläche 306 bildet einen quasi im Unendlichen gelegenen Bildhintergrund. In Fig. 8b ist das aus den Zuordnungen der Objekte aus Fig. 8a zu den entsprechenden Tiefenebenen erzeugte virtuelle Bildgerüst 307 in einem Schnitt entlang der Linien A - A bzw. der Linie B - B aus Fig. 8a gezeigt. Die Schnitte entlang der Schnittlinien A - A, bzw. B - B ergeben somit ein virtuelles „Höhenprofil" des virtuellen Bildgerüstes. Wie aus Fig. 8b zu entnehmen ist, ist das Objekt 303 in diesem virtuellen „Höhenprofil" auf der obersten Tiefenebene angeordnet, während das Objekt 304 einer darunter befindlichen Tiefenebene zugeordnet wird. Das Objekt 305 bildet eine weitere Tiefenebene im virtuellen Bildgerüst in der Figur 8b aus. Die virtuelle Tiefenebene des Bildhintergrundes 306 ist in Fig. 8b aus Darstellungsgründen relativ nahe zu den Tiefenebenen der anderen Objekte 303, 304 und 305 angeordnet. Ein zweckmäßiges virtuelles Bildgerüst muß zweckmäßigerweise Tiefenebenenabstufungen aufweisen, die der vermuteten tatsächlichen räumlichen Lage der Objekte entsprechen. So sollte die virtuelle Tiefenebene des Bildhintergrundes demnach zweckmäßigerweise so angeordnet sein, dass deren Abstand zu den übrigen definierten Tiefenebenen des virtuellen Bildgerüstes ein Vielfaches der Abstände zwischen den jeweils anderen entspricht. Werden beispielsweise die Abstände zwischen den virtuellen Tiefenebenen der Objekte 303 und 304 bzw. zwischen der virtuellen Tiefenebene des Objektes 304 und 305 im Bereich von einigen Metern definiert, muß der zweckmäßige virtuelle Abstand zwischen der Tiefenebene des Objektes 305 und der Tiefenebene des Hintergrundes 306 für ein realistisches Bildgerüst zweckmäßigerweise eine Größe annehmen, die im Kilometerbereich liegt, da erfahrungsgemäß für Objekte im Hintergrund gilt, dass diese praktisch unverändert bei kleinen Unterschieden im Betrachtungswinkel abgebildet werden.
Das zweidimensionale Urbild wird auf das virtuelle Bildgerüst angepaßt. Bei dem in den Figuren 8a und 8b gezeigten schematischen Beispiel erfolgt dies so, daß die Bilddaten des Urbildes 301, insbesondere die Bildinformationen der einzelnen Pixel, virtuell den einzelnen Tiefenebenen im virtuellen Bildgerüst zugewiesen werden. Es entsteht ein virtuelles dreidimensionales Bildmodell, das in dem hier dargestellten Beispiel einer Anordnung aus „Kulissen" vergleichbar ist, bei der sich das Objekt 303 virtuell auf der Höhe einer ersten virtuellen Tiefenebene im Vordergrund befindet und
die weiteren, auf den Niveaus der entsprechenden anderen Tiefenebenen gelegenen „Kulissen" der Objekte 304 und 305 „verdeckt".
Fließende Übergänge zwischen den einzelnen virtuellen Tiefenebenen können in Ergänzung dazu zum einen dadurch erreicht werden, indem das Raster der Abstufungen der virtuellen Abstände zwischen den einzelnen Tiefenebenen verfeinert wird und bei den einzelnen Tiefenebenen weitere Abstufungen vorgenommen werden. Zum anderen ist es auch möglich, die Ränder der Tiefenebenen bzw. der auf den Tiefenebenen gelegenen Objekte geeignet virtuell so zu deformieren, daß diese ineinander übergehen. So wäre es beispielsweise bei dem schematischen Objekt 303 in Fig. 8a möglich, den Rand von dessen Tiefenebene virtuell so deformieren, dass das Objekt 303 eine virtuelle sphärische Krümmung erhält. In einer dazu entsprechenden Weise können die Tiefenebenen des virtuellen Bildgerüstes so deformiert werden, daß die darauf abgebildeten Bildinformationen des zweidimensionalen Urbildes im Rahmen eines zweckmäßigen oder gewünschten virtuellen dreidimensionalen Bildmodells prinzipiell beliebige Formen oder Verzerrungen aufweisen können, die entweder einer wirklichen dreidimensionalen Körperform weitgehend entsprechen oder auch mit beliebigen künstlerischen Effekten angereichert sein können.
Die Figuren 9a und 9b zeigen ein aus dem virtuellen Bildgerüst aus der Figur 8b erzeugtes virtuelles dreidimensionales Bildmodell 807 im Schnitt entlang der Linien A - A bzw. B - B aus Fig. 8a und deren virtuelle Aufnahmen aus zwei Betrachtungswinkeln 351 und 352. Die in den Figuren 9a und 9b dargestellte Konfiguration entspricht einer binokularen Betrachtung eines dreidimensionalen Objektes, die innerhalb des Verfahrens virtuell ausgeführt wird. Entsprechend den Gesetzmäßigkeiten der Perspektive erscheinen die virtuellen dreidimensionalen Objekte 303, 304, 305 und 306 von den betreffenden virtuellen Betrachtungswinkeln 351 und 352 aus unterschiedlich gegeneinander verschoben. Diese perspektivische Verschiebung ist die Grundlage der binokularen oder multiokularen Betrachtung räumlicher Objekte und wird im Rahmen des erfindungsgemäßen Verfahrens virtuell modellhaft nachvollzogen.
Fig. 10 zeigt ein Beispiel einer virtuell erzeugten Verschiebung unter dem Einfluß der virtuellen betrachtenden Projektion aus dem virtuellen Betrachtungswinkel 352 am
Beispiel des Ausschnitts des virtuellen dreidimensionalen Bildmodells aus Fig. 9a. Zum Berechnen der virtuellen perspektivischen Verschiebung der virtuellen Objekte des
virtuellen dreidimensionalen Bildmodells können unterschiedliche Verfahren angewendet werden. Bei dem in Fig. 10 beispielhaft gezeigten Verfahren wird das Prinzip der zentrischen Streckung angewendet, wobei die virtuell vom Betrachtungswinkel 352 aus anvisierten Objekte 303, 304 und 306 auf eine virtuelle Projektionsebene 308 projiziert werden und dabei eine Größenveränderung erfahren. Die Projektionsebene kann sich sowohl virtuell vor dem virtuellen dreidimensionalen Bildmodell, als auch hinter dem dreidimensionalen Bildmodell befinden. Eine Lage der virtuellen Projektionsebene innerhalb des virtuellen dreidimensionalen Bildmodells, beispielsweise in einer der bei der Fixpunktbestimmung festgelegten Bildschirmebene ist ebenfalls möglich und sogar am zweckmäßigsten, da eine solche Projektion binokulare Betrachtungsverhältnisse am besten nachvollzieht. Bei der in Fig. 10 gezeigten Projektion bildet der Betrachtungswinkel 352 gleichzeitig ein Projektionszentrum, wobei das virtuelle dreidimensionale Bildmodell gleichsam in einem virtuellen „Auflichtverfahren" betrachtet wird, bei dem die Strahlenquelle virtuell mit der Kamera zusammenfällt.
Andere virtuelle Projektionstechniken sind ebenfalls anwendbar bzw. zweckmäßig. So kann das Projektionszentrum virtuell hinter dem Hintergrund des virtuellen dreidimensionalen Bildmodells angeordnet sein und die entsprechenden Objekte der virtuellen Tiefenebenen als „Schattenriß" auf eine zweckmäßig positionierte Projektionsebene projizieren, die von einem Betrachtungswinkel aus betrachtet wird. Bei einer derartigen virtuellen Projektion erscheinen die im virtuellen Vordergrund gelegenen Objekte gegenüber den virtuell hinter ihnen befindlichen Objekten vergrößert, wodurch ein zusätzlicher Raumeffekt hervorgerufen werden kann.
Weiterhin ist es möglich, mehrere virtuelle Projektionszentren in Verbindung mit mehreren virtuellen Projektionsebenen in beliebiger zweckmäßiger Kombination vorzusehen. So kann beispielsweise der virtuelle Hintergrund von einem virtuell sehr weit hinter dem virtuellen dreidimensionalen Bildmodell angeordneten Projektionszentrum auf eine erste Projektionsebene projiziert werden, während eine Anordnung vieler, sehr dicht gegeneinander abgestufter Objekte im virtuellen Vordergrund durch ein zweites Projektionszentrum projiziert werden, die keinerlei Vergrößerungen an diesen Objekten, sondern nur eine virtuelle Verschiebung dieser Objekte hervorruft.
Die Wahl der virtuellen Projektionsmechanismen bzw. der Anzahl der Betrachtungswinkel hängt von konkreten Einzelfall, insbesondere vom Bildmotiv des zweidimensionalen Urbildes, von den in das Urbild hinein interpretierten Tiefenverhältnissen, von den gewünschten und/oder zu unterdrückenden Bildeffekten und nicht zuletzt auch vom als zweckmäßig erachteten Rechenaufwand und von dem letztlich angewendeten räumlichen Abbildungsverfahren ab, für das die Raumbildvorlage erzeugt werden soll. Prinzipiell können jedoch von dem virtuellen dreidimensionalen Bildmodell beliebig viele perspektivische Einzelbilder mit beliebig vielen, beliebig angeordneten virtuellen Projektionszentren, virtuellen Projektionsebenen, Betrachtungswinkeln usw. erzeugt werden, wobei das in Fig. 10 dargestellte sehr einfache Ausführungsbeispiel nur eine nicht repräsentative, sondern nur beispielhafte Ausführungsmöglichkeit aufzeigt.
In der Figur 11a ist eine Reihe von nach einem der vorhergehend beschriebenen Projektionsverfahren virtuell erzeugten Einzelbildern 208a bis 208d aus einem virtuellen dreidimensionalen Bildmodell des in Fig. 5a beispielhaft gezeigten Urbildes 200 dargestellt. Obwohl die virtuellen Einzelbilder 208a bis 208d in diesem Ausführungsbeispiel schwarz/weiß dargestellt sind, sind diese in der Regel farbig. In den Einzelbildern 208a, 208b, 208c und 208d ist vor allem durch Vergleich der im oberen Bildteil dargestellten Blütenstruktur eine unterschiedliche Deformation dieses Bildabschnittes zu erkennen. Diese entsteht durch die virtuelle Projektion des virtuellen dreidimensionalen Bildmodells für die jeweiligen, in diesem Ausführungsbeispiel vier virtuellen Betrachtungswinkel.
Fig. 11 zeigt eine aus den virtuellen Einzelbildern 208a, 208b, 208c und 208d kombinierte Raumbildvorlage 209 für ein Abbildungsverfahren mit Raumeindruck in Verbindung mit einem vergrößerten Bildausschnitt 211 des oberen mittleren Bildteiles aus der Raumbildvorlage 209. Die Raumbildvorlage 209 wird aus den Einzelbildern 208a-d nach einem für das jeweils zur Anwendung kommende Abbildungsverfahren mit Tiefenwirkung kombiniert.
Im Folgenden werden unter Bezugnahme auf die Figuren 12a und 12b, bzw. auf die Figuren 13a bis 13c beispielhafte zweidimensionale Bildvorlagen und deren Abbildungen mittels eines monofokalen Linsenrasters beschrieben.
Fig. 12a zeigt ein beispielhaftes zweidimensionales Urbild 200, das in eine Reihe von Bildabschnitten 361 unterteilt ist. Die Größe der einzelnen Bildabschnitte ist prinzipiell beliebig und wird im wesentlichen durch die durchschnittliche Größe der kleinsten geschlossenen Bildobjekte und der einzelnen Bildpunkte bestimmt. Sofern angenommen wird, dass deutlich erkennbare Bildstrukturen im Bildvordergrund liegen, müssen diese zweckmäßigerweise durch die Bildabschnitte im wesentlichen als Einheit erfaßt werden, damit diese von anderen Strukturen unterscheidbar sind und dem betrachtenden Auge einen ausreichenden Akkomodationsreiz bieten. Das bedeutet, dass mit einer zunehmend kleinen Rasterung für eine zunehmende Anzahl von Einzelheiten Akkomodationsreize geschaffen werden können, die zu einem Tiefeneindruck beim Betrachter führen, sofern dabei nicht die einzelnen Bildpunkte, d.h. die Bildpixel hervorgehoben werden.
Die Fig. 12a zeigt ein matrixförmiges Raster aus im wesentlichen quadratischen Bildabschnitten. Eine andere Einteilung des zweidimensionalen Urbildes 200 ist jedoch ohne weiteres möglich. Zweckmäßig sind unter anderem hier nicht dargestellte kreisförmige Bildabschnitte in einer hexagonalen Anordnung. Die hexagonale Anordnung kreisförmiger Bildabschnitte bietet den Vorteil, daß ein gegebener Bildabschnitt im Vergleich zu der matrixförmigen Bildaufteilung sechs unmittelbare Nachbarn existieren und somit für das akkomodierende Auge ein homogenerer Übergang von einem ersten Bildabschnitt zur nächsten Umgebung des Bildes vorhanden ist.
Die Bildabschnitte 361 können vorverarbeitete, insbesondere skalierte, gedrehte oder auch gegenüber mehreren Achsen gespiegelte Bilddaten enthalten, die vor allem in Hinblick auf die Kompensation der abbildenden Wirkung des Linsenrasters vorab vorgenommen werden. In diesem Fall bilden die Bildabschnitte ein tatsächlich auf der zweidimensionalen Bildvorlage vorhandenes Mosaik aus. Aus Fig. 12a geht darüber hinaus hervor, dass einige Bildabschnitte 361a eine überwiegend strukturarme Bildinformation enthalten, während einige andere Bildabschnitte 361b besonders strukturreich sind.
In dem in Fig. 12a dargestellten Beispiel liegt das Raster der Bildabschnitte jedoch zunächst nicht tatsächlich in der Bildvorlage selbst vor und tritt erst durch das darüber gelegte Linsenraster in Erscheinung. Eine dafür beispielhafte Anordnung ist in einer
Seitenansicht in Fig. 12b gezeigt. Die zweidimensionale Bildvorlage erscheint auf einer Display-Fläche 370, beispielsweise der fluoreszierenden Fläche einer Bildröhre oder der flüssigkristallinen Matrix eines Flachbildschirms und wird durch eine Display- Oberfläche 375 hindurch betrachtet. Auf der Display-Oberfläche 375 ist das monofokale Linsenraster 360 angeordnet, das beispielsweise als eine transparente, einer Reihe von matrixartig oder hexagonal angeordneten Fresnel-Linsen oder Zonenplatten enthaltende Folie ausgebildet sein kann. Die Folie selbst haftet durch adhäsive Haftkräfte, elektrostatische Kräfte oder einen transparenten Haftfilm fest auf der Displayoberfläche. Jedes Linsenelement 365 des Linsenrasters bildet einen darunter befindlichen Bildabschnitt 361 so ab, dass dieser durch die dabei bewirkte Vergrößerung vor oder hinter der Bildebene des Displays 370 erscheint. Daher sind die Linsenelemente 365 so ausgeführt, dass sich die Displayoberfläche entweder kurz vor oder hinter den einzelnen Brennpunkten des Linsenrasters befindet.
In den Figuren 13a bis 13c ist dies näher dargestellt. Die Figuren zeigen einen beispielhaften Bildausschnitt 200a aus dem in Fig. 12a gezeigten zweidimensionalen Urbild 200 mit den durch das Linsenraster 360 bzw. den lokalen Linsenelementen hervorgerufenen Veränderungen des Bildausschnitts.
Der Bildausschnitt 200a wird durch einen unveränderten Teil des zweidimensionalen Urbildes 200 aus Fig. 12a gebildet, der auf dem Display 370 angezeigt wird. In Fig. 13b wird der Bildausschnitt 200a durch eine Anordnung aus vier beispielhaften Bildabschnitten 361 unterteilt. Dabei enthalten die beiden linken Bildabschnitte 361a jeweils eine eher strukturlose und diffuse Bildhintergrundinformation, während die rechten Bildabschnitte 361 einen strukturreichen Inhalt zeigen, der sich offensichtlich im Bildvordergrund befindet.
Jeder dieser Bildabschnitte wird, wie in Fig. 13c beispielhaft dargestellt, durch ein Linsenelement 365 vergrößert abgebildet. In der in Fig. 13c gezeigten beispielhaften Darstellung beträgt der Vergrößerungsfaktor bei Verwendung eines Linsenelementes mit fokussierender Wirkung 365 etwa 1:2. Bei dieser beispielhaften Darstellung ergeben die linken Bildteile 361a, die einen diffusen strukturlosen Bildhintergrund enthalten, auch bei der Vergrößerung durch das Linsenraster durch deren Strukturlosigkeit einen geringen Akkomodationsreiz, während die beiden rechten Bildabschnitte 361b aus Fig. 13c Strukturen enthalten, die eine Akkomodation des
Auges auf die so dargestellten Bildinhalte veranlassen. Im Ergebnis erscheinen die Bildinhalte der rechten Bildabschnitte 361b aus Fig. 13c dem Betrachter deutlich näher als die Inhalte der linken Bildabschnitte 361a. Bei einer zweckmäßigen Größe der einzelnen Bildabschnitte 361 werden die bei der Abbildung durch das Linsenraster erzeugten Lücken durch die Wirkungsweise des physiologischen visuellen Wahrnehmungsapparates ausgeglichen und integriert.
Bei dem Ausführungsbeispiel aus den Figuren 13a bis 13c führt die Abbildung der Bildabschnitte 361 zu einer horizontal und vertikal gespiegelten Darstellung. Grundsätzlich bieten sich zwei Möglichkeiten, um diesem Effekt zu begegnen. Bei einer ersten Vorgehensweise werden die einzelnen Bildabschnitte der zweidimensionalen Urbildvorlage in der Nachfolge des vorhergehend erwähnten Bildbearbeitungsverfahrens so vorbereitet, insbesondere skaliert bzw. horizontal oder vertikal gespiegelt, dass deren Abbildung wieder zum ursprünglichen Ausgangsbild zurückführt. Die Stärke der vorbereitenden Skalierungen, bzw. Spiegelungen wird aufgrund des Vergrößerungsfaktors des Linsenrasters bzw. der aus dem virtuellen dreidimensionalen Bildmodell abgeleiteten Lage der darzustellenden Objekte abgeleitet und an den Bildabschnitten vorab ausgeführt.
Bei einer zweiten Möglichkeit, die insbesondere für einfache Bildmotive, wie Zeichen oder einfache geometrische Strukturen auf einem einheitlichen Bildhintergrund, anwendbar ist, werden Anzahl, Anordnung und Größe der Linsenelemente im Linsenraster so gewählt, dass die Abbildungsfaktoren für das gesamte Bild unbedeutend sind. Diese Ausführungsform bietet vor allem den Vorteil, dass zum Teil rechenintensive Bildvorbereitungen entfallen und die Raumbildvorlage ohne Linsenraster problemlos erkannt werden kann. Das Bild 200 wirkt ohne monofokales Linsenraster als ein normales zweidimensionales Bild, während es durch die Anwendung des Linsenrasters in einer Tiefenwirkung gestaffelt erscheint, wobei die Tiefenwirkung durch ein bloßes Anbringen des Linsenrasters, also mit sehr einfachen Mitteln, hervorgerufen werden kann.
Bezugszeichenliste
10 Urbilddaten 20 Einlesen der Urbilddaten
Anpassen der Urbilddaten Zwischenspeichern der angepaßten Urbilddaten zwischen gespeicherte Bilddaten optionale Farbkanal/Farbverteilungsänderung Umwandlung in Grauwerte Kantenerkennungsverfahren Daten des Bildpixels Auswahl des Bildpixels Einlesen des Helligkeitswertes des Bildpixels Erhöhen des Helligkeitswertes Bildpixel mit erhöhtem Helligkeitswert Erniedrigen des Helligkeitswertes Bildpixel mit erniedrigtem Helligkeitswert Gehe zu: nächster Pixel Bildmenü zur Kantenerkennung Weichzeichnungsprozedur optional: Tonwertkorrektur Fixpunktdefinition optional: setzen weiterer Fixpunktoptionen Speichern der Graustufenmaske erzeugte Graustufenmaske Verzerren der Urbildtextur, Erstellen des virtuellen dreidimensionalen Bildmodells, Erzeugen virtueller Einzelbilder virtuelle Einzelbilder Kombination der virtuellen Einzelbilder Bilddaten für räumliches Abbildungsverfahren Beispielhaftes zweidimensionales Urbilda Bildausschnitta erstes virtuelles Einzelbildb zweites virtuelles Einzelbildc drittes virtuelles Einzelbildd viertes virtuelles Einzelbild kombinierte Raumbildvorlagea vergrößerter Ausschnitt einer kombinierten Raumbildvorlage beispielhaftes kantenmarkiertes Bild
220 beispielhaftes kantenmarkiertes, weichgezeichnetes Bild
230 beispielhaftes tonwertkorrigiertes weichgezeichnetes Bild
239 Fixpunktdefinitionsmenü
240 fixpunktdefiniertes Bild 241 Histogramm
242 Grauwertleiste
243 Indikatorenzeiger
244 Auswahlindikator
245 Direktauswahl für Helligkeitswerte 301 Urbild, schematisch
303 erstes Objekt
304 zweites Objekt
305 drittes Objekt
306 angenommener Hintergrund 307 virtuelles Bildgerüst mit virtuellen Tiefenebenen
308 virtuelles Einzelbild
351 erster virtueller Betrachtungspunkt mit erstem Betrachtungswinkel
352 zweiter virtueller Betrachtungspunkt mit zweitem Betrachtungswinkel 360 monofokales Linsenraster 361 Bildabschnitt
361a strukturarme Bildabschnitte
361b strukturreiche Bildabschnitte
365 Linsenelement
370 Display 375 Displayoberfläche