DE3688565T2 - Verfahren und System zur Bildveränderung. - Google Patents

Verfahren und System zur Bildveränderung.

Info

Publication number
DE3688565T2
DE3688565T2 DE86302453T DE3688565T DE3688565T2 DE 3688565 T2 DE3688565 T2 DE 3688565T2 DE 86302453 T DE86302453 T DE 86302453T DE 3688565 T DE3688565 T DE 3688565T DE 3688565 T2 DE3688565 T2 DE 3688565T2
Authority
DE
Germany
Prior art keywords
data
image
video image
input
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE86302453T
Other languages
English (en)
Other versions
DE3688565D1 (de
Inventor
Yoshitaka Kurauchi
Masaaki Oka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of DE3688565D1 publication Critical patent/DE3688565D1/de
Application granted granted Critical
Publication of DE3688565T2 publication Critical patent/DE3688565T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Studio Circuits (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Holo Graphy (AREA)
  • Chemical Treatment Of Metals (AREA)
  • Image Generation (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Vehicle Body Suspensions (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Hydrogenated Pyridines (AREA)
  • Photoreceptors In Electrophotography (AREA)
  • Transition And Organic Metals Composition Catalysts For Addition Polymerization (AREA)
  • Image Processing (AREA)

Description

  • Die vorliegende Erfindung betrifft Verfahren und Vorrichtung zur Transformation eines zweidimensionalen Originalbildes in ein dreidimensionales Bild auf einer gekrümmten Fläche und betrifft insbesondere ein solches Verfahren und eine solche Vorrichtung zur Anwendung in einem Spezialeffektgerät, um ein Fernsehsignal mit Spezialeffekten zu erzeugen. Videoverarbeitungsvorrichtungen sind bereits bekannt, und GB-A-2119594 beschreibt ein System, welches ein Eingangs-Bildelement (Pixel) mit vorher gespeicherter Information verarbeitet, wobei der Anteil der gespeicherten verarbeitenden Information gesteuert wird, um Fehler der Bildinformationsdichte zu vermeiden.
  • Eine Bildtransformationsvorrichtung mittels Datenkonversion eines ebenen Originalbilds auf einem viereckigen Papier mit einem darauf geschriebenen Zeichen, wie in Fig. 1A gezeigt ist, in ein dreidimensionales Bild, welches eine stereoskopische gekrümmte Fläche besitzt, die wie auf einen Zylinder aufgerollt aussieht und in Fig. 1B gezeigt ist, ist bekannt (siehe japanische Offenlegungsschrift Nr. 58-219664/1983).
  • Fig. 2 zeigt ein Beispiel einer solchen Bildtransformationsvorrichtung, wobei 1 einen Zentralrechner, bestehend aus einem Mikrocomputer und anderen Bauelementen, 2 einen Massenspeicher und 3 eine Ein-/Ausgabeeinheit bezeichnen.
  • Im Massenspeicher 2 sind Transformationsprogramme und andere Programme gespeichert, die vorher vorbereitet wurden, wie z. B. dasjenige Programm zur Transformation eines ebenen Bildes in ein dreidimensionales Bild, in welchem das ebene Bild wie auf einem Zylinder aufgerollt aussieht, und welches oben beschrieben wurde. Wenn von der Ein-/Ausgabeeinheit 3 eine Auswahl der oben beschriebenen Programme getroffen wird, liest der Zentralrechner 1 dieses Programm aus dem Massenspeicher 2, führt das Programm aus, erkennt, wie unten beschrieben wird, die zur Bildtransformation notwendigen Daten und speichert diese in einem Pufferspeicher 4.
  • Der Prozeß der Bildtransformation wird so ausgeführt, daß das Bild in mehrere Blöcke zerlegt wird und die Transformation Block für Block ausgeführt wird. Im vorliegenden Beispiel wird das Originalbild IM&sub1; in 64·96 Blöcke, bestehend aus 8·8 Bildelementen, zerlegt. Das transformierte Bild IM&sub2; besteht andererseits aus 128·128 Blöcke mit je 4·6 Bildelementen. Und die transformierten Positionen in den drei Raumrichtungen X, Y und Z (die Z-Richtung repräsentiert die Tiefe) werden gemäß dem oben genannten Programm für jeweils einen Punkt, der einen Block des Originalbildes IM&sub1; repräsentiert, ausgeführt, und die berechneten Resultate werden im Pufferspeicher 4 gespeichert. Da, wie im vorliegenden Fall, die Zahl der Blöcke vor und nach der Transformation verschieden ist, entsprechen die Blöcke nach der Transformation nicht vollständig denen des Eingangsbildes, aber das Bild nach der Transformation kann durch die Abbildungs-Vorschrift, in welche Position auf dem transformierten Bild IM&sub2; (Position B&sub2; im Fall der Fig. 1) der den Block B&sub1; repräsentierende Punkt des Originalbildes IM&sub1; transformiert wird, bestimmt werden.
  • Im folgenden wird die Art und Weise, wie das Bild nach der Transformation erhalten wird, beschrieben.
  • Fig. 3 ist eine erklärende Darstellung des Bildtransformationsprozeß. Das Bild nach der Transformation eines zentralen Blocks, umgeben von den repräsentativen Punkten a, b, c und d von 4 Blöcken des Originalbildes, wie in Fig. 3A dargestellt, ist durch die repräsentativen Punkte in der Umgebung eines repräsentativen Punktes P gegeben, wie in Fig. 3B dargestellt ist. Das bedeutet, daß die Positionen der Punkte a, b, c und d als Punkte A, B, C und D nach der Transformation wie in Fig. 3B gezeigt ist, zuerst berechnet werden. Die Position des Punktes p wird entsprechend als Punkt P nach der Transformation bestimmt.
  • Die Punkte A, B, C, D und P haben dreidimensionale Koordinaten, wodurch bestimmt ist, welche Art gekrümmter Fläche gebildet wird. Im vorliegenden Fall ist die gekrümmte Fläche nach der Transformation gegeben durch eine lineare Approximation in der Nähe des repräsentativen Punktes, wie im folgenden beschrieben wird.
  • D.h., die Orientierung dieser Fläche, die den Punkt P einschließt, kann in linearer Approximation definiert werden als Fläche, die parallel zum Segmentvektor AC, der den Punkt A zum Punkt C verbindet und zum Segmentvektor , der den Punkt D zum Punkt B verbindet. Die linear approximierte Ebene durch den Punkt P ist nämlich definiert durch einen Einheitsvektor parallel zum Vektor und einen Einheitsvektor parallel zum Vektor . So wird die gesamte transformierte gekrümmte Fläche durch lineare Approximation einer Fläche in der Nähe jedes repräsentativen Punktes angepaßt. Die Längen der Vektoren und werden gemäß der folgenden Gleichung bestimmt.
  • In den Pufferspeicher 4 werden die für die Transformation notwendigen Daten geschrieben, wie z. B. die Daten zur Anwendung der Transformation auf den repräsentativen Punkt jedes Blocks des Originalbildes IM&sub1; und die Daten zur Berechnung seiner Position nach der oben beschriebenen Transformation, die Daten von Differenzwerten usw.
  • Diese Daten aus dem Pufferspeicher 4 werden einer Bildtransformationsschaltung 5 zugeführt, so daß die einen Eingang 6 zugeführten Bilddaten in Übereinstimmung mit den Daten aus Pufferspeicher 4 transformiert und einen Ausgang 7 zugeführt werden.
  • Im vorliegenden Fall bestimmt die Bildtransformationsschaltung 5 unter Benutzung der Daten aus dem Pufferspeicher 4 zuerst, welcher Bereich transformiert werden soll. D.h., die Schaltung bestimmt zuerst, in welchen Bereich B&sub2; des transformierten Bildes IM&sub2; ein Bereich B&sub1; des Originalbildes IM&sub1; in Fig. 1A transformiert werden soll. Dann wird die Transformation des Bereiches B&sub1; des Originalbildes in den Bereich B&sub2; des transformierten Bildes durchgeführt. Dabei werden diese Leseadressen zum Auslesen der Originalbilddaten aus einem Eingangs-Pufferspeicher der Bildtransformationsschaltung 5 berechnet, die allen Bildelementen innerhalb des Bereichs B&sub2;, der verarbeitet werden soll, entsprechen. Die Daten werden entsprechend der eben beschriebenen Leseadressen aus dem Eingangs-Pufferspeicher ausgelesen, und die ausgelesenen Daten der Bildelemente werden in einen Ausgangs-Pufferspeicher geschrieben. Diese Adressen im Ausgangs-Pufferspeicher, in welchen die Bilddaten geschrieben werden, sind gerade die Adressen der Positionen nach der Transformation.
  • Zu diesem Zeitpunkt wird gleichzeitig eine Bildprobe (Abtastung), die nicht in der Abtastposition des Bildes liegt, interpoliert und werden die interpolierten Daten auch in den Ausgangs-Pufferspeicher geschrieben.
  • Kurz gesagt werden die Punkte des Originalbildes IM&sub1;, die den 24 (4·6) Bildelementen eines Blocks des transformierten Bildes entsprechen, zuerst in der Bildtransformationsschaltung 5 gewonnen, wobei dementsprechend Daten aus dem Eingangs-Pufferspeicher ausgelesen werden, und die ausgelesenen Abtastdaten oder aus einer Mehrzahl von Abtastdaten interpolierte Daten in die Adreßpositionen nach der Transformation in den Ausgangs-Pufferspeicher geschrieben.
  • Im oben genannten Fall können, da der Punkt (Leseadresse) auf dem Originalbild entsprechend einem (repräsentativen Punkt) der 24 Bildelemente erhalten ist, die Punkte des Originalbildes, die den anderen Bildelementen entsprechen, durch Berechnung der Differenzen zwischen Bildelementen erhalten werden, indem die Differenzen benachbarter Blöcke genutzt und nacheinander zum repräsentativen Punkt addiert werden. In anderen Worten wird in diesem Verfahren eine umgekehrte (oder Rück-)Transformation auf die transformierten Daten des Bildes IM&sub2; angewandt, so daß die Punkte von Bildelementen auf dem Originalbild IM&sub1;, die den Bildelementen auf dem Bild IM&sub2; entsprechen, herausgefunden werden, und wenn ein solcher Punkt nicht mit dem Abtastpunkt übereinstimmt, werden die Daten, die dem Punkt entsprechen durch Interpolation auf Basis der Eingangsbilddaten der Umgebung des Abtastpunktes erhalten.
  • Auf die eben beschriebene Art und Weise kann die Transformation eines ebenen zweidimensionalen Bildes in ein dreidimensionales, körperliches Bild ausgeführt werden.
  • Die oben beschriebene Bildtransformationsvorrichtung wird angewandt für ein Gerät zur Erzeugung von Spezialeffekten bei der Ausstrahlung von Fernsehsendungen, z. B. zur Erzeugung eines Spezialeffektes beim Umblättern einer Buchseite.
  • Auch bei Anwendung auf die Ausgabeeinheit eines Computers kann diese Vorrichtung Ausgangsdaten auf einer dreidimensionalen gekrümmten Oberfläche darstellen und damit dem Benutzer in seinem intuitiven Verständnis helfen.
  • Bei einer solchen Vorrichtung ist es jedoch wichtig, wie man den stereoskopischen Effekt erzeugt. Wenn der Bild-Inhalt des Originalbildes unregelmäßig ist, wie z. B. Naturdarstellungen, oder wenn es sich um ein ruhiges Bild ohne Bewegung handelt, wie ein Standbild, geht der stereoskopische Effekt häufig verloren.
  • Der Grund dafür ist, daß das, was dargestellt ist, lediglich ein transformiertes Bild des bestehenden zweidimensionalen Bildes auf eine dreidimensionale Fläche ist. In Wirklichkeit trägt jedoch die Schattierung wesentlich zur Erzeugung des stereoskopischen Effektes bei.
  • Der Beitrag "Image space shading of 3 dimensional objects" von D. Gordon in Computer Vision, Graphics and Image Processing, Vol. 29, Nr. 3, März 1985, S. 361-376, Academic Press Inc. New York, beschreibt Methoden der Schattierung bei der zweidimensionalen Darstellung dreidimensionaler Objektinformation und eine Überprüfung dunkler Bildelemente durch Benutzung einer Schwellenwertfunktion und Ersetzen solcher dunklen Bildelemente durch den Mittelwert seiner Nachbarn.
  • Darüber hinaus existiert das Problem, daß die Genauigkeit der Berechnung nicht so groß gemacht werden kann, da die Struktur der Hardware, die die Berechnung für alle Blocks ausführen muß, nicht zu groß und zu komplex werden darf. Im Ergebnis wird es unvermeidbar, daß Lücken zwischen benachbarten Parallogrammen, die durch die linear approximierende Transformation erzeugt wurden, auftreten.
  • Um dieses Problem zu lösen, wurde zuerst daran gedacht, spezielle Anwendungs-Hardwarestrukturen zu benutzen, die eine solch große Rechengenauigkeit aufweisen, daß solche Lücken nicht auftreten. Diese Lösung bringt die Schwierigkeit mit sich, daß die Hardware-Struktur zu aufwendig wird. Und wenn man verschiedene Bilder transformiert, so ist es nicht einfach, der relativen Schwierigkeit der Transformation entsprechende Bitlängen zu erzeugen, und die Schwierigkeit nimmt stark zu, wenn ein zweidimensionales Bild auf einer speziell geformten komplizierten dreidimensionalen gekrümmten Fläche dargestellt werden soll. Solche Schwierigkeiten mögen Schritt für Schritt gelöst werden, aber es ist ein Problem, daß eine große Verbesserung nicht erwartet werden kann.
  • Als zweite Lösung des Problems der Lückenbildung wurde eine Methode vorgeschlagen, bei der die Ausgangsdaten der Transformationsberechnung durch einen Tiefpaß-Filter gefiltert werden, so daß die Lücken weniger auffällig sind. Bei dieser Methode ist jedoch das Frequenzband des Bildausgangssignals beschränkt, und das transformierte Ausgangsbild, das mit großem Aufwand und einer vorbestimmten Rechengenauigkeit erhalten wurde, wird gemäß dem Prinzip der Methode unscharf und somit hat diese Methode im Effekt den Nachteil, daß sie eine Verringerung der Bildqualität verursacht.
  • Eine Aufgabe der vorliegenden Erfindung ist die Bereitstellung einer Vorrichtung zur Bildtransformation, die in der Lage ist, mit einer relativ einfachen Struktur und einer kurzen Rechenzeit den Effekt von Lücken im Ausgangsbild, die durch den Abbildungsprozeß erzeugt werden, zu reduzieren und dabei ein Bild zu liefern, welches eine für die Praxis ausreichende Genauigkeit aufweist.
  • Gemäß der vorliegenden beanspruchten Erfindung wird eine Vorrichtung zur Transformation von Daten eines zweidimensionalen Eingangs-Videobildes in Daten eines zweidimensionalen Ausgangs-Videobildes, welches eine Projektion des Eingangsbildes auf eine dreidimensionale Fläche darstellt, geliefert, die aufweist:
  • eine Einrichtung zur Definition einer dreidimensionalen Fläche;
  • eine Einrichtung, welche Abbildungsdaten entsprechend der definierten dreidimensionalen Fläche zur Transformation der Daten des Eingangs-Videobildes liefert;
  • eine erste Speichereinrichtung zur Speicherung der Daten des Eingangs-Videobildes;
  • eine Einrichtung zur Transformation der Daten des Eingangs-Videobildes, welche in der ersten Speichereinrichtung entsprechend der Abbildungsdaten gespeichert sind, um die Daten für ein zweidimensionales Ausgangs-Videobild zu liefern, welches das auf die dreidimensionale Fläche projizierte Eingangsbild darstellt; gekennzeichnet durch eine Einrichtung zur Erfassung von Lückenabschnitten in den Daten des zweidimensionalen Ausgangs- Videobildes, in welchen Abschnitten keine transformierten Eingangs- Videobilddaten oder nicht korrekt transformierte Eingangs-Videobilddaten vorhanden sind und welche Einrichtung eine zweite Speichereinrichtung zur Speicherung von Kennzeichnungsdaten, die jedem Element des Ausgangs-Videobildes zugeordnet sind, aufweist, wobei diese Kennzeichnungsdaten a) anzeigen, ob keine Daten transformiert wurden, und/oder b) anzeigen, ob die entsprechenden Daten des Eingangs-Videobildes Vorderseitendaten oder Rückseitendaten der Fläche sind, und/oder c) die Speicheradreßdaten der ersten Speichereinrichtung, von der das entsprechende Element des Ausgangs-Videobildes abstammt, anzeigt, wobei die Lückenerfassungseinrichtung weiterhin eine Einrichtung zum Auslesen der zweiten Speichereinrichtung und zur Bestimmung einer Lücke dann, wenn extreme Diskontinuitäten im ausgelesenen Datenstrom erfaßt werden, aufweist und
  • eine Einrichtung zur Interpolation der Videobilddaten der Lückenabschnitte durch Berechnung unter Verwendung der Videobilddaten am Rande der Lückenabschnitte.
  • Zum besseren Verständnis der vorliegenden Erfindung dient die nun folgende Beschreibung, wobei lediglich beispielhaft auf die anliegenden Zeichnungen Bezug genommen wird, in denen sind
  • Fig. 1A und 1B Darstellungen zur Erklärung der Bildtransformation,
  • Fig. 2 ein Blockdiagramm, welches ein Beispiel für eine Bildtransformationsvorrichtung nach dem Stand der Technik darstellt,
  • Fig. 3A und 3B Darstellungen zur Erklärung des Bildtransformationsverfahrens in der oben genannten Vorrichtung,
  • Fig. 4 ein Blockdiagramm, welches ein Beispiel der erfindungsgemäßen Bildtransformationsvorrichtung zeigt,
  • Fig. 5 ein Flußdiagramm, welches die Schritte des Schattierungsverfahrens in der oben beschriebenen Vorrichtung zeigt,
  • Fig. 6 bis 9 Darstellungen zur Erklärung der Schritte des eben genannten Schattierungsverfahrens,
  • Fig. 10A, 10B und 10C schematische Diagramme zur Darstellung der Struktur des Lückendatenspeichers,
  • Fig. 11 bis 13 schematische Darstellungen, die zeigen, wie Lückendaten in einem Schreib-Kennzeichnungsspeicher, einem Vorderseiten/Rückseiten-Kennzeichnungsspeicher und einem Eingangsbild- Adressenspeicher erzeugt werden,
  • Fig. 14 ein Flußdiagramm, welches die Datenverarbeitungsschritte zur Lückenerkennung und -interpolation zeigt und
  • Fig. 15 und 17 Schemadiagramme zur Darstellung der Datenverarbeitungs-Operationen in der Lückenerkennungs- und Interpolationsschaltung.
  • Eine bevorzugte Ausführungsform der vorliegenden Erfindung wird im folgenden mit Bezugnahme auf die beiliegenden Zeichnungen beschrieben.
  • Fig. 4 zeigt eine Ausführungsform der erfindungsgemäßen Vorrichtung.
  • In der Zeichnung bezeichnen 11 einen ersten Mikroprozessor, bestehend aus einem Mikrocomputer und anderen Bauelementen und 12 einen Plattenspeicher als Massenspeicher, in dem die vorher beschriebenen Transformationsprogramme von ebenen Darstellungen in körperliche Darstellungen gespeichert sind.
  • Der erste Mikroprozessor 11 ist mit einer Tastatur 13 und einem Joystick 14 als Eingabebauelemente und einer CRT-Anzeige 15 als Ausgabeelement verbunden.
  • Zuerst wird die Art der Bildtransformation durch Eingabe auf der Tastatur 13 bestimmt. Zum Beispiel wird eine Bildtransformation von einem ebenen Bild in ein körperliches Bild, welches auf einer zylindrischen Oberfläche aufgerollt ist, bestimmt.
  • Ein Computerprogramm entsprechend dem eben bestimmten Bildtransformationsverfahren wird vom Plattenspeicher 12 gelesen und auf einen Hauptspeicher 11M des Mikroprozessors 11 geladen und auf der CRT-Anzeige 15 dargestellt.
  • Dann wird Information, wie z. B. die Position und Orientierung des Bildes nach der Transformation entsprechend der Position des Hebels des Joysticks 14 berechnet, und die Parameter des Computerprogramms werden dabei geändert. Das geänderte Programm wird über einen DMA-Controller 16 in den Programmspeicher 17M eines zweiten Mikroprozessors 17 transferiert. Der Mikroprozessor 17 fuhrt das zu ihm transferierte Programm aus. Während der Ausführung diese Programms werden die vorher beschriebenen transformierten Positionen der entsprechenden Blöcke, die Größe der Blöcke, die Vektoren und nach der Transformation durch lineare Approximation auf Basis der benachbarten Blöcke und anderes berechnet und diese Daten in einem Pufferspeicher 18 gespeichert.
  • Dabei wird die Bildtransformation im vorliegenden Beispiel auch so ausgeführt, daß ein repräsentativer Punkt für jeden der Blöcke des Originalbildes IM&sub1; definiert und die transformierte Position dieses repräsentativen Punktes berechnet wird, die Transformationsdaten der Umgebung der eben erwähnten transformierten Position durch lineare Approximation mit Bezug auf die transformierte Position und die Adreßpositionen der Originalbilddaten, die dem Bereich in der Nähe der transformierten Position entsprechen, erhalten werden, und die Bilddaten an diesen Adressen in den Bereich in der Nähe der transformierten Position geschrieben werden.
  • Bei der Darstellung eines dreidimensionalen Bildes im oben beschriebenen Fall wird verlangt, daß Bereiche, die für den Beobachter verdeckt sind, nicht dargestellt werden. Daher werden Zeiger, die die Reihenfolge der Verarbeitung der Blöcke angeben, aus den Daten in Z-Richtung (Tiefe) der Daten der transformierten Positionen der entsprechenden Blöcke bestimmt und diese Zeiger in ein Datenfeld im Pufferspeicher 18 geschrieben, und die Datentransformation wird auf Basis dieser Zeiger so ausgeführt, daß die hinteren (weiter vom Betrachter entfernten) Blöcke zuerst und anschließend die vorderen Blöcke verarbeitet werden (in Bezug auf diese Methode siehe die früher genannte japanische Offenlegungsschrift Nr. 58-219664).
  • Die so im Pufferspeicher 18 gespeicherten Daten werden in der von den Zeigern vorgegebenen Reihenfolge, beginnend mit den hinteren Blöcken, ausgelesen und der speziellen Hardware 19 zugeführt. In dieser speziellen Hardware 19 wird die Position eines Eingangsblocks nach der Transformation aus der transferierten Position des Blocks als Einheit und als Differenzen bestimmt. Dann wird der Ausgangsblock (4·6 = 24 Bildelemente), der die Position abdeckt, aufgefunden und unter Benutzung der umgekehrten Differenzen der Punkt auf dem Originalbild IM&sub1;, der dem repräsentativen Punkt des Blocks entspricht, für jeden der Ausgangsblöcke bestimmt. Die so erhaltenen Daten werden der Biidtransformations-Hardware 30 zugeführt.
  • Bezugszeichen 21 bezeichnet einen Schattierungsfaktor-Speicher, welcher die Schattierungsfaktoren enthält, die durch die Transformation der Daten im Mikroprozessor 17 erzeugt werden, und die den Reflexionsgrad des von einer vorher eingerichteten virtuellen Lichtquelle kommenden Lichts durch die von den Bilddaten erzeugten Flächen sowie Gewichtsfaktoren als Schattierungsdaten repräsentieren.
  • Fig. 5 ist ein Flußdiagramm, welches das oben beschriebene Bildtransformationsverfahren darstellt. Die Erzeugung der Schattierungsfaktoren und die Gewichtung der Eingangsdaten mit den Schattierungsfaktoren bei Benutzung dieses Bildtransformationsverfahrens wird unten genauer beschrieben.
  • Zuerst wird die Ebene eines Blocks (4·6 = 24 Bildelemente) des transformierten Ausgangsbildes herausgenommen (Schritt Nr. 101). In diesem Fall wird die Ebene jeweils eines Blocks in der Reihenfolge vom hintersten zum vordersten Block entsprechend den vorher beschriebenen Zeigern herausgenommen.
  • Dann wird ein Kennzeichen gesetzt, welches anzeigt, ob der Block der Vorderseite oder der Rückseite des Eingangsbildes entspricht (Schritt Nr. 102).
  • Wenn Papier, wie in Fig. 6 gezeigt ist, in zylindrischer Form aufgerollt wird, so werden sowohl die Vorder- als auch die Rückseite sichtbar und wenn man die Schattierung der Oberflächen berücksichtigt, so muß die Oberfläche auf der Vorderseite von der Oberfläche auf der Rückseite unterschieden werden. Daher wird das oben genannte Kennzeichen gesetzt. Das Kennzeichen ist so gewählt, daß das Kennzeichen "1" für einen Block auf der Vorderseite und das Kennzeichen "0" für einen Block auf der Rückseite steht (siehe Fig. 6A).
  • Dann wird ein Normalenvektor i auf der herausgenommenen Block-Fläche bestimmt (siehe Fig. 7, Schritt Nr. 103).
  • Dann wird entschieden, ob der Block auf der Vorder- oder der Rückseite liegt (Schritt Nr. 104). Befindet sich der Block auf der Vorderseite, wird der Schritt Nr. 105 ausgeführt, bei dem ein Normalenvektor für die Vorderseite als der Normalenvektor i auf der Block-Fläche gewählt wird. Befindet sich der Block auf der Rückseite, so wird ein Normalenvektor auf der Rückseite als Normalenvektor i ausgewählt (Schritt Nr. 106). Da die Vektoren, die in Fig. 6B gezeigt sind Einheitsvektoren in Normalenrichtung auf der Vorderseite sind, sind die Normalenvektoren auf der Vorder- und der Rückseite durch Multiplikation der Vektoren mit den Kennzeichen gegeben, wie in Fig. 6C gezeigt ist.
  • Dann wird ein Vektor a, welcher die Richtung der virtuellen Lichtquelle, die eine bestimmte Position aufweist, für den Block bestimmt (siehe Fig. 7, Schritt Nr. 107). Die Position der virtuellen Lichtquelle wird durch Betätigen der Tastatur 13 oder des Joysticks 14 bestimmt.
  • Weiterhin wird das Skalarprodukt i.a des Normalenvektors i mit dem Richtungsvektor a bestimmt (Schritt Nr. 108). Dem Wert dieses Skalarproduktes entsprechend wird ein Schattierungsfaktor gewählt und dessen Wert im Schattierungsfaktor-Speicher 21 gespeichert (Schritt Nr. 109).
  • Dann werden Datenabschnitte, die dem Ausgangsblock entsprechen und in ihm enthalten sind, aus einem A/D-Wandler erhalten. Im vorliegenden Beispiel werden die Komponentensignale des Luminanz- Signals Y und der Farbdifferenzsignale U und V als Farbvideosignal für das Eingangsbild benutzt, und diese Signale werden durch den A/D-Wandler 31 digitalisiert und einer Daten-Modifikationsschaltung 32 zugeführt. Dann wird der oben angesprochene Schattierungsfaktor vom Mikroprozessor 17 aus dem Speicher 21 ausgelesen und sein Wert der Daten-Modifikationsschaltung 32 zugeführt, worin der Luminanzpegel für das Luminanzsignal und die Farbwerte der Farbsignale entsprechend dem Schattierungsfaktor modifiziert und somit die Daten mit einer Schattierung versehen werden (Schritt Nr. 111).
  • Somit sind die Eingangsdaten, welche in die Blöcke der Ausgangsdaten eingefügt werden, vorher mit den Schattierungsfaktoren gewichtet, und diese gewichteten Daten werden über ein Filter 33 auf die Bildtransformations-Hardware 30 übertragen, wo die Daten einer Datenkonversion, d. h. einer Adressenkonversion, einer Interpolation usw. unterworfen werden (Schritt Nr. 112).
  • Im obigen Fall kann es manchmal passieren, daß man solche Skalarprodukte auf der Vorder- oder auf der Rückseite erhält, bei denen Schattierungsfaktoren ausgewählt werden, die den hellsten Abschnitt noch heller oder den am meisten schattierten Abschnitt noch dunkler werden lassen. Es gibt jedoch Maximal- und Minimalwerte für die Skalarprodukte, wie in Fig. 8 gezeigt ist, so daß die Schattierungsfaktoren auf eine Konstante begrenzt sind, wenn die Skalarprodukte solche Maximal- oder Minimalwerte über- bzw. unterschreiten, oder es ist in diesem Fall ein Begrenzer vorgesehen. So wird vermieden, daß etwa ein heller Abschnitt glänzend, ein dunkler Abschnitt pechschwarz oder das ganze Bild dunkel wird.
  • Während die drei Ausgangssignale über die Datenmodifikationsschaltung 32 dem Digitalfilter 33 zugeführt werden, wird das Durchlaßband dieses Digitalfilters 33 vom Ausgang des Pufferspeichers 18 gesteuert. D.h., daß das Signalband schmaler gemacht wird, wenn der Bildtransformationsprozeß eine Verkleinerung erwirkt, so daß das Rauschen durch das Verschwinden der feinen Abschnitte des Bildes nicht erhöht wird, und daß die Durchlaßbänder des Filters entsprechend angepaßt umschaltbar sind, wenn im Originalbild sowohl vergrößerte als auch verkleinerte Bereiche gemischt werden.
  • Das Ausgangssignal des Digitalfilters 33 wird der Bildtransformations-Hardware 30 zugeführt.
  • Die Bildtransformations-Hardware 30 enthält einen Eingangsvollbildspeicher 34, eine Interpolationsschaltung 35, einen Ausgangsvollbildspeicher 36 und eine Lese/Schreib-Adressensteuerschaltung 37. Die Transformationsdaten der Hardware 19 für Spezialanwendungen wird der Adressensteuerschaltung 37 zugeführt, wobei die Adressen im Eingangsvollbildspeicher 34 und im Ausgangsvollbildspeicher 36 gesteuert werden und die Daten der Position des Abtastpunktes, der durch Interpolation verarbeitet, werden soll, gesteuert werden, um dem Interpolationsverfahren in der Interpolationsschaltung 35 unterworfen zu werden.
  • Im einzelnen werden die durch den Filter 33 getretenen Eingangsdaten im Eingangsvollbildspeicher 34 zwischengespeichert. Wenn die Verarbeitung Block für Block von den hinteren (tieferen) zu den vorderen (nächsten) Blöcken, wie oben beschrieben, entsprechend Zeigern, fortschreitet werden die Bilddaten des Eingangs-Abtastpunktes, der dem repräsentativen Punkt des Ausgangsblocks entspricht, durch die Adressensteuerschaltung 37 ausgelesen, der Interpolationsschaltung 45 zugeführt und in den Ausgangsvollbildspeicher 36 geschrieben. Wenn die Daten so sind, daß die Position, welche dem Abtastpunkt im Ausgangsblock entspricht, zwischen Abtastpunkten im Eingangsvollbildspeicher 34 gelegen ist, werden die richtigen Daten durch Interpolation auf Basis von Abtastpunkten in der Umgebung im Eingangsvollbildspeicher 34 erzeugt und werden in die Adresse des Blocks geschrieben und werden so das Positionsausgangssignal des Ausgangsbildes aus der Adressensteuerschaltung 37 in die Adresse des Blocks geschrieben. Somit werden die Daten des körperlichen Bildes, welches Block für Block transformiert wurde, in den Ausgangsvollbildspeicher 36 geschrieben, und diese Daten werden in Folge ausgelesen und über einer Lückenerfassungs- und -interpolationsschaltung 38 einem D/A-Wandler 39 zugeführt, von dem das Luminanzsignal Y und die Farbdifferenzsignale U und V ausgegeben werden zur Zufuhr zu einer CRT-Anzeige (nicht gezeigt), wobei ein transformiertes Bild auf dem Bildschirm dargestellt wird (siehe Fig. 9, wobei die virtuelle Lichtquelle nicht auf dem Bildschirm erscheint).
  • Wie oben beschrieben wird die Gewichtung mit dem Schattierungsfaktor in der Datenmodifikationsschaltung 32 ausgeführt. Jedoch kann diese Gewichtung auch an den Videobilddaten, welche im Ausgangsvollbildspeicher gespeichert sind, ausgeführt werden.
  • Nun wird das Interpolationsverfahren für die Lücken, die durch die linear approximierte Bildtransformation erzeugt werden, beschrieben.
  • Die in den Ausgangsvollbildspeicher 36 geschriebenen Daten des transformierten Bildes werden, wie oben beschrieben in Folge ausgelesen und der Lückenerfassungs- und Interpolationsschaltung 38 zugeführt, und gleichzeitig werden Abbildungsdaten vom Pufferspeicher 18 dem Lückendatenspeicher 22 und die Lückendaten bezüglich jedes Bildelements der Lückenerfassungs- und Interpolationsschaltung 38 zugeführt.
  • Der Lückendatenspeicher 22 enthält einen Schreibkennzeichenspeicher 22A, einen Vorder/Rückseitenkennzeichenspeicher 22B und einen Eingangsbild-Adressenspeicher 22C. Diese Speicher 22B und 22C besitzen jeweils einen Speicherabschnitt, der die gleichen Horizontal- und Vertikal-Adressen wie die Horizontal- und Vertikal-Adressen der Bildelementdaten des Ausgangsvollbildspeichers 36 aufweist, und ist so ausgeführt, daß jedesmal, wenn ein Bildelement des Ausgangsvollbildspeichers 36 ausgelesen wird, synchron hierzu deren Daten von den entsprechenden Adressen ausgelesen werden.
  • Der Schreibkennzeichenspeicher 22A speichert die Schreibkennzeichendaten, welches 1 Bit enthalt, das anzeigt, ob die Daten des transformierten Bildes im Ausgangsvollbildspeicher 36 an den Adressen eingeschrieben sind, die den Bildelementen, welche das Ausgangsbild zusammensetzen, entsprechen. Die Schreibkennzeichendaten zeigen in Übereinstimmung mit dem vorangegangenen Dateneintrag in der Prozessor 11 mittels logischer Pegel "1" bzw. "0" für jedes Bildelement die Adressen, welchen die durch eine Polygon simulierte gekrümmte Fläche zugewiesen wurde bzw. die Adressen, welchen die Zuweisung nicht durchgeführt wurde, zu der Zeit, als das Eingangsbild auf der durch ein Polygon simulierten gekrümmten Fläche, welche die gekrümmte Fläche eines Zylinders mit einem bestimmten Radius darstellt, erzeugt wurde. In der Praxis werden die Schreibkennzeichendaten auf Basis des Dateneingangssignals zum Prozessor 17 berechnet und im Schreibkennzeichenspeicher 22A gespeichert.
  • Im Fall von Fig. 10 ist der Adressenbereich X1 des Schreibkennzeichenspeichers 22A der Bereich, der nicht zur zylindrischen Oberfläche gehört (aber der der Hintergrund wird), und der Bereich, der nicht der durch ein Polygon simulierten gekrümmten Fläche zugewiesen wird, so daß alle Bildelemente im Bereich X1 mit Daten auf logischer "0" eingeschrieben werden. Andererseits ist der Adressenbereich X2 derjenige Bereich, der der Vorderseite der zylindrisch gekrümmten Fläche entspricht, d. h. dieser Bereich repräsentiert den Teil des Bildes, der so transformiert wurde, daß das Bild im Eingangsvollbildspeicher 34, welcher das Eingangs- Videosignal speichert, auf der Vorderseite (nicht als Bild auf der Innenseite) der zylindrisch gekrümmten Fläche als Bild erzeugt ist und welcher unter einem Winkel von oben gesehen wird. Weiterhin repräsentiert der Adressenbereich X3 von dem auf der zylindrisch gekrümmtem Fläche aufgerollten Eingangsbildes, das transformierte Bild, das auf der Rückseite (nämlich das Eingangsbild, welches von innen nach außen weist) aufgerollt ist.
  • Da der Adressenbereich X1 derjenige Bereich ist, welchem das Eingangsbild zu Beginn nicht zugewiesen war, werden die Adressen, welche den Bildelementen dieses Bereichs entsprechen, mit Daten einer logischen "0" eingeschrieben. Andererseits folgt, daß die Bereiche X2 und X3 sich zusammensetzen aus dem Anteil, auf welchem die durch ein Polygon simulierte gekrümmte Fläche erzeugt wurde und dem Anteil, auf dem sie nicht erzeugt wurde (dieser Anteil entspricht den Lücken), und, während die Adressen, welchen die durch ein Polygon simulierte gekrümmte Fläche zugewiesen wurde, als Daten einer logischen "1" eingeschrieben sind, sind die Lücken als Daten einer logischen "0" eingeschrieben.
  • Somit werden Position und Größe der Lücke im Schreibkennzeichenspeicher 22A derart gespeichert, daß der Adressenbereich AR 11, der Daten mit der logischen "0" aufweist, sich isoliert innerhalb ihm umgebenden Bereichen ist, die die Daten einer logischen "1" aufweisen, wie in Fig. 11 gezeigt ist.
  • Der Vorder/Rückseitenkennzeichenspeicher 22B dient der Speicherung von Daten, welche die Vorderseite bzw. die Rückseite des auf eine zylindrisch gekrümmte Fläche projizierten Eingangsbildes anzeigen, und speichert Vorder/Rückseitenkennzeichendaten von einem Bit an der Adresse, welche der Adresse im Eingangsvollbildspeicher entspricht.
  • Im Fall der in Fig. 10 dargestellten Ausführungsform entspricht der Adressenbereich Y1 des Vorder/Rückseitenkennzeichenspeichers 22B dem Adressenbereich des Ausgangsvollbildspeichers 36, wo die Eingangsbilddaten nicht eingeschrieben sind. Dieser Bereich speichert nicht die Vorder/Rückseitenkennzeichendaten, sondern ist mit einem Signal, welches eine Annulierung kennzeichnet, beschrieben. Das Signal, welches eine Annulierung kennzeichnet, wird in der Praxis auf Basis der Schreibkennzeichen, welche im Schreibkennzeichenspeicher 22A gespeichert sind, erhalten.
  • Und in dem Adressenbereich Y2 sind Daten auf logischer "1" in die Adressen geschrieben, bei denen die Bilddaten am Vorderseitenabschnitt gespeichert ist innerhalb der Adressen, die im Bildabschnitt enthalten sind, die auf die zylindrische Fläche aufgerollt sind in Übereinstimmung mit den in den Ausgangsvollbildspeicher 36 eingeschriebenen transformierten Bilddaten.
  • Ferner sind in dem Adressenbereich Y3 Daten auf logischer "0" in die Adressen geschrieben, bei denen die von innen nach außen weisenden (gewendeten) Bilddaten, die den Abschnitt wiedergeben, der auf die Rückseite der zylindrisch gekrümmten Flächen gerollt ist, gespeichert sind in Übereinstimmung mit den in den Ausgangsvollbildspeicher eingeschriebenen Daten.
  • Daher wird in dem Bereich, in dem der Adressenbereich Y2, in dem die Bilddaten auf der Vorderseite gespeichert sind, sich überlappt mit dem Adressenbereich Y3, in dem die Bilddaten auf der Rückseite gespeichert sind, falls eine Lücke in dem Bereich Y2 für die Vorderseite existiert, die Datenanordnung auf dem Vorder/Rückseitenkennzeichenspeicher 22B derart, daß der Speicherbereich AR21, der der Lücke entspricht, die mit Daten einer logischen "0" eingeschrieben ist, von den Speicherbereichen umgeben ist, die mit Daten einer logischen "1" beschrieben sind, wie in Fig. 12 gezeigt.
  • Das bedeutet in Bezug auf die Bilddaten, die im Ausgangsvollbildspeicher 36 gespeichert sind, daß ein Teil des gewendeten Bildes sichtbar ist, weil im Vorderseitenbereich eine Lücke existiert. Tritt solch ein Zustand im praktischen Betrieb auf, so besteht z. B. dann, wenn die Farben auf der Vorderseite und auf der Rückseite völlig verschieden sind, die Gefahr, daß das Bild unangenehm wird, auch wenn die Lücke nur die Größe eines einzigen Bildelements umfaßt. Das Auftreten eines solchen Zustandes kann im Vorder/Rückseitenkennzeichenspeicher 22B gespeichert werden.
  • Der Eingangsbild-Adressenspeicher 22C speichert Horizontal- und Vertikal-Adressen im Eingangsvollbildspeicher 34, der das Eingangsbild vor der Transformation im Speicherbereich an den Adressen speichert, welche den Adressen im Ausgangsvollbildspeicher 36 entsprechen. Hier sind die Adreßpositionen der Bildelementdaten, welche an den Adressen des Ausgangsvollbildspeichers 36 gespeichert sind, diejenigen, welche von den Adreßpositionen des Eingangsvollbildspeichers 34 durch Transformationsberechnung transformiert wurden, und so können unter dem Gesichtspunkt der Kontinuität des Bildes die Adressen im Eingangsvollbildspeicher 34 derjenigen Daten von benachbarten Bildelementen im Ausgangsvollbildspeicher 36 nicht so weit voneinander entfernt sein. Und so kann, wenn, wie in Fig. 13 gezeigt ist, die Adresse, welche im Speicherbereich AR 31 gespeichert ist, sehr verschieden von den Adressen der umgebenden Speicherbereiche ist, entschieden werden, daß an der Adressenposition, welche dem Speicherbereich AR 31 entspricht, eine Lücke besteht.
  • Daher können die Lücken so wie es bekannt ist durch Berechnung erhalten werden zum Zeitpunkt zu dem die zweidimensionale Ebene auf die durch ein Polygon simulierte gekrümmte Oberfläche aufgespannt wird und vorher in den Schreibkennzeichenspeicher 22A, den Vorder/Rückseitenkennzeichenspeicher 22B und den Eingangsbild-Adressenspeicher 22C, welche den Rückendatenspeicher 22 bilden, eingespeichert werden und, anschließend, wenn die Daten der Bildelemente, welche an den Adressen des Ausgangsvollbildspeichers 36 gespeichert sind, aufeinanderfolgend ausgelesen werden, werden sie als Lückendaten synchron damit ausgelesen und der Lückenerkennungs- und -interpolationsschaltung 38 zugeführt.
  • Vorstehend wird das Auslesen von Daten aus dem Schreibkennzeichenspeicher 22A, dem Vorder/Rückseitenkennzeichenspeicher 22B und dem Eingangsbild-Adressenspeicher 22C sowohl in horizontaler (H-Richtung) als auch in vertikaler Richtung (V-Richtung) ausgeführt, und daher wird extreme Diskontinuitäten der Anordnung der Daten der Bildelemente sowohl in horizontaler als auch in vertikaler Richtung erfaßt werden, entschieden, daß eine Lücke vorliegt.
  • Und das Einschreiben von Daten in den Schreibkennzeichenspeicher 22A, den Vorder/Rückseitenkennzeichenspeicher 22B und den Eingangsbild-Adressenspeicher 22C, welche den Lückendatenspeicher 22 bilden, wird so ausgeführt, daß das entferntere (tiefere) Bild vom dem Beobachtungspunkt näherliegenden Bild überschrieben wird, so daß in einem Abschnitt, wo sich mehrere Bilder nacheinander überlappen, die Daten des Bildabschnitts, der dem Beobachtungspunkt am nächsten liegt, in den Speichern 22A, 22B und 22C verbleibt.
  • Die Lückenerkennungs- und -interpolationsschaltung 38 führt die interpolierende Berechnung aus, um die Daten für das Bildelement der wie oben beschrieben erfaßten Lücke zu erreichen unter Benutzung der Daten aus der Umgebung des Bildelements der Lücke. Bei dem vorliegenden Ausführungsbeispiel wird der interpolierte Wert von der Schaltung 38 als Mittelwert (arithmetischer Mittelwert) zweier solcher Werte von Bildelementdaten berechnet, die in Folge vom Ausgangsvollbildspeicher 36 zugeführt sind, die vor und nach dem Lückenbildelement Eingangssignal sind. Übrigens können andere Mittelwerte außer dem arithmetischen Mittelwert als interpolierter Wert benutzt werden, sowie z. B. Mittelwerte der Bildelementdaten benachbart zu den vorhergehenden Bildelementdaten, der Bildelementdaten benachbart zu den folgenden Bildelementdaten, der Bildelementdaten, welche um ein Teilbild vorhergehen und von acht Sätzen von Bildelementdaten am Umfang.
  • Die Daten, aus denen Lücken in der Lückenerkennungs- und -in-terpolationsschaltung 38 interpoliert wurden, werden nach Umwandlung in Analogsignale im Digital-Analog-Wandler 39 als Ausgangsvollbildsignal geliefert.
  • In der oben beschriebenen Anordnung führt die Lückenerfassungs- und -interpolationsschaltung 38 die Erfassung der Lücken und die Interpolationsberechnung gemäß den in Fig. 14 gezeigten Ausführungsschritten aus. Die Lückenerfassungs- und -interpolationsschaltung 38 liest zuerst im Schritt SP1 die Schreibkennzeichendaten aus dem Schreibkennzeichenspeicher 22A nacheinander in horizontaler und vertikaler Richtung aus und erfaßt die Bildelemente, welche nicht in den Ausgangsvollbildspeicher 36 geschrieben sind, als Lücken und führt dann im folgenden Schritt SP2 die Interpolationsrechnungen auf Basis der vorher erfaßten Resultate aus und füllt dabei die Lücken mit den interpolierten Daten.
  • Die Lückenerfassungs- und -interpolationsschaltung 38 fährt dann mit Schritt SP3 fort und liest die Daten im Vorder/Rückseitenkennzeichenspeicher 22b zuerst in horizontaler und dann in vertikaler Richtung und erfaßt dabei als Lücke dasjenige Bildelement, für welches das Rückseitenkennzeichen innerhalb der Vorderseitenkennzeichen aufgefunden wird, und füllt im folgenden Schritt SP4 die Lücke mit den interpolierten Daten, welche durch die Interpolationsberechnung erhalten wurden.
  • Der Grund, warum die Lückenerfassung in den Schritten SP1 und SP3 nicht nur in der horizontalen, sondern auch in der vertikalen Richtung ausgeführt wird, ist, daß in dem Fall, wenn Bildelemente mit dem Wert der logischen "0", welcher anzeigt, daß das entsprechende Bildelemente eine Lücke ist, in horizontaler (oder vertikaler) Richtung aufeinanderfolgen, wie z. B. in Fig. 15 gezeigt ist, die Gefahr besteht, daß diese nicht als Lücken bewertet werden. Im einzelnen wird bei der Bewertung, ob es sich bei einem Bildelement um eine Lücke handelt oder nicht, hier ein solches Entscheidungsverfahren angewandt, daß, wenn eine Umkehrung des Inhalts der Daten in einer Folge von Kennzeichendaten erkannt wird, das Bildelement, welches den umgekehrten Kennzeichendaten entspricht, als Lücke bewertet wird. So besteht im Fall eines Musters, wie es in Fig. 15 gezeigt ist, die Gefahr, daß beurteilt wird, daß keine Lücke besteht, wenn die Erfassung nur in horizontaler Richtung durchgeführt wird, aber bei Durchführung der Erfassung auch in vertikaler Richtung kann solch eine Fehlentscheidung verhindert werden.
  • Im folgenden Schritt SP5 liest die Lückenerfassung und -in-terpolationsschaltung 38 die Daten im Eingangsbild-Adressenspeicher 22C erst in horizontaler und dann in vertikaler Richtung aus und bewertet ein Bildelement dann als Lücke, wenn seine Adressendaten extrem verschieden sind von denen in seiner Umgebung und führt im folgenden Schritt SP6 eine Interpolationsberechnung aus, um die Lücke mit den Interpolationsdaten zu füllen.
  • Nimmt man nun an, daß eine wie in Fig. 16 gezeigte, durch Aufwickeln einer Ebene erhaltene gekrümmte Fläche als dreidimensionale gekrümmte Fläche, auf welche das Bild transformiert wird, ausgewählt wird, erhält man ein Bild, in dem zwei Flächenanteile K2 und K4, die beide auf der Vorderseite des Eingangsbildes befindlich sind, einander überlappen. Dann werden, auch wenn der Datenbereich AR41 (Fig. 17) eine Lücke enthält, beim Speichern des Vorderseitenbildes, welches in Richtung des Beobachters gelegen ist, der Anteil K2 Vorderseiten-Kennzeichendaten "1" des Vorderseitenbildes das vom Beobachter aus gesehen weiter hinten liegt, der Anteil K4 gespeichert, und so besteht die Gefahr, daß die Lücke AR 41 nicht als solche erfaßt wird. Jedoch muß, da die der Lücke AR 41 entsprechende Adresse, welche im Speicherbereich des Eingangsbild-Adressenspeichers 22 gespeichert ist, die Adresse des vom Beobachter entfernt liegenden Vorderseitenbildes, der Anteil K4 ist, die Adresse sehr unterschiedlich sein von den umgebenden Adressen, nämlich den Adressen des Vorderseitenbildes, welches dem Beobachter näherliegt oder des Anteils K2. So kann die Lückenerfassungs- und -interpolationsschaltung 38 die Lücke entsprechend den Daten des Eingangsbild- Adressenspeichers 22C mit Sicherheit erfassen.
  • Die Lückenerfassungs- und -interpolationsschaltung 38 beendet so die Erfassung aller Lücken und der Interpolationsberechnungen für diese und liefert im folgenden Schritt SP7 das Ausgangs-Videosignal. Die Interpolationsberechnungen können auch ausgeführt werden, nachdem alle drei Typen der Lückenerfassung unter Benutzung des Schreibkennzeichenspeichers 22A, des Vorder/Rückseitenkennzeichenspeichers 22B und des Eingangsbild-Adressenspeichers 22C alle ausgeführt worden sind.
  • Gemäß dem oben beschriebenen Ausführungsbeispiel ist die Vorrichtung in der Lage, dann, wenn bei der Ausführung der Berechnung zum Aufspannen einer zweidimensionalen Ebene auf eine durch ein Polygon simulierte dreidimensionale Fläche Lücken erzeugt werden, die Lücken zu erfassen und Interpolationsberechnungen nur für die erfaßten Lücken auszuführen, und somit kann ein Ausgangs-Videosignal, in welchem die Lücken interpoliert sind, mit Sicherheit erhalten werden ohne Notwendigkeit einer sehr großen Hardwarestruktur. Daher kann, auch wenn eine solche Klasse von Spezialanwendungs-Hardwareeinheiten verwendet wird zur Ausführung der Berechnung unter Benutzung der Daten solcher kleinerer Bit-Langen, welche bei der Berechnung zum Aufspannen einer zweidimensionalen Ebene auf eine durch eine polygonsimulierte dreidimensionale gekrümmte Fläche unvermeidbar einige Lücken produzieren, hohe Genauigkeit in der Praxis erreicht werden. Daher wird die Ausführung von hochpräzisen Berechnungen auf Echtzeit-Basis durch Hochgeschwindigkeitsrechnungen unter Benutzung dieser Vorrichtung praktikabel.
  • Gemäß der vorliegenden Erfindung wird, wie oben beschriebenen, erreicht, daß irgendwelche Lücken, weiche beim Verfahren des Aufspannens einer zweidimesionalen Ebene auf eine durch ein Polygon simulierte dreidimensionale Fläche erzeugt werden, mit Sicherheit erfaßt und mit geeigneten Daten interpoliert werden. Daher wird eine Bildtransformationsvorrichtung ermöglicht, welche in der Lage ist, Bildtransformation mit hoher Genauigkeit auf Echtzeit-Basis durchführen, ohne den Umfang an Hardware zu groß werden zu lassen.

Claims (1)

1. Vorrichtung zur Transformation der Daten eines zweidimensionalen Eingangs- Videobildes in die Daten eines zweidimensionalen Ausgangs-Videobildes, welches das auf eine dreidimensionale Fläche projizierte Eingangsbild darstellt, welche Vorrichtung aufweist:
eine Einrichtung (11, 12, 13, 14, 15) zur Definition einer dreidimensionalen Fläche;
eine Einrichtung (17, 18), welche Abbildungsdaten entsprechend der definierten dreidimensionalen Fläche zur Transformation der Daten des Eingangs-Videobildes liefert;
eine erste Speichereinrichtung (34) zur Speicherung der Daten des Eingangs- Videobildes;
eine Einrichtung (30) zur Transformation der Daten des Eingangs-Videobildes, welche in der ersten Speichereinrichtung (34) entsprechend der Abbildungsdaten gespeichert sind, um die Daten für ein zweidimensionales Ausgangs-Videobild zu liefern, welches das auf die dreidimensionale Fläche projizierte Eingangsbild darstellt;
gekennzeichnet durch,
eine Einrichtung (22, 38) zur Erfassung von Lückenabschnitten in den Daten des zweidimensionalen Ausgangs-Videobildes, in welchen Abschnitten keine transformierten Eingangs-Videobilddaten oder nicht korrekt transformierte Eingangs-Videobilddaten vorhanden sind und welche Einrichtung eine zweite Speichereinrichtung (22, 22a, 22b, 22c) zur Speicherung von Kennzeichnungsdaten, die jedem Element des Ausgangs-Videobildes zugeordnet sind, aufweist, wobei diese Kennzeichnungsdaten a) anzeigen, ob keine Daten transformiert wurden, und/oder b) anzeigen, ob die entsprechenden Daten des Eingangs-Videobildes Vorderseitendaten oder Rückseitendaten der Fläche sind, und/oder c) die Speicheradreßdaten der ersten Speichereinrichtung (34), von der das entsprechende Element des Ausgangs-Videobildes abstammt, anzeigt, wobei die Lückenerfassungseinrichtung (22, 38) weiterhin eine Einrichtung zum Auslesen der zweiten Speichereinrichtung (22, 22a, 22b, 22c) und zur Bestimmung einer Lücke dann, wenn extreme Diskontinuitäten im ausgelesenen Datenstrom erfaßt werden, aufweist und
eine Einrichtung (32) zur Interpolation der Videobilddaten der Lückenabschnitte durch Berechnung unter Verwendung der Videobilddaten am Rande der Lückenabschnitte.
DE86302453T 1985-04-03 1986-04-02 Verfahren und System zur Bildveränderung. Expired - Lifetime DE3688565T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60070330A JPH0681275B2 (ja) 1985-04-03 1985-04-03 画像変換装置

Publications (2)

Publication Number Publication Date
DE3688565D1 DE3688565D1 (de) 1993-07-22
DE3688565T2 true DE3688565T2 (de) 1993-10-07

Family

ID=13428310

Family Applications (1)

Application Number Title Priority Date Filing Date
DE86302453T Expired - Lifetime DE3688565T2 (de) 1985-04-03 1986-04-02 Verfahren und System zur Bildveränderung.

Country Status (7)

Country Link
US (1) US4965844A (de)
EP (1) EP0198630B1 (de)
JP (1) JPH0681275B2 (de)
AT (1) ATE90800T1 (de)
AU (2) AU597881B2 (de)
CA (1) CA1293561C (de)
DE (1) DE3688565T2 (de)

Families Citing this family (99)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7907793B1 (en) 2001-05-04 2011-03-15 Legend Films Inc. Image sequence depth enhancement system and method
US8396328B2 (en) 2001-05-04 2013-03-12 Legend3D, Inc. Minimal artifact image sequence depth enhancement system and method
CA1274919A (en) * 1985-07-27 1990-10-02 Akio Ohba Method of forming curved surfaces and the apparatus
GB8613447D0 (en) * 1986-06-03 1986-07-09 Quantel Ltd Video image processing systems
JP2699342B2 (ja) * 1987-02-25 1998-01-19 ソニー株式会社 画像変換方法
JPS6446875A (en) * 1987-08-17 1989-02-21 Toshiba Corp Object discriminating device
JPH07121084B2 (ja) * 1987-11-06 1995-12-20 日本電気株式会社 テレビジョン映像信号特殊効果装置
GB8909367D0 (en) * 1989-04-25 1989-06-14 Quantel Ltd Manipulating electronically stored images
EP0398810B1 (de) * 1989-05-19 1996-07-10 Sony Corporation Verfahren zur Bildtransformation
GB9000674D0 (en) * 1990-01-12 1990-03-14 Questech Ltd Improvements in and relating to the production of digital video effects
JPH04129481A (ja) * 1990-09-20 1992-04-30 Sony Corp 特殊効果映像作成方法
US5432906A (en) * 1990-09-28 1995-07-11 Eastman Kodak Company Color image processing system for preparing a composite image transformation module for performing a plurality of selected image transformations
JP3038878B2 (ja) * 1990-10-25 2000-05-08 ソニー株式会社 特殊効果装置
US5214511A (en) * 1990-11-30 1993-05-25 Sony Corporation Image transforming apparatus
US5194969A (en) * 1990-12-04 1993-03-16 Pixar Method for borderless mapping of texture images
JP2897441B2 (ja) * 1991-03-14 1999-05-31 株式会社日立製作所 イメージ処理方法及び装置
US5412401A (en) * 1991-04-12 1995-05-02 Abekas Video Systems, Inc. Digital video effects generator
US5369443A (en) * 1991-04-12 1994-11-29 Abekas Video Systems, Inc. Digital video effects generator
JP2973573B2 (ja) * 1991-04-12 1999-11-08 ソニー株式会社 画像変換装置
US6201574B1 (en) 1991-05-13 2001-03-13 Interactive Pictures Corporation Motionless camera orientation system distortion correcting sensing element
US6002430A (en) * 1994-01-31 1999-12-14 Interactive Pictures Corporation Method and apparatus for simultaneous capture of a spherical image
US7382399B1 (en) 1991-05-13 2008-06-03 Sony Coporation Omniview motionless camera orientation system
US6243131B1 (en) 1991-05-13 2001-06-05 Interactive Pictures Corporation Method for directly scanning a rectilinear imaging element using a non-linear scan
US7714936B1 (en) 1991-05-13 2010-05-11 Sony Corporation Omniview motionless camera orientation system
US5903319A (en) * 1991-05-13 1999-05-11 Interactive Pictures Corporation Method for eliminating temporal and spacial distortion from interlaced video signals
US5384588A (en) * 1991-05-13 1995-01-24 Telerobotics International, Inc. System for omindirectional image viewing at a remote location without the transmission of control signals to select viewing parameters
US5990941A (en) * 1991-05-13 1999-11-23 Interactive Pictures Corporation Method and apparatus for the interactive display of any portion of a spherical image
EP0526918A2 (de) * 1991-06-12 1993-02-10 Ampex Systems Corporation Bildtransformation über eine gefaltete gekrümmte Oberfläche
US5818960A (en) * 1991-06-18 1998-10-06 Eastman Kodak Company Characterization calibration
US6005984A (en) * 1991-12-11 1999-12-21 Fujitsu Limited Process and apparatus for extracting and recognizing figure elements using division into receptive fields, polar transformation, application of one-dimensional filter, and correlation between plurality of images
JP3117097B2 (ja) * 1992-01-28 2000-12-11 ソニー株式会社 画像変換装置
JP3089792B2 (ja) * 1992-03-04 2000-09-18 ソニー株式会社 画像データの隠面判別方式
US5282262A (en) * 1992-04-09 1994-01-25 Sony Corporation Method and apparatus for transforming a two-dimensional video signal onto a three-dimensional surface
GB2267007B (en) * 1992-04-24 1995-09-13 Sony Broadcast & Communication Video special effect apparatus and method
GB2267203B (en) * 1992-05-15 1997-03-19 Fujitsu Ltd Three-dimensional graphics drawing apparatus, and a memory apparatus to be used in texture mapping
US5420940A (en) * 1992-06-16 1995-05-30 Hughes Training, Inc. CGSI pipeline performance improvement
US5867727A (en) * 1992-06-24 1999-02-02 Fujitsu Limited System for judging read out transfer word is correct by comparing flag of transfer word and lower bit portion of read destination selection address
US5329310A (en) * 1992-06-30 1994-07-12 The Walt Disney Company Method and apparatus for controlling distortion of a projected image
GB2269293B (en) * 1992-07-30 1996-04-24 Sony Broadcast & Communication Apparatus and method for processing image data
FR2696685B1 (fr) * 1992-10-12 1994-12-23 Aerospatiale Procédé et dispositif d'aide à la décoration d'un objet tridimensionnel.
JP3341926B2 (ja) * 1993-04-17 2002-11-05 ソニー株式会社 画像変換装置
US5974189A (en) * 1993-05-24 1999-10-26 Eastman Kodak Company Method and apparatus for modifying electronic image data
JP3482660B2 (ja) * 1993-09-08 2003-12-22 ソニー株式会社 画像データ処理装置および画像データ処理方法
US5440652A (en) * 1993-09-10 1995-08-08 Athena Design Systems, Inc. Method and apparatus for preparing color separations based on n-way color relationships
US5765561A (en) * 1994-10-07 1998-06-16 Medical Media Systems Video-based surgical targeting system
US5737506A (en) * 1995-06-01 1998-04-07 Medical Media Systems Anatomical visualization system
US6151404A (en) * 1995-06-01 2000-11-21 Medical Media Systems Anatomical visualization system
US6702736B2 (en) 1995-07-24 2004-03-09 David T. Chen Anatomical visualization system
US5776050A (en) * 1995-07-24 1998-07-07 Medical Media Systems Anatomical visualization system
GB9601101D0 (en) 1995-09-08 1996-03-20 Orad Hi Tech Systems Limited Method and apparatus for automatic electronic replacement of billboards in a video image
US5825908A (en) * 1995-12-29 1998-10-20 Medical Media Systems Anatomical visualization and measurement system
GB2312119B (en) * 1996-04-12 2000-04-05 Lightworks Editing Systems Ltd Digital video effects apparatus and method therefor
GB9611938D0 (en) * 1996-06-07 1996-08-07 Philips Electronics Nv Stereo image generation
US6493032B1 (en) 1996-06-24 2002-12-10 Be Here Corporation Imaging arrangement which allows for capturing an image of a view at different resolutions
US6331869B1 (en) 1998-08-07 2001-12-18 Be Here Corporation Method and apparatus for electronically distributing motion panoramic images
US6373642B1 (en) 1996-06-24 2002-04-16 Be Here Corporation Panoramic imaging arrangement
US6459451B2 (en) 1996-06-24 2002-10-01 Be Here Corporation Method and apparatus for a panoramic camera to capture a 360 degree image
US6341044B1 (en) 1996-06-24 2002-01-22 Be Here Corporation Panoramic imaging arrangement
US6466254B1 (en) 1997-05-08 2002-10-15 Be Here Corporation Method and apparatus for electronically distributing motion panoramic images
US6356296B1 (en) 1997-05-08 2002-03-12 Behere Corporation Method and apparatus for implementing a panoptic camera system
US20050231505A1 (en) * 1998-05-27 2005-10-20 Kaye Michael C Method for creating artifact free three-dimensional images converted from two-dimensional images
US7102633B2 (en) * 1998-05-27 2006-09-05 In-Three, Inc. Method for conforming objects to a common depth perspective for converting two-dimensional images into three-dimensional images
US7116324B2 (en) * 1998-05-27 2006-10-03 In-Three, Inc. Method for minimizing visual artifacts converting two-dimensional motion pictures into three-dimensional motion pictures
US7116323B2 (en) * 1998-05-27 2006-10-03 In-Three, Inc. Method of hidden surface reconstruction for creating accurate three-dimensional images converted from two-dimensional images
US6924832B1 (en) 1998-08-07 2005-08-02 Be Here Corporation Method, apparatus & computer program product for tracking objects in a warped video image
US6369818B1 (en) 1998-11-25 2002-04-09 Be Here Corporation Method, apparatus and computer program product for generating perspective corrected data from warped information
EP1138159B1 (de) 1998-12-07 2015-06-17 Universal City Studios LLC Bildkorrekturverfahren zur kompensation von blickpunktbildverzerrungen
US6175454B1 (en) 1999-01-13 2001-01-16 Behere Corporation Panoramic imaging arrangement
US6650396B2 (en) 2000-12-04 2003-11-18 Hytechnology, Inc. Method and processor for stereo cylindrical imaging
AU2002215743A1 (en) * 2000-12-07 2002-06-18 Just Iced Cubed Inventions Inc. Systems and methods for registration of hemispheric images for panomaric viewing
US6690960B2 (en) 2000-12-21 2004-02-10 David T. Chen Video-based surgical targeting system
US8401336B2 (en) 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
US9031383B2 (en) 2001-05-04 2015-05-12 Legend3D, Inc. Motion picture project management system
US8897596B1 (en) 2001-05-04 2014-11-25 Legend3D, Inc. System and method for rapid image sequence depth enhancement with translucent elements
US9286941B2 (en) 2001-05-04 2016-03-15 Legend3D, Inc. Image sequence enhancement and motion picture project management system
GB2383240B (en) * 2001-12-17 2005-02-16 Micron Technology Inc DVi link with parallel test data
JP4165695B2 (ja) * 2002-10-08 2008-10-15 独立行政法人理化学研究所 非多様体の陰関数表現方法のコンピュータプログラム
US7106326B2 (en) * 2003-03-03 2006-09-12 Sun Microsystems, Inc. System and method for computing filtered shadow estimates using reduced bandwidth
US7197170B2 (en) * 2003-11-10 2007-03-27 M2S, Inc. Anatomical visualization and measurement system
US20060098010A1 (en) * 2004-03-09 2006-05-11 Jeff Dwyer Anatomical visualization and measurement system
US20050231643A1 (en) * 2004-03-26 2005-10-20 Ross Video Limited Method, system and device for real-time non-linear video transformations
US7567297B2 (en) 2004-06-29 2009-07-28 Richard Storek Television visual artwork generation system and method
US7702137B2 (en) 2004-11-10 2010-04-20 M2S, Inc. Anatomical visualization and measurement system
US8179395B2 (en) * 2006-06-28 2012-05-15 Panasonic Corporation Image special effect apparatus and image special effect method
US7952581B2 (en) * 2007-03-26 2011-05-31 Microsoft Corporation Realistic transformation of 3D lighting models
US7818690B2 (en) * 2007-06-15 2010-10-19 Microsoft Corporation Framework for creating user interfaces containing interactive and dynamic 3-D objects
US8730232B2 (en) 2011-02-01 2014-05-20 Legend3D, Inc. Director-style based 2D to 3D movie conversion system and method
US9282321B2 (en) 2011-02-17 2016-03-08 Legend3D, Inc. 3D model multi-reviewer system
US9113130B2 (en) 2012-02-06 2015-08-18 Legend3D, Inc. Multi-stage production pipeline system
US9288476B2 (en) 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
US9241147B2 (en) 2013-05-01 2016-01-19 Legend3D, Inc. External depth map transformation method for conversion of two-dimensional images to stereoscopic images
US9407904B2 (en) 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
US8681182B2 (en) 2011-04-19 2014-03-25 Deluxe 3D Llc Alternate viewpoint rendering
US9007365B2 (en) 2012-11-27 2015-04-14 Legend3D, Inc. Line depth augmentation system and method for conversion of 2D images to 3D images
US9547937B2 (en) 2012-11-30 2017-01-17 Legend3D, Inc. Three-dimensional annotation system and method
US9007404B2 (en) 2013-03-15 2015-04-14 Legend3D, Inc. Tilt-based look around effect image enhancement method
US9438878B2 (en) 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
US10609438B2 (en) * 2015-08-13 2020-03-31 International Business Machines Corporation Immersive cognitive reality system with real time surrounding media
US9609307B1 (en) 2015-09-17 2017-03-28 Legend3D, Inc. Method of converting 2D video to 3D video using machine learning

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3441789A (en) * 1968-01-12 1969-04-29 Lee Harrison Means and method for generating shadows and shading for an electronically generated display
US3585628A (en) * 1969-06-18 1971-06-15 Computer Image Corp Computer for generating animated images with overlap prevention and animation recording
US3976982A (en) * 1975-05-12 1976-08-24 International Business Machines Corporation Apparatus for image manipulation
GB1547119A (en) * 1977-12-09 1979-06-06 Ibm Image rotation apparatus
US4283765A (en) * 1978-04-14 1981-08-11 Tektronix, Inc. Graphics matrix multiplier
JPS57138685A (en) * 1981-02-23 1982-08-27 Hitachi Ltd Graphic conversion for graphic indicator
GB2119594B (en) * 1982-03-19 1986-07-30 Quantel Ltd Video processing systems
US4570233A (en) * 1982-07-01 1986-02-11 The Singer Company Modular digital image generator
DE3270136D1 (en) * 1982-09-29 1986-04-30 Ibm Video display system
US4475104A (en) * 1983-01-17 1984-10-02 Lexidata Corporation Three-dimensional display system
FR2554662B1 (fr) * 1983-05-11 1986-01-17 Thomson Csf Procede pour generer une image video comportant une figure geometrique, et generateur de formes mettant en oeuvre ce procede
US4594673A (en) * 1983-06-28 1986-06-10 Gti Corporation Hidden surface processor
US4615013A (en) * 1983-08-02 1986-09-30 The Singer Company Method and apparatus for texture generation
US4625290A (en) * 1983-11-02 1986-11-25 University Of Florida Apparatus and method for producing a three-dimensional display on a video display device
US4685070A (en) * 1984-08-03 1987-08-04 Texas Instruments Incorporated System and method for displaying, and interactively excavating and examining a three dimensional volume
JPH0746391B2 (ja) * 1984-09-14 1995-05-17 株式会社日立製作所 図形シエ−デイング装置
US4727364A (en) * 1984-09-19 1988-02-23 Mcdonnell Douglas Corporation Method and apparatus for intensity shading in a visual display
US4653013A (en) * 1984-11-19 1987-03-24 General Electric Company Altering spatial characteristics of a digital image
US4625289A (en) * 1985-01-09 1986-11-25 Evans & Sutherland Computer Corp. Computer graphics system of general surface rendering by exhaustive sampling
DE3665639D1 (en) * 1985-05-08 1989-10-19 Sony Corp Video signal processing
CA1274919A (en) * 1985-07-27 1990-10-02 Akio Ohba Method of forming curved surfaces and the apparatus

Also Published As

Publication number Publication date
JPH0681275B2 (ja) 1994-10-12
EP0198630A3 (en) 1988-08-17
AU597881B2 (en) 1990-06-14
US4965844A (en) 1990-10-23
DE3688565D1 (de) 1993-07-22
EP0198630B1 (de) 1993-06-16
EP0198630A2 (de) 1986-10-22
CA1293561C (en) 1991-12-24
AU5234190A (en) 1990-08-02
JPS61230477A (ja) 1986-10-14
AU5560986A (en) 1986-10-09
AU616109B2 (en) 1991-10-17
ATE90800T1 (de) 1993-07-15

Similar Documents

Publication Publication Date Title
DE3688565T2 (de) Verfahren und System zur Bildveränderung.
DE68928438T2 (de) Verfahren und Vorrichtung zur Erzeugung von beweglichen Bildern
DE3854543T2 (de) Prioritätsverwaltung eines Tiefendatenpuffers für Echtzeitrechnersysteme zur Bilderzeugung.
DE3750784T2 (de) Generation eines intrapolierten charakteristischen Wertes zur Anzeige.
DE3855231T2 (de) Prioritätsauflösungssystem zwischen Polygonen mit Antialiasing
EP1173749B1 (de) Bildbearbeitung zur vorbereitung einer texturanalyse
DE69839277T2 (de) Verfahren und anordnung zur ausführung von farbschlüsseln, transparenz und nebelfunktionen
DE3688178T2 (de) Verfahren zur Bildextraktion eines sich bewegenden Objekts.
DE3686233T2 (de) Videosignalverarbeitung.
DE69127915T2 (de) System und Verfahren von Prioritätsfarbabbildung
DE10296401B4 (de) Verbund-Rendering von 3-D-Graphikobjekten
DE3854223T2 (de) Erzeugung und Anzeige von Rechnergraphiken.
DE68928557T2 (de) Bildverarbeitungsgerät und -methode
DE102011056970A1 (de) Rasterausgabe von rotierten, interpolierten Pixeln, die für digitale Bildstabilisierung optimiert ist
DE4224568C2 (de) Vorrichtung und Verfahren zur Bildung der Anzeige eines dreidimensionalen sequentiellen tomografischen Flächenschattierungsbildes
DE4022384A1 (de) Anzeige zur vorausbestimmung eines graphikpfades
DE69021939T2 (de) Rechnergestützte Erzeugung beweglicher Bilder.
DE69021759T2 (de) Vorrichtung zur Erzeugung einer Bewegungsinformation.
DE69125869T2 (de) Gradationskorrekturvorrichtung
DE3315148A1 (de) Digitale sichtanzeigeeinrichtung
DE4341304A1 (de) Verfahren und Vorrichtung zur Verwendung eines Videopuffers
DE69216244T2 (de) Vorrichtung zum erzeugen von aliasfreien anzeigebildern mit halo
DE69009544T2 (de) Beeinflussung eines Bildes.
DE3854619T2 (de) Quadratische interpolation zur schattierten bilderzeugung.
DE60033589T2 (de) Bildverarbeitung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition