DE69727109T2 - Verfahren und Gerät zur Bilddatenübertragung, Bildverarbeitung und Aufzeichnungsmedien dafür - Google Patents

Verfahren und Gerät zur Bilddatenübertragung, Bildverarbeitung und Aufzeichnungsmedien dafür Download PDF

Info

Publication number
DE69727109T2
DE69727109T2 DE1997627109 DE69727109T DE69727109T2 DE 69727109 T2 DE69727109 T2 DE 69727109T2 DE 1997627109 DE1997627109 DE 1997627109 DE 69727109 T DE69727109 T DE 69727109T DE 69727109 T2 DE69727109 T2 DE 69727109T2
Authority
DE
Germany
Prior art keywords
pixel
data
image data
image
transparent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE1997627109
Other languages
English (en)
Other versions
DE69727109D1 (de
Inventor
Masakazu c/o Sony Computer Minato-ku Suzuoki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Publication of DE69727109D1 publication Critical patent/DE69727109D1/de
Application granted granted Critical
Publication of DE69727109T2 publication Critical patent/DE69727109T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/94Vector quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/203Image generating hardware
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Image Generation (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Television Signal Processing For Recording (AREA)

Description

  • Diese Erfindung betrifft generell Verfahren und Geräte zur Verarbeitung von Bilddaten, insbesondere, aber nicht ausschließlich Systeme zur Realzeitanzeige dreidimensionaler Objekte.
  • Bei einer typischen TV-Spielmaschine für Haushaltsgebrauch ist ein Personalcomputer oder Grafikcomputer, eine Bildverarbeitungseinrichtung, die zum Erzeugen von Bilddaten, die an einen Daten zur Anzeige empfangenden TV-Empfänger oder Monitor ausgegebenen werden, ausgeführt ist, aus einem Mehrzweck- bzw. Universalspeicher, einer CPU und anderen Verarbeitungs-LSIs (LSI = Großintegration), die über einen Bus miteinander verbunden sind, hergestellt. Zwischen der CPU und einem in die Richtung des Flusses von Bilddaten zum Zeichnen schauenden Rahmenpuffer ist eine dedizierte Bildzeichnungseinrichtung zum Fördern einer Hochgeschwindigkeitsverarbeitung vorgesehen.
  • Bei dem vorstehend beschriebenen System muss die CPU nicht an einen Rahmenpuffer als ein dem Anzeigeschirm zugeordneter Anzeigespeicher direkt adressieren. Anstelle dessen führt die CPU eine geometrische Verarbeitung wie beispielsweise Koordinatentransformation, Abschneiden bzw. Clipping oder Lichtquellenberechnungen zum Definieren eines dreidimensionalen Modells als eine Kombination von grundlegenden Einheitsfiguren (Polygonen) wie beispielsweise Dreiecke oder Rechtecke aus, um einen Befehl zum Zeichnen eines dreidimensionalen Bildes zu erzeugen. Die CPU sendet den Bildzeichnungsbefehl über einen externen Bus zu einer geeigneten Zeichnungseinrichtung.
  • Der Zeichnungsbefehl enthält eine Information wie beispielsweise die Form, Position, Richtung, Farbe oder des Musters des zu zeichnenden Polygons. Die Form, Position oder die Richtung des Polygons wird von den Koordinaten der Polygoneckpunkte bestimmt.
  • Zum Anzeigen eines dreidimensionalen Objekts wird das Objekt zuerst in mehrere Polygone analysiert. Die CPU erzeugt für jedes dieser Polygone einen Zeichnungsbefehl. Die so erzeugten Zeichnungsbefehle werden dann über einen Bus zu einer Bildzeichnungseinrichtung übertragen, welche die Zeichnungsbefehle ausführt, um in den Rahmenpuffer Anzeigedaten zur Anzeige des betreffenden dreidimensionalen Objekts zu schreiben.
  • Zur realistischeren Darstellung des Objekts wird eine als Texturabbildung bzw. Bemusterung oder Mip-Mapping (Viel-in-wenig-Abbildung) bekannte Technik verwendet, bei der ein voreingestelltes Bildmuster fertiggestellt und das Innere des Polygons unter Verwendung des Bildmusters modifiziert wird.
  • Es gibt auch die wohlbekannte Technik eines Variierens der Anzeigefarbe durch Umwandlung der Farbdaten eines Bildes mit einer Farbnachschlagtabelle (= color lookup table = CLUT), auf der Farbnachschlagdaten aufgezeichnet sind.
  • Bei der TV-Spielmaschine für Hausgebrauch oder einer Verarbeitungs-LSI, die einen Personalcomputer bildet, sind Versuche zum Verbessern der Leistung durch Beschleunigen der Betriebs- bzw. Operationsfrequenz oder Reduzierung des Schaltungsmaßstabs ohne Erhöhung der Kosten gemacht worden. Jedoch wird die übliche Kapazität eines billigen Mehrzweckspeichers durch die hereinkommende Operationsgeschwindigkeit nicht signifikant erhöht. Folglich erweist sich in einer TV-Spielmaschine für Haushaltsgebrauch oder in einem Personalcomputer die Speicherkapazität als ein Engpass.
  • Insbesondere zur Texturabbildung unter Verwendung eines in einer Hochqualitäts-Arbeitsstation im voraus als ein Texturmuster präparierten Hochqualitätsbildes (Vorbildaufliereitungsmuster) ist es notwendig, alle ein Segment eines Bewegtbildes bildenden Muster in einem Speicher zu halten. Je höher jedoch in diesem Fall die Auflösung des Texturmusters ist, desto signifikanter wird die verfügbare Speicherkapazität beeinträchtigt.
  • Folglich wird ein Verfahren zum Halten des Texturmusters in komprimierter Form in einem Speicher und Auslesen der Daten des komprimierten Texturmusters jedes Mal, wenn die Daten benutzt werden, und Expandieren (= De-freezing = Entfestigen bzw. Entblockieren bzw. Entfrieren) der komprimierten Daten unter Verwendung einer dedizierten Bildexpansionseinrichtung angewendet.
  • Beispielsweise ist ein typisches Texturmuster aus Bilddaten eines auf 64 vertikale Pixel mal 64 horizontale Pixel dimensionierten Bildbereichs gebildet. Da jedoch das Texturmuster nicht notwendigerweise in der Form rechteckig ist, müssen nicht gezeichnete Pixel, das heißt transparente Pixel, in die Bilddaten des rechteckigen Bildbereichs zur Darstellung des erforderlichen Texturmusters gesetzt werden.
  • Infolgedessen ist in der Zeichnungseinrichtung ein Verfahren zur Unterscheidung dieser nicht gezeichneten Pixel in den Daten der Textur des rechteckigen Bereichs erforderlich. Zu diesem Zweck ist die als eine α-Ebene bezeichnete Information des gleichen Schirmbereichs zur Darstellung von Transparenz separat vorgesehen.
  • Da jedoch die Zeichnungseinrichtung eine Verarbeitung zum Zeichnen unter Verwendung der α-Ebene ausführen muss, muss die Information auf der α-Ebene zusammen mit den Texturbilddaten im Speicher gespeichert werden, was eine erhöhte Speicherkapazität notwendig macht.
  • Um solche erhöhte Speicherkapazitäterfordernisse zu vermeiden, ist auch vorgeschlagen worden, spezielle Werte, welche die Transparent für jeden Pixelwert darstellen, voreinzustellen, beispielsweise auf (R, G, B) = (0, 0, 0) in dem Fall, dass Pixelwerte durch die drei Primärfarben Rot (R), Grün (G) und Blau (B) dargestellt werden. Die Zeichnungseinrichtung überschreibt dann den Wert des Rahmenpuffers nicht, wenn der Pixelwert der vorstehende Wert für das Anzeigebild ist, wobei das Pixel im Texturbild dann transparent ist.
  • Jedoch ist eine hocheffiziente Kompression für Bilddaten wie beispielsweise Texturbilddaten generell irreversibel, so dass transparente Abschnitte gelegentlich als undurchsichtig decodiert werden können, in welchem Fall solche undurchsichtigen Pixelabschnitte am peripheren Rand des Texturmusters als Rauschen angezeigt werden.
  • Andererseits wird in einem System, in welchem ein spezieller Wert als ein Pixelwert zur Darstellung von Transparenz verwendet wird und ein undurchsichtiges Pixel plötzlich in ein nicht gezeichnetes transparentes Pixel geändert wird, ein gezacktes Rauschen oder sogenanntes Aliasing-Rauschen gelegentlich in einem Rand eines Texturmusters erzeugt, wenn ein Texturmuster in einem reduzierten Maßstab oder einem vergrößerten Maßstab angezeigt wird. Dies ist ähnlich zu dem Phänomen, das im Fall einer nicht befriedigenden Bildsynthese, die einen blauen Hintergrund eines Chromaschlüssels im Fernsehrundfunk verwendet, auftritt.
  • Demgemäss besteht ein lange existierender Bedarf nach verbesserten Verfahren und Geräten zur Überwindung des vorstehend beschriebenen Problems, bei dem ein Hochqualitätsbild wie beispielsweise ein vorbildaufbereitetes Texturbild, das als ein Bild bereitgestellt wird, verschlechtert wird, wenn es zur Anzeige gezeichnet wird. Die vorliegende Erfindung befriedigt klar diesen Bedarf.
  • Aus JP-A-07/240845 (auf dem die Oberbegriffe der Ansprüche 1 und 2 basieren) geht ein Bildkompressor und -expander hervor, der auf die Vermeidung von in einem transparenten Bildelement auftretendem Rauschen zielt. Aus US-A-5 327 509 geht ein Bildgenerator zur Texturbildung hervor, der es erlaubt, durchsichtig gemachte bzw. wiedergegebene Pixel zu erzeugen.
  • Jeweilige Aspekte der vorliegenden Erfindung sind in den Ansprüchen 1, 12 und 19 dargelegt.
  • Beispielsweise und nicht notwendigerweise einschränkend stellt eine Eigenschaft bzw. ein Merkmal einer nachstehend beschriebenen bevorzugten Implementierung der vorliegenden Erfindung ein Bilddatenübertragungssystem zur Übertragung von Bilddaten, in denen ein Wert einer repräsentierenden Transparenz eines Pixels zugeordnet ist, wobei die Bilddaten in Form von Bilddaten, die mit einer voreingestellten vorbestimmten Größe eines Bildbereichs als eine Einheit korrespondieren, komprimiert werden, und Übertragung von Zusatzdaten, die spezifizieren, ob jedes Pixel der originalen Bilddaten der Bilddateneinheit in Korrelation mit den komprimierten Bilddaten transparent oder undurchsichtig ist, bereit.
  • Entsprechend diesem Merkmal der bevorzugten Implementierung der Erfindung wird ein durch die Zusatzdaten bei der Expansion der komprimierten Bilddaten als ein transparentes Pixel gesetztes Pixel ohne Rücksichtnahme auf die expandierten Bilddaten zwingend als ein transparentes Pixel gesetzt.
  • Mit einem solchen Bilddatenübertragungsverfahren wird, wenn ein Pixel, das transparent sein sollte, durch einen Fehler bei einer Expansion und Decodierung von Daten komprimierten Bilddaten undurchsichtig wird, ein solches Pixel zwingend in ein transparentes Pixel umgewandelt. Die so korrigierten expandierten Bilddaten werden im Speicher gespeichert und von einer Zeichnungseinrichtung zum Zeichnen verwendet. Folglich wird es unnötig, die Zusatzdaten in einem Speicher zu speichern, so dass die mit den Zusatzdaten korrespondierende Speicherkapazität eliminiert werden kann. Da außerdem der inhärent transparente Abschnitt immer als ein transparenter Abschnitt gezeichnet wird, wird das Rauschen aufgrund irreversibler Kompression im regenerierten Bild reduziert.
  • Die bevorzugte Implementierung der vorliegenden Erfindung stellt auch ein Bildverarbeitungssystem bereit, bei dem ein Transparenz repräsentierender Wert als ein Pixelwert zugeordnet wird und ausgeführte Zeichnung Transparenz enthält, wobei ein dem transparenten Pixel benachbartes undurchsichtiges Pixel als ein semitransparentes Pixel gezeichnet ist.
  • Mit einem solchen Bildverarbeitungssystem wird ein dem transparenten Pixel benachbartes Pixel zwingend in ein semitransparentes Pixel umgewandelt, wodurch Aliasing-Rauschen reduziert werden kann.
  • Folglich befriedigen Ausführungsformen der vorliegenden Erfindung einen lang existierenden Bedarf in der Technik für ein Verfahren und Gerät zur Übertragung und Verarbeitung von Bilddaten und ein Aufzeichnungsmedium dafür, welche die vorstehend beschriebenen Probleme des Bildrauschens und der Behandlung von Pixeltransparenzdaten verhindern.
  • Die Erfindung wird nun beispielhaft unter Bezugnahme auf die beigefügten Zeichnungen beschrieben, in denen gleiche Teile durchwegs mit gleichen Bezugszeichen bezeichnet sind und in denen:
  • 1 ein Blockdiagramm ist, das eine Spielmaschine darstellt, welche die Bildverarbeitungseinrichtung gemäß der vorliegenden Erfindung verkörpert;
  • 2 das äußere körperliche Aussehen der in 1 gezeigten Spielmaschine zeigt;
  • 3 ein System zur Verarbeitung komprimierter Bilddaten gemäß einer Ausführungsform der vorliegenden Erfindung darstellt;
  • 4 ein Blockdiagramm für einen Aufzeichnungsprozessor in einem Bilddatenübertragungssystem gemäß der vorliegenden Erfindung ist;
  • 5 ein originales Bild und eine Verarbeitungseinheit dafür in einer Ausführungsform der vorliegenden Erfindung darstellt;
  • 6 zur Verarbeitung des Bildes nach 5 verwendete Zusatzdaten darstellt;
  • 7 Daten beim Aufzeichnen des originalen Bildes nach 5 darstellt;
  • 8 eine Verarbeitungseinheit komprimierter Bilddaten in einer Ausführungsform der vorliegenden Erfindung darstellt;
  • 9 ein Beispiel des originalen Bildmusters einer Verarbeitungseinheit komprimierter Bilddaten in einer Ausführungsform der vorliegenden Erfindung darstellt;
  • 10 an das Bildmuster von 9 angehängte Zusatzdaten darstellt;
  • 11 eine Farbumwandlungstabelle für die Indexfarbform darstellt;
  • 12 ein Beispiel eines Datenformats während der Aufzeichnung komprimierter Bilddaten in einer Ausführungsform der vorliegenden Erfindung darstellt;
  • 13 ein Blockdiagramm zur Darstellung einer Behandlung von Daten während einer Aufzeichnung der komprimierten Bilddaten in einer Ausführungsform der vorliegenden Erfindung darstellt;
  • 14 das in Bilddaten durch irreversible Kompression erzeugte Rauschen darstellt;
  • 15 ein Bildmuster nach Entfernung des durch irreversible Kompression erzeugten Rauschens in einer Ausführungsform der vorliegenden Erfindung darstellt;
  • 16 ein Flussdiagramm zur Umwandlung in Indexfarbformdaten ist;
  • 17 ein Flussdiagramm zur Zeichnungsverarbeitung, die eine semitransparente Verarbeitung enthält, ist; und
  • 18 eine semitransparente Verarbeitung darstellt.
  • Bezugnehmend nun auf die Zeichnungen bezeichnen durch die Zeichnungsfiguren hindurch gleiche Bezugszeichen gleiche oder korrespondierende Teile.
  • Die vorliegende Erfindung wird im Kontext einer Fernsehspielmaschine beispielhaft erläutert.
  • In der 1 ist eine Ausführungsform einer Fernsehspielmaschine gezeigt, die eine dreidimensionale Grafikfunktion und eine Bewegtbild-Wiedergabefunktion gemäß der vorliegenden Erfindung aufweist.
  • In der 2 ist eine Spielmaschine 1 gezeigt, die einen Hauptkörperabschnitt der Spielmaschine und ein Steuerfeld bzw. -pad 2, das einen Benutzereingabeabschnitt bildet, aufweist. Das Steuerpad 2 ist mit dem Hauptkörperabschnitt der Spielmaschine 1 durch miteinander Verbinden eines Verbindungssteckers 4, der auf einem vordersten Teil eines Kabels 3, das wiederum mit dem Steuerpad 2 verbunden ist, befestigt ist, und einer Verbindungsbuchse 5A des Hauptkörperabschnitts der Spielmaschine 1 verbunden. Bei der vorliegenden Ausführungsform sind auf dem Hauptkörperabschnitt der Spielmaschine 1 zwei Verbindungsbuchsen 5A, 5B vorgesehen, so dass zwei Steuerpads 2 mit dem Hauptkörperabschnitt der Spielmaschine 1 verbunden werden, um ein Spiel für Gegner bereitzustellen.
  • Mit diesem Typ Spielmaschine kann sich des Spiels erfreut werden, indem eine Hilfsspeichereinrichtung wie beispielsweise eine CD-ROM-Platte 6, auf der ein Spielprogramm oder Bilddaten geschrieben sind, in den Hauptkörperabschnitt der Spielmaschine 1 geladen wird.
  • Bezugnehmend wieder auf die 1 weist die vorliegende Ausführungsform zwei Systembusse, nämlich einen Hauptbus 10 und eine Subbus 2 auf. Datenaustausch zwischen dem Hauptbus 10 und dem Subbus 20 wird durch einen Buskontroller 30 gesteuert.
  • Mit dem Hauptbus 10 sind eine Haupt-CPU 11, ein Bildexpansionsdecodierer 13, ein Vorprozessor 14, ein Zeichnungsprozessor 15 und ein Haupt-DMA-Kontroller 16 verbunden. Mit dem Zeichnungsprozessor 15, der einen Rahmenpuffer für Anzeigedaten (Rahmenspeicher) und einen D/A-Wandler aufweist, ist ein Verarbeitungsspeicher 17 verbunden. Ein analoges Videosignal aus dem Zeichnungsprozessor 15 wird an einen Videoausgangsanschluss 18 ausgegeben. Dieser Videoausgangsanschluss 18 ist mit einer Anzeigeeinrichtung wie beispielsweise einer Kathodenstrahlröhren- bzw. CRT-Anzeige in einer nicht gezeigten Weise verbunden.
  • Mit dem Subbus 10 sind eine Sub-CPU 21, ein Subspeicher 22, ein Urlade-ROM 23, ein Sub-DMA-Kontroller 24, ein Prozessor 25 für Tonverarbeitung, eine Eingabeeinheit 26, eine Hilfsspeichereinrichtung 27 und eine Kommunikationsschnittstelleneinheit 28 für Systemerweiterung verbunden. Bei der momentanen Ausführungsform weist die Hilfsspeichereinrichtung 27 einen CD-ROM-Decodierer 41 und einen CD-ROM-Treiber 42 auf. Im Urlade-ROM 23 ist ein Programm zum Starten des Betriebs bzw. der Operation als die Spielmaschine gespeichert. Mit dem Tonprozessor 25 ist ein Speicher 25M für Tonverarbeitung verbunden. Der Tonprozessor 25 enthält einen D/A-Wandler, der ein analoges Tonsignal bereitstellt, das an einem Tonausgabeanschluss 29 ausgegeben wird.
  • Die Hilfsspeichereinrichtung 27 decodiert ein Anwendungsprogramm wie beispielsweise ein Spielprogramm, und Daten, die auf der auf den CD-ROM-Treiber 42 geladenen CD-ROM-Platte 6 aufgezeichnet sind. Auf der CD-ROM-Platte 6 sind auch Bilddaten eines komprimierten Bewegtbildes oder eines Stehbildes und Bilddaten des Texturbildes, die das Polygon modifizieren, aufgezeichnet. Das Anwendungsprogramm der CD-ROM-Platte 6 enthält auch einen Polygonzeichnungsbefehl.
  • Die Eingabeeinheit 26 enthält auch ein Steuerpad 2 als die vorstehend erwähnte Benutzereingabeeinrichtung, einen Eingabeanschluss für Videosignale und einen Eingabeanschluss für Tonsignale.
  • Die Haupt-CPU 11 verwaltet und steuert verschiedene Teile der Hauptbusseite. Die Haupt-CPU führt auch einen Teil der Verarbeitung im Fall der Zeichnung eines Objekts als ein Satz einer großen Zahl Polygone aus. Die Haupt-CPU 11 formuliert auf dem Hauptspeicher 12 eine Kette von Zeichnungsbefehlen zur Erzeugung eines Zeichnungsbildes für einen einzelnen Schirm aus, was nachstehend erläutert wird. Ein Datenaustausch zwischen der Haupt-CPU 11 und dem Haupt-Bus 10 findet auf der Datenpaketbasis zur Ermöglichung einer Burstübertragung statt.
  • Der Hauptspeicher 12 enthält für Bilddaten des Bewegtbildes und Stehbildes einen Speicherbereich für komprimierte Bilddaten und einen Speicherbereich für expandierte und decodierte Bilddaten. Der Hauptspeicher 12 enthält auch einen Speicherbereich für Grafikdaten wie beispielsweise eine Zeichnungsbefehlskette (als ein Paketpuffer bezeichnet). Dieser Paketpuffer wird zum Setzen einer Zeichnungsbefehlskette durch die CPU 11 und zur Übertragung der Zeichnungsbefehlskette zum Zeichnungsprozessor verwendet. Dieser Paketpuffer wird zum Setzen der Zeichnungsbefehlskette durch die Haupt-CPU 11 und zur Übertragung der Zeichnungsbefehlskette zum Zeichnungsprozessor 15 verwendet.
  • Der Bildexpansionsdecodierer 13 expandiert komprimierte Bewegtbilddaten, die von der CD-ROM-Platte 6 wiedergegeben und zum Hauptspeicher übertragen werden, und komprimierte Texturbilddaten auf dem Hauptspeicher 12. Da bei der momentanen Ausführungsform das Bildkompressionssystem von MPEG 2 verwendet wird, weist der Bildexpansionsdecodierer 13 auch eine korrespondierende Decodiererkonfiguration auf, was nachstehend ebenfalls erläutert wird.
  • Bei einer Ausgabestufe des Bildexpansionsdecodierers 13 ist eine Momentankompressionseinheit 50, die zu einer momentanen (im Wesentlichen Realzeit-) Kompression/Expansion fähig ist und eine Kompressionsrate von beispielsweise 1/4 bis 1/2 aufweist, vorgesehen. Der Bildexpansionsdecodierer 13 kann als eine Ausgabeform seiner Ausgabebilddaten eine erste Ausgabedatenform einer Requantisierung der Werte der Pixel der Bilddaten und Ausgabe der requantisierten Pixelwerte oder eine zweite Ausgabedatenform einer Umwandlung der Pixel in Indexdaten, welche die Farben nahe bei den Pixeln aus einer voreingestellten Zahl begrenzter Wiedergabefarben spezifizieren, wählen, welche auch immer bei der vom Zeichnungsprozessor 15 ausgeführten Verarbeitung geeignet ist. Die erste Ausgabedatenform oder die zweite Ausgabedatenform werden hier als eine Direktfarbform bzw. eine Indexfarbform bezeichnet.
  • Der Zeichnungsprozessor 15 führt den vom Hauptspeicher 12 übertragenen Zeichnungsbefehl zur Speicherung der Resultate im Rahmenspeicher aus. Die vom Rahmenspeicher ausgelesenen Bilddaten werden über einen D/A-Wandler an einen Videoausgangsanschluss 18 ausgegeben, um auf dem Schirm der Bildmonitoreinrichtung angezeigt zu werden.
  • Wenn die Ausgabeform der vom Hauptspeicher 12 empfangenen Bilddaten die Direktfarbeform ist, speichert der Zeichnungsprozessor 15 die requantisierten Pixelwerte direkt im Rahmenspeicher. Wenn die Ausgabeform der vom Hauptspeicher 12 empfangenen Bilddaten die Indexfarbeform ist, führt der Zeichnungsprozessor 15 die Verarbeitung einer Umwandlung der Bilddaten in korrespondierende repräsentative Farbdaten aus. Zu diesem Zweck kann der Zeichnungsprozessor 15 eine Farbnachschlagtabelle (= color lookup table = CLUT) speichern, die eine Umwandlungstabelle zwischen den Indexdaten und den repräsentativen Farbdaten ist.
  • Der Vorprozessor 14 ist als ein Prozessor konstruiert, der die CPU aufweist und zum Teilen eines Abschnitts der von der Haupt-CPU 11 ausgeführten Verarbeitung gestaltet ist. Beispielsweise kann der Vorprozessor 14 gelegentlich eine Verarbeitung zur Umwandlung der Polygondaten in zweidimensionale Koordinatendaten zur Anzeige ausführen.
  • Bei der vorliegenden Ausführungsform ist zwischen dem Vorprozessor 14 und dem Hauptbus 10 eine Momentandefreezingeinheit 60 zum Defreezing (= Entfestigen bzw. Entblockieren bzw. Entfrieren) der durch die Momentantkompressionseinheit 50 realisierten Kompression vorgesehen.
  • Die grundlegende Verarbeitung der vorliegenden Spielmaschine wird als nächstes beschrieben.
  • Wenn die Energiequelle für die in der Ausführungsform nach 1 gezeigte Spielmaschine verbunden ist und eine CD-ROM-Platte 6 auf den Hauptkörperabschnitt der Spielmaschine 1 geladen ist, führt die Sub-CPU 21 ein Initialisierungsprogramm zur Ausgabe des Programms aus. Die Aufzeichnungsdaten der CD-ROM-Platte 6 werden dann durch die folgenden Prozessschritte bemessen bzw. belegt.
  • Das heißt, in der Hilfsspeichereinrichtung 27 werden die komprimierten Bilddaten, der Zeichnungsbefehl und das von der Haupt-CPU 11 auszuführende Programm von der CD-ROM-Platte 6 über den CD-ROM-Treiber 42 und den CD-ROM-Decodierer 41 ausgelesen, um vom Sub-DMA-Kontroller 24 zeitweilig in den Subspeicher 22 geladen zu werden.
  • Die vom Subspeicher 22 bemessenen bzw. belegten Daten werden vom DMA-Kontroller, Buskontroller 30 und dem Haupt-DMA-Kontroller 16 zum Hauptspeicher 12 übertragen. Indessen wird die Sub-CPU 21 zum direkten Zugriff auf den Rahmen des Zeichnugsprozessors 15 konfiguriert, so dass die Sub-CPU 21 auch die Inhalte des angezeigten Bildes unabhängig von der vom Zeichnungsprozessor 15 ausgeführten Steuerung modifizieren kann.
  • 3 ist eine Blockdarstellung, die den Bilddatenfluss im Blockdiagramm der 1 detaillierter darstellt. In der 3 spezifiziert ein Pfeil in gestrichelter Linie den Bilddatenfluss.
  • Bezugnehmend nun auf die 3 enthält die Bildexpansionsdecodierungseinheit 13 der vorliegenden Ausführungsform einen DMA-Kontroller 131, einen FIFO-Speicher 132, einen MPEG-Decodierer (MDEC) 133, ein Kompressionsprogramm 133, einen FIFO-Speicher 135 und eine Momentankompressionseinheit 50. Die Momentankompressionseinheit 50 ist aus einer Umwandlungstabelle 52 zum Bewirken einer momentanen Kompression und einem DMA-Kontroller 51 gebildet.
  • Die DMA-Kontroller 131, 51 treffen für den Hauptbus 10 eine Entscheidung zur DMA-Übertragung der komprimierten Bilddaten und der momentan komprimierten expandierten Bilddaten zwischen dem Hauptspeicher 12 und dem Bildexpansionsdecodierer 13 durch Ausnutzung der vakanten Zeit des Hauptbusses 10. Die FIFO-Speicher 132, 135 sind Puffer einer Minimalzahl von Schritten zur Verhinderung, dass Daten bei einer Kollision mehrerer Busanforderungen verloren gehen.
  • Der MDEC 133 expandiert die entsprechend dem MPEG2-System komprimierten Bilddaten mittels Datenexpansion.
  • Vor dem Weitergehen zur Beschreibung der Decodierung zur Expansion durch den MDEC 133 wird die Art und Weise, in der Bilddaten in einer komprimierten Form auf dem CD-ROM 6 aufgezeichnet sind, durch Bezugnahme auf das Blockschaltbild der 4 erläutert, die den Fall von Texturmusterbilddaten zeigt.
  • Bei dem vorliegenden Beispiel sind, wie vorstehend beschrieben, die Texturmusterdaten die zweidimensionalen Bilddaten eines aus 64 Pixel mal 64 Pixel gebildeten rechteckigen Bereichs. Die jeweiligen Pixeldaten sind aus jeweils 8 Bits von jeweils rot (R), grün (G) und blau (B) gebildet. Es sei darauf hingewiesen, dass ein (R, G, B) = (0, 0, 0) zugeordnetes Pixel so zugeordnet ist, dass es als von einer transparenten Farbe seiend konstruiert ist. 5 zeigt ein Beispiel eines bei einer Vorbildaufbereitung erhaltenen originalen Hochqualitätstexturmusters.
  • Die in einen Eingangsanschluss 101 in 4 eintretenden originalen Texturmusterdaten werden in einer Blockteilungseinheit 102 in 16 rechteckige Bereiche geteilt, deren jeder, wie in 5 gezeigt, aus 16 mal 16 Pixeln gebildet ist. Dieser rechteckige Bereich wird als ein Makroblock bezeichnet. Stromabwärts der Blockteilungseinheit 102 werden die Texturmusterdaten auf der Makroblockbasis verarbeitet.
  • Bei der vorliegenden Ausführungsform entfernt die Blockteilungseinheit 102 im Voraus diejenigen der 16 Makroblöcke, für welche die Pixelwerte alle von einer transparenten Farbe sind, und verdichtet bzw. packt die verbleibenden Makroblöcke, um die resultierenden Packs auszugeben. Gleichzeitig wird eine die Positionsinformation der Makroblöcke im Texturmuster spezifizierende Tabelle Ptb in der Blockteilungseinheit 102 erzeugt und einer Aufzeichnungssignalerzeugungseinheit 108 zugeführt, um als ein Teil der Anfangsblock- bzw. Headerinformation aufgezeichnet zu werden, die eine Zusatzinformation der Texturmusterdaten ist.
  • Wenn das Texturmuster so wie in 5 gezeigt ist, ist die Positionstabelle Ptb des Makroblocks wie in 6 gezeigt. Das heißt, die Positionstabelle Ptb der Makroblöcke ist eine 4 × 4 × 1-Bit-Tabelle, in der „0" und „1" mit einer Position eines aus nur transparenten Farbpixeln gebildeten Makroblocks und mit einer Position eines Makroblocks, bei dem wenigstens ein undurchsichtiges Pixel existiert, übereinstimmen. Im Fall der vorliegenden Ausführungsform sind die Texturmusterausgabebilddaten, die nach Entfernung der Makroblöcke, deren Pixelwerte alle von transparenter Farbe sind, gepackt sind, wie in 7 gezeigt aus 10 Makroblöcken gebildet.
  • Die gepackten Texturmusterdaten werden zu einer Kompressionseinheit 103 gesendet, wo jeder Makroblock von einer Darstellung von drei Farbsignalen in eine aus Luminanzsignalen und Chromasignalen gebildete umgewandelt wird. Diese Darstellung wird nachstehend als Farbraumumwandlung (color space conversion = CSC) bezeichnet. Tabelle 1 zeigt Beispiele der in diesem Fall verwendeten CSC-Koeffizienten zum Umwandeln eines Dreifarbsignals in ein Luminanz- und Steuersignal.
  • TABELLE 1
    Figure 00110001
  • Was die Luminanzsignalkomponenten betrifft, so ist jeder Makroblock in vier geteilt, so dass er aus 4 Luminanzblöcken Y0, Y1. Y2 und Y3 gebildet ist, deren jeder, wie in 8 gezeigt, aus 8 mal 8 Pixeln gebildet ist. Was einen aus Chromasignalkomponenten gebildeten Makroblock betrifft, so sind vier benachbarte Pixel zusammengruppiert, um zwei Chromasignalblöcke zu bilden, deren jeder aus 8 mal 8 Pixeln besteht. Auf diese Weise ist jeder Makroblock in sechs Blöcke geteilt.
  • Die Kompressionseinheit 103 übt eine diskrete Cosinustransformation (DCT) an diesem Makroblock aus. Die DCT ist eine Sorte einer ähnlichen Transformation, die als Orthogonaltransformation bezeichnet wird, und bezeichnet eine Transformation, die durch die Form Y + P*X*Pi
  • Definiert ist, wobei X eine Matrix aus 8 mal 8 Pixeln mit Luminanzwerten des Blocks als Komponenten ist, P eine DCT-Matrix ist und Pi ihre inverse Matrix bezeichnet. Die Koeffizienten der DCT-Matrix P sind so, wie in der Tabelle 2 gezeigt.
  • TABELLE 2
    Figure 00110002
  • Die DCT-en Blöcke werden mit einer Auflösung, die von einer Komponente zur anderen verschieden ist, quantisiert. Eine Tabelle, die eine Quantisierungsweite von einer Komponente zur anderen festlegt, wird als eine Quantisierungstabelle (Q-Tabelle) bezeichnet. Ein Beispiel der Quantisierungstabelle ist in der Quantisierungstabelle 3 gezeigt.
  • TABELLE 3
    Figure 00120001
  • Tatsächlich wird eine Quantisierung durch Dividieren des Wertes der Q-Tabelle für jede Komponente durch das Produkt eines Wertes QUANT, der den gesamten Quantisierungsschritt bestimmt, ausgeführt.
  • Wenn der gesamte Quantisierungsschritt QUANT erhöht wird, wird das so decodierte Bild in der Qualität verschlechtert. Jedoch wird die Zahl an 0-Komponenten in einem Block erhöht, wodurch die Kompressionsrate verbessert wird.
  • Der quantisierte Block wird durch eine als eine Zickzack-Ordnung bezeichnete Sequenz eindimensional nummeriert, um dann durch eine Huffman-Codierung variabellängencodiert zu werden.
  • Die komprimierten Bilddaten aus der Kompressionseinheit 103 werden zu einer Aufzeichnungssignalerzeugungseinheit 109 gesendet.
  • Die gepackten Texturmusterbilddaten aus der Blockteilungseinheit 102 werden auch zu einer Maskenmustererzeugungseinheit 104 gesendet. Für jedes gepackte Makroblockmuster wird ein α-Muster (Maskenmuster) von 16 × 16 × 1 Bits, in welchem ein einer transparenten Farbe zugeordnetes Bit gleich 1 wird, vorgesehen und über einen Maskenmusterpuffer 105 zur Aufzeichnungssignalerzeugungseinheit 109 geleitet.
  • Wenn ein Makroblock aus einem Texturmuster ein wie in 9 gezeigtes Muster aufweist, ist das Maskenmuster Msk des Makroblocks in 10 gezeigt. Auf der rechten Seite der 9 sind Pegelwerte gezeigt, wenn die Pixelwerte durch 8 Bits dargestellt sind. Der Pixelwert = 0 korrespondiert mit den Pixelwerten der drei Primärfarben (R, G, B) = (0, 0, 0), was, wie vorstehend erläutert, Transparenz bedeutet. Die Daten des Maskenmusters Msk sind 16 × 16 × 1-Bit-Daten, wobei „0" und „1" für ein transparentes Pixel bzw. ein undurchsichtiges Pixel steht.
  • Bei der vorliegenden Ausführungsform wird eine Farbnachschlagtabelle (CLUT) zur Ausführung einer Indexfarbdatenverarbeitung erzeugt, und Daten der so erzeugten CLUT werden im CD-ROM 6 aufgezeichnet. Die Makroblock basierten Bilddaten aus der Blockteilungseinheit 102 werden zu einem CLUT-Generator 106 gesendet, der dann repräsentativ die Farben wählt, die für den Makroblock durch Vektorquantisierung von einem Makroblock zum andern verwendet werden. Es wird die wie in 11 gezeigt aus den repräsentativen Farben und dem Index gebildete CLUT erzeugt.
  • Als die Technik zur Vektorquantisierung durch die CLUT-Erzeugungseinheit 106 wird eine solche Methode verwendet, bei der drei Primärfarbsignalkomponenten von rot (R), grün (G) und blau (B) in zueinander orthogonalen Richtungen genommen sind, um einen dreidimensionalen Raum anzunehmen, werden die Distanzen zwischen jeweiligen Pixel im Farbraum gefunden, werden die Pixel mit kürzeren Distanzen zusammengruppiert und werden die Pixeldaten gerundet, so dass die Farben der Pixel in einem Makroblock innerhalb von 16 repräsentativen Farben komprimiert werden. Natürlich kann zusätzlich zu dem vorstehend beschriebenen Verfahren eine Vielfalt bekannter Vektorquantisierungstechniken verwendet werden. Wenn bei der vorliegenden Erfindung die Pixel der transparenten Farbe in einem Makroblock enthalten sind, muss eine der repräsentativen Farben eine transparente Farbe sein, ohne Hinsicht auf das verwendete spezielle Vektorquantisierungsverfahren.
  • Wenn die Pixeldaten auf diese Weise auf 16 oder weniger repräsentative Farben gerundet werden können, werden die aus den 10 oder weniger repräsentativen Farben gebildete Farbnachschlagtabelle (CLUT) und der Index jeder der repräsentativen Farben formuliert. Die so formulierte CLUT wird über einen CLUT-Puffer 107 zur Aufzeichnungssignalerzeugungseinheit 108 gesendet.
  • Die Aufzeichnungssignalerzeugungseinheit 108 gruppiert die vorstehenden Resultate auf der Makroblockbasis zum Schreiben in den CD-ROM 6 über eine Schreibeinheit 109. In diesem Fall ist das Datenformat so, dass auf die Makroblock basierten komprimierten Bilddaten, wie in 12 gezeigt, das Maskenmuster Msk für den Makroblock und CLUT-Daten folgen. Diese Daten werden als ein Bitstrom bezeichnet. Eine Serie von Sätzen der Makroblock basierten Bilddaten und Maskenmusterdaten bilden 64 mal 64 Pixeltexturmusterdaten, die in einem CD-ROM 6 aufgezeichnet werden. Die Headerinformation wird an das Führungsende der jeweiligen Texturmusterdaten angehängt. In der Headerinformation werden nicht nur die Identifikationsdaten, die testieren, dass Daten Texturmusterdaten sind, sondern wird auch die Makroblockpositionstabelle Ptb, die wie vorstehend unter Bezugnahme auf die 6 beschrieben die Information über die Makroblockposition im Texturmuster spezifiziert, als Teil der Headerinformation aufgezeichnet.
  • Die Sequenz der Expansionsdecodierung der Bilddaten, die wie vorstehend beschrieben in komprimierter Form im CD-ROM 6 aufgezeichnet sind, ist das Umgekehrte der vorstehend beschriebenen Bildkompressionssequenz. Da die Kompression in diesem Fall irreversibel ist, verwendet die Bildexpansionsdecodierungseinheit 13 das Maskenmuster Msk, das nach Verschachtelung auf den komprimierten Daten der Pixelwerte zur zwingenden Umwandlung der decodierten Pixel des Bits „0" des zugeordneten Maskenmusters Msk in eine transparente Farbe zur korrekten Decodierung der transparenten Farbpixel des expandierten Makroblocks aufgezeichnet wird, wie es auch nachstehend erläutert wird.
  • Ein MDEC 133 der Bildexpansionsdecodierungseinheit 13 funktioniert in der folgenden Weise:
    • (1) Im CD-ROM 6 sind das komprimierte Bild und die Information (beispielsweise geometrische Information) im verschachtelten Zustand aufgezeichnet. Diese Elemente der Information werden vom CD-ROM-Treiber 42 und CD-ROM-Decodierer 41 kontinuierlich zum zeitweiligen Speichern im Hauptspeicher 12 ausgelesen. Dann wird nur die komprimierte Bildinformation in Stücke zerteilt und zur Bildexpansionsdecodierungseinheit 13 übertragen. An die komprimierte Bildinformation wird das Maskenmuster Msk angehängt. Indessen wird die Information wie beispielsweise die geometrische Information von der CPU 11 verarbeitet, um die Positionsinformation eines Objekts, in welchem das entfrorene Bild als eine Textur benutzt wird, zu berechnen.
    • (2) Der MDEC 133 weist einen Variabellängendecodierer auf und decodiert einen Huffman-codierten Block. Obgleich der Huffmannbaum fest ist, können die Werte der zugeordneten Codes geändert werden.
    • (3) Der MDEC 133 weist auch einen Ent- bzw. Dequantisierer auf, der den decodierten Block ent- bzw. dequantisiert, um die Blocksequenz in die vorstehend erwähnte Zickzack-Ordnung zu ändern. Die Dequantisierung wird bei den auf der Koeffizientenbasis verschiedenen Schritten ausgeführt.
    • (4) Der MDEC 133 weist auch eine CSC-Verarbeitungseinheit auf, die eine inverse orthogonale Transformation von 8 × 8 Pixeln ausführt.
    • (5) Der MDEC 133 weist auch einen CSC-Prozessor auf, der das durch die Luminanzsignale und die Chromasignale dargestellte Makroblockbild in eine Darstellung von drei Primärfarbsignalen R, G und B umwandelt.
  • Infolgedessen werden von den von der Hilfsspeichereinheit 27 zum Hauptspeicher 12 übertragenen Eingabedaten die komprimierten Bilddaten vom DMA-Kontroller 131 vom Hauptspeicher zur Bildexpansionsdecodierungseinheit 13 übertragen, in welcher der MDEC 133 eine dem MPEG 2 zugeordnete Decodierung bewirkt, um die komprimierten Bilddaten wie vorstehend beschrieben zur Decodierung der jeweiligen Pixel als aus den drei Primärfarbsignalen R, G und B gebildeten Direktfarbformbilddaten zu entfrieren.
  • Diese Bilddaten werden einem Kompressionsprogramm 134 zugeführt, das zum Packen der expandierten und decodierten Bilddaten in eine für den Zeichnungsprozessor 15 auf der Pixelbasis geeignete Form konfiguriert ist. Bei der vorliegenden Ausführungsform kann die Ausgabeform der zum Zeichnungsprozessor 15 gesendeten Bilddaten auf das Direktfarbsystem oder das Indexfarbsystem eingestellt werden. Es ist das Kompressionsprogramm 134, das eine Umwandlung der Ausgabeform ausführt. Diese Kompressionsprogramm 134 wandelt undurchsichtige Pixel unter Verwendung des Maskenmusters Msk um die im Makroblock enthaltenen Pixel zwingend in transparente Pixel um, ungeachtet einer Änderung des transparenten Pixels in ein undurchsichtiges Pixel durch die irreversible Codierung/Decodierung.
  • Das Kompressionsprogramm 134 weist die wie in 13 gezeigte Konfiguration auf. Speziell weist das Kompressionsprogramm 134 eine Pixelschattierungs- bzw. Rasterungs- bzw. Ditheringeinheit 71 zur Ausführung einer Pixelschattierung bzw. Rasterung bzw. eines Ditherings auf der Basis einer Pixelschatten- bzw. Raster- bzw. Dithermatrixtabelle 72, einen Vektorquantisierer 73 zur Gruppierung der Pixeldaten in repräsentative Farben der in einer CLUT-Speichereinheit 74 vorgesehen CLUT, um Daten der Direktfarbform in Daten der Indexfarbform umzuwandeln, immer wenn er Ausgabedaten in der Indexfarbform ausgibt, einen Packprozessor 75 und einen Maskenmusterspeichereinheit 76 zum Speichern des Maskenmusters Msk auf.
  • Der auf der CLUT basierende Makroblock, der in einem verschachtelten Zustand an die Texturmusterbilddaten angehängt ist, wird vom Hauptspeicher 12 zur CLUT-Speichereinheit 74 übertragen, um darin gespeichert zu werden. Ähnlich wird das Makroblock basierte Maskenmuster Msk, das in einem verschachtelten Zustand an die Texturmusterbilddaten angehängt ist, vom Hauptspeicher 12 zur Maskenmusterspeichereinheit 76 übertragen, um darin gespeichert zu werden. Indessen können die CLUT und das Maskenmuster Msk auch ohne durch den Hauptspeicher zu gehen direkt zu den Speichereinheiten 74 oder 76 übertragen werden.
  • Der Packungsprozessor 75 packt die decodierten Daten auf der Pixelbasis, um die gepackten Daten auszugeben. Zu diesem Zeitpunkt wird die Operation der zwingenden Umwandlung der expandierten Daten des transparenten Pixels im Vorkompressionstexturbild in Werte transparenter Farben unter Verwendung eines in der Maskenmusterspeichereinheit 76 gespeicherten Maskenmusters Msk ausgeführt.
  • Es sei nun beispielsweise angenommen, dass, wenn das originale Vorkompressionsmakroblockmuster so ist, wie in 9 gezeigt, und das Maskenmuster Msk ist, wie in 10 gezeigt, die Muster des expandierten und decodierten Makroblockmusters wie durch die irreversible Codierung/Decodierung beim MPEG2 expandiert worden sind, so dass das transparente Pixel wie in 14 gezeigt als ein undurchsichtiges Pixel expandiert worden ist.
  • In diesem Fall treten die wie in 14 gezeigten Makroblockdaten in den Packprozessor 75 ein, während das in 10 gezeigte Maskenmuster Msk in der Maskenmusterspeichereinheit 76 gespeichert ist. Deshalb wandelt der Packprozessor 75 das Pixel, das im Maskenmuster Msk der 10 gleich „0" ist, in (R, G, B) = (0, 0, 0) um, was die transparente Farbe ohne Hinsicht auf die Pixelwerte der expandierten Eingabebilddaten spezifiziert. Auf diese Weise gibt der Packprozessor 75 expandierte Bilddaten aus, in denen die Pixel mit einer inhärenten transparenten Farbe alle korrekt auf die transparente Farbe gesetzt sind.
  • Wenn die expandierten Bilddaten aus dem Kompressionsprogramm 134 in der Direktfarbform ausgegeben werden und die Zahl Bits des Eingabepixels gleich der des Ausgabepixels ist, werden die Ditheringeinheit 71 und der Vektorquantisierer 73 umgangen, und die decodierten Daten werden ausgegeben, nachdem sie vom Packungsprozessor 75 auf der Pixelbasis gepackt sind.
  • Wenn die expandierten Bilddaten in der Direktfarbform ausgegeben werden, wenn jedoch die Zahl n von Bits der Ausgabepixel kleiner als die der Eingabepixel ist, führt die Ditheringeinheit 71 eine geeignete Rundung aus. Bei der vorliegenden Ausführungsform werden vom MDEC 133 decodierte fixierte vorzeichnbehaftete 16-Bit-Dezimalkommadaten erhalten. Bei der vorliegenden Ausführungsform wird eine der drei folgenden Rundungsverarbeitungsoperationen verwendet.
    • a) Die Eingabepixel werden abgeschnitten bzw. geclippt, um in N Bits enthalten zu sein, wonach niedrigere n Bits eines ganzzahligen Teils der Eingabepixelwerte ausgegeben werden;
    • b) Die oberen (N + 1) Bits des Eingabepixels werden durch Halbeinstellung abgestrichen bzw. abgeschnitten, und die oberen N Bits werden ausgegeben; oder
    • c) Das Eingabepixel wird mit einem angeforderten bzw. geordneten Pixelschatten- bzw. Raster- bzw. Dither einer fixierter Dithermatrixtabelle 72 multipliziert, die oberen (N + 1) Bits werden durch Halbeinstellung abgestrichen bzw. abgeschnitten, und die oberen N Bits werden ausgegeben.
  • Dann wird beim Ausgeben im Indexfarbsystem die inverse Vektorquantisierung, welche die in der wie in 11 gezeigten CLUT-Speichereinheit 74 gespeicherten repräsentativen Farben verwendet, vom Vektorquantisierer 73 ausgeführt, um Indexdaten der repräsentativen Farbe anstelle jedes Pixelwertes auszugeben.
  • Als eine Technik zur Vektorquantisierung werden die Werte der expandiert decodierten Pixel (Farbdaten von beispielsweise 8 Bits für jede der Farbkomponenten der drei Primärfarben R, G und B) mit den als CLUT gegebenen 16 repräsentativen Farben (beispielsweise aus 4 Bits für jede der drei primären Farben R, G und B gebildet) verglichen, und der Index der Farbdaten der CLUT 74 mit engerer Farbaffinität wird anstelle des Pixelwertes ausgegeben.
  • 16 ist ein Flussdiagramm, das die Verarbeitungsoperation durch den Vektorquantisierer 73 zeigt.
  • Zuerst wird beim Schritt ST 201 das erste Pixel von Daten des expandierten und decodierten Makroblocks ausgegeben. Beim nächsten Schritt 202 werden die Pixelwerte (R, G und B) des Pixels Px,y gelesen. Der nächste Schritt ist die Initialisierung zur Vektorquantisierung. Zu dieser Initialisierng wird ein Zeiger k (= die Indexzahl in 11) einer Referenzspalte der CLUT auf einen Anfangswert gesetzt, während der minimale Wert Dmin der Distanz D zwischen den repräsentativen Farbdaten der CLUT und den Pixelwerten der Pixel Px,y, welche die Distanz zwischen R, G und B auf dem Farbraum oder der Farbähnlichkeitsgrad ist, auf einen voreingestellten Wert gesetzt wird.
  • Dann geht die Verarbeitung zum Schritt 204 über, um sich auf die durch den Zeiger k spezifizierten repräsentativen Farbdaten der CLUT zu beziehen. Dann wird beim Schritt 205 die Distanz D zwischen dem Pixel Px,y und den repräsentativen Referenzfarbdaten gefunden.
  • In diesem Fall kann die Distanz zwischen zwei Farben (R1, G1, B1) und (R2, G2, B2) durch die folgende Gleichung berechnet werden: D = (R1 – R2)*(R1 – R2) + (G1 – G2)*(G1 – G2) + (B1 – B2)*(B1 – B2), (Q1)in der * Multiplikation bezeichnet.
  • Beim nächsten Schritt 206 wird die gefundene Distanz D mit der minimalen Distanz Dmin verglichen. Wenn die gefundene Distanz D kleiner als die bisher gefundene minimale Distanz Dmin ist, wird beim Schritt 207 die minimale Distanz Dmin durch die gefundene Distanz D ersetzt, während ein Zeigerwert k einer Spalte der repräsentativen Farbe für den zu findenden Indexwert kmin eingesetzt wird. Sollte umgekehrt die Distanz D größer als die bisher gefundene minimale Distanz Dmin sein, geht die Verarbeitung zum Schritt 208 über, bei dem die herrschenden Werte der minimalen Distanz Dmin und des zu findenden Indexwerts kmin beibehalten werden.
  • Nach den Schritten 207 und 208 geht die Verarbeitung zum Schritt 209 über, um zu bestimmen, ob auf alle der repräsentativen Farben der CLUT Bezug genommen worden ist oder nicht. Wenn bis jetzt nicht auf irgendeine repräsentative Farbe Bezug genommen ist, geht die Verarbeitung zum Schritt 210 über, um den Wert des Zeigers k zu erhöhen bzw. inkrementieren. Die Verarbeitung kehrt dann zum Schritt 204 zurück, um die Operation vom Schritt 204 bis zum Schritt 209 zu wiederholen.
  • Wenn beim Schritt 209 bestimmt wird, dass die Referenz auf alle repräsentativen Farben der CLUT zu einem Abschluss gekommen ist, geht die Verarbeitung zum Schritt 211 über, wo der Indexwert kmin als Daten für das Pixel ausgegeben wird. Dann geht die Verarbeitung zum Schritt 212 über, wo geprüft wird, ob die Umwandlung der die obige CLUT für alle Pixel verwendenden Indexdaten im Makroblock zu einem Abschluss gekommen ist oder nicht. Wenn es irgendein nächstes Pixel gibt, für das die obige Umwandlung nicht zu einem Abschluss gekommen ist, geht die Verarbeitung zum Schritt 213 über, um das nächste Pixel auszulesen. Die Verarbeitung kehrt zum Schritt 202 zurück, um die obige Verarbeitung für das Pixel auszuführen. Wenn entschieden wird, dass die Verarbeitung für alle Pixel im Makroblock zu einem Abschluss gekommen ist, wird die Verarbeitung des nächsten Makroblocks gestartet.
  • Auf diese Weise wandelt die Expansionsdecodierungseinheit 13 den 14-Bit-Pixelwert nach Expansion und Decodierung in 4-Bit-Indexdaten im Indexsystem um und gibt die resultierenden komprimierten Daten aus. Natürlich sind Daten des Maskenmusters Msk oder die CLUT-Daten nicht in den expandierten Ausgabebilddaten enthalten.
  • Die auf diese Weise vom Kompressionsprogramm 134 gepackten Pixeldaten werden über den FIFO-Speicher 135 zur Momentankompressionseinheit 50 gesendet, wo die Pixeldaten momentan komprimiert werden. In Unterscheidung von der Hocheffizienzkompression von MPEG2 weist die momentane Kompression eine Kompressionseffizienz von 1/4 bis 1/2 auf. Jedoch wird eine solche momentane Kompression verwendet, bei der eine reversible Kompression/Decodierung mit einer Kompressions/Decodierungs-Schaltung, die trotz des niedrigen Kompressionsverhältnisses von 1/4 bis 1/2 einen kleineren Hardwaremaßstab aufweist, realisiert werden kann.
  • Bei der vorliegenden Ausführungsform werden zur Kompression Lauflängencodierung und Huffman-Codierung gleichzeitig verwendet. In der Momentankompressionseinheit 50 ist eine Umwandlungstabelle 52 als ein Codebuch, das als Wörterbuch für Kompression fungiert, vorgesehen. Die Umwandlungstabelle 52 als das Codebuch wird vorher erzeugt und beibehalten.
  • Die Momentankompressionseinheit 50 weist, wie gezeigt, funktionell den DMA-Kontroller 51 auf und überträgt die MPEG-expandierten decodierten Bilddaten zum Hauptspeicher 12, wie sie gleichzeitig Lauflängencodierung und Huffman-Codierung unter Verwendung der Umwandlungstabelle 52 bewirkt. Das vorstehende ist die Operation der Bildexpansionsdecodierungseinheit 13. In diesem Fall ist es, da die komprimierten Daten die Bilddaten sind, denen ein spezifizierter Wert als eine transparente Farbe gegeben ist, nicht notwendig, die α-Ebene, welche die Transparenz darstellt, im Hauptspeicher 12 zu speichern, so dass die Speicherkapazität entsprechend reduziert werden kann. Da außerdem die komprimierten Daten im Hauptspeicher 12 von der Momentankompressionseinheit 50 gespeichert werden, kann das Datenvolumen reduziert werden.
  • Wenn indessen eine Bewegungskompensation ausgeführt wird, wird die momentane reversible Kompression von der Momentankompressionseinheit 50 nicht ausgeführt. In diesem Fall liest die Bildexpansionsdecodierungseinheit 13 beim Lesen im Bitstrom gleichzeitig in den Bilddaten des auf dem Hauptspeicher zur Verarbeitung entwickelten vorherigen Rahmens.
  • Durch sequenzielles Zeichnen von Polygonen, die Flächen eines Objekts, beginnend von einem bei einer entfernten Position liegenden Polygon entlang der Tiefenichtung entsprechend Z-Daten, die dreidimensionale Tiefeninformation darstellen, bilden, kann ein Bild auf einer zweidimensionalen Bildanzeigefläche stereoskopisch angezeigt werden.
  • Die Haupt-CPU 11 berechnet ein Objekt oder die Bewegung eines Betrachtungspunktes auf der Basis einer Benutzereingabe vom Steuerpad der Eingabeeinheit 26 und formuliert eine Polygonzeichnungsbefehlskette auf dem Hauptspeicher 12.
  • Diese Bildzeichnungsbefehlskette wird, wenn vollendet, von einem Zeichnungsbefehl zum anderen durch den DMA-Kontroller 16 von der Vorverarbeitungseinheit 14 vom Hauptspeicher 12 zur Bildzeichnungsverarbeitungseinheit 15 gesendet.
  • Die Bildzeichnungsverarbeitungseinheit 15 führt die ihr zugesandten Daten zur Speicherung der Resultate in einem Bildzeichnungsbereich des Rahmenspeichers sequenziell aus. Zum Zeichnen des Polygons werden die Daten zu einer Gradientenberechnungseinheit der Bildzeichnungseinheit 15 zur Berechnung des Gradienten gesendet. Die Gradientenberechnungen sind Berechnungen zum Finden des Gradienten der Ebene der Abbildungsdaten im Lauf von vergrabenden Abbildungsdaten im Innnern des Polygons durch Polygonzeichnen. Beim Zeichnen einer Textur wird das Polygon mit den Texturbilddaten gefüllt, während im Fall einer Glimmschattierung das Polygon mit Luminanzwerten gefüllt wird.
  • Es ist auch eine Verarbeitung der Textur eines Bewegtbildes möglich. Das heißt, im Fall der Textur des Bewegtbildes werden komprimierte Bewegtbilddaten aus dem CD-ROM 6 im Hauptspeicher 12 transient gespeichert. Die komprimierten Bilddaten werden zur Bildexpansionsdecodierungseinheit 13 gesendet. Die Bildexpansionsdecodierungseinheit 13 expandiert die Bilddaten.
  • Die expandierten Bewegtbilddaten werden zu einem Texturbereich auf dem Rahmenspeicher des Zeichnungsprozessors 15 gesendet. Da der Texturbereich im Rahmenpuffer des Zeichnungsprozessors vorgesehen ist, kann das Texturmuster selbst auf der Rahmenbasis neu geschrieben werden. Wenn infolgedessen ein Bewegtbild zu einem Texturbereich gesendet wird, wird die Textur von Rahmen zu Rahmen dynamisch neu geschrieben. Durch das Bewegtbild des Texturbereichs kann die Textur des Bewegtbildes durch Texturabbildung auf das Polygon realisiert werden.
  • Zu einem Zeitpunkt, bei dem eine voreingestellte Menge der expandierten Makroblock basierten Bilddaten im Hauptspeicher 12 gespeichert wird, bewirkt die Haupt-CPU 11, dass die expandierten Daten über den Hauptbus 12 zum Rahmenpuffer des Zeichnungsprozessors 15 über die Momentandefreezingeinheit 60 und den Vorprozessor 14 gesendet werden. Wenn die expandierten Bilddaten zum Bildspeicherbereich des Rahmenpuffers gesendet werden, werden sie direkt als das Hintergrundbewegtbild auf der Bildmonitoreinrichtung angezeigt. Wenn die Bilddaten zu einem Texturbereich des Rahmenspeichers gesendet werden, werden die Bilddaten des Texturbereichs als ein Texturbild zur Abbildung auf ein Polygon verwendet.
  • Die Momentandefreezingeinheit 60 ist aus einem DMA-Kontroller 61 als ein funktioneller Block und einer Umwandlungstabelle 62 zur Ausführung einer inversen Umwandlung der von der Umwandlungstabelle 52 der Momentankompressionseinheit 50 ausgeführten Umwandlung gebildet. Insbesondere entfriert die Momentandefreezingeinheit 60 die momentan komprimierten Bilddaten aus dem Hauptspeicher 12 unter Verwendung der Umwandlungstabelle 62, um MPEG-Expansionsdecodierte Bilddaten zu bilden, die über den Vorprozessor 14 dem Zeichnungsprozessor 15 zugeführt werden.
  • Wenn bei der vorliegenden Ausführungsform die ausgegebene Form die Direktfarbform ist, werden Bilddaten von Pixeln der Daten, deren Daten aus drei Primärfarbsignalen R, G und B einer bezeichneten voreingestellten Zahl Bits gebildet sind, vom Vorprozessor 14 zum Zeichnungsprozessor 15 zur Ausführung der Verarbeitung zum Zeichnen gesendet.
  • Im Fall der Indexfarbform werden die vorstehend erwähnten Indexdaten dem Zeichnungsprozessor 15 zugeführt. Die CLUT, welche die gleiche wie die in der CLUT-Speichereinheit 74 gespeicherte ist, wird zum Zeichnungsprozessor 15 übertragen und darin gespeichert. Der Zeichnungsprozessor 15 wandelt unter Verwendung der CLUT die Bilddaten der Indexfarbform in korrespondierende repräsentative Farbdaten zur Wiederherstellung der Bilddaten um. Der Zeichnungsprozessor 15 führt dann die Zeichnungsverarbeitung unter Verwendung der wiederhergestellten Bilddaten aus.
  • Bei der Ausführung der Texturabbildung unter Verwendung des oben beschriebenen Texturmusters führt der Zeichnungsprozessor 15 auch die Zeichnungsverarbeitung so aus, dass die einem transparenten Pixel benachbarten undurchsichtigen Pixel in einer semitransparenten Farbe gezeichnet werden.
  • 17 zeigt in einem Flussdiagramm ein Beispiel einer vom Zeichnungsprozessor 15 ausgeführten semitransparenten Verarbeitung.
  • Insbesondere wird beim Schritt 301 das erste Pixel der Makroblockdaten ausgegeben. Beim nächsten Schritt 302 werden die Pixelwerte der Pixel Px,y gelesen. Im Fall der Indexdaten ist dieser Pixelwert die von der CLUT erhaltenen repräsentativen Farbdaten. Dann wird beim Schritt 303 geprüft, ob das Pixel transparent ist oder nicht. Die Entscheidung darüber, ob das Pixel transparent ist oder nicht, wird in Abhängigkeit davon getroffen, ob der Pixelwert von einer voreingestellten transparenten Farbe (R, G, B) = (0, 0, 0) ist.
  • Wenn das Pixel Px,y transparent ist, geht der Prozessor 15 zum Schritt 307 vor, wo das Pixel Px,y als ein transparentes Pixel gezeichnet wird. Das heißt, die Pixeldaten bei der Position des Pixels Px,y im Rahmenpuffer werden nicht neu geschrieben, sondern als eine Hintergrundfarbe gehalten.
  • Wenn beim Schritt 303 gefunden wird, dass das Pixel Px,y undurchsichtig ist, geht die Verarbeitung zum Schritt 304 über, um zu Prüfen, ob das Pixel Px,y das Endpixel in der horizontalen Richtung eines Makroblocks ist oder nicht. Wenn das Pixel das Endpixel ist, geht die Verarbeitung zum Schritt 309 über, um das Pixel als eine semitransparentes Pixel zu zeichnen. Das heißt, die Pixeldaten bei der Position Px,y des Rahmenpuffers ist eine 1 : 1-Mischung der Hintergrundfarbe und der Farbe des Pixels Px,y.
  • Wenn beim Schritt 304 gefunden wird, dass das Pixel Px,y nicht ein Endpixel in der horizontalen Richtung eines Makroblocks ist, geht die Verarbeitung zum Schritt 305 über, um zu entscheiden, ob das in der horizontalen Richtung dem Pixel Px,y nach vorne benachbarte Pixel Px – 1,y transparent ist oder nicht. Wenn das Pixel Px-1,y transparent ist, geht die Verarbeitung zum Schritt 309 über, um das Pixel Px,y als ein semitransparentes Pixel zu zeichnen. Danach geht die Verarbeitung zu den Schritten 310 und 311 über.
  • Wenn beim Schritt 305 gefunden wird, dass das Pixel Px – 1,y nicht transparent ist, geht die Verarbeitung zum Schritt 306 über. Beim Schritt 306 wird geprüft, ob das in der horizontalen Richtung dem Pixel Px,y nach hinten benachbarte Pixel Px + 1, y transparent ist oder nicht. Wenn das Pixel Px + 1, y transparent ist, geht die Verarbeitung zum Schritt 309 über, um das Pixel Px,y als ein semitransparentes Pixel zu zeichnen. Danach geht die Verarbeitung zu den Schritten 310 und 311 über.
  • Wenn beim Schritt 306 gefunden wird, dass das Pixel Px – 1,y nicht transparent ist, sind die dem Pixel Px,y horizontal benachbarten zwei Pixel beide undurchsichtig, so dass die Verarbeitung zum Schritt 308 übergeht, um das Pixel Px,y als undurchsichtiges Pixel zu zeichnen. Das heißt, der Wert des korrespondierenden Pixels wird auf den Wert des Pixels Px,y umgeschrieben. Danach geht die Verarbeitung zu den Schritten 310 und 311 über.
  • Beim Schritt 310 wird bestimmt, ob die im Makroblock enthaltenen Pixel alle verarbeitet worden sind oder nicht. Wenn noch nicht alle Pixel verarbeitet sind, geht die Verarbeitung zum Schritt 311 über. Beim Schritt 311 wird das nächste im Makroblock enthaltene Pixel entnommen, wonach zum Schritt 302 zurückgekehrt wird und die vorstehend beschriebene gleiche Operation wiederholt wird. Wenn andererseits alle Pixel verarbeitet worden sind, ist diese Operation vollständig.
  • Wenn das Mischungsverhältnis des Pixels Px,y gleich a ist, spezifizieren α = 0,0, α = 0,5 und α = 1,0 transparente, semitransparente bzw. undurchsichtige Zeichnung. 18 zeigt ein Beispiel des Resultats einer Anwendung der vorstehend erwähnten semitransparenten Verarbeitung an einem in 9 gezeigten Makroblockmuster. Es ist zu sehen, dass das Aliasing-Rauschen bei der Texturabbildung reduziert werden kann.
  • Bei der vorstehend beschriebenen semitransparenten Verarbeitung wird ein undurchsichtiges Pixel semitransparent gezeichnet, wenn nur horizontal benachbarte Pixel transparent sind. Jedoch kann nur auf verikal benachbarte Pixel Bezug genommen worden sein, um zu bestimmen, ob das undurchsichtige Pixel semitransparent sein sollte oder nicht. Alternativ dazu kann das undurchsichtige Pixel undurchsichtig gezeichnet werden, wenn vom horizontal benachbarten Pixel oder vertikal benachbarten Pixel eines transparent ist. Noch alternativ dazu kann die semitransparente Verarbeitung auch ausgeführt werden, indem Bezug auf undurchsichtige benachbarte Pixel genommen wird.
  • Anstelle der Ausführung einer semitransparenten Verarbeitung einfach in Abhängigkeit davon, ob die benachbarten Pixel transparent sind, ist es auch möglich, ein erstes undurchsichtiges Pixel beim Übergang von horizontal oder vertikal benachbarten Pixeln zu undurchsichtigen Pixeln als ein semitransparentes Pixel zu zeichnen oder ein erstes undurchsichtiges Pixel beim Übergang von benachbarten undurchsichtigen Pixeln zu transparenten Pixeln als ein semitransparentes Pixel zu zeichnen.
  • Bei der vorstehend beschriebenen Ausführungsform, bei der Pixeldaten, deren transparenten Farbpixeln ein spezifizierter Pixelwert gegeben ist, durch im Voraus durch ein irreversibles Kompressionssystem auf eine hohe Effizienz komprimiert werden, und bei der ein Maskenmuster Msk, das ein Bit pro Pixel aufweist, als Daten zu den komprimierten Bilddaten angewendet wird, um das transparente Farbpixel und das undurchsichtige Pixel derart zu erkennen, dass bei Expansion der komprimierten Bilddaten ein inhärentes transparentes Pixel unter Verwendung des Maskenmusters Msk zwingend in transparente Pixeldaten geändert wird, kann ein transparentes Pixel immer korrekt als ein transparentes Pixel gezeichnet werden.
  • Da außerdem die α-Ebene nicht notwendig ist, kann die Kapazität des Hauptspeichers 12 entsprechend reduziert werden.
  • Außerdem kann durch Zeichnen eines dem transparenten Pixel benachbarten undurchsichtigen Pixels als ein semitransparentes Pixel das Aliasing-Rauschen von Konturabschnitten des gezeichneten Bildes reduziert werden.
  • Bei der vorliegenden Ausführungsform werden die expandierten Bilddaten momentan komprimiert und über den Hauptbus 10 zum Hauptspeicher übertragen. Infolgedessen kann die Benutzungseffizienz des Speichers in einem zur Datenkompression korrespondierenden Betrag verbessert werden. Wenn außerdem die Indexfarbform als Ausgabeform der expandierten Bilddaten verwendet wird, wird das Datenvolumen reduziert, da die Pixeldaten aus Indexdaten gebildet sind, so dass das Datenvolumen reduziert werden kann und die Benutzungseffizienz des Speichers in einem mit der Datenkompression korrespondierenden Betrag verbessert werden kann.
  • Die von der Bildexpansionsdecodierungseinheit 13 über den Hauptbus 10 zum Hauptspeicher 12 gesendeten expandierten Bilddaten und die vom Hauptspeicher 12 über den Hauptbus 10 zum Zeichnungsprozessor 15 gesendeten expandierten Bilddaten sind momentan komprimierte Daten und das Datenvolumen ist reduziert, wodurch die Busübertragungsgeschwindigkeit verbessert ist.
  • Auch kann bei der vorliegenden Ausführungsform die Direktfarbform oder die Indexfarbform als die Ausgabeform aus der Bildexpansionsdecodierungseinheit 13 gewählt werden, selbst wenn es nur eine Form der eingegebenen komprimierten Bilddaten gibt, so dass es keine Notwendigkeit dafür gibt, separate Eingabebilddaten zur Erzielung separater Ausgabeformen bereitzustellen, wodurch die Benutzungseffizienz des Hauptspeichers weiter verbessert wird.
  • Außerdem können bei der Direktfarbform Pixeldaten durch Dithering auf die Zahl Bits, die zur Verarbeitung durch den Zeichnungsprozessor geeignet sind, gerundet werden, selbst im Fall der Direktfarbform können Ausgabedaten einer gewünschten Zahl Bits leicht erhalten werden.
  • Obgleich die vorstehende Beschreibung mit Bezug auf die Anwendung der Bildverarbeitungseinrichtung der vorliegenden Erfindung auf eine Spielmaschine gegeben worden ist, sei darauf hingewiesen, dass die Bildverarbeitungseinrichtung der vorliegenden Erfindung für eine Vielfalt von Anwendungen verwendet werden kann.
  • Von jetzt an können gemäß der vorliegenden Erfindung transparente Pixel immer korrekt als transparente Pixel gezeichnet werden. Da außerdem die Zusatzdaten wie beispielsweise die α-Ebene nicht zur transparenten Zeichnung verwendet werden, besteht keine Notwendigkeit, solche Zusatzdaten in einem Speicher zu speichern.
  • Außerdem kann jedes der den transparenten Pixeln benachbarte undurchsichtige Pixel als ein semitransparentes Pixel gezeichnet werden, um Aliasing-Rauschen zu reduzieren.
  • Die vorstehend erwähnte CD-ROM-Platte wird durch Aufzeichnung des Bitstroms auf eine Masterplatte gefertigt. Von der Masterplatte wird eine Matrize gemacht. Danach wird von der Matrize eine große Zahl Platten zum Verkauf gemacht.
  • Folglich befriedigt die vorliegende Erfindung einen in der Technik lange existierenden Bedarf nach einem Verfahren und Gerät zur Übertragung und Verarbeitung von Bilddaten und einem Aufzeichnungsmedium dafür, welche die vorstehend beschriebenen Probleme des Bildrauschens und der Behandlung von Pixeltransparenzdaten beseitigt.
  • Dem Vorstehenden ist zu entnehmen, dass, während besondere Formen der Erfindung dargestellt und beschrieben worden sind, verschiedene Modifikationen ohne Verlassen des Schutzbereichs der Erfindung gemacht werden können. Demgemäss ist nicht beabsichtigt, dass die Erfindung außer durch die beigefügten Ansprüche eingeschränkt wird.

Claims (21)

  1. Verfahren zur Verarbeitung von Bilddaten, die mehrere Pixel mit Pixelwerten repräsentieren, wobei das Verfahren die Schritte aufweist: Teilen (102) der Bilddaten in eine Anzahl Bildbereiche, wobei jeder Bereich von einer vorbestimmten Größe ist und eine Anzahl Pixel enthält, Codieren (103) der Bilddaten für jeden Bildbereich, Erzeugen (104) zusätzlicher Daten, die spezifizieren, ob jeder Pixelwert der Bilddaten transparent oder undurchsichtig ist, und Übertragen (108) der codierten Bilddaten zusammen mit zusätzlichen Daten, dadurch gekennzeichnet, dass eine Farbnachschlagtabelle für jeden Bildbereich erzeugt wird (106), wobei die Farbnachschlagtabelle eine Anzahl repräsentativer Farben aufweist, und der Übertragungsschritt Information der Farbnachschlagtabelle überträgt.
  2. Verfahren nach Anspruch 1, wobei der Übertragungsschritt nur die zusätzlichen Daten überträgt, wenn alle Pixelwerte des Bildbereiches Transparenz repräsentieren.
  3. Verfahren nach Anspruch 1, wobei der Übertragungsschritt Erzeugen eines Bitstroms durch Verschachteln der zusätzlichen Daten und der Farbnachschlagdaten in den codierten Bilddaten und Übertragen des resultierenden Bitstroms enthält.
  4. Verfahren nach Anspruch 1, wobei das Verfahren die Schritte aufweist: Decodieren (133) der codierten Bilddaten für jeden Bildbereich, Korrigieren (134) eines Pixelwertes jedes Pixels der decodierten Bilddaten entsprechend den zusätzlichen Daten für jeden Bildbereich, und Zeichnen (15) der decodierten originalen Bilddaten.
  5. Verfahren nach Anspruch 4, wobei der Korrekturschritt den Pixelwert des Pixels immer wenn die mit den Pixel korrespondierenden zusätzlichen Daten spezifizieren, dass das Pixel ein transparentes Pixel ist, als ein transparentes Pixel zwingend korrigiert.
  6. Verfahren nach Anspruch 4, wobei die zusätzlichen Daten für jeden Bildwert erzeugt werden, und der Korrekturschritt einen Pixelwert für alle im Bildbereich enthaltenen Pixeldaten als ein transparentes Pixel erzeugt, wenn nur zusätzliche Daten empfangen werden, die spezifizieren, dass ein Pixelwert in den Pixeldaten transparent ist.
  7. Verfahren nach Anspruch 1 oder 4, wobei die Bilddaten Texturdaten sind.
  8. Verfahren nach Anspruch 4, mit dem zusätzlichen Schritt: Umwandeln der decodierten Bilddaten für jeden Bildbereich in einen repräsentativen Wert unter Verwendung der Farbnachschlagtabelle, wobei der Zeichnungsschritt die decodierten Bilddaten entsprechend dem repräsentativen Wert für jeden Bildbereich zeichnet.
  9. Verfahren nach Anspruch 8, wobei: die Farbnachschlagtabelle eine Anzahl repräsentativer Werte und Indizes enthält, wobei jeder repräsentative Wert mit jedem Index korrespondiert, der Umwandlungsschritt Bildwerte der decodierten Bilddaten für jeden Bildbereich in einen repräsentativen Wert unter Verwendung der Farbnachschlagtabelle umwandelt und den Index, der den repräsentativen Wert repräsentiert, erzeugt, und der Zeichnungsschritt die decodierten Bilddaten entsprechend dem mit dem Index korrespondierenden repräsentativen Wert für jeden Bildbereich unter Verwendung der Farbnachschlagtabelle zeichnet.
  10. Verfahren nach Anspruch 4, wobei der Zeichnungsschritt Detektieren, ob ein einem betrachteten Pixel benachbartes Pixel transparent oder undurchsichtig ist, aufweist und das als ein semitransparentes Pixel betrachtete Pixel entsprechend dem detektierten Resultat zeichnet.
  11. Verfahren nach Anspruch 10, wobei der Zeichnungsschritt ein einem transparenten Pixel benachbartes undurchsichtiges Pixel als ein semitransparentes Pixel zeichnet.
  12. Datenverarbeitungsgerät zur Wiederherstellung originaler Bilddaten aus empfangenen Bilddaten, wobei die empfangenen Bilddaten codierte Bilddaten, welche die originalen Bilddaten für jeden Bildbereich codieren, und zusätzliche Bilddaten enthalten, wobei jeder Bildbereich durch Teilen (102) der originalen Bilddaten bereitgestellt ist, wobei jeder Bildbereich eine Anzahl Pixel enthält, deren jedes einen Pixelwert aufweist, wobei die zusätzlichen Bilddaten spezifizieren, ob jeder Pixelwert der Bilddaten transparent oder undurchsichtig ist, wobei das Gerät aufweist: eine Einrichtung (133) zum Decodieren der codierten Bilddaten für jeden Bildbereich, eine Einrichtung (134) zum Korrigieren eines Pixelwertes jedes Pixels der decodierten Bilddaten entsprechend den zusätzlichen Bilddaten für jeden Bildbereich, und eine Einrichtung (15) zum Zeichnen der decodierten Bilddaten, gekennzeichnet durch: eine Einrichtung (74) zum Empfangen von Daten von einer Farbnachschlagtabelle, wobei die Farbnachschlagtabelle mehrere repräsentative Farben aufweist, wobei die Farbnachschlagtabelle für jeden Bildbereich erzeugt ist, und eine Einrichtung zum Umwandeln der decodierten Bilddaten für jeden Bildbereich in einen repräsentativen Wert unter Verwendung der Farbnachschlagtabelle, wobei die Zeichnungseinrichtung zum Zeichnen der decodierten Bilddaten entsprechend dem repräsentativen Wert für jeden Bildbereich operativ ist.
  13. Gerät nach Anspruch 12, wobei die Korrektureinrichtung (134) den Pixelwert des Pixels immer wenn die mit dem Pixel korrespondierenden zusätzlichen Bilddaten spezifizieren, dass das Pixel ein transparentes Pixel ist, als ein transparentes Pixel zwingend korrigiert.
  14. Gerät nach Anspruch 12, wobei die zusätzlichen Daten für jeden Bildbereich erzeugt werden und die Korrektureinrichtung (134) einen Pixelwert für alle in dem Bildbereich enthaltenen Pixeldaten als ein transparentes Pixel erzeugt, wenn nur zusätzliche Daten empfangen werden, die spezifizieren, dass ein Pixelwert im Pixelbereich transparent ist.
  15. Gerät nach Anspruch 12, wobei die Pixeldaten Texturdaten sind.
  16. Gerät nach Anspruch 12, wobei: die Farbnachschlagtabelle mehrere repräsentative Werte und Indizes enthält, wobei jeder repräsentative Wert mit jedem Index korrespondiert, die Umwandlungseinrichtung Bildwerte der decodierten Bilddaten für jeden Bildbereich in einen repräsentativen Wert unter Verwendung der Farbnachschlagtabelle umwandelt und den Index, der den repräsentativen Wert repräsentiert, erzeugt, und die Zeichnungseinrichtung die decodierten Bilddaten entsprechend dem mit dem Index korrespondierenden repräsentativen Wert für jeden Bildbereich unter Verwendung der Farbnachschlagtabelle zeichnet.
  17. Gerät nach Anspruch 12, wobei die Zeichnungseinrichtung eine Einrichtung zum Detektieren, ob ein einem betrachteten Pixel benachbartes Pixel transparent oder undurchsichtig ist, enthält und das betrachtete Pixel als ein semitransparentes Pixel entsprechend dem detektierten Resultat zeichnet.
  18. Gerät nach Anspruch 17, wobei die Zeichnungseinrichtung ein einem transparenten Pixel benachbartes undurchsichtiges Pixel als ein semitransparentes Pixel zeichnet.
  19. Aufzeichnungsmedium, das ein Programm zur Ausführung der Schritte speichert: Teilen (102) von Pixeldaten in mehrere Bildbereiche, wobei jeder Bereich von einer vorbestimmten Größe ist und mehrere Pixel enthält, Codieren (103) der Bilddaten für jeden Bildbereich, Erzeugen (104) zusätzlicher Daten, die spezifizieren, ob jeder Pixelwert der Pixeldaten transparent oder undurchsichtig ist, Übertragen (108) der codierten Bilddaten zusammen mit zusätzlichen Daten, und Erzeugen (106) einer Farbnachschlagtabelle für jeden Bildbereich, wobei die Farbnachschlagtabelle mehrere repräsentative Farben aufweist, wobei der Übertragungsschritt Information der Farbnachschlagtabelle überträgt.
  20. Aufzeichnungsmedium nach Anspruch 19, wobei die Pixeldaten Texturdaten sind.
  21. Aufzeichnungsmedium nach Anspruch 19, wobei der Übertragungsschritt nur die zusätzlichen Daten überträgt, wenn alle Pixelwerte des Bildbereiches Transparenz repräsentieren.
DE1997627109 1996-09-20 1997-09-19 Verfahren und Gerät zur Bilddatenübertragung, Bildverarbeitung und Aufzeichnungsmedien dafür Expired - Lifetime DE69727109T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP27190996 1996-09-20
JP27190996A JP3886184B2 (ja) 1996-09-20 1996-09-20 画像データの処理方法および画像処理装置

Publications (2)

Publication Number Publication Date
DE69727109D1 DE69727109D1 (de) 2004-02-12
DE69727109T2 true DE69727109T2 (de) 2004-11-18

Family

ID=17506580

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1997627109 Expired - Lifetime DE69727109T2 (de) 1996-09-20 1997-09-19 Verfahren und Gerät zur Bilddatenübertragung, Bildverarbeitung und Aufzeichnungsmedien dafür

Country Status (9)

Country Link
US (1) US6071193A (de)
EP (2) EP1283500A3 (de)
JP (1) JP3886184B2 (de)
KR (1) KR100609614B1 (de)
CN (1) CN1149851C (de)
AU (1) AU719650B2 (de)
CA (1) CA2215634A1 (de)
DE (1) DE69727109T2 (de)
ES (1) ES2210461T3 (de)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030008715A1 (en) * 1995-06-01 2003-01-09 Anton Huber Program-controlled, money-operated entertainment and gaming apparatus
JP3524247B2 (ja) * 1995-10-09 2004-05-10 任天堂株式会社 ゲーム機およびそれを用いたゲーム機システム
JP3886184B2 (ja) * 1996-09-20 2007-02-28 株式会社ソニー・コンピュータエンタテインメント 画像データの処理方法および画像処理装置
US6639945B2 (en) * 1997-03-14 2003-10-28 Microsoft Corporation Method and apparatus for implementing motion detection in video compression
US6775417B2 (en) 1997-10-02 2004-08-10 S3 Graphics Co., Ltd. Fixed-rate block-based image compression with inferred pixel values
US6610917B2 (en) 1998-05-15 2003-08-26 Lester F. Ludwig Activity indication, external source, and processing loop provisions for driven vibrating-element environments
JP3898347B2 (ja) * 1998-06-30 2007-03-28 富士通株式会社 動画データ制御装置、動画データ制御方法、及び動画データ制御プログラムを記録したコンピュータ読みとり可能な記録媒体
US6298169B1 (en) * 1998-10-27 2001-10-02 Microsoft Corporation Residual vector quantization for texture pattern compression and decompression
JP2001148833A (ja) 1999-09-12 2001-05-29 Sony Computer Entertainment Inc 圧縮画像データを復号処理する方法及び電子装置、並びに補助記録装置
US6401143B1 (en) * 1999-12-02 2002-06-04 Xerox Corporation Loopback direct memory access control system for a digital scanner
US6463481B1 (en) * 1999-12-02 2002-10-08 Xerox Corporation Direct memory access control system for a digital scanner
US7505046B1 (en) 2000-05-02 2009-03-17 Adobe Systems Incorporated Preserving opaque-like rendering in transparent 2D graphics using knockout groups
US7151546B1 (en) 1999-12-22 2006-12-19 Adobe Systems Incorporated Restricting scope of blending modes in 2-D compositing using isolated groups
US7102651B1 (en) * 1999-12-22 2006-09-05 Adobe Systems Incorporated Hierarchical 2-D color compositing with blending mode and opacity controls at all levels
JP4530314B2 (ja) * 2000-09-20 2010-08-25 株式会社バンダイナムコゲームス ゲームシステム、情報記憶媒体及び圧縮データの生成方法
US6842177B2 (en) * 2001-12-14 2005-01-11 University Of Washington Macroblock padding
US7050067B2 (en) * 2003-01-13 2006-05-23 Microsoft Corporation Hardware accelerated anti-aliased primitives using alpha gradients
WO2006028093A1 (ja) * 2004-09-06 2006-03-16 Matsushita Electric Industrial Co., Ltd. 画像生成装置および画像生成方法
GB0504570D0 (en) * 2005-03-04 2005-04-13 Falanx Microsystems As Method of and apparatus for encoding data
JP4968686B2 (ja) * 2008-01-25 2012-07-04 サミー株式会社 画像圧縮装置、画像再生装置、および画像圧縮プログラム
JP5024831B2 (ja) * 2008-01-28 2012-09-12 サミー株式会社 画像作成装置及びプログラム
US8345014B2 (en) 2008-07-12 2013-01-01 Lester F. Ludwig Control of the operating system on a computing device via finger angle using a high dimensional touchpad (HDTP) touch user interface
CN101754034B (zh) * 2008-12-05 2012-08-22 凌阳多媒体股份有限公司 透明属性的离散余弦转换压缩图数据的解压缩系统及方法
JP5642457B2 (ja) * 2010-08-31 2014-12-17 オリンパス株式会社 表示制御装置および表示制御方法
US8797288B2 (en) * 2011-03-07 2014-08-05 Lester F. Ludwig Human user interfaces utilizing interruption of the execution of a first recognized gesture with the execution of a recognized second gesture
JP5540200B2 (ja) * 2011-09-28 2014-07-02 株式会社アクセル 画像圧縮方法及び画像処理方法
CN103974062B (zh) * 2013-06-24 2018-10-26 福州瑞芯微电子股份有限公司 图像显示装置、图像显示系统和图像显示方法
WO2015007348A1 (en) 2013-07-19 2015-01-22 Huawei Technologies Co., Ltd. Method and apparatus for encoding and decoding a texture block using depth based block partitioning
JP6249734B2 (ja) * 2013-11-20 2017-12-20 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
CN104715441A (zh) * 2015-03-13 2015-06-17 小米科技有限责任公司 图片处理方法及装置
US11145107B2 (en) 2019-11-04 2021-10-12 Facebook Technologies, Llc Artificial reality system using superframes to communicate surface data
US11430141B2 (en) 2019-11-04 2022-08-30 Facebook Technologies, Llc Artificial reality system using a multisurface display protocol to communicate surface data
CN112019278B (zh) * 2020-08-18 2022-05-27 南京信息工程大学 三维mamsk-cap光子接入方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5327509A (en) * 1992-04-27 1994-07-05 Star Technologies, Inc. Compressed image system for texture patterns
JPH0728986A (ja) * 1993-07-09 1995-01-31 Fuji Xerox Co Ltd 画像合成処理装置
JPH07240845A (ja) * 1994-02-28 1995-09-12 Fuji Film Micro Device Kk 画像のデータ圧縮および伸張
US5568167A (en) * 1994-09-23 1996-10-22 C-Cube Microsystems, Inc. System for providing antialiased video overlays
JP3334384B2 (ja) * 1994-12-20 2002-10-15 松下電器産業株式会社 画像予測符号化方法
US5892518A (en) * 1995-07-28 1999-04-06 Matsushita Electric Industrial Co., Ltd. Image generating apparatus with pixel calculation circuit including texture mapping and motion compensation
JP3764765B2 (ja) * 1995-09-06 2006-04-12 インターナショナル・ビジネス・マシーンズ・コーポレーション ディジタル画像の処理方法及びシステム
JP3886184B2 (ja) * 1996-09-20 2007-02-28 株式会社ソニー・コンピュータエンタテインメント 画像データの処理方法および画像処理装置

Also Published As

Publication number Publication date
ES2210461T3 (es) 2004-07-01
EP1283500A3 (de) 2004-11-03
CN1149851C (zh) 2004-05-12
AU719650B2 (en) 2000-05-11
KR19980024801A (ko) 1998-07-06
KR100609614B1 (ko) 2006-12-07
EP1283500A2 (de) 2003-02-12
EP0831424A3 (de) 1998-12-02
US6071193A (en) 2000-06-06
EP0831424B1 (de) 2004-01-07
AU3749997A (en) 1998-03-26
DE69727109D1 (de) 2004-02-12
CN1189654A (zh) 1998-08-05
EP0831424A2 (de) 1998-03-25
JPH1098719A (ja) 1998-04-14
CA2215634A1 (en) 1998-03-20
JP3886184B2 (ja) 2007-02-28

Similar Documents

Publication Publication Date Title
DE69727109T2 (de) Verfahren und Gerät zur Bilddatenübertragung, Bildverarbeitung und Aufzeichnungsmedien dafür
DE69831961T2 (de) Bildobjekterzeugungsverfahren für objektbasierte kodierungssysteme unter verwendung von masken und gerundeten mittelwerten
DE69333508T2 (de) Vorrichtung und Verfahren zur Verarbeitung von Videosignalen
DE69636599T2 (de) Verfahren und system zur wiedergabe von grafischen objekten durch teilung in bildstücke und zusammensetzen von bildlagen zu einem wiedergabebild
DE602004009591T2 (de) Differenz-codierung durch verwendung eines 3d-graphikprozessors
DE69432385T2 (de) Bilderzeugung
DE69534751T2 (de) Bilddatenerzeugungsverfahren, Bilddatenverarbeitungsvorrichtung und Aufzeichnungsmedium
DE69723550T2 (de) Kodierung und dekodierung von grafischen symbolen
DE69723613T2 (de) Aufnahme und/oder Wiedergabe von dreidimensionalen Bilddaten
DE69737852T2 (de) Durch verbessertes speicher- und auslesesystem verschiedene arten von durch bildspeicherspezifischen hardwarespezifikationen verursachte verzögerungsfaktoren überwindender bilddekoder und bildspeicher
EP0309669B1 (de) Verfahren zur szenenmodellgestützten Bilddatenreduktion für digitale Fernsehsignale
DE60300788T2 (de) Bild mit Feldtiefe aus Z-Pufferbilddaten und Alphamischung
JP2797959B2 (ja) 多次元画像圧縮伸張方法
DE69917799T2 (de) Texturierungssysteme zur verwendung in drei-dimensionalen abbildungssystemen
DE60301303T2 (de) Videoverarbeitung
DE69935654T2 (de) Kodierungsverfahren mit geringer bandbreite zur videoübertragung
DE69533911T2 (de) Verfahren und Gerät zum Erzeugen von Bildern
DE112022003547T5 (de) Verschobene Mikronetz-Kompression
DE4408522C2 (de) Vorrichtung zur Bilddatenverarbeitung und Verfahren zur Verarbeitung von Bilddaten
CN112118449B (zh) 一种图像压缩与解压缩的方法及装置
DE69816469T2 (de) Verfahren und vorrichtung zur schnellen wiedergabe eines bildes in abhängigkeit von dreidimensionalen graphikdaten in einer umgebung mit begrenzter datengeschwindigkeit
JPH10190478A (ja) データ圧縮装置および方法、記録媒体、並びに、データ伸張装置および方法
DE69909880T2 (de) Dekodierung eines komprimierten digitalen Bildsignals
DE69818558T2 (de) Verfahren und Vorrichtung zur geometrischen Komprimierung von dreimensionalen Grafiken
DE102020000306A1 (de) Generieren einer Sequenz von Texturen zur Videoversendung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition