DE69825851T2 - Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren - Google Patents

Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren Download PDF

Info

Publication number
DE69825851T2
DE69825851T2 DE69825851T DE69825851T DE69825851T2 DE 69825851 T2 DE69825851 T2 DE 69825851T2 DE 69825851 T DE69825851 T DE 69825851T DE 69825851 T DE69825851 T DE 69825851T DE 69825851 T2 DE69825851 T2 DE 69825851T2
Authority
DE
Germany
Prior art keywords
image
data
pixel data
coordinate
coordinate data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69825851T
Other languages
English (en)
Other versions
DE69825851D1 (de
Inventor
Yoshinori Asaka-shi Ohta
Koichi Asaka-shi Sakamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Application granted granted Critical
Publication of DE69825851D1 publication Critical patent/DE69825851D1/de
Publication of DE69825851T2 publication Critical patent/DE69825851T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour

Description

  • Die vorliegende Erfindung betrifft eine Bildverarbeitungsvorrichtung und ein Bildverarbeitungsverfahren, und insbesondere eine Vorrichtung und ein Verfahren zum Extrahieren (Ausschneiden) eines erwünschten Bildteils aus einem ursprünglichen Bild, das auf einem Bildschirm einer Anzeigevorrichtung angezeigt wird, und eine Vorrichtung und ein Verfahren zum weiteren Extrahieren eines Teils des Teilbildes, zum Bewegen des Teils des Bildes und zum Arrangieren (Editieren) oder Speichern einer Vielzahl von Teilbildern auf ein Korrelieren von ihnen miteinander hin. Weiterhin betrifft die vorliegende Erfindung ein Bildsynthesesystem mit einem Klientencomputer und einem Bildsynthesizer, die Daten zueinander kommunizieren können, und ein Bildsyntheseverfahren in dem Bildsynthesesystem, nämlich dem Klientencomputer und dem Bildsynthesizer, die das Bildsynthesesystem bilden, und ein Bildtrennverfahren.
  • Das Format von Bilddaten enthält GIF (Graphisches Austauschformat), EPSF (eingekapseltes bzw. zusammengefasstes Postscriptformat), usw.
  • Eine Farbe wird im GIF unter Verwendung einer Farbpalette (z. B. 256 Farben) ausgedrückt. Ein erwünschter Teil eines Bildes (ein Teilbild) kann im ursprünglichen Bild des GIF-Formats spezifiziert werden. Die Kontur des Teilbildes kann bestimmt werden, wie es erwünscht ist. Ein Bereich (Hintergrund) der ein anderer als das spezifizierte Teilbild im ursprünglichen Bild ist, wird durch eine Gruppe von Bilddaten einer transparenten Farbe dargestellt. Das GIF-Format hat einen derartigen Nachteil, dass das spezifizierte Teilbild und das Hintergrundbild immer als integrierte Bilddaten behandelt werden. Weiterhin kann ein Bild, das unter Verwendung von Farben ausgedrückt wird, die Farben in der Natur (z. B. 16.000.000 Farben) nahe kommen (das natürliches Bild oder Bild einer Landschaft bzw. Szene genannt wird), nicht durch das GIF-Format dargestellt werden.
  • Das EPSF ist für Graphik geeignet und Graphik wird durch einen Vektor ausgedrückt. Da ein Bild einer Landschaft kaum durch einen Vektor ausgedrückt werden kann, kann das Bild einer Landschaft auch nicht im EPSF-Format behandelt werden.
  • Andererseits werden dann, wenn ein Subjektbild bzw. Gegenstandsbild (ein Anwenderbild), das durch eine Standbild-Videokamera, eine Bewegtbild-Videokamera oder ähnliches aufgenommen wird, in einen Computer geholt wird und ein Farbbild unter Verwendung eines Farbdruckers gedruckt wird, Bilddaten, die das Anwenderbild darstellen, in Abhängigkeit von den Druckcharakteristiken des Farbdruckers einer Farbkorrektur unterzogen.
  • Mit der Entwicklung von Computern ist es für einen Anwender selbst möglich geworden, das Anwenderbild in eine Position, in welche ein Anwenderbild zu legen ist, in ein Schablonenbild hineinzulegen, das den Hintergrund des Anwenderbildes darstellt. Ein zusammengesetztes Bild, das durch Hineinlegen des Anwenderbildes in das Schablonenbild erhalten wird, kann auch unter Verwendung eines Farbdruckers gedruckt werden, den der Anwender hat.
  • Selbst in einem solchen Fall sind die Charakteristiken des Farbdruckers dem Anwender bekannt, und der Anwender selbst speichert in den Computer Bilddaten, die das Anwenderbild darstellen, und Bilddaten, die das Schablonenbild darstellen. Daher ist es möglich, die Anwenderbilddaten und die Schablonenbilddaten getrennt herauszunehmen und die Anwenderbilddaten und die Schablonenbilddaten in Abhängigkeit von den Charakteristiken des Farbdruckers vor der Synthese des Anwenderbildes und des Schablonenbildes getrennt einer Farbkorrektur zu unterziehen.
  • Die Anwenderbilddaten, die der Farbkorrektur unterzogen worden sind, und die Schablonenbilddaten, die der Farbumwandlung unterzogen worden sind, werden synthetisiert, um die zusammengesetzten Bilddaten zu erzeugen, so dass das zusammengesetzte Bild, das durch das Drucken erhalten wird, als Gesamtes richtige bzw. geeignete Farben zeigt.
  • Es soll ein Bildsynthesesystem mit einem Klientencomputer und einem Bildsynthesizer, der an einer Stelle ist, die vom Klientencomputer entfernt beabstandet ist, betrachtet werden. In einem solchen System werden dann, wenn ein Schablonenbild und ein Anwenderbild im Klientencomputer synthetisiert werden, wie es oben beschrieben ist, Bilddaten, die ein zusammengesetztes Bild darstellen, vom Klientencomputer zum Bildsynthesizer übertragen, und das zusammengesetzte Bild wird unter Verwendung eines Farbdruckers gedruckt, der an den Bildsynthesizer angeschlossen ist, und dabei ist es schwierig, das Schablonenbild und das Anwenderbild von dem zusammengesetzten Bild im Bildsynthesizer zu trennen. Da es schwierig ist, das Schablonenbild und das Anwenderbild aus dem zusammengesetzten Bild zu trennen, ist es schwierig, die am besten geeignete Farbumwandlung (einschließlich einer Farbkorrektur), die mit dem Schablonenbild konform ist, und die am besten geeignete Farbumwandlung (einschließlich einer Farbkorrektur), die mit dem Anwenderbild konform ist, im Bildsynthesizer einzeln durchzuführen.
  • Wenn die Gesamtheit des zusammengesetzten Bildes einer Farbumwandlung unterzogen wird, kann die Farbumwandlung selbst dann, wenn die Farbumwandlung für das Schablonenbild am besten geeignet ist, in einigen Fällen nicht vorteilhaft bzw. ungünstig für das Anwenderbild sein, oder umgekehrt.
  • EP 0756426 beschreibt einen Gesichtsbereichs-Extraktionsprozess, der die Stelle eines Gesichts in einem Bild erfasst und das extrahierte Gesicht bearbeitet, um unter anderem die Hautfarbe zu bestimmen.
  • Es ist eine Aufgabe der vorliegenden Erfindung, es möglich zu machen, dann, wenn ein erwünschtes Teilbild mit einer erwünschten Form aus einem Bild extrahiert (ausgeschnitten) wird, nur das extrahierte Teilbild, d. h. unabhängig von einem Hintergrundbild (dem übrigen Bildteil) zu behandeln.
  • Es ist eine weitere Aufgabe der vorliegenden Erfindung, es möglich zu machen, ein Teilbild aus nicht nur einem natürlichen Bild (einem Bild einer Landschaft) zu bestimmen und zu extrahieren (auszuschneiden), sondern auch ein Bild, das unter Verwendung einer Farbpalette dargestellt ist.
  • Es ist eine weitere Aufgabe der vorliegenden Erfindung, es möglich zu machen, einen Teil des extrahierten Teilbildes weiter zu extrahieren, um eine Vielzahl von Teilbildern zu erhalten, und die positionsmäßige Beziehung zwischen der Vielzahl von den Teilbildern zu definieren, die durch die Extraktion erhalten werden.
  • Es ist eine weitere Aufgabe der vorliegenden Erfindung, es möglich zu machen, selbst nachdem ein Schablonenbild in ein Anwenderbild hineingelegt worden ist, um ein zusammengesetztes Bild zu erzeugen, eine Farbumwandlung, die für das Schablonenbild und das Anwenderbild geeignet ist, individuell bzw. einzeln durchzuführen.
  • Gemäß einem ersten Aspekt der vorliegenden Erfindung ist eine Bildverarbeitungsvorrichtung zur Verfügung gestellt, die folgendes aufweist:
    eine Bildbereichs-Bestimmungsvorrichtung zum Ermöglichen, dass ein Anwender einen Bildbereich bestimmt, der aus einem auf einem Anzeigeschirm angezeigten ursprünglichen Bild zu extrahieren ist;
    eine Farbänderungseinrichtung zum Ändern der Farbe von demjenigen Bereich des ursprünglichen Bildes, der nicht zur Extraktion bestimmt worden ist, in eine bestimmte Farbe, wobei für die bestimmte Farbe eine Farbe ausgewählt wird, die im Wesentlichen nicht im bestimmten Bildbereich vorhanden ist; und
    eine Speichersteuereinrichtung zum Abtasten des Bildes und zum Speichern von Pixeldaten von denjenigen Pixeln, deren Farbe nicht die bestimmte Farbe ist, wobei die gespeicherten Pixeldaten Koordinatendaten, die Positionen der Pixel in dem angezeigten ursprünglichen Bild darstellen, und Farbdaten enthalten.
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung ist ein Bildverarbeitungsverfahren zur Verfügung gestellt, das die folgenden Schritte aufweist:
    Bestimmen eines Bildbereichs, der aus einem auf einem Anzeigeschirm angezeigten ursprünglichen Bild zu extrahieren ist;
    Ändern der Farbe von demjenigen Bereich des ursprünglichen Bildes, der nicht zur Extraktion bestimmt worden ist, in eine bestimmte Farbe, wobei als die be stimmte Farbe eine Farbe ausgewählt wird, welche im Wesentlichen nicht im bestimmten Bildbereich vorhanden ist; und
    Speichern von Pixeldaten von denjenigen Pixeln, deren Farbe nicht die bestimmte Farbe ist, wobei die gespeicherten Pixeldaten Koordinatendaten, die Positionen der Pixel im angezeigten ursprünglichen Bild darstellen, und Farbdaten enthalten.
  • Gemäß einem dritten Aspekt der vorliegenden Erfindung ist ein Speichermedium zur Verfügung gestellt, das darauf ein Programm zum Steuern eines Computers speichert, so dass das Programm veranlasst, dass der Computer:
    einen bestimmten Bildbereich annimmt, der aus einem auf einem Anzeigeschirm angezeigten ursprünglichen Bild zu extrahieren ist,
    Bilddaten, die ein Bild von demjenigen Bereich des ursprünglichen Bildes darstellen, der nicht zur Extraktion bestimmt worden ist, durch Bilddaten ersetzt, die eine spezifizierte Farbe an den Bilddaten des ursprünglichen Bildes darstellen, wobei für die spezifizierte Farbe eine Farbe ausgewählt wird, die im Wesentlichen nicht im bestimmten Bildbereich vorhanden ist,
    Pixeldaten aus den Bilddaten für diejenigen Pixel erzeugt, deren Farbe nicht die spezifizierte Farbe ist, und
    die erzeugten Pixeldaten auf einem Speichermedium speichert, wobei die gespeicherten Pixeldaten Koordinatendaten, die Positionen der Pixel im angezeigten ursprünglichen Bild darstellen, und Farbdaten enthalten.
  • Gemäß der Erfindung können deshalb, weil die Bilddaten in dem Bereich (Hintergrundbereich), der ein anderer als der Bereich ist, der dafür spezifiziert worden ist, extrahiert (ausgeschnitten) zu werden, durch Bilddaten ersetzt werden, die die bestimmte Farbe darstellen, die Bilddaten des spezifizierten (bestimmten) Bereichs auf einfache Weise lediglich durch Extrahieren von anderen Bilddaten als den Bilddaten erhalten werden, die die bestimmte Farbe darstellen.
  • Die Pixeldaten (Pixel-Bilddaten) und die Koordinatendaten werden basierend auf den extrahierten Bilddaten erzeugt und werden in Korrelation zueinander gespeichert. Die extrahierten Bilddaten haben Koordinatendaten, die die Position der Pixel in dem Bild für jedes Pixel darstellen, so dass die extrahierten Bilddaten allein, d. h. ohne begleitende Bilddaten, die den Hintergrund darstellen, behandelt oder gehandhabt werden können. Auf die Bilddaten, die den Hintergrund darstellen, kann verzichtet werden, oder sie können unnötig sein. Die Koordinatendaten dienen zum Spezifizieren der relativen Positionen der Pixel im Bild. Die Koordinatendaten können unter Verwendung von irgendeiner Stelle auf dem extrahierten Bild (einschließlich eines Bereichs, der das extrahierte Bild enthält, z. B. eines Rechtecks, das das extrahierte Bild umgibt) als Ursprung der Koordinaten definiert werden.
  • Gemäß der Erfindung ist es möglich, ein Teilbild aus nicht nur einem Bild zu bestimmen und zu extrahieren, das unter Verwendung einer Farbpalette dargestellt wird, sondern auch aus einem natürlichen Bild.
  • Bei dem bevorzugten Ausführungsbeispiel bilden die Pixeldaten und die Koordinatendaten zu speichernde Paare.
  • Bei einem weiteren Ausführungsbeispiel wird eine Gruppe der Pixeldaten komprimiert und wird eine Gruppe der Koordinatendaten komprimiert. Die komprimierten Pixeldaten und die komprimierten Koordinatendaten werden miteinander korreliert, um gespeichert zu werden. Die Pixeldaten und die Koordinatendaten werden einzeln einer Datenkompression unterzogen, die jeweils konform mit den Charakteristiken oder der Natur der Pixeldaten und der Koordinatendaten ist, so dass eine effiziente Datenkompression erreicht werden kann.
  • Die Erfindung stellt weiterhin ein Aufzeichnungs- oder Speichermedium mit den obigen Bilddaten (Pixeldaten und Koordinatendaten) darauf gespeichert zur Verfügung.
  • Ein bevorzugtes Bilddaten-Speichermedium der Erfindung ist ein Speichermedium, das darauf Paare von Pixeldaten und Koordinatendaten speichert, die Pixel darstellen, die ein Bild zusammensetzen, und zwar in der Reihenfolge, die durch die Koordinatendaten dargestellt ist.
  • Ein weiteres bevorzugtes Bilddaten-Speichermedium der Erfindung ist das Speichermedium, das darauf komprimierte Pixeldaten und komprimierte Koordinatendaten speichert, die durch jeweiliges Komprimieren einer solchen Gruppe von Pixeldaten und einer solchen Gruppe von Koordinatendaten erhalten werden, dass die Pixeldaten und die Koordinatendaten, die Pixel darstellen, die ein Bild zusammensetzen, für Pixeldaten und für Koordinatendaten in der Reihenfolge angeordnet werden, die durch die Koordinatendaten dargestellt ist.
  • Eine Vorrichtung zum Reproduzieren bzw. Wiedergeben eines Bildes, das durch die Bilddaten dargestellt wird, die gemäß der Erfindung gespeichert worden sind, weist vorzugsweise eine Datenleseeinrichtung auf, um aus einem Speichermedium, das Bilddaten speichert, die eine Gruppe von Paaren von Pixeldaten, die Pixel darstellen, und Koordinatendaten, die die Positionen der Pixel auf dem Bild darstellen, die Pixeldaten und die Koordinatendaten zu lesen, und eine Anzeigesteuerung zum Steuern einer Anzeigevorrichtung so, dass das Bild durch Anzeigen der Pixel, die durch die durch die Datenleseeinrichtung gelesenen Pixeldaten dargestellt werden, bei den Positionen angezeigt wird, die durch die Koordinatendaten dargestellt werden.
  • Ein bevorzugtes Verfahren zum Wiedergeben eines Bildes weist die folgenden Schritte auf: Lesen von einem Speichermedium, das Bilddaten speichert, die eine Gruppe von Paaren von Pixeldaten, die Pixel darstellen, und Koordinatendaten, die die Positionen der Pixel auf dem Bild darstellen, aufweisen, der Pixeldaten und der Koordinatendaten, und Steuern einer Anzeigevorrichtung so, dass das Bild durch Anzeigen der Pixel, die durch die gelesenen Pixeldaten bei den Positionen dargestellt sind, die durch die entsprechenden gelesenen Koordinaten dargestellt sind, angezeigt wird.
  • Eine bevorzugte Vorrichtung zum Wiedergeben eines Bildes, das durch die komprimierten Bilddaten dargestellt wird, die gemäß der vorliegenden Erfindung vorbereitet und gespeichert worden sind, weist folgendes auf: eine Datenleseeinrichtung zum Lesen von einem Speichermedium, das darauf komprimierte Pixeldaten und komprimierte Koordinatendaten speichert, die durch Komprimieren einer Gruppe von Pixeldaten und durch Komprimieren einer Gruppe von Koordinatendaten in Bilddaten erhalten werden, die eine Datenstruktur haben, so dass Pixel, die ein Bild bilden, durch Pixeldaten und Koordinatendaten dargestellt werden, der komprimierten Pixeldaten und der komprimierten Koordinatendaten, eine Pixeldaten-Expansionseinrichtung zum Expandieren der durch die Datenleseeinrichtung gelesenen komprimierten Pixeldaten, eine Koordinatendaten-Expansionseinrichtung zum Expandieren der durch die Datenleseeinrichtung gelesenen komprimierten Koordinatendaten und eine Anzeigesteuereinrichtung zum Steuern einer Anzeigevorrichtung, so dass das Bild durch Anzeigen der Pixel, die durch die durch die Pixeldaten-Expansionseinrichtung expandierten Pixeldaten dargestellt werden, bei den Positionen, die durch die durch die Koordinatendaten-Expansionseinrichtung expandierten Koordinatendaten dargestellt werden, angezeigt wird.
  • Ein bevorzugtes Verfahren zum Wiedergeben der komprimierten Bilddaten weist die folgenden Schritte auf: Lesen von einem Speichermedium, das darauf komprimierte Pixeldaten und komprimierte Koordinatendaten speichert, die durch Komprimieren einer Gruppe von Pixeldaten und durch Komprimieren einer Gruppe von Koordinatendaten in Bilddaten erhalten werden, die eine Datenstruktur haben, so dass Pixel, die ein Bild bilden, durch Pixeldaten und Koordinatendaten dargestellt werden, der komprimierten Pixeldaten und der komprimierten Koordinatendaten, Expandieren der gelesenen komprimierten Pixeldaten, Expandieren der gelesenen komprimierten Koordinatendaten und Steuern einer Anzeigevorrichtung so, dass das Bild durch Anzeigen der Pixel, die durch die expandierten Pixeldaten dargestellt werden, bei den Positionen, die durch die expandierten Koordinatendaten dargestellt werden, angezeigt wird.
  • Bei einem bevorzugten Ausführungsbeispiel weist die Bildverarbeitungsvorrichtung weiterhin folgendes auf: eine Bestimmungsvorrichtung zum Bestimmen auf einem Bild, das auf einem Anzeigeschirm angezeigt wird, basierend auf Bilddaten, die Pixeldaten aufweisen, die Pixel darstellen, und Koordinatendaten, die die Positionen der Pixel darstellen, eines zu bewegenden Teilbildes, eine Bewegungswert-Eingabevorrichtung zum Eingeben der Richtung einer Bewegung und des Ausmaßes einer Bewegung des Teilbildes, eine Bewegungsausmaß-Additionseinrichtung zum Addieren der Koordinatenvariation entsprechend dem Ausmaß an Bewegung in der Richtung einer Bewegung, die durch die Bewegungswert-Eingabevorrichtung eingegeben sind, zu den Koordinatendaten der Pixel, die das durch die Bestimmungsvorrichtung bestimmte Teilbild bilden, und eine Speichereinrichtung zum Speichern der durch die Bewegungsausmaß-Additionseinrichtung erhaltenen neuen Koordinatendaten und der diesen entsprechenden Pixeldaten in Korrelation zueinander, sowie der Koordinatendaten und der Pixeldaten, die das Bild darstellen, das ein anderes als das Teilbild ist.
  • Bei einem bevorzugten Ausführungsbeispiel weist das Bildverarbeitungsverfahren der Erfindung weiterhin die folgenden Schritte auf: Bestimmen auf einem auf einem Anzeigeschirm angezeigten Bild, basierend auf Bilddaten, die Pixeldaten aufweisen, die Pixel darstellen, und Koordinatendaten, die die Positionen der Pixel darstellen, eines zu bewegenden Teilbildes, Eingeben der Richtung einer Bewegung und des Ausmaßes einer Bewegung des Teilbildes, Addieren der Koordinatenvariation entsprechend dem eingegebenen Ausmaß an Bewegung in der eingegebenen Richtung einer Bewegung zu den Koordinatendaten der Pixel, die das bestimmte Teilbild bilden, und Speichern der durch das Addieren erhaltenen neuen Koordinatendaten und der diesen entsprechenden Pixeldaten in Korrelation zueinander, sowie der Koordinatendaten und der Pixeldaten, die das Bild darstellen, das ein anderes als das Teilbild ist.
  • Die bevorzugten Ausführungsbeispiele stellen weiterhin ein Speichermedium zur Verfügung, das darauf ein Programm zum Steuern eines Computers speichert, wobei das Programm veranlasst, dass der Computer einen Bereich eines Teilbildes annimmt, das aus einem auf einem Anzeigeschirm angezeigten Bild bestimmt ist, basierend auf Bilddaten, die Pixeldaten aufweisen, die Pixel darstellen, und Koordinatendaten, die die Positionen der Pixel darstellen, die Richtung einer Bewegung und das Ausmaß einer Bewegung des Teilbildes annimmt, neue Koordinatendaten durch Addieren der Koordinatenvariation entsprechend dem angenommenen Ausmaß an Bewegung in der angenommenen Richtung einer Bewegung zu den Koordinatendaten der Pixel, die das Teilbild des angenommenen Bereichs bilden, berechnet und die durch die Berechnung erhaltenen neuen Koordinatendaten und die diesen entsprechenden Pixeldaten in Korrelation zueinander speichert, sowie die Koordinaten und die Pixeldaten, die das Bild darstellen, das ein anderes als das Teilbild ist.
  • Bei diesen bevorzugten Ausführungsbeispielen verschwindet das Teilbild vor einer Bewegung und erscheint das Teilbild nach einer Bewegung bei den Positionen, die durch die neuen Koordinaten definiert sind, auf dem Bildschirm der Anzeigevorrichtung. Der Anwender kann die Position des bewegten Teilbildes erkennen.
  • Gemäß diesen bevorzugten Ausführungsbeispielen sind selbst in einem Fall, in welchem ein Teil eines Bildes extrahiert (ausgeschnitten) wird und das extrahierte Teilbild bewegt wird, die Pixeldaten und die neuen Koordinatendaten, die das bewegte Teilbild darstellen, zueinander korreliert, um zusammen mit den Pixeldaten und den Koordinatendaten des ursprünglichen Bildes (ausschließlich des bewegten Teilbildes) gespeichert zu werden.
  • Vorzugsweise werden alle der obigen Pixeldaten und der obigen Koordinatendaten in der bevorzugten Reihenfolge gespeichert, z. B. der Reihenfolge, die durch die Koordinatendaten dargestellt wird. Eine Gruppe der Pixeldaten und eine Gruppe der Koordinatendaten werden einzeln komprimiert, und die komprimierten Pixeldaten und die komprimierten Koordinatendaten werden kombiniert, um gespeichert zu werden.
  • Auf diese Weise werden in einem Fall, in welchem ein Teil eines Bildes extrahiert und bewegt wird, die Bilddaten, die diese Bilder (das extrahierte Teilbild und das ursprüngliche Bild ausschließlich des extrahierten Teilbildes) in einem derartigen Zustand gesichert, dass die positionsmäßige Beziehung dieser Bilder beibehalten wird. Es ist möglich, eine Vielzahl von Bildern zu handhaben oder zu behandeln, die voneinander getrennt sind, während die wechselseitige positionsmäßige Beziehung zwischen ihnen beibehalten wird.
  • Ein Bildsynthesesystem, das mit der Bildverarbeitungsvorrichtung der vorliegenden Erfindung verwendet werden kann, weist einen Klientencomputer und einen Bildsynthesizer, die Daten miteinander kommunizieren können, auf.
  • Der Klientencomputer weist eine Bildsynthesevorrichtung zum Einlegen eines Anwenderbildes oder eines Teils davon in einer Position, die durch eine Maskeninformation definiert ist, die ein Schablonenbild begleitet, auf dem Schablonenbild, das den Hintergrund des Anwenderbildes darstellt, und eine Vorrichtung zum Übertragen bzw. Senden von Information für ein zusammengesetztes Bild zum Senden von zusammengesetzten Bilddaten, die ein durch die Bildsynthesevorrichtung erzeugten zusammengesetztes Bild darstellen, und der für die Synthese verwendeten Maskeninformation auf ein Korrelieren von ihnen hin, zum Bildsynthesizer auf.
  • Der Bildsynthesizer weist folgendes auf: eine Vorrichtung zum Empfangen von Information über ein zusammengesetztes Bild zum Empfangen der zusammengesetzten Bilddaten und der Maskeninformation, die vom Klientencomputer übertragen worden sind, und eine Bilddaten-Trennvorrichtung zum Trennen wenigstens eines von den Bilddaten, die das Schablonenbild darstellen, und den Bilddaten, die das Anwenderbild darstellen, von den zusammengesetzten Bilddaten, die das zusammengesetzte Bild darstellen, auf der Basis der empfangenen Maskeninformation.
  • Diese Anordnung stellt auch ein Verfahren zur Verfügung, das für das Bildsynthesesystem geeignet ist. Das bedeutet, dass das Verfahren ein Bildsyntheseverfahren in dem Bildsynthesesystem ist, das den Klientencomputer und den Bildsynthesizer aufweist, die Daten zueinander kommunizieren können.
  • Im Klientencomputer wird ein Anwenderbild oder ein Teil davon in eine Position, die durch Maskeninformation definiert ist, die ein Schablonenbild begleitet, auf dem Schablonenbild, das den Hintergrund des Anwenderbildes darstellt, gelegt und werden die zusammengesetzten Bilddaten, die ein zusammengesetztes Bild darstellen, das durch Einlegen des Anwenderbildes in das Schablonenbild erhalten wird, und die Maskeninformation, die zum Einlegen verwendet wird, miteinander korreliert und vom Klientencomputer zum Bildsynthesizer übertragen.
  • Im Bildsynthesizer werden die zusammengesetzten Bilddaten und die Maskeninformation, die vom Klientencomputer übertragen werden, empfangen, und wenigstens eines von Bilddaten, die das Schablonenbild darstellen, und von Bilddaten, die das Anwenderbild darstellen, welche die zusammengesetzten Bilddaten bilden, die das zusammengesetzte Bild darstellen, werden von den zusammengesetzten Bilddaten auf der Basis der empfangenen Maskeninformation getrennt.
  • Gemäß dieser Anordnung wird das Anwenderbild in der Position, die durch die Maskeninformation definiert ist, die die Position darstellt, in welcher das Anwenderbild einzulegen ist, auf dem Schablonenbild eingelegt, um das zusammengesetzte Bild im Klientencomputer zu erzeugen. Die zusammengesetzten Bilddaten, die das zusammengesetzte Bild darstellen, und die entsprechende Maskeninformation werden miteinander korreliert und werden vom Klientencomputer zum Bildsynthesizer übertragen.
  • Im Bildsynthesizer werden die zusammengesetzten Bilddaten und die Maskeninformation, die vom Klientencomputer übertragen worden sind, empfangen. Die Position, bei welcher das Anwenderbild einzulegen ist, auf dem Schablonenbild wird auf der Basis der empfangenen Maskeninformation erkannt. Da die Position, bei welcher das Anwenderbild eingelegt ist, gefunden wird, können die Schablonenbilddaten und die Anwenderbilddaten relativ einfach von den zusammengesetzten Bilddaten getrennt werden.
  • Da die Schablonenbilddaten und die Anwenderbilddaten, die die zusammengesetzten Bilddaten bilden, getrennt erhalten werden, können die Schablonenbilddaten und die Anwenderbilddaten getrennt und einzeln einer Farbumwandlung unterzogen werden, wie es erforderlich ist. Es ist möglich, die am besten geeignete Farbumwandlung für die Schablonenbilddaten und die am besten geeignete Farbumwandlung für das Anwenderbild durchzuführen.
  • Das zusammengesetzte Bild wird wieder aus den Schablonenbilddaten und den Anwenderbilddaten erzeugt, von welchen wenigstens eines davon der Farbumwandlung unterzogen worden ist, wie es erforderlich ist. Ein neu zusammengesetztes Bild, das so durch die erneute Synthese erhalten wird, wird in einem Drucker gedruckt. Da wenigstens eines von dem Schablonenbild und dem Anwenderbild, die das erneut zusammengesetzte Bild bilden, einzeln der Farbumwandlung unterzogen wird, wird das neu bzw. erneut zusammengesetzte Bild, dessen Farben zu geeigneten Farben umgewandelt worden sind, im Drucker gedruckt.
  • Die vorangehenden und andere Aufgaben, Merkmale, Aspekte und Vorteile der vorliegenden Erfindung werden aus der folgenden detaillierten Beschreibung der vorliegenden Erfindung klarer werden, wenn sie in Zusammenhang mit den beigefügten Zeichnungen genommen wird.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 stellt das Aussehen einer Bildaufzeichnungs/Wiedergabe-Vorrichtung dar;
  • 2 stellt den Aufbau der elektrischen Konfiguration der Bildaufzeichnungs/Wiedergabe-Vorrichtung dar;
  • 3 bis 10 stellen Beispiele von Anzeigebildern dar;
  • 11 stellt ein Beispiel eines temporären Speicherformats für ein natürliches Bild dar;
  • 12 stellt ein Beispiel eines temporären Speicherformats für ein Pseudobild dar;
  • 13 stellt das Format von Koordinatendaten dar, die einer Inkrementenlängenkompression unterzogen worden sind;
  • 14 stellt ein Format zum Aufzeichnen von komprimierten Pixeldaten und Koordinatendaten für ein natürliches Bild dar;
  • 15 stellt ein Format zum Aufzeichnen komprimierter Pixeldaten und Koordinatendaten für ein Pseudobild dar;
  • 16 ist ein Ablaufdiagramm, das die Prozedur zur Aufzeichnungsverarbeitung eines editierten Bildes zeigt;
  • 17 zeigt die Prozedur für eine Bildanzeigeverarbeitung;
  • 18 zeigt die Prozedur für eine Bildeditierverarbeitung;
  • 19 ist ein Ablaufdiagramm, das die Prozedur für eine Bildwiedergabeverarbeitung zeigt;
  • 20 stellt die Gesamtkonfiguration eines Bildsynthesesystems dar, welches bei der vorliegenden Erfindung verwendet werden kann;
  • 21 ist ein Blockdiagramm, das die elektrische Konfiguration eines Klientencomputers zeigt;
  • 22 ist ein Blockdiagramm, das die elektrische Konfiguration eines Bildsynthesizers zeigt;
  • 23 zeigt, wie ein zusammengesetztes Bild erzeugt wird;
  • 24 stellt das Format einer Schablonenbilddatei dar;
  • 25 stellt das Format einer Datei für ein zusammengesetztes Bild dar;
  • 26 zeigt schematisch die Prozedur zur Verarbeitung zum Drucken eines zusammengesetzten Bildes in einem Bildverarbeitungssystem; und
  • 27 ist ein Ablaufdiagramm, das die Prozedur zum Verarbeiten für ein Drucken eines zusammengesetzten Bildes in einem Bildverarbeitungssystem zeigt.
  • (1) Erstes Ausführungsbeispiel
  • 1 stellt das Aussehen einer Bildverarbeitungs-(Aufzeichnungs/Wiedergabe-)Vorrichtung gemäß dem vorliegenden Ausführungsbeispiel dar. 2 ist ein Blockdiagramm, das die elektrische Konfiguration der Bildverarbeitungs-(Aufzeichnungs/Wiedergabe-)Vorrichtung zeigt.
  • Gemäß diesen Figuren weist die Bildverarbeitungs-(Aufzeichnungs/Wiedergabe-)Vorrichtung einen Computer 1 auf. Eine CRT-Anzeigevorrichtung 10, ein Bildscanner 11, eine Tastatur 12 und eine Maus 13 sind an den Computer 1 angeschlossen.
  • Die Gesamtheit einer Bild-(Aufzeichnungs- und Wiedergabe-)Verarbeitung wird durch eine CPU 2 des Computers 1 überwacht. Ein FD-(Disketten-)Laufwerk 7, ein CD-ROM-(Compact Disc-Nurlesespeicher-)Laufwerk 8 und ein HD-(Festplatten-)Laufwerk 9 sind innerhalb des Computers 1 vorgesehen. Das FD-Laufwerk 7 schreibt Daten zu einer FD 17 und liest Daten aus der FD 17 aus. Das CD-ROM-Laufwerk 8 liest Daten und Programme aus einer CD-ROM 18 aus. Das HD-Laufwerk 9 schreibt Daten zu einer Festplatte (nicht gezeigt) und liest Daten aus der Festplatte aus. Programme, die den Computer 1 verschiedene Verarbeitungen durchführen lassen (16, 17, 18 und 19), werden aus der CD-ROM 18 ausgelesen und in der Festplatte installiert.
  • Der Scanner 11, die Tastatur 12 und die Maus 13 sind durch eine Eingabe/Ausgabe-Schnittstelle 6 an den Computer 1 angeschlossen. Der Computer 1 weist weiterhin einen Bildspeicherungsspeicher 5 zum temporären Speichern von Bilddaten auf, wenn ein Bild extrahiert wird, und einen Anzeigespeicher 4 zum temporären Speichern der Bilddaten, wenn das Bild auf der Anzeigevorrichtung 10 angezeigt wird. Die im Anzeigespeicher 4 gespeicherten Bilddaten werden ausgelesen und werden über eine Anzeigeschnittstelle 3 zur Anzeigevorrichtung 10 zugeführt, so dass das Bild angezeigt wird.
  • Die Bildverarbeitungs-(Aufzeichnungs/Wiedergabe-)Vorrichtung zeigt ein erwünschtes Bild (ein ursprüngliches Bild) auf der Anzeigevorrichtung 10 an, extrahiert einen Teil des Bildes (ein Teilbild) aus dem auf einem Bildschirm der Anzeigevorrichtung 10 angezeigten ursprünglichen Bild, editiert das extrahierte Teilbild und zeichnet Bilddaten auf der FD 17 auf, die das editierte Bild darstellen. Die Bilddaten, die das aus dem ursprünglichen Bild extrahierte Teilbild darstellen, können auf der FD 17 aufgezeichnet werden, wie es erforderlich ist.
  • Unter Bezugnahme auf Beispiele von Anzeigebildern der Anzeigevorrichtung 10, die in den 3 bis 10 gezeigt sind, wird eine Verarbeitung in der Bildverarbeitungsvorrichtung gemäß einem in 16 gezeigten Ablaufdiagramm erklärt.
  • Bilddaten, die eines oder eine Vielzahl von ursprünglichen Bildern darstellen, werden in der FD 17, dem CD-ROM 18 oder der Festplatte im Voraus gespeichert. Bilddaten, die ein erwünschtes ursprüngliches Bild darstellen, werden aus einem der obigen Speichermedien durch das FD-Laufwerk 7, das CD-ROM-Laufwerk 8 oder das HD-Laufwerk 9 ausgelesen (Schritt 21). Die ausgelesenen Bilddaten werden temporär im Anzeigespeicher 4 gespeichert. Das ursprüngliche Bild, das durch die im Anzeigespeicher 4 gespeicherten Bilddaten dargestellt wird, wird auf einem Anzeigeschirm der Anzeigevorrichtung 10 angezeigt, wie es in 3 gezeigt ist.
  • Es sollte verstanden werden, dass die 3 das auf einem Teil des Anzeigeschirms der Anzeigevorrichtung 10 angezeigte ursprüngliche Bild zeigt. Allgemein erscheint ein Fenster auf dem Anzeigeschirm und wird das ursprüngliche Bild innerhalb des Fensters angezeigt. In diesem Fall stellt der rechteckförmige Rahmen, innerhalb welchem das ursprüngliche Bild erscheint, das in 3 gezeigt ist, eine Kontur des Fensters dar.
  • Das ursprüngliche Bild kann ein Bild sein, das auf einem Film, einer Fotografie oder anderen visuellen Medien erscheint. In diesem Fall wird das ursprüngliche Bild auf dem visuellen Medium durch den Scanner 11 gelesen und wird das ursprüngliche Bild unter Verwendung der durch den Scanner 11 erhaltenen Bilddaten angezeigt.
  • Ein Bildbereich A1, der zu extrahieren (auszuschneiden) ist, wird unter Verwendung der Maus 13 von einem Anwender in einem Zustand bestimmt, in welchem das ursprüngliche Bild auf dem Anzeigeschirm der Anzeigevorrichtung 10 angezeigt wird (Schritt 22). Das bedeutet, dass die Kontur des Bildbereichs A1, der zu extrahieren (auszuschneiden) ist, durch Bewegen eines auf dem Bildschirm angezeigten Cursors unter Verwendung der Maus 13 gezogen. Die gezogene Kontur wird im Anzeigespeicher 4 in der Form von Kontur-Bilddaten (die Bilddaten, die die Kontur darstellen, werden überschrieben) gespeichert bzw. gemerkt.
  • Im Anzeigespeicher 4 werden die Bilddaten von Pixeln, die außerhalb der Kontur (natürlich innerhalb des Fensters) auf dem Bild vorhanden sind, durch Bilddaten ersetzt, die eine spezifizierte Farbe darstellen (die Bilddaten, die die spezifizierte Farbe darstellen, werden überschrieben). Vorzugsweise ist die spezifizierte Farbe eine Farbe, die in einem natürlichen Bild (einem Bild einer Landschaft) nicht existiert, oder von welcher eine Farbwahrscheinlichkeit sehr niedrig ist (beispielsweise eine Farbe der Primärfarb-(R-, G-, B-)Daten, welche durch solche Daten wie FF, FE, 00, 01 oder durch eine Kombination davon dargestellt sind). Auf diese Weise wird die Farbe eines Bildbereichs A2 (natürlich ist der Bereich A2 innerhalb des Fensters begrenzt) außerhalb des Bildbereichs A1, der zu extrahieren ist, welcher unter Verwendung der Maus 13 bestimmt worden ist, in die vorbestimmte und spezifizierte (bestimmte) Farbe geändert, wie es in 4 gezeigt ist. In dieser Zeichnung ist der Bildbereich A2, von welchem die Farbe in die spezifizierte Farbe geändert worden ist, für ein einfaches Verstehen gestrichelt.
  • Die Bilddaten innerhalb des Fensters werden auf dem Anzeigespeicher 4 abgetastet bzw. gescannt, wie es in 5 gezeigt ist, und die Bilddaten, die innerhalb des Bereichs A1 sind, der zu extrahieren ist, werden aus dem Anzeigespeicher 4 ausgelesen. Die ausgelesenen Bilddaten werden in der Festplatte gemäß einem vorbestimmten temporären Speicherformat in einer solchen Form temporär gespeichert, dass Pixeldaten (Bilddaten, die einzelne Pixel darstellen, werden "Pixeldaten" genannt) und Daten, die eine Koordinatenposition darstellen (Koordinatendaten) der Pixel miteinander korreliert (Schritt 23). Da die Bilddaten des Bereichs A2 außerhalb des zu extrahierenden Bereichs A1 Daten sind, die die spezifizierte Farbe darstellen, wie es oben beschrieben ist, können die Bilddaten innerhalb des Bereichs A1 durch Untersuchen ausgelesen werden, ob die Daten welche sind, die andere als die Daten sind, die die spezifizierte Farbe darstellen. Die Koordinaten der Pixeldaten werden mit einer spezifizierten Stelle P des Fensters (z. B. der linken oberen Ecke), die als Ursprung dient, bestimmt. Die Koordinatendaten und die Adresse des Anzeigespeichers 4 sind in einer Eins-zu-Eins-Entsprechung aufeinander bezogen.
  • 11 zeigt ein Beispiel des temporären Speicherformats, welches für das natürliche Bild (Landschaft bzw. Szene) dient, das durch Bilddaten von 24 Bits dargestellt wird. Das temporäre Speicherformat enthält einen Anfangsblock-Aufzeichnungsbereich und einen Daten-Aufzeichnungsbereich.
  • Der Anfangsblock-Aufzeichnungsbereich enthält eine Anfangsblockgröße, die die Menge an Daten darstellt, die bei einem Anfangsblock aufgezeichnet sind, eine Längengröße und eine Breitengröße, die jeweils die Länge und die Breite des ursprünglichen Bildes darstellen (siehe 3), einen Bildtyp, der anzeigt, ob das Bild ein Farbbild oder ein Monochrombild bzw. Schwarz-Weiß-Bild ist, eine Bittiefe, die anzeigt, wie viele Bits jeweilige R-, G- und B-Daten von Pixeldaten bilden, eine Koordinatenbittiefe, die anzeigt, wie viele Bits Koordinatendaten bilden, ein Vorhandensein oder ein Nichtvorhandensein einer Farbpalette und eine Datengröße, die die Menge an Daten darstellt, die auf dem Daten-Aufzeichnungsbereich aufgezeichnet sind.
  • Daten in Bezug auf jedes Pixel sind in der Reihenfolge der obigen Abtastung im Daten-Aufzeichnungsbereich angeordnet. Die Daten in Bezug auf jedes Pixel weisen die Pixeldaten auf, die die Bilddaten für jedes Pixel sind, und die Koordinatendaten, die die Position des Pixels im ursprünglichen Bild anzeigen. Bei den Daten in Bezug auf jedes Pixel folgen den Pixeldaten die Koordinatendaten, um die Pixeldaten und die Koordinatendaten aufeinander zu beziehen. Die Pixeldaten weisen R-(Rot-), G-(Grün-) und B-(Blau-)Daten auf, die in dieser Reihenfolge angeordnet sind, und von welchen jedes Datum aus 8 Bits zusammengesetzt ist. Daher können ungefähr 16.000.000 (= 256 × 256 × 256) Farben dargestellt werden, so dass ein Bild einer Landschaft (natürliches Bild) ausgedrückt werden kann. Die Koordinatendaten weisen die X-Koordinatendaten und die Y-Koordinatendaten auf, die in dieser Reihenfolge angeordnet sind. Die X-Koordinatendaten und die Y-Koordinatendaten sind jeweils aus 16 Bits gebildet.
  • Bei dem oben beschriebenen temporären Speicherformat verwendet jedes der Pixeldaten eine Gesamtheit von 24 Bits für R, G und B. Die Menge an Pixeldaten kann unter Verwendung einer Farbpalette reduziert werden. Ein temporäres Speicherformat für die Farbpalette (Pseudobild) ist in 12 dargestellt.
  • Der Anfangsblock-Aufzeichnungsbereich des Formats, das in 12 gezeigt ist, ist derselbe wie derjenige des Formats der 11. Der Daten-Aufzeichnungsbereich enthält darin einen Farbpaletten-Aufzeichnungsbereich, in welchem Bilddaten, die 256 Typen einer Farbe darstellen, aufgezeichnet sind. Die Daten in Bezug auf jedes Pixel, die im Daten-Aufzeichnungsbereich aufgezeichnet sind, enthalten einen Farbindex, die X-Koordinatendaten und die Y-Koordinatendaten, die in dieser Reihenfolge aufgezeichnet sind. Der Farbindex bezeichnet eine von 256 Farben in der Farbpalette.
  • Nimmt man wiederum Bezug auf 16, werden die Pixeldaten und die Koordinatendaten, die in der Festplatte gemäß dem temporären Speicherformat temporär gespeichert worden sind, ausgelesen, und wird ein zu editierendes Bild I3 angezeigt, wie es in 6 gezeigt ist, und zwar auf den Anzeigeschirm an der Anzeigevorrichtung 10 auf der Basis der Pixeldaten und der Koordinatendaten, die ausgelesen worden sind (durch die Pixeldaten, die in den Anzeigespeicher 4 geschrieben worden sind, gemäß den Koordinatendaten) (Schritt 24). Das Bild I3 ist dasselbe wie das Bild A1, das extrahiert worden ist, und wird so angezeigt, dass das Bild I3 im Fenster erscheint. Die Details der Anzeigeverarbeitung des zu editierenden Bildes I3 werden später beschrieben.
  • Wenn das zu editierende Bild I3 auf dem Anzeigeschirm angezeigt wird, wird eine Bildeditierverarbeitung (eine weitere Extraktion eines weiteren Teilbildes aus dem Bild I3 und eine Bewegung des extrahierten Teilbildes) durch den Anwender durchgeführt (Schritt 25). Die Details der Bildeditierverarbeitung werden auch später beschrieben.
  • Das editierte Bild I4 ist in 9 gezeigt. Wenn eine Bildeditierverarbeitung beendet ist, werden Bilddaten, die ein editiertes Bild I4 darstellen, temporär in der Festplatte gemäß dem oben beschriebenen temporären Speicherformat gespeichert (Schritt 26). Die gemäß dem temporären Speicherformat in der Festplatte gespeicherten Koordinatendaten werden ausgelesen, und eine Koordinatenumwandlung der Koordinatendaten wird durchgeführt (Schritt 27, siehe die 9 und 10). Das Bild, von welchem die Koordinatendaten umgewandelt worden sind, ist in 10 gezeigt.
  • Die Koordinatenumwandlung wird wie folgt durchgeführt: es wird ein Rechteck R, das das editierte Bild I4 umgibt, angenommen. Das angenommene Rechteck R wird nicht auf dem Bildschirm angezeigt. Eine geeignete Stelle Q an dem Rechteck R (beispielsweise eine Stelle einer linken und oberen Ecke) wird als ein Ursprung eines neuen Koordinatensystems ausgewählt. Die Koordinatenumwandlung aus dem XY-Koordinatensystem mit der Stelle P, die als Ursprung dient, in das neue XY-Koordinatensystem mit dem Ursprung Q wird für jedes der Pixel durchgeführt, die das editierte Bild I4 bilden. Die umgewandelten Koordinatendaten werden wieder gemäß dem temporären Speicherformat in der Festplatte gespeichert, nachdem sie mit den Pixeldaten korreliert sind.
  • Wenn die Koordinatendatenumwandlung beendet ist, werden die Pixeldaten und die Koordinatendaten entsprechend den Pixeldaten voneinander getrennt (Schritt 28). Das bedeutet, dass alle Pixeldaten des editierten Bildes I4 gesammelt werden und in der Reihenfolge der Abtastung angeordnet werden (derselben wie der Reihenfolge im temporären Speicherformat), und dass alle Koordinatendaten auch gesammelt werden, um in derselben Reihenfolge wie derjenigen der Pixeldaten angeordnet zu werden. Eine Gruppe aus den Pixeldaten und eine Gruppe aus den Koordinatendaten werden erzeugt.
  • Die Gruppe der Pixeldaten wird einer Datenkompression unterzogen, wie z. B. der Huffman-Kompression (Schritt 30).
  • Die Gruppe der Koordinatendaten wird einer Inkrementenlängenkompression unterzogen (Schritt 29). Die Inkrementenlängenkompression enthält eine Umwandlungsverarbeitung von zwei Dimensionen in eine Dimension der zweidimensionalen Koordinatendaten (X, Y) und eine Datenkompressionsverarbeitung der eindimensionalen Koordinatendaten.
  • Die Zwei/Eins-Dimensions-Umwandlungsverarbeitung wird durch die folgende Gleichung durchgeführt:
    (Eindimensionaler Koordinatenwert) = (Y-Koordinatenwert) × (Breite des Bildes) + (X-Koordinatenwert).
  • Die Breite des Bildes ist die Breite des angenommenen Rechtecks R, wie es in 10 gezeigt ist.
  • Die Datenkompressionsverarbeitung der eindimensionalen Koordinatendaten (Werte) weist eine Gruppierungs-(oder Gruppenbildungs-)verarbeitung zum Erzeugen einer Vielzahl von Gruppen (oder Cluster) von Koordinatenwerten (Daten) aus der Gruppe der Koordinatenwerte auf, die in einer abfallenden Reihenfolge angeordnet sind, während sie bei den diskontinuierlichen Stellen der Koordinatenwerte getrennt werden (jede Gruppe weist eine Untergruppe von kontinuierlichen Koordinatenwerten auf; die Anzahl der Koordinatenwerte, die in jeder Gruppe enthalten sind, wird "Inkrementenlänge" genannt), wobei die erzeugten Gruppen in der Reihenfolge der Koordinatenwerte angeordnet werden, die zu den Gruppen gehören; eine Differenzenberechnungsverarbeitung zum Berechnen der Differenz zwischen dem Anfangs-(Start-)Koordinatenwert von einer Gruppe und dem Anfangs-(Start-)Koordinatenwert einer anderen Gruppe, die benachbart zu der einen Gruppe angeordnet ist; und Anordnen des Anfangskoordinatenwerts der ersten (Start-)Gruppe (eindimensionaler Anfangskoordinatenwert), der Inkrementenlänge der ersten Gruppe, der Differenz zwischen dem Anfangskoordinatenwert der vorangehenden Gruppe und der Anfangskoordinatenwert der darauf folgenden Gruppe (Differenz zwischen eindimensionalen Anfangskoordinatenwerten) und die Inkrementenlänge der folgenden Gruppe in dieser Reihenfolge.
  • Beispielsweise soll angenommen werden, dass die eindimensionalen Koordinatenwerte, die in der abfallenden Reihenfolge angeordnet sind, beispielsweise "24, 25, 26, 27, 28, 128, 129, 130, 131, 156, 157, 158, 159" sind. Vier Koordinatenwerte sind von "24" bis zu "28" in der ersten Gruppe (ausschließlich des Anfangswerts) kontinuierlich, drei Koordinatenwerte sind von "128" bis "131" in der zweiten Gruppe (ausschließlich des Anfangswerts 9 kontinuierlich, und drei Koordinatenwerte sind von "156" bis "159" in der dritten Gruppe (ausschließlich des Anfangswerts) kontinuierlich. Die "Differenz zwischen eindimensionalen Anfangskoordinatenwerten" zwischen der ersten Gruppe und der zweiten Gruppe und zwischen der zweiten Gruppe und der dritten Gruppe sind jeweils 128 – 24 = 104 und 156 – 128 = 28. Die durch die Inkrementenlängenkompression erhaltenen Daten sind "24, 4, 104, 3, 28, 3".
  • 13 zeigt ein Format der aus der Inkrementenlängenkompression resultierenden Daten. Zuerst werden der "eindimensionale Anfangskoordinatenwert" und die "In krementenlänge" der ersten Gruppe in dieser Reihenfolge angeordnet. Als nächstes werden die "Differenz zwischen eindimensionalen Anfangskoordinatenwerten" zwischen der ersten Gruppe und der zweiten Gruppe und die "Inkrementenlänge" der zweiten Gruppe in dieser Reihenfolge angeordnet. Auf gleiche Weise werden die "Differenz zwischen eindimensionalen Anfangskoordinatenwerten" zwischen der vorangehenden Gruppe und der darauf folgenden Gruppe und die "Inkrementenlänge" der darauf folgenden Gruppe wiederholt angeordnet.
  • Die Pixeldaten, die einer Huftman-Kompression unterzogen worden sind, und die Koordinatendaten, die der Inkrementenlängenkompression unterzogen worden sind, werden miteinander verbunden (Schritt 31), d. h. sie werden so angeordnet, dass den komprimierten Pixeldaten die komprimierten Koordinatendaten folgen. Die Pixeldaten und die Koordinatendaten, die miteinander verbunden worden sind, werden gemäß dem Format, das in 14 oder 15 gezeigt ist, auf der FD 17 aufgezeichnet (Schritt 32).
  • 14 zeigt ein komprimiertes Datenformat für die Bilddaten eines natürlichen Bildes (eines Bildes einer Landschaft). Der Anfangsblock-Aufzeichnungsbereich ist grundsätzlich derselbe wie derjenige, der in 11 gezeigt ist, außer dass die Längengröße und die Breitengröße durch jeweils die Höhengröße und die Breitengröße ersetzt sind und dass die Datengröße durch die Pixeldatengröße und die Koordinatendatengröße ersetzt wird. Der Daten-Aufzeichnungsbereich hat die komprimierten Pixeldaten und die komprimierten Koordinatendaten in dieser Reihenfolge angeordnet und darin gespeichert. 15 zeigt ein komprimiertes Datenformat für die Bilddaten des Pseudobildes. Der Anfangsblock-Aufzeichnungsbereich ist nahezu derselbe wie derjenige, der in 14 gezeigt ist, außer dass die Pixeldatengröße durch die Indexdatengröße ersetzt ist. Der Daten-Aufzeichnungsbereich enthält die Farbpalette, die komprimierten Indexdaten und die komprimierten Koordinatendaten in dieser Reihenfolge angeordnet.
  • Unter Bezugnahme auf 17 wird eine Verarbeitung (16, Schritt 24) zum Anzeigen eines zu editierenden Bildes beschrieben.
  • Pixeldaten und Koordinatendaten, die in ein temporäres Speicherformat umgewandelt worden sind, werden aus der Festplatte ausgelesen (Schritte 41 und 42), und ein Pixel, das durch die Pixeldaten dargestellt ist, wird bei einer Position angezeigt, die durch die Koordinatendaten bestimmt ist, indem die Pixeldaten in den Anzeigespeicher 4 gemäß den Koordinatendaten geschrieben werden (Schritt 43). Die Verarbeitung der Schritte 41 bis 43 wird wiederholt für alle Pixeldaten ausgeführt, die das Bild darstellen (Schritt 44). Darauf folgend wird das durch den Anwender extrahierte Bild auf dem Anzeigeschirm der Anzeigevorrichtung 10 angezeigt, wie es in 6 gezeigt ist.
  • Unter Bezugnahme auf die 7, 8 und 18 wird eine Bildeditierverarbeitung (16, Schritt 25) beschrieben.
  • Das Beispiel der hierin nachfolgend beschriebenen Bildeditierverarbeitung besteht darin, dass ein Teil eines Bildes (ein Teilbild) von dem zu editierenden angezeigten Bild weiter extrahiert (ausgeschnitten) wird und das extrahierte Teilbild in einer beliebigen Richtung um eine beliebige Entfernung bewegt wird.
  • In dem auf dem Anzeigeschirm der Anzeigevorrichtung 10 angezeigten zu editierenden Bild wird ein Bereich eines Teilbildes A4, der von dem Bild weiter zu extrahieren ist, vom Anwender unter Verwendung der Maus 13 bestimmt (Schritt 51). Ein Fenster A5, das das bestimmte Teilbild A4 umschreibt oder umgibt, wird für eine Verarbeitung eingestellt (Schritt 52, siehe 7).
  • Die Pixeldaten und die Koordinatendaten, die das Teilbild A4 darstellen, werden aus der Festplatte gelesen (Schritt 53). Die Pixeldaten und die Koordinatendaten, die gelesen worden sind, werden temporär in den Bildspeicherungsspeicher 5 gespeichert (Schritt 54).
  • Das Ausmaß einer Bewegung und die Richtung einer Bewegung des Teilbildes A4 werden durch den Anwender eingestellt (Schritt 55). Beispielsweise wird ein Cursor auf dem Anzeigeschirm in einer erwünschten Richtung unter Verwendung der Tastatur 12 oder der Maus 13 um einen erwünschten Abstand bewegt. Das Ausmaß und die Richtung der Bewegung des Cursors wird im Computer 1 gelesen. Die Veränderung bzw. Variation Δx und Δy entsprechend dem Ausmaß und der Richtung der Bewegung des Cursors werden jeweils zu den Koordinatenwerten X und Y der Pixel addiert, die das Teilbild A4 bilden, um neue Koordinatendaten (Werte) für das Teilbild A4 zu erhalten (Schritt 56).
  • Das Fenster A5 wird so vergrößert, dass das Fenster A6 das bewegte Teilbild A4 umgibt und umschreibt (Schritt 57). Innerhalb des vergrößerten Fensters A6 werden die Pixeldaten, die das Teilbild A4 vor einer Bewegung darstellen, gelöscht und werden die Pixeldaten, die das Teilbild A4 nach einer Bewegung darstellen, in den Anzeigespeicher 4 gemäß den neuen Koordinatendaten überschrieben. Somit wird das Teilbild A4 nach einer Bewegung im Anzeigeschirm angezeigt (Schritt 58, siehe 8).
  • 19 zeigt die Prozedur zur Verarbeitung zum Wiedergeben eines Bildes basierend auf den Daten, die auf der FD 17 aufgezeichnet worden sind, gemäß dem Format, das in 14 oder 15 gezeigt ist.
  • Die komprimierten Pixeldaten und die entsprechenden Koordinatendaten werden aus der FD 17 ausgelesen (Schritt 61) und werden voneinander getrennt (Schritt 62).
  • Die komprimierten Pixeldaten werden dadurch expandiert, dass sie einer Huffman-Decodierung unterzogen werden (Schritt 63). Die komprimierten Koordinatendaten werden zuerst in eindimensionale Koordinatendaten umgewandelt, indem sie einer Expansion unterzogen werden. Weiterhin werden die eindimensionalen Koordinatendaten in die zweidimensionalen Koordinatendaten umgewandelt (Schritt 64). Auf diese Weise werden die expandierten Pixeldaten und die expandierten Koordinatendaten erhalten.
  • Die expandierten Pixeldaten und die expandierten Koordinatendaten werden gemäß dem oben beschriebenen temporären Speicherformat in der Festplatte temporär gespeichert (Schritt 65). Die Pixeldaten und die Koordinatendaten werden aus der Festplatte ausgelesen und die Pixeldaten werden gemäß den Koordinatendaten in den Anzeigespeicher 4 geschrieben, so dass das editierte Bild, wie es in 8 oder in 10 gezeigt ist, auf der Anzeigevorrichtung 10 angezeigt wird (Schritt 66).
  • Bei dem obigen Ausführungsbeispiel wird das editierte Bild (die Pixeldaten und die Koordinatendaten davon) komprimiert. Natürlich können die Bilddaten vor einem Editieren (die beim Schritt 23 der 16 erhaltenen Bilddaten) komprimiert werden, um gespeichert oder aufgezeichnet zu werden. Die komprimierten Daten können in der Festplatte anstelle der FD 17 gespeichert werden.
  • Bei der Koordinatenumwandlungsverarbeitung beim Schritt 27 der 16 wird die geeignete Stelle Q an dem Rechteck R, das das Teilbild I4 umgibt, als Koordinatenursprung angenommen. Für den Koordinatenursprung kann ein Rechteck, das einen Teil des Bildes I4 umgibt, berücksichtigt werden. Alternativ dazu kann eine bestimmte Stelle innerhalb des Teilbildes I4 als Koordinatenursprung angenommen werden. Eine Koordinatenumwandlungsverarbeitung kann vor der Editierverarbeitung ausgeführt werden. Die Koordinatenumwandlung ist nicht notwendigerweise erforderlich.
  • 20 stellt eine beispielhafte Anordnung einer Gesamtkonfiguration eines Bildsynthesesystems dar, das bei der Bildverarbeitungsvorrichtung und den Bildverarbeitungsverfahren bei dem obigen Ausführungsbeispiel der Erfindung verwendet werden kann.
  • Das Bildsynthesesystem weist einen Klientencomputer 71 und einen Bildsynthesizer 100 auf, die über ein Netzwerk Bilddaten und andere Daten zueinander kommunizieren können. Ein Farbdrucker 90A ist an den Bildsynthesizer 100 angeschlossen.
  • Bei dem Bildsynthesesystem ist ein Anwenderbild, das ein Anwender des Klientencomputers 71 hat, in ein Schablonenbild im Klientencomputer 71 eingelegt, um ein zusammengesetztes Bild zu erzeugen. Das erzeugte zusammengesetzte Bild und Maskeninformation, die zum Erzeugen des zusammengesetzten Bildes verwendet wird und eine Position darstellt, in welcher das Anwenderbild einzulegen ist, werden vom Klientencomputer 71 zum Bildsynthesizer 100 gesendet bzw. übertragen. Bei dem Bildsynthesizer 100 werden das Schablonenbild und das Anwenderbild, die das zusammengesetzte Bild bilden, auf der Basis der Maskeninformation voneinander getrennt.
  • Das Anwenderbild und das Schablonenbild, die voneinander getrennt worden sind, können getrennt einer Farbumwandlung (Farbkorrektur) unterzogen werden, wie es erforderlich ist, wie beispielsweise in Abhängigkeit von den Charakteristiken des Farbdruckers 90A. Das Schablonenbild und das Anwenderbild, von welchen wenigstens eines der Farbumwandlung (Farbkorrektur) unterzogen worden ist, werden erneut synthetisiert, um ein zusammengesetztes Bild zu erzeugen, so dass das erhaltene schließliche zusammengesetzte Bild (erneut zusammengesetzte Bild) geeignete Farben hat.
  • 21 ist ein Blockdiagramm, das die elektrische Konfiguration des Klientencomputers 71 zeigt. Der Klientencomputer 71 ist allgemein zuhause beim Anwender angeordnet.
  • Die Gesamtoperationen bzw. der Gesamtbetrieb des Klientencomputers 71 werden durch eine CPU 72 überwacht.
  • Der Klientencomputer 71 weist einen ROM 73, einen RAM 74 zum temporären Speichern von Daten, einen VRAM 82 zum temporären Speichern von Daten, die ein Bild darstellen, das auf einer Anzeigevorrichtung 84 angezeigt wird, um ein Bild zu editieren, und eine Speichersteuerung 85 zum Steuern des Lesens von Daten aus dem ROM 73 und zum Schreiben und Lesen von Daten zu und von dem RAM 74 und dem VRAM 82 auf. Aus dem VRAM 82 ausgelesene Bilddaten werden zu einem Digital/Analog-(DA-)Wandler 83 zugeführt, wo sie in ein analoges Bildsignal umgewandelt werden. Folglich wird ein Bild auf der Anzeigevorrichtung 84 angezeigt.
  • Eine Bussteuerung 75, die Speichersteuerung 85 und ein Zeitgeber 86 sind an den Klientencomputer 71 angeschlossen.
  • Weiterhin ist eine System-I/O-Steuerung 76 an den Klientencomputer 71 angeschlossen. Eine Tastatur 77 und eine Maus 78 zum Annehmen eines Operationsbefehls bzw. einer Operationsanweisung von dem Anwender des Klientencomputers 71, ein CD-ROM-Laufwerk 79 und ein FD-Laufwerk 80 zum Lesen von Bilddaten und ein Modem 81 zum Bilden einer Verbindung zu dem Netzwerk sind an die System-I/O-Steuerung 76 angeschlossen.
  • Eine externe I/O-Steuerung 88 ist an den Klientencomputer 71 angeschlossen. Ein Flachbettscanner 91, ein Filmscanner 92, eine digitale Standbildkammer 93 und ein HD-Laufwerk 94 sind an die externe I/O-Steuerung 88 angeschlossen. Ein Programm zum Steuern des Klientencomputers 71 ist in einer HD (einer Festplatte, nicht gezeigt) gespeichert, zu und von welcher Daten (einschließlich Programmen) durch das HD-Laufwerk 94 gelesen und geschrieben werden. (Das Programm wird von dem CD-ROM in den Klientencomputer 71 installiert und in der HD gespeichert. Ein CD-ROM, der das Programm speichert, wird in das CD-ROM-Laufwerk 79 geladen und das Programm wird durch das CD-ROM-Laufwerk 79 gelesen.) Das in der HD ge speicherte Programm wird ausgelesen, so dass eine vorbestimmte Verarbeitung, die später beschrieben wird, durch den Klientencomputer 71 durchgeführt wird.
  • Ein Drucker 90 zum Drucken eines Bildes und eine Druckersteuerschaltung 89 zum Steuern des Druckers 90 sind weiterhin an den Klientencomputer 71 angeschlossen.
  • Der Anwender legt das Anwenderbild unter Verwendung des Klientencomputers 71 in das Schablonenbild ein.
  • 22 ist ein Blockdiagramm, das die elektrische Konfiguration des Bildsynthesizers 100 zeigt. Ein Hochqualitäts-Farbdrucker 90A ist vorgesehen und an den Bildsynthesizer 100 angeschlossen. In 22 sind dieselben Bezugszeichen denselben Komponenten wie denjenigen zugeordnet, die in 21 gezeigt sind, und somit wird ihre Beschreibung nicht wiederholt.
  • Ein Programm zum Steuern des Bildsynthesizers 100 wird ebenso in den Bildsynthesizer 100 von den CD-ROM installiert und in einer HD gespeichert. Ein CD-ROM, der das Programm speichert, wird in ein CD-ROM-Laufwerk 79 geladen, und das Programm wird durch das CD-ROM-Laufwerk 79 gelesen.
  • Ein Hochgeschwindigkeits-Filmscanner 95 ist an eine externe I/O-Steuerung 88 angeschlossen, die im Bildsynthesizer 100 enthalten ist. Verschiedene Bilddateien und Halter sind in der HD gespeichert, zu und von welcher Daten durch das an die externe I/O-Steuerung 88 angeschlossene HD-Laufwerk 94 geschrieben und gelesen werden.
  • Bei dieser Anordnung hat der Anwender des Klientencomputers 71 ein Anwenderbild. Beispiele des Anwenderbildes sind in visuelles Bild, wie beispielsweise eine Fotografie, ein Film usw., und Bilder, die durch Bilddaten dargestellt sind, die auf einer Speicherkarte, einer Floppydisk (FD), einer Compact Disk (CD) und ähnlichem aufgezeichnet sind. In einem Fall, in welchem das Anwenderbild die Fotografie ist, wird die Fotografie durch den Flachbettscanner 91 gelesen, um Bilddaten zu erhalten, die das Anwenderbild darstellen. In einem Fall, in welchem das Anwenderbild der Film ist, wird der Film durch den Filmscanner 92 gelesen, so dass Bilddaten des Anwenderbildes erzeugt werden. In einem Fall, in welchem das Anwenderbild durch die Bilddaten dargestellt ist, die in der Speicherkarte aufgezeichnet sind, werden die Bilddaten aus der Speicherkarte durch die digitale Standbildkamera 93 gelesen. In einem Fall, in welchem das Anwenderbild durch die Bilddaten dargestellt ist, die auf der FD aufgezeichnet worden sind, werden die Bilddaten, die das Anwenderbild darstellen, durch das FD-Laufwerk 80 aus der FD gelesen. In einem Fall, in welchem die Anwenderbilddaten auf dem CD-ROM aufgezeichnet sind, werden die Bilddaten durch das CD-ROM-Laufwerk 79 aus dem CD-ROM gelesen.
  • 23 ist eine perspektivische Ansicht, die zeigt, wie ein zusammengesetztes Bild erzeugt wird.
  • Ein Schablonenbild ist ein Bild, das den Hintergrund des Anwenderbildes darstellt. Eine Position, bei welcher das Anwenderbild einzulegen ist, auf dem Schablonenbild wird durch ein Maskenbild definiert. Ein Fenster Aw zum Definieren der Position, bei welcher das Anwenderbild einzulegen ist, auf dem Schablonenbild wird in dem Maskenbild bestimmt. Das Maskenbild wird zusammen mit dem entsprechenden Schablonenbild als Maskeninformation in derselben Datei gespeichert, so dass das Schablonenbild und das Maskenbild zueinander korreliert sind.
  • Das Schablonenbild und das Maskenbild können in dem Klientencomputer 71 durch den Anwender erzeugt werden oder können von einem anderen Computer erhalten werden, in welchem das Schablonenbild und das Maskenbild erzeugt werden. In jedem Fall werden Schablonenbilddaten, die das Schablonenbild darstellen, und Maskenbilddaten, die das Maskenbild darstellen, auf der HD aufgezeichnet.
  • Die Bildsyntheseverarbeitung wird wie folgt durchgeführt.
  • Im Maskenbild sind alle Pixel innerhalb des Fensters Aw durch die Daten "1" dargestellt und sind alle Pixel innerhalb des anderen Bereichs (des Maskierungsbereichs, der in 23 gestrichelt ist), der ein anderer als das Fenster Aw ist, durch die Daten "0" dargestellt. Eine UND-Logikverknüpfung zwischen den Anwenderbilddaten und den Maskenbilddaten wird betätigt, um den Teil des Anwenderbildes zu extrahieren, der genau dem Fenster Aw entspricht. Eine NAND-Logikoperation zwischen den Maskenbilddaten und den Schablonenbilddaten resultiert in dem Schablonenbild mit einem Leerbereich, der genau dem Fenster Aw entspricht. Das zusammengesetzte Bild wird durch eine ODER-Logikverknüpfung zwischen dem Teil-Anwenderbild ent sprechend dem Fenster Aw und dem Schablonenbild, dem die Daten entsprechend dem Fenster Aw fehlen, erhalten.
  • 24 stellt das Format der Schablonenbilddatei dar.
  • Die Schablonenbilddatei speichert einen Anfangsblock, der anzeigt, dass diese Datei eine Schablonenbilddatei ist, Schablonenbilddaten, die das Schablonenbild darstellen, und Maskeninformation, die das Fenster Aw im Maskenbild entsprechend dem Schablonenbild definiert. Die Maskeninformation kann durch verschiedene Anordnungen realisiert werden. Die Maskeninformation kann die Bilddaten des Maskenbildes sein, kann die Bilddaten sein, die nur das Fenster Aw darstellen, und kann eine Gruppe von Codes sein, die eine Form des Fensters darstellen, und Merkmalspunkte, die die Größe und die Position der Form definieren (z. B. Koordinate eines Zentrums eines Kreises, Koordinaten von zwei Scheitelpunkten eines Rechtecks). Wenn die Schablonenbilddaten gelesen werden, wird auch die Maskeninformation entsprechend den Schablonenbilddaten gelesen.
  • 25 stellt das Format der Datei für ein zusammengesetztes Bild dar, die im Klientencomputer 71 erzeugt wird. Die Datei für ein zusammengesetztes Bild speichert einen Anfangsblock, der anzeigt, dass die Datei selbst eine Datei für ein zusammengesetztes Bild ist, zusammengesetzte Bilddaten, die bei der Bildsyntheseverarbeitung erhalten werden, und Maskeninformation, die dann verwendet wird, wenn das zusammengesetzte Bild gebildet wird. Wenn die zusammengesetzten Bilddaten aus der Datei für ein zusammengesetztes Bild gelesen werden, wird auch die Maskeninformation entsprechend den zusammengesetzten Bilddaten gelesen.
  • 26 stellt schematisch die Prozedur für eine Bildsyntheseverarbeitung im Bildsynthesesystem dar, und 27 ist ein Ablaufdiagramm, das die Prozedur für die Bildsyntheseverarbeitung zeigt.
  • Im Bezug auf hauptsächlich diese Figuren wird eine Verarbeitung beschrieben, die dann durchgeführt wird, wenn Bilder in dem Bildsynthesesystem synthetisiert, getrennt und erneut synthetisiert werden.
  • Im Klientencomputer 71 werden die Schablonenbilddaten und die Maskeninformation erzeugt. Die erzeugten Schablonenbilddaten und die Maskeninformation werden auf der HD des Klientencomputers 71 aufgezeichnet (Schritt 121). Wenn die Schablonenbilddaten und die Maskeninformation bereits auf der HD aufgezeichnet worden sind, wird eine Verarbeitung beim Schritt 121 übersprungen.
  • Die Anwenderbilddaten, die das Anwenderbild darstellen, werden durch das FD-Laufwerk 80 oder das CD-ROM-Laufwerk 79 gelesen, oder die Anwenderbilddaten werden auf ein Lesen der Fotografie oder des Films hin erzeugt und werden temporär in einem RAM 74 gespeichert. Die Schablonenbilddaten und die Maskeninformation werden aus der HD gelesen und werden temporär im RAM 74 gespeichert. In einem vorbestimmten Speicherbereich im RAM 74 wird das Anwenderbild, das durch die Anwenderbilddaten oder einen Teil davon dargestellt wird, in das Fenster Aw des Schablonenbildes eingelegt, das durch die Schablonenbilddaten dargestellt wird, und zwar unter Bezugnahme auf die Maskeninformation unter der Steuerung einer Speichersteuerung 85. Darauf folgend wird ein zusammengesetztes Bild erzeugt (Schritt 122). Zusammengesetzte Bilddaten, die das zusammengesetzte Bild darstellen, werden zum VRAM 82 zugeführt. Die zusammengesetzten Bilddaten werden aus dem VRAM 82 gelesen und werden über den DA-Wandler 83 zur Anzeigevorrichtung 84 eingegeben, um das zusammengesetzte Bild anzuzeigen.
  • Wenn das zusammengesetzte Bild, welches der Anwender erwünscht, erhalten wird, werden zusammengesetzte Bilddaten, die das zusammengesetzte Bild darstellen, und Maskeninformation, die mit den zusammengesetzten Bilddaten korreliert ist, durch ein Modem 81 zum Bildsynthesizer 100 vom Klientencomputer 71 über das Netzwerk übertragen (Schritt 123).
  • Im Bildsynthesizer 100 werden die vom Klientencomputer 71 übertragenen zusammengesetzten Bilddaten und die mit den zusammengesetzten Bilddaten korrelierte Maskeninformation über das Modem 81 empfangen (Schritt 131). Die zusammengesetzten Bilddaten und die Maskeninformation, die empfangen worden sind, werden temporär im RAM 74 im Bildsynthesizer 100 gespeichert.
  • Im Bildsynthesizer 100 werden das Schablonenbild und das Anwenderbild vom zusammengesetzten Bild durch Bezugnahme auf die Maskeninformation getrennt (Schritt 132). Diese Trennungsverarbeitung kann durch eine Verarbeitung durchgeführt werden, die umgekehrt zu der Verarbeitung ist, bei welcher das zusammengesetzte Bild unter Verwendung des Anwenderbildes, des Schablonenbildes und der Maskeninformation erzeugt wird. Bei dem RAM werden die Schablonenbilddaten, die das Schablonenbild darstellen, und die Anwenderbilddaten, die das Anwenderbild darstellen, in getrennten Bereichen gespeichert.
  • Das Anwenderbild und das Schablonenbild werden von dem zusammengesetzten Bild extrahiert und werden voneinander getrennt, und zwar beispielsweise auf die folgende Weise. Eine ODER-Logikoperation zwischen dem zusammengesetzten Bild und dem Maskenbild erzeugt das Schablonenbild mit dem leeren Teil entsprechend dem Fenster Aw. Die UND-Logikoperation erzeugt das Anwenderbild, das in das Fenster Aw eingelegt worden ist.
  • Die Schablonenbilddaten, die das Schablonenbild darstellen, das vom Anwenderbild getrennt worden ist, werden einer Farbkorrektur (Farbumwandlung) unterzogen, die durch eine CPU 72 durchgeführt wird, wie es erforderlich ist. Die Anwenderbilddaten, die das Anwenderbild darstellen, das vom Schablonenbild getrennt worden ist, wird einer Farbkorrektur (Farbumwandlung) durch die CPU 72 unterzogen, wie es erforderlich ist (Schritt 133). Normalerweise ist die an den Schablonenbilddaten durchgeführte Farbkorrektur (Farbumwandlung) unterschiedlich von derjenigen am Anwenderbild.
  • Es soll ein Fall betrachtet werden, bei welchem eine (durchschnittliche) Helligkeit des Schablonenbildes und eine (durchschnittliche) Helligkeit des Anwenderbildes unterschiedlich voneinander sind. Wenn das Anwenderbild und das Schablonenbild, die bezüglich einer Helligkeit unterschiedlich sind, synthetisiert werden, ergibt das erzeugte zusammengesetzte Bild ein irgendwie seltsames Gefühl. Somit werden das Schablonenbild und das Anwenderbild vom zusammengesetzten Bild im Bildsynthesizer 100 getrennt, und die getrennten Bilder, nämlich das Schablonenbild und das Anwenderbild, werden einzeln einer Helligkeitskorrektur unterzogen, und zwar in Abhängigkeit von der Helligkeit von jedem Bild, so dass die Helligkeiten in beiden Bildern als Gesamtes miteinander harmonisieren. Das korrigierte Schablonenbild und das korrigierte Anwenderbild werden dann erneut synthetisiert. Das durch die erneute Synthese erhaltene zusammengesetzte Bild zeigt ein ausgeglichenes Aussehen und ergibt ein gutes Gefühl.
  • Weiterhin kann die Farbkorrektur oder -umwandlung basierend auf dem Wunsch eines Anwenders bewirkt werden. Beispielsweise wird das Schablonenbild in ein mo nochromes Bild umgewandelt und wird das Anwenderbild korrigiert, um eine Sepiafarbe als eine Gesamtheit zu zeigen. Natürlich sind nicht notwendigerweise beide des Schablonenbildes und des Anwenderbildes einer Farbumwandlung zu unterziehen, sondern wenigstens eines der Bilder kann einer Farbumwandlung unterzogen werden.
  • Ein zusammengesetztes Bild wird wieder aus den Schablonenbilddaten, die das Schablonenbild darstellen, und den Anwenderbilddaten, die das Anwenderbild darstellen, von welchen wenigstens eines der Farbkorrektur unterzogen worden ist, unter Verwendung der entsprechenden Maskeninformation erzeugt (Schritt 134).
  • Zusammengesetzte Bilddaten, die das durch die erneute Synthese erhaltene zusammengesetzte Bild darstellen, werden temporär im VRAM 82 gespeichert. Die zusammengesetzten Bilddaten werden aus den VRAM 82 ausgelesen und werden über den DA-Wandler 83 zur Anzeigevorrichtung 84 zugeführt. Das zusammengesetzte Bild wird auf der Anzeigevorrichtung 84 angezeigt und wird durch einen Bediener des Bildsynthesizers 100 bestätigt.
  • Wenn das zusammengesetzte Bild durch den Bediener bestätigt wird, werden die zusammengesetzten Bilddaten zum Farbdrucker 90A zugeführt, der das zusammengesetzte Bild unter einer Steuerung der Druckersteuerschaltung 89 druckt (Schritt 135).
  • Es gibt einen Fall, in welchem die Schablonenbilddaten vom Bildsynthesizer 100 zum Klientencomputer 71 herunter geladen werden und das zusammengesetzte Bild unter Verwendung der Schablonenbilddaten im Klientencomputer erzeugt wird. Die Schablonenbilddaten sind bereits einer Farbkorrektur in Abhängigkeit von den Charakteristiken des Farbdruckers 90A im Bildsynthesizer 100 unterzogen worden. Das Anwenderbild, das zum Erzeugen des zusammengesetzten Bildes verwendet wird, muss nicht einer Farbkorrektur unterzogen worden sein, um für den Farbdrucker 90A geeignet zu sein. In einem solchen Fall kann dann, wenn das Anwenderbild vom zusammengesetzten Bild getrennt ist, das getrennte Anwenderbild einer Farbkorrektur gemäß den Charakteristiken des Farbdruckers 90A unterzogen werden. Das durch die erneute Syntheseverarbeitung unter Verwendung des farbkorrigierten Anwenderbildes erhaltene zusammengesetzte Bild hat eine geeignete Farbe als eine Gesamtheit.
  • Obwohl bei der oben angegebenen Anordnung der Klientencomputer 71 und der Bildsynthesizer 100 Daten zueinander über das Netzwerk kommunizieren können, muss die Datenkommunikation nicht notwendigerweise möglich gemacht werden. Beispielsweise kann ein zusammengesetztes Bild im Klientencomputer 71 erzeugt werden, und Daten, die das erzeugte zusammengesetzte Bild darstellen, und die Maskeninformation können in einen tragbaren Speichermedium, wie beispielsweise einer FD, gespeichert werden und durch Anbringen des tragbaren Speichermediums am Bildsynthesizer 100 gelesen werden.
  • Obwohl die vorliegende Erfindung detailliert beschrieben und dargestellt worden ist, wird es klar verstanden, dass dieselbe nur illustrativ und beispielhaft gezeigt ist und keineswegs als Beschränkung angenommen werden soll, wobei der Schutzumfang der vorliegenden Erfindung nur durch die Ausdrücke der beigefügten Ansprüche beschränkt ist.

Claims (15)

  1. Bildverarbeitungsvorrichtung, die folgendes aufweist: eine Bildbereichs-Bestimmungsvorrichtung zum Ermöglichen, dass ein Anwender einen Bildbereich (A1) bestimmt, der von einem auf einem Anzeigeschirm angezeigten Bild zu extrahieren ist; eine Farbänderungseinrichtung (4) zum Ändern der Farbe desjenigen Bereichs des ursprünglichen Bildes, der nicht zur Extraktion bestimmt worden ist, wobei für die bestimmte Farbe eine Farbe ausgewählt wird, die im Wesentlichen nicht im bestimmten Bildbereich vorhanden ist; und eine Speichersteuereinrichtung (1) zum Abtasten des Bildes und zum Speichern von Pixeldaten von denjenigen Pixeln, deren Farbe nicht die bestimmte Farbe ist, wobei die gespeicherten Pixeldaten Koordinatendaten, die Positionen der Pixel im angezeigten ursprünglichen Bild darstellen, und Farbdaten enthalten.
  2. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei die Speichersteuereinrichtung (1) in einem Speichermedium Paare der Pixeldaten, die als Bilddaten der Pixel dienen, die das extrahierte Bild bilden, und der Koordinatendaten, die Positionen der Pixel darstellen, speichert.
  3. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei die Speichersteuereinrichtung (1) die Pixeldaten und die Koordinatendaten auf ein Anordnen von ihnen für jedes Pixel hin speichert.
  4. Bildverarbeitungsvorrichtung nach Anspruch 1, die weiterhin folgendes aufweist: eine Pixeldaten-Kompressionseinrichtung zum Komprimieren der Pixeldaten, und eine Koordinatendaten-Kompressionseinrichtung zum Komprimieren der Koordinatendaten, wobei die Speichersteuereinrichtung die Pixeldaten, die durch die Pixeldaten-Kompressionseinrichtung komprimiert sind, und die Koordinatendaten, die durch die Koordinatendaten-Kompressionseinrichtung komprimiert sind, speichert.
  5. Bildverarbeitungsvorrichtung nach Anspruch 1, die weiterhin folgendes aufweist: eine Bestimmungsvorrichtung (13) zum Bestimmen auf einem auf einem Anzeigeschirm angezeigten Bild, basierend auf Bilddaten, die Pixeldaten aufweisen, die Pixel darstellen, und auf Koordinatendaten, die die Positionen der Pixel darstellen, eines zu bewegenden Teilbildes; eine Bewegungswert-Eingabevorrichtung (13) zum Eingeben der Richtung einer Bewegung und des Ausmaßes einer Bewegung des Teilbildes; eine Bewegungsausmaß-Addiereinrichtung zum Addieren der Koordinatenvariation entsprechend dem Ausmaß einer Bewegung in der Richtung einer Bewegung, die durch die Bewegungswert-Eingabevorrichtung eingegeben sind, zu den Koordinatendaten der Pixel, die das durch die Bestimmungsvorrichtung bestimmte Teilbild bilden; und wobei die Speichersteuereinrichtung die durch die Bewegungsausmaß-Addiereinrichtung erhaltenen neuen Koordinatendaten und die diesen entsprechenden Pixeldaten in Korrelation zueinander speichert, sowie die Koordinatendaten und die Pixeldaten, die das Bild darstellen, das ein anderes als das Teilbild ist.
  6. Bildverarbeitungsvorrichtung nach Anspruch 1, die weiterhin folgendes aufweist: eine Datenleseeinrichtung zum Lesen aus einem Speichermedium, das die Bilddaten speichert, die eine Gruppe von Paaren von Pixeldaten, die Pixel darstellen, und von Koordinatendaten, die die Positionen der Pixel auf dem Bild darstellen, aufweisen, der Pixeldaten und der Koordinatendaten; und eine Anzeigesteuereinrichtung zum Steuern einer Anzeigevorrichtung (10), so dass das Bild durch Anzeigen der Pixel, die durch die durch die Datenleseeinrichtung gelesenen Pixeldaten dargestellt sind, bei den Positionen, die durch die Koordinatendaten dargestellt sind, angezeigt wird.
  7. Bildverarbeitungsvorrichtung nach Anspruch 4, die weiterhin folgendes aufweist: eine Datenleseeinrichtung zum Lesen aus dem Speichermedium, das darauf die komprimierten Pixeldaten und die komprimierten Koordinatendaten speichert, der komprimierten Pixeldaten und der komprimierten Koordinatendaten; eine Pixeldaten-Expansionseinrichtung zum Expandieren der durch die Datenleseeinrichtung gelesenen komprimierten Pixeldaten; eine Koordinatendaten-Expansionseinrichtung zum Expandieren der durch die Datenleseeinrichtung gelesenen komprimierten Koordinatendaten; und eine Anzeigesteuereinrichtung zum Steuern einer Anzeigevorrichtung (10), so dass das Bild durch Anzeigen der Pixel, die durch die durch die Pixeldaten-Expansionseinrichtung expandierten Pixeldaten dargestellt sind, bei den Positionen, die durch die durch die Koordinatendaten-Expansionseinrichtung expandierten Koordinatendaten dargestellt sind, angezeigt wird.
  8. Bildverarbeitungsverfahren, das die folgenden Schritte aufweist: Bestimmen eine Bildbereichs (A1), der aus einem auf einem Anzeigeschirm angezeigten ursprünglichen Bild zu extrahieren ist; Ändern der Farbe von dem Bereich des ursprünglichen Bildes, der nicht zur Extraktion bestimmt worden ist, in eine bestimmte Farbe; Auswählen als die bestimmte Farbe einer Farbe, die im Wesentlichen nicht in dem bestimmten Bildbereich vohanden ist; und Speichern von Pixeldaten von denjenigen Pixeln, deren Farbe nicht die bestimmte Farbe ist, wobei die gespeicherten Pixeldaten Koordinatendaten, die Positionen der Pixel im angezeigten ursprünglichen Bild enthalten, und Farbdaten enthalten.
  9. Bildverarbeitungsverfahren nach Anspruch 8, das weiterhin die folgenden Schritte aufweist: Bestimmen auf einem Bild, das auf einem Anzeigeschirm angezeigt wird, basierend auf Bilddaten, die Pixeldaten, die Pixel darstellen, und Koordinatendaten, die die Positionen der Pixel darstellen, aufweisen, eines zu bewegenden Teilbildes; Eingeben der Richtung einer Bewegung und des Ausmaßes einer Bewegung des Teilbildes; Addieren der Koordinatenvariation entsprechend dem eingegebenen Ausmaß einer Bewegung in der eingegebenen Richtung einer Bewegung zu den Koordinatendaten der Pixel, die das bestimmte Teilbild bilden; und Speichern der durch die Addition erhaltenen neuen Koordinatendaten und der diesen entsprechenden Pixeldaten in Korrelation zueinander, sowie der Koordinatendaten und der Pixeldaten, die das Bild darstellen, das ein anderes als das Teilbild ist.
  10. Bildverarbeitungsverfahren nach Anspruch 8, das weiterhin die folgenden Schritte aufweist: Lesen aus einem Speichermedium, das die Bilddaten speichert, die eine Gruppe von Paaren von Pixeldaten, die Pixel darstellen, und von Koordinatendaten, die die Position der Pixel auf dem Bild darstellen, aufweisen, der Pixeldaten und der Koordinatendaten; und Steuern einer Anzeigevorrichtung (10), so dass das Bild durch Anzeigen der Pixel, die durch die gelesenen Pixeldaten dargestellt werden, bei den Positionen, die durch die entsprechenden gelesenen Koordinatendaten dargestellt werden, angezeigt wird.
  11. Bildverarbeitungsverfahren nach Anspruch 8, das weiterhin die folgenden Schritte aufweist: Komprimieren der Pixeldaten; Komprimieren der Koordinatendaten; Speichern der komprimierten Pixeldaten und der komprimierten Koordinatendaten; Lesen aus einem Speichermedium, das darauf die komprimierten Pixeldaten und die komprimierten Koordinatendaten speichert, der komprimierten Pixeldaten und der komprimierten Koordinatendaten; Expandieren der gelesenen komprimierten Pixeldaten; Expandieren der gelesenen komprimierten Koordinatendaten; und Steuern einer Anzeigevorrichtung, so dass das Bild durch Anzeigen der Pixel, die durch die expandierten Pixeldaten dargestellt werden, bei den Positionen, die durch die expandierten Koordinatendaten dargestellt werden, angezeigt wird.
  12. Speichermedium, das darauf ein Programm zum Steuern eines Computers speichert, so dass das Programm veranlasst, dass der Computer: einen bestimmten Bildbereich (A1), der von einem auf einem Anzeigeschirm angezeigten ursprünglichen Bild zu extrahieren ist, annimmt, Bilddaten, die ein Bild von dem Bereich des ursprünglichen Bildes darstellen, der nicht zur Extraktion bestimmt worden ist, durch Bilddaten ersetzt, die eine spezifizierte Farbe bei den Bilddaten des ursprünglichen Bildes darstellen, wobei für die spezifizierte Farbe eine Farbe ausgewählt wird, die im Wesentlichen nicht im bestimmten Bildbereich vorhanden ist, Pixeldaten aus den Bilddaten für diejenigen Pixel erzeugt, deren Farbe nicht die spezifizierte Farbe ist, und die erzeugten Pixeldaten auf einem Speichermedium speichert, wobei die gespeicherten Pixeldaten Koordinatendaten, die Positionen der Pixel im angezeigten ursprünglichen Bild darstellen, und Farbdaten enthalten.
  13. Speichermedium nach Anspruch 12, das weiterhin darauf ein Programm zum Steuern eines Computers speichert, so dass das Programm veranlasst, dass der Computer einen Bereich eines Teilbildes, das auf einem auf einem Anzeigeschirm angezeigten Bild bestimmt wird, basierend auf Bilddaten, die Pixeldaten aufweisen, die Pixel darstellen, und Koordinatendaten, die die Positionen der Pixel darstellen, annimmt, die Richtung einer Bewegung und das Ausmaß einer Bewegung des Teilbildes annimmt, neue Koordinaten durch Addieren der Koordinatenvariation entsprechend dem angenommenen Ausmaß einer Bewegung in der angenommenen Richtung einer Bewegung zu den Koordinatendaten der Pixel berechnet, die das Teilbild des angenommenen Bereichs bilden, und die durch die Berechnung erhaltenen neuen Koordinatendaten und die diesen entsprechenden Pixeldaten in Korrelation zueinander speichert, sowie die Koordinatendaten und die Pixeldaten, die das Bild darstellen, das ein anderes als das Teilbild ist.
  14. Bildverarbeitungsvorrichtung nach Anspruch 1, die weiterhin folgendes aufweist: ein Datenspeichermedium, das darauf Paare von Pixeldaten und Koordinatendaten, die Pixel darstellen, die ein Bild bilden, in der durch die Koordinatendaten dargestellten Reihenfolge speichert.
  15. Bildverarbeitungsvorrichtung nach Anspruch 1, die weiterhin folgendes aufweist: ein Datenspeichermedium, das darauf komprimierte Pixeldaten und komprimierte Koordinatendaten speichert, die durch jeweiliges Komprimieren einer Gruppe von Pixeldaten und einer Gruppe von Koordinatendaten erhalten werden, so dass die Pixeldaten und die Koordinatendaten, die Pixel darstellen, die ein Bild bilden, für Pixeldaten und für Koordinatendaten in der durch die Koordinatendaten dargestellten Reihenfolge angeordnet sind.
DE69825851T 1997-12-18 1998-12-18 Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren Expired - Lifetime DE69825851T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP36392897 1997-12-18
JP36392997 1997-12-18
JP36392897 1997-12-18
JP36392997 1997-12-18

Publications (2)

Publication Number Publication Date
DE69825851D1 DE69825851D1 (de) 2004-09-30
DE69825851T2 true DE69825851T2 (de) 2005-02-03

Family

ID=26581528

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69825851T Expired - Lifetime DE69825851T2 (de) 1997-12-18 1998-12-18 Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren

Country Status (6)

Country Link
US (2) US6577760B1 (de)
EP (1) EP0924648B1 (de)
CN (3) CN100338630C (de)
AU (1) AU720015B2 (de)
CA (1) CA2256992C (de)
DE (1) DE69825851T2 (de)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2803419B1 (fr) * 1999-12-31 2003-05-16 Vision Ere Procede de colorisation d'une image ou d'une matrice d'images sur un ecran connecte a un systeme inter-reseaux
US7136528B2 (en) * 2000-02-11 2006-11-14 Sony Corporation System and method for editing digital images
US7262778B1 (en) 2000-02-11 2007-08-28 Sony Corporation Automatic color adjustment of a template design
US6879728B1 (en) * 2000-02-11 2005-04-12 Sony Corporation Multiple image harmonization system
US7548266B1 (en) * 2000-04-06 2009-06-16 Mikel A Lehrman Methods and apparatus for providing portable photographic images
JP4156322B2 (ja) * 2002-09-27 2008-09-24 富士フイルム株式会社 画像処理方法および装置並びにプログラム
JP2004165863A (ja) * 2002-11-12 2004-06-10 Murata Mach Ltd カラー画像送信装置
GB2404804B (en) * 2003-08-07 2007-12-05 Hewlett Packard Development Co Method and apparatus for capturing images of a document with interaction
JP4033076B2 (ja) * 2003-08-11 2008-01-16 セイコーエプソン株式会社 画像の出力形態に応じた画像処理
EP1667470A4 (de) * 2003-09-09 2006-10-25 Seiko Epson Corp Bildverarbeitungseinrichtung und bildverarbeitungsverfahren
JP4175234B2 (ja) * 2003-10-07 2008-11-05 セイコーエプソン株式会社 表示制御装置、携帯型情報端末及び表示制御方法
JP4013927B2 (ja) * 2003-11-06 2007-11-28 セイコーエプソン株式会社 版画作品生成装置及びそのプログラム
EP2442576A3 (de) * 2004-04-26 2013-08-21 Olympus Corporation Erzeugung, Bearbeitung und Aktualisierung von Daten einer stereoskopischen Bilddatei, Erzeugung einer stereoskopischen Bilddatei und Datenwiedergabe davon
JP2008544604A (ja) 2005-06-08 2008-12-04 トムソン ライセンシング 代替画像/映像挿入方法、装置及びシステム
JP4850484B2 (ja) * 2005-10-31 2012-01-11 キヤノン株式会社 画像形成装置及びその制御方法、プログラム
US20070121146A1 (en) * 2005-11-28 2007-05-31 Steve Nesbit Image processing system
JP4809057B2 (ja) * 2005-12-28 2011-11-02 富士通株式会社 画像処理システム、画像処理方法、画像処理プログラム、画像処理装置及び通信端末装置
CN101068314A (zh) * 2006-09-29 2007-11-07 腾讯科技(深圳)有限公司 一种网络视频秀方法及系统
JP4965996B2 (ja) * 2006-12-22 2012-07-04 キヤノン株式会社 画像処理装置、画像処理方法、画像処理プログラム並びに記憶媒体
US8081343B2 (en) * 2006-12-28 2011-12-20 Fuji Xerox Co., Ltd. Image forming system and computer readable medium storing image forming program
CN101072289B (zh) * 2007-06-11 2010-06-02 北京中星微电子有限公司 一种图像特效的自动生成方法及装置
JP4604100B2 (ja) * 2008-03-21 2010-12-22 シャープ株式会社 画像処理方法、画像処理装置、画像形成装置、プログラムおよび記憶媒体
EP2284800B1 (de) * 2009-07-23 2018-09-05 Samsung Electronics Co., Ltd. Verfahren und System zum Erzeugen eines Bildes
US9239850B2 (en) * 2011-11-18 2016-01-19 Nec Corporation Feature descriptor encoding apparatus, feature descriptor encoding method, and program
KR102305909B1 (ko) * 2015-02-24 2021-09-28 삼성전자주식회사 이미지 처리 방법과 이를 지원하는 전자 장치
CN107093199A (zh) * 2017-03-29 2017-08-25 阿里巴巴集团控股有限公司 用于生成线索图的方法及装置
CN110626077B (zh) * 2019-10-25 2020-09-01 成都知识视觉科技有限公司 针打打印机打印自动对准系统
CN111079045B (zh) * 2019-11-07 2021-07-02 广东伊莱特电器有限公司 一种定制化页面的全屏显示方法及储存介质、系统
CN114693691B (zh) * 2022-03-23 2023-05-02 成都智元汇信息技术股份有限公司 一种双源双视角基于坐标映射的切图方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2832008B2 (ja) * 1988-07-29 1998-12-02 キヤノン株式会社 画像処理システム
US5098302A (en) * 1989-12-07 1992-03-24 Yoshi Sekiguchi Process and display with movable images
AU655343B2 (en) 1991-12-18 1994-12-15 Pfu Limited Figure coloring system in a graphic display system
AUPM768794A0 (en) * 1994-08-25 1994-09-15 Wright Technologies Pty Ltd Data representation and access method
US5568167A (en) * 1994-09-23 1996-10-22 C-Cube Microsystems, Inc. System for providing antialiased video overlays
JPH08262539A (ja) * 1995-03-20 1996-10-11 Hidenao Kitagawa 肖像写真合成装置
US5608542A (en) 1995-03-31 1997-03-04 Eastman Kodak Company Formatted digital index print system and method
JPH11507797A (ja) * 1995-06-16 1999-07-06 プリンストン ビデオ イメージ,インコーポレイテッド 合成基準画像を用いる適応形オクルージョンを用いた映像内へのリアルタイム挿入システムおよび方法
JP3461626B2 (ja) 1995-07-28 2003-10-27 シャープ株式会社 特定画像領域抽出方法及び特定画像領域抽出装置
US5587740A (en) 1995-08-17 1996-12-24 Brennan; James M. Digital photo kiosk
US5574511A (en) * 1995-10-18 1996-11-12 Polaroid Corporation Background replacement for an image
JPH09152879A (ja) 1995-11-30 1997-06-10 Sanyo Electric Co Ltd カラオケ装置
JPH09269999A (ja) 1996-01-31 1997-10-14 Fuji Photo Film Co Ltd 画像合成装置および方法
JPH09212139A (ja) * 1996-02-02 1997-08-15 Sony Corp 画像表示システム
AUPO053596A0 (en) * 1996-06-18 1996-07-11 University Of Technology, Sydney Image processing system
US6075542A (en) * 1996-07-29 2000-06-13 Eastman Kodak Company Method of combining two digital images
US5867140A (en) * 1996-11-27 1999-02-02 Motorola, Inc. Display system and circuit therefor

Also Published As

Publication number Publication date
CN1495672A (zh) 2004-05-12
CN1229223A (zh) 1999-09-22
CA2256992C (en) 2006-11-14
CN100338630C (zh) 2007-09-19
CN100511279C (zh) 2009-07-08
US7301666B2 (en) 2007-11-27
EP0924648A2 (de) 1999-06-23
AU720015B2 (en) 2000-05-18
CA2256992A1 (en) 1999-06-18
US20030123073A1 (en) 2003-07-03
EP0924648A3 (de) 2003-01-15
US6577760B1 (en) 2003-06-10
EP0924648B1 (de) 2004-08-25
DE69825851D1 (de) 2004-09-30
CN1136518C (zh) 2004-01-28
AU9721198A (en) 1999-07-08
CN1495671A (zh) 2004-05-12

Similar Documents

Publication Publication Date Title
DE69825851T2 (de) Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren
DE60022610T2 (de) Verfahren zur Animationskodierung in einer Bilddatei
DE69933404T2 (de) System und Verfahren zum gemeinsamen Benutzen von Fonts und Speichermedium für das Programm zum Ausführen des Verfahrens
DE60016032T2 (de) Videoschnittarbeitsflussverfahren und -system
DE69434370T2 (de) Strukturiertes Bildformat zur Beschreibung eines Komplexfarbrasterbilds
DE69830767T2 (de) Verfahren und Vorrichtung zum Zusammensetzen geschichteter synthetischer graphischer Filter
DE69635528T2 (de) Bildverarbeitungsgerät
DE60310331T2 (de) Verfahren, Vorrichtung, Programm und Datenträger zur Bearbeitung von Bilddaten
DE69822545T2 (de) Bildverbesserung unter Benutzung einer Flächeninterpolation
DE69720399T2 (de) Digitale Komposition eines mosaikähnlichen Bildes
DE69922705T2 (de) System zur numerischen erfassung und aufnahme von panoramabildern.
DE69826044T2 (de) Vektorkartenplanarisierung und -einfang
DE10295968T5 (de) Verbunddokumentbildkompression unter Verwendung eines Mehrfachregion-Zweischichtformats
DE4002179A1 (de) Verfahren und vorrichtung zum wiederauffinden von bilddaten
WO1996031837A1 (de) Verfahren zur generierung einer contone-map
DE10204751A1 (de) Verfahren zur Konvertierung eines Linework Datenformats in das Format einer Seitenbeschreibungssprache
DE3826158A1 (de) Dateidaten-wiedergewinnungssystem
DE69830766T2 (de) Verfahren und Vorrichtung zum Bestimmen des Anwendungsumfangs geschichteter synthetischer graphischer Filter
DE69816200T2 (de) Bildverarbeitungsgerät zur Anzeige eines Katalogs von verschiedenen Datenarten auf verschiedene Weise
DE69934385T2 (de) Bilddatenkompression für Verarbeitung zusammengesetzter Dokumente
DE602004005647T2 (de) Bildverarbeitungsverfahren und Vorrichtung zur Änderung der Bildgrösse
DE60318529T2 (de) Bildverarbeitungsgerät, Bilderzeugungsvorrichtung, Programm, und ein Computer-Speichermedium
DE69830583T2 (de) Verfahren und Vorrichtung zur Verarbeitung von Bilddaten
DE2953196C2 (de) Anordnung zum automatischen Erzeugen fotografischer Bilder
DE69833836T2 (de) Verfahren und Gerät zur massstäblichen Umformung von Bildern

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: FUJIFILM CORP., TOKIO/TOKYO, JP