DE69628695T2 - Bildprozessoren - Google Patents

Bildprozessoren

Info

Publication number
DE69628695T2
DE69628695T2 DE69628695T DE69628695T DE69628695T2 DE 69628695 T2 DE69628695 T2 DE 69628695T2 DE 69628695 T DE69628695 T DE 69628695T DE 69628695 T DE69628695 T DE 69628695T DE 69628695 T2 DE69628695 T2 DE 69628695T2
Authority
DE
Germany
Prior art keywords
image
data
display
balloon
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69628695T
Other languages
English (en)
Other versions
DE69628695D1 (de
Inventor
Jun Inoshita
Hirohisa Koyama
Kunihiro Matsubara
Tetsuichi Nakae
Kazuhisa Nakamura
Koji Toriyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP12558095A external-priority patent/JP3671258B2/ja
Priority claimed from JP7128775A external-priority patent/JPH08305532A/ja
Priority claimed from JP13615395A external-priority patent/JP3707096B2/ja
Priority claimed from JP13600995A external-priority patent/JP3675514B2/ja
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Publication of DE69628695D1 publication Critical patent/DE69628695D1/de
Application granted granted Critical
Publication of DE69628695T2 publication Critical patent/DE69628695T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

  • Die vorliegende Erfindung betrifft Bildprozessoren, die die Bilder der Gesichter von Personen und die Bilder, die Buchstaben oder Symbole anzeigen, verarbeiten.
  • In einem herkömmlichen Bildprozessor, wie z. B. einem elektronischen Notizbuch oder einem Textprozessor, wird der Inhalt einer Datei, die aus Bilddaten besteht, die einen Buchstaben oder ein Bild bezeichnen, auf dem Anzeigebildschirm editiert, oder in einem vorbestimmten Speicherbereich eines Speichers, wie z. B. einem RAM, gespeichert oder mit einem Drucker gedruckt, oder der Inhalt einer in dem Speicher gespeicherten Datei wird aufgerufen.
  • Um die Dateiverarbeitungsoperation in den herkömmlichen Prozessoren zu erleichtern, wird eine Markierung, genannt Icon, die einer bestimmten Datei entspricht, auf einem Menüanzeigeschirm angezeigt. Bei Verwendung eines solchen Verfahrens wird die Dateiverarbeitungsoperation durch Manipulieren des Abzeigeschrims ohne Eingeben des Titels einer aus Buchstaben usw. bestehenden Datei durchgeführt, sodass der Vorgang erleichert wird.
  • Wenn z. B. eine Datei aus dem Speicher aufzurufen ist, wird eines aus einer Vielzahl von Icons auf einem Menüschirm mit einem Auswahlcursor, der sich der Manipulation entsprechend in dem Anzeigeschirm bewegt, ausgewählt, eine Datei in dem Speicherbereich, die diesem Icon entspricht, wird aufgerufen und auf dem Schirm angezeigt, und das Editieren und/oder Drucken wird durchgeführt.
  • Bei dem herkömmlichen Bildprozessor kann jedoch der Zustand des Speicherbereichs nicht festgestellt werden. Das heißt, es kann nicht festgestellt werden, ob Dateien in Speicherbereichen, die den jeweiligen auf dem Menüschirm angezeigten Icons entsprechen, gespeichert sind, oder ob eine Datei in einem Speicherbereich gespeichert werden kann. Der Benutzer würde somit oftmals ein falsches Icon auswählen, wodurch der Benutzer versucht, eine Datei aus einem Speicherbereich aufzurufen, wo keine Dateien gespeichert worden sind, oder eine Datei in einem Speicherbereich zu speichern, wo keine Dateien gespeichert werden können. Jedes Mal, wenn der Benutzer eine falsche Operation ausführt, ist er/sie daher gezwungen, erneut ein Icon durch Auswählen eines Menüschirms auszuwählen, das heißt, er/sie muss eine komplizierte Operation durchführen. Durch Auswählen eines falschen Icons würde ein Verdruss dahin gehend entstehen, dass eine Datei in einem Speicherbereich gespeichert wird, wo bereits eine wichtige Datei gespeichert ist, wodurch die zu behaltende wichtige Datei gelöscht wird.
  • Auch wenn der Inhalt einer aus dem Speicher aufgerufenen Datei auf dem Anzeigeschirm bearbeitet wird, wird eine Vielzahl zu bearbeitender ltems als eine Menüanzeige auf dem Schirm angezeigt, jedes gewünschte Item wird durch die Eingabeoperation des Benutzers ausgewählt, und die von dem ausgewählten Item abhängende Verarbeitungsoperation wird durchgeführt.
  • Auch in diesem Fall wird ein Cursor, der sich gemäß der Eingabeoperation des Benutzers in dem Anzeigeschirm bewegt, angezeigt und zu einer Stelle bewegt, wo ein auszuwählendes Item angezeigt wird. Der Benutzer erkennt somit das auszuwählende Item in Abhängigkeit von der Position des Cursors und führt die nachfolgenden Operationen aus, um zu bestimmen, ob das Item ausgewählt werden soll oder nicht.
  • Wenn jedoch die jeweiligen auf dem Menüschirm angezeigten ltems eine komplizierte Struktur aufweisen, die z. B. noch eine Vielzahl von Optionen enthält, kann der Benutzer den Inhalt der jeweiligen Optionen nicht nur in Abhängigkeit von der Cursoranzeige ergreifen. Der Benutzer ist somit hinsichtlich der auszuführenden folgenden Operation verwirrt, wodurch er einen Fehler in dem Vorgang begeht. Im Fall eines Anfängers kann er/sie die folgende Operation überhaupt nicht durchführen.
  • Bildprozessoren wie elektronische Notizbücher, Textprozessoren oder Rufgeräte besitzen die Funktionen des elektronischen Erzeugens und Anzeigens eines Porträts gleich einer Abbildung, um einen Anzeigeschirm bereitzustellen, dem der Benutzer wohlwollend gesinnt sein kann.
  • Diese Prozessoren verwenden ein System, bei dem ein durch Aufnehmen des Abbildes eines wirklichen Gesichts erhaltenes Videosignal als digitale Bilddaten empfangen wird, oder ein System, bei dem Daten von verschiedenen Arten von Teilbildern, die die jeweiligen Teile eines Gesichts wie "Augen", "Nase", "Mund" oder "Umriss" beschreiben, im Voraus in einem Speicher gespeichert werden, und Daten von den Bildern der jeweiligen Teile unter Daten von solchen im Speicher gespeicherten Teilbildern ausgewählt und gelesen werden und ein Gesichtsabbild mit dem gewünschten Aussehen gebildet wird.
  • Nur durch Anzeigen eines Gesichtsbildes auf dem Anzeigeschirm hat jedoch das Bild selbst keinen Sinn. Wenn dieses Gesichtsbild benutzt wird, um den Benutzer über das Betriebsverfahren des Prozessors zu informieren oder eine Nachricht zu senden, die den Benutzer über den Inhalt einer aufgerufenen Datei informiert, kann die Nachricht dem Benutzer einen auffälligen Eindruck vermitteln. Bei der Anwendung auf ein Rufgerät ist z. B. vorgeschlagen worden, die gewünschte Nachricht des Anrufers zusätzlich zu einem als Porträt erzeugten Gesichtsbild anzuzeigen.
  • Nur durch Anzeigen des Gesichtsbildes und der Nachricht auf demselben Abzeigeschirm kann jedoch keine ausreichende Wirkung, um die Nachricht auffällig zu machen, erwartet werden.
  • Wie oben beschrieben, ist, obwohl vorgeschlagen wurde, eine Nachricht als für das Gesichtsbild notwendig anzuzeigen, herkömmlich niemals erwogen worden, eine Nachricht in Einklang mit dem angezeigten Gesichtsbild anzuzeigen.
  • Des Weiteren muss eine Nachricht, die gewöhnlich als ein Gesichtsbild begleitend angezeigt wird, abhängig von Geschlecht, Alter, Körperform, Individualität und Ausdruck der Persönlichkeit mit dem Gesichtsbild gändert werden. Zum Beispiel unterscheiden sich selbst Nachrichten mit derselben Bedeutung im Wortlaut abhängig vom Geschlecht, oder ein Gesichtsbild mit einem verärgerten Ausdruck muss eine Nachricht in einer Sprechblase einer zornigen Art ausdrücken.
  • IBM TECHNICAL DISCLOSURE BULLETIN, Vol. 36, Nr. 6B, 1. Juni 1993, Seiten 549 bis 551, 'INTERACTIVE MOUSIE FOR CHILD PC-USERS' offenbart ein animiertes Front auf- Schirm-'Mäuschen", das die Verwendung von PGs für Kinder benutzerfreundlicher macht. Mäuschen verlagert Fenster oder ändert ihre Größe durch Ziehen an den Seiten oder Ecken der Fenster. Mäuschen läuft in einem "Laufkäfig" während "Warte"-Perioden. Mäuschen ändert Farben, um zwischen DOS und OS/2 zu unterscheiden. Mäuschen benutzt Gesichtsausdrücke. Computeraktionen können das Mäuschen veranlassen, zu lächeln, die Stirn zu runzeln, zu zeigen, zu springen, zu winken und sich gar in sein Loch zurückzuziehen. Das Mäuschen kann dem Benutzer per Vornamen Erläuterungen geben, und die Erläuterungen können entweder gesprochen oder auf dem Computerschirm angezeigt werden oder beides.
  • IBM TECHNICAL DISCLOSURE BULLETIN, Vol. 32, Nr. 6B, 1. Nov. 1989, Seiten 1731174 'MAIL-WAITING ICON FOR PC-BASED OFFICE SYSTEM' offenbart eine dynamisches Icon, das in einem Icon-basierten Bürosystem verwendet werden kann, um einen-Benutzer über Art, Anzahl und Ankunft neuer Post in seinem oder ihrem elektronsichen "Briefkasten" zu informieren. Das Icon basiert auf dem Aussehen eines Hausbriefkastens mit einer "Post zugestelfr'-Fahne. Wenn der Benutzer Post erhält, werden Umschläge gezeigt. Wenn der Benutzer den Briefkasten öffnet, werden eine vergrößerte Ansicht der Tür und sein Briefstapel angezeigt, und einige Einzelheiten werden sofort sichtbar sein. Eine einzelne Zeile an Information wird für jedes weitere Item sichtbar sein, die vielleicht den Namen des Absenders, das Datum und die Zeit des Absendens enthält, und ein kurzer Betreff- oder Klassifizierungshinweis könnte angezeigt werden.
  • WO 94115276 A offenbart ein Sprechblasen-Hilfesystem, das Hilfeinformation bereitstellt, um bei der Verwendung eines objektorientierten Betriebssystems behilflich zu sein. Wenn ein Benutzer ein Objekt auf einem Anzeigeschirm zieht und das Objekt ganz nahe bei einem anderen Objekt ablegt, wird eine Hilfeanzeige mit einem Hinweis präsentiert, der auf den zugehörigen Bereich auf der Anzeige zeigt. Die Hilfeanzeige kann in einer Sprechblasenanzeige vorgelegt werden, die auf die Objekte zeigt, auf denen die Operation stattfindet. Die Sprechblasenhilfe kann automatisch eingeleitet werden, um dem Benutzer zu zeigen, was ein Kontainer zu tun vermag.
  • Goscinny und Uderzo, "Asterix and the Goths", Seiten 23 und 36 bis 38, Dargaud, 1963 ist ein gedruckter Comicstrip, der eine Serienfolge von Ereignissen bildlich darstellt. Personen und Mitteilungen werden in Sprechblasen dargestellt. Es werden Sprechblasen gezeigt, die sanft oval, verziert oder zackig und farbig sind.
  • C. Momingstar et al., "The Lessons of Lukasfilm's Habitat', in "Cyberspace: First Steps", Michael Benedikt (Ed.), 1990, MIT Press, Cambridge, beschreibt Habitat, eine virtuelle Online- Umgebung für mehrere Spieler. Habitat ist auf einem gewöhnlichen kommerziellen Online- Service aufgebaut und benutzt einen billigen Heimcomputer. Das Habitat System resultiert in einer virtuellen Welt Jeder Spieler benutzt seinen oder ihren Heimcomputer als ein Frontend, das über ein kommerzielles Paketvermittlungs-Datennetz mit einem zentralen Backend- System kommuniziert. Das Frontend übersetzt die Eingabe des Spielers in Anfragen an das Backend. Die Spieler werden durch animierte Figuren dargestellt, die "Avatars" genannt werden. Avatars sind für gewöhnlich, aber nicht ausschließlich, in ihrem Aussehen menschenähnlich. Sprechen wird durch Tippen auf der Tastatur zu Wege gebracht. Der Text, den ein Spieler tippt, wird über seinem oder ihrem Kopf des Avatars in einer cartoonartigen "Wortsprechblase" angezeigt. Die Habitat-Implementierung ist ein objektorientiertes Modell des Universums.
  • Es ist die Aufgabe der Erfindung, einen sicheren Betrieb des Bildprozessors zu ermöglichen.
  • Diese Aufgabe wird durch die Erfindung, wie in den unabhängigen Ansprüchen beansprucht, erfüllt.
  • Bevorzugte Ausführungen werden in den abhängigen Ansprüchen definiert.
  • Die vorliegende Erfindung erlaubt es, die Aufmerksamkeit des Benutzers auf eine Nachricht durch Anzeigen der Nachricht zu lenken, um weiter mit dem Gesichtsbild zu harmonieren, wenn das Gesichtsbild und die Nachricht auf dem Anzeigeschirm angezeigt werden, um dadurch die Ausdruckskraft des Gesichtsbildes weiter zu verbessern.
  • Die Erfindung ist vorteilhaft, weil sie das sichere Erkennen von Information in einem Speicherbereich eines Speichers gestattet, in dem eine auf dem Anzeigeschirm zu bearbeitende Datei gespeichert ist, und, wenn diese Bearbeitung während des Betrachtens des Menüschirms durchgeführt wird, sie in der Lage ist, die Berabeitung auch dann leicht durchzuführen, wenn die Menüstruktur kompliziert ist.
  • In einer Anordnung umfasst ein Bildprozessor:
  • eine erste Anzeigesignal-Ausgabeeinrichtung, die ein erstes Anzeigesignal ausgibt, um ein vorbestimmtes Bild anzuzeigen;
  • eine zweite Anzeigesignal-Ausgabeeinrichtung, die ein zweites Anzeigesignal ausgibt, um Information, die dem auf dem ersten Anzeigesignal basierten vorbestimmten Bild entspricht, anzuzeigen, und
  • eine dritte Anzeigesignal-Ausgabeeinrichtung, die ein drittes Anzeigesignal ausgibt, um ein hervorgehobenes Bild anzuzeigen, das die Anzeige von Information, die dem zweiten Anzeigesignal entspricht, hervorhebt.
  • Nach dieser Struktur wird, wenn das zweite Anzeigesignal Information über den Speicherbereich anzeigt, das Bild, das die Information über den Speicherbereich hervorhebt, gleichzeitig durch das dritte Anzeigesignal angezeigt. Die Aufmerksamkeit des Benutzers wird somit in hohem Maße auf die Information gelenkt, um dadurch den Benutzer zu veranlassen, die Information, verglichen mit der herkömmlichen gleichförmigen Anzeige, sicher zu erkennen. Ein möglicher Verdruss, der ansonsten aus einem Fehler in der Bedienung entstehen würde, kann somit verhindert werden.
  • Wenn das zweite Anzeigesignal Information über die betreffenden einer Vielzahl auf dem Menüschirm angezeigter Items anzeigt, wird das Bild, das diese Information bezeichnet, durch das dritte Anzeigesignal angezeigt. Wenn die Dateneingabeoperation während des Betrachtens des Menüschirms auf der Anzeige durchgeführt wird, kann somit der als Nächstes auszuführende Verarbeitungsschritt leicht und sicher erkannt werden, und der Prozessor kann folglich auch dann leicht betrieben werden, wenn er eine komplizierte Menüstruktur aufweist.
  • In einer anderen Anordnung der vorliegenden Erfindung umfasst ein Bildprozessor.
  • eine erste Anzeigesignal-Ausgabeeinrichtung, die ein erstes Anzeigesignal ausgibt, um ein Gesichtsbild anzuzeigen;
  • eine zweite Anzeigesignal-Ausgabeeinrichtung, die ein zweites Anzeigesignal ausgibt, um ein Bild, das anzuzeigende Nachrichteninformation als das Gesichtsbild begleitend bezeichnet, auf der Basis des ersten Anzeigesignals anzuzeigen, und
  • eine dritte Anzeigesignal-Ausgabeeinrichtung, die ein drittes Anzeigeausgabesignal ausgibt, um das Bild einer Figur, die einen Anzeigebereich für ein Bild, das die Nachrichteninformation bezeichnet, umgibt, basierend auf dem zweiten Anzeigeausgabesignal anzuzeigen.
  • Gemäß dieser Struktur kann die Nachrichteninformation in einem sprechblasenartigen Ausdruck ausgedrückt werden, der oft in einem Cartoon oder Animation benutzt wird, und in dem die Nachrichteninformation von einer umgebenden Figur umgeben ist, um mit dem Gesichtsbild zu harmonieren. Die Nachricht erscheint daher so, als ob sie von dem Gesichtsbild ausgegeben würde, wodurch die Ausdruckskraft des Gesichtsbildes weiter verbessert wird.
  • Die vorliegende Erfindung wird von den Fachleuten in der Technik aus der Beschreibung von Beispielen, die zum Verstehen der vorliegenden Erfindung nützlich sind, leicht verstanden werden, wenn sie mit den begleitenden Zeichnungen in Verbindung gebracht wird. Inhalt der Zeichnungen:
  • Fig. 1 ist eine perspektivische Ansicht einer Systemstruktur eines ersten Beispiels.
  • Fig. 2 ist ein Blockschaltbild, das die Systemstruktur des ersten Beispiels zeigt Fig. 3 ist zeigt den Bereichsplan eines ROM und RAM.
  • Fig. 4 zeigt die Struktur eines Dateiattribut-Datenbereichs des RAM.
  • Fig. 5 ist ein Flussdiagramm eines Hauptprogramms, das die Arbeitsweise des ersten Beispiels zeigt.
  • Fig. 6 ist ein Flussdiagramm eines Programms, das einen Dateiauswahlprozess zeigt.
  • Fig. 7 veranschaulicht ein Beispiel eines Menüanzeigeschirms in dem Dateiauswahlprozess.
  • Fig. 8A bis 8C zeigen ein Beispiel von in dem ROM aufgezeichneten Daten; d. h. Fig. 8A zeigt ein Beispiel eines erklärenden Texts; 8B zeigt ein Beispiel eines Warnungstextes, und 8C zeigt ein Beispiel einer Sprechblase.
  • Fig. 9 veranschaulicht ein Beispiel eines Menüanzeigeschirms in dem Dateiauswahlprozess.
  • Fig. 10 veranschaulicht ein Beispiel eines Menüanzeigeschirms im Dateiauswahlprozess.
  • Fig. 11 veranschaulicht ein Beispiel eines Menüanzeigeschirms im Dateiauswahlprozess.
  • Fig. 12 ist ein Flussdiagramm eines Programm, das einen Teildaten-Editierprozess zeigt.
  • Fig. 13 ist ein Flussdiagramm eines Programm, das einen Dateiaufzeichnungsprozess anzeigt.
  • Fig. 14 veranschaulicht ein Beispiel eines Menüanzeigeschirms in dem Dateiaufzeichnungsprozess.
  • Fig. 15 veranschaulicht ein Beispiel eines Menüanzeigeschirms in dem Dateiaufzeichnungsprozess.
  • Fig. 16 veranschaulicht ein Beispiel eines Menüanzeigeschirms in dem Dateiaufzeichnungsprozess.
  • Fig. 17 veranschaulicht ein Beispiel eines Menüanzeigeschirms in dem Dateiaufzeichnungsprozess.
  • Fig. 18 veranschaulicht ein Beispiel eines Menüanzeigeschirms in dem Dateiaufzeichnungsprozess.
  • Fig. 19 zeigt die Oberseite einer Steuerunterlage in einem zweiten Beispiel.
  • Fig. 20 zeigt einen Bereichsplan des RAM.
  • Fig. 21 zeigt Daten in einem ROM, die in einem erklärenden Sprechblasen-Datenbereich aufgezeichnet sind.
  • Fig. 22 ist ein Flussdiagramm eines Hauptprogramms, das die Arbeitsweise des zweiten Beispiels zeigt.
  • Fig. 23 ist ein Flussdiagramm eines Programms, das einen Bilderzeugungsprozess zeigt Fig. 24 zeigt ein Beispiel eines Menüschirms in dem Bilderzeugungsprozess.
  • Fig. 25 zeigt ein Beispiel eines Menüschirms in dem Bilderzeugungsprozess.
  • Fig. 26 zeigt ein Beispiel eines Menüschirms in dem Bilderzeugungsprozess.
  • Fig. 27 ist ein Blockschaltbild, das den Aufbau einer Bildsteuervorrichtung eines dritten Beispiels zeigt.
  • Fig. 28 zeigt eine umgebende Figur, von der die Vorrichtung von Fig. 7 Daten besitzt.
  • Fig. 29A und 29B veranschaulichen eine Bildverarbeitungsfunktion der Vorrichtung.
  • Fig. 30A bis 30C veranschaulichen eine Bildverarbeitungsfunktion der Vorrichtung.
  • Fig. 31A bis 31C veranschaulichen eine Bildverarbeitungsfunktion der Vorrichtung.
  • Fig. 32 zeigt einen Menüanzeigeschirm, von dem die Bildsteuervorrichtung Daten besitzt.
  • Fig. 33A und 33B veranschaulichen eine Bildverarbeitungsfunktion der Vorrichtung.
  • Fig. 34A und 34B veranschaulichen eine Bildverarbeitungsfunktion der Vorrichtung.
  • Fig. 35A bis 35C veranschaulichen eine Bildverarbeitungsfunktion der Vorrichtung.
  • Fig. 36 veranschaulicht eine Bildverarbeitungsfunktion der Vorrichtung.
  • Fig. 37A bis 37C veranschaulichen eine Bildverarbeitungsfunktion der Vorrichtung.
  • Fig. 38 veranschaulicht eine Bildverarbeitungsfunktion der Vorrichtung.
  • Fig. 39 zeigt eine Umwandlungstabelle, von der die Vorrichtung Daten besitzt.
  • Fig. 40A bis 40D veranschaulichen eine Bildverarbeitungsfunktion der Vorrichtung.
  • Fig. 41 zeigt eine Ziffernumwandlungstabelle, von der die Vorrichtung Daten besiztzt.
  • Fig. 42 ist ein Flussdiagramm, das die Arbeitsweise der Bildsteuervorrichtung zeigt.
  • Fig. 43 ist ein Flussdiagramm, das die Arbeitsweise der Bildsteuervorrichtung zeigt.
  • Fig. 44 ist ein Flussdiagramm, das die Arbeitsweise der Bildsteuervorrichtung zeigt.
  • Fig. 45 ist ein Flussdiagramm, das die Arbeitsweise der Bildsteuervorrichtung zeigt.
  • Fig. 46 ist ein Flussdiagramm, das die Arbeitsweise der Bildsteuervorrichtung zeigt.
  • Fig. 47 ist ein Blockschattbild, das den Gesamtaufbau einer Gesichtsbild-Erzeugungseinrichtung 1 als ein viertes Beispiel zeigt.
  • Fig. 48 veranschaulicht den Aufbau einer Steuereinheit 10 des vierten Beispiels.
  • Fig. 49 zeigt einen Speicherplan, der die Speicherstruktur von ROM 12 in dem vierten Beispiel angibt.
  • Fig. 50 zeigt einen Speicherplan, der die Speicherstruktur von ROM 12 in dem vierten Beispiel angibt
  • Fig. 51A und 51B veranschaulichen die Struktur eines Modusauswahlschirms MSD und eines Dateiauswahlschirms FSD in dem vierten Beispiel.
  • Fig. 52 veranschaulicht die Struktur eines Fragebogen Anzeigeschirms AMD, eines Geschlechtsauswahl-Anzeigeschirms SSD, eines Altersauswahl-Anzeigeschirms OSD, eines Körperform-Anzeigeschirms BSD und eines Persönlichkeitsauswahl-Anzeigeschirms CSD und deren Beziehung untereinander in dem vierten Beispiel.
  • Fig. 53A, 53B und 53C veranschaulichen die Strukturen eines Rahmenauswahl-Anzeigeschirms WSD, eines Buchstabenfolgeauswahl-Anzeigeschirms MOSD und eines Sprechblasen-Buchstabenfolge-Auswahlschirms FWSD in dem vierten Beispiel.
  • Fig. 54 zeigt einen Speicherplan, der die Speicherstruktur eines Arbeits-RAM 13 in dem vierten Beispiel erklärt.
  • Fig. 55 ist ein Flussdiagramm, das die Arbeitsweise des vierten Beispiels zeigt Fig. 56 ist ein Flussdiagramm, das die Arbeitsweise des vierten Beispiels zeigt.
  • Fig. 57 ist ein Flussdiagramm, das die Arbeitsweise des vierten Beispiels zeigt.
  • Fig. 58 ist ein Flussdiagramm, das die Arbeitsweise des vierten Beispiels zeigt.
  • Fig. 59 ist ein Flussdiagramm, das die Arbeitsweise des vierten Beispiels zeigt.
  • Fig. 60 ist ein Flussdiagramm, das die Arbeitsweise des vierten Beispiels zeigt.
  • Fig. 61 ist ein Flussdiagramm, das die Arbeitsweise des vierten Beispiels zeigt.
  • Fig. 62 ist ein Flussdiagramm, das die Arbeitsweise des vierten Beispiels zeigt.
  • Fig. 63 zeigt ein Beispiel eines Anzeigeschirms, das die Arbeitsweise des vierten Beispiels erklärt.
  • Fig. 64 zeigt ein Beispiel eines Anzeigeschirms, das die Arbeitsweise des vierten Beispiels erklärt.
  • Fig. 65 zeigt ein Beispiel eines Anzeigeschirms, das die Arbeitsweise des vierten Beispiels erklärt.
  • Fig. 66 zeigt ein Beispiel eines Anzeigeschirms, das die Arbeitsweise des vierten Beispiels erklärt.
  • Fig. 67 veranschaulicht einen Sprechblasenrahmen-Änderungsprozess in dem vierten Beispiel.
  • Fig. 68 veranschaulicht ein Beispiel des Sprechblasenrahmen-Änderungsprozesses.
  • Erstes Beispiel
  • Ein Bildprozessor als ein erstes Beispiel dieser Erfindung wird im Folgenden mit Verweis auf Fig. 1 bis 18 beschrieben.
  • Fig. 1 ist eine perspektivische Ansicht des ersten Beispiels, die seine Systemarchitektur zeigt.
  • In Fig. 1 besitzt der Prozessorkörper 1 eine Bildverarbeitungsfunktion und eine Druckfunktion. ROM 2 ist ein Nurlesespeicher in Form einer Kassette, die in den Körper 1 einsetzbar ist und Anwendungsprogramme (nachstehend einfach als "Programme" bezeichnet), bei der Bildverarbeitung benutzte Teilbildaten und verschiedene andere Daten enthält, die später beschrieben werden. Ein Steuer-Pad 3 ist mit dem Körper 1 verbunden, um dadurch die Bildverarbeitung und andere Steueroperationen zu befehligen. Das Steuer Pad 3 besitzt eine Kreuztaste 4, eine Entscheidungstaste 5 und eine Freigabetaste 6. Eine externe Anzeigeeinrichtung 7 ist ein gewöhnliches Fernsehgerät, das mit dem Körper 1 verbunden ist und einen Anzeigeschirm 8 und einen Lautsprecher 9 enthält.
  • Fig. 2 ist ein Blockschaltbild, das die Systemstruktur von Fig. 1 zeigt. Eine CPU 10 ist mit dem ROM 2 und dem Steuer-Pad 3 verbunden, sodass sie ein Programm usw. aus dem ROM 2 liest und Bildverarbeitungs- und andere Steueroperationen auf der Basis von Befehlen von dem Steuer Pad 3 ausführt. Die zu verarbeitenden Bilddaten umfassen Bilddaten, die z. B. die Form eines Menschen und eines Objekts angeben. Ein RAM 11 ist mit der CPU 10 verbunden und wird als ein Arbeitsbereich benutzt, der aus dem ROM 2 gelesene Programme usw. vorübergehend aufzeichnet, und der Bilddaten und andere für die Bildverarbeitung notwendige Daten vorübergehend aufzeichnet. Ein Videoanzeigeprozessor 12 ist mit der CPU 10 verbunden, sodass er ein Bildsignal an den Anzeigeschirm 8 der externen Anzeigeeinrichtung 7 gemäß einem Befehl von der CPU 10 für Anzeigezwecke ausgibt. Ein VRAM 13 ist mit dem Videoanzeigeprozessor 12 verbunden, sodass es dem Videoanzeigeprozessor 12 Punktdaten, die einer Anzeigeposition in der Anzeigeeinrichtung 8 entsprechen, gemäß einem Lesebefehl vom Videoanzeigeprozessor 12 sendet und von der CPU 10 ausgegebene Bilddaten gemäß einem Schreibbefehl vom Videoanzeigeprozessor 12 aufzeichnet. Ein Drucker 14 ist mit der CPU 10 verbunden, um im RAM 11 aufgezeichnete Bilddaten gemäß einem Befehl von der CPU 10 zu drucken. Eine Tonquelle 15 ist mit der CPU 10 verbunden, sodass sie dem Lautsprecher 9 der externen Anzeigeeinrichtung 7 ein Sprachsignal, das einen für die Bildverarbeitung und Anzeige benötigten Alarmton oder Musik darstellt, gemäß einer Sprachdatenausgabe von der CPU 10 sendet.
  • Fig. 3 zeigt einen Bereichsplan von ROM 2 und RAM 11. Ein Teilbilddatenbereich 21 des ROM 2 enthält Daten über eine Vielzahl verschiedener Bilder für jeden der Teile, die eine Persönlichkeit oder ein Objekt ausmachen, z. B. im Fall von Teildaten über eine Vielzahl verschiedener Kategorien für Haar, Augen, Nase, Kleidung usw., die eine Persönlichkeit ausmachen, Daten über eine Vielzahl verschiedener Teilformen für jede Kategorie, wobei jeder Teil eine zugewiesene Nummer besitzt. Jede Teilenummer bezeichnet eindeutig die Kategorie und Form davon. Verschiedene Persönlichkeitsbilder werden somit jeweils erzeugt, indem die Bilder von Teilen, eines aus jeder Kategorie, ausgewählt und kombiniert werden, und eine Datei, die Daten über eine Vielzahl von Teilenummern enthält, wird nach Maßgabe der Bilddaten verwaltet.
  • Im Fall der ersten Ausführung hat ein Teilenummern-Datenbereich 22 von ROM 2 4 Dateien #0-#3, die Daten aufzeichnen. Ein Teilenummern-Datenbereich 23 von RAM 11 hat 12 Dateien #4-#15, die Daten aufzeichnen. Die Kopfadressen dieser 12 Bereiche werden in einem Dateiadressen-Datenbereich 24 von RAM 11 aufgezeichnet. Daten von Teilenummern, die in jeder der 16 Dateien #0-#15 gespeichert sind, werden vorübergehend in einem Teilenummern-Lagerbereich 25 von RAM 11 aufgezeichnet. Daten vom Bild einer Person usw., das aus Teilen besteht, deren Nummern in dem Teilenummern-Lagerbereich 25 aufgezeichnet sind, werden in einem Bilddaten-Lagerbereich 26 von RAM 11 gespeichert. Daten, die den Inhalt jeder Datei angeben, werden in einem Dateiattribut Datenbereich 27 von RAM 11 gespeichert.
  • Wie in Fig. 4 gezeigt, besteht jeder Dateiattribut Datenbereich 27 aus einem Register von Bits. Wenn das höchstwertige Bit in dem Register 0 ist bezeichnet dies einen Teilenummern-Datenbereich, wo der Benutzer keine Datei aufzeichnen kann (vorgegebener Bereich), während, wenn das höchstwertige Bit 1 ist, dies einen Teilenummern-Datenbereich bezeichnet, wo der Benutzer eine Datei aufzeichnen kann (Benutzerbereich). Wenn die nächsten zwei Bits 27B 0 sind, bedeutet dies, dass die Teilenummerndaten in einer in diesem Bereich aufgezeichneten Datei Daten des Bildes einer Person betreffen. Wenn die zwei Bits 0, 1 sind, bedeutet dies, dass die Teilenummerndaten in einer aufgezeichneten Datei Daten des Bildes eines Objekts betreffen. Wenn die zwei Bits 1, 0 sind, bedeutet dies, dass in diesem Bereich keine Daten aufgezeichnet sind. Und die letzten vier Bits 27c gebe eine Nummer an, um einen betreffenden der 16 Bereiche zu identifizieren. Ein CPU-interner Verarbeitungsarbeitsbereich 28 zeichnet Daten von einer momentanen Icon-Nummer auf.
  • Als Nächstes wird die Arbeitsweise der ersten Ausführung beschrieben. Wenn eine Stromversorgung (nicht gezeigt) für den Systemkörper 1 und die externe Anzeige 7 eingeschaltet wird, startet dieses System, sodass die CPU 10 die Programme aus dem ROM 2 in das RAM 11 einliest, um dadurch dieses Programm auszuführen.
  • Fig. 5 zeigt ein Flussdiagramm, das ein Hauptprogramm darstellt. Zuerst wird das ganze System initialisiert (Schritt S1). Dann wird ein Dateiauswahlprozess ausgeführt, um eine Datei auszulesen, die ein zu editierendes Bild betrifft (Schritt S2).
  • Fig. 6 ist ein Flussdiagramm, das ein Programm für den Dateiauswahlprozess darstellt. Zuerst wird ein Anfangsprozess ausgeführt, um einen Menüanzeigeschirm auf der Anzeige 8 anzuzeigen (Schritt S21). Wie in Fig. 7 gezeigt, werden in diesem Fall 16 Icons (Markierungen) 31 und ein Auswahlcursor 32, der zum Auswählen eines Icons benutzt wird, auf dem Menüschirm angezeigt. Des Weiteren werden ein Erklärungstext (Information) 33 für den Benutzer und Bilder einer besonderen Darstellung wie Hervorhebungen dieses Erklärungstextes 33, z. B. eine Sprechblase (umgebende Markierung) 34, die den Erklärungstext 33 umgibt und das Bild eines Clowns 35, der die Sprechblase 34 ausstößt, angezeigt. In diesem Fall sind das Clownbild 35 eine Animation, die sich rechts und links bewegt.
  • Nummern "1" bis "16" werden auf entsprechenden 16 Icons 31 gemäß den Daten in dem Datelattributbereich 27 angegeben. Icons mit den Nummern "1" bis "4" werden jeweils in einer invertierten Weise angezeigt, um anzugeben, dass sie einer Datei in dem vorgegebenen Bereich entsprechen. Icons mit den Nummern "5" bis "16" zeigen, dass sie den Dateien in dem Benutzerbereich in einer regulären Anzeige entsprechen. Eine schwarze oder weiße Sternmarkierung wird abhängig davon angezeigt, ob Teilenummerndaten in der Datei eine Person oder ein Objekt betreffen. Ein Fragezeichen "?" wird angezeigt wenn keine Datei aufgezeichnet ist.
  • Die im Menüanzeigeschirm angezeigten Daten des Erklärungstextes 33, der Erklärungssprechblase 34 und des Clownbildes 35 sind im ROM 2 gespeichert, und der Inhalt der anzuzeigenden Daten ändert sich abhängig von einem anzuzeigenden Menüanzeigeschirm. Fig. 8A zeigt ein Beispiel des Erklärungstextes 33. Der Erklärungstext 33 des Menüschirms von Fig. 7 ist "Welches rufst Du auf?" und wird als eine Nachricht angezeigt, die den Benutzer aufordert, ein Icon auszuwählen. Daten der Sprechblase 34 und des Clownbildes 35 werden angezeigt, indem Sprechblasen- und Formdaten von Fig. 8C gelesen werden. Da die Animationen der Sprechblase 34 und des Clownbildes angezeigt werden, um den Erldärungstext 33 hervorzuheben, beachtet der Benutzer den Schirm und erkennt, dass der Erklärungstext 33 Information ist, die ihn auffordert, ein Icon auszuwählen, und betätigt das Steuer Pad 3.
  • Danach wird in Schritt S22 von Fig. 6 eine Tastenoperation bestimmt. Wenn die gedrückte Taste eine Kreuztaste 4 ist, wird ein Auswahlcursor-Bewegungsprozess ausgeführt, um den Auswahlcursor 32 zu der Stelle des betriebsbereiten Icons zu bewegen (Schritt S23). Die Steuerung geht dann zur Feststellung der Tastenoperation in Schritt S22. Wenn die Entscheidungstaste 5 betätigt wurde, wird auf den Dateiattribut-Datenbereich 27 vewiesen, und eine Datei, die dem Icon an der Position des Auswahlcursors 32 entspricht, wird bestimmt (Schritt S24). Das heißt, es wird festgestellt, ob eine Datei aus dem Teilenummern-Datenbereich 22 oder 23 ausgelesen werden kann. In diesem Fall kann der Benutzer das Vorhandensein einer Datei unter Verwendung der Markierung eines einzelnen Icons feststellen. Wenn der Benutzer Anfänger ist oder weil eine mögliche Fehloperation oder das Übersehen einer Markierung durch den Benutzer in Betracht gezogen wird, bestimmt die CPU 10 eine Datei, die einem ausgewählten Icon entspricht.
  • Wenn der Auswahlcursor 32 ein Icon mit einer Nummer "5" angibt, klärt die Bestimmung einer Datei in einem Bereich, der diesem Icon entspricht, dass in diesem Bereich nichts aufgezeichnet ist Somit können keine Dateien ausgelesen werden, die Daten "Dort ist nichts" in dem Erklärungstext von Fig. 8A werden gelesen, und ein Erklärungssprechblasen-Anzeigeprozess wird ausgeführt (Schritt S25). Somit wird, wie in Fig. 9 gezeigt, der Erklärungstext "Dort ist nichts" zusammen mit einer charakteristischen Sprechblase und einem animierten Clownbild 35 in der Erklärungs-Sprechblase auf dem Menüschirm angezeigt Indem er diese Anzeige beachtet, bestätigt der Benutzer, ob eine Datei in einem Bereich, der dem ausgewählten Icon entspricht, aufgezeichnet worden ist. In diesem Fall erkennt der Benutzer, dass der Erklärungstext 33 Information anzeigt, die ihn zwingt, ein anderes Icon auszuwählen, und betätigt das Steuer-Pad 3.
  • Wenn in dem Dateibestimmungsprozess in Schritt S24 festgestellt wird, dass die dem ausgewählten Icon entsprechende Datei lesbar ist, wird ein Erklärungssprechblasen-Anzeigeprozess durchgeführt, der den Erklärungstext 33 abhängig von der Bestimmung einer Datei aus den Erklärungstexten von Fig. 8A anzeigt (Schritt S26). Wenn z. B. ein Icon mit einer Nummer "6" ausgewählt wird, betreffen die Bilddaten eine Person, sodass, wie in Fig. 10 gezeigt, der Erklärungstext 33 "Passt Dir diese Person?" zusammen mit einem charakteristischen Bild auf dem Menüschirm angezeigt wird. Wenn z. B. ein Icon mit einer Nummer "8" ausgewählt wird, betreffen die Bilddaten ein Objekt, sodass, wie in Fig. 11 gezeigt, der Erklärungstext 33 "Bist Du einverstanden?" zusammen mit einem charakteristischen Bild auf dem Menüschirm angezeigt wird. Indem er diese Anzeige beachtet, betätigt der Benutzer die Entscheidungstaste 5 oder die Freigabetaste 6 auf dem Steuer-Pad 3.
  • Wenn eine dieser Tasten gedrückt wird, wird ihre Operation bestimmt (Schritt S27). Wenn die Freigabetaste 6 gedrückt wird, wird ein Erklärungssprechblasen Anzeigeprozess ausgeführt (Schritt S28). In diesem Fall erscheint der Menüschirm von Fig. 7, und ein Erklärungstext "Welches rufst Du auf?" wird angezeigt. Wenn die Entscheidungstaste 5 gedrückt wird, wird ein Dateibestimmungsprozess ausgeführt, in dem auf die Kopfadresse eines Bereichs, der dem gewählten Icon im Dateiadressen-Datenbereich 24 entspricht, Bezug genommen wird, und eine dieser Adresse entsprechende Datei gelesen wird, und die Teilenummer der Datei im Teilenummern-Lagerbereich 25 gespeichert wird (Schritt S29). In diesem Fall wird eine Vielzahl von Teilen, eines für jede der Kategorien, die den Teilenummern in einer im Teilenummern-Lagerbereich 25 gespeicherten Datei entsprechen, aus dem Teiledatenbereich 21 gelesen, und das Bild, z. B. eine aus Daten der Vielzahl von Teilen zusammengesetzte Person, wird im Bilddaten-Lagerbereich 26 gespeichert. Diese Bilddaten werden dann aus dem Bilddaten-Lagerbereich 26 gelesen und durch den Videoanzeigeprozessor 12 und das VRAM 13 auf der Anzeige 8 angezeigt
  • Wenn eine Datei in dem Dateiauswahlprozess aufgerufen wurde, geht die Steuerung zu einem Teiledaten-Editierprozess (Schritt S3) von Fig. 5.
  • Fig. 12 ist ein Flussdiagramm eines Programms, das einen Teiledaten-Editierprozess darstellt. Zuerst wird ein Einleitungsprozess ausgeführt (Schritt S31). Ein Menüanzeigeschirm (nicht gezeigt) wird dann zu Editierzwecken angezeigt. Durch Betätigen einer Auswahltaste (nicht gezeigt) auf dem Steuer-Pad 3 wird bestimmt, welcher Prozess ausgeführt werden soll (Schritt S32). Im Fall eines Teileänderungsprozesses (Schritt S33) wird die Teilenummer im Teilenummern-Lagerbereich 25 geändert. In dem Bilddruckprozess (Schritt S34) werden im Bilddaten-Lagerbereich 26 aufgezeichnete Bilddaten an den Drucker 14 gesendet, um so das Bild auszudrucken. Im Fall eines Dateiaufzeichnungsprozesses (Schritt S35) wird die editierte Datei aufgezeichnet.
  • Fig. 13 ist ein Flussdiagramm, das den Dateiaufzeichnungsprozess darstellt. Zuerst wird ein Einleitungsprozess ausgeführt (Schritt S41), wodurch ein Menüanzeigeschirm, wie z. B. in Fig. 14 gezeigt, angezeigt wird. In diesem Fall wird der Erklärungstext 22 "Wo wird die Datei aufgezeichnet?" von Fig. 8A zusammen mit der charakteristischen Sprechblase und dem animierten Clownbild 35 angezeigt. Außerdem wird der Wamungstext 36 zusammen mit der umgebenden Markierung 31 über dem Icon 31 angezeigt. In diesem Fall wird der Wamungstext 36 angezeigt, der "Ich werde ******** aufzeichnen" bestehend aus kombiniert "********" was den Namen eines aufzuzeichnenden Teils und Warnungsdaten "Ich werde aufzeichnen" im ROM 2 von Fig. 8B bezeichnet.
  • Da die charakteristische Sprechblase 34 und das animierte Clownbild 35 zusammen mit Erklärungs- und Warnungstexten 33 und 36 angezeigt werden, beachtet der Benutzer den Schirm und erkennt, dass der Erklärungstext 33 Information ist, die ihn zwingt, ein Icon auszuwählen, erkennt dass eine Teilenummer, die der Warnungstext 36 aufzeichnet, Zielteiledaten betrifft und betätigt dann das Steuer Pad 3.
  • Wenn eine Taste gedrückt wird, wird ihre Operation festgestellt (Schritt S42). Wenn die gedrückte Taste die Kreuztaste 4 ist wird der Auswahlcursor-Bewegungsprozess ausgeführt, um den Auswahlcursor 32 zu der Position eines Icons zu bewegen, das der Operation entspricht (Schritt S43). Die Steuerung geht dann zur Bestimmung der Tastenoperation (Schritt S42). Wenn die Entscheidungstaste 5 gedrückt wurde, wird auf Dateiattributdaten 27 in RAM 11, die einem Icon entsprechen, das der Auswahlcursor 32 angibt, Bezug genommen, und ein Bereichsteil des Teilenummern-Datenbereichs 22, wo die Teilenummer aufzuzeichnen ist, wird bestimmt (Schritt S44). Wenn sich z. B. der Auswahlcursor 32 an der Position eines Icons mit einer Nummer "1" befindet, wird bestimmt, dass der entsprechende Bereichsteil der vorgegebene Bereich ist, und der Erklärungssprechblasen-Anzeigeprozess wird ausgeführt (Schritt S45). In diesem Fall wird, wie in Fig. 15 gezeigt, der Erklärungstext 33 "Du kannst dort keine Daten aufzeichnen" von Fig. 8A zusammen mit einem charakeristischen Bild angezeigt. Da das charaktieristische Bild zusammen mit dem Erklärungstext 33 und dem Warnungstext 36 angezeigt wird, beachtet der Benutzer den Schirm und erkennt, ob der dem ausgewählten Icon entsprechende Bereich aufzeichenbar ist. In diesem Fall erkennt der Benutzer, dass der Erklärungstext 33 nicht aufzeichenbar ist und Information enthält die den Benutzer zwingt, ein anderes Icon auszuwählen, und betätigt das Steuer-Pad 3.
  • Wenn in Schritt S44 festgestellt wird, dass der dem ausgewählten Icon entsprechende Bereich der Bereich des Benutzers ist, wird festgestellt, ob eine andere Datei in diesem Bereich aufgezeichnet ist (Schritt S46). Wenn sich z. B. der Auswahlcursor 32 an der Position eines Icons mit einer Nummer "6" befindet, ist in dem entsprechenden Bereich schon eine andere Datei aufgezeichnet. Somit wird, wie in Fig. 16 gezeigt, der Wamungstext " wird verschwinden", der aus einer Kombination des aufgezeichneten Bilddatennamens " " und und Wamungsdaten von Fig. 8B "wird verschwinden" besteht, in einer umgebenden Markierung angezeigt, und gleichzeitig wird der Erklärungstext "Bist Du einverstanden?" zusammen mit einem charakteristischen Bild angezeigt (Schritt S47). Der Benutzer beachtet den Schirm und erkennt, dass der Warnungstext 36 Information für den Benutzer ist um das Löschen der Datei auf der Basis des charakteristischen Bildes zu bestätigen, und betätigt entweder die Entscheidungstaste 5 oder die Freigabetaste 6.
  • Wenn sich der Auswahlcursor 32 an der Position eines Icons mit einer Nummer "5" befindet, ist keine Datei in einem dem Icon entsprechenden Bereich aufgezeichnet. Somit wird;
  • wie in Fig. 17 gezeigt, der Erklärungstext 33 "Bist Du einverstanden?" zusammen mit einem charakteristischen Bild, wie in Fig. 17 gezeigt, angezeigt (Schritt S48). In diesem Fall wird, da der Warnungstext 36 denselben Inhalt hat wie der Wamungstext von Fig. 15, kein neuer Warnungsanzeigeprozess ausgeführt.
  • Als Nächstes wird die Tastenoperation bestimmt (Schritt S49). Wenn die Freigabetaste 6 gedrückt wird, wird ein Erkiärungssprechblasen-Anzeigeprozess ausgeführt, der einen Menüschirm von Fig. 14 anzeigt (Schritt S50). Wenn die Entscheidungstaste 5 gedrückt wird, werden Daten der im Teilenummern-Lagerbereich 23 gespeicherten Teilenummern in einem Bereich #4 des Teilenummern-Datenbereichs 25 von RAM 11, der dem ausgewählten Icon entsprichr, aufgezeichnet (Schritt S51). Wenn sich die Markierung des ausgewählten Icons ändert, Wird ein Datei-Icon-Anzeigeprozess ausgeführt (Schritt S52). Wenn z. B. ein Icon mit einer Nummer "5" ausgewählt wurde, wird die Markierung dieses Icons von einer Markierung "?", die leer anzeigt, in eine schwarze Sternmarkierung, die eine Person anzeigt, geändert. Wie in Fig. 18 gezeigt, wird ein Prozess zum Löschen der Anzeige des Warnungstextes 36, d. h. ein Prozess zum Lesen der Warnungsdaten "ANZEIGE-AUS" von Fig. 8B ausgeführt, und ein Erklärungssprechblasen-Anzeigeprozess wird ausgeführt (Schritt S53). In diesem Fall wird der Erklärungstext "Du hast gut aufgezeichnet" zusammen mit einem charakteristischen Bild angezeigt.
  • Wie oben beschrieben, wird nach dem ersten Beispiel, wenn Erklärungstext 33 usw. über die Teilenummern-Datenbbereiche 22 oder 23, die dem ausgewählten Icon entsprechen, angezeigt wird, dieser zusammen mit einem charakteristischen Bild, das den Erldärungstext 33 usw. hervorhebt d. h. eine Sprechblase 34 und ein Clownbild 35, das die Sprechblase 34 ausstößt, angezeigt. Die Aufmerksamkeit des Benutzers wird daher, verglichen mit einer gleichförmigen Anzeige von Buchstaben usw., in hohem Maße nur auf den Text gelenkt, und die Information in einer Datei im Teilenummern-Datenbereich 22 oder 23 wird sicher erkannt.
  • In diesem Fall werden der Anzeigebereich für den Erklärungstext 33 und der Anzeigebereich für die Sprechblase 34, die ein charakteristisches Bild ist, in einer überlappenden Weise angezeigt, sodass der Benutzer diese Bilder visuell als eine Einheit erkennt. Somit wird kein Erklärungstext 33 übersehen.
  • Während in dem ersten Beispiel das charakteristische Bild, das den Erklärungstext 33 usw. hervorhebt, als Sprechblase 34 und Illustrations-Clownbild 35 dargestellt wird, können andere charakteristische Illustrationen als anzuzeigende Bilder verwendet werden, können eine charakteristische Figur ohne die Illustrationen sein oder können sonstwie eine Kombination von Illustrationen und Figuren sein.
  • Während in dem ersten Beispiel ein Bild, das den Erklärungstext 33 usw. hervorhebt; als Merkmale seiner Form aufweisend dargestellt wurde, kann ein charakteristisches Bild in einer anderen Farbe als die von Icon 31 angezeigt werden. In diesem Fall werden der Erklärungstext 33 usw. weiter hervorgehoben.
  • Während in dem ersten Beispiel der Erklärungstext 33 zusammen mit einem charakteristischen Bild angezeigt wurde, um die Aufmerksamkeit des Benutzers auf den Text zu lenken, kann der Erklärungstext 33 usw. gleichzeitig per Stimme über einen Lautsprecher angesagt werden. In diesem Fall kann die Aufmerksamkeit des Benutzers visuell und akustisch geweckt werden, wodurch ein größerer Nutzeffekt erzeugt wird.
  • Während in dem ersten Beispiel die Programme als in einem in den Körper 1 einzusetzenden Kassettentyp-ROM 2 aufgezeichnet dargestellt wurden, können die Programme in einem in einer Einchip-CPU eingebauten ROM aufgezeichnet werden. In diesem Fall wird die Größe der gesamten Vorrichtung vermindert werden.
  • Während in dem ersten Beispiel die externe Anzeigeeinrichtung 7, die ein normales Fernsehgerät ist, als mit dem Körper 1 verbunden dargestellt wurde, ist die externe Anzeigeeinrichtung nicht auf das Fernsehgerät beschränkt, sondern kann ein Display z. B. eines Personal Computers sein, oder es kann eine Anordnung benutzt werden, bei der die Anzeige, der Lautsprecher und das Steuer-Pad im Körper 1 zusammengefasst sind. Wenn die Anzeige usw. in den Körper 1 einbezogen werden, wird eine sehr kompakte Vorrichtung verwirklicht.
  • Zweites Beispiel
  • Als Nächstes wird ein zweites Beispiel des erfindungsgemäßen Bildprozessors beschrieben. Der Bildprozessor erzeugt in diesem Fall die Bilder einer Person, eines Tieres oder eines Objekts in Form eines Dialogs (Fragebogens) mit dem Benutzer über einen angezeigten Menüschirm, zeigt das erzeugte Bild an und druckt es aus.
  • Der Aufbau des zweiten Beispiels wird mit Bezug auf Fig. 19 und 20 beschrieben. Die Systemstruktur des zweiten Beispiels ist der des ersten Beispiels ähnlich.
  • Wie in Fig. 19 gezeigt, ist die Bedienfläche des Steuer-Pads 3 mit einer Kreuztaste 4 und einer Entscheidungstaste 5 versehen. Die Kreuztaste 4 ist horizontal und vertikal drehbar. Durch Drücken eines horizontalen Endes 4a oder 4b oder vertikalen Endes 4c oder 4d der Kreuztaste wird ein unter dem entsprechenden Kreuztastenende angebrachter Schalter (nicht gezeigt) betätigt. Im Folgenden wird ein Drücken des horizontalen Endes 4a oder 4b als Links- oder Rechts-Tastenbetätigung bezeichnet, während ein Drücken des vertikalen Endes als Aufwärts- oder Abwärts-Tastenbetätigung bezeichnet wird.
  • Fig. 20 und 21 zeigen die Datenstruktur von RAM 11 und ROM 2. Wie in Fig. 20 gezeigt, umfasst RAM 11 einen Teilenummern-Speicherbereich 121, einen Erklärungssprechblasenbereich 122, einen Bilddaten-Speicherbereich 13 und einen CPU-internen Verarbeitungsarbeitsbereich 124. Im Teilenummern-Speicherbereich 121 werden Daten über eine Vielzahl von Teilenummern gespeichert, die Daten über eine gleiche Zahl von Teilebildern wie Haar-, Augen-, Nasen-, Kleidungsbildern usw. (nicht gezeigt) entsprechen, die das Bild einer Person ausmachen und im ROM 2 aufgezeichnet sind. Das heißt, eine Gruppe von Teilenummern, die ein Bild ausmacht, wird im Teilenummern-Speicherbereich 121 aufgezeichnet. Bilddaten, die aus einer Gruppe im Teilenummern-Speicherbereich 121 aufgezeichneter Teilenummern bestehen, werden im Dilddaten-Speicherbereich 123 aufgezeichnet wenn sie gedruckt werden. Im ROM 2 aufgezeichnete Erklärungssprechblasendaten 125 werden in den Erklärungssprechblasen-Datenbereich 122 übertragen.
  • Wie in Fig. 21 gezeigt, sind Sprechblasenformdaten 126, Erklärungssprechblasen-Buchstabenkettendaten 127 und Fragebogenitem-Optionsdaten 128 zusätzlich zu den in das RAM 11 übertragenen Erkiärungssprechblasendaten 125 im ROM 2 aufgezeichnet. Die Erklärungssprechblasendaten 125 bestehen aus Daten #0-#4, die je aus fünf Datenitems 125a- 125e bestehen, d. h. X- und Y-Koordinaten 125a und 125b, die eine Anzeigeposition auf der Anzeige 8 bestimmen, eine Sprechblasenformnummer 125c, die eine von Nr. 0-3 von Sprechblasenformdaten 126 angibt, eine Erklärungsnummer 125d, die eine von Nr. 0-4 von Erklärungssprechblasen-Buchstabenkettendaten 127 angibt, und eine Itemnummer 125e, die einer der Itemnummern #0-#4 der Fragebogenitem-Optionsdaten 128 entspricht. In diesem Fall werden z. B. in den Erklärungssprechbtasendaten #0 der Erklärungssprechblasendaten 125 Nr. 3 als Sprechblasenformnummer 125c, Nr. 0 als Erklärungsnummer 125d und #0 als eine Intemnummer aufgezeichnet. In den Fragebogenitem-Optionsdaten 128 gibt es eine Vielzahl von Optionen für jedes Item, wobei jeder Option eine Anwärtemummer zugeordnet ist. Wie in Fig. 21 gezeigt, werden somit Buchstabenkettendaten für ein Fragebogenitem mithilfe einer Adresse; die aus einer Itemnummer und einer Anwärtemummer besteht, spezifiziert.
  • Daten über die Itemnummern der momentanen Frage oder Daten über die momentanen Itemnummern und Daten über die Anwärternummern der für jedes Item angezeigten Optionen werden im CPU-internen Verarbeitungsarbeitsbereich 124 von Fig. 20 aufgezeichnet Die CPU 10 zeichnet Buchstabenkettendaten der Fragebogenitem-Optionsdaten 128 von ROM 2 in dem VRAM 13 über den Videoanzeigeprozessor 12 auf der Basis der entsprechenden Anwärternummern der jeweiligen im Arbeitsbereich 124 aufgezeichneten ltems auf.
  • Die Arbeitsweise dieses Beispiels wird als Nächstes mit Verweis auf Fig. 22-26 beschrieben. Wenn eine Stromversorgung (nicht gezeigt) für den Körper 1 und die externe Anzeige 7 eingeschaltet wird, startet das System, und die CPU 10 liest ein Programm vom ROM 2 in das RAM 11 ein und führt das Programm aus.
  • Fig. 22 ist ein Flussdiagramm, das ein von der CPU 10 ausgeführtes Hauptprogramm darstellt. Zuerst wird ein Einleitungsprozess zur Initialisierung des Systems ausgeführt (Schritt 5101). Ein Teilbilderzeugungsprozess wird dann in der Form eines Fragebogens durchgeführt (Schritt S102).
  • Fig. 23 ist ein Flussdiagramm, das den Teilbilderzeugungsprozess darstellt. Zuerst wird ein Einleitungsprozess ausgeführt, um ein vorgegebenes Menübild auf der Anzeige 8 anzuzeigen (Schritt S121). In diesem Prozess werden wählbare Fragebodenitems und eine Eddärungssprechblase, in der den ltems entsprechende Fragen erklärt werden, angezeigt.
  • Als Einleitungsprozess zum Anzeigen der Fragebogenitems werden die Anwärtemummern Item #0-#4 im CPU-internen Verarabeitungsarbeitsbereich 124 von RAM 11 auf 0 gesetzt und die Buchstabenkettendaten "Junge", "Kindergarten", "Hell", "Fett", "Kaninchen" mit einer Anwärtemummer 0 der betreffenden Items #0-#4 der Fragebogenitem-Optionsdaten 128 im ROM 2 in das VRAM 13 übertragen. Positionsinformation, die die Zeichenketten dieser fünf ltems an vorbestimmten Stellen auf der Anzeige 8 anzeigt, wird im Videoanzeigeprozessor 12 festgelegt.
  • Die Erklärungssprechblasen-Vorgabenummer wird auf 0 gesetzt, und die momentane Itemnummer des CPU-internen Verarbeitungsarbeitsbereichs 124 von RAM 11 wird auf 0 gesetzt. Erklärungssprechblasendaten #0 werden aus den Erklärungssprechblasendaten 125 aus ROM 2 auf der Basis der momentanen Itemnummer ausgelesen und in den Erklärungssprechblasen-Datenbereich 122 von RAM 11 übertragen. Die X- und Y-Anzeigepositionskoordinaten der Erklärungssprechblasendaten #0, die Sprechblasenform Nr. 3, die Erklärung Nr. 0 und Item Nr. 0 werden somit im Erklärungssprechblasen-Datenbereich 122 aufgezeichnet. Sprechblasenformdaten 126, die der Sprechblasenform Nr. 3 entsprechen, werden auf der Basis des Inhalts des Erklärungssprechblasen-Datenereichs 122 aus dem ROM 2 ausgelesen und in das VRAM 13 übertragen, und Werte, die den X- und Y-Anzeigepositionskoordinaten entsprechen, werden im Videoanzeigeprozessor 12 festgelegt Erklärungsbuchstabenkettendaten "Geschlecht?", die Erklärung Nr. 0 entsprechen, werden aus ROM 2 gelesen und in das VRAM 13 übertragen, und Information über eine Position, die mit der Position der Anzeige eines Sprechblasenrahmens Übereinstimmt, wird im Videoanzeigeprozessor 12 festgelegt.
  • Fig. 24 zeigt einen anfänglichen Menüanzeigeschirm. "Junge", "Kindergarten", "Hell", "Fett", "Kaninchen" werden als Fragebogenitems 124 in den jeweiligen vorbestimmten Bereichen angezeigt. Ein Sprechblasenrahmen (umgebende Markierung) 130 wird charakteristisch angezeigt, um den Bereich von "Junge" anzugeben, und die Erklärungssprechblasen-Buchstabenkette "Geschlecht?" 131 wird vom Sprechblasenrahmen 130 umgebend angezeigt. Der Sprechblasenrahmen 130 dient als ein Cursor, während die Erklärungssprechblasen-Buchstabenkette 131 im Sprechblasenrahmen 130 Information bildet, die den Inhalt des angegebenen Fragebogenitems erläutert. Der Benutzer erkennt, dass das Fragebogenitem Geschlecht einschließt und dass es andere Optionen auf der Basis des Sprechblasenrahmens 130, der ein Fragebogenitem charakteristisch auf dem Schirm anzeigt, und einer Erklärungssprechblasen-Buchstabenkette 131 gibt, und betätigt dann das Steuer Pad 3.
  • Danach wird in Schritt S122 von Fig. 22 die Tastenoperation bestimmt. Wenn die betätigte Taste die linke oder rechte Taste ist, wird der Fragebogenitem-Anderungsprozess ausgeführt (Schritt S123). Wenn z. B. das Kreuztastenende 4b einmal gedrückt wird, wird auf das momentante Item #0 des CPU-internen Verarbeitungsarbeitsbereichs 124 von RAM 11 verwiesen, und die entsprechende Anwärternummer #0 wird um eins erhöht. Die Buchstabenkettendaten "Mädchen", die dem momentanen Item #0 und der geänderten Anwärternummer #1 entsprechen, werden aus den Fragebogenitem-Optionsdaten 128 im ROM 2 ausgelesen und in das VRAM 13 übertragen. Als Folge wird die Anzeige des Fragebogenitems #0 von "Junge" in "Mädchen" geändert. Die Steuerung geht dann zu Schritt S122, wo die nächste Tastenoperation festgestellt wird.
  • Wenn in Schritt S122 die Aufwärts- und Abwärts-Tastenoperation ausgeführt wird, wird die momentane Itemnummer des CPU-internen Verarbeitungsarbeitsbereichs 124 von RAM 11 in einen Wert geändert, der von der Tastenoperation abhängt, und Erklärungssprechblasendaten 125, die der neuen momentanen Itemnummer entsprechen, werden aus dem ROM 2 ausgelesen und in den Erklärungesprechblasen-Datenbereich 122 von RAM 11 übertragen (Schritt S124). Wenn z. B. das Kreuztastenende 4b einmal gedrückt wird, wird die momentane Itemnummer von 0 auf 1 geändert, und Erklärungssprechblasendaten #1 werden aus dem ROM 2 ausgelesen und in den Erklärungseprechblasen-Datenbereich 122 von RAM 11 übertragen.
  • Dann wird ein Erklärungssprechblasenrahmen-Abgrenzungsprozess durchgeführt (Schritt 5125). Sprechblasenformdaten 126, die einer Sprechblasenformnummer (in diesem Fall ist die Nummer 0) des Erkiärungssprechblasen-Datenbereichs 122 entsprechen, werden in das VRAM 13 übertragen, und die entsprechenden X- und Y-Anzeigeposifionskoordinaten werden im Videoanzeigeprozessor 12 festgelegt. Dann wird der Erklärungssprechblasen-Buchstabenanzeigeprozess ausgeführt (Schritt S126). Das heißt Erklärungsbuchstabenkettendaten "ALTER?", die der Erklärung Nr. 1 des Erklärungssprechblasen-Datenbereichs 122 entsprechen, werden aus dem ROM 2 ausgelesen und in das VRAM 13 übertragen, und Information über eine Position, die mit der Anzeigeposition des Sprechblasenrahmens übereinstimmt, wird im Vodeoanzeigeprozessor 12 festgelegt. Danach geht die Steuerung zu Schritt S122, wo die nächste Tastenoperation bestimmt wird.
  • Als Folge werden, wie in Fig. 25 gezeigt, im Menüschirm der Anzeige 8 der Sprechblasenrahmen 130 und die Sprechblasenbuchstabenkette 131 "ALTER?" im Rahmen 130 zu einer Position bewegt, die das Fragebogenitem #1 anzeigt. Der Benutzer erkennt auf der Basis des Sprechblasenrahmens 130, der ein charakteristisches Item auf dem Anzeigeschirm angibt, und der Erklärungssprechblasen-Buchstabenkette 131, dass das Fragebogenitem in ein Item geändert wurde, das After beinhaltet, und dass es andere Optionen zu diesem Item gibt und betätigt das Steuer Pad 3.
  • Wenn die Aufwärts- oder Abwärtstaste betätigt wird, d. h., wenn das Kreuztastenende 4d zweimal gedrückt wird, wird auf das momentane Item #1 des CPU-internen Verarbeitungsarbereiches 124 von RAM 11 Bezug genommen, und der entsprechende Item #1 Anwärter Nr. 0 wird um zwei erhöht, sodass Nr. 0 in Nr. 2 geändert wird. Daten über das momentane Item #1 und die Buchstabenkette "MITTELSCHULJUNGE", die dem geänderten Anwärter Nr. 2 entsprechen, werden aus den Fragebogenitem-Optionsdaten 128 in ROM 2 ausgelesen und in das VRAM 13 übertragen. Danach geht die Steuerung zu Schritt S122, wo die nächste Tastenoperation bestimmt wird.
  • Als Folge wird, wie in Fig. 26 gezeigt, im Menüanzeigeschirm der Anzeige 8 die Angabe des Fragebogenitems #0 von "KINDERGARTEN" in "MITTELSCHULJUNGE" geändert. Der Benutzer erkennt, dass das Fragebogenitem über das Alter in den von der Operation abhängigen Inhalt auf der Basis des Sprechblasenrahmens 130, der ein Item charakteristisch auf dem Schirm angibt, und der Erklärungssprechblasen-Buchstabenkette 131 geändert wurde, und bestimmt eine gewünschte Option von jedem Fragebogenitem, während er das Steuer- Pad 3 nacheinander betätigt. Wenn ein gewünschtes Ergebnis des Fragebogens erhalten wird, betätigt der Benutzer die Entscheidungstaste 5 des Steuer-Pads 3.
  • Wenn in Schritt S122 die Entscheidungstaste 5 betätigt wurde, werden Teilbilddaten festgelegt (Schritt S127). In diesem Prozess wird auf eine Tabelle (nicht gezeigt) von ROM 2 auf der Basis der jeweiligen bestimmten Fragebogenitems #044 Bezug genommen. Teilenummerndaten, die einer Kombination von Optionen der Fragebogenitems #0-#4 entsprechen, sind in der Tabelle aufgezeichnet worden. Daten über die Teilenummern, die der bestimmten Kombination entsprechen, werden somit im Teilenummern-Speicherbereich 121 von RAM 11 aufgezeichnet, und die Steuerung geht dann zu Schritt S103 des Hauptprogramms von Fig. 22.
  • In Schritt S103 des Hauptprogramms werden Teilbilddaten, die der im Teilenummern-Speicherbereich 121 aufgezeichneten Teilenummer entsprechen, aus dem ROM 2 ausgelesen und in das VRAM übertragen. Als Ergebnis wird ein auf dem Benutzerfragebogen basierendes Bild auf der Anzeige 8 angezeigt. Wenn das editierte Bild gedruckt wird, werden die Bilddaten in das VRAM 13 übertragen und im Bilddaten-Speicherbereich 123 aufgezeichnet, und die aufgezeichneten Bilddaten werden dann ausgelesen und an den Drucker 14 geliefert.
  • Wie oben beschrieben, gibt gemäß dem zweiten Beispiel der Sprechblasenrahmen 130 als ein hinweisendes Bild einen Bereich eines mit dem Steuer-Pad 3 ausgewählten Fragebogenitems und die Erklärungssprechblasen-Buchstabenkette 131 an, die Information ist, die das gewählte Fragebogenitem erklärt und im Sprechblasenrahmen 130 angezeigt wird. Wenn der Benutzer den Menüanzeigeschirm manipuliert, während er den Menüschirm auf der Anzeige 8 betrachtet, kann er somit den nächsten Manipulationsschritt leicht und sicher erkennen und kann den Prozessor auch im Fall einer komplizierten Menüstruktur, bei der die Fragebogenitems jeweils noch von einer Vielzahl Optionen begleitet werden, leicht manipulieren. Der Benutzer kann somit Fehlbedienungen vermeiden, die ansonsten infolge seiner Verwirrtheit über die nächste Operation ausgeführt werden könnten, oder selbst ein Anfänger kann sein Unvermögen zum Ausführen der nächsten Operation umgehen.
  • Während in dem zweiten Beispiel die Anzeigebereiche des Sprechblasenrahmens 130 und der Erklärungssprechblasen-Buchstabenkette 131 in einer ausrichtenden Weise angezeigt werden, kann der Anzeigebereich des Sprechblasenrahmens 130 angrenzend an den Anzeigebereich der Erklärungssprechblasen-Buchstabenkette 131 platziert werden. Kurz, die Anordnung muss so sein, dass der Sprechblasenrahmen 130 und die Erklärungssprechblasen-Buchstabenkette 131 ein spezifiziertes Item angeben und Information über dieses Item besitzen.
  • Während in dem zweiten Beispiel die Form des Sprechblasenrahmens 130 sich in Abhängigkeft von dem Fragebogenitem ändert, kann sie ungeachtet des Items dieselbe Form beibehalten. Während in dem zweiten Beispiel die Form des Sprechblasenrahmens, der das hinweisende Bild ist, als eine abstrakte Form habend dargestellt wird, kann er ein hinweisendes Bild mit einer Form sein, die z. B. ein spezifiziertes Objekt ausdrückt. Die Form wird vorzugsweise in Abhängigkeit vom Inhalt des Items verändert. In diesem Fall wird der inhalt des Items ebenfalls durch ein Bild erkannt, sodass die Schirmmanipulation weiter erleichtert wird. Des Weiteren kann die Farbe des hinweisenden Bildes nicht nur abhängig von einer Änderung in der Form, sondern auch abhängig von dem Item geändert werden. In diesem Fall wird der Inhalt des Items auch an seiner Farbe erkannt, sodass die Schirmmanipulation weiter erleichtert wird.
  • Während in dem zweiten Beispiel Programme als in einem Kassettentyp-ROM 2, das in den Körper 1 einzusetzen ist, aufgezeichnet dargestellt wurden, können die Programmein einem eingebauten ROM einer Einchip-CPU aufgezeichnet werden. In diesem Fall wird die Größe des gesamten Prozessors vermindert.
  • Während in dem zweiten Beispiel die externe Anzeigeeinrichtung 7, die ein gewöhnliches Fernsehgerät ist, als mit dem Prozessorkörper 1 verbunden dargestellt wurde, ist die externe Anzeige nicht auf das Fernsehgerät beschränkt, sondern kann ein Display z. B. eines Personal Computers sein. Alternativ können die Anzeige, der Lautsprecher und das Steuer Pad im Körper 1 zusammengefasst werden. In diesem Fall wird ein sehr kompakter Prozessor verwirklicht.
  • Während in dem zweiten Beispiel ein Bildprozessor veranschaulicht wurde, der einen Bilderzeugungsprozess für Personen, Tiere oder Objekte ausführt, ist die vorliegende Erfindung auf andere Einrichtungen anwendbar, die z. B. Datenverarvbeitung in Form eines Dialogs mit dem Benutzer über den Menüschirm durchführen. Während in elektronischen Notizbüchern und Textprozessoren mit hoch entwickelten Funktionen der Menüschirm eine komplizierte Struktur aufweist werden zum Beispiel ein hinweisendes Bild, das die Rolle eines Cursors, der ein Item bezeichnet, erfüllt, und Information, die den Inhalt eines durch das hinweisende Bild bezeichneten ltems erklärt, angezeigt. Die Schirmmanipulation unter Betrachten des Menüschirms wird somit erleichtert.
  • Drittes Beispiel
  • Das dritte Beispiel des erfindungsgemßen Bildprozessors wird als Nächstes spezifisch beschrieben.
  • Fig. 27 ist ein Blockschaltbild der Schaltung eines Bildprozessors 201 dieses Beispiels. Der Bildprozessor 201 umfasst eine CPU 202, ein ROM 203, ein RAM 204, eine Vodeosignaleingabe 205, einen Videosignalwandler (A/D) 206, einen VDP 207, ein Video-RAM 208, einen Videosignalwandler (D/A) 209, eine Videosignalausgabe 210, eine Buchstabeneingabe 211, ein Steuerfeld 212, eine Buchstabenkettenzustands-Bestimmungseinheit 213 und einen Drucker 214.
  • Die CPU 202, das ROM 203, das RAM 204, der Videosignalwandler (A/D) 206, der VDP 207, der Videosignalwandler (D/A) 209, das Steuerfeld 212, die Buchstabenkettenzustands- Bestimmungseinheit 213 und der Drucker 214 sind durch einen Bus 217 verbunden. Die Videosignaleingabe 205 und der Videosignalwandler (P/D) 206; der VDP 207 und das Video- RAM 208; der Videosignalwandler (D/A) 209 und die Videosignalausgabe 210 sind durch Busse 218, 219 bzw. 220 verbunden.
  • Ein Videosignalgenerator 215 ist durch ein Signalkabel 221 mit der Videosignaleingabe 205 des Bildprozessors 201 verbunden. Ein Videosignalmonitor 216 ist durch ein Signalkabel 222 mit der Videosignalausgabe 210 verbunden.
  • Das ROM 203 enthält Programme und verschiedene Daten, die für den von dem Bildprozessor auszuführenden Prozess erforderlich sind. Die verschiedenen im ROM 203 enthaltenen Daten umfassen Bilddaten für verschiedene Sprechblasen (1-9), gezeigt in Fig. 28, Daten des Bildes eines Menüschirms von Fig. 32, Daten des Bildes eines Buchstabeneingabeschirms von Fig. 40A, Schriftartdaten, Farbdaten, Koordinatenpositionsdaten usw. Die Sprechblase schließt eine umgebende Figur ein, die eine Buchstabenkette usw. umgibt, die den Inhalt von Wörtern oder Gedanken, die eine Person usw. ausstößt oder ausdrückt, angibt.
  • Das RAM 204 ist ein Arbeitsspeicher der CPU 202. Ein Teil seines Speicherbereichs ist einem Pufferbereich zum Drucken zugeordnet. Die Kapazität des Pufferbereichs ist so, dass sie Bilddaten für ein Feld speichern kann.
  • Die CPU 202 benutzt das RAM 204 als einen Arbeitsspeicher, um die jeweiligen Elemente des Bildprozessors 201 nach Maßgabe eines im ROM 203 enthaltenen Programms zu steuern.
  • Die Videosignaleingabe 205 gibt ein Videosignal, das vom Videosignalgenerator 215 über das Signalkabel 221 kommt, an den Videosignalwandler (A/D) 206 aus, der dieses Videosignal in ein Digitalsignal umsetzt.
  • Der VDP 207 hott nacheinander im RAM 204 gespeicherte Bilddatan und überträgt sie in das Video-RAM (VRAM) 208 und gibt seine Bilddaten an den Videosignalwandler (DIA) 209 usw. aus.
  • Der Videosignalwandler 209 wandelt Bilddaten in ein Videosignal um und gibt dasselbe an die Videosignalausgabe 210 aus, die dieses Videosignal an den Videosignalmonitor 216 ausgibt.
  • Das Steuerfeld 212 besitzt A-, B-, C-, D-, L-, R-, START- und AUSWAHL-Tasten als Bedienelemente und einen darauf angebrachten Stromversorgungsschalter (alle nicht gezeigt). Die Bedienungssignale von den verschiedenen Bedienelementen werden in die CPU 202 eingegeben.
  • Die Buchstabenkettenzustands-Bestimmungseinheit 213 hat in ihrem anfänglichen Speicher eine Zustandsbestimmungstabelle, in der mentale Situationen wie reizend, verärgert, zweifelhaft, Weinen usw. in entsprechender Beziehung zu spezifizierten Symbolen wie einem Zwischenraumsymbol "u", Ausrufungszeichen "!", Fragezeichen "7' usw. platziert werden, die an den Enden von Symbolketten in den Ausdrücken der jeweiligen Situationen benutzt werden und die Situation bestimmen, die durch eine angezeigte Eingabebuchstabenkette auf der Basis des Symbols am Ende der ausgedrückten Eingabebuchstabenkette ausgedrückt wird.
  • Der Drucker druckt in den Druckpufferbereich des RAM 204 geladene Bilddaten.
  • Im dritten Beispiel ist die Buchstabeneingabeeinheit 211 eine virtuelle Einheit, die auf dem Videosignalmonitor 216 Bilddaten des im ROM 203 enthaltenen Buchstabeneingabeschirms anzeigt, einen Buchstaben/Symbol über den Buchstabeneingabeschrirm durch den Cursor zeigt und den Buchstaben durch Drücken des Taste A auf dem Steuerfeld 212 eingibt. Während des Anzeigens des Buchstabeneingabeschirms fungiert der Videosignalmonitor 216 als Buchstabeneingabeeinheit 211.
  • Der Videosignalgenerator 215 kann ein Videospieler oder ein Camcorder zum Hausgebrauch sein.
  • Der Videosignalmonitor 216 kann ein Monitor sein, der imstande ist, ein Videosignal visuell anzuzeigen, z. B. ein Haushalts-Fernsehgerät.
  • Die Arbeitsweise des Bildprozessors 201 des vorliegenden Beispiels wird mit Verweis auf Flussdiagramme in Fig. 42-46 und Monitorbilder in Fig. 28-41 beschrieben. Die Operationen des Bildprozessors 201 in den unten gezeigten jeweiligen Schritten werden von der CPU 202 durchgeführt, die im ROM 203 gespeicherte Programmbefehle nacheinander ausführt.
  • Wenn der Stromversorgungsschalter (nicht gezeigt) des Steuerfeldes 212 eingeschaltet wird, wird das Programm (Hauptprogramm) von Fig. 42 ausgeführt, und eine Initialisierung der betreffenden Elemente des Bildprozessors 201, die das Löschen aller Daten im RAM 204 und VRAM 208 einschließt, wird durchgeführt (Schritt S201). Danach wird das Eingeben eines Videosignals durch den Videosignalgenerator 215 begonnen (Schritt S202). Danach wird festgestellt, ob der VDP 207 jetzt auf das RAM 204 zugreift (Schritt S203). Wenn nicht, wird ein vom Videosignalgenerator 215 erzeugtes Videosignal über die Videosignaleingabe 205 in den Videosignalwandler 206 eingegeben, wo es in ein Digitalsignal umgewandelt wird, das durch den VDP 207 sequentiell in das VRAM 208 geschrieben wird (Schritt S204). Die in das VRAM 208 geschriebenen Bilddaten werden vom VDP 207 sequentiell an den Videosignalwandler (DIA) 209 ausgegeben, der das Videosignal in ein Analogsignal umsetzt, das dann durch die Videosignalausgabe 210 an den Videosignalmonitor 216 ausgegeben wird. Somit wird, wie in Fig. 29A gezeigt, das vom Videosignalgenerator 215 erhaltene oder eingegebene Bild auf dem Schirm des Videosignalmonitors 216 angezeigt.
  • Als Nächstes wird festgestellt, ob die Eingabeoperation über das Steuerfeld durchgeführt wurde (Schritt S205). Wenn ja, wird weiter festgestellt, ob seine Eingabeoperation durch Drücken der Taste A durchgeführt wurde (Schritt S206). Wenn ja, wird das vom Videosignalgenerator 215 erzeugte Videosignal sequentiell über die Videosignaleingabe 205 und den Videosignalwandler (ND) 206 in einen vorbestimmten Speicherbereich des RAM 204 geschrieben (Schritt S207).
  • Danach wird festgestellt, ob die Eingabeoperation durch das Bedienelement durchgeführt wurde (Schritt S208). Wenn ja, wird weiter festgestellt, ob die Eingabeoperation durch die START-Taste ausgeführt wurde (Schritt S209). Wenn ja, wird in Schritt S210 das Programm, das den Prozess D von Fig. 46 darstellt, ausgeführt.
  • Im Prozess D werden zuerst die Bilddaten über den im ROM 203 enthaltenen Buchstabeneingabeschirm durch den VDP 207 in das VRAM 208 geschrieben und über den Videosignalwandler (DIA) 209 und die Videosignalausgabe 210 an den Videosignalmonitor 216 ausgegeben. Somit wird ein Buchstabeneingabeschirm von Fig. 40B auf dem Videosignalmonitor 216 ausgegeben (Schritt S601). Eingabebezeichnungssysmbole wie "A", "a", "#", ENDE" usw. werden zusätzlich zu der Eingabebuchstabenkette auf dem Buchstabeneingabeschirm angezeigt. In diesem Zusammenhang sind "A", "a" und "#" Symbole, die eine Großbuchstabeneingabe, eine Kleinbuchstabeneingabe bzw. eine Zifferneingabe bezeichnen. "ENDE" ist ein Symbol, um das Ende der Buchstabeneingabeoperation zu bezeichnen.
  • Wenn die Taste Auf, Ab, Rechts oder Links in einem Zustand gedrückt wird, bei dem der Buchstabeneingabeschirm angezeigt wird, bewegt sich der Cursor auf dem Schirm, um dadurch einen Buchstaben usw. an der Cursorposition betont anzuzeigen. Durch Drücken der Taste A auf dem Bedienfeld 212, während Buchstaben, andere einzugebende Symbole und Eingabebezeichnungesymbole wie "ENDE", "#" usw. betont angezeigt werden, wird die Buchstabeneingabe- und Bezeichnungsoperation durchgeführt.
  • Während die Buchstabeneingabeoperation auf dem Buchstabeneingabeschirm durchgeführt wird, wird festgestellt, ob die Eingabeoperation durch das Bedienelement ausgeführt wurde (Schritt S602). Wenn ja, wird weiter festgestellt, ob seine Eingabeoperation durch Drücken der Taste A durchgeführt wurde (Schritt S603). Jedes Mal, wenn die Taste A gedrückt wird, wird festgestellt, welcher Eingabebezeichnungszustand vorhanden ist (Schritt S604).
  • Wenn z. B. festgestellt wird, das der Zifferneingabe-Bezeichnungszustand vorliegt, werden die eingegebenen Buchstaben durch eine im ROM 203 enthaltene Ziffernumwandlungstabelle (Fig. 41) in eine Ziffer umgewandelt (Schritt S605). Daten über die Ziffer, in die Daten der Buchstabenkette umgewandelt wurden, werden durch den VDP 207 in das VRAM 208 geschrieben, und die Ziffern-Buchstabenketten-Bilddaten und die vom Videogenerator 215 eingegebenen Bilddaten werden über den Videosignalwandler (D/A) 209 und die Videosignalausgabe 210 an den Videosignalmonitor 216 ausgegeben. Somit wird, wie in Fig. 40C gezeigt, die gezifferte Buchstabenkette im oberen Teil des Monitorschirms angezeigt (Schritt 5606). Im Fall eines regulären Eingabebezeichnungszustands wird eine ungezifferte Eingabebuchstabenkette im oberen Teil des Monitorschirms, wie in Fig. 40D gezeigt, angezeigt.
  • Die Anzahl anzuzeigender Eingabebuchstaben hat eine Obergrenze. Jedes Mal, wenn ein Buchstabe eingegeben wird, wird festgestellt, ob die Anzahl eingegebener Buchstaben die Obergrenze der Zahl anzuzeigender Eingabebuchstaben übersteigt (in diesem Fall 12 Buchstaben) (Schritt S607). Nur wenn festgestellt wird, das die Obergrenze nicht überschritten wurde, werden die Eingabebuchstaben angezeigt (Schritt S608).
  • Danach werden, wenn in Schritt S604 festgestellt wird, dass ein Zustand, bei dem die Eingabeoperation von Buchstaben geendet hat, aufgetreten ist, Daten über die Bilder von Buchstaben (Schriftartdaten) der auf dem Schirm angezeigten Eingabebuchstabenkette (Schriftartdaten) aus dem ROM 203 gelesen und in einen vorbestimmten Speicherbereich des RAM 204 geladen (Schritt S609). Daten über das Bild der in das RAM 204 geladenen Buchstabenkette werden vom VDP 207 in das VRAM 208 geschrieben, Daten über das Bild der Buchstabenkette und Daten über das Eingabebild werden kombiniert und über den Videosignalwandler (DIA) 209 und die Videosignalausgabe 210 an den Videosignalmonitor 216 ausgegeben. Somit wird, wie in Fig. 29B gezeigt, die eingegebene Buchstabenkette seitlich von einem auf dem Schirm angezeigten Gesicht einer Person angezeigt.
  • Somit endet der Buchstabeneingabeprozess, die Steuerung kehrt dann zum Hauptprogramm (Fig. 42) zurück, und in Schritt S211 wird festgestellt, ob es einen Eingabebuchstaben in dem Buchstabeneingabeprozess gibt (Schritt S210). Wenn ja, wird das Programm für den Prozess A von Fig. 43 im nächsten Schritt S212 ausgeführt.
  • Im Prozess A wird zuerst festgestellt, welche der Tasten A, C, D und L gedrückt wurde (Schritt S301). Wenn festgestellt wird, dass keine von ihnen gedrückt wurde, wird in Schritt 5302 ein Programm für einen Prozess B von Fig. 44 ausgeführt.
  • Im Prozess B werden zuerst Daten von dem Bild einer vorbestimmten ganz normalen Sprechblase (kubische Bezier-Daten) aus dem ROM 203 gelesen und in den vorbestimmten Speicherbereich des RAM 204 geladen, sodass eine Sprechblase die bereits in das RAM 204 geladene Buchstabenkette umgibt (Schritt S401).
  • Die in das RAM 204 geladenen Buchstabenketten-Bilddaten und die Sprechblasenbilddaten werden durch den VDP 207 in das VRAM 208 geschrieben, die Buchstabenketten-Bilddaten, die Sprechblasenbilddaten und die eingegebenen Bilddaten werden kombiniert und über den Videosignalwandler (D/A) 209 und die Videosignalausgabe 210 an den Videosignalmonitor 216 ausgegeben. Somit wird, wie in Fig. 30C gezeigt, ein synthetisches Bild, das aus dem eingegebenen Bild, dem Buchstabenkettenbild und dem Sprechblasenbild besteht, angezeigt
  • Danach wird festgestellt, ob die Auswahltaste gedrückt wurde (Schritt S402). Wenn ja, bestimmt die Buchstabenkettenzustands-Bestimmungseinheit 213 auf der Basis eines Symbols (Zwischenraum " ", Ausrufungszeichen "!", Fragezeichen "?" usw.) am Ende der momentan angezeigten Eingabebuchstabenkette, was die durch dis Eingabebuchstabenkette (erfreut sein, verärgert, zweifelnd, weinend usw.) ausgedrückte momentane Situation ist. Des Weiteren wird auf die im ROM 203 enthaltene Umwandlungstabelle (Fig. 39) Bezug genommen, und es wird geprüft, mit welcher Bedingung in der Umwandlungstabelle die momentan ausgedrückte Situation übereinstimmt (Schritt S403). Wenn als Ergebnis der Bezugnahmeoperation die entsprechende Sprechblase ausgewählt wird (Schritt S404), werden die bis jetzt in das RAM 204 geladenen Sprechblasen-Bilddaten mit den ausgewählten Sprechblasendaten umgeschrieben (Schritt S405). Somit wird ein auf dem Schirm angezeigtes Sprechblasenbild, das die mentale Situation der Person usw. wirkungsvoller ausdrücken kann, automatisch angezeigt.
  • Wenn in Schritt S301 des Prozesses A (Fig. 43) festgestellt wird, dass die Taste A gedrückt wurde, wird anschließend festgestellt, ob die Anzahl von Buchstaben der eingegebenen Buchstabenkette größer als die vorgegebene Anzahl von Buchstaben ist (Schritt 5303). Es sei jetzt angenommen, dass die vorgegebene Anzahl von Buchstaben sechs ist Wenn die eingegebene Zahl von Buchstaben sechs oder mehr beträgt, wird die eingegebene Buchstabenkette bei ihrem sechsten Buchstaben automatisch zurückgefaltet (Schritt 5304). Die Größe (vertikal y1, horizontal x1) der rückgefalteten Eingabebuchstabenkette wird berechnet (Schritt S305). Des Weiteren wird auf der Basis des Ergebnisses dieser Berechnung die Größe einer Sprechblase (vertikal y2, horizontal x2), die die rückgefaltete Eingabebuchstabenkette umgeben kann, berechnet (Schritt S306). Zu dieser Zeit wird die Größe (vertikal y2, horizontal x2) der Sprechblase so berechnet, dass sie z. B. 1.4mal die Größe (vertikal y1, horizontal x1) der Buchstabenkette vertikal wie horizontal hat. Danach wird die Mittenposition (yc, xc) der eingegebenen Buchstabenkette berechnet (Schritt S307). Die Sprechblasenbilddaten werden in das RAM 204 so geladen, dass die eingegebene Buchstabenkette in der Mittenposition mit der Sprechblase übereinstimmt (Schritt S308). Die Sprechblase wird daher automatisch so angezeigt, dass die rückgefaltete Eingabebuchstabenkette an einer Stelle platziert wird, wo sie innerhalb der Sprechblase gut aussieht (Fig. 31A, 31B).
  • Durch Drücken der Taste L auf dem Steuerfeld 212, nachdem das eingegebene Bild mit der von der Sprechblase umgebenen Nachrichteninformation angezeigt wurde, werden die angezeigten, scheinbar synthetischen Buchstabenketten-Bilddaten, die Sprechblasenbilddaten und die eingegebenen Bilddaten als Einbild-Daten in einen Druckpufferbereich des RAM 204 geladen, und die Einbild-Daten werden vom Drucker 214 gedruckt (Fig. 30C, 31C).
  • Wenn in Schritt S301 festgestellt wird, das die Taste L gedrückt wurde, wird weiter festgestellt, ob die Taste A gedrückt wurde Schritt S309). Wenn ja, wird anschließend festgestellt, ob die Zahl von Malen des Drückens der Taste A gerade und ungerade ist (Schritt S310). Wenn festgestellt wird, dass die gerade (außer 0-mal) ist, wird eine vertikal invertierte Version des Sprechblasenbildes, von dem Daten im RAM 204 gespeichert sind, berechnet (Schritt S311), und die Daten des Sprechblasenbildes im RAM 204 werden durch Daten der invertierten Version ersetzt. Wenn in Schritt S310 festgestellt wird, dass die Zahl von Malen des Drückens der Taste A ungerade ist, wird eine horizontal invertierte Version des Sprechblasenbildes, von dem Daten im RAM 204 gespeichert sind, berechnet (Schritt S313), und die Daten des Sprechblasenbildes im RAM 204 werden durch Daten der horizontal invertierten Version ersetzt. Somit wird, wenn die Taste A gedrückt wird, nachdem die Taste L gedrückt wurde, das Sprechblasenbild der passenden vertikalen oder horizontalen Umkehrung unterzogen, und wenn in der nächsten Situation die Taste A gedrückt wird, nachdem die Taste L gedrückt wurde, wird das Sprechblasenbild der anderen vertikalen oder horizontalen Umkehrung unterzogen. Diese Situation tritt in einer abwechselnd wiederholten Weise auf.
  • Wenn in Schritt S301 des Prozesses A festgestellt wird, dass die Taste G gedrückt wurde, werden die im ROM 203 enthaltenen Daten vom Bild eines Menüschirms (Fig. 32) durch den VDP 207 in das VRAM 208 geschrieben, und der Menüschirm wird in dem angezeigten Schirm überlappend angezeigt, wie in Fig. 33A 36A gezeigt, (Schritt S314).
  • Im Menüschirm von Fig. 32 bezeichnet "BUCHSTABE" Eingabetasten, von denen jede eine andere Farbe des Buchstabens angibt; "RAND" bezeichnet Eingabetasten, von denen jede eine andere Farbe des Randes einer Sprechblase (ein Umriss) angibt "HINTERGRUND" bezeichnet Eingabetasten, von denen jede eine andere Farbe des Bereichs innerhalb der Sprechblase angibt; "GRÖSSE" bezeichnet Eingabetasten, von denen jede eine andere Größe der Buchstaben angibt, und "ART" bezeichnet Eingabetasten, von denen jede eine andere Form der Sprechblase angibt Das heißt, die jeweiligen Seite-an-Seite angeordnet angezeigten Eingabetasten drücken die entsprechenden Paramater der Attribute aus. Die Parameter von "BUCHSTABE", "RAND" und HINTERGRUND" werden in ihren wirklichen Farben (von links nach rechts: Rot, Orange, Gelb, Grün, Hellblau, Blau, Weiß, Schwarz, Transparent) angezeigt. Ein Parameter von "GRÖSSE" wird durch einen entsprechenden nummerischen Wert "1"-"9" dargestellt. In diesem Zusammenhang ist die Beziehung in der Entsprechnung zwischen nummerischem Wert ("1"-"9") und der Zahl von Pixeln wie folgt: 1 : 16 Punkte; 2 : 20 Punkte; 3 : 24 Punkte; 4 : 32 Punkte; 5 : 48 Punkte; 6 : 60 Punkte; 7 : 72 Punkte; 8 : 96 Punkte und 9 : 128 Punkte. Auch ein Parameter von "ART" wird ähnlich durch einen nummerischen Wert ("1'-"9") ausgedrückt.
  • Durch Drücken der Cursortasten Aufwärts, Abwärts, Rechts oder Links auf dem Steuerfeld 212 in einem Zustand, wo der Menüschirm angezeigt wird, wird der Cursor in der entsprechenden Richtung auf dem Anzeigeschirm bewegt, um dadurch die Eingabetaste an der Cusorposition hervorgehoben anzuzeigen. Durch Drücken der Taste A auf dem Steuerfeld 212, während eine gewünschte Eingabetaste hervorgehoben angezeigt wird, wird eine Änderung eines Attributs einer auf dem Schirm angezeigten Sprechblase bestimmt.
  • Das heißt, nachdem ein Menüschirm angezeigt ist, wird festgestellt, ob ein Bedienelement betätigt wurde, um die entsprechenden Daten einzugeben (Schritt S315). Wenn ja, wird anschließend festgestellt, ob seine Eingabe von der Betätigung der Cursortaste (Aufwärts, Abwärts, Rechts oder Links) abhängt (Schritt S316). Wenn ja, wird anschließend festgestellt, ob Daten, die eine Änderung des Attributs bestimmen, eingegeben wurden (Schritt S317). Wenn ja, wird weiter festgestellt, welches der Attribute, das heißt, die Farbe des Buchstabens, des Sprechblasenrandes oder der Sprechblasen-Innenfläche; Buchstabengröße, und Sprechblasenform, der bestimmte Änderungswert zu ändern verlangt (Schritt S318).
  • Wenn in Schritt S318 festgestellt wird, dass der bestimmte Änderungswert die Farbe eines Buchstabens betrifft, wird die Farbnummer der Buchstabenkette, deren Daten im VRAM 208 gespeichert sind, in eine Nummer geändert, die dem Änderungswert entspricht, sodass die anzuzeigende Buchstabenfarbe durch den VDP 207 in eine durch die geänderte Nummer angegebene Farbe geändert wird (Schritt S319). Somit wird die Farbe von Buchstaben in der auf dem Schirm angezeigten Sprechblase geändert.
  • Wenn in Schritt S318 festgestellt wird, dass der bestimmte Änderungswert die Farbe des Sprechblasenrandes betrifft, wird die Farbnummer des Sprechblasen-Bildrandes, wovon Daten im VRAM 208 gespeichert sind, in eine Nummer geändert, die dem Änderungswert entspricht, sodass die anzuzeigende Sprechblasenbild-Randfarbe durch den VDP 207 in eine durch die geänderte Nummer angegebene Farbe geändert wird (Schritt S320). Somit wird die Farbe des auf dem Schirm angezeigten Sprechblasenrandes geändert (Fig. 33A und 33B).
  • Wenn in Schritt S318 festgestellt wird, dass der bestimmte Änderungswert die Farbe eines Sprechblaseninneren betrifft, wird die Farbnummer des Sprechblaseninneren, wovon Daten Im VRAM 208 gespeichert sind, in eine Nummer geändert, die dem Änderungswert entspricht, sodass die anzuzeigende Farbe des Sprechblaseninneren durch den VDP 207 in eine durch den Änderungswert angegebene Farbe geändert wird (Schritt S321). Somit wird die Farbe des auf dem Schirm angezeigten Sprechblaseninneren geändert (Fig. 34A und 34B).
  • Wenn in Schritt S318 festgestellt wird, dass der bestimmte Änderungswert die Größe einer Buchstabenkette betrifft, wird die Größe der Buchstabenkette, wovon Daten im RAM 204 gespeichert sind, in eine Größe geändert, die dem Änderungswert entspricht (Fig. 35B). Die Größe des Sprechblasenbildes, wovon Daten im RAM 204 gespeichert sind, wird abhängig von der Größe der betroffenen Buchstabenkette neu berechnet, sodass es eine angemessene Größe besitzt (z. B. 140% der Größe (vertikal/horizontal) der Buchstabenkette), und Daten von der neu berechneten angemessenen Größe des Sprechbiasenbildes werden neu in das RAM 204 geschrieben und dann in das VRAM 208 übertragen (Schritt S322). Somit wird, wenn sich die Größe der Buchstabenkette ändert, die Größe der Sprechblase automatisch geändert (Fig. 35C).
  • Wenn in Schritt S318 festgestellt wird, dass der bestimmte Änderungswert die Form der Sprechblase betrifft, werden Daten über die Sprechblasenform, die dem Änderungswert entspricht, aus dem ROM 203 gelesen und wieder im RAM 204 angeordnet. Die Buchstabenkette, wovon Daten im ROM 204 geladen sind, wird geändert, sodass sie eine passende Größe und Anordnung gemäß der Form und Größe der Sprechblase aufweist, und die sich ergebenden Buchstabenkettendaten werden neu in das RAM 204 geschrieben und in das VRAM 208 übertragen (Schritt S323). Somit wird, wenn sich die Sprechblasenform ändert, die Größe und Anordnung einer Buchstabenkette in der Sprechblase automatisch geändert (Fig. 36).
  • Wenn in Schritt S301 des Prozesses A festgestellt wird, dass die Taste "D" gedrückt wurde, wird in Schritt S324 das Programm des Prozesses C von Fig. 45 ausgeführt.
  • Im Prozess C wird zuerst festgestellt, ob bereits eine Sprechblase anzeigt wurde (Schritt S502). Wenn ja, werden die Buchstabenkette und die Sprechblase zusammengefasst (Schritt S502). Wie in Fig. 37B gezeigt, wird ein sich bewegender Cursor in der Form einer Hand überlappend mit der Sprechblase auf dem Monitoranzeigeschirm angezeigt (Schritt S503). Danach wird festgestellt, ob Daten durch ein Bedienelement eingegeben wurden (Schritt S504). Wenn ja, wird anschließend festgestellt, ob die Daten durch die Cursortaste (Aufwärts, Abwärts, Rechts, Links) als das Bedienelement eingegeben wurden (Schritt S505). Wenn ja, wird der bewegliche Cursor zu einer gemäß der Betätigung der Cursortaste bestimmten Position bewegt, was die Sprechblasen-Bilddaten und die Buchstabenketten-Bilddaten im RAM 204 veranlasst, sich zu derselben Stelle wie der Cursor zu bewegen (Schritt S508). Somit werden die Sprechblase und die Buchstabenkette gleichzeitig bewegt. Wie jetzt in Fig. 37C gezeigt, sieht es aus, als ob eine "Hand" in dem Bild die Sprechblase und die Buchstabenkette tragen würde. Wenn die Taste A gedrückt wird, hält die Bewegung der Sprechblase und der Buchstabenkette an, und der bewegliche Cursor verschwindet von dem Bildschirm, wie in Fig. 37d gezeigt, (Schritt S507).
  • Da der Bildprozessor des dritten Beispiels imstande ist, die Bilder verschiedener Personen und Tiere unter Verwendung z. B. eines Haushalts-Videospielers als Videosignalgenerator und Hinzufügen verschiedener Sprechblasen zu dem Bild, wenn ein Buchstabe oder eine Buchstabenkette in das Bild eingegeben wird, zu erlangen, wird somit ein lebendes Bild durch Hinzufügen verschiedener in Sprechblasen gehüllter Nachrichteninformation zu den Ausdrücken der Personen und Tiere angezeigt.
  • Da die in Sprechblasen gehüllte Nachrichteninformation verschiedenen Bildern hinzugefügt und durch den Drucker 214 gedruckt werden kann, können Ausdrucke als ein Geschenk an die Familie oder Freunde des Benutzers verwendet werden.
  • Die vorliegende Erfindung ist nicht auf das dritte Beispiel beschränkt. Zum Beispiel, während der Bildprozessor des dritten Beispiels Daten eines Bildes eines im ROM 203 enthaltenen Buchstabeneingabeschirms auf dem Videosignalmonitor 216 anzeigt, um die Buchstaben- Eingabeeinheit 211 virtuell zu verwirklichen, kann er eine Einheit wie die Buchstaben-Eingabeeinheit 211 natürlich als eine wirkliche Einheit enthalten.
  • Da der Bildprozessor eine ausreichend fortschrittliche Funktion erfüllt; indem er nur die Funktion des Hinzufügens in Sprechblasen geh gehüllter Bildinformation zu dem Bild des Gesichts einer Person oder eines Tieres und Anzeigen desselbens besitzt, muss die Druckfunktion nicht unbedingt bereitgestellt werden.
  • Viertes Beispiel A. Aufbau des vierten Beispiels: (1) Gesamtstruktur:
  • Fig. 47 ist ein Blockschaltbild, das die Gesamtstruktur einer Gesichtsbild-Erzeugungseinrichtung 301 als ein viertes Beispiel der vorliegenden Erfindung zeigt. Die Gesichtsbild-Erzeugungseinrichtung 301 liefert einer Anzeige 302 ein zusammengesetztes Videosignal Sv, das auf der Basis ihrer später zu beschreibenden Elemente 310-316 erzeugt wird. Die Anzeige 302 kann z. B. ein normales Fernsehgerät oder ein VDT (Video-Display Terminal) sein und zeigt ein Bild abhängig von dem von der Gesichtsbild-Erzeugungseinrichtung 301 gelieferten zusammengesetzten Videosignal % an.
  • In der Gesichtsbild-Erzeugungseinrichtung 301 bezeichnet Verweiszeichen 310 eine Steuereinheit, die verschiedene Bedienungsschalter besitzt und ein von der Schaltoperation des Operators abhängiges Steuersignal erzeugt. Wie in Fig. 48 gezeigt, befinden sich auf der Steuereinheit 310 eine Cursortaste CUR, die aus einer Aufwärts- oder Abwärtstaste, die den Cursor vertikal bewegt, und einer Links- oder Rechtstaste, die den Cursor horizontal bewegt, besteht, eine Entscheidungstaste ENT, die einen durch die Cursortaste CUR ausgewählten Icon-Prozess bestimmt, und eine Freigabetaste ESC, die zum Freigeben der Einstellung benutzt wird. Verweiszeichen 311 bezeichnet eine CPU, die die jeweiligen Elemente der Einrichtung auf der Basis von Steuersignalen, die von der Steuereinheit 310 erzeugt werden, steuert und deren Funktion später beschrieben wird. Die CPU 311 umfasst weiter periphere Einrichtungen, z. B. einen DMA-Controller (nicht gezeigt), um eine DMA-Cibertragungsoperation durchzuführen.
  • Verweiszeichen 312 bezeichnet ein ROM, das ein durch die CPU 311 geladenes Gesichtsbild-Erzeugungsprogramm, Bilddaten, die ein Gesichtsbild und eine später zu beschreibende Sprechblase anzeigen, oder Bilddaten enthält, die zur Anzeige eines Steuerbildschirms nötig sind, auf dem die Icon-Operation ausgeführt wird. Die Speicherstruktur des ROM 312 wird später beschrieben. Verweiszeichen 313 bezeichnet ein Arbeits-RAM, das verschiedene Register enthält, die die Ergebnisse von Berechnungen der CPU 311 und Flag-Werte vorübergehend speichern, und außerdem verschiedene aus dem ROM 312 gelesene Bilddaten und Attributdaten (später zu beschreiben) speichern. Die Speicherstruktur des Arbeits-RAM 313 wird später beschrieben. Verweiszeichen 314 bezeichnet einen Videoanzeigeprozessor (VDP), der die Anzeige unter Kontrolle der CPU 311 steuert und verschiedene per DMA übertragene Bilddaten in Anzeigedaten (RGB-Daten) umwandelt und sie an ein VRAM 315 ausgibt.
  • Das VRAM 315 speichert Daten eines per DMA aus dem Arbeits-RAM 313 übertragenen Gesichtsbildes oder Bilddaten, die ein Sprechblasenbild gemäß einem Befehl von der CPU 311 erzeugen, oder Bilddaten, die zum Anzeigen des Steuerbildschirms nötig sind, auf dem die Icon-Operation ausgeführt wird. Verweiszeichen 316 bezeichnet einen Encoder, der vom VDP 314 ausgegebene Anzeigedaten (RGB-Daten) in ein zusammengesetzte Videosignal % umwandelt und dieses an die Anzeige 302 ausgibt.
  • Nach dieser Struktur wird ein Gesichtsbild mit dem gewünschten Aussehen durch Teilbilder, die durch die Operation der Steuereinheit 310 ausgewählt werden, erzeugt, und eine Sprechblase wird in einer mit dem erzeugten Gesichtsbild harmonischen Form nach Maßgabe von Attributdaten (später zu beschreiben), die die Merkmale des Gesichtsbildes ausdrücken, angezeigt.
  • (2) Speicherstruktur des ROM 312:
  • Fig. 49 und 50 zeigen einen Speicherplan, der die Struktur eines Bildspeicherbereichs im ROM 312 angibt. In Fig. 49 bezeichnet Verweiszeichen KP einen Gesichtsteilbilddaten- Speicherbereich, der aus Datenbereichen KP1-KP5 besteht die Daten der Bilder der jeweiligen Teile eines Gesichts speichern. Die Datenbereiche KP1-KP5 enthalten Daten von N Arten von "Haar"-Bildern, Daten von N Arten von "Umriss"-Bildern, Daten von N Arten von "Augen"-Bildern, Daten von N Arten von "Nasen"-Bildem und Daten von N Arten von "Mund"- Bildern. Der Datenbereich KP1 enthättz. B. Daten über "Haar"-TeilbilderKP1(1)-KP1(N). Die Form dieses Speichers gilt ähnlich für die anderen Speicherbereiche KP2-KPS.
  • Verweiszeichen ME bezeichnet einen Sprechblasenbilddaten-Speicherbereich, der aus einem Datenbereich ME1, der Daten eines Sprechblasenrahmenbildes zur Sprechblasenanzeige speichert, und einem Speicherbereich ME2 besteht, in dem Sprechblasenbuchstabenketten-Bilddaten gespeichert werden, die eine in dem Sprechblasenrahmen angezeigte Buchstabenkette abgrenzen. In den Speicherbereichen ME1 und ME2 werden N Arten von Sprechblasen-Bilddaten ME1(1)-ME1(N) und Sprechblasenbuchstabenketten-Bilddaten ME2(1)-ME(N) gespeichert.
  • Verweiszeichen KPT bezeichnet eine Gesichtsteil-Umwandlungstabelle, die ein Gesichtsteilbild ändert, von dem Daten im Speicherbereich KP gespeichert werden. In der Tabelle KPT ist ein Bildänderungsparameter gespeichert, der einen emotionalen Ausdruck einem Gesichtsteilbild verleiht dessen Daten im Bereich KP gespeichert werden, und ein Bildänderungsparameter wird aus der Tabelle KPT in Abhängigkeit von später zu beschreibenden Ausdrucksdaten ausgelesen.
  • Verweiszeichen MET bezeichnet eine Sprechblasenrahmen-Umwandlungstabelle, die eine Sprechblasen-Rahmennummer, die die Form einer Sprechblase angibt, abhängig von Attributdaten, die ein Gesichtsbild begleiten, erzeugt. MECT bezeichnet eine Sprechblasenbuchstabenketten-Umwandlungstabelle, die Daten erzeugt, die einen Sprechblasen-Buchstabenkettenrahmen bezeichnen, der Daten von Attributen, die das Gesichtsbild begleiten, entsprechen.
  • Verweiszeichen KPST bezeichnet eine Gesichtsteil Auswahltabelle, die Daten erzeugt, um die Bilder der jeweiligen Teile eines Gesichts abhängig von Attributdaten auszuwählen, die Geschlecht, Alter, Körperform und Persönlichkeit einer Person ausdrücken. Das heißt, wenn ein Gesichtsbild mit dem gewünschten Aussehen in der Form eines später zu beschreibenden Fragebogens erzeugt wird, erzeugt die Tabelle KPST Daten zum Auswählen und Bestimmen von Daten von den jeweiligen Teilbildern, die erforderlich sind, um dieses Gesicht auf der Basis der von dem Ergebnis des Fragebogens erhaltenen Daten zu erzeugen.
  • Verweiszeichen FE bezeichnet einen Dateibereich, der Daten speichert, die die Bilder der jeweiligen Teile von Gesichtern bezeichnen. Die Speicherstruktur des Dateibereichs FE wird mit Verweis auf Fig. 50 im Einzelnen beschrieben.
  • Wie in Fig. 50 gezeigt, besteht der Dateibereich FE aus Datei-Unterbereichen A-D, wobei jeder Datei-Unterbereich Daten NUM, FN, PN0-PNS, ATT1 ATT4 und ME2 N speichert. NUM drückt eine Dateinummer aus, und FN drückt einen Dateinamen aus. PN0-PN5 drücken Teilenummern aus, die Teilbilder "HINTERGRUND", "HAAR", "UMRISS", "AUGEN", "NASE" bzw. "MUND" bezeichnen. Diese Teilenummern bezeichen die jeweiligen Teilbilddaten, die im oben erwähnten Gesichtsteilbild-Datenbereich KP gespeichert sind. Das PN0 entsprechende Hintergrundbild wird in einem Hintergrund-Speicherbereich (nicht gezeigt) gespeichert. ATT1 ATT4 drücken "GESCHLECHT", "ALTER", "KÖRPERFORM" und "PERSON- LICHKEIT' des anzuzeigenden Gesichtsbildes aus. Die Daten ME2N bezeichnen eine Sprechblasen-Buchstabenkette der oben erwähnten Sprechblasenbuchstabenketten-Bilddaten ME2. Eine Gruppe dieser Daten wird im Folgenden als Bildbezeichnungsdaten bezeichnet.
  • Das ROM 312 enthält des Weiteren Daten über eine Vielzahl von Auswahlanzeigeschirmen, von denen jeder zusätzlich zu dem Dateibereich FE einer Icon-Operation unterliegt. Wie in Fig. 50 gezeigt, sind die hauptsächlichen Anzeigeschirme ein Modusauswahl-Anzeigeschirm MSD, ein Fragebogen Anzeigeschirm AMD, ein Geschlechtsauswahl-Anzeigeschirm SSD, ein Altersauswahl-Anzeigeschirm OSD, ein Körperformauswahl Anzeigeschirm BSD, ein Dateiauswahl-Anzeigeschirm FSD, ein Rahmenauswahl-Anzeigeschirm WSD, ein Buchstabenkettenauswahl-Anzeigeschirm MOSD und ein Sprechblasenauswahl-Anzeigeschirm FWSD. Die Struktur jedes Anzeigeschirms und was dieser Anzeigeschirm ausdrücken soll, wird unten umrissen.
  • (3) Struktur eines zu bedienenden Anzeigeschirms: a) Modusauswahl-Anzeigeschirm MSD:
  • Der Modusauswahl-Anzeigeschirm MSD wird benutzt, um zu bestimmen, in welchem eines Fragebogensystems oder Dateisystems, später zu beschreiben, ein Gesichtsbild erzeugt wird. Wie in Fig. 51A gezeigt, werden Icons ICMSD1 und ICMSD2 auf dem Anzeigeschirm angezeigt. Icon ICMSD1 wird betätigt, um eine der Dateien A-D des Dateibereichs FE auszuwählen. Icon ICMSD2 wird betätigt, um ein Gesichtsbild in dem später zu beschreibenden Fragebogensystem zu erzeugen. Dasjenige der Icons ICMSD1 und ICMSD2, das betätigt wurde, wird durch Bitumkehrung hervorgehoben angezeigt. Fig. 51A zeigt z. B. einen Zustand, wo leon ICMSD1 betätigt wurde.
  • b) Dateiauswahl-Anzeigeschirm FSD:
  • Wenn das Icon ICMSD1 im Modusauswahl-Anzeigeschirm MSD betätigt wurde, wird der Dateiauswahl-Anzeigeschirm von Fig. 51B angezeigt. Auf dem Anzeigeschirm FSD werden Icons ICFSD1-ICFSD4, die den Dateien A-D entsprechen, angezeigt. Durch Betätigen eines der Icons ICFSD1-ICFSD4 werden die oben erwähnten Bildbezeichnungsdaten aus einer dem betätigten Icon entsprechenden Datei ausgelesen. Auf der Basis der gelesenen Bildbezeichnungsdaten werden die entsprechenden verschiedenen Bilddaten vom ROM 312 in das Arbeits-RAM 313 gespeichert und in das VRAM 315 per DMA übertragen und durch den VDP 314 als ein Gesichtsbild auf dem Schirm angezeigt.
  • c) Fragebogen-Anzeigeschirm AMD:
  • Wenn das Icon ICMSD2 im Modusauswahl-Anzeigeschirm MSD betätigt wird, erscheint der Fragebogen-Anzeigeschirm AMD von Fig. 52, in dem Fragebogenitems als Icons ICAMD1- ICAMD5 angezeigt werden, die den Benutzer auffordern, zu antworten, wenn ein Gesichtsbild neu erzeugt wird. Das Icon ICAMD1 fragt nach dem Geschlecht einer Zielperson, deren Gesicht erzeugt werden soll. Wenn dieses Icon betätigt wird, wird der später zu beschreibende Geschlechtsauswahl-Anzeigeschirm SSD ausgewählt und angezeigt. Das Icon ICAMD2 fragt nach dem Alter der Zielperson. Wenn dieses Icon betätigt wird, wird der später zu beschreibende Altersauswahl-Anzeigeschirm OSD ausgewählt und angezeigt. Das Icon ICAMD3 fragt nach der Körperform der Zielperson. Wenn dieses Icon betätigt wird, wird der später zu beschreibende Körperformauswahl-Anzeigeschirm BSD ausgewählt und angezeigt. Das Icon ICAMD4 fragt nach der Persönlichkeit einer Zielperson, deren Gesichtsbild erzeugt werden soll. Wenn dieses Icon betätigt wird, wird der der später zu beschreibende Persönlichkeitsauswahl-Anzeigeschirm CSD ausgewählt und angezeigt. Das Icon ICAMD5 wird betätigt, um die Fragebogeneingabeoperation abzuschließen.
  • d) Geschlechtsauswahl-Anzeigeschirm SSD:
  • Wenn das Icon ICAMD1 auf dem Fragebogen-Anzeigeschirm AMD betätigt wird, wird der Geschlechtsauswahl-Anzeigeschirm SSD von Fig. 52 angezeigt, der Icons ICSSD1 und ICSSD2 anzeigt, von denen jede benutzt wird, um Daten über das Geschlecht der Zielperson einzugeben, und die durch die Betätigung dieses Icons bestimmten Geschlechtsdaten werden im Attribut-Datenbereich AU (später zu beschreiben) des Arbeits-RAM 313 gespeichert.
  • e) Altersauswahl-Anzeigeschirm OSD:
  • Wenn das Icon ICAMD2 auf auf dem Fragegen-Anzeigeschirm AMD betätigt wird, wird der Altersauswahl-Anzeigeschirm OSD von Fig. 52 angezeigt, der Icons ICOSD1-ICOSD3 anzeigt, von denen jedes benutzt wird, um Daten über das Alter der Zielperson einzugeben, und die durch die Betätigung dieses Icons bestimmten Altersdaten werden im Attribut-Datenbereich ATT (später zu beschreiben) des Arbeits-RAM 313 gespeichert.
  • f) Körperformauswahl-Anzeigeschirm BSD:
  • Wenn das Icon ICAMD3 auf dem Fragebogen-Anzeigeschirm AMD betätigt wird, wird der Körperformauswahl-Anzeigeschirm BSD von Fig. 52 angezeigt, der Icons ICBSD1-ICBSD3 anzeigt, die benutzt werden, um Daten über die Körperform der Zielperson einzugeben, und die durch die Betätigung dieses Icons bestimmten Körperformdaten werden im Attribut Datenbereich ATT (später zu beschreiben) des Arbeits-RAM 313 gespeichert.
  • g) Persönlichkeitsauswahl-Anzeigeschirm CSD:
  • Wenn das Icon ICAMD4 auf dem Fragebogen-Anzeigeschirm AMD betätigt wird, wird der Persönlichkeitsauswahl-Anzeigeschirm CSD von Fig. 52 angezeigt, der Icons ICCSD1-ICCSD3 anzeigt, die benutzt werden, um Daten über die Persönlichkeit der Zielperson einzugeben, und die durch die Betätigung dieses Icons bestimmten Persönlichkeitsdaten werden im Attribut-Datenbereich ATT (später zu beschreiben) des Arbeits-RAM 313 gespeichert.
  • f) Rahmenauswahl-Anzeigeschirm WSD:
  • Nach dem Erzeugen des Gesichtsbildes in entweder dem vorerwähnten Dateisystem oder in dem Fragebogensystem und wenn "SPRECHBLASENRAHMEN" oder "SPRECHBLASEN-BUCHSTABENKETTE", die zusammen mit dem Gesichtsbild auf dem Schirm angezeigt werden, ausgewählt wird, wird der Rahmenauswahl-Anzeigeschirm WSD von Fig. 53A angezeigt. Auf dem Schirm werden Icons ICWSD1-ICWSD3 angzeigt, die benutzt werden, um "SPRECHBLASENRAHMEN" oder "SPRECHBLASEN-BUCHSTABENKETTE" bzw. "ENDE" auszuwählen. Dieser Schirm wird abhängig von der Icon-Betätigung in den Sprechblasenrahmenauswahl-Anzeigeschirm FWSD oder den Buchstabenkettenauswahl-Anzeigeschirm MOSD geändert.
  • i) Buchstabenkettenauswahl-Anzeigeschirm MOSD:
  • Wenn das Icon ICWSD2 im Rahmenauswahl-Anzeigeschirm WSD betätigt wird, wird der Buchstabenkettenauswaht-Anzeigeschirm MOSD von Fig. 53B angezeigt. Auf dem Bildschirm MOSD werden Icons ICMOSD1-ICMOSD4 angezeigt, von denen jedes eine Grundsprechblasen- Buchstabenkette (Nachrichtentext) auswählt. Abhängig von der Icon-Betätigung wird eine Sprechblasen-Buchstabenkettennummer erzeugt und im Bildbezeichnungs-Datenbereich IMD (später zu beschreiben) des Arbeits-RAM 313 gespeichert.
  • j) Sprechblasenrahmenauswahl-Anzeigeschirm FWSD:
  • Wenn das Icon ICWSD1 im Rahmenauswahl-Anzeigeschirm WSD betätigt wird, wird der Sprechblasenrahmenauswahl-Anzeigeschirm FWSD von Fig. 53C angezeigt, der Icons ICFWSD1-ICFWSD4 anzeigt, deren jeweilige Betätigung eine entsprechende Sprechblasenrahmennummer erzeugt, die dann im Bildbestimmungs-Datenbereich IMD (später zu beschreiben) des Arbeits-RAM 313 gespeichert wird.
  • (4) Struktur des Arbeits-RAM 313:
  • Mit Verweis auf Fig. 54 wird als Nächstes die Speicherstruktur des Arbeits-RAM 313 beschrieben.
  • Wie oben beschrieben, umfasst das Arbeits-RAM 313 einen Speicherbereich, in dem verschiedene Register die Ergebnisse von Berechnungen der CPU 311 und/oder Flag-Werte vorübergehend speichern, und einen Anzeigebereich, wo, wie in Fig. 54 gezeigt, verschiedene Daten, die ein Gesichtsbild/Sprechblase anzeigen, gespeichert werden. Die Anzeigebereiche werden hauptsächlich in einen Bilddatenbereich GD, einen Bildbezeichnungs-Datenbereich IMD und einen Attribut-Datenbereich ATT geteilt.
  • Der Bilddatenbereich GD speichert Teilbilddaten KP1-KP5, die durch Bildbezeichnungsdaten bezeichnet werden, die im später zu beschreibenden Bildbezeichnungs-Datenbereich IMD gespeichert werden, Sprechblasenrahmen-Bilddaten ME1 und Sprechblasenbuchstabenketten-Bilddaten ME2. Diese Daten werden aus dem ROM 312 gemäß den Bildbezeichnungsdaten übertragen.
  • Der Bildbezeichnungs-Datenbereich IMD speichert Daten von Teilenummern PN1-PNS, die jeweilige von KP1-KP5 "HAAR", "UMRISS", "AUGEN", "NASE" und "MUND" als die Bilder von Teilen bezeichnen, die ein Gesicht bilden, SprechblasenrahmennummerWN, die Sprechblasenrahmen-Bilddaten ME1 bezeichnet, Farbnummer CN, die die Anzeigefarbe des Sprechblasenrahmens bezeichnet, und Sprechblasen-Buchstabenkettennummer ME2N, die Sprechblasenbuchstabenketten-Bilddaten ME2 bezeichnet Jeweilige Teilenummern PN1- PN5 der Bildbezeichnungsdaten werden gemäß Attributdaten, die in entweder dem Datei- oder dem Fragebogensystem bestimmt werden, auserwählt. Die Sprechblasenrahmennummer WN, die Farbnummer CN und die Sprechblasen-Buchstabenkette ME2N werden jeweils durch die Eingabeoperation bestimmt.
  • Der Attribut-Datenbereich ATT speichert im Fragebogensystem eingegebene Geschlechtsdaten ATT1, Altersdaten ATT2, Körperformdaten ATT3, Persönlichkeitsdaten ATT4 und Ausdrucksdaten ATT5. Wenn eine der Dateien A-D, deren Daten im ROM 312 enthalten sind, in dem Dateisystem ausgewählt wird, speichert der Bereich ATT Daten über die Dateinummer NUM und den Dateinamen FN der ausgewählten Datei.
  • B. Arbeitsweise des vierten Beispiels:
  • Die Arbeitsweise des vierten Beispiels mit der oben erwähnten Einrichtungs- und Datenstruktur wird unten mit Verweis auf Fig. 55-66 beschrieben.
  • Wenn eine Stromversorgung (nicht gezeigt) für die Gesichtsbild-Erzeugungseinrichtung 301 eingeschaltetwird, liest die CPU 311 zuerst ein Gesichtsbild-Erzeugungsprogamm vom ROM 312 und lädt es in die CPU 311, und der Prozess geht zu Schritt 1 von Fig. 55, wo die CPU 311 verschiedene im Arbeits-RAM 313 vorhandene Register/Flags initialisiert und den VDP 314 anweist, seinen internen Speicher zu initialisieren.
  • (1) Modusauswahlprozess:
  • Nach dem Initialisieren, wenn die CPU 311 zu der Verarbeitung in Schritt S702 geht, wird der Modusauswahl-Anzeigeschirm MSD von Fig. 51A angezeigt. In Schritt S703 speichert die CPU 311 in einen Tastenpuffer Tastendaten, die von der Operation der Steuerung 310 abhängen. Die CPU geht dann zu der Verarbeitung in Schritt S704, wo sie feststellt, ob die im Tastenpuffer gespeicherten Tastendaten auf die Betätigung der Cursortaste CUR oder auf die Betätigung der Entscheidungstaste ENT zurückzuführen sind.
  • Wenn die Cursortaste CUR betätigt wird, um eines der auf dem Modusauswahl-Anzeigeschirm MSD angezeigten Icons ICMSD1 und ICMSD2 auszuwählen, geht die CPU über die Entscheidung in Schritt S704 zu Schritt S705, wo die alte Icon-Nummer mit einer neuen, gemäß der Betätigung der Cursortaste CUR ausgewählten aktualisiert wird. Danach wird in Schritt S706 das Icon ICMSD1 (oder ICMSD2) an der Seite der geänderten Icon-Nummer hervorgehoben angezeigt, und die Steuerung kehrt zu Schritt S703 zurück.
  • (2) Fragebogen-Anzeigeschirmprozess:
  • Als Nächstes sei z. B. angenommen, dass die Entscheidungstaste ENT betätigt wurde. In diesem Fall geht die CPU 311 über die Entscheidung in Schritt S704 zu Schritt S707, wo die CPU 311 feststellt, welches der Icons ICMSD1 und ICMSD2 ausgewählt wurde. Wenn das Icon ICMSD2 ausgewählt wurde, geht die CPU 311 zu der Verarbeitung in Schritt S708, wo die CPU 311 eine Gesichtsbilderzeugung oder eine Sprechblasenerzeugung im Fragebogensystem durchführt.
  • Wenn das Icon ICMSD1 ausgewählt wurde, geht die CPU zu der später zu beschreibenden Dateiauswahl (Schritt S764 von Fig. 61).
  • Im Fragebogensystemprozess geht die CPU 311 zu der Verarbeitung in Schritt S708, wo sie den Fragebogen Anzeigeschirm anzeigt (Fig. 52). Im nächsten Schritt S709 speichert die CPU 311 Tastendaten in den Tastenpuffer und stellt in Schritt S710 fest, ob die im Tastenpffer gespeicherten Tastendaten auf die Betätigung der Cursortaste CUR oder der Entscheidungstaste ENT zurückzuführen waren.
  • Wenn festgestellt wird, dass die Tastendaten durch das Betätigen der Cusortaste CUR erlangt wurden, geht die CPU zu der Verarbeitung in Schritt S711, wo die CPU 311 die Icon- Nummer gemäß der Betätigung der Cusortaste CUR aktualisiert. Dann aktualisiert die CPU 311 in Schritt S712 die Icon-Anzeigeposition entsprechend der aktualisierten Icon-Nummer und gibt den Prozess an Schritt S709 zurück. Als Nächstes werden Operationen, die den Icons ICAMD1-ICAMD5S des Fragebogen-Anzeigeschirms AMD entsprechen, beschrieben.
  • (3) Geschlechtsauswahlprozess:
  • Wenn die Entscheidungstaste ENT in einem Zustand gedrückt wird, wo das Icon ICMD1 im Fragebogenanzeigeschirm AMD ausgewählt ist, geht die CPU 311 über Schritt S710 zu der Verarbeitung in Schritt S713 von Fig. 56, wo die CPU 311 feststellt, ob die bestimmte Icon- Nummer "0" ist, d. h., Icon ICAMD1 gewählt wurde. In diesem Fall ist das Ergebnis der Feststellung "JA", und die CPU 311 geht zu der Verarbeitung in Schritt S714, wo die CPU den Geschlechtsauswahl-Anzeigeschirm SSD (Fig. 52) anzeigt
  • Dann, wenn die CPU 311 ihren Schritt S715 passiert, speichert sie Tastendaten in den Tastenpuffer und stellt in Schritt S716 fest, ob die im Tastenpuffer gespeicherten Tastendaten auf das Drücken der Cursortatse CUR oder der Entscheidungstaste ENT zurückzuführen waren.
  • Wenn festgestellt wird, dass die Cursortaste CUR gedrückt wurde, passiert die CPU die Verarbeitung in Schritt S717, wo sie die Icon-Nummer gemäß der Betätigung der Cursortaste CUR aktualisiert. Dann akualisiert in Schritt S718 die CPU die Icon-Anzeigeposition gemäß der ausgewählten Icon-Nummer und gibt ihren Prozess an Schritt S715 zurück.
  • Wenn eines der Icons ICSSD1 und ICSSD2 des Geschlechtsauswahl-Anzeigeschirms SSD ausgewählt ist und die Entscheidungstaste ENT gedrückt wird, geht die CPU über die Entscheidung in Schritt S716 zu Schritt S719, wo die CPU Geschlechtsdaten ATT1, die dem bestimmten Icon ICSSD1 (männlich) oder ICSSD2 (weiblich) entsprechen, im Attribut Datenbereich ATT des Arbeits-RAM 313 speichert, und dann ihren Prozess an die Anzeige des Fragebogen Anzeigeschirms in Schritt S708 zurückgibt.
  • (4) Altersauswahlprozess:
  • Wenn die Entscheidungstaste ENT in einem Zustand gedrückt wird, wo das leon ICAMD2 im Fragebogen-Anzeigeschirm AMD gewählt ist, geht die CPU über Schritt S713 zu der Verarbeitung in Schritt S720, wo die CPU 311 feststellt, ob die bestimmte Icon-Nummer "1" ist, d. h. Icon ICAMD2 gewählt wurde. In diesem Fall ist das Ergebnis der Feststellung "JA", und die CPU 311 geht zu der Verarbeitung in Schritt S721, wo sie den Altersauswahl-Anzeigeschirm OSD (Fig. 52) anzeigt.
  • Dann speichert die CPU in Schritt S722 die Tastendaten in den Tastenpuffer und stellt in Schritt S723 fest, ob die gespeicherten Daten auf das Drücken der Cursortaste CUR oder das Drücken der Entscheidungstaste ENT zurückzuführen sind.
  • Wenn die CPU feststellt, dass die gespeicherten Daten auf die Betätigung der Cursortaste CUR zurückzuführen sind, durchläuft die CPU die Verarbeitung in Schritt S724, wo sie die Icon-Nummer gemäß der Betätigung der Cursortaste CUR aktualisiert. Dann aktualisiert die CPU in Schritt S725 die Icon Anzeigeposition entsprechend der ausgewählten Icon-Nummer und gibt ihren Prozess an Schritt S715 zurück.
  • Wenn eines der Icons IC~Dl-IC~DS ausgewählt ist und die Entscheidungstaste ENT gedrückt wird, geht die CPU 311 über die Entscheidung in Schritt S723 zu Schritt S726, wo die CPU Altersdaten ATT2, die dem bestimmten Icon ICOSD1 (Kind), ICOSD2 (erwachsen) oder ICOSD3 (alt) entsprechen, in den Attribut-Datenbereich ATT des Arbeite-RAM 313 schreibt und dann ihren Prozess an die Anzeige des Fragebogen-Anzeigeschirms AMD zurückgibt.
  • (5) Körperform-Auswahlprozess:
  • Wenn die Entscheidungstaste ENT in einem Zustand gedrückt wird, wo das Icon ICAMD3 im Fragebogen Anzeigeschirm AMD ausgewählt ist, geht die CPU 311 über die Entscheidung in Schritt S720 zu der Verarbeitung in Schritt S727 von Fig. 57, wo die CPU 311 feststellt, ob die bestimmte Icon-Nummer "2" ist, d. h. Icon IAMD3 gewählt wurde. In diesem Fall ist das Ergebnis der Feststellung "JA", und die CPU 311 geht zu der Verarbeitung in Schritt 5728, wo die CPU den Körperformauswahl-Anzeigeschirm BSD (Fig. 52) anzeigt.
  • Dann, wenn die CPU 311 zu der Verarbeitung in Schritt S729 geht, speichert die CPU Tastendaten in den Tastenpuffer und stellt in Schritt S730 fest, ob die gespeicherten Tastendaten auf das Drücken der Cursortaste CUR oder das Drücken der Entscheidungstaste ENT zurückzuführen sind.
  • Wenn die CPU feststellt, dass die Tastendaten auf die Betätigung der Cursortaste CUR zurückzuführen sind, geht die CPU zu der Verarbeitung in Schritt S731, wo sie die Icon-Nummer gemäß dieser Betätigung der Cursortaste CUR aktualisiert. Dann aktualisiert die CPU in Schritt S732 die Icon-Anzeigeposition entsprechend der ausgewählten Icon-Nummer und gibt ihren Prozess an Schritt S729 zurück.
  • Wenn eines der Icons ICBSD1-ICBSD3 ausgewählt ist und die Entscheidungstaste ENT gedrückt wird, geht die CPU 311 über die Entscheidung in Schritt S730 zu der Verarbeitung in Schritt S733, wo die CPU Körperformdaten ATT2, die dem bestimmten Icon ICBSD1 (dünn), ICBSD2 (mittel) oder ICBSD3 (fett) entsprechen, in den Attribut Datenbereich ATT des Arbeits-RAM 313 schreibt und dann ihren Prozess an die Anzeige des Fragebogen Anzeigeschirms AMD zurückgibt (Schritt S708).
  • (6) Persönlichkelts-Auswahlprozess:
  • Wenn die Entscheidungstaste ENT in einem Zustand gedrückt wird, wo das Icon ICAMD4 im Fragebogen Anzeigeschirm AMD ausgewählt ist, geht die CPU 311 über den Schritt S727 zu der Verarbeitung in Schritt S734, wo die CPU 311 feststellt, ob die bestimmte Icon-Nummer "3" ist, d. h. Icon ICAMD4 gewählt wurde. In diesem Fall ist das Ergebnis der Feststellung "JA", und die CPU 311 geht zu der Verarbeitung in Schritt S735, wo die CPU den Persönlichkeitsauswahl-Anzeigeschirm CSD (Fig. 52) anzeigt.
  • Dann, wenn die CPU 311 die Verarbeitung in Schritt S736 durchläuft, speichert sie Tastendaten in den Tastenpuffer und stellt in Schritt S737 fest, ob die gespeicherten Tastendaten aus das Drücken der Cursortaste CUR oder das Drücken der Entscheidungstaste ENT zurückzuführen sind.
  • Wenn die CPU feststellt, dass die gespeicherten Tastendaten auf das Drücken der Cursortaste CUR zurückzuführen sind, geht die CPU zu der Verarbeitung in Schritt S738, wo sie die Icon-Nummer gemäß der Betätigung der Cursortaste CUR aktualisiert. In Schritt S739 aktualisiert dann die CPU die Icon-Anzeigeposition entsprechend der ausgewählten Icon- Nummer und gibt ihren Prozess an Schritt S736 zurück.
  • Wenn eines der Icons ICCSD1-ICCSD3 ausgewählt ist und die Entscheidungstaste ENT gedrückt wird, geht die CPU über die Entscheidung in Schritt S737 zu der Verarbeitung in Schritt S740, wo die CPU Persönlichkeitsdaten ATT4, die dem bestimmten Icon ICCSD1 (heiter), ICCSD2 (brav) oder ICCSD3 (zornig) entsprechen, in den Attribut Datenbereich ATT des Arbeits-RAM 313 schreibt und dann ihren Prozess an Schritt S708 zurückgibt, wo die CPU die Anzeige des Fragebogen-Anzeigeschirms AMD anzeigt.
  • (7) Fragebogen-Beendungsprozess (Gesichtsteilbild-Bestimmung):
  • Wenn die Entscheidungstaste ENT in einem Zustand gedrückt wird, wo das Icon ICAMD5 im Fragebogen-Anzeigeschirm AMD ausgewählt ist, geht die CPU 311 über Schritt S734 zu der Verarbeitung in Schritt S741 von Fig. 58, wo die CPU 311 feststellt, ob die bestimmte Icon- Nummer "4" ist, d.h Icon ICAMD5, das den Fragebogen beendet, gewählt wurde. In diesem Fall ist das Ergebnis der Feststellung "JA" und die CPU 311 geht zu der Verarbeitung in Schritt S742.
  • In Schritt S742 liest die CPU Daten über Teilenummern PN1-PN5 aus der im ROM 312 enthakenen Gesichtsteil-Auswahltabelle KPS entsprechend "GESCHLECHTSDATEN" ATT1, "ALTERSDATEN" ATT2, "KÖRPERFORMDATEN" ATT3, "PERSÖNLICHKEITSDATEN" ATT4 und "VORGABE (vorbestimmte) AUSDRUCKSDATEN" ATT5, die in den obigen jeweiligen Auswahlprozessen in den Attribut Datenbereich ATT des Arbeits-RAM 313 geschrieben wurden, und speichert diese Daten im Bildbezeichnungs-Datenbereich IMD des Arbeits-RAM 313. In Schritt S743 überträgt die CPU per DMA Daten von den jeweiligen Teilbildern, die den im Bildbezeichnungs-Datenbereich IMD gespeicherten Teilenummern PN1-PN5 entsprechen, vom ROM 312 in den Bilddatenbereich GD des Arbeits-RAM 313.
  • Wenn in Schritt S741 das Ergebnis der Feststellung "NEIN" ist und z. B. die Freigabetaste ESC gedrückt wird, um den Fragebogenprozess zu unterbrechen, gibt die CPU ihren Prozess an Schritt S708 zurück und gibt auch den Anzeigeschirm an den Fragebogen-Anzeigeschirm AMD zurück.
  • (8) Sprechblasen-Auswahlprozess:
  • Wenn die Bilder der jeweiligen Teile des anzuzeigenden Gesichts im Fragebogensystem in der oben erwähnten Weise bestimmt sind, geht die CPU 311 zu der Verarbeitung in Schritt 5744 von Fig. 57. In Schritt S744 zeigt die CPU den Sprechblasenauswahl-Anzeigeschirm WSD von Fig. 53A an. Dann speichert in Schritt S745 die CPU Tastendaten in den Tastenpuffer und stellt in Schritt S746 fest, ob die gespeicherten Tastendaten auf das Drücken der Cursortaste CUR oder das Drücken der Entscheidungstaste ENT zurückzuführen sind.
  • Wenn die CPU feststellt, dass die gespeicherten Tastendaten auf das Drücken der Cursortaste CUR zurückzuführen sind, geht die CPU zu der Verarbeitung in Schritt S747, wo sie die Icon-Nummer gemäß dieser Betätigung der Cursortaste CUR aktualisiert. In Schritt S748 aktualisiert dann die CPU die Icon Anzeigeposition entsprechend der ausgewählten Icon-Nummer und gibt ihren Prozess an Schritt S745 zurück.
  • Wenn eines der Icons ICWSD1-ICWSD3 ausgewählt wird und die Entscheidungstatse ENT gedrückt wird, geht die CPU 311 über die Entscheidung in Schritt S746 zu der Verarbeitung in Schritt S749, wo die CPU ihren Prozess gemäß dem bestimmten Icon ICWSDI (Sprechblasenrahmenauswahl), ICWSD2 (Buchstabenkettenauswahl) oder ICWSD3 (Ende) bestimmt.
  • a) Auswahl des Sprechblasenrahmenbildes:
  • Wenn die Entscheidungstaste ENT in einem Zustand betätigt wird, wo das Icon ICWSD1 ausgewählt wurde, geht die CPU über die Entscheidung in Schritt S749 zu der Verarbeitung in Schritt S750, wo sie den Sprechblasenrahmenauswahl-Anzeigeschirm FWSD von Fig. 53 G anzeigt. Dann speichert in Schritt S751 die CPU 311 Tastendaten in den Tastenpuffer und steift in Schritt S752 fest, ob die gespeicherten Tastendaten auf das Drücken der Cursortaste CUR oder das Drücken der Entscheidungstaste ENT zurückzuführen sind.
  • Wenn die CPU feststellt, dass die Cursortaste CUR betätigt wurde, geht die CPU zu dem Prozess in Schritt S753, wo sie die Icon-Nummer gemäß dieser Betätigung der Cursortaste CUR akualisiert. Dann aktualisiert die CPU in Schritt S754 die Icon-Anzeigeposition entsprechend der akualisierten Icon-Nummer und gibt ihren Prozess an Schritt S751 zurück.
  • Wenn die Entscheidungstaste ENT gedrückt wird, um z. B. eine durch Icon ICFWSD1 gezeigte Sprechblasenanzeigeform zu bestimmen, geht die CPU 311 über die Entscheidung in Schritt 5752 zu der Verarbeitung in Schritt S755, wo die CPU eine Nummer speichert, die der Sprechblasenrahmennummer WN des Bildbezeichnungs-Datenbereichs IMD des Arbeits- RAM 313 entspricht. Somit wird die Anzeigeform des Sprechblasenrahmens festgelegt.
  • Indem sie zu der Verarbeitung in Schritt S756 geht, liest die CPU 311 aus dem ROM 312 Sprechblasenrahmen-Bilddaten ME1, die der Sprechblasenrahmennummer WN entsprechen, und überträgt sie in den Sprechblasenrahmen-Bildbereich ME1 im Bilddatenbereich GD des Arbeits-RAM 313 und gibt dann ihren Prozess an Schritt S744 zurück.
  • b) Auswahl des Sprechblasen-Buchstabenkettenbildes:
  • Wenn Icon ICWSD2, das eine Buchstabenkette auswählt, gewählt wird und die Entscheidungstaste ENT in einem Zustand gedrückt wird, wo der Sprechblasenrahmen festgelegt wurde und der Sprechblasenauswahl-Anzeigeschirm WSD (Fig. 53A) in Schritt S744 erneut angezeigt wurde, geht die CPU 311 über die Entscheidung in Schritt S749 zu der Verarbeitung in Schritt S757 von Fig. 60.
  • In Schritt S757 zeigt die CPU den Buchstabenkettenauswahl-Anzeigeschirm MOSD von Fig. 53B an. Dann, wenn die CPU 311 zu der Verarbeitung in Schritt S758 geht, speichert die CPU Tastendaten in den Tastenpuffer und stellt in Schritt S759 fest, ob die gespeicherten Tastendaten auf das Drücken der Cursortaste CUR oder das Drücken der Entscheidungstaste ENT zurückzuführen sind.
  • Wenn die CPU feststellt, dass die gespeicherten Daten auf das Drücken der Cursortaste CUR zurückzuführen sind, geht die CPU zu der Verarbeitung in Schritt S760, wo sie die Icon-Nummer gemäß dieser Betätigung der Cursortaste CUR aktualisiert. Dann aktualisiert in Schritt S761 die CPU die Icon Anzeigeposition entsprechend der aktualisierten Icon-Nummer und gibt ihren Prozess an Schritt S758 zurück.
  • Wenn die Entscheidungstaste ENT gedrückt wird, um z. B. eine durch Icon ICMOSD1 gezeigte Sprechblasen-Buchstabenkette "Guten Morgen" zu bestimmen, geht die CPU 311 über die Entscheidung in Schritt S759 zu der Verarbeitung in Schritt S762, wo die CPU Daten von einer Buchstabenkettennummer speichert; die dem Icon ICMOSD1 in der Sprechblasen-Buchstabenkette ME2N des Bildbestimmungs-Datenbereichs IMD des Arbeits-RAM 313 entspricht. Somit ist die Sprechblasen-Buchstabenkette festgelegt.
  • Indem sie zu der Verarbeitung in Schritt S763 geht, liest die CPU 311 aus dem ROM 312 Sprechblasenbuchstabenketten-Bilddaten ME2, die durch eine in die Sprechblasenbuchstabenkette ME2N geschriebene Buchstabenkettennummer bezeichnet werden, und überträgt sie in den Sprechblasenbuchstabenketten-Bildbereich ME2 im Bilddatenbereich GD des Arbeits-RAM 313 und gibt dann ihren Prozess an Schritt S744 (Fig. 59) zurück.
  • Wenn "SPRECHBLASENRAHMEN" und "SPRECHBLASEN-BUCHSTABENKETTE" auf diese Weise bestimmt werden, wählt der Benutzer das Icon ICWSD3 aus und betätigt die Entscheidungstaste ENT in einem Zustand, in dem der Sprechblasenauswahl-Anzeigeschirm WSD angezeigt wurde, um den Sprechblasen-Auswahlprozess zu vollenden. Als Reaktion geht die CPU 311 über die Entscheidung in Schritt S749 (Fig. 59) zu der Verarbeitung in Schritt S771 von Fig. 61.
  • Die Verarbeitung in Schritt S771 und den folgenden Schritten umfasst das Andern von "SPRECHBLASENRAHMEN" und "SPRECHBLASEN-BUCHSTABENKETTE" gemäß Daten von Attributen des Gesichtsbildes, um eine mit dem Gesichtsbild harmonische Anzeige zu verwirklichen, deren Einzelheiten in dem folgenden Dateiauswahlprozess beschrieben werden.
  • (9) Dateiauswahlprozess:
  • Wenn das Icon ICMSD1 ausgewählt wird und die Entscheidungstaste ENT im Modusauswahl- Anzeigeschirm MSD (Fig. 51A) betätigt wird, geht die CPU 311 über die Entscheidung in Schritt S707 zu der Verarbeitung in Schritt S764 von Fig. 61, wo die CPU 311 den Dateiauswahl-Anzeigeschirm FSD (Fig. 51B) anzeigt.
  • Dann speichert in Schritt S765 die CPU 311 Tastendaten in den Tastenpuffer und stellt in Schritt S766 fest, ob die gespeicherten Tastendaten auf das Drücken der Cursortaste CUR oder das Drücken der Entscheidungstaste ENT zurückzuführen sind.
  • Wenn die CPU feststellt, dass die gespeicherten Daten auf das Drücken der Cursortaste CUR zurückgehen, geht die CPU zu der Verarbeitung in Schritt S767, wo sie die Icon- Nummer gemäß dieser Betätigung der Cursortaste CUR aktualisiert. Dann aktualisiert die CPU in Schritt S768 die Icon Anzeigeposition entsprechend der aktualisierten Icon-Nummer und gibt ihren Prozess an Schritt S766 zurück.
  • Wenn die Entscheidungstaste ENT betätigt wird, um den Inhalt einer dem Icon ICFSD1 entsprechenden Datei A zu lesen, geht die CPU über die Entscheidung in Schritt S766 zu der Verarbeitung in Schritt S769, wo die CPU 311 aus dem ROM 312 in der Datei A gespeicherte Bildbezeichnungsdaten und Attributdaten liest und diese Daten in den betreffenden Speicherbereichen des Arbeits-RAM 313 speichert.
  • Danach geht die CPU 311 zu der Verarbeitung in Schritt S770, wo die CPU Teilbilddaten KP1-KP5 auf der Basis von im Bildbezeichnungs-Datenbereich IMD des Arbeits-RAM 313 festgelegten Teilenummern PN1-PN5 aus dem ROM 312 sequentiell liest und die gelesenen Daten sequentiell in den Bilddatenbereich GD des Arbeits-RAM 313 überträgt.
  • (10) Sprechblasen-Umwandlungsprozess:
  • Wenn verschiedene anzuzeigende Bilddaten entweder in der Fragebogen-Anzeigeschirmverarbeitung oder in der Dateiauswahl bestimmt werden, geht die CPU 311 zu der Verarbeitung in Schritt S771, wo die CPU 311 die Sprechblasenrahmennummer und die Farbnummer aus der im ROM 312 enthaltenen Sprechblasenrahmen-Umwandlungstabelle MET gemäß den im Arbeits-RAM 313 gespeicherten Attributdaten (Geschlecht, After, Körperform, Persönlichkeit und Vorgabe-Ausdruck) liest und diese Daten als Sprechblasenrahmennummer WN und Farbnummer CN im Bildbezeichnungs-Datenbereich IMD des Arbeits-RAM 313 speichert.
  • Dann liest in Schritt S772 (Fig. 62) die CPU 311 Daten von einer Sprechblasen-Buchstabenkette aus der im ROM 312 enthaltenen Sprechblasenbuchstabenketten-Umwandlungstabelle MECT gemäß den im Arbeits-RAM 313 gespeicherten Attributdaten (Geschlecht, Alter, Körperform, Persönlichkeit und Vorgabe-Ausdruck) und speichert sie in der Sprechblasen- Buchstabenkette ME2N des Bildbezeichnungs-Datenbereichs IMD des Arbeits-RAM 313, und die CPU geht dann zu der Verarbeitung in Schritt S773.
  • In Schritt S773 liest die CPU aus dem ROM 312 Sprechblasenbuchstabenketten-Bilddaten ME2 und Sprechblasenrahmen-Bilddaten ME1 auf der Basis der Sprechblasen-Buchstabenkette ME2 N und der im Bildbezeichnungs-Datenbereich IMD des Arbeits-RAM 313 gespeicherten Sprechblasenrahmennummer WN und überträgt sie nacheinander in den Bilddatenbereich GD des Abrbeits-RAM 313.
  • (11) Anzeigesteuerprozess:
  • In Schritt S774 befiehlt die CPU 311 DMA, die betreffenden im Bilddatenbereich GD des Arbeits-RAM 313 festgelegten Bilddaten in einen vorbestimmten Bereich des VRAM 315 zu übertragen, und befiehlt dem VDP 314, auf dem Schirm das Gesichtsbild und den entsprechenden Sprechblasenrahmen und die Buchstabenkette gemäß den jeweiligen sequentiell in das VRAM 315 übertragenen Bilddaten anzuzeigen.
  • Somit werden z. B., wie in Fig. 63 gezeigt, das Gesichtsbild KG mit einem Vorgabe-Ausdruck und eine Sprechblasennachricht FM auf dem Schirm angezeigt. Zu dieser Zeit werden Icons IC1-IC4, die Ausdrucksdaten in "VORGABE", "VERÄRGERT WERDEN", "WEINEN" und "LACHEN" ändern, in einem oberen Teil des Anzeigeschirms angezeigt.
  • Indem sie zu der Verarbeitung in Schritt S775 geht, speichert dann die CPU 311 Tastendaten in den Tastenpuffer und stellt in Schritt S776 fest, ob die gespeicherten Tastendaten auf das Drücken der Cursortaste CUR oder das Drücken der Entscheidungstaste ENT zurückzuführen sind.
  • Wenn die Cursortaste CUR betätigt wird, um eines der Icons IC1-IC4 auszuwählen, um dadurch den Inhalt der angezeigten Daten zu aktualisieren, geht die CPU zu der Verarbeitung in Schritt S777, wo die CPU die Icon-Nummer gemäß der Betätigung der Cursortaste CUR aktualisiert. Dann zeigt in Schritt S778 die CPU dasjenige der Icons IC1-IC4, das der aktualisierten Icon-Nummer entspricht, hervorgehoben an und gibt ihren Prozess wieder an Schritt 5775 zurück.
  • Wenn z. B. die Entscheidungstaste ENT in einem Zustand betätigt wird, wo das Icon IC2 durch die Betätigung der Cursortaste CUR ausgewählt wurde, geht die CPU 311 über die Entscheidung in Schritt S776 zu der Verarbeitung in Schritt S779, wo die CPU im Attribut- Datenbereich des Arbeits-RAM 313 gespeicherte Ausdrucksdaten ATT5 gemäß der bestimmten Icon-Nummer ändert. In Schritt S780 nimmt die CPU Bezug auf die im ROM 312 enthaftene Gesichtsteil-Umwandlungstabelle KPT und ändert de Gesichtsteil-Bilddaten KP1-KP5 gemäß den geänderten Ausdrucksdaten ATT5.
  • Danach geht die CPU 311 zu der Verarbeitung in Schritt S781, wo die CPU Tastendaten in den Tastenpuffer speichert. Dann stellt die CPU in Schritt S782 fest, ob die gespeicherten Tastendaten auf das Drücken der Freigabetaste ESC zurückgehen. Wenn ja, gibt die CPU 311, um die Gesichtsbild- und Sprechblasenbild-Erzeugung zu unterbrechen, ihren Prozess an Schritt S701 zurück, wo die CPU das System initialisiert.
  • Wenn festgestellt wird, dass die Freigabetaste ESC nicht gedrückt wurde, gibt die CPU ihren Prozess an Schritt S772 zurück und zeigt in den Schritten 5772-5774 ein Gesichtsbild mit einem neu festgelegten Ausdruck und "SPRECHBLASENRAHMEN" und "SPRECHBLA- SEN-BUCHSTABENKETTE" an, deren Formen mit dem Gesichtsbild harmonieren.
  • Wenn z. B., wie in Fig. 64 gezeigt, das Icon IC2 gewähitwird, um "ÄRGER" zu bestimmen, wird eine Markierung MK, die einen verärgerten Ausdruck angibt, im "HAAR"-Teil des Gesichtsbildes KG durch die Gesichtsänderung (Schritt S780) angezeigt, oder "AUGEN", "AU- GENBRAUEN" und "MUND" werden jeweils so geändert, dass sie einen verärgerten Ausdruck aufweisen. Des Weiteren wird eine Sprechblasennachricht FM angezeigt, die eine "VERÄRGERTE" Atmosphäre in Harmonie mit der Anzeigeform des Gesichtsbildes erzeugt. Wenn das Icon IC3 gewählt wird und 'WEINEN" bestimmt wird, wird das Gesichtsbild wie in Fig. 65 geändert, und eine mit dem geänderten Gesichtsbild harmonierende Sprechblase wird angezeigt. Außerdem wird, wenn das Icon IC4 gewählt wird, um "LACHEN" zu bestimmen, das Gesichtsbild z. B. wie in Fig. 66 gezeigt geändert, und eine mit diesem Gesichtsbild harmonierende Sprechblase wird angezeigt.
  • C. Sprechblasenrahmen-Anderungsprozess:
  • In Schritt S771 wird die Form des Sprechblasenrahmens unter Bezugnahme auf die im ROM 312 enthaltene Sprechblasenrahmen-Umwandlungstabelle MET gemäß Attributdaten (Geschlecht, Alter, Körperform. Persönlichkeit und Vorgabe-Ausdruck) geändert. Dieser Änderungsprozess mit Verweis auf Fig. 67 und 68 spezifisch beschrieben.
  • Fig. 67 veranschaulicht das Konzept des Sprechblasenrahmen-Änderungsprozesses. Wie in Fig. 67 gezeigt, werden Sprechblasenrahmen-Bilddaten im VRAM 315 gespeichert. Die Sprechblasenrahmen-Bilddaten bestehen aus Typen von Musterdaten. Alle Musterdaten betreffen ein jeweiliges von Liniensegmentelementen, das einen betreffenden von Sprechblasenrahmen mit verschiedenen Formen bildet und einen der 32 · 32-Zellen Bereiche, die den Anzeigeschirm ausmachen, anzeigt.
  • Das ROM 312 enthält die Sprechblasenrahmen-Umwandfungstabelle MET, in der Sprechblasenrahmennummern, die je eine Kombination von Musterdaten bezeichnen, als Tabellendaten aufgezeichnet sind. Das heißt, die Tabelle MET enthält Daten über eine Vielzahl von Kombinationen von Mustern, wobei eine einen für jede Sprechblasenrahmennummer anzuzeigenden Sprechblasenrahmen bildet.
  • Durch Lesen von Sprechblasenrahmennummern aus der Tabelle MET unter Verwendung der Attributdaten als Leseparameter werden Musterdaten gemäß Daten über eine durch jede der Sprechblasenrahmennummern bezeichnete Kombination von Mustern sequentiell aus dem VRAM 315 gelesen und angezeigt. Folglich wird auf dem Anzeigeschirm ein Sprechbiasenrahmen gebildet und angezeigt der eine Form aufweist, die der Sprechblasenrahmennummer entspricht, wobei seine Form gemäß den geeigneten Attributdaten geändert wird.
  • Fig. 68A und 68B veranschaulichen je ein Beispiel einer geänderten Form eines Sprechblasenrahmens. Fig. 68A zeigt einen Sprechblasenrahmen, der aus Mustern W1-W14 besteht, während Fig. 68B einen Sprechblasenrahmen zeigt, der aus Mustern W1-W7, W10A, W10B und W11-W14 besteht.
  • Nach diesem Verfahren besteht keine Notwendigkeit zum Vorbereiten von Daten über eine Vielzahl verschiedener Sprechblasenrahmenbilder, und Sprechblasenrahmen mit verschiedenen Formen werden mit einer kleinen Menge an Daten erzeugt.
  • We oben beschrieben, enthält gemäß dem vierten Beispiel das ROM 312 eine Gesichtsteil- Umwandlungstabelle KPT, die Gesichtsteilbilder gemäß Attributdaten, die die Merkmale eines anzuzeigenden Gesichts ausdrücken, ändert, eine Sprechblasenrahmen-Umwandlungstabelle MET, die die Form eines Sprechblasenrahmens gemäß Attributdaten ändert, und eine Sprechblasenbuchstabenketten-Umwandlungstabelle MEGT, die den Inhalt einer Sprechblasenbuchstabenkette gemäß Attributdaten ändert. Wenn die Attributdaten aktualisiert werden, wird das anfängliche Gesichtsbild unter Bezugnahme auf die Tabelle KPT geändert, und "SPRECHBLASENRAHMEN" und "SPRECHBLASEN-BUCHSTABENKETTE" werden unter Bezugnahme auf die Tabellen MET und MECT geändert. Somit wird eine mit dem Gesichtsbild harmonierende Sprechblasenanzeige erhalten, wodurch die Ausdruckskraft erhöht wird.
  • Während in dem vierten Beispiel das Gesichtsbild abhängig von einer Änderung in seinem Ausdruck geändert wird, ist die vorliegende Erfindung nicht auf diesen einzelnen Fall beschränkt, sondern das Bild kann gemäß anderen Attributen (Persönlichkeit, Körperform, Geschlecht und Alter) geändert werden. In diesem Fall wird ein Icon, das ein Attribut auswählt, auf dem Anzeigeschirm so angezeigt, dass, wenn ein Attribut ausgewählt wird, das Bild innerhalb der Kategorie des gewählten Attributs geändert werden kann.
  • Es besteht keine Notwendigkeit, die Änderung des Bildes auf nur ein Attribut festzulegen, sondern das Bild kann gemäß einer Vielzahl von Attributänderungen geändert werden. In diesem Fall kann ein Gesichtsbild mit komplizierteren Merkmalen erzeugt werden. In diesem Fall kann ein neues Vergnügen, das z. B. ein "zehn Jahre älteres fettes Gesicht" simuliert, aus dem gemäß den augenblicklichen Attributen (Persönlichkeit, Körperform, Geschlecht und Alter) erzeugten Gesichtsbild in den Anwendungsgebieten geschaffen werden.

Claims (22)

1. Bildverarbeitungsvorrichtung, die umfasst:
eine erste Anzeigesignal-Ausgabeeinrichtung (310-315) zum Ausgeben eines ersten Anzeigesignals zur Erzeugung und Anzeige eines ersten Bildes;
eine zweite Anzeigesignal-Ausgabeeinrichtung (310-315) zum Ausgeben eines zweiten Anzeigesignals zur Anzeige eines zweiten Bildes (ME2), das eine Nachrichteninformation anzeigt, die zusammen mit dem ersten Bild angezeigt werden soll; und
eine dritte Anzeigesignal-Ausgabeeinrichtung (310-315) zum Ausgeben eines dritten Anzeigesignals zur Anzeige eines dritten Bildes, wobei das dritte Bild eine Figur ist, die einen Anzeigebereich des zweiten Bildes umgibt;
dadurch gekennzeichnet, dass:
das erste Bild ein Bild eines Gesichtes ist;
die Vorrichtung des Weiteren eine Benutzereingabeeinrichtung (5713 bis 5740) zum Empfangen von Benutzereingaben, die ein erstes Attribut (ATT1-ATT4) anzeigen, das ein Merkmal des Gesichts anzeigt, und zum Empfangen von Benutzereingaben, die ein zweites Attribut anzeigen, das ein Merkmal des Gesichts anzeigt, umfasst; wobei die erste und die dritte Anzeigesignal-Ausgabeeinrichtung gesteuert werden, indem auf eine Umwandlungstabelle (KPT, MET) zugegriffen wird, um die jeweiligen Anzeigesignale entsprechend dem ersten Attribut auszugeben und um aktualisierte Anzeigesignale entsprechend dem zweiten Attribut auszugeben.
2. Vorrichtung nach Anspruch 1, wobei es sich um ein elektronisches Notizbuch handelt.
3. Vorrichtung nach Anspruch 1, wobei es sich um eine Textverarbeitungseinrichtung handelt.
4. Vorrichtung nach Anspruch 1, wobei es sich um einen Pager handelt.
5. Vorrichtung nach einem der Ansprüche 1 bis 4, die des Weiteren einen Videosignal-Wandler umfasst.
6. Vorrichtung nach einem der Ansprüche 1 bis 5, die des Weiteren einen Drucker umfasst.
7. Vorrichtung nach einem der Ansprüche 1 bis 6, die des Weiteren eine Anzeigeeinrichtung umfasst.
8. Vorrichtung nach einem der Ansprüche 1 bis 6, wobei die Anzeigesignal-Ausgabeeinrichtung so eingerichtet ist, dass sie die Anzeigesignale an ein externes Fernsehgerät ausgibt.
9. Vorrichtung nach einem der Ansprüche 1 bis 6, wobei die Anzeigesignal-Ausgabeeinrichtung so eingerichtet ist, dass sie die Anzeigesignale an eine externe Anzeigeeinrichtung eines Personal Computers ausgibt.
10. Vorrichtung nach einem der Ansprüche 1 bis 9, die des Weiteren eine Teil-Speichereinrichtung (KP) umfasst, die eine Vielzahl von Teilbildern für jeden der Teile speichert, die das Gesicht bilden, und wobei die erste Anzeigesignal-Ausgabeeinrichtung so eingerichtet ist, dass sie für jeden der Teile des Gesichts ein Teilbild aus der Teil-Speichereinrichtung auswählt und die ausgewählten Teilbilder zusammensetzt, um das Bild des Gesichtes herzustellen.
11. Vorrichtung nach einem der Ansprüche 1 bis 10, die des Weiteren eine Speichereinrichtung zum Speichern einer Vielzahl dritter Bilder umfasst.
12. Vorrichtung nach einem der Ansprüche 1 bis 11, wobei das Merkmal das Geschlecht ist.
13. Vorrichtung nach einem der Ansprüche 1 bis 12, wobei das Merkmal das Alter ist.
14. Vorrichtung nach einem der Ansprüche 1 bis 13, wobei das Merkmal die Körperform ist.
15. Vorrichtung nach einem der Ansprüche 1 bis 14, wobei das Merkmal die Persönlichkeit ist.
16. Vorrichtung nach einem der Ansprüche 1 bis 15, wobei das Merkmal ein Ausdruck eines Charakters ist, den das Bild des Gesichtes vermittelt.
17. Vorrichtung nach einem der Ansprüche 1 bis 16, wobei die Bildsteuereinrichtung so eingerichtet ist, dass sie die Farbe der umgebenden Figur verändert.
18. Vorrichtung nach einem der Ansprüche 1 bis 17, wobei die Bildsteuereinrichtung so eingerichtet ist, dass sie die Form der umgebenden Figur verändert.
19. Vorrichtung nach einem der Ansprüche 1 bis 18, wobei die Bildsteuereinrichtung so eingerichtet ist, dass sie die Nachrichteninformation entsprechend den aktualisierten Attributdaten verändert.
20. Vorrichtung nach einem der Ansprüche 1 bis 19, wobei die Nachrichteninformation eine Textnachricht ist.
21. Verfahren zum Betreiben einer Bildverarbeitungsvorrichtung, das die folgenden Schritte umfasst:
Ausgeben eines ersten Anzeigesignals zum Erzeugen und Anzeigen eines ersten Bildes;
Ausgeben eines zweiten Anzeigesignals zum Anzeigen eines zweiten Bildes (ME2), das eine Nachrichteninformation anzeigt, die zusammen mit dem ersten Bild angezeigt werden soll; und
Ausgeben eines dritten Anzeigesignals zum Anzeigen eines dritten Bildes, wobei das dritte Bild eine Figur ist, die einen Anzeigebereich des zweiten Bildes umgibt; dadurch gekennzeichnet, dass:
das erste Bild ein Bild eines Gesichtes ist;
das Verfahren des Weiteren den Schritt des Empfangens (5766) einer Benutzereingabe umfasst, die erste Attributdaten anzeigt, die ein Merkmal des Gesichtes anzeigen;
die Schritte des Ausgebens des ersten und des dritten Anzeigesignals den Schritt des Zugreifens (5770, 5771) auf eine Umwandlungstabelle (KPT, MET) unter Verwendung der ersten Attributdaten einschließen; und
das Verfahren des Weiteren die folgenden Schritte umfasst:
Empfangen (5776) einer Benutzereingabe, die zweite Attributdaten anzeigt, die ein Merkmal des Gesichts anzeigen, und
Zugreifen (S779, 5771) auf die Umwandlungstabelle unter Verwendung der zweiten Attributdaten, um das erste und das dritte Bild zu verändern.
22. Verfahren nach Anspruch 21, eingerichtet zum Betreiben einer Vorrichtung nach einem der Ansprüche 1 bis 20.
DE69628695T 1995-04-27 1996-04-25 Bildprozessoren Expired - Lifetime DE69628695T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP12558095A JP3671258B2 (ja) 1995-04-27 1995-04-27 画像処理装置
JP7128775A JPH08305532A (ja) 1995-05-01 1995-05-01 画像処理装置
JP13615395A JP3707096B2 (ja) 1995-05-10 1995-05-10 画像制御装置および画像制御方法
JP13600995A JP3675514B2 (ja) 1995-05-10 1995-05-10 顔画像作成装置

Publications (2)

Publication Number Publication Date
DE69628695D1 DE69628695D1 (de) 2003-07-24
DE69628695T2 true DE69628695T2 (de) 2003-12-11

Family

ID=27471127

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69628695T Expired - Lifetime DE69628695T2 (de) 1995-04-27 1996-04-25 Bildprozessoren

Country Status (6)

Country Link
US (1) US5943049A (de)
EP (1) EP0740271B1 (de)
KR (1) KR100246520B1 (de)
CN (1) CN1105994C (de)
DE (1) DE69628695T2 (de)
MY (1) MY115012A (de)

Families Citing this family (145)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3714378B2 (ja) * 1997-07-31 2005-11-09 セイコーエプソン株式会社 機器のセットアップ支援装置、機器のセットアップ支援方法および機器のセットアップ支援プログラムを記録した媒体
JP3216084B2 (ja) * 1998-01-19 2001-10-09 株式会社ネットワークコミュニティクリエイション チャット画面表示方法
AUPQ056099A0 (en) * 1999-05-25 1999-06-17 Silverbrook Research Pty Ltd A method and apparatus (pprint01)
JP2001009157A (ja) * 1999-06-30 2001-01-16 Konami Co Ltd ビデオゲームの制御方法、ビデオゲーム装置、並びにビデオゲームのプログラムを記録したコンピュータ読み取り可能な媒体
US7328177B1 (en) * 1999-07-20 2008-02-05 Catherine Lin-Hendel System and method for interactive, computer assisted personalization of on-line merchandise purchases
JP3219744B2 (ja) * 1999-07-26 2001-10-15 コナミ株式会社 ビデオゲーム装置、ビデオゲーム表示方法およびビデオゲーム表示プログラムが記録された可読記録媒体
JP3450760B2 (ja) * 1999-10-14 2003-09-29 富士通株式会社 コミュニケーション促進方法及びシステム
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US7106887B2 (en) * 2000-04-13 2006-09-12 Fuji Photo Film Co., Ltd. Image processing method using conditions corresponding to an identified person
EP2273452A1 (de) * 2000-06-09 2011-01-12 Seiko Epson Corporation Projektion seitenweiser Bilddaten
US8490134B2 (en) 2000-08-14 2013-07-16 Cumnor Technologies Llc Displaying advertising in an electronic program guide
US6810149B1 (en) * 2000-08-17 2004-10-26 Eastman Kodak Company Method and system for cataloging images
US20040056878A1 (en) * 2001-01-30 2004-03-25 Lau Johnny Sya Chung Digital assistants
US20020130834A1 (en) * 2001-03-16 2002-09-19 Emsquare Research, Inc. System and method for universal control of devices
US20020175916A1 (en) * 2001-04-16 2002-11-28 Nichols Michael R. Method for presenting circular dialog windows
WO2002084472A1 (en) * 2001-04-16 2002-10-24 Corporate Media Partners D/B/A Americast Method for presenting circular dialog windows
US8643667B2 (en) * 2002-08-02 2014-02-04 Disney Enterprises, Inc. Method of displaying comic books and similar publications on a computer
US7669134B1 (en) 2003-05-02 2010-02-23 Apple Inc. Method and apparatus for displaying information during an instant messaging session
US20050044500A1 (en) * 2003-07-18 2005-02-24 Katsunori Orimoto Agent display device and agent display method
US7343561B1 (en) * 2003-12-19 2008-03-11 Apple Inc. Method and apparatus for message display
US8023145B2 (en) * 2004-02-27 2011-09-20 Seiko Epson Corporation Image processing system and image processing method
US7646517B2 (en) * 2004-02-27 2010-01-12 Seiko Epson Corporation Image processing system and image processing method
USRE49187E1 (en) 2005-09-06 2022-08-23 Samsung Electronics Co., Ltd. Mobile communication terminal and method of the same for outputting short message
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US7677974B2 (en) * 2005-10-14 2010-03-16 Leviathan Entertainment, Llc Video game methods and systems
US20070113180A1 (en) * 2005-11-15 2007-05-17 Michael Danninger Method and system for providing improved help functionality to assist new or occasional users of software in understanding the graphical elements of a display screen
US9304675B2 (en) 2006-09-06 2016-04-05 Apple Inc. Portable electronic device for instant messaging
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8301999B2 (en) * 2006-09-25 2012-10-30 Disney Enterprises, Inc. Methods, systems, and computer program products for navigating content
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
JP4823970B2 (ja) * 2007-05-24 2011-11-24 オリンパスイメージング株式会社 画像編集装置
US9954996B2 (en) 2007-06-28 2018-04-24 Apple Inc. Portable electronic device with conversation management for incoming instant messages
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8327272B2 (en) 2008-01-06 2012-12-04 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
JP5008605B2 (ja) 2008-05-26 2012-08-22 富士フイルム株式会社 画像処理装置および方法ならびにプログラム
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
WO2010067118A1 (en) 2008-12-11 2010-06-17 Novauris Technologies Limited Speech recognition involving a mobile device
KR101596975B1 (ko) * 2008-12-16 2016-02-23 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 정보 표시 장치 및 정보 표시 방법
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
DE102009025306A1 (de) * 2009-06-15 2010-12-16 Deutsche Telekom Ag Emotionale Sprechblasen
DE102009025304A1 (de) * 2009-06-15 2010-12-16 Deutsche Telekom Ag Personenbezogene Sprechblasen
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
DE202011111062U1 (de) 2010-01-25 2019-02-19 Newvaluexchange Ltd. Vorrichtung und System für eine Digitalkonversationsmanagementplattform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9628865B2 (en) * 2012-09-10 2017-04-18 Apple Inc. Enhanced closed caption feature
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
KR20240132105A (ko) 2013-02-07 2024-09-02 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
AU2014233517B2 (en) 2013-03-15 2017-05-25 Apple Inc. Training an at least partial voice command system
JP6089898B2 (ja) * 2013-04-09 2017-03-08 ソニー株式会社 画像処理装置および記憶媒体
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
KR101772152B1 (ko) 2013-06-09 2017-08-28 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
EP3008964B1 (de) 2013-06-13 2019-09-25 Apple Inc. System und verfahren für durch sprachsteuerung ausgelöste notrufe
DE112014003653B4 (de) 2013-08-06 2024-04-18 Apple Inc. Automatisch aktivierende intelligente Antworten auf der Grundlage von Aktivitäten von entfernt angeordneten Vorrichtungen
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
CN110797019B (zh) 2014-05-30 2023-08-29 苹果公司 多命令单一话语输入方法
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
USD955406S1 (en) * 2020-07-13 2022-06-21 Professional Holding Corp. Display screen with graphical user interface for an account identifier
USD983817S1 (en) * 2021-02-16 2023-04-18 Kimberly-Clark Worldwide, Inc. Package with surface ornamentation or display screen with icon

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4569026A (en) * 1979-02-05 1986-02-04 Best Robert M TV Movies that talk back
US4333152A (en) * 1979-02-05 1982-06-01 Best Robert M TV Movies that talk back
US4445187A (en) * 1979-02-05 1984-04-24 Best Robert M Video games with voice dialog
CA1274919A (en) * 1985-07-27 1990-10-02 Akio Ohba Method of forming curved surfaces and the apparatus
JPH0738198B2 (ja) * 1985-11-14 1995-04-26 株式会社日立製作所 設計支援方法及びその装置
US5247610A (en) * 1989-03-17 1993-09-21 Hitachi, Ltd. Method and apparatus for generating graphics
US5287448A (en) * 1989-05-04 1994-02-15 Apple Computer, Inc. Method and apparatus for providing help information to users of computers
US5111409A (en) * 1989-07-21 1992-05-05 Elon Gasper Authoring and use systems for sound synchronized animation
US5393073A (en) * 1990-11-14 1995-02-28 Best; Robert M. Talking video games
US5428733A (en) * 1991-12-16 1995-06-27 Apple Computer, Inc. Method of calculating dimensions and positioning of rectangular balloons
US5727174A (en) * 1992-03-23 1998-03-10 International Business Machines Corporation Graphical end-user interface for intelligent assistants
US5388993A (en) * 1992-07-15 1995-02-14 International Business Machines Corporation Method of and system for demonstrating a computer program
US5434965A (en) * 1992-12-23 1995-07-18 Taligent, Inc. Balloon help system
US5638502A (en) * 1992-12-25 1997-06-10 Casio Computer Co., Ltd. Device for creating a new object image relating to plural object images
US5524195A (en) * 1993-05-24 1996-06-04 Sun Microsystems, Inc. Graphical user interface for interactive television with an animated agent
AU1258195A (en) * 1993-11-17 1995-06-06 Collegeview Method and apparatus for displaying three-dimensional animated characters upon a computer monitor's screen
US5347306A (en) * 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
US5544305A (en) * 1994-01-25 1996-08-06 Apple Computer, Inc. System and method for creating and executing interactive interpersonal computer simulations
US5611037A (en) * 1994-03-22 1997-03-11 Casio Computer Co., Ltd. Method and apparatus for generating image
US5491743A (en) * 1994-05-24 1996-02-13 International Business Machines Corporation Virtual conference system and terminal apparatus therefor
US5682469A (en) * 1994-07-08 1997-10-28 Microsoft Corporation Software platform having a real world interface with animated characters
US5649086A (en) * 1995-03-08 1997-07-15 Nfx Corporation System and method for parameter-based image synthesis using hierarchical networks

Also Published As

Publication number Publication date
CN1105994C (zh) 2003-04-16
EP0740271A3 (de) 1997-05-02
KR960038669A (ko) 1996-11-21
DE69628695D1 (de) 2003-07-24
US5943049A (en) 1999-08-24
EP0740271B1 (de) 2003-06-18
KR100246520B1 (ko) 2000-03-15
CN1136191A (zh) 1996-11-20
EP0740271A2 (de) 1996-10-30
MY115012A (en) 2003-03-31

Similar Documents

Publication Publication Date Title
DE69628695T2 (de) Bildprozessoren
US6283858B1 (en) Method for manipulating images
DE69800839T2 (de) Verfahren und vorrichtung zur darstellung mindestens eines teils des menschlichen körpers mit einem modifizierten aussehen
DE69817634T2 (de) Vorrichtung und Verfahren zur Anzeige von Fenstern
DE69523813T2 (de) Vorrichtung und Verfahren zur Bildverarbeitung
DE69430496T2 (de) Gesichtsbilddatenverarbeitungseinrichtung und Verfahren
DE69220583T2 (de) Vorrichtung zum Anzeigen von Gebieten auf einem Sichtgerät
DE68925096T2 (de) Vereinfachte parametrische CAD-Makrobefehlsfähigkeit mit veränderlicher geometrischer Eigenschaft
DE4301698C2 (de) Verfahren zum Veranschaulichen einer Form
DE19853676B4 (de) Bilderzeugungsvorrichtung
CN102843484B (zh) 图像处理设备、图像处理方法
DE3587738T2 (de) Sich selbst regelndes Beobachtungssystem.
DE69722246T2 (de) Grafiksystem und verfahren zur anpassung von objekten an schablone
DE69531316T2 (de) Vorrichtung zur Erzeugung eines Bildes durch Kombination von Teilbildern
DE10202693A1 (de) Objektbasierte Anzeigeeinrichtung zur Abtastbereichsauswahl
EP0150813A2 (de) Verfahren zur Manipulation von Bildschirmdarstellungen durch Sprachbefehle
DE10045117A1 (de) Frei spezifizierbare Geometrie- und Klangsteuerung
US5289568A (en) Apparatus and method for drawing figures
DE69106462T2 (de) Animationsgerät.
DE60024514T2 (de) Aufzeichnungsmedium, Verfahren und Einrichtung zur Bildverarbeitung mit integrierten Daten zur Formmodellierung
DE69127948T2 (de) Grafisches Bildverarbeitungsgerät
US20220044466A1 (en) Animation System
DE69130958T2 (de) Graphisches ausgangs-system und -verfahren.
JPH0384652A (ja) ヒューマンインタフェースのアーキテクチャモデル
Land Computer art: Color-stereo displays

Legal Events

Date Code Title Description
8364 No opposition during term of opposition