-
GEBIET DER
ERFINDUNG
-
Die
vorliegende Erfindung bezieht sich auf ein Informationsdarstellungssystem
und eine Informationsdarstellungsvorrichtung, die derart konfiguriert
sind, dass ein Informationsverteilanschluss über ein Netzwerk mit einem
Informationsdarstellungsterminal bzw. -datenendgerät verbunden
ist, das vom Informationsdarstellungsdatenendgerät verteilte Informationen darstellt,
ein Steuerverfahren hierfür
und ein Computerprogramm, das Anweisungen zu seiner/ihrer Steuerung
aufweist.
-
HINTERGRUND
DER ERFINDUNG
-
Es
wurden verschiedene Verfahren für
Informationsflussinformationen, wie beispielsweise sich immer ändernde
frische Nachrichtenartikel für
Benutzer vorgeschlagen. Unter ihnen sind beispielsweise Nachrichtenprogramme
im Fernsehen und Radio die ältesten
und weit verbreiteten Informationsdarstellungsverfahren.
-
In
diesen Nachrichtenprogrammen liest ein Nachrichtensprecher aus einem
Manuskript, um Benutzern Informationen zu vermitteln. Informationen werden
durch die Sprache vermittelt, wodurch es einem Benutzer ermöglicht wird,
Informationen zu hören,
während
beispielsweise eine Reinigung oder ein Fahren eines Fahrzeugs ausgeführt wird,
und die Notwendigkeit zur Monopolisierung von Aufmerksamkeit vom
Benutzer für
die gesamte Zeit wird somit beseitigt. Auch wird im Fernsehen Bildliches
verwendet, um Informationen effektiver zuzuführen.
-
Andererseits
wurden Kommunikationstechnologien, wie beispielsweise Computer und
Internet entwickelt, und neue Informations darstellungsverfahren,
wie beispielsweise Homepages, die die letzten Nachrichten beschreiben,
und Dienste zur Verteilung von Nachrichten über e-mails wurden vorgeschlagen.
Diese Informationsdarstellungsverfahren besitzen Merkmale, die beim
Fernsehen und Radio in dem Sinne fehlen, dass sie Eigenschaften
auf Abruf besitzen, die eine Zufuhr von Informationen, wann immer sie
benötigt
werden, erlauben, und interaktive Eigenschaften, die einem Benutzer
eine Anzeige gewünschter
Informationen durch Nachrichtengattung und dergleichen erlauben,
wobei nur Informationen nicht nur einseitig empfangen werden. Da
statische und bewegte Bilder behandelt werden können, ist es möglich, Informationen
durch Verwendung eines bildlichen Aufrufs effektiver auszubilden.
-
Jedoch
mangelt es Nachrichtenprogrammen im Fernsehen oder Radio an Eigenschaften
auf Abruf, die eine Zufuhr von Informationen, wann immer sie benötigt werden,
erlaubt, und interaktive Eigenschaften, die Zuhörern erlauben, gewünschte Informationen
entsprechend einer Nachrichtengattung und dergleichen anzuzeigen,
da ihre Sendezeit festgelegt ist und die Reihenfolge der Inhalte
von zu vermittelnden Nachrichten durch eine Rundfunkstation festgelegt
ist.
-
Andererseits
führen
eine Zufuhr von Nachrichten durch Homepages, die Nachrichtenartikel
beschreiben, Dienste von Nachrichtenartikeln durch e-mails und so
weiter zu einer hohen Barriere für
Personen, die Personalcomputer nicht gut bedienen können. Da
Informationen auch nur durch Texte zugeführt werden, sollte ein Benutzer
die Informationen durch Berücksichtigen
des Bildschirms zu jeder Zeit zum Empfang der Informationen „lesen", was zu einem Mangel
an Bequemlichkeit bei einem Empfang von Informationen führt, während beispielsweise
ein Reinigen oder Fahren eines Fahrzeugs zur selben Zeit ausgeführt wird.
-
US 5,963,217 beschreibt
einen Datenstrom von Text und ausdrückliche Befehle von einem Leitrechner
zu einem teilnehmenden Computer in einem Konferenzsystem, der dann
hörbare
Sprache und Animation eines Avatars bzw. einer virtuellen Figur, das
bzw. die zu jedem Benutzer gehört,
erzeugt Texteingabe durch den Benutzer wird auch angezeigt.
-
Ein
Anliegen der vorliegenden Erfindung besteht darin, ein Informationsdarstellungssystem
und eine Informationsdarstellungsvorrichtung, die eine effektivere
Darstellung von Informationen gemäß Anspruch 1 zur Verfügung stellen
kann, ein Steuerverfahren dafür
gemäß Anspruch
8 und ein Computerprogramm mit Anweisungen zur Steuerung davon gemäß Anspruch
15 zur Verfügung
stellen können.
-
Gesichtspunkte
der vorliegenden Erfindung werden in den angefügten Ansprüchen dargelegt.
-
Gemäß einem
Ausführungsbeispiel
umfasst ein Informationsdarstellungssystem eine Sendevorrichtung
zum Senden von Sendedaten einschließlich Textinformationen und
eine mit der Sendevorrichtung verbundene Empfangsvorrichtung kann
kommunizieren und die Sendedaten empfangen, wobei die Empfangsvorrichtung
eine Sprachausgabeeinrichtung zur Ausführung einer Sprachsynthese
auf der Grundlage von Textinformationen, die in empfangenen Sendedaten
enthalten sind, und zur Ausgabe von erhaltener synthetischer Sprache,
eine erste Anzeigeeinrichtung zur Anzeige von Sprecherbildern, die
Sprecher der synthetischen Sprache imitieren, und eine zweite Anzeigeeinrichtung
zur Anzeige einer durch die synthetische Sprache in einer Textanzeigeform entsprechend
jedem der Sprecherbilder zu sprechenden Textfolge umfasst.
-
Andere
Merkmale und Vorteile der vorliegenden Erfindung werden aus der
folgenden Beschreibung in Verbindung mit der beigefüg ten Zeichnung offensichtlich,
in der dieselben Bezugszeichen dieselben oder ähnliche Teile durch die Figuren
davon bezeichnen.
-
KURZBESCHREIBUNG
DER ZEICHNUNG
-
Die
beigefügte
Zeichnung, die in die Beschreibung aufgenommen ist und einen Teil
davon bildet, veranschaulicht Ausführungsbeispiele der Erfindung
und dient zusammen mit der Beschreibung zur Erklärung der Prinzipien der Erfindung.
-
1 ist
ein Blockschaltbild, das eine Hardwarekonfiguration jedes Computers
zeigt, der ein Informationsdarstellungssystem jedes Ausführungsbeispiels
der vorliegenden Erfindung bildet.
-
2 ist
ein Blockschaltbild, das eine schematische Konfiguration des Informationsdarstellungssystems
eines ersten Ausführungsbeispiels
der vorliegenden Erfindung zeigt.
-
3 ist
ein Blockschaltbild, das eine Funktionskonfiguration eines Informationsverteilcomputers
des ersten Ausführungsbeispiels
der vorliegenden Erfindung zeigt.
-
4 ist
ein Blockschaltbild, das eine Funktionskonfiguration eines Informationsdarstellungscomputers
des ersten Ausführungsbeispiels
der vorliegenden Erfindung zeigt.
-
5 zeigt
ein Beispiel für
eine Struktur von in einer externen Speichereinrichtung der Informationsdarstellungsvorrichtung
des ersten Ausführungsbeispiels
der vorliegenden Erfindung gespeicherten Daten.
-
6 ist
ein Ablaufdiagramm, das einen Vorgang für eine in dem Informationsdarstellungssystem des
ersten Ausführungsbei spiels
der vorliegenden Erfindung ausgeführte Verarbeitung zeigt.
-
7 zeigt
nach einer Gattung angeordnete Nachrichtenartikel im ersten Ausführungsbeispiel
der vorliegenden Erfindung.
-
8 veranschaulicht
eine Klassifikation von Nachrichtenartikeln nach der Gattung in
dem ersten Ausführungsbeispiel
der vorliegenden Erfindung.
-
9 zeigt
ein Beispiel für
Dateien zur Definition von virtuellen Sprechern des ersten Ausführungsbeispiels
der vorliegenden Erfindung.
-
10 zeigt
ein Beispiel für
Dateien zur Definition jeder Nachrichtengattung des ersten Ausführungsbeispiels
der vorliegenden Erfindung.
-
11 zeigt
ein Beispiel für
eine Erzeugung einer Funktionsbeschreibungssprache im ersten Ausführungsbeispiel
der vorliegenden Erfindung.
-
12 zeigt
ein Beispiel für
Anzeigebildschirme im ersten Ausführungsbeispiel der vorliegenden
Erfindung.
-
13 zeigt
ein anderes Beispiel für
Anzeigebildschirme im ersten Ausführungsbeispiel der vorliegenden
Erfindung.
-
14 zeigt
ein anderes Beispiel für
eine Erzeugung einer Funktionsbeschreibungssprache im ersten Ausführungsbeispiel
der vorliegenden Erfindung.
-
15 zeigt
ein Blockschaltbild, das eine Funktionskonfiguration des Informationsdarstellungssystems
des zweiten Ausführungsbeispiels
der vorliegenden Erfindung zeigt.
-
16 ein
Ablaufdiagramm, das einen Vorgang zur in dem Informationsdarstellungssystem
des zweiten Ausführungsbeispiels
der vorliegenden Erfindung ausgeführten Verarbeitung zeigt.
-
17 zeigt
ein Beispiel für
eine Struktur von Daten, die verwaltet werden, wenn Buchstabeninformationen
und Bildinformationen im zweiten Ausführungsbeispiel der vorliegenden
Erfindung verstärkt
werden.
-
18 zeigt
ein Beispiel für
Anzeigebildschirme im zweiten Ausführungsbeispiel der vorliegenden
Erfindung.
-
19 zeigt
ein anderes Ausführungsbeispiel
für Anzeigebildschirme
im zweiten Ausführungsbeispiel
der vorliegenden Erfindung.
-
20 eine
Funktionskonfiguration der Informationsdarstellungsvorrichtung des
dritten Ausführungsbeispiels
der vorliegenden Erfindung.
-
21 ein
Ablaufdiagramm, das einen Vorgang zur in der Informationsdarstellungsvorrichtung des
dritten Ausführungsbeispiels
der vorliegenden Erfindung ausgeführten Verarbeitung zeigt.
-
22 zeigt
ein Beispiel einer Darstellung von Informationen einschließlich Konversationen zwischen
einem Zeichen A und einem Zeichen B im dritten Ausführungsbeispiel
der vorliegenden Erfindung.
-
GENAUE BESCHREIBUNG DER
BEVORZUGTEN AUSFÜHRUNGSBEISPIELE
-
Ausführungsbeispiele
der vorliegenden Erfindung werden nachstehend genau beschrieben, wobei
auf die Zeichnung Bezug genommen wird.
-
1 ist
ein Blockschaltbild einer Hardwarekonfiguration jedes Computers,
der ein Informationsdarstellungssystem gemäß jedem Ausführungsbeispiel
gemäß der vorliegenden
Erfindung bildet.
-
In 1 steuert
eine CPU 101 eine gesamte Informationsverarbeitungsvorrichtung 1000 über einen
Haupt-Bus 116 und steuert über eine Eingabe-I/F (Schnittstelle) 104,
eine mit der Außenseite
der Informationsverarbeitungsvorrichtung 1000 verbundene Eingabeeinrichtung 110 (beispielsweise
ein Mikrophon, einen Bildabtaster bzw. -scanner, eine Speichereinrichtung,
andere über
Netzwerkleitungen verbundene Informationsverarbeitungsvorrichtungen und
eine über
eine Telefonleitung verbundene Faksimilevorrichtung). Sie steuert
auch über
eine Ausgabe-I/F 105 eine Ausgabeeinrichtung 111 (beispielsweise
einen Sprecher, einen Drucker, einen Monitor, andere über Netzwerkleitungen
verbundene Informationsverarbeitungsvorrichtungen und eine über eine Telefonleitung
verbundene Faksimileeinrichtung), die mit der Außenseite der Informationsverarbeitungsvorrichtung 1000 verbunden
ist. Die CPU 101 führt auch
eine Reihe von Verarbeitungen, wie beispielsweise eine Eingabe von
Bildern, eine Bildverarbeitung, eine Verarbeitung von Farbtransformationen und
eine Ausgabesteuerung für
Bilder entsprechend von einer Eingabeeinheit (beispielsweise einer
Tastatur 112, einer Zeigeeinrichtung 113 und einem
Stift 114) über
eine KBD-IF (Tastaturschnittstelle) 107 eingegebenen Anweisungen
aus. Zusätzlich
steuert sie über
eine Video-IF (Schnittstelle) 108 eine Anzeigeeinheit 109 zur
Anzeige von von der Eingaberichtung 110 eingegebenen Bilddaten
und unter Verwendung der Tastatur 112, der Zeigeeinrichtung 113 und
dem Stift 114 erzeugten Bilddaten.
-
Ein
ROM 102 speichert darin verschiedene Arten von Steuerprogrammen
zur Ausführung
von verschiedenen Arten von Steuerungen der CPU 101. Diese
verschiedenen Arten von Programmen und verschiedenen Arten von Daten,
die erforderlich sind, um jedes Ausführungsbeispiel durchzuführen, können in
einer externen Speichereinrichtung 106 gespeichert werden,
die durch eine Festplatte, eine CD-ROM, eine DVD-ROM und dergleichen
gebildet sind. In einen RAM 103 sind das OS und andere Steuerprogramme
einschließlich
Steuerprogrammen zum Erreichen der vorliegenden Erfindung geladen und
werden durch die CPU 101 ausgeführt. Es funktioniert auch als
verschiedene Arten von Arbeitsbereichen, die zur Ausführung von
Steuerprogrammen und temporären
Speicherbereichen verwendet werden. Auch speichert ein (nicht gezeigter)
VRAM von der Eingabeeinrichtung 110 eingegebene temporäre Bilddaten
und unter Verwendung der Tastatur 112, der Zeigeeinrichtung 113 und
des Stifts 114 erzeugte Bilddaten werden konfiguriert.
-
<Erstes Ausführungsbeispiel>
-
Im
ersten nachstehend beschriebenen Ausführungsbeispiel wird eine Konfiguration
beschrieben, in der unter Verwendung von Figuranimation und Sprachsynthese
ein virtueller Sprecher die Inhalte von Nachrichtenartikeln durch
Sprache in Nachahmung eines menschlichen Sprechers eines Fernsehprogramms
vermittelt und es wird ermöglicht,
Buchstabenfolgen entsprechend den Artikelinhalten anzuzeigen, wodurch
Benutzern durch sowohl Sprach- als auch Zeichenketten die Inhalte
vermittelt werden. Hier werden beispielsweise über ein Netzwerk, wie beispielsweise
das Internet, von einem Provider der Nachrichtenartikel verteilte
Nachrichtenartikel empfangen, werden nach einer Gattung angeordnet
und werden Benutzers in vorbestimmter Gattungsreihenfolge vermittelt.
Zusätzlich
kann gemäß dem ersten Ausführungsbeispiel
eine gewünschte
Gattung zu irgendeiner Zeit durch eine Spracheingabe durch den Benutzer
bestimmt werden, wodurch es ermöglicht wird,
Informationen auf Abruf und interaktiv zur Verfügung zu stellen.
-
2 zeigt
ein Blockschaltbild, das eine schematische Konfiguration des Informationsdarstellungssystems
gemäß dem ersten
Ausführungsbeispiel
der vorliegenden Erfindung zeigt.
-
In 2 verteilt
ein Informationsverteilcomputer 2101 Informationen, wie
beispielsweise durch Informations-Provider zur Verfügung gestellte
Online-Nachrichten (beispielsweise durch Nachrichteninformations-Provider
zur Verfügung
gestellte Nachrichtenartikel) über
ein Netzwerk 2103. Ein Informationsdarstellungscomputer 2102 teilt
verteilte Informationen auf, wie beispielsweise die Inhalte von über das
Netzwerk verteilten Online-Nachrichten in einen synthetischen Sprachteil
zum Auslesen der Informationen mit synthetischer Sprache einer Figur
(Animationsbild) und einen Anzeigeteil zur Anzeige der Informationen
mit Buchstabeninformationen, wie beispielsweise Titeln von Nachrichten
und Bildinformationen, wie beispielsweise Bildern, um die verteilten
Informationen Benutzern darzustellen.
-
Das
Netzwerk 2103 wird für
Datenkommunikation zwischen dem Informationsverteilcomputer 2101 und
dem Informationsdarstellungscomputer 2102 verwendet. Beispiele
für dieses
Netzwerk enthalten ein drahtloses Netzwerk, Internet und eine öffentliche
Leitung.
-
3 ist
ein Blockschaltbild, das eine Funktionskonfiguration des Informationsverteilcomputers gemäß dem ersten
Ausführungsbeispiel
der vorliegenden Erfindung zeigt.
-
Der
Informationsverteilcomputer 2101 besitzt eine Informationsbeibehaltungseinheit 201 zum Beibehalten
von Nachrichtenin formationen, die dem Benutzer zur Verfügung zu
stellende Nachrichtenartikel darstellen, eine Informationsaktualisierungseinheit 202 zur
Aktualisierung der in der Informationsbeibehaltungseinheit 201 beibehaltenen
Informationen auf die letzten, und eine Kommunikationseinheit 203 zum
Senden der in der Informationsbeibehaltungseinheit 201 beibehaltenen
Nachrichteninformationen an den Informationsdarstellungscomputer 2102 über das
Netzwerk 2103.
-
Der
Nachrichteninformations-Provider gibt zur Verfügung zu stellende Nachrichteninformationen in
diesen Informationsverteilcomputer 2101 ein, wodurch die
eingegebenen Nachrichteninformationen in der Informationsspeichereinheit 201 beibehalten werden,
und werden dann an den Informationsdarstellungscomputer 2102 verteilt.
Der Informationsdarstellungscomputer 2102 kann dieser Nachrichteninformationen
die gesamte Zeit empfangen, indem auf den Informationsverteilcomputer 2101 zugegriffen
wird.
-
4 ist
ein Blockschaltbild einer Funktionskonfiguration des Informationsdarstellungscomputers
gemäß dem ersten
Ausführungsbeispiel
der vorliegenden Erfindung.
-
Eine
Informationsanordnungseinheit 301 führt Anordnungen durch, wie
beispielsweise ein Beibehalten von von dem Informationsverteilcomputer 2101 empfangenen
Nachrichteninformationen nach der Gattung. Eine Funktionsbeschreibungssprache-Transformationseinheit 302 wandelt
Nachrichteninformationen in eine Funktionsbeschreibungssprache um.
Eine Funktionsbeschreibungssprache-Ausführeinheit 303 bedient
einen virtuellen Sprecher in der Form einer Figur (Animationsbild),
lässt einen
Sprecher Nachrichteninformationen durch Sprachsynthese lesen, und
zeigt Bilduntertitel und dergleichen auf einem Bildschirm an, entsprechend der
durch die Funktionsbeschreibungssprache- Transformationseinheit 302 erzeugten
Funktionsbeschreibungssprache.
-
Eine
Informationen zur Verfügung
stellende Prozesssteuereinheit 304 verwaltet den gesamten Prozess
vom Beginn bis zum Ende des zur Verfügung Stellens von Informationen
zum Benutzer. Wenn zusätzlich
eine Spracheingabe durch den Benutzer während einer Ausführung der
Funktionsbeschreibungssprache auftritt, unterbricht die Informationen
zur Verfügung
stellende Prozesssteuereinheit 304 die Ausführung der
Funktionsbeschreibungssprache-Ausführeinheit 303, um
eine Spracherkennung der Eingabe durchzuführen. Auf diesem Weg verwaltet
die Informationen zur Verfügung
stellende Prozesssteuereinheit 304 die zu vermittelnde
Nachrichtengattung, z.B. ein Umschalten der Nachrichtengattung auf
eine bestimmte Nachrichtengattung in dem Fall, in dem der Benutzer
eine Nachrichtengattung durch Sprache bestimmt. Eine Kommunikationseinheit 305 erreicht
eine Kommunikation zwischen dem Informationsverteilcomputer 2101 und der
Informationsanordnungseinheit 301.
-
Weiterhin
sind im ersten Ausführungsbeispiel
eine Virtueller-Sprecher-Definitionsdatei 601, eine
Gattungs-Definitionsdatei 701, eine Figur-Dateigruppe 1210 und
ein Steuerprogramm in der externen Speichereinrichtung 106 des
Informationsdarstellungscomputers 2102 enthalten, wie in 5 gezeigt.
-
Die
Virtueller-Sprecher-Definitionsdatei 601 ist aus Daten
zur Definition der Entsprechung des virtuellen Sprechers mit Animationsdaten
und Signalverlaufsdaten für
eine Sprachsynthese (deren Einzelheiten später unter Bezugnahme auf 9 beschrieben
werden) zusammengesetzt. Die Gattungs-Definitionsdatei 701 ist aus
Daten zur Definition der Entsprechung der Gattung mit dem virtuellen
Sprecher (deren Einzelheiten später
unter Bezugnahme auf 10 beschrieben werden) zusammengesetzt.
Die Figur-Dateigruppe 1210 enthält eine Viel zahl von Figur-Dateien
(1211). Jede Figur-Datei 1211 enthält Animationsdaten 1213 zur
Ausbildung einer Animationsanzeige der Figur und ein Signalverlaufswörterbuch 1212 zur
Durchführung
von Sprachsynthese. Das Steuerprogramm 1220 ist eine Gruppe
von Programmcodes, um durch die CPU 101 den durch das Ablaufdiagramm
in 6 gezeigten Steuervorgang zu erreichen.
-
6 ist
ein Ablaufdiagramm, das den Vorgang einer in dem Informationsdarstellungssystem gemäß dem ersten
Ausführungsbeispiel
der vorliegenden Erfindung ausgeführten Verarbeitung zeigt.
-
Zuerst
kommuniziert die Informationsanordnungseinheit 301 des
Informationsdarstellungscomputers 2102 mit dem Informationsverteilcomputer 2101 über das
Kommunikationsnetzwerk 305 (Netzwerkschnittstelle 1207)
und das Netzwerk 2103, um Nachrichteninformationen herunter
zu laden, und ordnet die Informationen, wie in 7 gezeigt,
nach der Gattung (Schritt S401).
-
Weiterhin
kann zur Anordnung der herunter geladenen Nachrichteninformationen
in der in 7 gezeigten Art die Entsprechung
der Nachrichteninformationen mit der Gattung manuell bezeichnet
werden, oder Daten der Nachrichteninformationen können analysiert
werden, um ihre Entsprechung automatisch festzusetzen. In dem Fall,
in dem die Informationsanordnungseinheit 301 eine Entsprechung automatisch
festsetzt, können
beispielsweise die folgenden Vorgänge folgen.
- (1)
Wie in 8 gezeigt, besitzen durch den Informationsverteilcomputer 2101 an
den Informationsdarstellungscomputer 2102 gesendete Artikeldaten 1301 Kopfzeilen 1302,
Artikelinhalte 1303 und Eigenschaften 1304. Der
Informationsdarstellungscomputer 2102 führt eine Klassifikation nach einer
Gattung (1310) auf der Grundlage jeder Eigenschaft 1304 der
empfangenen Arti keldaten 1301 durch und dementsprechend
werden die Überschriften
und Artikelinhalte (Rümpfe)
klassifiziert, wie in 7 gezeigt.
- (2) Alternativ erfolgt eine Schlüsselwortsuche für zumindest
eine der Überschriften 1302 oder
die Artikelinhalte 1303, die in dem Artikeldaten 1301 enthalten
sind, die Gattung des Artikels wird bestimmt (1311) und
die Überschriften
und Artikelinhalte (Rümpfe)
werden klassifiziert, wie in 7 gezeigt.
-
Weiterhin
sind in dem Fall, in dem das vorstehende Verfahren (2) verwendet
wird, die Eigenschaften 1304 der Artikeldaten 1301 nicht
notwendig. Auch kann das vorstehende Verfahren (1) natürlich in Kombination
mit dem vorstehenden Verfahren (2) verwendet werden. Zusätzlich wird
in dem ersten Ausführungsbeispiel
das Ergebnis einer Klassifikation von Nachrichteninformationen nach
der Gattung als eine Gattungsklassifikationstabelle 501 gespeichert,
wie in 7 gezeigt, aber das Verfahren eines Beibehaltens
des vorstehend beschriebenen Ergebnisses einer Gattungsklassifikation
ist nicht darauf beschränkt.
-
In
nachfolgenden Prozessen werden Informationen in der Reihenfolge
der in 7n gezeigten Gattungsnummern
dargestellt, aber es ist nicht nötig, zu
sagen, dass eine Konfiguration erfolgen kann, so dass der Benutzer
diese Nummer wie gewünscht setzt.
-
Zusätzlich bestimmt
zu diesem Zeitpunkt die Informationen zur Verfügung stellende Prozesssteuereinheit 304 eine
Struktur zum zur Verfügung
Stellen von Informationen. Die Struktur zur Ausbildung von Informationen
bezieht sich auf eine Regelung, welcher virtuelle Sprecher über welche
Gattung sprechen soll, und, wie die die gesprochenen Inhalte ausdrückenden
Buchstabenfolgen angezeigt werden. Als Informationen zur Bestimmung der
Struktur zum zur Verfügung
Stellen von Informationen werden virtuelle Sprecher, Hintergründe und
Artikelgattungen gesetzt, wie in den 9 und 10 gezeigt.
-
9 zeigt
ein Beispiel für
die Inhalte einer Virtueller-Sprecher-Definitionsdatei
gemäß dem ersten
Ausführungsbeispiel
der vorliegenden Erfindung.
-
Die
Virtueller-Sprecher-Definitionsdatei 601 legt die Entsprechung
der Namen von virtuellen Sprechern mit den Animationsdaten 1212 fest,
die verwendet werden, und das Signalverlaufswörterbuch 1213 zur
Sprachsynthese. Die „Kennzeichnung<>" stellt
die Definition jedes virtuellen Sprechers dar und ihr Name ist durch
den „Namen" definiert. Die „Farbe" bezieht sich auf
die Farbe von Buchstaben, die Buchstabenfolgen bilden, wenn die gesprochenen
Inhalte des virtuellen Sprechers auf dem Bildschirm dargestellt
werden. Für
dieses wird jedem virtuellen Sprecher eine unterschiedliche Farbe
zugewiesen. Auch bestimmt die „Datei" die Figur-Datei 1211,
die das Signalverlaufswörterbuch 1212 definiert,
das verwendet wird, wenn die Sprache des virtuellen Sprechers sprachsynthetisiert wird,
die Animationsdaten (Bilddaten) 1213 und dergleichen. Da
weiterhin das Signalverlaufswörterbuch 1212 und
die Animationsdaten 1213 durch Verwendung herkömmlicher
Techniken erreicht werden können,
werden Einzelheiten davon hier nicht beschrieben.
-
10 zeigt
ein Beispiel für
die Inhalte der Gattungs-Definitionsdatei
zur Definition jeder Nachrichtengattung gemäß dem ersten Ausführungsbeispiel
der vorliegenden Erfindung.
-
In
der Gattungs-Definitionsdatei 701 wird die Entsprechung
der Nachrichtengattung mit dem virtuellen Sprecher registriert.
Die „Kennzeichnung<>" definiert
die Nachrichtengattung und ihr Name ist durch den „Namen" definiert. Und der „Sprecher" be stimmt einen virtuellen
Sprecher, um die Nachrichten der Gattung zu vermitteln.
-
Weiterhin
können
die vorstehende Virtueller-Sprecher-Definitionsdatei 601 und die
Gattungs-Definitionsdatei 701 durch den Nachrichteninformations-Provider
erzeugt und zur Zeit einer Verteilung von Nachrichteninformationen
verteilt werden, oder sie können
vorhergehend in dem Informationsdarstellungscomputer 2102 beibehalten
werden, um Benutzervorlieben zu folgen. Im ersten Ausführungsbeispiel
werden die in den 9 und 10 gezeigten
Daten vorhergehend in der externen Speichereinrichtung 106,
in dem Informationsdarstellungscomputer 2102 beibehalten.
Natürlich
können
die Inhalte jeder Definition manuell verändert werden.
-
Wenn
die vorstehend beschriebene Initialisierung beendet ist, erzeugt
die Funktionsbeschreibungssprache-Transformationseinheit 302 eine Funktionsbeschreibungssprache,
um dem Benutzer durch Prozesse gemäß den Schritten S402 bis S408 Nachrichten
zur Verfügung
zu stellen. Das heißt,
die Funktionsbeschreibungssprache-Transformationseinheit 302 führt eine
Umwandlung in eine Funktionsbeschreibungssprache durch, wie in 11 gezeigt, wobei
auf die in 7 gezeigte Gattungsklassifikationstabelle 501,
die in 9 gezeigte Virtueller-Sprecher-Definitionsdatei 601 und
die in 10 gezeigte Gattungs-Definitionsdatei 701 Bezug
genommen wird.
-
Zuerst
wird die Gattungsnummer J von dem Benutzer zu vermittelnden Nachrichten
auf 1 initialisiert, und die Artikelnummer I wird auf 1 initialisiert (Schritt
S402). Dann wird in Schritt S403 ein Befehl zur Anzeige eines virtuellen
Sprechers beschrieben, der den Artikel der Gattung J ausliest (801 in 11), und
in einem Schritt S404 werden die Anzeige der Überschrift, Sprachausgabe,
und die Anzeige von Buchstabenfolgen (Bildunterschrift), die die
Inhalte der Sprachausgabe aus drücken,
für die
I-ten Artikeldaten der Gattung J beschrieben, wie durch 802 in 8 gezeigt.
Die Überschrift
und die Inhalte von Sprachausgabe entsprechen der Überschrift 1302 und
den Artikelinhalten 1303 in den Artikeldaten 1301 und
können
einfach von mit HTML und dergleichen beschriebenen Daten identifiziert
werden.
-
Beispielsweise
bezieht sich J = 1 auf die „Politik"-Gattung und virtuelle
Sprecher zur Vermittlung von Nachrichten sind „Haupt-Sprecher, Neben-Sprecher" gemäß der Gattungs-Definitionsdatei 701 in
der Szene dieser Gattung und somit ist eine Funktion, um dieser
zwei Darsteller an einen definierten Ort bzw. einer definierten
Position (Position1, Position2) erscheinen zu lassen, beschrieben
(„Sprecher->Zeige(Haupt-Sprecher, Position1)", „Sprecher->Zeige(Neben-Sprecher,
Position2)").
-
Dann
ist eine Funktion einer Anzeige vor der Buchstabenfolge der Überschrift
des I = ersten Nachrichtenartikels beschrieben („VordererText->Anzeige(Oppositionsparteien
gegen Ankündigung
des Premierministers zur Steuerreduktionspolitik"). Hier ist eine vorbestimmte Farbe
für die
Farbe der Buchstabenfolge der Überschrift
zugewiesen, und in diesem Beispiel ist die Überschrift in roter Farbe ausgedrückt. Weiterhin
wird für
die Buchstabenfarbe für
die Buchstabenfolge der Überschrift
eine Farbe, die keinem Sprecher zugewiesen ist, bevorzugt zugewiesen.
Aus diesem Grund kann die Überschrift
einfach aus Buchstabenfolgen, die ausgelesen werden, identifiziert
werden.
-
Dann
ist eine Funktion eines Veranlassens der virtuellen Sprechers zum
Auslesen der Artikelinhalte beschrieben („Sprecher->Sprechen(Premierminister
XXX ... "wesentliche
Steuerreduktion" ..., Haupt-Sprecher") und es wird eine
Funktion einer Anzeige von Bildunterschriften auf dem Bildschirm
in bestimmter Farbe für
jeden virtuellen Sprecher beschrieben („GesprochenerText- >Anzeige (Premierminister XXX ... "wesentliche Steuerreduktion" ..., weiß"). Hier liest die
Funktionsbeschreibungssprache-Transformationseinheit 302 die
durch die „Farbe" für den Sprecher
gezeigte Anzeigefarbe aus der Virtueller-Sprecher-Definitionsdatei 601 in 9 auf der
Grundlage des „Haupt-Sprechers" und beschreibt dieselbe.
-
In
dem Fall, in dem eine Vielzahl virtueller Sprecher definiert ist,
wie für
die Politik-Gattung, können
weiterhin virtuelle Sprecher, die Bildunterschriften auslesen, einer
nach dem anderen für
jeden Satz verändert
werden.
-
Wenn
die gesamte Funktionsbeschreibungssprache für einen Artikel vollständig beendet
ist, wird überprüft, ob der
Artikel der letzte Artikel in der Gattung J ist oder nicht (Schritt
S405) und, wenn er nicht der letzte Artikel ist, wird der Wert von
J unverändert gelassen
und I wird erhöht
(Schritt S407) und der Prozess kehrt zu Schritt S404 zurück, wodurch
eine Umwandlung des nächsten
Nachrichtenartikels derselben Gattung in die Funktionsbeschreibungssprache
durchgeführt
wird. Wenn andererseits in einem Schritt S405 bestimmt ist, dass
der Artikel der letzte Artikel in der Gattung J ist, wird zuletzt überprüft, ob die
Gattung J die letzte auszulesende Art ist oder nicht (Schritt S406).
Wenn sie nicht die letzte Gattung ist, wird J um eins erhöht, I wird
auf 1 initialisiert (Schritt S408) und der Prozess kehr zu Schritt
S403 zur Verarbeitung der nächsten
Gattung zurück.
-
Wenn
in Schritt S406 bestimmt wird, dass die Gattung die letzte Gattung
ist, schreitet der Prozess zu Schritt S411 fort, wobei die Funktionsbeschreibungssprache-Ausführeinheit 303 eine
Anzeige von Figur-Animationen, eine Anzeige von Figuren und eine
Sprachsynthese/ausgabe entsprechend der durch die vorstehend beschriebenen
Prozesse erzeugten Funktionsbeschreibungsprache durchführt.
-
Die
entsprechende Figur 1211 wird aus der Sprecher-Definitionsdatei 601 mit
den in der Funktionsbeschreibungssprache bezeichneten Namen von Sprechern
in Schritt S411 erhalten, und Animations-Figuren werden auf der
Grundlage der Animationsdaten 1213, die in der erhaltenen
Figur-Datei 1211 enthalten sind, in Schritt S412 angezeigt.
Dann wird in Schritt S413 ein Beispiel für einen mit dem vorstehend
beschriebenen GesprochenerText-> beschriebenen
Text in einer bestimmten Farbe angezeigt. Dann wird in Schritt S414
das in der in Schritt S411 erhaltenen Figur-Datei 1211 enthaltene
Signalverlaufswörterbuch 1212 zur
Sprachsynthetisierung eines Beispiels für einen mit der vorstehend
beschriebenen Sprecher->Sprechen und Sprachausgabe
derselben beschriebenen Texts verwendet.
-
In
Schritt S415 wird bestimmt, ob für
alle in die Funktionsbeschreibungssprache umgewandelten Daten eine
Verarbeitung durchgeführt
wurde oder nicht, und, wenn zu verarbeitende Daten existieren, kehrt
der Ablauf zu Schritt S411 zurück.
Wenn die Verarbeitung beendet ist, endet dieser Prozess auch. Weiterhin
wird in dem vorstehend beschriebenen Vorgang, eine Umwandlung aller
wie in 7 gezeigt angeordneten Daten in die Funktionsbeschreibungssprache
vor der Ausführung
der Funktionsbeschreibungssprache begonnen, aber eine Ausführung der Funktionsbeschreibungssprache
kann begonnen werden, bevor eine Umwandlung in die Funktionsbeschreibungssprache
beendet ist.
-
12 zeigt
ein Beispiel für
einen dem Benutzer dargestellten Bildschirm, wenn Informationen in
dem ersten Ausführungsbeispiel
der vorliegenden Erfindung zur Verfügung gestellt werden.
-
Auf
einem Bildschirm 901 sind virtuelle Sprecher tätig und
Bildunterschriften eines Nachrichtenartikels werden dem Benut zer
angezeigt. Virtuelle Sprecher 902 und 903 lesen
den Nachrichtenartikel einschließlich einer Überschrift 904 aus.
Bildunterschriften 905 und 906 zeigen die durch
die virtuellen Sprecher 902 bzw. 903 gesprochenen
Inhalte an.
-
In 12 sind
für Bildunterschriften
für jeden sprechenden
virtuellen Sprecher verschiedene Buchstabenfarben durch die „Farbe" in 9 definiert. Alle
durch den virtuellen Sprecher 902 gesprochenen Inhalte
werden in einer der Anzeige 905 identischen Farbe angezeigt,
während
alle durch den virtuellen Sprecher 903 gesprochenen Inhalte
in einer der Anzeige 906 identischen Farbe angezeigt werden
und sie werden somit für
jeden virtuellen Sprecher in verschiedenen Farben angezeigt. Auch
ist eine Anzeigefarbe im Voraus für die Überschrift des Artikels 904 bestimmt,
die in einer Buchstabenfarbe verschieden von der der durch die virtuellen
Sprecher gesprochenen Inhalte angezeigt ist.
-
Wie
vorstehend beschrieben, ist es gemäß dem ersten Ausführungsbeispiel,
da der verteilte Nachrichtenartikel durch Sprachsynthese ausgelesen
wird, nicht notwendig, die gesamte Zeit Aufmerksamkeit auf den Bildschirm
zu richten, um angezeigten Text zu lesen, und somit können Informationen einfach
gesammelt werden.
-
Zusätzlich zur
Sprachsynthese/ausgabe wird auch die Überschrift des Artikels mit
Bildunterschriften angezeigt und die ausgelesenen Inhalte werden mit
Bildunterschriften angezeigt, wodurch einer korrekte Erkennung der
Inhalte ermöglicht
wird, auch, wenn das System durch eine visuell beeinträchtigte Person
verwendet wird, und, wenn die Inhalte aufgrund von rund herum auftretenden
Geräuschen nicht
gut gehört
werden können.
Gemäß dem ersten Ausführungsbeispiel
ist zusätzlich
eine Anzeige derart ausgebildet, dass die Buchstabenfarben von Bildunterschriften
entsprechend der Überschrift
und jedem Sprecher verschiedenen voneinander sind, wodurch es möglich gemacht
wird, einfach zu verstehen, welche Bildunterschrift der Kopfzeile
entspricht, und, welche Bildunterschrift den durch den virtuellen Sprecher
ausgelesenen Inhalten entspricht, von Bildunterschriften des auf
dem Bildschirm unterschiedlich angezeigten Artikels, und welcher
auf dem Bildschirm angezeigte virtuelle Sprecher die Inhalte ausliest.
-
Weiterhin
werden in dem vorstehend beschriebenen ersten Ausführungsbeispiel
die Überschrift
und die gesprochenen Inhalte mit der Buchstabenfarbe angezeigt,
die für
die Überschrift
und jeden virtuellen Sprecher definiert ist, aber die Erfindung sollte
nicht darauf beschränkt
sein. Es ist nur wesentlich, dass der Benutzer versteht, ob die
anzeigte Figur einer Überschrift
entspricht oder welcher virtuelle Sprecher die Inhalte spricht,
und, um dem Benutzer verständlich
zu machen, dass für
die Überschrift
und jeden virtuellen Sprecher verschiedene Formen verwendet werden.
-
Beispielsweise
zeigt 13 ein Beispiel, in dem die
gesprochenen Inhalte von einem jeweiligen virtuellen Sprecher nahe
den virtuellen Sprechern angezeigt sind, um die Inhalte jedes Sprechers
zu bestimmen. Um eine derartige Anzeige zu erreichen, wird eine
Funktionsbeschreibungssprache, wie in 14 gezeigt,
in der Funktionsbeschreibungssprache-Transformationseinheit 302 erzeugt,
und diese Sprache wird durch die Funktionsbeschreibungssprache-Ausführeinheit 303 ausgeführt.
-
Wie
in 14 gezeigt, ist in der Beschreibungsausdruckanzeige
der gesprochenen Inhalte der Ort bzw. die Position einer Anzeige
des sprechenden virtuellen Sprechers zusätzlich beschrieben. Beispielsweise
ist mit einer Beschreibung, wie beispielsweise „GesprochenerText->Anzeige (Premierminister
XXX ... "wesentliche
Steuerreduktion" ...,
weiß,
Position1), ausge drückt,
dass Bildunterschriften an einem definierten Ort bzw. einer definierten
Position relativ zur „Position2", das ist eine Position,
an der der „Haupt-Sprecher" angezeigt ist, anzeigt
werden (1101 gemäß 14). Ähnlich werden Bildunterschriften
an einer definierten Position relativ zur „Position2" angezeigt, die eine Position ist, an
der der „Neben-Sprecher" angezeigt ist, entsprechend der
durch Bezugszahl 1102 in 14 bezeichneten Beschreibung.
Weiterhin können
für diese
relativen Positionen von Bildunterschriften vorbestimmte Werte benutzt
werden, oder Werte können
in den vorstehenden Funktionsbeschreibungen definiert werden.
-
Auch
ist in diesem Fall die Farbe von Buchstaben der gesprochenen Inhalte
jedes virtuellen Sprechers nicht notwendigerweise für jeden
virtuellen Sprecher verschieden. Mit der vorstehenden Beschreibung 1101 wird
eine Bildunterschrift der gesprochenen Inhalte 1002 nahe
einer Animation des Haupt-Sprechers 1001 und
eine Bildunterschrift der gesprochenen Inhalte 1004 nahe
einer Animation des Neben-Sprechers 1003 angezeigt, wie
in 13 gezeigt.
-
Beispiele,
in denen Buchstabenfarben und Anzeigepositionen als für die Überschrift
und jeden virtuellen Sprecher verschiedene Anzeigeformen verwendet
werden, wurden vorstehend beschrieben, aber es kann erwogen werden,
dass es zusätzliche Variationen
dazu gibt. Es ist beispielsweise möglich, verschiedene Buchstabengrößen oder
-stile, verschiedene Hintergründe
für Bildunterschriftenteile und
verschieden geregelte Zeilen für
die Überschrift und
jeden virtuellen Sprecher zu verwenden.
-
Auch
sind im vorstehend beschriebenen ersten Ausführungsbeispiel die Definition
von virtuellen Sprechern, die Definition von Nachrichtengattungen und
die Funktionsbeschreibungssprache wie in 9, 10 bzw. 11 beschrieben,
aber sie sind nicht darauf beschränkt und es kann irgendein Beschreibungs format
so lange verwendet werden, wie es Verwendungen des vorstehend beschriebenen
Beispiels 1 erfüllt.
-
Auch
wurden in dem vorstehend beschriebenen ersten Ausführungsbeispiel
Nachrichtenartikel als ein Beispiel für verteilte Daten beschrieben,
aber das Informationsdarstellungsverfahren gemäß diesem ersten Ausführungsbeispiel
kann für
andere Daten angewendet werden, wie beispielsweise unterschiedliche
Arten von Werbungen.
-
Auch
wurde in dem vorstehend beschriebenen ersten Ausführungsbeispiel
der Fall beschrieben, in dem jede Datenkommunikation unter Verwendung
des Internets durchgeführt
wird, aber es ist nicht auf das Internet beschränkt, und irgendeine Kommunikation
bedeutet, dass beispielsweise eine zugeordnete Leitung verwendet
werden kann.
-
Im
vorstehend beschriebenen ersten Ausführungsbeispiel wurde der Fall
beschrieben, in dem Programme in der externen Speichereinrichtung 106 beibehalten
sind und in den RAM 103 geladen werden, um die Programme
zu verwenden, aber das Speichermedium ist nicht darauf beschränkt, und
es kann irgendein Speichermedium, wie beispielsweise das ROM, verwendet
werden, um das Ausführungsbeispiel
zu erreichen. Auch kann eine Schaltung, die auf eine ähnliche
Weise funktioniert, verwendet werden, um dies zu erreichen.
-
<Zweites Ausführungsbeispiel>
-
Im
ersten Ausführungsbeispiel
können
Figuren, die nicht auf ein bestimmtes Fenster beschränkt sind,
veranlasst werden, an durch das System vordefinierten Positionen
zu erscheinen, oder der Benutzer kann ihre Position frei bewegen.
Jedoch kann es Fälle
geben, in denen die Position, an der die Figur angezeigt wird, zufällig die
Position überlappt,
an der andere Informa tionen angezeigt werden, und die Figurenblöcke der
Benutzeransicht.
-
Wenn
die Figur an der durch das System vordefinierten Position angeordnet
ist, wenn durch das System zur selben Zeit anzuzeigende Buchstabeninformationen
und Bildinformation, hinter der Figur angezeigt werden, wird die
Figur auf Buchstabeninformationen und Bildinformationen angezeigt
und die Informationen unter der Figur sind bedeckt und vor der Sicht
des Benutzers versteckt. Wenn Buchstabeninformationen und Bildinformationen
vor der Figur angezeigt sind, ist die Figur bedeckt und vor der Sicht
versteckt.
-
Wenn
der Benutzer die Figur bewegt, können
die unter der bewegten Figur angezeigten Inhalte der Buchstabeninformationen
und der Bildinformationen verändert
werden, und auch, wenn die Inhalte, die der Benutzer sehen will,
unter der Figur angezeigt werden, können sie durch den Benutzer
unberücksichtigt
bleiben.
-
Auch
werden angezeigte Buchstabeninformationen und Bildinformationen
automatisch aktualisiert, wie in Fall von Internet- und Online-Nachrichten,
ungünstige
Worte und Bilder können
zufällig
angezeigt werden.
-
Dann
wird im zweiten Ausführungsbeispiel die
Position, an der die Figur angezeigt wird, auf der Grundlage der
zusammen mit der Figur angezeigten Buchstabeninformationen und Bildinformationen
gesteuert, wodurch Informationen effektiver ausgebildet werden.
-
15 ist
ein Blockschaltbild, das eine Funktionskonfiguration des Informationsdarstellungssystems
gemäß dem zweiten
Ausführungsbeispiel
zeigt.
-
Das
Informationsdarstellungssystem verarbeitet von dem Informationsverteilcomputer 2101 verteilte
Informationen in einen mit synthetischer Sprache ausgelesenen synthetischen
Sprachteil in dem Informationsdarstellungscomputer 2102 und
einen als Bilder angezeigten Teil, und insbesondere der synthetische
Sprachteil wird dem Benutzer synchron mit der Figur (Animationsbild)
angezeigt. Im zweiten Ausführungsbeispiel
wird die Figur durch ein Serverprogramm gesteuert und der Informationsdarstellungscomputer 2102 erfordert
nur vom Serverprogramm, dass es die Figur steuert.
-
Eine
Informationssammeleinheit 1501 sammelt von dem Informationsverteilcomputer 2101 verteilte
Informationen. Eine Informationsaufbereitungseinheit 1502 teilt
gesammelte verteilte Informationen in einen synthetischen Sprachteil,
der mit der synthetischen Sprache der Figur ausgelesen wird, und
einen als Buchstabeninformationen angezeigten Anzeigeteil auf und
ordnet dieselben in einer bestimmten Reihenfolge an. Eine Informationsdarstellungseinheit 1503 stellt
aufbereitete verteile Informationen aufeinander folgend dar.
-
Eine
Wichtigkeitleseeinheit 1504 liest die Wichtigkeit von dargestellten
Buchstabeninformationen und Bildinformationen. Eine Positionsbeziehungsbestimmungseinheit 1505 bestimmt
eine Positionsbeziehung zwischen den Buchstabeninformationen und
Bildinformationen und der Figur.
-
Eine
Zeichensteuereinheit 1506 stellt eine Anforderung, auszulesende
Informationen durch synthetische Sprache der Figur auszulesen und
fordert eine Bewegung an, wenn die Buchstabeninformationen und Bildinformationen
und die Figur einander überlappen.
-
16 ist
ein Ablaufdiagramm, das einen Vorgang zur durch das Informationsdarstellungssystem
gemäß dem zweiten
Ausfüh rungsbeispiel
der vorliegenden Erfindung ausgeführten Verarbeitung zeigt.
-
In
Schritt S1601 werden von dem Informationsverteilcomputer 2101 verteilte
verteilte Informationen gesammelt. In einem Schritt S1602 werden
die gesammelten verteilten Informationen in einen durch die synthetische
Sprache der Figur ausgelesenen synthetischen Sprachteil und eine
als Buchstabeninformationen und Bildinformationen angezeigten Anzeigeteil
aufgeteilt und in bestimmter Reihenfolge angeordnet. Im zweiten
Ausführungsbeispiel
ist das Netzwerk 2103 das Internet und Online-Nachrichten auf dem
Internet werden gesammelt und werden als ein Anzeigeteil mit Überschriften,
Tabellen und dergleichen in den als Buchstabeninformationen angezeigten
Online-Nachrichten und Photobilder als Bildinformationen in den
Online-Nachrichten
angezeigt, und ein synthetischer Sprachteil mit dem gesamten Text
der durch die synthetische Sprache der Figur ausgelesenen Online-Nachrichten
aufgeteilt. Tatsächlich
werden die Informationen in den Online-Nachrichten in den Anzeigeteil
und den synthetischen Sprachteil auf der Grundlage einer Kennzeichnung
und dergleichen, die in HTML-Dokumenten beschrieben sind, die die
Online-Nachrichten bilden, wie im ersten Ausführungsbeispiel beschrieben,
aufgeteilt. Zusätzlich
werden die Online-Nachrichten in Finanz-Nachrichten, Politik-Nachrichten,
Sport und Wetter entsprechend Arten von Nachrichten klassifiziert
und in bestimmter Reihenfolge neu angeordnet. Wenn die Informationen
aufgeteilt werden, bestimmt das Serverprogramm auch die Wichtigkeit
der Informationen auf der Grundlage von Positionsinformationen,
die die Position zeigen, an der Informationen, wie beispielsweise
Arten von Nachrichten, angezeigt werden, fügt die Wichtigkeit und ihre
wichtigen Punkte zu den Buchstabeninformationen und Bildinformationen
in den Online-Nachrichten
hinzu, und fügt
die Buchstabeninformationen und Bildinformationen mit der Wichtigkeit
und wichtigen Punkten zusammen, die dazu hinzugefügt sind,
um sie zu verwalten.
-
In
Schritt S1603 wird bestimmt, ob es Darstellungsinformationen gibt
oder nicht. Wenn es keine Darstellungsinformationen gibt (NEIN in
Schritt S1603), endet der Prozess. Wenn andererseits Darstellungsinformationen
existieren (JA in Schritt S1603), schreitet der Prozess zu Schritt
S1604 fort.
-
Im
Fall des zweiten Ausführungsbeispiels wird
weiterhin für
jeden Art davon in Schritt S1603 bestimmt, ob Online-Nachrichten auf einer Eins-zu-Eins-Basis
dargestellt sind oder der Prozess geendet hat. Die Darstellungsinformationen
in diesem Fall enthalten auch Buchstabeninformationen und Bildinformationen
entsprechend einem Anzeigeteil und einen durch die Figur ausgelesenen
synthetischen Sprachteil. Wenn keine Darstellungsinformationen verbleiben,
endet der Prozess.
-
In
Schritt S1604 wird bestimmt, ob eine Beschreibung zur Wichtigkeit
in den darzustellenden Buchstabeninformationen und Bildinformationen existiert
oder nicht. Wenn keine Beschreibung zur Wichtigkeit existiert (NEIN
in Schritt S1604), schreitet der Prozess zu Schritt S1608 fort.
Wenn andererseits eine Beschreibung zur Wichtigkeit existiert (JA
in Schritt S1604), schreitet der Prozess zu Schritt S1605 fort.
-
In
Schritt S1605 wird eine Positionsbeziehung zwischen dem zu den darzustellenden
Buchstabeninformationen und Bildinformationen hinzugefügten wichtigen
Punkt und der Figur berechnet.
-
In
Schritt S1606 wird auf der Grundlage der berechneten Positionsbeziehung
bestimmt, ob es notwendig ist, die Figur zu bewegen oder nicht,
nämlich,
ob die Buchstabeninformationen und Bildinformationen und die Figur
einander überlappen.
Wenn es nicht notwendig ist, die Figur zu bewegen (NEIN in Schritt
S1606), schreitet der Prozess zu Schritt S1608 fort. Wenn es andererseits
notwendig ist, die Figur zu bewegen (JA in Schritt S1606), schreitet
der Prozess zu Schritt S1607 fort.
-
In
Schritt S1607 erfolgt eine Anforderung, die Figur von der gegenwärtigen Figuranzeigeposition
zu einer Figuranzeigeposition derart zu bewegen, dass ein Abstand
der Bewegung von der Bildanzeigeposition minimal ist, um eine Situation
zu verhindern, in der die Bildanzeigeposition, an der die Buchstabeninformationen
und Bildinformationen angezeigt werden, die Figuranzeigeposition überlappen,
an der die Figur angezeigt wird.
-
In
Schritt S1608 werden Informationen dargestellt. Die Darstellung
von Informationen bezieht sich in diesem Fall auf die Anzeige der
anzuzeigenden Buchstabeninformationen und Bildinformationen und
das Auslesen der Informationen durch die synthetische Sprache der
Figur. Wenn eine Darstellung von Informationen beendet ist, z.B.
auszulesende Informationen vollständig ausgelesen sind, kehrt
der Prozess zu Schritt S1603 zurück,
wo die Darstellung von Informationen wiederholt so lange durchgeführt wird,
wie darzustellende Informationen verbleiben.
-
Bestimmte
Beispiele der vorstehend beschriebenen Verarbeitung werden unter
Verwendung der 17 bis 19 beschrieben
werden.
-
17 zeigt
ein Beispiel für
eine Struktur von Daten, die verwaltet werden, wenn Wichtigkeit
zu den Buchstabeninformationen und Bildinformationen in dem zweiten
Ausführungsbeispiel
der vorliegenden Erfindung hinzugefügt wird.
-
Wie
vorstehend beschrieben, gehören,
wenn Wichtigkeit zu den Buchstabeninformationen und Bildinformationen
in verteilten Informationen hinzugefügt wird, ihre wichtigen Punkte
dazu, um verwaltet zu werden. Der wichtige Punkt bezieht sich auf
die Anzeigeposition auf dem Anzeigebildschirm des Informationsdarstellungscomputers 2102,
und beispielsweise ist der wichtige Punkt als „Mitte" definiert, wenn die Position der Mitte
des Anzeigebildschirms entspricht, und der wichtige Punkt ist als „Gesamtheit" definiert, wenn
die Position dem gesamten Anzeigebildschirm entspricht.
-
Das
Beispiel gemäß 17 ist
ein Beispiel für
den Fall, in dem „Wetterberichte" und „Fluglinien-Sitzverfügbarkeiten" als verteilte Informationen von
dem Informationsverteilcomputer 2101 gesammelt werden.
Dieses Beispiel zeigt den Fall, in dem Wichtigkeit zu dem „Wettersatellitenbild" hinzugefügt wird,
das in den Informationen der „Wetterberichte" Bildinformationen
darstellt, und die „Mitte" ist als sein wichtiger
Punkt definiert, und Wichtigkeit wird zu Buchstabeninformationen
in den Informationen der „Fluglinien-Sitzverfügbarkeiten" hinzugefügt und die „Gesamtheit" wird als sein wichtiger
Punkt definiert.
-
Die 18 und 19 zeigen
Fälle,
in denen Figuren mit „Wetterberichten" bzw. „Flugliniensitzverfügbarkeiten" dargestellt werden,
und in 18 wird eine Figur 1801 in
die linke Richtung verschoben, so dass die Figur die „Mitte" nicht überlappt, in
der das „Wettersatellitenbild" angezeigt ist. Auch wird
in 19 eine Figur 1901 in die obere Richtung verschoben,
so dass die Figur die „Gesamtheit" nicht überlappt,
das heißt,
eine Anzeigeposition, an der die „Fluglinien-Sitzverfügbarkeit" angezeigt wird.
-
In
dem vorstehend beschriebenen zweiten Ausführungsbeispiel wird die Wichtigkeit
der Buchstabeninformationen und der Bildinformationen in verteilten
Informationen auf der Grundlage ihrer Positionsinformationen bestimmt,
aber die Wichtigkeit der Buchstabeninformationen und Bildinformationen können auf
der Grundlage der vorher durch den Informationsverteilcomputer 2101 hinzugefügten Wichtigkeit
und Informationen über
Einschränkungen
beim Sehen, wie beispielsweise ein Ausschluss von Personen im Alter
von unter achtzehn Jahren, bestimmt werden.
-
Auch
ist es möglich,
eine Informationsverarbeitung, wie beispielsweise eine natürliche Sprachverarbeitung
und Bilderkennung auf die Buchstabeninformationen und Bildinformationen
in verteilten Informationen anzuwenden, und dynamisch die Wichtigkeit
der Buchstabeninformationen und Bildinformationen auf der Grundlage
des Ergebnisses der Verarbeitung zu bestimmen.
-
Auch
ist es möglich,
dynamisch die Positionen, an denen unterscheidende Ausdrücke und
unerwünschte
Bilder sind, auf der Grundlage des Ergebnisses der Verarbeitung
zu bestimmen und Figuren über
Informationen anzuordnen, deren Anzeige verhindert werden muss,
wie beispielsweise Buchstabeninformationen einschließlich eines
unterscheidenden Ausdrucks und unerwünschter Bildinformationen,
um derartige Informationen vor der Sicht des Benutzers zu verstecken,
beispielsweise auf der Grundlage des Ergebnisses der Bestimmung.
-
Auch,
wenn die Figur über
den Informationen angeordnet ist, deren Anzeige verhindert werden muss,
kann die Figur vergrößert werden,
wenn der Bereich, in dem die Informationen angezeigt sind, verglichen
mit dem Zeichen so groß ist,
dass die Informationen nicht versteckt werden können.
-
Auf
diesem Weg werden Kennzeichnungen zur Steuerung von Figuranzeigepositionen
(Wichtigkeit und die Notwendigkeit zum Verstecken von Informationen,
und wichtige Punkte und Punkte, an denen Informationen versteckt
werden müssen)
zu den Buchstabeninformationen und Bildinformationen in verteilten
Informationen hinzugefügt,
und die Anzeigeposition wird auf der Grundlage der hinzugefügten Kennzeichnungen
gesteuert, so dass die Position, an der die Figur angezeigt wird,
die Position, an der die Buchstabeninformationen und Bildinformationen
angezeigt werden, nicht überlappt
oder überlappt,
wodurch es ermöglicht
wird, Informationen geeigneter darzustellen.
-
Auch,
wenn der Bereich, in dem Informationen, bei denen verhindert werden
muss, dass sie die Figur überlappen,
angezeigt werden, so groß ist, dass
nicht verhindert werden kann, dass die Informationen die Figur überlappen,
kann die Figur verkleinert oder auf temporärer Grundlage gelöscht werden.
-
Auch
wird vor der Darstellung von Informationen, die Position, an der
die Figur angezeigt wird, derart gesteuert, dass verhindert wird,
dass die Buchstabeninformationen und Bildinformationen die Figur überlappen,
aber sie können
auf eine Weise angezeigt werden, dass sie einander auf einer temporären Grundlage überlappen,
bevor die Position, an der die Figur angezeigt wird, gesteuert wird.
-
Auch
wird vor der Darstellung von Informationen, die Position, an der
die Figur angezeigt wird, derart gesteuert, dass verhindert wird,
dass die Buchstabeninformationen und Bildinformationen die Figur überlappen,
wenn aber der Benutzer die Figur bewegt, um ein Überlappen während der Darstellung von Informationen
zu verursachen, kann die Position, an der die Figur angezeigt wird,
in einer Weise gesteuert werden, dass das Überlappen verhindert wird.
-
Wie
vorstehend beschrieben, ist gemäß dem zweiten
Ausführungsbeispiel
die Wichtigkeit von und die Notwendigkeit zum Verstecken von Buchstabeninformationen
und Bildinformationen, die zusammen mit der Figur dargestellt sind,
beschrieben, die Position, an der die Buchstabeninformationen und
Bildinformationen dargestellt sind, und die Position, an der die
Figur dargestellt ist, werden berechnet, und die Position, an der
die Figur dargestellt wird, wird derart gesteuert, dass ein einan der Überlappen
verhindert wird oder sie werden veranlasst, einander zu überlappen,
wodurch ermöglicht
wird, Informationen effektiver darzustellen.
-
<Drittes Ausführungsbeispiel>
-
Wie
im ersten Ausführungsbeispiel
zeigt der Benutzer und gibt durch Sprache eine gewünschte Nachrichtengattung
an, wenn der in synthetischer Sprache durch den Nachrichtenartikel-Provider
zur Verfügung
gestellte Nachrichtenartikel auslesende virtuelle Sprecher einen
Nachrichtenartikel Benutzern in der Weise von Fernsehprogrammen
vermittelt, und die eingegebene Sprache wird spracherkannt, wodurch
der Nachrichtenartikel und die Figur auf die der gewünschten
Nachrichtengattung verändert
werden können.
-
In
diesem Fall kann, wenn eine Nachrichtengattung endet und ein Umschalten
auf die nächste Nachrichtengattung
stattfindet, oder, wenn der Benutzer durch Sprache eine gewünschte Nachrichtengattung
bestimmt, das Umschalten der Nachrichtengattung nur durch die Tatsache
bestätigt
werden, dass die Figur visuell umgeschaltet wird, und es kann schwierig
sein, das Umschalten der Nachrichtengattung auditiv zu bestätigen, insbesondere
für Benutzer,
denen ein derartiges System nicht geläufig ist.
-
Dann
wird im dritten Ausführungsbeispiel eine
effektivere Darstellung von Informationen im Hinblick auf einer
derartigen Punkt erreicht.
-
20 zeigt
eine funktionale Konfiguration der Informationsdarstellungsvorrichtung
gemäß dem dritten
Ausführungsbeispiel
der vorliegenden Erfindung.
-
In 20 führt eine
Spracheingabeeinheit 2301 verschiedene Arten von Spracheingabe
zur Anzeige einer Gattung von zur Verfügung zu stellenden Informationen,
eine Anzeige einer Beendigung einer Darstellung von Informationen
und dergleichen durch eine Spracheingabe des Benutzers durch. Eine
Spracherkennungseinheit 2302 erkennt die mit der Spracheingabeeinheit 2301 eingegebene
Spracheingabe des Benutzers. Eine Szenariumerzeugungseinheit 2312 erzeugt
ein Szenarium durch eine Gattung von Textdaten und Figurinformationen.
Eine Textdatenbeibehaltungseinheit 2303 behält Textdaten
jeder Information bei, wie beispielsweise Nachrichten nach der Gattung.
Eine Figurinformationsbeibehaltungseinheit 2311 behält Figurinformationen
mit der Art und dem Namen der Figur (Animationsbild), das in Entsprechung
mit der durch die Figur ausgelesenen Gattung gebracht wird, bei.
-
Weiterhin
können
verschiedene Arten von Informationen von in der Textdatenbeibehaltungseinheit 2303 beibehaltenen
Textdaten in der externen Speichereinrichtung 106 gespeicherte
Informationen sein, über
das Netzwerk 2103 von anderen Anschlüssen (z.B. einem Informationsverteilcomputer 2103) oder
der externen Speichereinrichtung verteilte Informationen sein.
-
Eine
Sprachsyntheseeinheit 2308 wandelt ein durch die Szenariumerzeugungseinheit 2312 erzeugtes
Szenarium oder eine durch eine Konversationserzeugungseinheit 2305 erzeugte
Konversation in synthetische Sprache um. Eine Sprachausgabeeinheit 2307 gibt
durch die Sprachsyntheseeinheit 2308 erzeugte synthetische
Sprache aus. Eine Figuranzeigeeinheit 2309 zeigt die Figur
entsprechend von der Sprachsyntheseeinheit 2308 ausgegebener synthetischer
Sprache an. Und eine Steuereinheit 2304 behandelt ein Timing
zur Eingabe/Ausgabe von Sprache und eine Anzeige der Figuren und
so weiter und eine Steuerung von verschiedenen Arten von Komponenten
der Informationsdarstellungsvorrichtung.
-
Eine
Gattungsbestimmungseinheit 2306 bestimmt eine Gattung,
zu der die ausgewählte
Figur gehört,
auf der Grundlage von in der Figurinformationsbeibehaltungseinheit 2311 beibehaltenen
Figurinformationen. Eine Konversationserzeugungseinheit 2305 erzeugt
Daten einer zwischen Figuren gehaltenen Kommunikation zum Zeitpunkt
eines Umschaltens zwischen Gattungen. Eine Konversationsdateneinheit 2310 behält Konversationsdaten
für jede
Figur bei.
-
21 ist
ein Ablaufdiagramm, das einen Vorgang zur durch die Informationsdarstellungsvorrichtung
gemäß dem dritten
Ausführungsbeispiel
der vorliegenden Erfindung ausgeführten Verarbeitung zeigt.
-
Wenn
diese Informationsdarstellungsvorrichtung gestartet ist, bestimmt,
wenn es nicht durch den Benutzer bestimmt ist, die Steuereinheit 2304 zufällig die
Reihenfolge von Gattungen, deren Informationen zur Verfügung zu
stellen sind, und die Szenariumerzeugungseinheit 2312 erzeugt
ein Szenarium der Figur, die die Informationen der ausgewählten Gattung ausliest,
auf der Grundlage der Textdaten der ausgewählten Gattung, die in der Textdatenbeibehaltungseinheit 2303 beibehalten
sind, und die entsprechenden, in der Figurinformationsbeibehaltungseinheit 2311 beibehaltenen
Figurinformationen (Schritt S2401).
-
Dann
zeigt die Figuranzeigeeinheit 2309 eine Figur auf dem Bildschirm
auf der Grundlage des durch die Szenarienerzeugungseinheit 2312 erzeugten
Szenariums an (Schritt S2402). Nachdem die Figur angezeigt wurde,
werden das Szenarium bildende Textdaten durch die Sprachsyntheseeinheit 2308 in
synthetische Sprache umgewandelt, und werden durch die Sprachausgabeeinheit 2307 ausgegeben (Schritt
S2403).
-
Dann
bestimmt die Steuereinheit 2304, ob eine Spracheingabe
vom Benutzer während
der Ausgabe der synthetischen Sprache vorkommt oder nicht (Schritt
S2404). Wenn die Spracheingabe nicht vorkommt (NEIN in Schritt S2404),
schreitet der Prozess zu Schritt S2413 fort, nachdem das Szenarium ausgelesen
wurde, und, es wird bestimmt, ob das gerade vorhergehend ausgelesene
Szenarium zu der letzten Gattung gehört oder nicht. Wenn es zur
letzten Gattung gehört
(JA in Schritt S2413), endet der Prozess. Wenn es andererseits nicht
zur letzten Gattung gehört
(NEIN in Schritt S2413), schreitet der Prozess zu Schritt S2407
fort.
-
Wenn
andererseits in Schritt S2404 bestimmt wird, dass eine Spracheingabe
vorkommt (JA in Schritt S2404), schreitet der Prozess zu Schritt S2405
fort, wo die Spracherkennungseinheit 2302 eine Spracherkennung
durchführt.
Dann wird bestimmt, ob das Ergebnis einer Erkennung durch die Spracherkennung
ein das Ende der Darstellung von Informationen anzeigender Endbefehl
ist oder nicht (Schritt S2406). Wenn es ein Endbefehl ist (JA in Schritt
S2406), endet der Prozess. Wenn es andererseits kein Endbefehl ist
(NEIN in Schritt S2406), schreitet der Prozess zu Schritt S2407
fort, wo die Gattungsbestimmungseinheit 2306 eine gemäß dem Ergebnis
der Spracherkennung angezeigte Gattung bestimmt (Schritt S2407).
-
Dann
werden basierend auf den Konversationsdaten der Konversationsdateneinheit 2310 entsprechend
der Figur der bestimmten Gattung, dabei einer zwischen der Figur
der gerade vorhergehenden Gattung und der Figur der bestimmten Gattung
zum Zeitpunkt eines Umschaltens zwischen Gattungen gehalten. (Schritt
S2408).
-
Dann
werden die erzeugten Konversationsdaten durch die Sprachsyntheseeinheit 2308 in
synthetische Sprache transformiert und die Konversation der gerade
vorhergehenden Figur (im Folgenden als Figur A bezeichnet) werden
durch die Sprachausgabeeinheit 2307 ausgegeben (Schritt
S2409). Nachdem die Konversation der Figur A ausgegeben wurde, zeigt
die Figuranzeigeeinheit 2309 die Figur der nächsten Gattung
(im Folgenden als Figur B bezeichnet) an (Schritt S2410). Dann wird,
nachdem ein Umschalten zur Anzeige der Figur B erfolgt ist, die
Konversation der Figur B durch die Sprachausgabeeinheit 2307 ausgegeben
(Schritt S2411).
-
Dann
wendet sich die Figuranzeigeeinheit 2309 zum Szenarium
der nächsten
Gattung (Schritt S2412) und der Prozess kehrt zu Schritt S2403 zurück, wo eine
Darstellung von Informationen fortgesetzt wird.
-
Ein
Beispiel einer Darstellung von Informationen einschließlich einer
Konversation zwischen der Figur A und der Figur B zum Zeitpunkt
eines Umschaltens zwischen Gattungen in der vorstehend beschriebenen
Verarbeitung wird unter Verwendung von 22 beschrieben
werden.
-
22 zeigt
ein Beispiel für
eine Darstellung von Informationen einschließlich einer Konversation zwischen
der Figur A und der Figur B im dritten Ausführungsbeispiel der vorliegenden
Erfindung.
-
Weiterhin
wird im dritten Ausführungsbeispiel
die Konversation zwischen der Figur A und der Figur B zum Zeitpunkt
eines Umschaltens zwischen Gattungen sprachausgegeben, aber die
Buchstabenfolge entsprechend dieser Sprachausgabe kann auf dem Bildschirm
zusammen dargestellt werden. 22 zeigt
ein Beispiel für
einen derartigen Fall.
-
In 22 werden
Informationen auf einem Bildschirm 2501 einer Informationsdarstellungsvorrichtung,
wie beispielsweise eines als Informationsdarstellungsvorrichtung
betriebenen Per sonalcomputers angezeigt. In diesem Beispiel gehört die Figur A
zu einer „Politik"-Gattung und die
Figur B gehört
zu einer „Finanz"-Gattung, und das
Beispiel zeigt den Fall, in dem ein Umschalten von der „Politik"-Gattung zur „Finanz"-Gattung erfolgt.
Ein Animationsbild 2502 zeigt die Figur A. Ein Animationsbild 2505 zeigt
die Figur B. Konversationen 2503 und 2506 der
Figur A bzw. der Figur B erfolgen zum Zeitpunkt eines Umschaltens
zwischen Gattungen.
-
Wenn
diese Konversation mit der Konversationserzeugungseinheit 2305 erzeugt
wird, werden die nächste
Gattung (hier „Politik"-Gattung) zeigende Buchstaben 2504 und
den Namen der Figur B (Mr. OO) zeigende Buchstaben 2508 von
der Figurinformationsbeibehaltungseinheit 2311 als Informationen der
Figur B gesammelt und werden dann in einen festen Satz eingebettet
und in synthetische Sprache umgewandelt, um Worte 2503 der
Figur A auszugeben („Nun
Finanz- Nachrichten. Fahren Sie fort, bitte, Hr. OO.").
-
Auch
werden die vorhergehende Gattung (hier „Politik"-Gattung) zeigende Buchstaben 2507 von
der Figurinformationsbeibehaltungseinheit 2311 als Informationen
der Figur A gesammelt und die nächste
Gattung (hier „Finanz"-Gattung) zeigende Buchstaben 2509 werden
von der Figurinformationsbeibehaltungseinheit 2311 als
Informationen der Figur B gesammelt, und werden in einen festen
Satz eingebettet und in synthetische Sprache umgewandelt, um Worte 2506 der
Figur B auszugeben („Ja,
folgend auf die Politik-Nachrichten nun Finanz-Nachrichten.")
-
Wie
vorstehend beschrieben, wird gemäß diesem
dritten Ausführungsbeispiel,
wenn die Figurdarstellungsinformationen den Text in der Gattung entsprechend
der Figur vollständig
auslesen, oder, wenn der Benutzer durch Sprache Anweisungen gibt, zwischen
Gattungen umzuschalten, eine Konversation zur Übernahme zwischen der das Szenarium
der vorhergehenden Gattung auslesenden Figur und der das Szenarium
der nächsten
Gattung auslesenden Figur in dem Prozess eines Umschaltens zwischen Gattungen
eingefügt,
wodurch es mit diesem System unerfahrenen Benutzern ermöglicht wird,
insbesondere auditiv ein Umschalten zwischen Gattungen einfacher
zu erkennen.
-
Weiterhin
kann die vorliegende Erfindung auf ein System angewendet werden,
das durch eine Mehrzahl von Vorrichtungen (z.B. Hostcomputer, Schnittstellenvorrichtung,
Leser und Drucker) gebildet ist, oder kann auf Einrichtung angewendet
werden, die durch eine Vorrichtung gebildet ist (z.B. eine Kopiervorrichtung
und eine Faksimilevorrichtung).
-
Es
ist unnötig
zu sagen, dass die Aufgabe der vorliegenden Erfindung auch erreicht
wird, indem in einem System oder einer Vorrichtung ein Speichermedium
ausgebildet wird, in dem Programmcodes von Software zum Erreichen
der Merkmale der vorstehenden Ausführungsbeispiele aufgezeichnet
werden, und in dem Speichermedium gespeicherte Programmcodes, durch
den Computer (CPU oder MPU) des Systems oder der Vorrichtung gelesen
und ausgeführt
werden.
-
In
diesem Fall erreicht der aus dem Speichermedium gelesene Programmcode
selbst die Merkmale der vorstehenden Ausführungsbeispiele und das den
Programmcode darin speichernde Speichermedium bildet die vorliegende
Erfindung.
-
Für Speichermedien
zur Zufuhr von Programmcodes können
beispielsweise ein Diskettenlaufwerk, eine Festplatte, eine optische
Speicherplatte, eine magnetooptische Platte, eine CD-ROM, eine CD-R,
ein Magnetband, eine nichtflüchtige
Speicherkarte und ein ROM verwendet werden.
-
Es
ist unnötig,
zu sagen, dass nicht nur der Fall, in dem die Merkmale der vorstehenden
Ausführungsbeispiele
durch Ausführen des
durch den Computer gelesenen Programmcodes erreicht werden, sondern
auch der Fall, in dem basierend auf Anweisungen des Programmcodes
das auf dem Computer betriebene OS (Betriebssystem) oder dergleichen
einen Teil oder alle aktuellen Verarbeitungen ausführt, durch
die die Merkmale der vorstehenden Ausführungsbeispiele erreicht werden,
enthalten ist.
-
Weiterhin
ist es unnötig
zu sagen, dass auch der Fall enthalten ist, in dem der von dem Speichermedium
gelesene Programmcode in einen Speicher geschrieben wird, der in
einer in den Computer eingefügten
Merkmalserweiterungskarte und einer mit dem Computer verbundenen
Merkmalserweiterungseinheit ausgebildet ist, und danach basierend
auf Anweisungen des Programmcodes die CPU oder dergleichen, die
in der Merkmalserweiterungskarte und der Merkmalserweiterungseinheit
ausgebildet ist, einen Teil oder alle aktuelle Verarbeitung ausführt, durch
die die Merkmale der vorstehenden Ausführungsbeispiele erreicht werden.
-
Wenn
die vorliegende Erfindung auf die vorstehend beschriebenen Speichermedien
angewendet wird, werden die Programmcodes entsprechend den vorstehend
beschriebenen Ablaufdiagrammen in den Speichermedien gespeichert
werden.
-
Da
viele offensichtlich sehr unterschiedliche Ausführungsbeispiele der vorliegenden
Erfindung ohne Abweichung von deren Schutzumfang gebildet werden
können,
ist es verständlich,
dass die Erfindung nicht auf die bestimmten Ausführungsbeispiele davon beschränkt ist,
außer
wie in den angehängten Ansprüchen definiert.