DE60125674T2 - Informationsanzeige - Google Patents

Informationsanzeige Download PDF

Info

Publication number
DE60125674T2
DE60125674T2 DE60125674T DE60125674T DE60125674T2 DE 60125674 T2 DE60125674 T2 DE 60125674T2 DE 60125674 T DE60125674 T DE 60125674T DE 60125674 T DE60125674 T DE 60125674T DE 60125674 T2 DE60125674 T2 DE 60125674T2
Authority
DE
Germany
Prior art keywords
information
display
data
speaker
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60125674T
Other languages
English (en)
Other versions
DE60125674D1 (de
Inventor
Kazue Ohta-ku Kaneko
Hideo Ohta-ku Kuboyama
Shinji Ohta-ku Hisamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2000302765A external-priority patent/JP2002108380A/ja
Priority claimed from JP2000302763A external-priority patent/JP2002109558A/ja
Priority claimed from JP2000302764A external-priority patent/JP2002108601A/ja
Application filed by Canon Inc filed Critical Canon Inc
Application granted granted Critical
Publication of DE60125674D1 publication Critical patent/DE60125674D1/de
Publication of DE60125674T2 publication Critical patent/DE60125674T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich auf ein Informationsdarstellungssystem und eine Informationsdarstellungsvorrichtung, die derart konfiguriert sind, dass ein Informationsverteilanschluss über ein Netzwerk mit einem Informationsdarstellungsterminal bzw. -datenendgerät verbunden ist, das vom Informationsdarstellungsdatenendgerät verteilte Informationen darstellt, ein Steuerverfahren hierfür und ein Computerprogramm, das Anweisungen zu seiner/ihrer Steuerung aufweist.
  • HINTERGRUND DER ERFINDUNG
  • Es wurden verschiedene Verfahren für Informationsflussinformationen, wie beispielsweise sich immer ändernde frische Nachrichtenartikel für Benutzer vorgeschlagen. Unter ihnen sind beispielsweise Nachrichtenprogramme im Fernsehen und Radio die ältesten und weit verbreiteten Informationsdarstellungsverfahren.
  • In diesen Nachrichtenprogrammen liest ein Nachrichtensprecher aus einem Manuskript, um Benutzern Informationen zu vermitteln. Informationen werden durch die Sprache vermittelt, wodurch es einem Benutzer ermöglicht wird, Informationen zu hören, während beispielsweise eine Reinigung oder ein Fahren eines Fahrzeugs ausgeführt wird, und die Notwendigkeit zur Monopolisierung von Aufmerksamkeit vom Benutzer für die gesamte Zeit wird somit beseitigt. Auch wird im Fernsehen Bildliches verwendet, um Informationen effektiver zuzuführen.
  • Andererseits wurden Kommunikationstechnologien, wie beispielsweise Computer und Internet entwickelt, und neue Informations darstellungsverfahren, wie beispielsweise Homepages, die die letzten Nachrichten beschreiben, und Dienste zur Verteilung von Nachrichten über e-mails wurden vorgeschlagen. Diese Informationsdarstellungsverfahren besitzen Merkmale, die beim Fernsehen und Radio in dem Sinne fehlen, dass sie Eigenschaften auf Abruf besitzen, die eine Zufuhr von Informationen, wann immer sie benötigt werden, erlauben, und interaktive Eigenschaften, die einem Benutzer eine Anzeige gewünschter Informationen durch Nachrichtengattung und dergleichen erlauben, wobei nur Informationen nicht nur einseitig empfangen werden. Da statische und bewegte Bilder behandelt werden können, ist es möglich, Informationen durch Verwendung eines bildlichen Aufrufs effektiver auszubilden.
  • Jedoch mangelt es Nachrichtenprogrammen im Fernsehen oder Radio an Eigenschaften auf Abruf, die eine Zufuhr von Informationen, wann immer sie benötigt werden, erlaubt, und interaktive Eigenschaften, die Zuhörern erlauben, gewünschte Informationen entsprechend einer Nachrichtengattung und dergleichen anzuzeigen, da ihre Sendezeit festgelegt ist und die Reihenfolge der Inhalte von zu vermittelnden Nachrichten durch eine Rundfunkstation festgelegt ist.
  • Andererseits führen eine Zufuhr von Nachrichten durch Homepages, die Nachrichtenartikel beschreiben, Dienste von Nachrichtenartikeln durch e-mails und so weiter zu einer hohen Barriere für Personen, die Personalcomputer nicht gut bedienen können. Da Informationen auch nur durch Texte zugeführt werden, sollte ein Benutzer die Informationen durch Berücksichtigen des Bildschirms zu jeder Zeit zum Empfang der Informationen „lesen", was zu einem Mangel an Bequemlichkeit bei einem Empfang von Informationen führt, während beispielsweise ein Reinigen oder Fahren eines Fahrzeugs zur selben Zeit ausgeführt wird.
  • US 5,963,217 beschreibt einen Datenstrom von Text und ausdrückliche Befehle von einem Leitrechner zu einem teilnehmenden Computer in einem Konferenzsystem, der dann hörbare Sprache und Animation eines Avatars bzw. einer virtuellen Figur, das bzw. die zu jedem Benutzer gehört, erzeugt Texteingabe durch den Benutzer wird auch angezeigt.
  • Ein Anliegen der vorliegenden Erfindung besteht darin, ein Informationsdarstellungssystem und eine Informationsdarstellungsvorrichtung, die eine effektivere Darstellung von Informationen gemäß Anspruch 1 zur Verfügung stellen kann, ein Steuerverfahren dafür gemäß Anspruch 8 und ein Computerprogramm mit Anweisungen zur Steuerung davon gemäß Anspruch 15 zur Verfügung stellen können.
  • Gesichtspunkte der vorliegenden Erfindung werden in den angefügten Ansprüchen dargelegt.
  • Gemäß einem Ausführungsbeispiel umfasst ein Informationsdarstellungssystem eine Sendevorrichtung zum Senden von Sendedaten einschließlich Textinformationen und eine mit der Sendevorrichtung verbundene Empfangsvorrichtung kann kommunizieren und die Sendedaten empfangen, wobei die Empfangsvorrichtung eine Sprachausgabeeinrichtung zur Ausführung einer Sprachsynthese auf der Grundlage von Textinformationen, die in empfangenen Sendedaten enthalten sind, und zur Ausgabe von erhaltener synthetischer Sprache, eine erste Anzeigeeinrichtung zur Anzeige von Sprecherbildern, die Sprecher der synthetischen Sprache imitieren, und eine zweite Anzeigeeinrichtung zur Anzeige einer durch die synthetische Sprache in einer Textanzeigeform entsprechend jedem der Sprecherbilder zu sprechenden Textfolge umfasst.
  • Andere Merkmale und Vorteile der vorliegenden Erfindung werden aus der folgenden Beschreibung in Verbindung mit der beigefüg ten Zeichnung offensichtlich, in der dieselben Bezugszeichen dieselben oder ähnliche Teile durch die Figuren davon bezeichnen.
  • KURZBESCHREIBUNG DER ZEICHNUNG
  • Die beigefügte Zeichnung, die in die Beschreibung aufgenommen ist und einen Teil davon bildet, veranschaulicht Ausführungsbeispiele der Erfindung und dient zusammen mit der Beschreibung zur Erklärung der Prinzipien der Erfindung.
  • 1 ist ein Blockschaltbild, das eine Hardwarekonfiguration jedes Computers zeigt, der ein Informationsdarstellungssystem jedes Ausführungsbeispiels der vorliegenden Erfindung bildet.
  • 2 ist ein Blockschaltbild, das eine schematische Konfiguration des Informationsdarstellungssystems eines ersten Ausführungsbeispiels der vorliegenden Erfindung zeigt.
  • 3 ist ein Blockschaltbild, das eine Funktionskonfiguration eines Informationsverteilcomputers des ersten Ausführungsbeispiels der vorliegenden Erfindung zeigt.
  • 4 ist ein Blockschaltbild, das eine Funktionskonfiguration eines Informationsdarstellungscomputers des ersten Ausführungsbeispiels der vorliegenden Erfindung zeigt.
  • 5 zeigt ein Beispiel für eine Struktur von in einer externen Speichereinrichtung der Informationsdarstellungsvorrichtung des ersten Ausführungsbeispiels der vorliegenden Erfindung gespeicherten Daten.
  • 6 ist ein Ablaufdiagramm, das einen Vorgang für eine in dem Informationsdarstellungssystem des ersten Ausführungsbei spiels der vorliegenden Erfindung ausgeführte Verarbeitung zeigt.
  • 7 zeigt nach einer Gattung angeordnete Nachrichtenartikel im ersten Ausführungsbeispiel der vorliegenden Erfindung.
  • 8 veranschaulicht eine Klassifikation von Nachrichtenartikeln nach der Gattung in dem ersten Ausführungsbeispiel der vorliegenden Erfindung.
  • 9 zeigt ein Beispiel für Dateien zur Definition von virtuellen Sprechern des ersten Ausführungsbeispiels der vorliegenden Erfindung.
  • 10 zeigt ein Beispiel für Dateien zur Definition jeder Nachrichtengattung des ersten Ausführungsbeispiels der vorliegenden Erfindung.
  • 11 zeigt ein Beispiel für eine Erzeugung einer Funktionsbeschreibungssprache im ersten Ausführungsbeispiel der vorliegenden Erfindung.
  • 12 zeigt ein Beispiel für Anzeigebildschirme im ersten Ausführungsbeispiel der vorliegenden Erfindung.
  • 13 zeigt ein anderes Beispiel für Anzeigebildschirme im ersten Ausführungsbeispiel der vorliegenden Erfindung.
  • 14 zeigt ein anderes Beispiel für eine Erzeugung einer Funktionsbeschreibungssprache im ersten Ausführungsbeispiel der vorliegenden Erfindung.
  • 15 zeigt ein Blockschaltbild, das eine Funktionskonfiguration des Informationsdarstellungssystems des zweiten Ausführungsbeispiels der vorliegenden Erfindung zeigt.
  • 16 ein Ablaufdiagramm, das einen Vorgang zur in dem Informationsdarstellungssystem des zweiten Ausführungsbeispiels der vorliegenden Erfindung ausgeführten Verarbeitung zeigt.
  • 17 zeigt ein Beispiel für eine Struktur von Daten, die verwaltet werden, wenn Buchstabeninformationen und Bildinformationen im zweiten Ausführungsbeispiel der vorliegenden Erfindung verstärkt werden.
  • 18 zeigt ein Beispiel für Anzeigebildschirme im zweiten Ausführungsbeispiel der vorliegenden Erfindung.
  • 19 zeigt ein anderes Ausführungsbeispiel für Anzeigebildschirme im zweiten Ausführungsbeispiel der vorliegenden Erfindung.
  • 20 eine Funktionskonfiguration der Informationsdarstellungsvorrichtung des dritten Ausführungsbeispiels der vorliegenden Erfindung.
  • 21 ein Ablaufdiagramm, das einen Vorgang zur in der Informationsdarstellungsvorrichtung des dritten Ausführungsbeispiels der vorliegenden Erfindung ausgeführten Verarbeitung zeigt.
  • 22 zeigt ein Beispiel einer Darstellung von Informationen einschließlich Konversationen zwischen einem Zeichen A und einem Zeichen B im dritten Ausführungsbeispiel der vorliegenden Erfindung.
  • GENAUE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSBEISPIELE
  • Ausführungsbeispiele der vorliegenden Erfindung werden nachstehend genau beschrieben, wobei auf die Zeichnung Bezug genommen wird.
  • 1 ist ein Blockschaltbild einer Hardwarekonfiguration jedes Computers, der ein Informationsdarstellungssystem gemäß jedem Ausführungsbeispiel gemäß der vorliegenden Erfindung bildet.
  • In 1 steuert eine CPU 101 eine gesamte Informationsverarbeitungsvorrichtung 1000 über einen Haupt-Bus 116 und steuert über eine Eingabe-I/F (Schnittstelle) 104, eine mit der Außenseite der Informationsverarbeitungsvorrichtung 1000 verbundene Eingabeeinrichtung 110 (beispielsweise ein Mikrophon, einen Bildabtaster bzw. -scanner, eine Speichereinrichtung, andere über Netzwerkleitungen verbundene Informationsverarbeitungsvorrichtungen und eine über eine Telefonleitung verbundene Faksimilevorrichtung). Sie steuert auch über eine Ausgabe-I/F 105 eine Ausgabeeinrichtung 111 (beispielsweise einen Sprecher, einen Drucker, einen Monitor, andere über Netzwerkleitungen verbundene Informationsverarbeitungsvorrichtungen und eine über eine Telefonleitung verbundene Faksimileeinrichtung), die mit der Außenseite der Informationsverarbeitungsvorrichtung 1000 verbunden ist. Die CPU 101 führt auch eine Reihe von Verarbeitungen, wie beispielsweise eine Eingabe von Bildern, eine Bildverarbeitung, eine Verarbeitung von Farbtransformationen und eine Ausgabesteuerung für Bilder entsprechend von einer Eingabeeinheit (beispielsweise einer Tastatur 112, einer Zeigeeinrichtung 113 und einem Stift 114) über eine KBD-IF (Tastaturschnittstelle) 107 eingegebenen Anweisungen aus. Zusätzlich steuert sie über eine Video-IF (Schnittstelle) 108 eine Anzeigeeinheit 109 zur Anzeige von von der Eingaberichtung 110 eingegebenen Bilddaten und unter Verwendung der Tastatur 112, der Zeigeeinrichtung 113 und dem Stift 114 erzeugten Bilddaten.
  • Ein ROM 102 speichert darin verschiedene Arten von Steuerprogrammen zur Ausführung von verschiedenen Arten von Steuerungen der CPU 101. Diese verschiedenen Arten von Programmen und verschiedenen Arten von Daten, die erforderlich sind, um jedes Ausführungsbeispiel durchzuführen, können in einer externen Speichereinrichtung 106 gespeichert werden, die durch eine Festplatte, eine CD-ROM, eine DVD-ROM und dergleichen gebildet sind. In einen RAM 103 sind das OS und andere Steuerprogramme einschließlich Steuerprogrammen zum Erreichen der vorliegenden Erfindung geladen und werden durch die CPU 101 ausgeführt. Es funktioniert auch als verschiedene Arten von Arbeitsbereichen, die zur Ausführung von Steuerprogrammen und temporären Speicherbereichen verwendet werden. Auch speichert ein (nicht gezeigter) VRAM von der Eingabeeinrichtung 110 eingegebene temporäre Bilddaten und unter Verwendung der Tastatur 112, der Zeigeeinrichtung 113 und des Stifts 114 erzeugte Bilddaten werden konfiguriert.
  • <Erstes Ausführungsbeispiel>
  • Im ersten nachstehend beschriebenen Ausführungsbeispiel wird eine Konfiguration beschrieben, in der unter Verwendung von Figuranimation und Sprachsynthese ein virtueller Sprecher die Inhalte von Nachrichtenartikeln durch Sprache in Nachahmung eines menschlichen Sprechers eines Fernsehprogramms vermittelt und es wird ermöglicht, Buchstabenfolgen entsprechend den Artikelinhalten anzuzeigen, wodurch Benutzern durch sowohl Sprach- als auch Zeichenketten die Inhalte vermittelt werden. Hier werden beispielsweise über ein Netzwerk, wie beispielsweise das Internet, von einem Provider der Nachrichtenartikel verteilte Nachrichtenartikel empfangen, werden nach einer Gattung angeordnet und werden Benutzers in vorbestimmter Gattungsreihenfolge vermittelt. Zusätzlich kann gemäß dem ersten Ausführungsbeispiel eine gewünschte Gattung zu irgendeiner Zeit durch eine Spracheingabe durch den Benutzer bestimmt werden, wodurch es ermöglicht wird, Informationen auf Abruf und interaktiv zur Verfügung zu stellen.
  • 2 zeigt ein Blockschaltbild, das eine schematische Konfiguration des Informationsdarstellungssystems gemäß dem ersten Ausführungsbeispiel der vorliegenden Erfindung zeigt.
  • In 2 verteilt ein Informationsverteilcomputer 2101 Informationen, wie beispielsweise durch Informations-Provider zur Verfügung gestellte Online-Nachrichten (beispielsweise durch Nachrichteninformations-Provider zur Verfügung gestellte Nachrichtenartikel) über ein Netzwerk 2103. Ein Informationsdarstellungscomputer 2102 teilt verteilte Informationen auf, wie beispielsweise die Inhalte von über das Netzwerk verteilten Online-Nachrichten in einen synthetischen Sprachteil zum Auslesen der Informationen mit synthetischer Sprache einer Figur (Animationsbild) und einen Anzeigeteil zur Anzeige der Informationen mit Buchstabeninformationen, wie beispielsweise Titeln von Nachrichten und Bildinformationen, wie beispielsweise Bildern, um die verteilten Informationen Benutzern darzustellen.
  • Das Netzwerk 2103 wird für Datenkommunikation zwischen dem Informationsverteilcomputer 2101 und dem Informationsdarstellungscomputer 2102 verwendet. Beispiele für dieses Netzwerk enthalten ein drahtloses Netzwerk, Internet und eine öffentliche Leitung.
  • 3 ist ein Blockschaltbild, das eine Funktionskonfiguration des Informationsverteilcomputers gemäß dem ersten Ausführungsbeispiel der vorliegenden Erfindung zeigt.
  • Der Informationsverteilcomputer 2101 besitzt eine Informationsbeibehaltungseinheit 201 zum Beibehalten von Nachrichtenin formationen, die dem Benutzer zur Verfügung zu stellende Nachrichtenartikel darstellen, eine Informationsaktualisierungseinheit 202 zur Aktualisierung der in der Informationsbeibehaltungseinheit 201 beibehaltenen Informationen auf die letzten, und eine Kommunikationseinheit 203 zum Senden der in der Informationsbeibehaltungseinheit 201 beibehaltenen Nachrichteninformationen an den Informationsdarstellungscomputer 2102 über das Netzwerk 2103.
  • Der Nachrichteninformations-Provider gibt zur Verfügung zu stellende Nachrichteninformationen in diesen Informationsverteilcomputer 2101 ein, wodurch die eingegebenen Nachrichteninformationen in der Informationsspeichereinheit 201 beibehalten werden, und werden dann an den Informationsdarstellungscomputer 2102 verteilt. Der Informationsdarstellungscomputer 2102 kann dieser Nachrichteninformationen die gesamte Zeit empfangen, indem auf den Informationsverteilcomputer 2101 zugegriffen wird.
  • 4 ist ein Blockschaltbild einer Funktionskonfiguration des Informationsdarstellungscomputers gemäß dem ersten Ausführungsbeispiel der vorliegenden Erfindung.
  • Eine Informationsanordnungseinheit 301 führt Anordnungen durch, wie beispielsweise ein Beibehalten von von dem Informationsverteilcomputer 2101 empfangenen Nachrichteninformationen nach der Gattung. Eine Funktionsbeschreibungssprache-Transformationseinheit 302 wandelt Nachrichteninformationen in eine Funktionsbeschreibungssprache um. Eine Funktionsbeschreibungssprache-Ausführeinheit 303 bedient einen virtuellen Sprecher in der Form einer Figur (Animationsbild), lässt einen Sprecher Nachrichteninformationen durch Sprachsynthese lesen, und zeigt Bilduntertitel und dergleichen auf einem Bildschirm an, entsprechend der durch die Funktionsbeschreibungssprache- Transformationseinheit 302 erzeugten Funktionsbeschreibungssprache.
  • Eine Informationen zur Verfügung stellende Prozesssteuereinheit 304 verwaltet den gesamten Prozess vom Beginn bis zum Ende des zur Verfügung Stellens von Informationen zum Benutzer. Wenn zusätzlich eine Spracheingabe durch den Benutzer während einer Ausführung der Funktionsbeschreibungssprache auftritt, unterbricht die Informationen zur Verfügung stellende Prozesssteuereinheit 304 die Ausführung der Funktionsbeschreibungssprache-Ausführeinheit 303, um eine Spracherkennung der Eingabe durchzuführen. Auf diesem Weg verwaltet die Informationen zur Verfügung stellende Prozesssteuereinheit 304 die zu vermittelnde Nachrichtengattung, z.B. ein Umschalten der Nachrichtengattung auf eine bestimmte Nachrichtengattung in dem Fall, in dem der Benutzer eine Nachrichtengattung durch Sprache bestimmt. Eine Kommunikationseinheit 305 erreicht eine Kommunikation zwischen dem Informationsverteilcomputer 2101 und der Informationsanordnungseinheit 301.
  • Weiterhin sind im ersten Ausführungsbeispiel eine Virtueller-Sprecher-Definitionsdatei 601, eine Gattungs-Definitionsdatei 701, eine Figur-Dateigruppe 1210 und ein Steuerprogramm in der externen Speichereinrichtung 106 des Informationsdarstellungscomputers 2102 enthalten, wie in 5 gezeigt.
  • Die Virtueller-Sprecher-Definitionsdatei 601 ist aus Daten zur Definition der Entsprechung des virtuellen Sprechers mit Animationsdaten und Signalverlaufsdaten für eine Sprachsynthese (deren Einzelheiten später unter Bezugnahme auf 9 beschrieben werden) zusammengesetzt. Die Gattungs-Definitionsdatei 701 ist aus Daten zur Definition der Entsprechung der Gattung mit dem virtuellen Sprecher (deren Einzelheiten später unter Bezugnahme auf 10 beschrieben werden) zusammengesetzt. Die Figur-Dateigruppe 1210 enthält eine Viel zahl von Figur-Dateien (1211). Jede Figur-Datei 1211 enthält Animationsdaten 1213 zur Ausbildung einer Animationsanzeige der Figur und ein Signalverlaufswörterbuch 1212 zur Durchführung von Sprachsynthese. Das Steuerprogramm 1220 ist eine Gruppe von Programmcodes, um durch die CPU 101 den durch das Ablaufdiagramm in 6 gezeigten Steuervorgang zu erreichen.
  • 6 ist ein Ablaufdiagramm, das den Vorgang einer in dem Informationsdarstellungssystem gemäß dem ersten Ausführungsbeispiel der vorliegenden Erfindung ausgeführten Verarbeitung zeigt.
  • Zuerst kommuniziert die Informationsanordnungseinheit 301 des Informationsdarstellungscomputers 2102 mit dem Informationsverteilcomputer 2101 über das Kommunikationsnetzwerk 305 (Netzwerkschnittstelle 1207) und das Netzwerk 2103, um Nachrichteninformationen herunter zu laden, und ordnet die Informationen, wie in 7 gezeigt, nach der Gattung (Schritt S401).
  • Weiterhin kann zur Anordnung der herunter geladenen Nachrichteninformationen in der in 7 gezeigten Art die Entsprechung der Nachrichteninformationen mit der Gattung manuell bezeichnet werden, oder Daten der Nachrichteninformationen können analysiert werden, um ihre Entsprechung automatisch festzusetzen. In dem Fall, in dem die Informationsanordnungseinheit 301 eine Entsprechung automatisch festsetzt, können beispielsweise die folgenden Vorgänge folgen.
    • (1) Wie in 8 gezeigt, besitzen durch den Informationsverteilcomputer 2101 an den Informationsdarstellungscomputer 2102 gesendete Artikeldaten 1301 Kopfzeilen 1302, Artikelinhalte 1303 und Eigenschaften 1304. Der Informationsdarstellungscomputer 2102 führt eine Klassifikation nach einer Gattung (1310) auf der Grundlage jeder Eigenschaft 1304 der empfangenen Arti keldaten 1301 durch und dementsprechend werden die Überschriften und Artikelinhalte (Rümpfe) klassifiziert, wie in 7 gezeigt.
    • (2) Alternativ erfolgt eine Schlüsselwortsuche für zumindest eine der Überschriften 1302 oder die Artikelinhalte 1303, die in dem Artikeldaten 1301 enthalten sind, die Gattung des Artikels wird bestimmt (1311) und die Überschriften und Artikelinhalte (Rümpfe) werden klassifiziert, wie in 7 gezeigt.
  • Weiterhin sind in dem Fall, in dem das vorstehende Verfahren (2) verwendet wird, die Eigenschaften 1304 der Artikeldaten 1301 nicht notwendig. Auch kann das vorstehende Verfahren (1) natürlich in Kombination mit dem vorstehenden Verfahren (2) verwendet werden. Zusätzlich wird in dem ersten Ausführungsbeispiel das Ergebnis einer Klassifikation von Nachrichteninformationen nach der Gattung als eine Gattungsklassifikationstabelle 501 gespeichert, wie in 7 gezeigt, aber das Verfahren eines Beibehaltens des vorstehend beschriebenen Ergebnisses einer Gattungsklassifikation ist nicht darauf beschränkt.
  • In nachfolgenden Prozessen werden Informationen in der Reihenfolge der in 7n gezeigten Gattungsnummern dargestellt, aber es ist nicht nötig, zu sagen, dass eine Konfiguration erfolgen kann, so dass der Benutzer diese Nummer wie gewünscht setzt.
  • Zusätzlich bestimmt zu diesem Zeitpunkt die Informationen zur Verfügung stellende Prozesssteuereinheit 304 eine Struktur zum zur Verfügung Stellen von Informationen. Die Struktur zur Ausbildung von Informationen bezieht sich auf eine Regelung, welcher virtuelle Sprecher über welche Gattung sprechen soll, und, wie die die gesprochenen Inhalte ausdrückenden Buchstabenfolgen angezeigt werden. Als Informationen zur Bestimmung der Struktur zum zur Verfügung Stellen von Informationen werden virtuelle Sprecher, Hintergründe und Artikelgattungen gesetzt, wie in den 9 und 10 gezeigt.
  • 9 zeigt ein Beispiel für die Inhalte einer Virtueller-Sprecher-Definitionsdatei gemäß dem ersten Ausführungsbeispiel der vorliegenden Erfindung.
  • Die Virtueller-Sprecher-Definitionsdatei 601 legt die Entsprechung der Namen von virtuellen Sprechern mit den Animationsdaten 1212 fest, die verwendet werden, und das Signalverlaufswörterbuch 1213 zur Sprachsynthese. Die „Kennzeichnung<>" stellt die Definition jedes virtuellen Sprechers dar und ihr Name ist durch den „Namen" definiert. Die „Farbe" bezieht sich auf die Farbe von Buchstaben, die Buchstabenfolgen bilden, wenn die gesprochenen Inhalte des virtuellen Sprechers auf dem Bildschirm dargestellt werden. Für dieses wird jedem virtuellen Sprecher eine unterschiedliche Farbe zugewiesen. Auch bestimmt die „Datei" die Figur-Datei 1211, die das Signalverlaufswörterbuch 1212 definiert, das verwendet wird, wenn die Sprache des virtuellen Sprechers sprachsynthetisiert wird, die Animationsdaten (Bilddaten) 1213 und dergleichen. Da weiterhin das Signalverlaufswörterbuch 1212 und die Animationsdaten 1213 durch Verwendung herkömmlicher Techniken erreicht werden können, werden Einzelheiten davon hier nicht beschrieben.
  • 10 zeigt ein Beispiel für die Inhalte der Gattungs-Definitionsdatei zur Definition jeder Nachrichtengattung gemäß dem ersten Ausführungsbeispiel der vorliegenden Erfindung.
  • In der Gattungs-Definitionsdatei 701 wird die Entsprechung der Nachrichtengattung mit dem virtuellen Sprecher registriert. Die „Kennzeichnung<>" definiert die Nachrichtengattung und ihr Name ist durch den „Namen" definiert. Und der „Sprecher" be stimmt einen virtuellen Sprecher, um die Nachrichten der Gattung zu vermitteln.
  • Weiterhin können die vorstehende Virtueller-Sprecher-Definitionsdatei 601 und die Gattungs-Definitionsdatei 701 durch den Nachrichteninformations-Provider erzeugt und zur Zeit einer Verteilung von Nachrichteninformationen verteilt werden, oder sie können vorhergehend in dem Informationsdarstellungscomputer 2102 beibehalten werden, um Benutzervorlieben zu folgen. Im ersten Ausführungsbeispiel werden die in den 9 und 10 gezeigten Daten vorhergehend in der externen Speichereinrichtung 106, in dem Informationsdarstellungscomputer 2102 beibehalten. Natürlich können die Inhalte jeder Definition manuell verändert werden.
  • Wenn die vorstehend beschriebene Initialisierung beendet ist, erzeugt die Funktionsbeschreibungssprache-Transformationseinheit 302 eine Funktionsbeschreibungssprache, um dem Benutzer durch Prozesse gemäß den Schritten S402 bis S408 Nachrichten zur Verfügung zu stellen. Das heißt, die Funktionsbeschreibungssprache-Transformationseinheit 302 führt eine Umwandlung in eine Funktionsbeschreibungssprache durch, wie in 11 gezeigt, wobei auf die in 7 gezeigte Gattungsklassifikationstabelle 501, die in 9 gezeigte Virtueller-Sprecher-Definitionsdatei 601 und die in 10 gezeigte Gattungs-Definitionsdatei 701 Bezug genommen wird.
  • Zuerst wird die Gattungsnummer J von dem Benutzer zu vermittelnden Nachrichten auf 1 initialisiert, und die Artikelnummer I wird auf 1 initialisiert (Schritt S402). Dann wird in Schritt S403 ein Befehl zur Anzeige eines virtuellen Sprechers beschrieben, der den Artikel der Gattung J ausliest (801 in 11), und in einem Schritt S404 werden die Anzeige der Überschrift, Sprachausgabe, und die Anzeige von Buchstabenfolgen (Bildunterschrift), die die Inhalte der Sprachausgabe aus drücken, für die I-ten Artikeldaten der Gattung J beschrieben, wie durch 802 in 8 gezeigt. Die Überschrift und die Inhalte von Sprachausgabe entsprechen der Überschrift 1302 und den Artikelinhalten 1303 in den Artikeldaten 1301 und können einfach von mit HTML und dergleichen beschriebenen Daten identifiziert werden.
  • Beispielsweise bezieht sich J = 1 auf die „Politik"-Gattung und virtuelle Sprecher zur Vermittlung von Nachrichten sind „Haupt-Sprecher, Neben-Sprecher" gemäß der Gattungs-Definitionsdatei 701 in der Szene dieser Gattung und somit ist eine Funktion, um dieser zwei Darsteller an einen definierten Ort bzw. einer definierten Position (Position1, Position2) erscheinen zu lassen, beschrieben („Sprecher->Zeige(Haupt-Sprecher, Position1)", „Sprecher->Zeige(Neben-Sprecher, Position2)").
  • Dann ist eine Funktion einer Anzeige vor der Buchstabenfolge der Überschrift des I = ersten Nachrichtenartikels beschrieben („VordererText->Anzeige(Oppositionsparteien gegen Ankündigung des Premierministers zur Steuerreduktionspolitik"). Hier ist eine vorbestimmte Farbe für die Farbe der Buchstabenfolge der Überschrift zugewiesen, und in diesem Beispiel ist die Überschrift in roter Farbe ausgedrückt. Weiterhin wird für die Buchstabenfarbe für die Buchstabenfolge der Überschrift eine Farbe, die keinem Sprecher zugewiesen ist, bevorzugt zugewiesen. Aus diesem Grund kann die Überschrift einfach aus Buchstabenfolgen, die ausgelesen werden, identifiziert werden.
  • Dann ist eine Funktion eines Veranlassens der virtuellen Sprechers zum Auslesen der Artikelinhalte beschrieben („Sprecher->Sprechen(Premierminister XXX ... "wesentliche Steuerreduktion" ..., Haupt-Sprecher") und es wird eine Funktion einer Anzeige von Bildunterschriften auf dem Bildschirm in bestimmter Farbe für jeden virtuellen Sprecher beschrieben („GesprochenerText- >Anzeige (Premierminister XXX ... "wesentliche Steuerreduktion" ..., weiß"). Hier liest die Funktionsbeschreibungssprache-Transformationseinheit 302 die durch die „Farbe" für den Sprecher gezeigte Anzeigefarbe aus der Virtueller-Sprecher-Definitionsdatei 601 in 9 auf der Grundlage des „Haupt-Sprechers" und beschreibt dieselbe.
  • In dem Fall, in dem eine Vielzahl virtueller Sprecher definiert ist, wie für die Politik-Gattung, können weiterhin virtuelle Sprecher, die Bildunterschriften auslesen, einer nach dem anderen für jeden Satz verändert werden.
  • Wenn die gesamte Funktionsbeschreibungssprache für einen Artikel vollständig beendet ist, wird überprüft, ob der Artikel der letzte Artikel in der Gattung J ist oder nicht (Schritt S405) und, wenn er nicht der letzte Artikel ist, wird der Wert von J unverändert gelassen und I wird erhöht (Schritt S407) und der Prozess kehrt zu Schritt S404 zurück, wodurch eine Umwandlung des nächsten Nachrichtenartikels derselben Gattung in die Funktionsbeschreibungssprache durchgeführt wird. Wenn andererseits in einem Schritt S405 bestimmt ist, dass der Artikel der letzte Artikel in der Gattung J ist, wird zuletzt überprüft, ob die Gattung J die letzte auszulesende Art ist oder nicht (Schritt S406). Wenn sie nicht die letzte Gattung ist, wird J um eins erhöht, I wird auf 1 initialisiert (Schritt S408) und der Prozess kehr zu Schritt S403 zur Verarbeitung der nächsten Gattung zurück.
  • Wenn in Schritt S406 bestimmt wird, dass die Gattung die letzte Gattung ist, schreitet der Prozess zu Schritt S411 fort, wobei die Funktionsbeschreibungssprache-Ausführeinheit 303 eine Anzeige von Figur-Animationen, eine Anzeige von Figuren und eine Sprachsynthese/ausgabe entsprechend der durch die vorstehend beschriebenen Prozesse erzeugten Funktionsbeschreibungsprache durchführt.
  • Die entsprechende Figur 1211 wird aus der Sprecher-Definitionsdatei 601 mit den in der Funktionsbeschreibungssprache bezeichneten Namen von Sprechern in Schritt S411 erhalten, und Animations-Figuren werden auf der Grundlage der Animationsdaten 1213, die in der erhaltenen Figur-Datei 1211 enthalten sind, in Schritt S412 angezeigt. Dann wird in Schritt S413 ein Beispiel für einen mit dem vorstehend beschriebenen GesprochenerText-> beschriebenen Text in einer bestimmten Farbe angezeigt. Dann wird in Schritt S414 das in der in Schritt S411 erhaltenen Figur-Datei 1211 enthaltene Signalverlaufswörterbuch 1212 zur Sprachsynthetisierung eines Beispiels für einen mit der vorstehend beschriebenen Sprecher->Sprechen und Sprachausgabe derselben beschriebenen Texts verwendet.
  • In Schritt S415 wird bestimmt, ob für alle in die Funktionsbeschreibungssprache umgewandelten Daten eine Verarbeitung durchgeführt wurde oder nicht, und, wenn zu verarbeitende Daten existieren, kehrt der Ablauf zu Schritt S411 zurück. Wenn die Verarbeitung beendet ist, endet dieser Prozess auch. Weiterhin wird in dem vorstehend beschriebenen Vorgang, eine Umwandlung aller wie in 7 gezeigt angeordneten Daten in die Funktionsbeschreibungssprache vor der Ausführung der Funktionsbeschreibungssprache begonnen, aber eine Ausführung der Funktionsbeschreibungssprache kann begonnen werden, bevor eine Umwandlung in die Funktionsbeschreibungssprache beendet ist.
  • 12 zeigt ein Beispiel für einen dem Benutzer dargestellten Bildschirm, wenn Informationen in dem ersten Ausführungsbeispiel der vorliegenden Erfindung zur Verfügung gestellt werden.
  • Auf einem Bildschirm 901 sind virtuelle Sprecher tätig und Bildunterschriften eines Nachrichtenartikels werden dem Benut zer angezeigt. Virtuelle Sprecher 902 und 903 lesen den Nachrichtenartikel einschließlich einer Überschrift 904 aus. Bildunterschriften 905 und 906 zeigen die durch die virtuellen Sprecher 902 bzw. 903 gesprochenen Inhalte an.
  • In 12 sind für Bildunterschriften für jeden sprechenden virtuellen Sprecher verschiedene Buchstabenfarben durch die „Farbe" in 9 definiert. Alle durch den virtuellen Sprecher 902 gesprochenen Inhalte werden in einer der Anzeige 905 identischen Farbe angezeigt, während alle durch den virtuellen Sprecher 903 gesprochenen Inhalte in einer der Anzeige 906 identischen Farbe angezeigt werden und sie werden somit für jeden virtuellen Sprecher in verschiedenen Farben angezeigt. Auch ist eine Anzeigefarbe im Voraus für die Überschrift des Artikels 904 bestimmt, die in einer Buchstabenfarbe verschieden von der der durch die virtuellen Sprecher gesprochenen Inhalte angezeigt ist.
  • Wie vorstehend beschrieben, ist es gemäß dem ersten Ausführungsbeispiel, da der verteilte Nachrichtenartikel durch Sprachsynthese ausgelesen wird, nicht notwendig, die gesamte Zeit Aufmerksamkeit auf den Bildschirm zu richten, um angezeigten Text zu lesen, und somit können Informationen einfach gesammelt werden.
  • Zusätzlich zur Sprachsynthese/ausgabe wird auch die Überschrift des Artikels mit Bildunterschriften angezeigt und die ausgelesenen Inhalte werden mit Bildunterschriften angezeigt, wodurch einer korrekte Erkennung der Inhalte ermöglicht wird, auch, wenn das System durch eine visuell beeinträchtigte Person verwendet wird, und, wenn die Inhalte aufgrund von rund herum auftretenden Geräuschen nicht gut gehört werden können. Gemäß dem ersten Ausführungsbeispiel ist zusätzlich eine Anzeige derart ausgebildet, dass die Buchstabenfarben von Bildunterschriften entsprechend der Überschrift und jedem Sprecher verschiedenen voneinander sind, wodurch es möglich gemacht wird, einfach zu verstehen, welche Bildunterschrift der Kopfzeile entspricht, und, welche Bildunterschrift den durch den virtuellen Sprecher ausgelesenen Inhalten entspricht, von Bildunterschriften des auf dem Bildschirm unterschiedlich angezeigten Artikels, und welcher auf dem Bildschirm angezeigte virtuelle Sprecher die Inhalte ausliest.
  • Weiterhin werden in dem vorstehend beschriebenen ersten Ausführungsbeispiel die Überschrift und die gesprochenen Inhalte mit der Buchstabenfarbe angezeigt, die für die Überschrift und jeden virtuellen Sprecher definiert ist, aber die Erfindung sollte nicht darauf beschränkt sein. Es ist nur wesentlich, dass der Benutzer versteht, ob die anzeigte Figur einer Überschrift entspricht oder welcher virtuelle Sprecher die Inhalte spricht, und, um dem Benutzer verständlich zu machen, dass für die Überschrift und jeden virtuellen Sprecher verschiedene Formen verwendet werden.
  • Beispielsweise zeigt 13 ein Beispiel, in dem die gesprochenen Inhalte von einem jeweiligen virtuellen Sprecher nahe den virtuellen Sprechern angezeigt sind, um die Inhalte jedes Sprechers zu bestimmen. Um eine derartige Anzeige zu erreichen, wird eine Funktionsbeschreibungssprache, wie in 14 gezeigt, in der Funktionsbeschreibungssprache-Transformationseinheit 302 erzeugt, und diese Sprache wird durch die Funktionsbeschreibungssprache-Ausführeinheit 303 ausgeführt.
  • Wie in 14 gezeigt, ist in der Beschreibungsausdruckanzeige der gesprochenen Inhalte der Ort bzw. die Position einer Anzeige des sprechenden virtuellen Sprechers zusätzlich beschrieben. Beispielsweise ist mit einer Beschreibung, wie beispielsweise „GesprochenerText->Anzeige (Premierminister XXX ... "wesentliche Steuerreduktion" ..., weiß, Position1), ausge drückt, dass Bildunterschriften an einem definierten Ort bzw. einer definierten Position relativ zur „Position2", das ist eine Position, an der der „Haupt-Sprecher" angezeigt ist, anzeigt werden (1101 gemäß 14). Ähnlich werden Bildunterschriften an einer definierten Position relativ zur „Position2" angezeigt, die eine Position ist, an der der „Neben-Sprecher" angezeigt ist, entsprechend der durch Bezugszahl 1102 in 14 bezeichneten Beschreibung. Weiterhin können für diese relativen Positionen von Bildunterschriften vorbestimmte Werte benutzt werden, oder Werte können in den vorstehenden Funktionsbeschreibungen definiert werden.
  • Auch ist in diesem Fall die Farbe von Buchstaben der gesprochenen Inhalte jedes virtuellen Sprechers nicht notwendigerweise für jeden virtuellen Sprecher verschieden. Mit der vorstehenden Beschreibung 1101 wird eine Bildunterschrift der gesprochenen Inhalte 1002 nahe einer Animation des Haupt-Sprechers 1001 und eine Bildunterschrift der gesprochenen Inhalte 1004 nahe einer Animation des Neben-Sprechers 1003 angezeigt, wie in 13 gezeigt.
  • Beispiele, in denen Buchstabenfarben und Anzeigepositionen als für die Überschrift und jeden virtuellen Sprecher verschiedene Anzeigeformen verwendet werden, wurden vorstehend beschrieben, aber es kann erwogen werden, dass es zusätzliche Variationen dazu gibt. Es ist beispielsweise möglich, verschiedene Buchstabengrößen oder -stile, verschiedene Hintergründe für Bildunterschriftenteile und verschieden geregelte Zeilen für die Überschrift und jeden virtuellen Sprecher zu verwenden.
  • Auch sind im vorstehend beschriebenen ersten Ausführungsbeispiel die Definition von virtuellen Sprechern, die Definition von Nachrichtengattungen und die Funktionsbeschreibungssprache wie in 9, 10 bzw. 11 beschrieben, aber sie sind nicht darauf beschränkt und es kann irgendein Beschreibungs format so lange verwendet werden, wie es Verwendungen des vorstehend beschriebenen Beispiels 1 erfüllt.
  • Auch wurden in dem vorstehend beschriebenen ersten Ausführungsbeispiel Nachrichtenartikel als ein Beispiel für verteilte Daten beschrieben, aber das Informationsdarstellungsverfahren gemäß diesem ersten Ausführungsbeispiel kann für andere Daten angewendet werden, wie beispielsweise unterschiedliche Arten von Werbungen.
  • Auch wurde in dem vorstehend beschriebenen ersten Ausführungsbeispiel der Fall beschrieben, in dem jede Datenkommunikation unter Verwendung des Internets durchgeführt wird, aber es ist nicht auf das Internet beschränkt, und irgendeine Kommunikation bedeutet, dass beispielsweise eine zugeordnete Leitung verwendet werden kann.
  • Im vorstehend beschriebenen ersten Ausführungsbeispiel wurde der Fall beschrieben, in dem Programme in der externen Speichereinrichtung 106 beibehalten sind und in den RAM 103 geladen werden, um die Programme zu verwenden, aber das Speichermedium ist nicht darauf beschränkt, und es kann irgendein Speichermedium, wie beispielsweise das ROM, verwendet werden, um das Ausführungsbeispiel zu erreichen. Auch kann eine Schaltung, die auf eine ähnliche Weise funktioniert, verwendet werden, um dies zu erreichen.
  • <Zweites Ausführungsbeispiel>
  • Im ersten Ausführungsbeispiel können Figuren, die nicht auf ein bestimmtes Fenster beschränkt sind, veranlasst werden, an durch das System vordefinierten Positionen zu erscheinen, oder der Benutzer kann ihre Position frei bewegen. Jedoch kann es Fälle geben, in denen die Position, an der die Figur angezeigt wird, zufällig die Position überlappt, an der andere Informa tionen angezeigt werden, und die Figurenblöcke der Benutzeransicht.
  • Wenn die Figur an der durch das System vordefinierten Position angeordnet ist, wenn durch das System zur selben Zeit anzuzeigende Buchstabeninformationen und Bildinformation, hinter der Figur angezeigt werden, wird die Figur auf Buchstabeninformationen und Bildinformationen angezeigt und die Informationen unter der Figur sind bedeckt und vor der Sicht des Benutzers versteckt. Wenn Buchstabeninformationen und Bildinformationen vor der Figur angezeigt sind, ist die Figur bedeckt und vor der Sicht versteckt.
  • Wenn der Benutzer die Figur bewegt, können die unter der bewegten Figur angezeigten Inhalte der Buchstabeninformationen und der Bildinformationen verändert werden, und auch, wenn die Inhalte, die der Benutzer sehen will, unter der Figur angezeigt werden, können sie durch den Benutzer unberücksichtigt bleiben.
  • Auch werden angezeigte Buchstabeninformationen und Bildinformationen automatisch aktualisiert, wie in Fall von Internet- und Online-Nachrichten, ungünstige Worte und Bilder können zufällig angezeigt werden.
  • Dann wird im zweiten Ausführungsbeispiel die Position, an der die Figur angezeigt wird, auf der Grundlage der zusammen mit der Figur angezeigten Buchstabeninformationen und Bildinformationen gesteuert, wodurch Informationen effektiver ausgebildet werden.
  • 15 ist ein Blockschaltbild, das eine Funktionskonfiguration des Informationsdarstellungssystems gemäß dem zweiten Ausführungsbeispiel zeigt.
  • Das Informationsdarstellungssystem verarbeitet von dem Informationsverteilcomputer 2101 verteilte Informationen in einen mit synthetischer Sprache ausgelesenen synthetischen Sprachteil in dem Informationsdarstellungscomputer 2102 und einen als Bilder angezeigten Teil, und insbesondere der synthetische Sprachteil wird dem Benutzer synchron mit der Figur (Animationsbild) angezeigt. Im zweiten Ausführungsbeispiel wird die Figur durch ein Serverprogramm gesteuert und der Informationsdarstellungscomputer 2102 erfordert nur vom Serverprogramm, dass es die Figur steuert.
  • Eine Informationssammeleinheit 1501 sammelt von dem Informationsverteilcomputer 2101 verteilte Informationen. Eine Informationsaufbereitungseinheit 1502 teilt gesammelte verteilte Informationen in einen synthetischen Sprachteil, der mit der synthetischen Sprache der Figur ausgelesen wird, und einen als Buchstabeninformationen angezeigten Anzeigeteil auf und ordnet dieselben in einer bestimmten Reihenfolge an. Eine Informationsdarstellungseinheit 1503 stellt aufbereitete verteile Informationen aufeinander folgend dar.
  • Eine Wichtigkeitleseeinheit 1504 liest die Wichtigkeit von dargestellten Buchstabeninformationen und Bildinformationen. Eine Positionsbeziehungsbestimmungseinheit 1505 bestimmt eine Positionsbeziehung zwischen den Buchstabeninformationen und Bildinformationen und der Figur.
  • Eine Zeichensteuereinheit 1506 stellt eine Anforderung, auszulesende Informationen durch synthetische Sprache der Figur auszulesen und fordert eine Bewegung an, wenn die Buchstabeninformationen und Bildinformationen und die Figur einander überlappen.
  • 16 ist ein Ablaufdiagramm, das einen Vorgang zur durch das Informationsdarstellungssystem gemäß dem zweiten Ausfüh rungsbeispiel der vorliegenden Erfindung ausgeführten Verarbeitung zeigt.
  • In Schritt S1601 werden von dem Informationsverteilcomputer 2101 verteilte verteilte Informationen gesammelt. In einem Schritt S1602 werden die gesammelten verteilten Informationen in einen durch die synthetische Sprache der Figur ausgelesenen synthetischen Sprachteil und eine als Buchstabeninformationen und Bildinformationen angezeigten Anzeigeteil aufgeteilt und in bestimmter Reihenfolge angeordnet. Im zweiten Ausführungsbeispiel ist das Netzwerk 2103 das Internet und Online-Nachrichten auf dem Internet werden gesammelt und werden als ein Anzeigeteil mit Überschriften, Tabellen und dergleichen in den als Buchstabeninformationen angezeigten Online-Nachrichten und Photobilder als Bildinformationen in den Online-Nachrichten angezeigt, und ein synthetischer Sprachteil mit dem gesamten Text der durch die synthetische Sprache der Figur ausgelesenen Online-Nachrichten aufgeteilt. Tatsächlich werden die Informationen in den Online-Nachrichten in den Anzeigeteil und den synthetischen Sprachteil auf der Grundlage einer Kennzeichnung und dergleichen, die in HTML-Dokumenten beschrieben sind, die die Online-Nachrichten bilden, wie im ersten Ausführungsbeispiel beschrieben, aufgeteilt. Zusätzlich werden die Online-Nachrichten in Finanz-Nachrichten, Politik-Nachrichten, Sport und Wetter entsprechend Arten von Nachrichten klassifiziert und in bestimmter Reihenfolge neu angeordnet. Wenn die Informationen aufgeteilt werden, bestimmt das Serverprogramm auch die Wichtigkeit der Informationen auf der Grundlage von Positionsinformationen, die die Position zeigen, an der Informationen, wie beispielsweise Arten von Nachrichten, angezeigt werden, fügt die Wichtigkeit und ihre wichtigen Punkte zu den Buchstabeninformationen und Bildinformationen in den Online-Nachrichten hinzu, und fügt die Buchstabeninformationen und Bildinformationen mit der Wichtigkeit und wichtigen Punkten zusammen, die dazu hinzugefügt sind, um sie zu verwalten.
  • In Schritt S1603 wird bestimmt, ob es Darstellungsinformationen gibt oder nicht. Wenn es keine Darstellungsinformationen gibt (NEIN in Schritt S1603), endet der Prozess. Wenn andererseits Darstellungsinformationen existieren (JA in Schritt S1603), schreitet der Prozess zu Schritt S1604 fort.
  • Im Fall des zweiten Ausführungsbeispiels wird weiterhin für jeden Art davon in Schritt S1603 bestimmt, ob Online-Nachrichten auf einer Eins-zu-Eins-Basis dargestellt sind oder der Prozess geendet hat. Die Darstellungsinformationen in diesem Fall enthalten auch Buchstabeninformationen und Bildinformationen entsprechend einem Anzeigeteil und einen durch die Figur ausgelesenen synthetischen Sprachteil. Wenn keine Darstellungsinformationen verbleiben, endet der Prozess.
  • In Schritt S1604 wird bestimmt, ob eine Beschreibung zur Wichtigkeit in den darzustellenden Buchstabeninformationen und Bildinformationen existiert oder nicht. Wenn keine Beschreibung zur Wichtigkeit existiert (NEIN in Schritt S1604), schreitet der Prozess zu Schritt S1608 fort. Wenn andererseits eine Beschreibung zur Wichtigkeit existiert (JA in Schritt S1604), schreitet der Prozess zu Schritt S1605 fort.
  • In Schritt S1605 wird eine Positionsbeziehung zwischen dem zu den darzustellenden Buchstabeninformationen und Bildinformationen hinzugefügten wichtigen Punkt und der Figur berechnet.
  • In Schritt S1606 wird auf der Grundlage der berechneten Positionsbeziehung bestimmt, ob es notwendig ist, die Figur zu bewegen oder nicht, nämlich, ob die Buchstabeninformationen und Bildinformationen und die Figur einander überlappen. Wenn es nicht notwendig ist, die Figur zu bewegen (NEIN in Schritt S1606), schreitet der Prozess zu Schritt S1608 fort. Wenn es andererseits notwendig ist, die Figur zu bewegen (JA in Schritt S1606), schreitet der Prozess zu Schritt S1607 fort.
  • In Schritt S1607 erfolgt eine Anforderung, die Figur von der gegenwärtigen Figuranzeigeposition zu einer Figuranzeigeposition derart zu bewegen, dass ein Abstand der Bewegung von der Bildanzeigeposition minimal ist, um eine Situation zu verhindern, in der die Bildanzeigeposition, an der die Buchstabeninformationen und Bildinformationen angezeigt werden, die Figuranzeigeposition überlappen, an der die Figur angezeigt wird.
  • In Schritt S1608 werden Informationen dargestellt. Die Darstellung von Informationen bezieht sich in diesem Fall auf die Anzeige der anzuzeigenden Buchstabeninformationen und Bildinformationen und das Auslesen der Informationen durch die synthetische Sprache der Figur. Wenn eine Darstellung von Informationen beendet ist, z.B. auszulesende Informationen vollständig ausgelesen sind, kehrt der Prozess zu Schritt S1603 zurück, wo die Darstellung von Informationen wiederholt so lange durchgeführt wird, wie darzustellende Informationen verbleiben.
  • Bestimmte Beispiele der vorstehend beschriebenen Verarbeitung werden unter Verwendung der 17 bis 19 beschrieben werden.
  • 17 zeigt ein Beispiel für eine Struktur von Daten, die verwaltet werden, wenn Wichtigkeit zu den Buchstabeninformationen und Bildinformationen in dem zweiten Ausführungsbeispiel der vorliegenden Erfindung hinzugefügt wird.
  • Wie vorstehend beschrieben, gehören, wenn Wichtigkeit zu den Buchstabeninformationen und Bildinformationen in verteilten Informationen hinzugefügt wird, ihre wichtigen Punkte dazu, um verwaltet zu werden. Der wichtige Punkt bezieht sich auf die Anzeigeposition auf dem Anzeigebildschirm des Informationsdarstellungscomputers 2102, und beispielsweise ist der wichtige Punkt als „Mitte" definiert, wenn die Position der Mitte des Anzeigebildschirms entspricht, und der wichtige Punkt ist als „Gesamtheit" definiert, wenn die Position dem gesamten Anzeigebildschirm entspricht.
  • Das Beispiel gemäß 17 ist ein Beispiel für den Fall, in dem „Wetterberichte" und „Fluglinien-Sitzverfügbarkeiten" als verteilte Informationen von dem Informationsverteilcomputer 2101 gesammelt werden. Dieses Beispiel zeigt den Fall, in dem Wichtigkeit zu dem „Wettersatellitenbild" hinzugefügt wird, das in den Informationen der „Wetterberichte" Bildinformationen darstellt, und die „Mitte" ist als sein wichtiger Punkt definiert, und Wichtigkeit wird zu Buchstabeninformationen in den Informationen der „Fluglinien-Sitzverfügbarkeiten" hinzugefügt und die „Gesamtheit" wird als sein wichtiger Punkt definiert.
  • Die 18 und 19 zeigen Fälle, in denen Figuren mit „Wetterberichten" bzw. „Flugliniensitzverfügbarkeiten" dargestellt werden, und in 18 wird eine Figur 1801 in die linke Richtung verschoben, so dass die Figur die „Mitte" nicht überlappt, in der das „Wettersatellitenbild" angezeigt ist. Auch wird in 19 eine Figur 1901 in die obere Richtung verschoben, so dass die Figur die „Gesamtheit" nicht überlappt, das heißt, eine Anzeigeposition, an der die „Fluglinien-Sitzverfügbarkeit" angezeigt wird.
  • In dem vorstehend beschriebenen zweiten Ausführungsbeispiel wird die Wichtigkeit der Buchstabeninformationen und der Bildinformationen in verteilten Informationen auf der Grundlage ihrer Positionsinformationen bestimmt, aber die Wichtigkeit der Buchstabeninformationen und Bildinformationen können auf der Grundlage der vorher durch den Informationsverteilcomputer 2101 hinzugefügten Wichtigkeit und Informationen über Einschränkungen beim Sehen, wie beispielsweise ein Ausschluss von Personen im Alter von unter achtzehn Jahren, bestimmt werden.
  • Auch ist es möglich, eine Informationsverarbeitung, wie beispielsweise eine natürliche Sprachverarbeitung und Bilderkennung auf die Buchstabeninformationen und Bildinformationen in verteilten Informationen anzuwenden, und dynamisch die Wichtigkeit der Buchstabeninformationen und Bildinformationen auf der Grundlage des Ergebnisses der Verarbeitung zu bestimmen.
  • Auch ist es möglich, dynamisch die Positionen, an denen unterscheidende Ausdrücke und unerwünschte Bilder sind, auf der Grundlage des Ergebnisses der Verarbeitung zu bestimmen und Figuren über Informationen anzuordnen, deren Anzeige verhindert werden muss, wie beispielsweise Buchstabeninformationen einschließlich eines unterscheidenden Ausdrucks und unerwünschter Bildinformationen, um derartige Informationen vor der Sicht des Benutzers zu verstecken, beispielsweise auf der Grundlage des Ergebnisses der Bestimmung.
  • Auch, wenn die Figur über den Informationen angeordnet ist, deren Anzeige verhindert werden muss, kann die Figur vergrößert werden, wenn der Bereich, in dem die Informationen angezeigt sind, verglichen mit dem Zeichen so groß ist, dass die Informationen nicht versteckt werden können.
  • Auf diesem Weg werden Kennzeichnungen zur Steuerung von Figuranzeigepositionen (Wichtigkeit und die Notwendigkeit zum Verstecken von Informationen, und wichtige Punkte und Punkte, an denen Informationen versteckt werden müssen) zu den Buchstabeninformationen und Bildinformationen in verteilten Informationen hinzugefügt, und die Anzeigeposition wird auf der Grundlage der hinzugefügten Kennzeichnungen gesteuert, so dass die Position, an der die Figur angezeigt wird, die Position, an der die Buchstabeninformationen und Bildinformationen angezeigt werden, nicht überlappt oder überlappt, wodurch es ermöglicht wird, Informationen geeigneter darzustellen.
  • Auch, wenn der Bereich, in dem Informationen, bei denen verhindert werden muss, dass sie die Figur überlappen, angezeigt werden, so groß ist, dass nicht verhindert werden kann, dass die Informationen die Figur überlappen, kann die Figur verkleinert oder auf temporärer Grundlage gelöscht werden.
  • Auch wird vor der Darstellung von Informationen, die Position, an der die Figur angezeigt wird, derart gesteuert, dass verhindert wird, dass die Buchstabeninformationen und Bildinformationen die Figur überlappen, aber sie können auf eine Weise angezeigt werden, dass sie einander auf einer temporären Grundlage überlappen, bevor die Position, an der die Figur angezeigt wird, gesteuert wird.
  • Auch wird vor der Darstellung von Informationen, die Position, an der die Figur angezeigt wird, derart gesteuert, dass verhindert wird, dass die Buchstabeninformationen und Bildinformationen die Figur überlappen, wenn aber der Benutzer die Figur bewegt, um ein Überlappen während der Darstellung von Informationen zu verursachen, kann die Position, an der die Figur angezeigt wird, in einer Weise gesteuert werden, dass das Überlappen verhindert wird.
  • Wie vorstehend beschrieben, ist gemäß dem zweiten Ausführungsbeispiel die Wichtigkeit von und die Notwendigkeit zum Verstecken von Buchstabeninformationen und Bildinformationen, die zusammen mit der Figur dargestellt sind, beschrieben, die Position, an der die Buchstabeninformationen und Bildinformationen dargestellt sind, und die Position, an der die Figur dargestellt ist, werden berechnet, und die Position, an der die Figur dargestellt wird, wird derart gesteuert, dass ein einan der Überlappen verhindert wird oder sie werden veranlasst, einander zu überlappen, wodurch ermöglicht wird, Informationen effektiver darzustellen.
  • <Drittes Ausführungsbeispiel>
  • Wie im ersten Ausführungsbeispiel zeigt der Benutzer und gibt durch Sprache eine gewünschte Nachrichtengattung an, wenn der in synthetischer Sprache durch den Nachrichtenartikel-Provider zur Verfügung gestellte Nachrichtenartikel auslesende virtuelle Sprecher einen Nachrichtenartikel Benutzern in der Weise von Fernsehprogrammen vermittelt, und die eingegebene Sprache wird spracherkannt, wodurch der Nachrichtenartikel und die Figur auf die der gewünschten Nachrichtengattung verändert werden können.
  • In diesem Fall kann, wenn eine Nachrichtengattung endet und ein Umschalten auf die nächste Nachrichtengattung stattfindet, oder, wenn der Benutzer durch Sprache eine gewünschte Nachrichtengattung bestimmt, das Umschalten der Nachrichtengattung nur durch die Tatsache bestätigt werden, dass die Figur visuell umgeschaltet wird, und es kann schwierig sein, das Umschalten der Nachrichtengattung auditiv zu bestätigen, insbesondere für Benutzer, denen ein derartiges System nicht geläufig ist.
  • Dann wird im dritten Ausführungsbeispiel eine effektivere Darstellung von Informationen im Hinblick auf einer derartigen Punkt erreicht.
  • 20 zeigt eine funktionale Konfiguration der Informationsdarstellungsvorrichtung gemäß dem dritten Ausführungsbeispiel der vorliegenden Erfindung.
  • In 20 führt eine Spracheingabeeinheit 2301 verschiedene Arten von Spracheingabe zur Anzeige einer Gattung von zur Verfügung zu stellenden Informationen, eine Anzeige einer Beendigung einer Darstellung von Informationen und dergleichen durch eine Spracheingabe des Benutzers durch. Eine Spracherkennungseinheit 2302 erkennt die mit der Spracheingabeeinheit 2301 eingegebene Spracheingabe des Benutzers. Eine Szenariumerzeugungseinheit 2312 erzeugt ein Szenarium durch eine Gattung von Textdaten und Figurinformationen. Eine Textdatenbeibehaltungseinheit 2303 behält Textdaten jeder Information bei, wie beispielsweise Nachrichten nach der Gattung. Eine Figurinformationsbeibehaltungseinheit 2311 behält Figurinformationen mit der Art und dem Namen der Figur (Animationsbild), das in Entsprechung mit der durch die Figur ausgelesenen Gattung gebracht wird, bei.
  • Weiterhin können verschiedene Arten von Informationen von in der Textdatenbeibehaltungseinheit 2303 beibehaltenen Textdaten in der externen Speichereinrichtung 106 gespeicherte Informationen sein, über das Netzwerk 2103 von anderen Anschlüssen (z.B. einem Informationsverteilcomputer 2103) oder der externen Speichereinrichtung verteilte Informationen sein.
  • Eine Sprachsyntheseeinheit 2308 wandelt ein durch die Szenariumerzeugungseinheit 2312 erzeugtes Szenarium oder eine durch eine Konversationserzeugungseinheit 2305 erzeugte Konversation in synthetische Sprache um. Eine Sprachausgabeeinheit 2307 gibt durch die Sprachsyntheseeinheit 2308 erzeugte synthetische Sprache aus. Eine Figuranzeigeeinheit 2309 zeigt die Figur entsprechend von der Sprachsyntheseeinheit 2308 ausgegebener synthetischer Sprache an. Und eine Steuereinheit 2304 behandelt ein Timing zur Eingabe/Ausgabe von Sprache und eine Anzeige der Figuren und so weiter und eine Steuerung von verschiedenen Arten von Komponenten der Informationsdarstellungsvorrichtung.
  • Eine Gattungsbestimmungseinheit 2306 bestimmt eine Gattung, zu der die ausgewählte Figur gehört, auf der Grundlage von in der Figurinformationsbeibehaltungseinheit 2311 beibehaltenen Figurinformationen. Eine Konversationserzeugungseinheit 2305 erzeugt Daten einer zwischen Figuren gehaltenen Kommunikation zum Zeitpunkt eines Umschaltens zwischen Gattungen. Eine Konversationsdateneinheit 2310 behält Konversationsdaten für jede Figur bei.
  • 21 ist ein Ablaufdiagramm, das einen Vorgang zur durch die Informationsdarstellungsvorrichtung gemäß dem dritten Ausführungsbeispiel der vorliegenden Erfindung ausgeführten Verarbeitung zeigt.
  • Wenn diese Informationsdarstellungsvorrichtung gestartet ist, bestimmt, wenn es nicht durch den Benutzer bestimmt ist, die Steuereinheit 2304 zufällig die Reihenfolge von Gattungen, deren Informationen zur Verfügung zu stellen sind, und die Szenariumerzeugungseinheit 2312 erzeugt ein Szenarium der Figur, die die Informationen der ausgewählten Gattung ausliest, auf der Grundlage der Textdaten der ausgewählten Gattung, die in der Textdatenbeibehaltungseinheit 2303 beibehalten sind, und die entsprechenden, in der Figurinformationsbeibehaltungseinheit 2311 beibehaltenen Figurinformationen (Schritt S2401).
  • Dann zeigt die Figuranzeigeeinheit 2309 eine Figur auf dem Bildschirm auf der Grundlage des durch die Szenarienerzeugungseinheit 2312 erzeugten Szenariums an (Schritt S2402). Nachdem die Figur angezeigt wurde, werden das Szenarium bildende Textdaten durch die Sprachsyntheseeinheit 2308 in synthetische Sprache umgewandelt, und werden durch die Sprachausgabeeinheit 2307 ausgegeben (Schritt S2403).
  • Dann bestimmt die Steuereinheit 2304, ob eine Spracheingabe vom Benutzer während der Ausgabe der synthetischen Sprache vorkommt oder nicht (Schritt S2404). Wenn die Spracheingabe nicht vorkommt (NEIN in Schritt S2404), schreitet der Prozess zu Schritt S2413 fort, nachdem das Szenarium ausgelesen wurde, und, es wird bestimmt, ob das gerade vorhergehend ausgelesene Szenarium zu der letzten Gattung gehört oder nicht. Wenn es zur letzten Gattung gehört (JA in Schritt S2413), endet der Prozess. Wenn es andererseits nicht zur letzten Gattung gehört (NEIN in Schritt S2413), schreitet der Prozess zu Schritt S2407 fort.
  • Wenn andererseits in Schritt S2404 bestimmt wird, dass eine Spracheingabe vorkommt (JA in Schritt S2404), schreitet der Prozess zu Schritt S2405 fort, wo die Spracherkennungseinheit 2302 eine Spracherkennung durchführt. Dann wird bestimmt, ob das Ergebnis einer Erkennung durch die Spracherkennung ein das Ende der Darstellung von Informationen anzeigender Endbefehl ist oder nicht (Schritt S2406). Wenn es ein Endbefehl ist (JA in Schritt S2406), endet der Prozess. Wenn es andererseits kein Endbefehl ist (NEIN in Schritt S2406), schreitet der Prozess zu Schritt S2407 fort, wo die Gattungsbestimmungseinheit 2306 eine gemäß dem Ergebnis der Spracherkennung angezeigte Gattung bestimmt (Schritt S2407).
  • Dann werden basierend auf den Konversationsdaten der Konversationsdateneinheit 2310 entsprechend der Figur der bestimmten Gattung, dabei einer zwischen der Figur der gerade vorhergehenden Gattung und der Figur der bestimmten Gattung zum Zeitpunkt eines Umschaltens zwischen Gattungen gehalten. (Schritt S2408).
  • Dann werden die erzeugten Konversationsdaten durch die Sprachsyntheseeinheit 2308 in synthetische Sprache transformiert und die Konversation der gerade vorhergehenden Figur (im Folgenden als Figur A bezeichnet) werden durch die Sprachausgabeeinheit 2307 ausgegeben (Schritt S2409). Nachdem die Konversation der Figur A ausgegeben wurde, zeigt die Figuranzeigeeinheit 2309 die Figur der nächsten Gattung (im Folgenden als Figur B bezeichnet) an (Schritt S2410). Dann wird, nachdem ein Umschalten zur Anzeige der Figur B erfolgt ist, die Konversation der Figur B durch die Sprachausgabeeinheit 2307 ausgegeben (Schritt S2411).
  • Dann wendet sich die Figuranzeigeeinheit 2309 zum Szenarium der nächsten Gattung (Schritt S2412) und der Prozess kehrt zu Schritt S2403 zurück, wo eine Darstellung von Informationen fortgesetzt wird.
  • Ein Beispiel einer Darstellung von Informationen einschließlich einer Konversation zwischen der Figur A und der Figur B zum Zeitpunkt eines Umschaltens zwischen Gattungen in der vorstehend beschriebenen Verarbeitung wird unter Verwendung von 22 beschrieben werden.
  • 22 zeigt ein Beispiel für eine Darstellung von Informationen einschließlich einer Konversation zwischen der Figur A und der Figur B im dritten Ausführungsbeispiel der vorliegenden Erfindung.
  • Weiterhin wird im dritten Ausführungsbeispiel die Konversation zwischen der Figur A und der Figur B zum Zeitpunkt eines Umschaltens zwischen Gattungen sprachausgegeben, aber die Buchstabenfolge entsprechend dieser Sprachausgabe kann auf dem Bildschirm zusammen dargestellt werden. 22 zeigt ein Beispiel für einen derartigen Fall.
  • In 22 werden Informationen auf einem Bildschirm 2501 einer Informationsdarstellungsvorrichtung, wie beispielsweise eines als Informationsdarstellungsvorrichtung betriebenen Per sonalcomputers angezeigt. In diesem Beispiel gehört die Figur A zu einer „Politik"-Gattung und die Figur B gehört zu einer „Finanz"-Gattung, und das Beispiel zeigt den Fall, in dem ein Umschalten von der „Politik"-Gattung zur „Finanz"-Gattung erfolgt. Ein Animationsbild 2502 zeigt die Figur A. Ein Animationsbild 2505 zeigt die Figur B. Konversationen 2503 und 2506 der Figur A bzw. der Figur B erfolgen zum Zeitpunkt eines Umschaltens zwischen Gattungen.
  • Wenn diese Konversation mit der Konversationserzeugungseinheit 2305 erzeugt wird, werden die nächste Gattung (hier „Politik"-Gattung) zeigende Buchstaben 2504 und den Namen der Figur B (Mr. OO) zeigende Buchstaben 2508 von der Figurinformationsbeibehaltungseinheit 2311 als Informationen der Figur B gesammelt und werden dann in einen festen Satz eingebettet und in synthetische Sprache umgewandelt, um Worte 2503 der Figur A auszugeben („Nun Finanz- Nachrichten. Fahren Sie fort, bitte, Hr. OO.").
  • Auch werden die vorhergehende Gattung (hier „Politik"-Gattung) zeigende Buchstaben 2507 von der Figurinformationsbeibehaltungseinheit 2311 als Informationen der Figur A gesammelt und die nächste Gattung (hier „Finanz"-Gattung) zeigende Buchstaben 2509 werden von der Figurinformationsbeibehaltungseinheit 2311 als Informationen der Figur B gesammelt, und werden in einen festen Satz eingebettet und in synthetische Sprache umgewandelt, um Worte 2506 der Figur B auszugeben („Ja, folgend auf die Politik-Nachrichten nun Finanz-Nachrichten.")
  • Wie vorstehend beschrieben, wird gemäß diesem dritten Ausführungsbeispiel, wenn die Figurdarstellungsinformationen den Text in der Gattung entsprechend der Figur vollständig auslesen, oder, wenn der Benutzer durch Sprache Anweisungen gibt, zwischen Gattungen umzuschalten, eine Konversation zur Übernahme zwischen der das Szenarium der vorhergehenden Gattung auslesenden Figur und der das Szenarium der nächsten Gattung auslesenden Figur in dem Prozess eines Umschaltens zwischen Gattungen eingefügt, wodurch es mit diesem System unerfahrenen Benutzern ermöglicht wird, insbesondere auditiv ein Umschalten zwischen Gattungen einfacher zu erkennen.
  • Weiterhin kann die vorliegende Erfindung auf ein System angewendet werden, das durch eine Mehrzahl von Vorrichtungen (z.B. Hostcomputer, Schnittstellenvorrichtung, Leser und Drucker) gebildet ist, oder kann auf Einrichtung angewendet werden, die durch eine Vorrichtung gebildet ist (z.B. eine Kopiervorrichtung und eine Faksimilevorrichtung).
  • Es ist unnötig zu sagen, dass die Aufgabe der vorliegenden Erfindung auch erreicht wird, indem in einem System oder einer Vorrichtung ein Speichermedium ausgebildet wird, in dem Programmcodes von Software zum Erreichen der Merkmale der vorstehenden Ausführungsbeispiele aufgezeichnet werden, und in dem Speichermedium gespeicherte Programmcodes, durch den Computer (CPU oder MPU) des Systems oder der Vorrichtung gelesen und ausgeführt werden.
  • In diesem Fall erreicht der aus dem Speichermedium gelesene Programmcode selbst die Merkmale der vorstehenden Ausführungsbeispiele und das den Programmcode darin speichernde Speichermedium bildet die vorliegende Erfindung.
  • Für Speichermedien zur Zufuhr von Programmcodes können beispielsweise ein Diskettenlaufwerk, eine Festplatte, eine optische Speicherplatte, eine magnetooptische Platte, eine CD-ROM, eine CD-R, ein Magnetband, eine nichtflüchtige Speicherkarte und ein ROM verwendet werden.
  • Es ist unnötig, zu sagen, dass nicht nur der Fall, in dem die Merkmale der vorstehenden Ausführungsbeispiele durch Ausführen des durch den Computer gelesenen Programmcodes erreicht werden, sondern auch der Fall, in dem basierend auf Anweisungen des Programmcodes das auf dem Computer betriebene OS (Betriebssystem) oder dergleichen einen Teil oder alle aktuellen Verarbeitungen ausführt, durch die die Merkmale der vorstehenden Ausführungsbeispiele erreicht werden, enthalten ist.
  • Weiterhin ist es unnötig zu sagen, dass auch der Fall enthalten ist, in dem der von dem Speichermedium gelesene Programmcode in einen Speicher geschrieben wird, der in einer in den Computer eingefügten Merkmalserweiterungskarte und einer mit dem Computer verbundenen Merkmalserweiterungseinheit ausgebildet ist, und danach basierend auf Anweisungen des Programmcodes die CPU oder dergleichen, die in der Merkmalserweiterungskarte und der Merkmalserweiterungseinheit ausgebildet ist, einen Teil oder alle aktuelle Verarbeitung ausführt, durch die die Merkmale der vorstehenden Ausführungsbeispiele erreicht werden.
  • Wenn die vorliegende Erfindung auf die vorstehend beschriebenen Speichermedien angewendet wird, werden die Programmcodes entsprechend den vorstehend beschriebenen Ablaufdiagrammen in den Speichermedien gespeichert werden.
  • Da viele offensichtlich sehr unterschiedliche Ausführungsbeispiele der vorliegenden Erfindung ohne Abweichung von deren Schutzumfang gebildet werden können, ist es verständlich, dass die Erfindung nicht auf die bestimmten Ausführungsbeispiele davon beschränkt ist, außer wie in den angehängten Ansprüchen definiert.

Claims (15)

  1. Informationsdarstellungsvorrichtung (202), mit: einer Empfangseinrichtung (1501) zum Empfangen von Darstellungsdaten einschließlich Textdaten und Bilddaten; einer Aufbereitungseinrichtung (1502) zum Aufteilen der von der Empfangseinrichtung empfangenen Darstellungsdaten in einen Anteil synthetischer Sprache, der von einer synthetischen Sprache in Synchronisation mit einem Animationsbild ausgelesen wird, und einen Anzeigeanteil, der als Textdaten und Bilddaten angezeigt wird; und einer Darstellungseinrichtung (1503) zum Steuern der Position, an der das Animationsbild angezeigt wird, basierend auf Informationen, die dem von der Aufbereitungseinrichtung aufbereiteten Anzeigeanteil entsprechen, und Darstellen des Anteils synthetischer Sprache und des Anzeigeanteils, dadurch gekennzeichnet, dass die Aufbereitungseinrichtung eine Hinzufügungseinrichtung zum Hinzufügen von Kennzeichnungsdaten zur Steuerung der Position, an der das Animationsbild angezeigt wird, zu dem Anzeigeanteil entsprechenden Informationen aufweist, und die Position, an der das Animationsbild angezeigt wird, an der Darstellungseinrichtung basierend auf den Kennzeichnungsdaten gesteuert wird, die zu den dem Anzeigeanteil entsprechenden Informationen hinzugefügt werden.
  2. Informationsdarstellungsvorrichtung gemäß Anspruch 1, bei der die Kenzeichnungsdaten die Wichtigkeit des Anzeigeanteils, das Erfordernis zum Verbergen desselben, wichtige Punkte und Punkte, die es erfordern, verborgen zu werden, oder eine Kombination davon umfassen.
  3. Informationsdarstellungsvorrichtung gemäß Anspruch 1, bei der die Position, an der das Animationsbild angezeigt wird, in der Darstellungseinrichtung basierend auf den Kennzeichnungsdaten gesteuert wird, die zu den dem Anzeigeanteil entsprechenden Informationen hinzugefügt werden, so dass die Position mit der Anzeigeposition des Anzeigeanteils nicht teilweise oder ganz überlappt.
  4. Informationsdarstellungsvorrichtung gemäß Anspruch 1, bei der die Position, an der das Animationsbild angezeigt wird, in der Darstellungseinrichtung basierend auf den Kennzeichnungsdaten gesteuert wird, die zu den dem Anzeigeanteil entsprechenden Informationen hinzugefügt werden, so dass die Position mit der Anzeigeposition des Anzeigeanteils teilweise oder ganz überlappt.
  5. Informationsdarstellungsvorrichtung gemäß Anspruch 1, bei der die Darstellungseinrichtung zusätzlich aufweist: eine Sprachausgabeeinrichtung zum Durchführen einer Sprachsynthese basierend auf Textdaten in den Darstellungsdaten und zum Ausgeben der synthetischen Sprache; eine erste Anzeigeeinrichtung zum Anzeigen von Sprecherbildern (902, 903, 1001, 1003), die Sprecher der synthetischen Sprache imitieren; und eine zweite Anzeigeeinrichtung zum Anzeigen einer Textfolge (905, 906, 1002, 1004), die von der synthetischen Sprache zu sprechen ist, in einer Textanzeigeform, die jedem der Sprecherbilder entspricht; zusätzlich aufweisend: eine erste Beibehaltungseinrichtung zum Beibehalten von Anzeigeentsprechungsinformationen, die eine Entsprechung zwischen jedem einer Vielzahl von Sprecherbildern und der Anzeigeform einer Textfolge ausdrücken, wobei die erste Anzeigeeinrichtung ein aus der Vielzahl von Sprecherbildern ausgewähltes Sprecherbild anzeigt, und die zweite Anzeigeeinrichtung aus den Anzeigeentsprechungsinformationen eine Anzeigeform erhält, die dem ausgewählten Sprecherbild entspricht, um die Textfolge in der Anzeigeform anzuzeigen.
  6. Informationsdarstellungsvorrichtung gemäß Anspruch 1, zusätzlich mit einer zweiten Beibehaltungseinrichtung zum Beibehalten von Gattungsentsprechungsinformationen, die eine Entsprechung zwischen der Vielzahl von Sprecherbildern und Gattungen ausdrücken, und einer Auswahleinrichtung zum Identifizieren einer Gattung von in den Darstellungsdaten enthaltenen Textdaten und zum Auswählen eines Sprecherbildes, das der identifizierten Gattung entspricht, basierend auf den Gattungsentsprechungsinformationen, wobei die erste Anzeigeeinrichtung ein von der Auswahleinrichtung ausgewähltes Sprecherbild anzeigt.
  7. Informationsdarstellungsvorrichtung gemäß Anspruch 2, bei der die wichtigen Punkte eine Mitte eines Anzeigeschirms oder eine Gesamtheit eines Anzeigeschirms aufweisen.
  8. Verfahren zum Betreiben einer Informationsdarstellungsvorrichtung, mit: einem Empfangsschritt (S1601) zum Empfangen von Darstellungsdaten einschließlich Textdaten und Bilddaten; einem Aufbereitungsschritt (S1602) zum Aufteilen der in dem Empfangsschritt empfangenen Darstellungsdaten in einen Anteil synthetischer Sprache, der von einer synthetischen Sprache in Synchronisation mit einem Animationsbild ausgelesen wird, und einen Anzeigeanteil, der als Textdaten und Bilddaten angezeigt wird; und einem Darstellungsschritt (S1608) zum Steuern der Position, an der das Animationsbild angezeigt wird, basierend auf Informationen, die dem in dem Aufbereitungsschritt aufbereiteten Anzeigeanteil entsprechen, und zum Darstellen des Anteils synthetischer Sprache und des Anzeigeanteils; dadurch gekennzeichnet, dass der Aufbereitungsschritt einen Hinzufügungsschritt zum Hinzufügen von Kennzeichnungsdaten zur Steuerung der Position, an der das Animationsbild angezeigt wird, zu dem Anzeigeanteil entsprechenden Informationen aufweist, und die Position, an der das Animationsbild angezeigt wird, in dem Darstellungsschritt basierend auf den Kennzeichnungsdaten gesteuert wird, die zu den dem Anzeigeanteil entsprechenden Informationen hinzugefügt werden.
  9. Verfahren gemäß Anspruch 8, bei dem die Kennzeichnungsdaten die Wichtigkeit des Anzeigeanteils, das Erfordernis zum Verbergen desselben, wichtige Punkte und Punkte, die es erfordern, verborgen zu werden, oder eine Kombination davon umfassen.
  10. Verfahren gemäß Anspruch 8, bei dem die Position, an der das Animationsbild angezeigt wird, in dem Darstellungsschritt basierend auf den Kennzeichnungsdaten gesteuert wird, die zu den dem Anzeigeanteil entsprechenden Informationen hinzugefügt werden, so dass die Position mit der Anzeigeposition des Anzeigeanteils nicht teilweise oder ganz überlappt.
  11. Verfahren gemäß Anspruch 8, bei dem die Position, an der das Animationsbild angezeigt wird, in dem Darstellungsschritt basierend auf den Kennzeichnungsdaten gesteuert wird, die zu den dem Anteil entsprechenden Informationen hinzugefügt werden, so dass die Position mit der Anzeigeposition des Anzeigeanteils teilweise oder ganz überlappt.
  12. Verfahren gemäß Anspruch 8, bei dem der Darstellungsschritt zusätzlich aufweist: einen Sprachausgabeschritt zum Durchführen einer Sprachsynthese basierend auf Textdaten in den Darstellungsdaten und zum Ausgeben der synthetischen Sprache; einen ersten Anzeigeschritt zum Anzeigen von Sprechbildern (902, 903, 1001, 1003), die Sprecher der synthetischen Sprache imitieren; und einen zweiten Anzeigeschritt zum Anzeigen einer Textfolge (905, 906, 1002, 1004), die von der synthetischen Sprache zu sprechen ist, in einer Textanzeigeform, die jedem der Sprecherbilder entspricht; zusätzlich aufweisend: einen ersten Beibehaltungsschritt zum Beibehalten von Bildentsprechungsinformationen, die eine Entsprechung zwischen jedem einer Vielzahl von Sprecherbildern und der Anzeigeform einer Textfolge ausdrücken, wobei der erste Anzeigeschritt ein aus der Vielzahl von Sprecherbildern ausgewähltes Sprecherbild anzeigt, und der zweite Anzeigeschritt aus den Anzeigeentsprechungsinformationen eine Anzeigeform erhält, die dem ausgewählten Sprecherbild entspricht, um die Textfolge in der Anzeigeform anzuzeigen.
  13. Verfahren gemäß Anspruch 8, zusätzlich mit einem zweiten Beibehaltungsschritt zum Beibehalten von Gattungsentsprechungsinformationen, die eine Entsprechung zwischen der Vielzahl von Sprecherbildern und Gattungen ausdrücken, und einem Auswahlschritt zum Identifizieren einer Gattung von in den Darstellungsdaten enthaltenen Textdaten und zum Auswählen eines Sprecherbildes, das der identifizierten Gattung entspricht, basierend auf den Gattungsentsprechungsinformationen, wobei der erste Anzeigeschritt ein von der Auswahleinrichtung ausgewähltes Sprecherbild anzeigt.
  14. Verfahren gemäß Anspruch 9, bei dem die wichtigen Punkte eine Mitte eines Anzeigeschirms oder eine Gesamtheit eines Anzeigeschirms aufweisen.
  15. Computerprogramm mit Anweisungen zum Steuern einer Informationsdarstellungsvorrichtung, wenn es von einem Prozessor der Vorrichtung ausgeführt wird, um alle Schritte eines Verfahrens gemäß einem der Ansprüche 8 bis 14 durchzuführen.
DE60125674T 2000-10-02 2001-10-01 Informationsanzeige Expired - Lifetime DE60125674T2 (de)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2000302765A JP2002108380A (ja) 2000-10-02 2000-10-02 情報提示装置及びその制御方法、コンピュータ可読メモリ
JP2000302764 2000-10-02
JP2000302765 2000-10-02
JP2000302763A JP2002109558A (ja) 2000-10-02 2000-10-02 情報提示システム、情報提示装置及びそれらの制御方法、コンピュータ可読メモリ
JP2000302763 2000-10-02
JP2000302764A JP2002108601A (ja) 2000-10-02 2000-10-02 情報処理システム及び装置及び方法

Publications (2)

Publication Number Publication Date
DE60125674D1 DE60125674D1 (de) 2007-02-15
DE60125674T2 true DE60125674T2 (de) 2007-10-04

Family

ID=27344835

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60125674T Expired - Lifetime DE60125674T2 (de) 2000-10-02 2001-10-01 Informationsanzeige

Country Status (3)

Country Link
US (1) US7120583B2 (de)
EP (1) EP1193685B1 (de)
DE (1) DE60125674T2 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004227468A (ja) * 2003-01-27 2004-08-12 Canon Inc 情報提供装置、情報提供方法
JP2004318332A (ja) * 2003-04-14 2004-11-11 Sharp Corp テキストデータ表示装置、携帯電話装置、テキストデータ表示方法、およびテキストデータ表示プログラム
BRPI0506712A (pt) * 2004-01-06 2007-05-02 Lg Electronics Inc meio fìsico de gravação, método e aparelho para reproduzir e gravar fluxos de subtìtulo de texto
KR20050072255A (ko) * 2004-01-06 2005-07-11 엘지전자 주식회사 고밀도 광디스크의 서브타이틀 구성방법 및 재생방법과기록재생장치
US7629989B2 (en) * 2004-04-02 2009-12-08 K-Nfb Reading Technology, Inc. Reducing processing latency in optical character recognition for portable reading machine
JP2006197115A (ja) * 2005-01-12 2006-07-27 Fuji Photo Film Co Ltd 撮像装置及び画像出力装置
US8015009B2 (en) * 2005-05-04 2011-09-06 Joel Jay Harband Speech derived from text in computer presentation applications
EP2431889A1 (de) * 2010-09-01 2012-03-21 Axel Springer Digital TV Guide GmbH Inhaltsumwandlung für Leanback-Unterhaltung
JP6500419B2 (ja) * 2014-02-19 2019-04-17 株式会社リコー 端末装置、通信システム及びプログラム
US20170309269A1 (en) * 2014-11-25 2017-10-26 Mitsubishi Electric Corporation Information presentation system
CN108566565B (zh) * 2018-03-30 2021-08-17 科大讯飞股份有限公司 弹幕展示方法及装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5878396A (en) * 1993-01-21 1999-03-02 Apple Computer, Inc. Method and apparatus for synthetic speech in facial animation
US5963217A (en) * 1996-11-18 1999-10-05 7Thstreet.Com, Inc. Network conference system using limited bandwidth to generate locally animated displays
US5946002A (en) * 1997-02-14 1999-08-31 Novell, Inc. Method and system for image animation
US6567779B1 (en) 1997-08-05 2003-05-20 At&T Corp. Method and system for aligning natural and synthetic video to speech synthesis
US6112177A (en) * 1997-11-07 2000-08-29 At&T Corp. Coarticulation method for audio-visual text-to-speech synthesis
US6466213B2 (en) * 1998-02-13 2002-10-15 Xerox Corporation Method and apparatus for creating personal autonomous avatars
US6390371B1 (en) * 1998-02-13 2002-05-21 Micron Technology, Inc. Method and system for displaying information uniformly on tethered and remote input devices
JP3125746B2 (ja) * 1998-05-27 2001-01-22 日本電気株式会社 人物像対話装置及び人物像対話プログラムを記録した記録媒体
US6584479B2 (en) * 1998-06-17 2003-06-24 Xerox Corporation Overlay presentation of textual and graphical annotations
JP2000105595A (ja) * 1998-09-30 2000-04-11 Victor Co Of Japan Ltd 歌唱装置及び記録媒体
US6324511B1 (en) * 1998-10-01 2001-11-27 Mindmaker, Inc. Method of and apparatus for multi-modal information presentation to computer users with dyslexia, reading disabilities or visual impairment
US7149690B2 (en) 1999-09-09 2006-12-12 Lucent Technologies Inc. Method and apparatus for interactive language instruction
US6539354B1 (en) * 2000-03-24 2003-03-25 Fluent Speech Technologies, Inc. Methods and devices for producing and using synthetic visual speech based on natural coarticulation
US6453294B1 (en) * 2000-05-31 2002-09-17 International Business Machines Corporation Dynamic destination-determined multimedia avatars for interactive on-line communications
US6983424B1 (en) * 2000-06-23 2006-01-03 International Business Machines Corporation Automatically scaling icons to fit a display area within a data processing system

Also Published As

Publication number Publication date
US7120583B2 (en) 2006-10-10
EP1193685A2 (de) 2002-04-03
EP1193685A3 (de) 2002-05-08
DE60125674D1 (de) 2007-02-15
US20020049599A1 (en) 2002-04-25
EP1193685B1 (de) 2007-01-03

Similar Documents

Publication Publication Date Title
DE60123851T2 (de) Fernsehplauderzimmer
DE102016125783A1 (de) Bereitstellen von Vorschlägen für die Interaktion mit einem automatisierten Assistenten in einem Multi-User-Nachrichtenaustausch-Thread
DE60105995T2 (de) Animation von personen
DE60224776T2 (de) Virtuelles Bildtelefon
DE69735526T2 (de) System zur interaktiven Kommunikation
DE602005002156T2 (de) Befehlsgesteuertes System zum Rundsenden von Gruppen-Kurznachrichten (SMS) mit mobilem Nachrichtenempfänger und Kommunikations-Server
DE69820093T2 (de) Hierarchisches verfahren und system für objektbasierte audiovisuelle deskriptiveetikettierung von bildern für die informationswiedergewinnung, -editierung und -manipulation
DE60209261T2 (de) Rich-kommunikation über das internet
DE112012005214B4 (de) Verarbeiten von Medienströmen während einer Mehranwender-Videokonferenz
DE202015009885U1 (de) Priorisierung von Nachrichten
DE60125674T2 (de) Informationsanzeige
DE10297520T5 (de) Transformieren von Multimediadaten zur Abgabe an mehrere heterogene Geräte
DE102016125594A1 (de) Automatisch augmentierende Nachrichtenaustauschthread basierend auf der Nachrichtenklassifizierung
CN109327741A (zh) 游戏直播方法、装置和系统
WO2007134839A1 (de) Übermittlung von nachrichten mittels animierter kommunikationselemente
DE112017005879T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE60110804T2 (de) Kommunikationssystem mit Programmerzeugungsmitteln
DE60005482T2 (de) Verfahren und system zur auswahl von produkten in einer video produktion unter verwendung von referenzbildern
EP2701115A1 (de) Verfahren und System zur Live-Video-Beratung
EP1252769A1 (de) System und verfahren zur verbreitung von bildobjekten
DE69933614T2 (de) System zur verteilung, übertragung und zum empfang von nachrichten sowie verfahren zur verteilung von nachrichten
DE102020128250A1 (de) Fahrzeugbasierte gebärdensprachkommunikationssysteme und -verfahren
DE60221636T2 (de) Verfahren und vorrichtung zur verwaltung von interaktionen im standard mpeg-4
DE60208199T2 (de) Verfahren zur Verarbeitung eines Texts, einer Geste, eines Gesichtsausdruckes und/oder Verhaltensbeschreibung mit einer Prüfung auf Autorisierung für die Verwendung entsprechender Profile für die Synthese
DE60002973T2 (de) Methode zur Auswählen, Bearbeiten und Spielen einer komplexen Tonmeldung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition