DE10045020A1 - System und Verfahren, die imstande sind, eine Informationsausgabebetriebsart automatisch umzuschalten - Google Patents

System und Verfahren, die imstande sind, eine Informationsausgabebetriebsart automatisch umzuschalten

Info

Publication number
DE10045020A1
DE10045020A1 DE10045020A DE10045020A DE10045020A1 DE 10045020 A1 DE10045020 A1 DE 10045020A1 DE 10045020 A DE10045020 A DE 10045020A DE 10045020 A DE10045020 A DE 10045020A DE 10045020 A1 DE10045020 A1 DE 10045020A1
Authority
DE
Germany
Prior art keywords
language
division
user
voice
information output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE10045020A
Other languages
English (en)
Inventor
Takenori Ito
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE10045020A1 publication Critical patent/DE10045020A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/263Language identification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/58Details of telephonic subscriber devices including a multilanguage function

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)

Abstract

In einem Informationsverarbeitungssystem, wie zum Beispiel einem Navigationssystem oder einer tragbaren Informationsendstelleneinheit, wird eine Informationsausgabebetriebsart einer Anzeigeeinheit zu einem Benutzer zu einer Mehrzahl von Ausgabebetriebsarten umgeschaltet. Das Navigationssystem schaltet das zu verwendende Idiom für eine Informationsausgabe zu irgendeiner von Japanisch, Englisch und Deutsch um. Nicht die eingegebene Sprache selbst wird als eine Anweisung verwendet, sondern ob die eingegebene Sprache Japanisch, Englisch oder Deutsch ist, wird bestimmt. Das für eine Informationsausgabe zu verwendende Idiom wird abhängig von dem Bestimmungsergebnis umgeschaltet.

Description

Die vorliegende Erfindung betrifft ein System und ein Verfahren zum Verwirklichen einer reibungslosen Informa­ tionsübermittlung zwischen einer Informationsvorrichtung, wie zum Beispiel einem Navigationssystem, und Benutzern.
In letzter Zeit sind zum Beispiel viele fahrzeugsei­ tige Navigationssysteme mit einer hochentwickelten Benut­ zerschnittstelle geschaffen worden. Eine Benutzerschnitt­ stelle ist im wesentlichen für eine reibungslose Informa­ tionsausgabe von einem System zu einem Benutzer und eine reibungslose Informationseingabe von einem Benutzer in das System erforderlich. Die Informationsausgabe beinhal­ tet zusätzlich zu einem Anzeigen unter Verwendung einer Anzeige eine Ausgabe von Sprache, wie zum Beispiel syn­ thetisierter Sprache. Die Informationseingabe beinhaltet zusätzlich zu einer Schalterbetätigung eine Spracheingabe auf der Grundlage eines Spracherkennungsverfahrens.
Weiterhin sind jüngst Navigationssysteme vorgeschla­ gen und verwirklicht worden, die mit einer Benutzer­ schnittstelle ausgestattet sind, die hinsichtlich einer Informationsausgabebetriebsart umschaltbar ist, wie es von einem Benutzer gewünscht wird. Zum Beispiel ist das Navigationssystem, das zum Beispiel in der JP-A-8-193 837 offenbart ist, zwischen Idiomen (zum Beispiel Japanisch, Englisch und Französisch) und Dialekten (Dialekt von Osaka, Dialekt von Nagoya und Dialekt von Tohoku) um­ schaltbar. Dadurch kann ein Japanisch sprechender Benut­ zer eine Informationsausgabe mittels der japanischen Sprache verwenden und können in Osaka ortsansässige Leute eine Informationsausgabe mittels des Dialekts von Osaka verwenden. Daher ist eine geeignete Informationsausgabe verwirklicht worden, die den Bedürfnissen eines Benutzers entspricht.
Jedoch ist es in dem Fall des herkömmlichen Naviga­ tionssystems erforderlich, daß einem Benutzer zum Bei­ spiel einen Menüschirm angezeigt wird und dieser einen erwünschten Menüpunkt auf der Anzeige auf dem Menüschirm auswählt, wenn die Informationsausgabebetriebsart umzu­ schalten ist. Deshalb kann die Ausgabebetriebsart solange nicht umgeschaltet werden, bis der Benutzer weiß, wie die Informationsausgabebetriebsart umzuschalten ist, obgleich die Struktur insbesondere hinsichtlich der Informations­ ausgabebetriebsart umschaltbar ist. Weiterhin kann der Benutzer auch dann, wenn ein englisches Menü als Reaktion auf die Auswahl der englischen Sprache angezeigt wird, lediglich von dem englischen Menü zu zum Beispiel einem japanischen Menü oder einem deutschen Menü umschalten, wie es von dem Benutzer gewünscht wird, wenn der Benutzer das englische Menü verstehen kann.
Alternativ kann die Ausgabebetriebsart unter Verwen­ dung einer Sprachanweisung umgeschaltet werden. In diesem Fall ist es erforderlich, daß sich der Benutzer im voraus an eine festgelegte Sprachanweisung zum Umschalten erin­ nert. In einem System, in welchem die Ausgabebetriebsart mittels der Sprachanweisung "Schalte zu Dialekt von Osaka um" zu dem Dialekt von Osaka umgeschaltet wird, kann die Ausgabebetriebsart nicht mit einer Spracheingabe, die nicht genau die gleiche Sprache wie "Schalte zu Dialekt von Osaka um" ist, wie zum Beispiel "Ich möchte zu dem Dialakt von Osaka umschalten" oder "Setze Dialekt von Osaka", umgeschaltet werden.
Die vorliegende Erfindung ist geschaffen worden, um das vorhergehende Problem zu lösen. Es ist eine Aufgabe der vorliegenden Erfindung, einen automatischen Umschalt­ vorgang hinsichtlich einer Informationsausgabebetriebsart zu verwirklichen, die für einen Benutzer annehmbar ist, der wünscht, bei einer Informationsausgabeverarbeitung zu Benutzern zwischen einer Mehrzahl von Informationsausga­ bebetriebsarten umzuschalten.
Diese Aufgabe wird mit den in Anspruch 1 und 14 ange­ gebenen Maßnahmen gelöst.
Weitere vorteilhafte Ausgestaltungen der vorliegenden Erfindung sind Gegenstand der abhängigen Ansprüche.
Gemäß der vorliegenden Erfindung weist ein Informa­ tionsverarbeitungssystem eine Spracheingabeeinheit, eine Speichereinheit, eine Informationsausgabeeinheit und eine Steuereinheit auf. Die Steuereinheit ist derart program­ miert, daß sie die Informationsausgabeeinheit derart an­ steuert, daß diese eine Anfrage ausgibt, welche eine Spracheingabe von einem Benutzer anfordert, daß sie einen Typ der von dem Benutzer eingegebenen Spracheingabe unter Bezugnahme auf eine Mehrzahl von Sprachtypen bestimmt, die in der Speichereinheit gespeichert sind, daß sie eine Informationsausgabebetriebsart aus der Informationsausga­ beeinheit entsprechend dem bestimmten Sprachtyp der Spracheingabe einstellt und daß sie die Informationsaus­ gabeeinheit derart ansteuert, daß diese in der einge­ stellten Ausgabebetriebsart eine Information ausgibt.
Vorzugsweise werden die Anfrage und die Information auf einem Anzeigefeld der Informationsausgabeeinheit an­ gezeigt. Die Mehrzahl von Sprachtypen sind unterschied­ liche Idiome und der Einstellschritt stellt die Ausgabe­ betriebsart der Informationsausgabeeinheit auf ein Idiom ein, das gleich dem Idiom der Spracheingabe durch den Be­ nutzer ist.
Die vorliegende Erfindung wird nachstehend anhand von Ausführungsbeispielen unter Bezugnahme auf die beilie­ gende Zeichnung näher erläutert.
Es zeigen:
Fig. 1 ein Blockschaltbild eines Navigations­ systems gemäß ersten und zweiten Aus­ führungsbeispielen der vorliegenden Er­ findung;
Fig. 2 ein Blockschaltbild eines Sprachsteuer­ teils des in Fig. 1 gezeigten Systems;
Fig. 3 ein Flußdiagramm einer Idiomeinstell­ routine des ersten Ausführungsbeispiels der vorliegenden Erfindung;
Fig. 4 eine erläuternde Darstellung eines in einer Schirmanzeigeverarbeitung in der Idiomeinstellroutine des ersten Ausfüh­ rungsbeispiels der vorliegenden Erfin­ dung angezeigten beispielhaften Schirms;
Fig. 5 ein Flußdiagramm einer Idiomeinstell­ routine des zweiten Ausführungsbei­ spiels der vorliegenden Erfindung;
Fig. 6 ein Blockschaltbild einer tragbaren In­ formationsendstelleneinheit gemäß einem dritten Ausführungsbeispiel der vorlie­ genden Erfindung;
Fig. 7 eine erläuternde Darstellung eines Hauptmenü-Anzeigeschirms der in Fig. 6 gezeigten tragbaren Informationsend­ stelleneinheit;
Fig. 8 ein Flußdiagramm einer Ausgabebetriebs­ art-Einstellroutine des dritten Ausfüh­ rungsbeispiels der vorliegenden Erfin­ dung;
Fig. 9 eine erläuternde Darstellung eines in der Schirmanzeigeverarbeitung in der Ausgabebetriebsart-Einstellroutine an­ gezeigten Schirms; und
Fig. 10A und 10B erläuternde Ansichten einer Umschalt­ vorgangs der Hauptmenü-Anzeigebetriebs­ art.
Die vorliegende Erfindung wird unter Bezugnahme auf mehrere Ausführungsbeispiele detaillierter beschrieben, in welchen gleiche oder ähnliche Teile mit gleichen oder ähnlichen Bezugszeichen bezeichnet sind.
Nachstehend erfolgt die Beschreibung eines ersten Ausführungsbeispiels der vorliegenden Erfindung.
Es wird auf Fig. 1 verwiesen. Ein Navigationssystem 1 weist eine zentrale Steuereinheit 10 auf und ist mit ei­ ner Spracheingabe/ausgabe-Steuereinheit 20, einem Sprach­ wörterbuchspeicher 30, einer Anzeigeeinheit 40, einer Po­ sitionserfassungseinheit 50, einer Kartendaten-Eingabe­ einheit 60, einer Betätigungsschaltergruppe 70 und einem Fernsteuersensor 80 ausgestattet, die mit der zentralen Steuereinheit 10 verbunden sind. Die zentrale Steuerein­ heit 10 ist mit einer CPU bzw. einer zentralen Verarbei­ tungseinheit, einem ROM bzw. einem Nur-Lese-Speicher, ei­ nem RAM bzw. einem Direktzugriffsspeicher, einer I/O bzw. einer Ein/Ausgabeschnittstelle und einer Busleitung zum Verbinden dieser Komponenten ausgestattet. Die zentrale Steuereinheit 10 ist mit einer Sprachsteuereinheit 11 zum Steuern der Sprache ausgestattet.
Die Spracheingabe/ausgabe-Steuereinheit 20 ist mit der Sprachsteuereinheit 11 verbunden und ist mit einer Sprachausgabe-Steuereinheit 21 und einer Spracheingabe- Steuereinheit 22 ausgestattet. Ein Lautsprecher 21a ist mit der Sprachausgabe-Steuereinheit 21 verbunden und die Sprache wird von dem Lautsprecher 21a mittels der Sprach­ ausgabe-Steuereinheit 21 auf der Grundlage von Anweisun­ gen erzeugt, die von der Sprachsteuereinheit 11 zugeführt werden. Die Sprachausgabe-Steuereinheit 21, die einen Verstärker oder dergleichen aufweist, verstärkt das Sprachsignal und sendet es aus. Die Sprache kann synthe­ tisierte Sprache oder natürliche Sprache sein, die in dem Sprachwörterbuchspeicher 30 gespeichert ist. Andererseits ist die Spracheingabe-Steuereinheit 22, die eine Filter­ schaltung oder dergleichen aufweist, mit einem Mikrofon 22a verbunden. Die Spracheingabe-Steuereinheit 22 ent­ fernt Rauschen, das andere Frequenzen als die einer Spracheingabe eines Benutzers aufweist, die von dem Mi­ krofon 22a zugeführt wird, und führt diese dann der Sprachsteuereinheit 11 zu.
Ein Wörterbuch, das Wörter speichert, die zu einer Spracherkennung verwendet werden, ist in dem Sprachwör­ terbuchspeicher 30 gespeichert. In Fig. 1 sind ein Japa­ nisch-Wörterbuch 31, ein Englisch-Wörterbuch 32 und ein Deutsch-Wörterbuch 33 gespeichert, in welchen Erkennungs­ zielwörter zur Spracherkennung gespeichert sind. Das Er­ kennungszielwort zur Spracherkennung beinhaltet die Sprachanweisung zum Betreiben des Navigationssystems 1. Wörter, die in diesen Wörterbüchern 31 bis 33 gespeichert sind, entsprechen einem Spracheinteilungsangabewort für eine Idiomeinstellverarbeitung.
Die Anzeigeeinheit 40 weist ein Farbanzeigefeld auf, das eine LCD oder dergleichen verwendet. Die Information wird einem Benutzer mittels der Anzeigeeinheit 40 ange­ zeigt.
Die Positionserfassungseinheit 50 ist mit einem Erd­ magnetismussensor 51, einem Kreiselkompaß 52, einem Ab­ standssensor 53 und einem GPS-Empfänger 54 für ein GPS bzw. Globalpositionierungssystem ausgestattet, das die Position eines Fahrzeugs auf der Grundlage von elektroma­ gnetischen Wellensignalen von Satelliten erfaßt.
Da diese Sensoren 51, 52, 53 und 54 einige Fehler einbringen, die in der Natur jeweils unterschiedlich sind, ist die Positionserfassungseinheit 50 derart aufge­ baut, daß sich mehrere dieser Sensoren während einer Ver­ wendung gegenseitig ergänzen. Die Positionserfassungsein­ heit 50 kann abhängig von der Genauigkeit unter Verwen­ dung von einigen dieser Komponenten aufgebaut sein und weiterhin können ein Lenkungsdrehsensor oder ein Radsen­ sor oder dergleichen verwendet werden.
Die Kartendaten-Eingabeeinheit 60 ist eine Vorrich­ tung zum Zuführen von verschiedenen Daten, die Kartenab­ gleichsdaten, Kartendaten oder dergleichen zum Verbessern der Genauigkeit einer Positionserfassung beinhalten. Im allgemeinen wird eine CD-ROM als ein Speichermedium ver­ wendet, aber ein anderes Medium, wie zum Beispiel eine DVD, eine Speicherkarte oder dergleichen, kann als das Speichermedium verwendet werden.
Die Betätigungsschaltergruppe 70 weist zum Beispiel Berührungsschalter, mechanische Schalter oder dergleichen auf, die in der Anzeigeeinheit 40 enthalten sind und für verschiedene Eingaben verwendet werden.
Der Fernsteuersensor 80 erfaßt die Betätigungsinfor­ mation eines Benutzers mittels eines Fernsteuerendgeräts (einer Fernsteuervorrichtung) 80a. Die Steuereinheit 10, die Anzeigeeinheit 40, die Positionserfassungseinheit 50, die Kartendaten-Eingabeeinheit 60, die Betätigungsschal­ tergruppe 70 und der Fernsteuersensor 80 bilden zusammen eine Navigationsvorrichtung.
Auf dem Schirm der Anzeigeeinheit 40 werden eine Mar­ kierung einer derzeitigen Position eines Fahrzeugs, die von der Positionserfassungseinheit 50 zugeführt wird, die Kartendaten, die von der Kartendaten-Eingabeeinheit 60 zugeführt werden, und zusätzliche Daten, wie zum Beispiel eine Leitstrecke, Namen und Markierungen, die auf der Karte angezeigt werden, zusammen angezeigt. In diesem Na­ vigationsssytem 1 wird, wenn eine Position eines Fahrt­ ziels und eine bestimmte Strecke (Beschreibung der Stelle, die zu passieren ist), wie zum Beispiel Autobah­ nen oder dergleichen, wie es erforderlich ist, von dem Fernsteuersensor 80 mittels der Fernsteuervorrichtung 80a, von der Betätigungsschaltergruppe 70 oder von der Spracheingabe-Steuereinheit 22 mittels des Mikrofons 22a eingegeben werden, eine optimale Strecke von der derzei­ tigen Position zu der Zielposition automatisch ausgewählt und wird die Leitstrecke ausgebildet und angezeigt. Als eines dieser Verfahren zum automatischen Einstellen der optimalen Strecke ist das Dijkstra-Verfahren bekannt ge­ worden. Nachdem die Leitstrecke ausgebildet ist und ange­ zeigt wird, wird eine Sprache zum Leiten entlang der Strecke von dem Lautsprecher 21a mittels der Sprachaus­ gabe-Steuereinheit 21 abhängig von der Fahrposition des Fahrzeugs erzeugt.
Zusätzlich zu der zuvor beschriebenen Streckenleit­ funktion ist das Navigationssystem 1 des ersten Ausfüh­ rungsbeispiels der vorliegenden Erfindung selektiv hin­ sichtlich des Idioms bzw. der Sprache, die für eine In­ formationsausgabeverarbeitung verwendet wird, zwischen der Japanisch, Englisch und Deutsch umschaltbar. Der Aus­ druck "Informationsausgabeverarbeitung" meint die Infor­ mationsanzeige auf der Anzeigeeinheit 40 und die Spracherzeugung aus dem Lautsprecher 21a. Zum Beispiel wird in dem Fall, in dem das Idiom zu Japanisch umge­ schaltet wird, Japanisch nicht nur für Namen oder Ob­ jekte, die auf dem Schirm der Anzeigeeinheit 40 angezeigt werden, sondern ebenso für eine Menüanzeige verwendet, die für die Streckenleitfunktion verwendet wird. Weiter­ hin wird Japanisch ebenso für die Sprache verwendet, die zum Leiten entlang der Strecke erzeugt wird.
Das Navigationssystem des ersten Ausführungsbeispiels der vorliegenden Erfindung ist dadurch gekennzeichnet, daß das zu verwendende Idiom einfach entsprechend den Be­ dürfnissen eines Benutzers umschaltbar ist.
Das zu verwendende Idiom wird umgeschaltet, wie es in Fig. 2 gezeigt ist, welche lediglich den Abschnitt aus der in Fig. 1 gezeigten Gesamtstruktur darstellt, der sich auf das Sprachsteuern bezieht. Für ein leichtes Ver­ ständnis der Wechselbeziehung zu Fig. 1 werden die glei­ chen Bezugszeichen wie in Fig. 1 verwendet.
In dem ersten Ausführungsbeispiel der vorliegenden Erfindung wird die Spracheinteilung im voraus einge­ stellt, wobei die Spracheinteilung, zu welcher die Spracheingabe eines Benutzers gehört, welche von dem Mi­ krofon 22a mittels der Spracheingabe-Steuereinheit 22 zu­ geführt wird, bestimmt wird. Das Idiom wird auf der Grundlage der bestimmten Spracheinteilung zu dem Idiom umgeschaltet, die für die Informationseingabe/ausgabe zu verwenden ist.
Deshalb ist die Spracheinteilung die Einteilung durch Idiome. Um die Spracheinteilung zu bestimmen, zu welcher die eingegebene Sprache gehört, werden die Spracheintei­ lungsangabewörter, die den jeweiligen Spracheinteilungen bzw. einer Idiomeinteilung entsprechen, im voraus gespei­ chert. In dem Sprachwörterbuchspeicher 30 werden die Spracheinteilungsangabewörter gespeichert. Wie es in Fig. 2 gezeigt ist, werden in dem Japanisch-Wörterbuch 31 des Sprachwörterbuchspeichers 30 zum Beispiel Wörter, wie zum Beispiel "Ohayo gozaimasu", "Konnichiwa" und "Konbanwa" als das Spracheinteilungsangabewort gespeichert. In dem Englisch-Wörterbuch 32 des Sprachwörterbuchspeichers 30 werden zum Beispiel Wörter wie zum Beispiel "Good morning", "Good afternoon" und "Good evening" als das Spracheinteilungsangabewort gespeichert. Weiterhin werden in dem Deutsch-Wörterbuch 33 des Sprachwörterbuchspei­ chers 30 zum Beispiel Wörter wie zum Beispiel "Guten Mor­ gen", "Guten Tag" und "Guten Abend" als das Spracheintei­ lungsangabewort gespeichert. Wörter, die Sprachanweisun­ gen zum Betreiben des Navigationssystems 1 entsprechen, sind in den jeweiligen Wörterbüchern 31 bis 33 enthalten, wie es vorhergehend beschrieben worden ist, obgleich es in Fig. 2 nicht gezeigt ist.
Die Sprachsteuereinheit 11 vergleicht eine eingege­ bene Sprache eines Benutzers, die von dem Mikrofon mit­ tels der Spracheingabe-Steuereinheit 22 zugeführt wird, mit einem Wort, das in den Wörterbüchern 31 bis 33 des Sprachwörterbuchspeichers 30 gespeichert ist, um die Übereinstimmung zu bestimmen. Zum Beispiel wird, wenn die eingegebene Sprache "Konnichiwa" ist, wie es in Fig. 2 gezeigt ist, das Idiom als Japanisch identifiziert, da die eingegebene Sprache als identisch zu dem Wort "Konnichiwa" identifiziert wird, das in dem Japanisch- Wörterbuch 31 gespeichert ist. In diesem Fall wird das Idiom, das für die Informationseingabe/ausgabe zu verwen­ den ist, auf Japanisch festgelegt. Als Ergebnis erzeugt die Sprachsteuereinheit 11 eine japanische Sprache "Nihongo de annai shimasu" aus dem Lautsprecher 21a. Da­ nach wird Japanisch für jede Sprache verwendet, die von der Sprachausgabe-Steuereinheit 21 mittels des Lautspre­ chers 21a erzeugt wird, wie zum Beispiel die Sprache für eine Streckenleitung und eine Anzeige auf der Anzeigeein­ heit 40, die in Fig. 1 gezeigt ist.
Als nächstes wird die Idiomeinstellroutine, die das Idiomumschaltverfahren verwendet, auf Grundlage des Fluß­ diagramms in Fig. 3 beschrieben. Die in Fig. 3 gezeigte Idiomeinstellroutine wird von der Sprachsteuereinheit 11 durchgeführt und automatisch durchgeführt, wenn die Ener­ gieversorgungsquelle an das Navigationssystem 1 angelegt wird. Zum Beispiel wird in dem Fall eines fahrzeugseiti­ gen Navigationssystems die Idiomeinstellroutine durchge­ führt, wenn ein Motor des Fahrzeugs gestartet wird oder wenn ein Zubehörteil eingeschaltet wird (ACC ON). Andern­ falls kann die Idiomeinstellroutine in einem vorbestimm­ ten Zeitintervall, wie zum Beispiel 2 Stunden, durchge­ führt werden oder kann durchgeführt werden, wenn ein Be­ nutzer einen Schalter betätigt.
In einem ersten Schritt S100 wird ein Anfangsschirm auf der Anzeigeeinheit 40 angezeigt. Dieser Schritt ist ein Schritt zum Anfordern oder Veranlassen, daß ein Be­ nutzer eine Spracheingabe eingibt. Im Detail wird der An­ fangsschirm, wie er in Fig. 4 beispielhaft dargestellt ist, angezeigt. Japanisch (Konnichiwa) ", Eng­ lisch "Good afternoon" und Deutsch "Guten Tag" werden auf dem Anzeigefeld 40a der Anzeigeeinheit 40 angezeigt, wie es in Fig. 4 gezeigt ist, um den Benutzer zu veranlassen, irgendeines dieser Wörter zu sprechen. Obwohl ein einfa­ cher Ausdruck, der leicht für den Benutzer zu lesen ist, in Fig. 4 verwendet wird, kann andernfalls ein Ausdruck "Nihongo de 'Konnichiwa' to ohanasi kudasai" verwendet werden.
In einem nachfolgenden Schritt S110 werden eine Spracheingabe und eine Spracherkennung durchgeführt. Eine Sprache von einem Benutzer wird von der Spracheingabe- Steuereinheit 22 mittels des Mikrofons 22a eingegeben. Deshalb wird die eingegebene Sprache in die Sprachein­ gabe-Steuereinheit 22 eingegeben und mit den Wörtern ver­ glichen, die in den Wörterbüchern 31 bis 33 des Sprach­ wörterbuchspeichers 30 gespeichert sind, um die Überein­ stimmung zu bestimmen.
Auf der Grundlage des Spracherkennungsergebnisses wird in einem nächsten Schritt S120 bestimmt, ob die ein­ gegebene Sprache Japanisch ist oder nicht. Wenn die ein­ gegebene Sprache mit dem Wort identisch ist, das in dem Japanisch-Wörterbuchspeicher 31 gespeichert ist, wird ein Ergebnis JA ausgegeben. Wenn die eingegebene Sprache als Japanisch bestimmt wird (S120: JA), dann wird in einem Schritt S130 Japanisch eingestellt und wird die Idiomein­ stellroutine beendet. Andererseits schreitet, wenn die eingegebene Sprache als Nichtjapanisch bestimmt wird (S120: NEIN), dann die Routine zu einem Schritt S140 fort.
In dem Schritt S140 wird auf der Grundlage des Spra­ cherkennungsergebnisses in dem Schritt S110 bestimmt, ob die eingegebene Sprache Englisch ist oder nicht. Wenn die eingegebene Sprache als identisch zu einem Wort bestimmt wird, das in dem Englisch-Wörterbuch 32 gespeichert ist, dann wird ein Ergebnis JA ausgegeben. Wenn die eingege­ bene Sprache als Englisch bestimmt wird (S140: JA), dann wird in einem Schritt S150 Englisch eingestellt und wird die Idiomeinstellroutine beendet. Anderseits schreitet, wenn die eingegebene Sprache als Nichtenglisch bestimmt wird (S140: NEIN), dann die Routine zu einem Schritt S160 fort.
In dem Schritt S160 wird es auf der Grundlage des Spracherkennungsergebnisses in dem Schritt S110 bestimmt, ob die eingegebene Sprache Deutsch ist oder nicht. Wenn die eingegebene Sprache als identisch zu einem Wort be­ stimmt wird, das in dem Deutsch-Wörterbuch 33 gespeichert ist, dann wird ein Ergebnis JA ausgegeben. Wenn die ein­ gegebene Sprache als Deutsch bestimmt wird (S160: JA), dann wird in einem Schritt S170 Deutsch eingestellt und wird die Idiomeinstellroutine beendet. Andererseits wie­ derholt, wenn die eingegebene Sprache als Nichtdeutsch bestimmt wird (S160: NEIN), dann die Routine die Schritte von dem Schritt S110 an.
Wenn nach einem Wiederholen der Routine von dem Schritt S110 bis zu dem Schritt S160 ein vorbestimmtes Mal (zum Beispiel dreimal) kein bestimmtes Idiom einge­ stellt werden kann, wird die Idiomeinstellroutine beendet und wird das Idiom, das eingestellt gewesen ist, bevor die Routine durchgeführt worden ist, zur Informationsaus­ gabe verwendet, wie sie war. In diesem Fall wird die Idiomeinstellroutine beendet und kann eine manuelle Idiomeinstellung, bei welcher ein Menü auf dem Schirm für eine Auswahl eines Idioms durch einen Benutzer angezeigt wird, der Idiomeinstellroutine folgen.
Gemäß dem Navigationssystem 1 des ersten Ausführungs­ beispiels der vorliegenden Erfindung wird die eingegebene Sprache nicht selbst als eine Anweisung verwendet, son­ dern es wird auf der Grundlage der unbestimmten eingege­ benen Sprache bestimmt, ob eine eingegebene Sprache Ja­ panisch (S120 in Fig. 3), Englisch (S140) oder Deutsch (S160) ist, und entsprechend dem Bestimmungsergebnis wird das Idiom, das für eine Informationsausgabe auf der In­ formationseinheit 40 verwendet wird, umgeschaltet (S130, S150 und S170). Deshalb wird das Umschalten hinsichtlich des Idioms, das für einen Benutzer annehmbar ist, automa­ tisch ohne ein Erinnern an eine bestimmte Sprachanweisung verwirklicht.
Weiterhin wird in dem ersten Ausführungsbeispiel der vorliegenden Erfindung der Anfangsschirm zum Veranlassen, daß ein Benutzer eine Spracheingabe eingibt, auf der An­ zeige angezeigt (S100 in Fig. 3). Nicht mittels einer An­ frage, die auf einem Schirm eines Benutzers angezeigt wird, eine vollständig beliebige Sprache einzugeben, ver­ anlaßt das Navigationssystem 1 des ersten Ausführungsbei­ spiels der vorliegenden Erfindung, daß ein Benutzer ein Spracheinteilungsangabewort spricht, das in den Wörterbü­ chern 31 bis 33 gespeichert ist. Als Ergebnis ist die eingegebene Sprache eines Benutzers auf einige Wörter be­ schränkt, wird die eingegebene Sprache einfach identifi­ ziert, obgleich die Anzahl von Wörtern, die in den Wör­ terbüchern 31 bis 33 gespeichert sind, gering ist, und kann die Sprache mit einer hohen Wahrscheinlichkeit rich­ tig umgeschaltet werden.
Weiterhin wird, da Wörter, die Sprachanweisungen zum Betreiben des Navigationssystems 1 entsprechen, in den Wörterbüchern 31 bis 33 gespeichert sind, auch dann, wenn ein Benutzer unberücksichtigt der Schirmanzeige in dem Schritt S100 eine Sprachanweisung spricht, die Sprachein­ teilung (Idiomeinteilung) bestimmt und das Idiom umge­ schaltet.
Nachstehend erfolgt die Beschreibung eines zweiten Ausführungsbeispiels der vorliegenden Erfindung.
Das zweite Ausführungsbeispiel der vorliegenden Er­ findung unterscheidet sich von dem ersten Ausführungsbei­ spiel der vorliegenden Erfindung hinsichtlich der Idiom­ einstellroutine, die in Fig. 3 gezeigt ist. Die Idiomein­ stellroutine in dem zweiten Ausführungsbeispiel der vor­ liegenden Erfindung ist in einem Flußdiagramm in Fig. 5 gezeigt. Die Idiomeinstellroutine wird ebenso von der Sprachsteuereinheit 11 durchgeführt und automatisch durchgeführt, wenn eine Energieversorgungsquelle an das Navigationssystem 1 angelegt wird. Zum Beispiel wird in dem Fall eines fahrzeugseitigen Navigationssystems die Idiomeinstellroutine automatisch durchgeführt, wenn der Motor eines Fahrzeugs gestartet wird oder wenn ein Zube­ hörteil eingeschaltet wird (ACC ON). Andernfalls kann zum Beispiel die Idiomeinstellroutine in einem vorbestimmten Zeitintervall, wie zum Beispiel 2 Stunden, durchgeführt werden oder kann mittels einer Schalterbetätigung durch einen Benutzer durchgeführt werden.
Als erstes erfolgt in einem Schritt S200 eine Anfrage in Japanisch. Bei dieser Verarbeitung wird die Sprachaus­ gabe-Steuereinheit 21 angewiesen, eine Sprachausgabe mit­ tels des Lautsprechers 21a zum Veranlassen, daß ein Be­ nutzer eine Spracheingabe eingibt, zu erzeugen. Im Detail wird eine Sprache "Ohayo gozaimasu", wenn es Morgen ist, "Konnichiwa", wenn es Nachmittag ist, oder "Konbanwa", wenn es Abend ist, erzeugt.
Nachfolgend werden die Spracheingabe und die Sprach­ erkennung in einem Schritt S210 durchgeführt. Diese Ver­ arbeitung ist die gleiche wie die in dem Schritt S100, der in Fig. 3 gezeigt ist, die in dem ersten Ausführungs­ beispiel der vorliegenden Erfindung beschrieben ist. Die eingegebene Sprache wird eingegeben und es wird bestimmt, ob die eingegebene Sprache zu einem Wort identisch ist, das in den Wörterbüchern 31 bis 33 des Sprachwörterbuch­ speichers 30 gespeichert ist, oder nicht. Der Benutzer spricht wahrscheinlich "Ohayo gozaimasu", "Konnichiwa" oder "Konbanwa" als Reaktion auf die Anfrage in dem Schritt S200. Deshalb kann die eingegebene Sprache des Benutzers erkannt werden.
In einem nächsten Schritt S220 wird auf der Grundlage des Spracherkennungsergebnisses bestimmt, ob die eingege­ bene Sprache Japanisch ist oder nicht. Wenn die eingege­ bene Sprache identisch zu dem Wort ist, das in dem Japa­ nisch-Wörterbuch 31 gespeichert ist, dann wird ein Ergeb­ nis JA ausgegeben. Wenn die eingegebene Sprache als eine japanische Spracheingabe bestimmt wird (S220: JA), dann wird in einem Schritt S230 Japanisch eingestellt und wird die Idiomeinstellroutine beendet. Andererseits schreitet, wenn die eingegebene Sprache als Nichtjapanisch bestimmt wird (S220: NEIN), dann die Routine zu einem Schritt S240 fort.
In dem Schritt S240 erfolgt eine Anfrage in Englisch. Bei dieser Verarbeitung wird die Sprachausgabe-Steuerein­ heit 21 angewiesen, eine Sprachausgabe mittels des Laut­ sprechers 21a zum Veranlassen, daß ein Benutzer eine Spracheingabe wie in dem Schritt S200 eingibt, zu erzeu­ gen. Im Detail wird eine Sprache "Good morning", wenn es Morgen ist, "Good afternoon", wenn es Nachmittag ist, oder "Good evening", wenn es Abend ist, erzeugt.
In einem nachfolgenden Schritt S250 werden die Spracheingabe und die Spracherkennung durchgeführt. Wie in dem Schritt S210 wird die eingegebene Sprache eingege­ ben und wird die eingegebene Sprache mit Wörtern vergli­ chen, die in den Wörterbüchern 31 bis 33 des Sprachwör­ terbuchspeichers 30 gespeichert sind, um die Übereinstim­ mung zu bestimmen. Die eingegebene Sprache des Benutzers, die als Reaktion auf die Anfrage in dem Schritt S240 er­ zeugt wird, wird erkannt.
In einem Schritt S260 wird es auf der Grundlage des Spracherkennungsergebnisses bestimmt, ob die eingegebene Sprache Englisch ist oder nicht. Wenn die eingegebene Sprache zu einem Wort identisch ist, das in dem Englisch- Wörterbuch 32 gespeichert ist, dann wird ein Ergebnis JA ausgegeben. Wenn die eingegebene Sprache als Englisch be­ stimmt wird (S260: JA), dann wird Englisch in einem Schritt S270 eingestellt und wird die Idiomeinstellrou­ tine beendet. Andererseits schreitet, wenn die eingege­ bene Sprache als Nichtenglisch bestimmt wird (S260: NEIN), dann die Routine zu einem Schritt S280 fort.
In dem Schritt S280 erfolgt eine Anfrage in Deutsch. Bei dieser Verarbeitung wird die Sprachausgabe-Steuerein­ heit 21 angewiesen, eine Sprachausgabe mittels des Laut­ sprechers 21a zum Veranlassen, daß ein Benutzer eine Spracheingabe wie in den Schritten S200 und S240 eingibt, zu erzeugen. Im Detail wird eine Sprache "Guten Morgen", wenn es Morgen ist, "Guten Tag", wenn es Nachmittag ist, oder "Guten Abend", wenn es Abend ist, erzeugt.
In einem nachfolgenden Schritt S290 werden die Spracheingabe und die Spracherkennung durchgeführt. Wie in den Schritten S210 und S250, wird die eingegebene Sprache eingegeben und wird die eingegebene Sprache mit Wörtern verglichen, die in den Wörterbüchern 31 bis 33 des Sprachwörterbuchspeichers 30 gespeichert sind, um die Übereinstimmung zu überprüfen. Die eingegebene Sprache des Benutzers, die als Reaktion auf die Anfrage in dem Schritt S280 erzeugt wird, wird erkannt.
In einem nächsten Schritt S300 wird es auf der Grund­ lage des Spracherkennungsergebnisses bestimmt, ob die eingegebene Sprache eine Deutsch ist oder nicht. Wenn die eingegebene Sprache zu einem Wort identisch ist, das in dem Deutsch-Wörterbuch 32 gespeichert ist, dann wird ein Ergebnis JA ausgegeben. Wenn die eingegebene Sprache als Deutsch bestimmt wird (S300: JA), dann wird in einem Schritt S310 Deutsch eingestellt und wird die Idiomein­ stellroutine beendet. Anderseits wiederholt, wenn die eingegebene Sprache als Nichtdeutsch bestimmt wird (S300: NEIN), dann die Routine die Schritte von S200 an.
Wenn kein bestimmtes Idiom eingestellt werden kann, nachdem die Routine von dem Schritt S200 bis zu dem Schritt S300 vorbestimmte Male (zum Beispiel dreimal) wiederholt worden ist, dann wird die Idiomeinstellroutine beendet und wird die Sprache, die eingestellt gewesen ist, bevor die Routine durchgeführt worden ist, für eine Informationsausgabe verwendet, wie sie war. In diesem Fall wird andernfalls die Idiomeinstellroutine beendet und kann die manuelle Idiomeinstellung, bei welcher ein Menü auf dem Schirm für eine Auswahl eines Idioms durch einen Benutzer angezeigt wird, der Idiomeinstellroutine folgen.
In diesem Ausführungsbeispiel wird auch dann, wenn sich ein Benutzer nicht an eine bestimmte Sprachanweisung erinnert, ein Umschalten zu dem Idiom, das für den Benut­ zer annehmbar ist, einfach verwirklicht. Da die phoneti­ sche Anfrage an einen Benutzer (S200, S240 und S280 in Fig. 5) veranlaßt, daß der Benutzer ein Spracheintei­ lungsangabewort spricht, das in den Wörterbüchern 31 bis 33 gespeichert ist, ist die eingegebene Sprache des Be­ nutzers mit einer hohen Wahrscheinlichkeit beschränkt, wird die eingegebene Sprache identifiziert, obwohl die Anzahl von Wörtern, die in den Wörterbüchern 31 bis 33 gespeichert sind, wenig ist, und wird ein Umschalten zu einem annehmbaren Idiom mit einer hohen Wahrscheinlich­ keit verwirklicht. Eine Spracheinteilung (Idiomeinteilung) wird bestimmt, wenn ein Benutzer eine Sprachanweisung spricht, und das Idiom wird auf die glei­ che Weise, wie hier im vorhergehenden Verlauf beschrie­ ben, umgeschaltet.
In dem Fall, in dem ein Benutzer die Sprache der pho­ netischen Anfrage in dem zweiten Ausführungsbeispiel der vorliegenden Erfindung nicht verstehen kann, kann der Be­ nutzer still sein. Im Gegensatz dazu kann ein Benutzer in dem Fall einer verständlichen Sprache einiges an Reaktion (zum Beispiel "Ossu" oder "Un" in Japanisch) zurückgeben. Deshalb wird das Idiom, das dem Wort einiger Reaktion des Benutzers auf die phonetische Anfrage entspricht, einge­ stellt und wird nach diesem Zeitpunkt dieses Idiom für die Informationsausgabe von dem System verwendet. In die­ sem Fall müssen diese Reaktionswörter im voraus in dem Sprachwörterbuchspeicher 30 gespeichert werden.
Nachstehend erfolgt die Beschreibung eines dritten Ausführungsbeispiels der vorliegenden Erfindung.
Das dritte Ausführungsbeispiel der vorliegenden Er­ findung zeigt ein Beispiel, bei welchem die vorliegende Erfindung an einer tragbaren Informationsendstellenein­ heit 3 angewendet wird, die in Fig. 6 gezeigt ist.
Die tragbare Informationsendstelleneinheit 3 weist die zentrale Steuereinheit 10 auf und ist mit der Sprach­ eingabe/ausgabe-Steuereinheit 20, die mit der zentralen Steuereinheit 10 verbunden ist, dem Sprachwörterbuchspei­ cher 30, der Anzeigeeinheit 40, der Betätigungsschalter­ gruppe 70, einer Speichereinheit 91, einer Kommunika­ tionsschnittstelle (Kommunikations-I/F) 92 und einer Da­ tenspeichereinheit 93 ausgestattet.
Die Struktur der Steuereinheit 10, der Sprachein­ gabe/ausgabe-Steuereinheit 20, der Anzeigeeinheit 40 und der Betätigungsschaltergruppe 70 ist die gleiche wie die der ersten und zweiten Ausführungsbeispiele der vorlie­ genden Erfindung.
Die tragbare Informationsendstelleneinheit 3 ist ähn­ lich den ersten und zweiten Ausführungsbeispielen der vorliegenden Erfindung mit dem Sprachwörterbuchspeicher ausgestattet. Der Sprachwörterbuchspeicher 30 ist zu den vorhergehenden Ausführungsbeispielen der vorliegenden Er­ findung darin unterschiedlich, daß ein Kind-Wörterbuch 34 und ein Wörterbuch 35 für ältere Leute vorgesehen sind. In diesen Wörterbüchern 34 und 35 sind Spracheinteilungs­ angabewörter für eine Ausgabebetriebsart-Einstellverar­ beitung gespeichert.
Die Speichereinheit 91 weist eine Speichereinheit, wie zum Beispiel eine Festplatte, auf und speichert ver­ schiedene Anwendungssoftware. In dem dritten Ausführungs­ beispiel der vorliegenden Erfindung sind eine Textverar­ beitungssoftware 91a, ein Netzbrowser 91b, eine Musikab­ spielsoftware 91c, eine Filmabspielsoftware 91d und eine Spielesoftware 91e als die Anwendungssoftware gespei­ chert.
Die Kommunikations-I/F 92 ist eine Schnittstelle zum Verbinden von Zellulartelefonen (nicht gezeigt). Der Netzbrowser 91b wird zum Verbinden mit dem Internet unter Verwendung der Kommunikations-I/F 92 verwendet. Ein Be­ nutzer kann unter Verwendung des Netzbrowsers 91b eine e- Mail übermitteln und das Netzsurfen genießen. Die Musik­ abspielsoftware 91c und die Filmabspielsoftware 91d wer­ den für den Betrieb verwendet, bei welchem die tragbare Informationsendstelleneinheit 3 mittels der Kommunika­ tions-I/F 92 mit einem vorbestimmten Center verbunden ist, die Musikdaten oder Filmdaten, die der Benutzer wünscht, erfaßt werden und die erfaßten Musikdaten oder Filmdaten abgespielt oder wiedergegeben werden. Die Musik wird mittels des Lautsprechers 21a von der Sprachausgabe- Steuereinheit 21 erzeugt. Das Bild wird auf der Anzeige­ einheit 40 angezeigt. Ein Benutzer kann mittels der Kom­ munikations-I/F 92 unter Verwendung der Spielesoftware 91e ein Spiel mit einer fremden Person genießen. Die An­ wendungssoftware erstreckt sich auf den RAM der Steuer­ einheit 10 und wird von der CPU der Steuereinheit 10 aus­ geführt, um die vorhergehenden Funktionsweisen zu ver­ wirklichen.
Die Datenspeichereinheit 93 ist eine Speichervorrich­ tung mit einer großen Kapazität zum Speichern der abzu­ spielenden Musikdaten und Filmdaten unter Verwendung der Musikabspielsoftware 91c und der Filmabspielsoftware 91d.
Die tragbare Informationsendstelleneinheit 3 ist der­ art aufgebaut, daß ein Benutzer in Übereinstimmung mit dem Menü, das auf der Anzeigeeinheit 40 angezeigt wird, einen Informationsdienst empfangen kann, wie es erwünscht ist.
Fig. 7 zeigt ein Hauptmenü, das auf der Anzeigeein­ heit 40 angezeigt wird. Grundsätzlich werden in dem Fall dieser tragbaren Informationsendstelleneinheit 3 insge­ samt sieben Piktogramme, wie zum Beispiel "Textverarbeitung", "Netzsurfen", "e-Mail", "Musik", "Film", "Spiel" und "Einstellungen" angezeigt, wie es in Fig. 7 gezeigt ist. Wenn ein Benutzer ein Piktogramm auf dem Schirm mit einem Finger berührt, wird die Menüaus­ wahlinformation mittels der Betätigungsschaltergruppe 70, die mit der angezeigten Einheit 40 kombiniert ist, der Steuereinheit 10 zugeführt. Dadurch wird eine Anwendung, die dem Piktogramm entspricht, aus der Speichereinheit 91 zu der Steuereinheit 10 ausgelesen und ausgeführt. Wenn das Piktogramm "Einstellungen" ausgewählt wird, wird ein Systemmenü zum benutzerspezifischen Anpassen von ver­ schiedenen Funktionen der tragbaren Informationsendstel­ leneinheit 3 aktiviert.
Die sieben Piktogramme werden in dem Fall dieser tragbaren Informationsendstelleneinheit 1 hauptsächlich aus dem Grund angezeigt, daß die Anzeigebetriebsart des Hauptmenüs, das heißt, das Piktogramm, das auf dem Haupt­ menü angezeigt wird, abhängig von dem Alter des Benutzers umgeschaltet werden kann.
Als nächstes wird ein Verfahren zum Umschalten der Hauptmenü-Betriebsart hier im weiteren Verlauf beschrie­ ben.
Ebenso wird in dem Fall des dritten Ausführungsbei­ spiels der vorliegenden Erfindung die Spracheinteilung im voraus eingestellt, wobei die Spracheinteilung, zu wel­ cher die eingegebene Sprache eines Benutzers, die von der Spracheingabe-Steuereinheit 22 mittels des Mikrofons 22a eingegeben wird, bestimmt wird, und wird die Hauptmenü- Anzeigebetriebsart wie in dem Fall der ersten und zweiten Ausführungsbeispiele der vorliegenden Erfindung umge­ schaltet.
Deshalb wird angenommen, daß die hierin angesprochene Spracheinteilung eine Einteilung nach Alter (Altersein­ teilung) ist. Um die Spracheinteilung (Alterseinteilung) zu bestimmen, zu welcher die eingegebene Sprache gehört, sind Spracheinteilungsangabewörter, die jeweiligen Spracheinteilungen (Alterseinteilungen) entsprechen, im voraus gespeichert worden. Der Sprachwörterbuchspeicher 30 speichert die Spracheinteilungsangabewörter. Die Al­ terseinteilung beinhaltet in dem dritten Ausführungsbei­ spiel der vorliegenden Erfindung drei Einteilungen, eine Erwachseneneinteilung, eine Kindeinteilung und eine Ein­ teilung für ältere Leute. In dem Kind-Wörterbuch 34 des Sprachwörterbuchspeichers 30 sind Spracheinteilungsanga­ bewörter gespeichert, die der Kindeinteilung entsprechen. Diese Wörter können Wörter sein, die lediglich Kindern bekannt sind, zum Beispiel Namen von Heldinnen und Helden in Fernsehprogrammen, die Kindern bekannt sind. In dem Wörterbuch 35 für ältere Leute des Sprachwörterbuchspei­ chers 30 sind Spracheinteilungsangabewörter gespeichert, die der Einteilung für ältere Leute entsprechen. Diese Wörter können Wörter sein, die lediglich älteren Leuten bekannt sind, zum Beispiel Namen von Persönlichkeiten, die lediglich älteren Leuten bekannt sind.
Die Sprachsteuereinheit 11 vergleicht eine eingege­ bene Sprache eines Benutzers, die mittels des Mikrofons 22a von der Spracheingabe-Steuereinheit 22 zugeführt wird, mit einem Wort, das in den Wörterbüchern 34 und 35 des Sprachwörterbuchspeichers 30 gespeichert ist, um die Übereinstimmung zu bestimmen. Wenn die eingegebene Spra­ che zu einem Wort in dem Kind-Wörterbuch 34 identisch ist, dann wird die eingegebene Sprache als ein Wort be­ stimmt, das zu der Kindeinteilung gehört. Andererseits wird, wenn die eingegebene Sprache zu einem Wort iden­ tisch ist, das in dem Wörterbuch 35 für ältere Leute ge­ speichert ist, dann die eingegebene Sprache als ein Wort bestimmt, das zu der Einteilung für ältere Leute gehört. Wenn die Spracheinteilung (Alterseinteilung), zu welcher die eingegebene Sprache gehört, identifiziert ist, schal­ tet die Sprachsteuereinheit 11 die Anzeigebetriebsart des Hauptmenüs auf der Grundlage der Spracheinteilung (Alterseinteilung) um.
Als nächstes wird die Ausgabebetriebsart-Einstellrou­ tine, die das Hauptmenü-Anzeigebetriebsart-Umschaltver­ fahren verwendet, unter Bezugnahme auf ein in Fig. 8 ge­ zeigtes Flußdiagramm beschrieben. Die Ausgabebetriebsart- Einstellroutine, die in Fig. 8 gezeigt ist, wird von der Sprachsteuereinheit 11 ausgeführt und automatisch ausge­ führt, wenn eine Energieversorgungsquelle an die Informa­ tionsendstelleneinheit 3 des dritten Ausführungsbeispiels der vorliegenden Erfindung angelegt wird. Die Einstell­ routine kann in einem vorbestimmten Zeitintervall, wie zum Beispiel 2 Stunden, durchgeführt werden oder kann mittels einer Schalterbetätigung durch einen Benutzer mittels der Betätigungsschaltergruppe 70 durchgeführt werden.
In einem ersten Schritt S400 wird ein Schirm auf der Anzeigeeinheit 40 angezeigt. Diese Verarbeitung veran­ laßt, daß ein Benutzer eine Spracheingabe eingibt, und ein Schirm, der beispielhaft in Fig. 9 dargestellt ist, wird auf dem Anzeigefeld 40a angezeigt. Im Detail werden eine Heldin oder ein Held in Fernsehprogrammen, die le­ diglich Kindern bekannt sind (mit dem Buchstaben A ge­ zeigt), und eine Persönlichkeit, die lediglich älteren Leuten bekannt ist (mit dem Buchstaben B gezeigt), Seite an Seite angezeigt. "Nenne bitte den Namen von einem" wird angezeigt. Zu diesem Zeitpunkt wird, wenn der Benut­ zer ein Kind ist, der Benutzer wahrscheinlich den Namen der Heldin oder des Helden in Fernsehprogrammen sagen. Andererseits wird der Benutzer, wenn der Benutzer eine ältere Person ist, wahrscheinlich den Namen der Persön­ lichkeit sagen.
Nachfolgend werden in einem Schritt S410 die Sprach­ eingabe und die Spracherkennung durchgeführt. Die einge­ gebene Sprache von dem Benutzer wird von der Sprachein­ gabe-Steuereinheit 22 mittels des Mikrofons 22a eingege­ ben, wie es zuvor beschrieben ist. Deshalb wird die ein­ gegebene Sprache eingegeben und mit Wörtern verglichen, die in den Wörterbüchern 34 und 35 in dem Sprachwörter­ buchspeicher 30 gespeichert sind, um die Übereinstimmung zu bestimmen.
In einem nächsten Schritt S420 wird auf der Grundlage des Spracherkennungsergebnisses bestimmt, ob der Benutzer ein Kind ist oder nicht. Wenn die eingegebene Sprache zu einem Wort identisch ist, das in dem Kind-Wörterbuch 34 gespeichert ist, dann wird ein Ergebnis JA ausgegeben. Wenn der Benutzer als ein Kind bestimmt wird (S420: JA), dann wird in einem Schritt S430 das Kindermenü einge­ stellt und wird die Ausgabebetriebsart-Einstellroutine beendet. In dem Menü für Kinder können zum Beispiel das Piktogramm "Textverarbeitung" und das Piktogramm "Einstellungen" zum benutzerspezifischen Anpassen nicht angezeigt werden, wie es in Fig. 10A gezeigt ist. Ande­ rerseits schreitet, wenn der Benutzer als kein Kind be­ stimmt wird (S420: NEIN), die Routine zu einem Schritt S440 fort.
In einem Schritt S440 wird es auf der Grundlage des Spracherkennungsergebnisses, das in dem Schritt S410 er­ zielt wird, bestimmt, ob der Benutzer eine ältere Person ist oder nicht. Wenn die eingegebene Sprache zu einem Wort identisch ist, das in dem Wörterbuch 35 für ältere Leute gespeichert ist, dann wird ein Ergebnis JA ausgege­ ben. Wenn der Benutzer als eine ältere Person bestimmt wird (S440: JA), dann wird in einem Schritt S450 das Menü für ältere Leute eingestellt und wird dann die Ausgabebe­ triebsart-Einstellroutine beendet. In dem Menü für ältere Leute können zum Beispiel das Piktogramm "Spiel", welches wahrscheinlich nicht verwendet wird, und das Piktogramm "Einstellungen" zum benutzerspezifischen Anpassen von De­ tails nicht angezeigt werden, wie es in Fig. 10B gezeigt ist. Andererseits wird, wenn der Benutzer nicht als eine ältere Person bestimmt wird (S440: NEIN), in einem Schritt S460 das Erwachsenenmenü eingestellt und wird dann die Ausgabebetriebsart-Einstellroutine beendet. In dem Erwachsenenmenü können zum Beispiel alle Piktogramme angezeigt werden, wie es in Fig. 7 gezeigt ist.
Um die Bestimmung eines Kinds, einer älteren Person oder eines Erwachsenen sicherzustellen, kehrt die Routine zu dem Schritt S400 zurück, wenn eine Bestimmung NEIN in dem Schritt S440 (S440: NEIN) ausgegeben wird, werden die Buchstabenanzeigen, die beispielhaft in Fig. 9 darge­ stellt sind, geändert, um den Inhalt der Schirmanzeige zu ändern, und kann dann die Verarbeitung in den Schritten S410 bis S440 ausgeführt werden. Zu diesem Zeitpunkt wird, wenn der Benutzer nach mehreren Wiederholungen der Verarbeitung nicht als ein Kind oder eine ältere Person bestimmt wird, dieser dann als Erwachsener bestimmt.
Wie in den ersten und zweiten Ausführungsbeispielen der vorliegenden Erfindung wird ebenso in der tragbaren Informationsendstelleneinheit 3 des dritten Ausführungs­ beispiels der vorliegenden Erfindung die eingegebene Sprache selbst nicht als eine Anweisung verwendet. Ob ein Benutzer, der eine Sprache gesprochen hat, ein Kind (S420 in Fig. 8) oder eine ältere Person (S440) ist, wird auf der Grundlage der unbestimmten eingegebenen Sprache be­ stimmt, und die Hauptmenü-Anzeigebetriebsart wird abhän­ gig von dem Bestimmungsergebnis umgeschaltet (S430, S450 und S460). Dadurch wird das Umschalten zu der Ausgabebe­ triebsart, die für einen Benutzer annehmbar ist, einfach verwirklicht, ohne sich an eine bestimmte Sprachanweisung zu erinnern.
Ebenso veranlaßt in dem dritten Ausführungsbeispiel der vorliegenden Erfindung die Schirmanzeige, daß ein Be­ nutzer eine Spracheingabe eingibt (S400 in Fig. 8). Die Anfrage an einen Benutzer mittels der Schirmanzeige ver­ anlaßt, daß der Benutzer ein Spracheinteilungsangabewort spricht, das in den Wörterbüchern 34 und 35 gespeichert ist. Als Ergebnis ist die eingegebene Sprache eines Be­ nutzers mit einer hohen Wahrscheinlichkeit auf bestimmte Wörter beschränkt und kann die eingegebene Sprache trotz einer beschränkten Anzahl von Wörtern, die in den Wörter­ büchern 34 und 35 gespeichert sind, mit einer hohen Wahr­ scheinlichkeit identifiziert werden.
Nachstehend erfolgt die Beschreibung von anderen Aus­ führungsbeispielen der vorliegenden Erfindung.
  • a) In den ersten und zweiten Ausführungsbeispielen der vorliegenden Erfindung wird das Idiom, das für eine Informationsausgabe verwendet wird, zu irgendeinem von Japanisch, Englisch und Deutsch umgeschaltet. Es kann an­ dernfalls zum Beispiel zu irgendeinem von Französisch, Italienisch, Spanisch und dergleichen umgeschaltet wer­ den, vorausgesetzt, daß Wörterbücher, die den jeweiligen Idiomen entsprechen, in dem Sprachwörterbuchspeicher 30 gespeichert sind.
    Das Idiom wird nicht notwendigerweise für eine Infor­ mationsausgabeverarbeitung verwendet. Das heißt, ein all­ gemeines Wort, das ein breiteres Konzept als das des Idioms aufweist, kann verwendet werden. Ein allgemeines Wort, das hierin verwendet wird, kann als ein Symbol­ system zum Ausdrücken und Übertragen des Denkens, der Emotion und der Absicht von Leuten mittels Sprache oder Zeichen definiert sein. Weiterhin kann ein anderes Dia­ gramm oder Bild als ein allgemeines Wort für eine Infor­ mationsausgabe verwendet werden. In diesem Fall kann die Informationsausgabebetriebsart der Informationsausgabe­ verarbeitung ebenso umgeschaltet werden.
  • b) Obgleich in der Idiomeinstellroutine in den er­ sten und zweiten Ausführungsbeispielen der vorliegenden Erfindung (S100 in Fig. 3, S200, S240 und S280 in Fig. 5) veranlaßt wird, daß ein Benutzer ein Wort spricht, das normalerweise zum Grüßen verwendet wird, wie zum Beispiel "Konnichiwa", ist das Wort nicht auf dieses Wort be­ schränkt. Die Anfrage zum Erzielen einer erwarteten Re­ aktion eines Benutzers kann verwendet werden oder ein Wort, wie zum Beispiel "Genkidesuka" oder "Dochiramade ikimasuka", kann angezeigt oder gesprochen werden. In diesem Fall wird eine Reaktion, wie zum Beispiel "Genkidesu", "Hai" oder "Iie", als Reaktion auf "Genkidesuka" erwartet und wird eine Reaktion, wie zum Beispiel ein Name einer Einrichtung oder ein Name eines örtlichen Gebiets, als Reaktion auf "Dochiramade ikimasuka" erwartet. Deshalb ist das Wort, wie zum Bei­ spiel "Genkidesu", der Name der Einrichtung oder der Name des örtlichen Gebiets in den Wörterbüchern 31 bis 33 ge­ speichert, denn in diesem Fall kann die Spracheinteilung (Idiomeinteilung) bestimmt werden.
  • c) Obwohl das Idiom, das für eine Informationsaus­ gabe verwendet wird, in den ersten und zweiten Ausfüh­ rungsbeispielen der vorliegenden Erfindung umgeschaltet wird, wird andernfalls ein System für ein allgemeines Wort für eine Informationsausgabe umgeschaltet, wie es in der vorhergehenden Ausgestaltung (b) beschrieben ist. In diesem Fall kann ein Wörterbuch, das die Standardsprache oder ein Dialekt speichert, in dem Sprachwörterbuchspei­ cher 30 gespeichert werden. Zum Beispiel sind zum Um­ schalten zwischen dem Dialekt von Osaka, dem Dialekt von Nagoya und dem Dialekt von Tohoku ein Wörterbuch, das Wörter im Dialekt von Osaka, ein Wörterbuch, das Wörter im Dialekt von Nagoya, und ein Wörterbuch, das Wörter im Dialekt von Tohoku speichert, gespeichert.
    Weiterhin kann die Sprache der Einheitenseite zwi­ schen männlicher Sprache und weiblicher Sprache umge­ schaltet werden. In diesem Fall können ein Wörterbuch, das Wörter speichert, die lediglich ein Mann ausnahms­ weise verwenden wird, und ein Wörterbuch, das Wörter speichert, die lediglich eine Frau ausnahmsweise verwen­ den wird, in dem Sprachwörterbuchspeicher 30 gespeichert werden. Ein weibliches Wort (weibliche Sprache) kann als die Wörter gespeichert werden, die lediglich eine Frau verwenden wird.
    Weiterhin kann, wie es in dem dritten Ausführungsbei­ spiel der vorliegenden Erfindung beschrieben ist, die Ausgabebetriebsart der Information abhängig von dem Alter eines Benutzers umgeschaltet werden.
  • d) In den ersten und zweiten Ausführungsbeispielen der vorliegenden Erfindung wird das Wort, das der Sprachanweisung zum Betreiben des Navigationssystems 1 entspricht, als das Erkennungszielwort in den Wörterbü­ chern 31 bis 33 in dem Sprachwörterbuchspeicher 30 ge­ speichert. Die eingegebene Sprache wird einer Spracher­ kennung unterzogen und die Informationseingabe wird mit­ tels der Sprache verwirklicht, die von einem Benutzer eingegeben wird.
Das Wort, das der Sprachanweisung zum Betreiben des Navigationssystems 1 entspricht, kann immer in den Wör­ terbüchern 31 bis 33 gespeichert sein, wie es zuvor be­ schrieben ist. In einigen Fällen ist jedoch die Anzahl von Erkennungszielwörtern, die in dem Sprachwörterbuch­ speicher 30 zu speichern sind, abhängig von der Kapazität des Systems beschränkt. Um ein derartiges Problem zu lö­ sen, kann das Wörterbuch, das in dem Sprachwörterbuch­ speicher 30 zu speichern ist, abhängig von einem Umschal­ ten des Idioms oder dergleichen, das zu verwenden ist, geändert werden. Zum Beispiel wird in dem Fall, in dem das Idiom zu Japanisch umgeschaltet wird, da ein Benutzer wahrscheinlich die japanische Informationseingabe in das Navigationssystem 1 eingibt, der Sprachwörterbuchspeicher 30 auf das Japanisch-Sprachwörterbuch festgelegt. Daher wird das Wörterbuch, das für den Benutzer annehmbar ist, in dem Sprachwörterbuchspeicher 30 gespeichert und wird die reibungslose Informationseingabe mittels Sprache ver­ wirklicht.
In einem zuvor beschriebenen Informationsverarbei­ tungssystem, wie zum Beispiel einem Navigationssystem oder einer tragbaren Informationsendstelleneinheit, wird eine Informationsausgabebetriebsart einer Anzeigeeinheit zu einem Benutzer zu einer Mehrzahl von Ausgabebetriebs­ arten umgeschaltet. Das Navigationssystem schaltet das zu verwendende Idiom für eine Informationsausgabe zu irgend­ einer von Japanisch, Englisch und Deutsch um. Nicht die eingegebene Sprache selbst wird als eine Anweisung ver­ wendet, sondern ob die eingegebene Sprache Japanisch, Englisch oder Deutsch ist, wird bestimmt. Das für eine Informationsausgabe zu verwendende Idiom wird abhängig von dem Bestimmungsergebnis umgeschaltet.

Claims (16)

1. Informationsverarbeitungssystem (1, 3) zum Kommmuni­ zieren einer Information mit einem Benutzer, das auf­ weist:
eine Informationsausgabeeinrichtung (21, 21a, 40, 40a) zum Ausgeben einer Information;
eine Spracheingabeeinrichtung (22, 22a) zum Eingeben einer Sprache eines Benutzers;
eine Speichereinrichtung (30 bis 35) zum Speichern von Spracheinteilungsangabewörtern;
eine Spracheinteilungsangabeeinrichtung (10, 11) zum Bestimmen einer Übereinstimmung zwischen einer einge­ gebenen Sprache, die mittels der Spracheingabeein­ richtung zugeführt wird, und einem Spracheinteilungs­ angabewort in der Speichereinrichtung (30 bis 35) und zum Angeben einer Spracheinteilung, zu welcher die eingegebene Sprache gehört; und
eine Umschalteinrichtung (10, 11) zum Umschalten ei­ ner Informationsausgabebetriebsart der Informations­ ausgabeeinrichtung (21, 21a, 40, 40a) in einer Infor­ mationsausgabeverarbeitung auf der Grundlage der Spracheinteilung, die von der Spracheinteilungsanga­ beeinrichtung angegeben wird.
2. System nach Anspruch 1, dadurch gekennzeichnet, daß:
als die Informationsausgabe-Betriebsart ein Idiom in dem Fall umgeschaltet wird, in dem das Idiom in der Informationsausgabeverarbeitung zu verwenden ist;
eine Idiomeinteilung, die eine Einteilung des von dem Benutzer zu verwendenden Idioms ist, in der Sprach­ einteilung beinhaltet ist; und
die Umschalteinrichtung das in der Informationsausga­ beverarbeitung zu verwendende Idiom auf der Grundlage der Idiomeinteilung umschaltet, die von der Sprach­ einteilungsangabeeinrichtung angegeben wird.
3. System nach Anspruch 1 oder 2, dadurch gekennzeich­ net, daß:
als die Informationsausgabebetriebsart ein Allgemein­ wortsystem in dem Fall umgeschaltet wird, in dem das Idiom ein System einer Mehrzahl von allgemeinen Wör­ tern aufweist, die eine Standardsprache und Dialekte aufweisen, wenn das Idiom in der Informationsausgabe­ verarbeitung verwendet wird;
die Spracheinteilung eine Dialektaufteilung beinhal­ tet, die eine Einteilung in Übereinstimmung mit dem Allgemeinwortsystem ist, das von dem Benutzer verwen­ det wird; und
die Umschalteinrichtung das in der Informationsausga­ beverarbeitung zu verwendende Allgemeinwortsystem auf der Grundlage der Dialekteinteilung umschaltet, die von der Spracheinteilungsangabeeinrichtung angegeben wird.
4. System nach einem der Ansprüche 1 bis 3, dadurch ge­ kennzeichnet, daß:
eine in der Informationsausgabeverarbeitung verwen­ dete Sprache als die Informationsausgabebetriebsart zwischen männlicher Sprache und weiblicher Sprache umschaltbar ist;
eine Geschlechtseinteilung, die eine Einteilung nach einem Geschlecht des Benutzers ist, in der Sprachein­ teilung beinhaltet ist; und
die Umschalteinrichtung die vorrichtungsseitige Spra­ che zur weiblichen Sprache umschaltet, wenn die Ge­ schlechtseinteilung, die von der Spracheinteilungsan­ gabeeinrichtung angegeben wird, die männliche Eintei­ lung ist, wobei die Umschalteinrichtung andererseits die vorrichtungsseitige Sprache zur männlichen Spra­ che umschaltet, wenn die Geschlechtseinteilung die weibliche Einteilung ist.
5. System nach einem der Ansprüche 1 bis 4, dadurch ge­ kennzeichnet, daß:
Betriebsarten, die einem Alter eines Benutzers ent­ sprechen, als die Informationsausgabebetriebsart be­ inhaltet sind;
die Spracheinteilung eine Alterseinteilung beinhal­ tet, die die Einteilung nach dem Alters eines Benut­ zers ist; und
die Umschalteinrichtung die Informationsausgabebe­ triebsart zu einer Betriebsart, die für den Benutzer annehmbar ist, auf der Grundlage der Alterseinteilung umschaltet, die von der Spracheinteilungsangabeein­ richtung bestimmt wird.
6. System nach einem der Ansprüche 1 bis 5, dadurch ge­ kennzeichnet, daß:
die Spracheinteilungsangabeeinrichtung eine Sprach­ erkennungseinrichtung zum Verwirklichen einer Infor­ mationseingabe mittels Sprache von einem Benutzer und zur Spracherkennung unter Verwendung von Erkennungs­ zielwörtern beinhaltet; und
die Umschalteinrichtung eine Erkennungszielwort-Ände­ rungseinrichtung zum Ändern des Erkennungszielworts, das zur Spracherkennung von der Spracherkennungsein­ richtung verwendet wird, entsprechend der Informa­ tionsausgabebetriebsart beinhaltet, die von der Um­ schalteinrichtung umgeschaltet wird.
7. System nach einem der Ansprüche 1 bis 6, dadurch ge­ kennzeichnet, daß die Spracheinteilungsangabeeinrich­ tung eine Anfrageeinrichtung zum Ausführen einer An­ frageverarbeitung beinhaltet, um zu veranlassen, daß ein Benutzer das Spracheinteilungsangabewort spricht.
8. System nach Anspruch 7, dadurch gekennzeichnet, daß die Anfrageverarbeitung der Anfrageeinrichtung eine Anzeigeverarbeitung mittels der Anzeigeeinrichtung ist.
9. System nach Anspruch 7 oder 8, dadurch gekennzeich­ net, daß die Anfrageverarbeitung der Anfrageeinrich­ tung eine Sprachverarbeitung mittels Sprache ist.
10. System nach einem der Ansprüche 1 bis 9, dadurch ge­ kennzeichnet, daß das System als mindestens entweder eine Navigationsvorrichtung (1) oder eine tragbare Informationsendstelleneinheit (3) aufgebaut ist.
11. System nach einem der Ansprüche 1 bis 10, dadurch ge­ kennzeichnet, daß die Spracheinteilungsangabeeinrich­ tung das Bestimmen der Übereinstimmung mehrere Male wiederholt und eine ursprüngliche Ausgabebetriebsart aufrechterhält, wenn keine Übereinstimmung nach den mehreren Malen bestimmt wird.
12. System nach Anspruch 6, dadurch gekennzeichnet, daß die Speichereinrichtung eine Mehrzahl von Sprachwör­ terbüchern speichert, welche die Erkennungszielwörter in unterschiedlichen Idiomen beinhalten.
13. System nach Anspruch 12, dadurch gekennzeichnet, daß die Spracheinteilungsangabeeinrichtung eines der ge­ speicherten Wörter als das Erkennungszielwort verwen­ det.
14. Verfahren zum Steuern eines Informationsverarbei­ tungssystems (1, 3), das eine Spracheingabeeinheit (22, 22a), eine Speichereinheit (30 bis 35) und eine Informationsausgabeeinheit (21, 22a, 40, 40a) auf­ weist, wobei das Verfahren die folgenden Schritte aufweist:
Ansteuern (S110, S200, S240, S280, S400) der Informa­ tionsausgabeeinheit, um eine Anfrage zu einem Benut­ zer auszugeben, welche eine Eingabe von Sprache an­ fordert;
Bestimmen (S120, S140, S160, S220, S260, S300, S420, S440) eines Typs der Spracheingabe von dem Benutzer unter Bezugnahme auf eine Mehrzahl von Sprachtypen, die in der Speichereinheit gespeichert sind;
Einstellen (S130, S150, S170, S230, S270, S310, S430, S450, S460) einer Ausgabebetriebsart von Information aus der Informationsausgabeeinheit entsprechend des bestimmten Typs einer Spracheingabe; und
Ansteuern der Informationsausgabeeinheit, um eine In­ formation in der eingestellten Ausgabebetriebsart auszugeben.
15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, daß die Ansteuerschritte jeweilige Schritte zum An­ zeigen der Anfrage und der Information auf einem An­ zeigefeld der Informationsausgabeeinheit beinhalten.
16. Verfahren nach Anspruch 14 oder 15, dadurch gekenn­ zeichnet, daß:
die Mehrzahl von Sprachtypen unterschiedliche Idiome sind; und
der Einstellschritt die Ausgabebetriebsart der Infor­ mationsausgabeeinheit auf ein gleiches Idiom wie das Idiom Spracheingabe von dem Benutzer einstellt.
DE10045020A 1999-09-16 2000-09-12 System und Verfahren, die imstande sind, eine Informationsausgabebetriebsart automatisch umzuschalten Ceased DE10045020A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26230199A JP4292646B2 (ja) 1999-09-16 1999-09-16 ユーザインタフェース装置、ナビゲーションシステム、情報処理装置及び記録媒体

Publications (1)

Publication Number Publication Date
DE10045020A1 true DE10045020A1 (de) 2001-05-03

Family

ID=17373893

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10045020A Ceased DE10045020A1 (de) 1999-09-16 2000-09-12 System und Verfahren, die imstande sind, eine Informationsausgabebetriebsart automatisch umzuschalten

Country Status (3)

Country Link
US (1) US6243675B1 (de)
JP (1) JP4292646B2 (de)
DE (1) DE10045020A1 (de)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10061696A1 (de) * 2000-12-12 2002-06-27 Bernhard Lehmeier Fahrzeug-Navigationssystem
US8112276B2 (en) 2005-12-14 2012-02-07 Mitsubishi Electric Corporation Voice recognition apparatus
WO2012099788A1 (en) * 2011-01-21 2012-07-26 Google Inc. Speech recognition using device docking context
US8352246B1 (en) 2010-12-30 2013-01-08 Google Inc. Adjusting language models
US8751217B2 (en) 2009-12-23 2014-06-10 Google Inc. Multi-modal input on an electronic device
US9412365B2 (en) 2014-03-24 2016-08-09 Google Inc. Enhanced maximum entropy models
EP1902906B1 (de) * 2006-09-22 2017-07-26 Harman Becker Automotive Systems GmbH Hinzufügbares Modul zum externen Steuern eines Sprachdialogsystems
US9842592B2 (en) 2014-02-12 2017-12-12 Google Inc. Language models using non-linguistic context
US9978367B2 (en) 2016-03-16 2018-05-22 Google Llc Determining dialog states for language models
DE10324425B4 (de) 2003-05-30 2018-10-18 Robert Bosch Gmbh Verfahren zur Aufbereitung akustischer Fahranweisungen sowie Navigationsendgerät hierzu
US10134394B2 (en) 2015-03-20 2018-11-20 Google Llc Speech recognition using log-linear model
US10311860B2 (en) 2017-02-14 2019-06-04 Google Llc Language model biasing system
DE102007011039B4 (de) * 2007-03-07 2019-08-29 Man Truck & Bus Ag Freisprecheinrichtung in einem Kraftfahrzeug
US10832664B2 (en) 2016-08-19 2020-11-10 Google Llc Automated speech recognition using language models that selectively use domain-specific model components
US11416214B2 (en) 2009-12-23 2022-08-16 Google Llc Multi-modal input on an electronic device

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4200607B2 (ja) * 1999-09-03 2008-12-24 ソニー株式会社 情報処理装置および方法、並びにプログラム格納媒体
US7349843B1 (en) * 2000-01-18 2008-03-25 Rockwell Electronic Commercial Corp. Automatic call distributor with language based routing system and method
JP3908437B2 (ja) * 2000-04-14 2007-04-25 アルパイン株式会社 ナビゲーションシステム
WO2002010900A2 (en) * 2000-07-28 2002-02-07 Siemens Automotive Corporation User interface for telematics systems
US7013260B2 (en) * 2001-01-30 2006-03-14 Sysmex Corporation Display device and sample analysis device equipped with the display device
JP4626089B2 (ja) * 2001-05-21 2011-02-02 三菱電機株式会社 個人適応型装置及び情報配信機器
JP4084550B2 (ja) * 2001-07-05 2008-04-30 アルパイン株式会社 ナビゲーション装置
US7949513B2 (en) * 2002-01-22 2011-05-24 Zi Corporation Of Canada, Inc. Language module and method for use with text processing devices
JP2004037721A (ja) * 2002-07-02 2004-02-05 Pioneer Electronic Corp 音声応答システム、音声応答プログラム及びそのための記憶媒体
US7418095B2 (en) * 2003-03-06 2008-08-26 At&T Knowledge Ventures, L.P. System and method for providing caller activities while in queue
US8090402B1 (en) 2003-09-26 2012-01-03 Iwao Fujisaki Communication device
JP2005283531A (ja) * 2004-03-31 2005-10-13 Equos Research Co Ltd 車載装置及びデータ作成装置
US7742923B2 (en) * 2004-09-24 2010-06-22 Microsoft Corporation Graphic user interface schemes for supporting speech recognition input systems
JP2006111134A (ja) * 2004-10-14 2006-04-27 Pioneer Electronic Corp 挙動案内装置、その方法、そのプログラム、および、そのプログラムを記録した記録媒体
TW200638294A (en) * 2005-04-22 2006-11-01 Mitac Int Corp Navigation system and method capable of switching to multinational language operating interface
KR100678201B1 (ko) * 2005-04-25 2007-02-02 삼성전자주식회사 휴대단말기에서 메인언어를 설정하는 방법
JP4804052B2 (ja) * 2005-07-08 2011-10-26 アルパイン株式会社 音声認識装置、音声認識装置を備えたナビゲーション装置及び音声認識装置の音声認識方法
US8719034B2 (en) 2005-09-13 2014-05-06 Nuance Communications, Inc. Displaying speech command input state information in a multimodal browser
SG133419A1 (en) * 2005-12-12 2007-07-30 Creative Tech Ltd A method and apparatus for accessing a digital file from a collection of digital files
EP1801709A1 (de) * 2005-12-23 2007-06-27 Harman Becker Automotive Systems GmbH Sprachgenerierungssystem
JP2007193166A (ja) * 2006-01-20 2007-08-02 Kenwood Corp 対話装置、対話方法及びプログラム
JP4997796B2 (ja) * 2006-03-13 2012-08-08 株式会社デンソー 音声認識装置、及びナビゲーションシステム
US20080003551A1 (en) * 2006-05-16 2008-01-03 University Of Southern California Teaching Language Through Interactive Translation
US8706471B2 (en) * 2006-05-18 2014-04-22 University Of Southern California Communication system using mixed translating while in multilingual communication
US8032355B2 (en) * 2006-05-22 2011-10-04 University Of Southern California Socially cognizant translation by detecting and transforming elements of politeness and respect
US8032356B2 (en) * 2006-05-25 2011-10-04 University Of Southern California Spoken translation system using meta information strings
CN101097138B (zh) * 2006-06-30 2010-09-22 佛山市顺德区顺达电脑厂有限公司 一种实时切换语言的导航系统及其方法
US7873517B2 (en) 2006-11-09 2011-01-18 Volkswagen Of America, Inc. Motor vehicle with a speech interface
US20080167807A1 (en) * 2007-01-09 2008-07-10 Jien-Yang Chang Navigation system with immediate language transform and method thereof
JP2008170210A (ja) * 2007-01-10 2008-07-24 Pioneer Electronic Corp ナビゲーション装置、その方法、そのプログラム及びその記録媒体
US20080177529A1 (en) * 2007-01-24 2008-07-24 Kristi Roberts Voice-over device and method of use
JP4985068B2 (ja) * 2007-04-11 2012-07-25 トヨタ自動車株式会社 名称表示装置
US20090171665A1 (en) * 2007-12-28 2009-07-02 Garmin Ltd. Method and apparatus for creating and modifying navigation voice syntax
US8099289B2 (en) * 2008-02-13 2012-01-17 Sensory, Inc. Voice interface and search for electronic devices including bluetooth headsets and remote systems
JP4873497B2 (ja) * 2008-07-30 2012-02-08 株式会社モリタ製作所 医療用実習装置
US9323854B2 (en) * 2008-12-19 2016-04-26 Intel Corporation Method, apparatus and system for location assisted translation
JP5535676B2 (ja) * 2010-02-15 2014-07-02 アルパイン株式会社 ナビゲーション装置
JP5423535B2 (ja) * 2010-03-31 2014-02-19 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置及びナビゲーション方法
US8600732B2 (en) * 2010-11-08 2013-12-03 Sling Media Pvt Ltd Translating programming content to match received voice command language
JP5250066B2 (ja) * 2011-03-04 2013-07-31 東芝テック株式会社 情報処理装置およびプログラム
JP2012185303A (ja) * 2011-03-04 2012-09-27 Toshiba Tec Corp 情報処理装置およびプログラム
JP2013069060A (ja) * 2011-09-21 2013-04-18 Toshiba Corp 自動改札装置および改札方法
US9256396B2 (en) * 2011-10-10 2016-02-09 Microsoft Technology Licensing, Llc Speech recognition for context switching
JP2015087649A (ja) * 2013-10-31 2015-05-07 シャープ株式会社 発話制御装置、方法、発話システム、プログラム、及び発話装置
KR102188090B1 (ko) * 2013-12-11 2020-12-04 엘지전자 주식회사 스마트 가전제품, 그 작동방법 및 스마트 가전제품을 이용한 음성인식 시스템
CN104978015B (zh) * 2014-04-14 2018-09-18 博世汽车部件(苏州)有限公司 具有语种自适用功能的导航系统及其控制方法
US9536521B2 (en) * 2014-06-30 2017-01-03 Xerox Corporation Voice recognition
CN107796415B (zh) * 2016-09-07 2022-11-18 阿尔派株式会社 导航装置及其显示控制方法
US10229678B2 (en) * 2016-10-14 2019-03-12 Microsoft Technology Licensing, Llc Device-described natural language control
DE102017200976B4 (de) 2017-01-23 2018-08-23 Audi Ag Verfahren zum Betreiben eines Kraftfahrzeugs mit einer Bedienvorrichtung
JP6522679B2 (ja) * 2017-03-13 2019-05-29 シャープ株式会社 発話制御装置、方法、発話システム、及びプログラム
WO2018167960A1 (ja) * 2017-03-17 2018-09-20 ヤマハ株式会社 音声処理装置、音声処理システム、音声処理方法、および音声処理プログラム
JP2019066731A (ja) * 2017-10-03 2019-04-25 東芝ライフスタイル株式会社 制御システム
CN108882032A (zh) * 2018-06-08 2018-11-23 百度在线网络技术(北京)有限公司 用于输出信息的方法和装置
JP7199872B2 (ja) * 2018-08-10 2023-01-06 ナブテスコ株式会社 多言語音声案内装置および多言語音声案内方法
JP7117970B2 (ja) * 2018-10-17 2022-08-15 株式会社日立ビルシステム 案内ロボットシステム及び案内方法
JP7133149B2 (ja) * 2018-11-27 2022-09-08 トヨタ自動車株式会社 自動運転装置、カーナビゲーション装置及び運転支援システム
JP7379872B2 (ja) * 2019-06-04 2023-11-15 コニカミノルタ株式会社 画像形成システム、画像形成装置、画像形成装置の制御プログラム、および画像形成装置の制御方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5720043A (en) 1980-07-10 1982-02-02 Matsushita Electric Ind Co Ltd Looped optical fiber transmitter
US4884972A (en) * 1986-11-26 1989-12-05 Bright Star Technology, Inc. Speech synchronized animation
JPH01138594A (ja) 1987-11-25 1989-05-31 Nec Corp 多言語音声応答装置
JP2699626B2 (ja) 1990-08-22 1998-01-19 ソニー株式会社 音声対話型カーナビゲーションシステム
US5890122A (en) * 1993-02-08 1999-03-30 Microsoft Corporation Voice-controlled computer simulateously displaying application menu and list of available commands
JPH0720894A (ja) 1993-06-17 1995-01-24 Sony Corp 音声情報処理装置
DE69427083T2 (de) 1993-07-13 2001-12-06 Theodore Austin Bordeaux Spracherkennungssystem für mehrere sprachen
JPH08193837A (ja) 1995-01-20 1996-07-30 Sony Corp ナビゲーションシステム
US5855000A (en) * 1995-09-08 1998-12-29 Carnegie Mellon University Method and apparatus for correcting and repairing machine-transcribed input using independent or cross-modal secondary input
JPH10143191A (ja) 1996-11-13 1998-05-29 Hitachi Ltd 音声認識システム
JPH117296A (ja) 1997-06-18 1999-01-12 Oputoromu:Kk 電子回路を有する記憶媒体と該記憶媒体を有する音声合成装置
JPH11112665A (ja) 1997-09-30 1999-04-23 Meidensha Corp 携帯電話システム

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10061696A1 (de) * 2000-12-12 2002-06-27 Bernhard Lehmeier Fahrzeug-Navigationssystem
DE10324425B4 (de) 2003-05-30 2018-10-18 Robert Bosch Gmbh Verfahren zur Aufbereitung akustischer Fahranweisungen sowie Navigationsendgerät hierzu
US8112276B2 (en) 2005-12-14 2012-02-07 Mitsubishi Electric Corporation Voice recognition apparatus
EP1902906B1 (de) * 2006-09-22 2017-07-26 Harman Becker Automotive Systems GmbH Hinzufügbares Modul zum externen Steuern eines Sprachdialogsystems
DE102007011039B4 (de) * 2007-03-07 2019-08-29 Man Truck & Bus Ag Freisprecheinrichtung in einem Kraftfahrzeug
US10713010B2 (en) 2009-12-23 2020-07-14 Google Llc Multi-modal input on an electronic device
US8751217B2 (en) 2009-12-23 2014-06-10 Google Inc. Multi-modal input on an electronic device
US9031830B2 (en) 2009-12-23 2015-05-12 Google Inc. Multi-modal input on an electronic device
US9047870B2 (en) 2009-12-23 2015-06-02 Google Inc. Context based language model selection
US9251791B2 (en) 2009-12-23 2016-02-02 Google Inc. Multi-modal input on an electronic device
US11914925B2 (en) 2009-12-23 2024-02-27 Google Llc Multi-modal input on an electronic device
US9495127B2 (en) 2009-12-23 2016-11-15 Google Inc. Language model selection for speech-to-text conversion
US11416214B2 (en) 2009-12-23 2022-08-16 Google Llc Multi-modal input on an electronic device
US10157040B2 (en) 2009-12-23 2018-12-18 Google Llc Multi-modal input on an electronic device
US8352246B1 (en) 2010-12-30 2013-01-08 Google Inc. Adjusting language models
US9076445B1 (en) 2010-12-30 2015-07-07 Google Inc. Adjusting language models using context information
US9542945B2 (en) 2010-12-30 2017-01-10 Google Inc. Adjusting language models based on topics identified using context
US8352245B1 (en) 2010-12-30 2013-01-08 Google Inc. Adjusting language models
WO2012099788A1 (en) * 2011-01-21 2012-07-26 Google Inc. Speech recognition using device docking context
US8296142B2 (en) 2011-01-21 2012-10-23 Google Inc. Speech recognition using dock context
US8396709B2 (en) 2011-01-21 2013-03-12 Google Inc. Speech recognition using device docking context
US9842592B2 (en) 2014-02-12 2017-12-12 Google Inc. Language models using non-linguistic context
US9412365B2 (en) 2014-03-24 2016-08-09 Google Inc. Enhanced maximum entropy models
US10134394B2 (en) 2015-03-20 2018-11-20 Google Llc Speech recognition using log-linear model
US9978367B2 (en) 2016-03-16 2018-05-22 Google Llc Determining dialog states for language models
US10553214B2 (en) 2016-03-16 2020-02-04 Google Llc Determining dialog states for language models
US10832664B2 (en) 2016-08-19 2020-11-10 Google Llc Automated speech recognition using language models that selectively use domain-specific model components
US11557289B2 (en) 2016-08-19 2023-01-17 Google Llc Language models using domain-specific model components
US11875789B2 (en) 2016-08-19 2024-01-16 Google Llc Language models using domain-specific model components
US11037551B2 (en) 2017-02-14 2021-06-15 Google Llc Language model biasing system
US11682383B2 (en) 2017-02-14 2023-06-20 Google Llc Language model biasing system
US10311860B2 (en) 2017-02-14 2019-06-04 Google Llc Language model biasing system

Also Published As

Publication number Publication date
US6243675B1 (en) 2001-06-05
JP2001083991A (ja) 2001-03-30
JP4292646B2 (ja) 2009-07-08

Similar Documents

Publication Publication Date Title
DE10045020A1 (de) System und Verfahren, die imstande sind, eine Informationsausgabebetriebsart automatisch umzuschalten
DE602004012071T2 (de) Multimedia- und textnachrichten mit sprache-zu-text-hilfe
DE69837064T2 (de) Nachrichtenverarbeitungssystem und Verfahren für die Verarbeitung von Nachrichten
DE102005060072B4 (de) Verfahren und Vorrichtung zum Verwalten von Benutzer-Nametags für ein Fahrzeugkommunikationssystem
EP0540570B1 (de) Verfahren zur durchführung eines variablen dialogs mit technischen geräten
DE10147341B4 (de) Verfahren und Vorrichtung zum Aufbau einer in einem Computersystem implementierten Dialogsteuerung aus Dialogobjekten sowie zugehöriges Computersystem zur Durchführung einer Dialogsteuerung
DE112014006614B4 (de) Benutzerschnittstellensystem, Benutzerschnittstellensteuereinrichtung, Benutzerschnittstellensteuerverfahren und Benutzerschnittstellensteuerprogramm
DE112014002747T5 (de) Vorrichtung, Verfahren und grafische Benutzerschnittstelle zum Ermöglichen einer Konversationspersistenz über zwei oder mehr Instanzen eines digitalen Assistenten
DE112016004863T5 (de) Parametersammlung und automatische Dialogerzeugung in Dialogsystemen
DE102014109122A1 (de) Systeme und Verfahren für ergebnisbezogene Arbitrierung in Sprachdialogsystemen
EP1071075B1 (de) Verfahren und Vorrichtung zur Eingabe von Daten
DE102016125812A1 (de) Erlernen von Aussprachen einer personalisierten Entität
DE10330274A1 (de) Sprachgesteuertes System
DE19548354A1 (de) Verfahren und Vorrichtung zur persönlichen Attributauswahl die eine Verzögerungsverwaltung aufweist
DE112010002363T5 (de) Verfahren und system zur ausführung einer internet-funkanwendung in einem fahrzeug
EP1123842A2 (de) Fahrerassistenzsystem und Verfahren zur Steuerung von einer Informationsdarstellung, von Kommunikationsmitteln und von einer Aktorik in einem Fahrzeug
EP1867953A2 (de) Modulare Navigationseinrichtung für Media Player
DE10008226C2 (de) Vorrichtung zur Sprachsteuerung und Verfahren zur Sprachsteuerung
DE60216013T2 (de) Navigationssystem
EP1041362A2 (de) Eingabeverfahren in ein Fahrerinformationssystem
DE10328200B4 (de) Navigationsgerät für ein Kraftfahrzeug
DE10123823A1 (de) System und Verfahren zur parallelen Darbietung von mehreren Audioinformationsquellen
DE102008061097A1 (de) Automatisierte Auswahl von Computer-Optionen
DE102009030263A1 (de) Bedienverfahren für ein menübasiertes Bedien- und Informationssystem eines Fahrzeugs
WO2008052823A1 (de) Verfahren zur auswahl eines fahrziels

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
R016 Response to examination communication
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final