DE10045020A1 - System und Verfahren, die imstande sind, eine Informationsausgabebetriebsart automatisch umzuschalten - Google Patents
System und Verfahren, die imstande sind, eine Informationsausgabebetriebsart automatisch umzuschaltenInfo
- Publication number
- DE10045020A1 DE10045020A1 DE10045020A DE10045020A DE10045020A1 DE 10045020 A1 DE10045020 A1 DE 10045020A1 DE 10045020 A DE10045020 A DE 10045020A DE 10045020 A DE10045020 A DE 10045020A DE 10045020 A1 DE10045020 A1 DE 10045020A1
- Authority
- DE
- Germany
- Prior art keywords
- language
- division
- user
- voice
- information output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/263—Language identification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/58—Details of telephonic subscriber devices including a multilanguage function
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Navigation (AREA)
Abstract
In einem Informationsverarbeitungssystem, wie zum Beispiel einem Navigationssystem oder einer tragbaren Informationsendstelleneinheit, wird eine Informationsausgabebetriebsart einer Anzeigeeinheit zu einem Benutzer zu einer Mehrzahl von Ausgabebetriebsarten umgeschaltet. Das Navigationssystem schaltet das zu verwendende Idiom für eine Informationsausgabe zu irgendeiner von Japanisch, Englisch und Deutsch um. Nicht die eingegebene Sprache selbst wird als eine Anweisung verwendet, sondern ob die eingegebene Sprache Japanisch, Englisch oder Deutsch ist, wird bestimmt. Das für eine Informationsausgabe zu verwendende Idiom wird abhängig von dem Bestimmungsergebnis umgeschaltet.
Description
Die vorliegende Erfindung betrifft ein System und ein
Verfahren zum Verwirklichen einer reibungslosen Informa
tionsübermittlung zwischen einer Informationsvorrichtung,
wie zum Beispiel einem Navigationssystem, und Benutzern.
In letzter Zeit sind zum Beispiel viele fahrzeugsei
tige Navigationssysteme mit einer hochentwickelten Benut
zerschnittstelle geschaffen worden. Eine Benutzerschnitt
stelle ist im wesentlichen für eine reibungslose Informa
tionsausgabe von einem System zu einem Benutzer und eine
reibungslose Informationseingabe von einem Benutzer in
das System erforderlich. Die Informationsausgabe beinhal
tet zusätzlich zu einem Anzeigen unter Verwendung einer
Anzeige eine Ausgabe von Sprache, wie zum Beispiel syn
thetisierter Sprache. Die Informationseingabe beinhaltet
zusätzlich zu einer Schalterbetätigung eine Spracheingabe
auf der Grundlage eines Spracherkennungsverfahrens.
Weiterhin sind jüngst Navigationssysteme vorgeschla
gen und verwirklicht worden, die mit einer Benutzer
schnittstelle ausgestattet sind, die hinsichtlich einer
Informationsausgabebetriebsart umschaltbar ist, wie es
von einem Benutzer gewünscht wird. Zum Beispiel ist das
Navigationssystem, das zum Beispiel in der JP-A-8-193 837
offenbart ist, zwischen Idiomen (zum Beispiel Japanisch,
Englisch und Französisch) und Dialekten (Dialekt von
Osaka, Dialekt von Nagoya und Dialekt von Tohoku) um
schaltbar. Dadurch kann ein Japanisch sprechender Benut
zer eine Informationsausgabe mittels der japanischen
Sprache verwenden und können in Osaka ortsansässige Leute
eine Informationsausgabe mittels des Dialekts von Osaka
verwenden. Daher ist eine geeignete Informationsausgabe
verwirklicht worden, die den Bedürfnissen eines Benutzers
entspricht.
Jedoch ist es in dem Fall des herkömmlichen Naviga
tionssystems erforderlich, daß einem Benutzer zum Bei
spiel einen Menüschirm angezeigt wird und dieser einen
erwünschten Menüpunkt auf der Anzeige auf dem Menüschirm
auswählt, wenn die Informationsausgabebetriebsart umzu
schalten ist. Deshalb kann die Ausgabebetriebsart solange
nicht umgeschaltet werden, bis der Benutzer weiß, wie die
Informationsausgabebetriebsart umzuschalten ist, obgleich
die Struktur insbesondere hinsichtlich der Informations
ausgabebetriebsart umschaltbar ist. Weiterhin kann der
Benutzer auch dann, wenn ein englisches Menü als Reaktion
auf die Auswahl der englischen Sprache angezeigt wird,
lediglich von dem englischen Menü zu zum Beispiel einem
japanischen Menü oder einem deutschen Menü umschalten,
wie es von dem Benutzer gewünscht wird, wenn der Benutzer
das englische Menü verstehen kann.
Alternativ kann die Ausgabebetriebsart unter Verwen
dung einer Sprachanweisung umgeschaltet werden. In diesem
Fall ist es erforderlich, daß sich der Benutzer im voraus
an eine festgelegte Sprachanweisung zum Umschalten erin
nert. In einem System, in welchem die Ausgabebetriebsart
mittels der Sprachanweisung "Schalte zu Dialekt von Osaka
um" zu dem Dialekt von Osaka umgeschaltet wird, kann die
Ausgabebetriebsart nicht mit einer Spracheingabe, die
nicht genau die gleiche Sprache wie "Schalte zu Dialekt
von Osaka um" ist, wie zum Beispiel "Ich möchte zu dem
Dialakt von Osaka umschalten" oder "Setze Dialekt von
Osaka", umgeschaltet werden.
Die vorliegende Erfindung ist geschaffen worden, um
das vorhergehende Problem zu lösen. Es ist eine Aufgabe
der vorliegenden Erfindung, einen automatischen Umschalt
vorgang hinsichtlich einer Informationsausgabebetriebsart
zu verwirklichen, die für einen Benutzer annehmbar ist,
der wünscht, bei einer Informationsausgabeverarbeitung zu
Benutzern zwischen einer Mehrzahl von Informationsausga
bebetriebsarten umzuschalten.
Diese Aufgabe wird mit den in Anspruch 1 und 14 ange
gebenen Maßnahmen gelöst.
Weitere vorteilhafte Ausgestaltungen der vorliegenden
Erfindung sind Gegenstand der abhängigen Ansprüche.
Gemäß der vorliegenden Erfindung weist ein Informa
tionsverarbeitungssystem eine Spracheingabeeinheit, eine
Speichereinheit, eine Informationsausgabeeinheit und eine
Steuereinheit auf. Die Steuereinheit ist derart program
miert, daß sie die Informationsausgabeeinheit derart an
steuert, daß diese eine Anfrage ausgibt, welche eine
Spracheingabe von einem Benutzer anfordert, daß sie einen
Typ der von dem Benutzer eingegebenen Spracheingabe unter
Bezugnahme auf eine Mehrzahl von Sprachtypen bestimmt,
die in der Speichereinheit gespeichert sind, daß sie eine
Informationsausgabebetriebsart aus der Informationsausga
beeinheit entsprechend dem bestimmten Sprachtyp der
Spracheingabe einstellt und daß sie die Informationsaus
gabeeinheit derart ansteuert, daß diese in der einge
stellten Ausgabebetriebsart eine Information ausgibt.
Vorzugsweise werden die Anfrage und die Information
auf einem Anzeigefeld der Informationsausgabeeinheit an
gezeigt. Die Mehrzahl von Sprachtypen sind unterschied
liche Idiome und der Einstellschritt stellt die Ausgabe
betriebsart der Informationsausgabeeinheit auf ein Idiom
ein, das gleich dem Idiom der Spracheingabe durch den Be
nutzer ist.
Die vorliegende Erfindung wird nachstehend anhand von
Ausführungsbeispielen unter Bezugnahme auf die beilie
gende Zeichnung näher erläutert.
Es zeigen:
Fig. 1 ein Blockschaltbild eines Navigations
systems gemäß ersten und zweiten Aus
führungsbeispielen der vorliegenden Er
findung;
Fig. 2 ein Blockschaltbild eines Sprachsteuer
teils des in Fig. 1 gezeigten Systems;
Fig. 3 ein Flußdiagramm einer Idiomeinstell
routine des ersten Ausführungsbeispiels
der vorliegenden Erfindung;
Fig. 4 eine erläuternde Darstellung eines in
einer Schirmanzeigeverarbeitung in der
Idiomeinstellroutine des ersten Ausfüh
rungsbeispiels der vorliegenden Erfin
dung angezeigten beispielhaften
Schirms;
Fig. 5 ein Flußdiagramm einer Idiomeinstell
routine des zweiten Ausführungsbei
spiels der vorliegenden Erfindung;
Fig. 6 ein Blockschaltbild einer tragbaren In
formationsendstelleneinheit gemäß einem
dritten Ausführungsbeispiel der vorlie
genden Erfindung;
Fig. 7 eine erläuternde Darstellung eines
Hauptmenü-Anzeigeschirms der in Fig. 6
gezeigten tragbaren Informationsend
stelleneinheit;
Fig. 8 ein Flußdiagramm einer Ausgabebetriebs
art-Einstellroutine des dritten Ausfüh
rungsbeispiels der vorliegenden Erfin
dung;
Fig. 9 eine erläuternde Darstellung eines in
der Schirmanzeigeverarbeitung in der
Ausgabebetriebsart-Einstellroutine an
gezeigten Schirms; und
Fig. 10A und 10B erläuternde Ansichten einer Umschalt
vorgangs der Hauptmenü-Anzeigebetriebs
art.
Die vorliegende Erfindung wird unter Bezugnahme auf
mehrere Ausführungsbeispiele detaillierter beschrieben,
in welchen gleiche oder ähnliche Teile mit gleichen oder
ähnlichen Bezugszeichen bezeichnet sind.
Nachstehend erfolgt die Beschreibung eines ersten
Ausführungsbeispiels der vorliegenden Erfindung.
Es wird auf Fig. 1 verwiesen. Ein Navigationssystem 1
weist eine zentrale Steuereinheit 10 auf und ist mit ei
ner Spracheingabe/ausgabe-Steuereinheit 20, einem Sprach
wörterbuchspeicher 30, einer Anzeigeeinheit 40, einer Po
sitionserfassungseinheit 50, einer Kartendaten-Eingabe
einheit 60, einer Betätigungsschaltergruppe 70 und einem
Fernsteuersensor 80 ausgestattet, die mit der zentralen
Steuereinheit 10 verbunden sind. Die zentrale Steuerein
heit 10 ist mit einer CPU bzw. einer zentralen Verarbei
tungseinheit, einem ROM bzw. einem Nur-Lese-Speicher, ei
nem RAM bzw. einem Direktzugriffsspeicher, einer I/O bzw.
einer Ein/Ausgabeschnittstelle und einer Busleitung zum
Verbinden dieser Komponenten ausgestattet. Die zentrale
Steuereinheit 10 ist mit einer Sprachsteuereinheit 11 zum
Steuern der Sprache ausgestattet.
Die Spracheingabe/ausgabe-Steuereinheit 20 ist mit
der Sprachsteuereinheit 11 verbunden und ist mit einer
Sprachausgabe-Steuereinheit 21 und einer Spracheingabe-
Steuereinheit 22 ausgestattet. Ein Lautsprecher 21a ist
mit der Sprachausgabe-Steuereinheit 21 verbunden und die
Sprache wird von dem Lautsprecher 21a mittels der Sprach
ausgabe-Steuereinheit 21 auf der Grundlage von Anweisun
gen erzeugt, die von der Sprachsteuereinheit 11 zugeführt
werden. Die Sprachausgabe-Steuereinheit 21, die einen
Verstärker oder dergleichen aufweist, verstärkt das
Sprachsignal und sendet es aus. Die Sprache kann synthe
tisierte Sprache oder natürliche Sprache sein, die in dem
Sprachwörterbuchspeicher 30 gespeichert ist. Andererseits
ist die Spracheingabe-Steuereinheit 22, die eine Filter
schaltung oder dergleichen aufweist, mit einem Mikrofon
22a verbunden. Die Spracheingabe-Steuereinheit 22 ent
fernt Rauschen, das andere Frequenzen als die einer
Spracheingabe eines Benutzers aufweist, die von dem Mi
krofon 22a zugeführt wird, und führt diese dann der
Sprachsteuereinheit 11 zu.
Ein Wörterbuch, das Wörter speichert, die zu einer
Spracherkennung verwendet werden, ist in dem Sprachwör
terbuchspeicher 30 gespeichert. In Fig. 1 sind ein Japa
nisch-Wörterbuch 31, ein Englisch-Wörterbuch 32 und ein
Deutsch-Wörterbuch 33 gespeichert, in welchen Erkennungs
zielwörter zur Spracherkennung gespeichert sind. Das Er
kennungszielwort zur Spracherkennung beinhaltet die
Sprachanweisung zum Betreiben des Navigationssystems 1.
Wörter, die in diesen Wörterbüchern 31 bis 33 gespeichert
sind, entsprechen einem Spracheinteilungsangabewort für
eine Idiomeinstellverarbeitung.
Die Anzeigeeinheit 40 weist ein Farbanzeigefeld auf,
das eine LCD oder dergleichen verwendet. Die Information
wird einem Benutzer mittels der Anzeigeeinheit 40 ange
zeigt.
Die Positionserfassungseinheit 50 ist mit einem Erd
magnetismussensor 51, einem Kreiselkompaß 52, einem Ab
standssensor 53 und einem GPS-Empfänger 54 für ein GPS
bzw. Globalpositionierungssystem ausgestattet, das die
Position eines Fahrzeugs auf der Grundlage von elektroma
gnetischen Wellensignalen von Satelliten erfaßt.
Da diese Sensoren 51, 52, 53 und 54 einige Fehler
einbringen, die in der Natur jeweils unterschiedlich
sind, ist die Positionserfassungseinheit 50 derart aufge
baut, daß sich mehrere dieser Sensoren während einer Ver
wendung gegenseitig ergänzen. Die Positionserfassungsein
heit 50 kann abhängig von der Genauigkeit unter Verwen
dung von einigen dieser Komponenten aufgebaut sein und
weiterhin können ein Lenkungsdrehsensor oder ein Radsen
sor oder dergleichen verwendet werden.
Die Kartendaten-Eingabeeinheit 60 ist eine Vorrich
tung zum Zuführen von verschiedenen Daten, die Kartenab
gleichsdaten, Kartendaten oder dergleichen zum Verbessern
der Genauigkeit einer Positionserfassung beinhalten. Im
allgemeinen wird eine CD-ROM als ein Speichermedium ver
wendet, aber ein anderes Medium, wie zum Beispiel eine
DVD, eine Speicherkarte oder dergleichen, kann als das
Speichermedium verwendet werden.
Die Betätigungsschaltergruppe 70 weist zum Beispiel
Berührungsschalter, mechanische Schalter oder dergleichen
auf, die in der Anzeigeeinheit 40 enthalten sind und für
verschiedene Eingaben verwendet werden.
Der Fernsteuersensor 80 erfaßt die Betätigungsinfor
mation eines Benutzers mittels eines Fernsteuerendgeräts
(einer Fernsteuervorrichtung) 80a. Die Steuereinheit 10,
die Anzeigeeinheit 40, die Positionserfassungseinheit 50,
die Kartendaten-Eingabeeinheit 60, die Betätigungsschal
tergruppe 70 und der Fernsteuersensor 80 bilden zusammen
eine Navigationsvorrichtung.
Auf dem Schirm der Anzeigeeinheit 40 werden eine Mar
kierung einer derzeitigen Position eines Fahrzeugs, die
von der Positionserfassungseinheit 50 zugeführt wird, die
Kartendaten, die von der Kartendaten-Eingabeeinheit 60
zugeführt werden, und zusätzliche Daten, wie zum Beispiel
eine Leitstrecke, Namen und Markierungen, die auf der
Karte angezeigt werden, zusammen angezeigt. In diesem Na
vigationsssytem 1 wird, wenn eine Position eines Fahrt
ziels und eine bestimmte Strecke (Beschreibung der
Stelle, die zu passieren ist), wie zum Beispiel Autobah
nen oder dergleichen, wie es erforderlich ist, von dem
Fernsteuersensor 80 mittels der Fernsteuervorrichtung
80a, von der Betätigungsschaltergruppe 70 oder von der
Spracheingabe-Steuereinheit 22 mittels des Mikrofons 22a
eingegeben werden, eine optimale Strecke von der derzei
tigen Position zu der Zielposition automatisch ausgewählt
und wird die Leitstrecke ausgebildet und angezeigt. Als
eines dieser Verfahren zum automatischen Einstellen der
optimalen Strecke ist das Dijkstra-Verfahren bekannt ge
worden. Nachdem die Leitstrecke ausgebildet ist und ange
zeigt wird, wird eine Sprache zum Leiten entlang der
Strecke von dem Lautsprecher 21a mittels der Sprachaus
gabe-Steuereinheit 21 abhängig von der Fahrposition des
Fahrzeugs erzeugt.
Zusätzlich zu der zuvor beschriebenen Streckenleit
funktion ist das Navigationssystem 1 des ersten Ausfüh
rungsbeispiels der vorliegenden Erfindung selektiv hin
sichtlich des Idioms bzw. der Sprache, die für eine In
formationsausgabeverarbeitung verwendet wird, zwischen
der Japanisch, Englisch und Deutsch umschaltbar. Der Aus
druck "Informationsausgabeverarbeitung" meint die Infor
mationsanzeige auf der Anzeigeeinheit 40 und die
Spracherzeugung aus dem Lautsprecher 21a. Zum Beispiel
wird in dem Fall, in dem das Idiom zu Japanisch umge
schaltet wird, Japanisch nicht nur für Namen oder Ob
jekte, die auf dem Schirm der Anzeigeeinheit 40 angezeigt
werden, sondern ebenso für eine Menüanzeige verwendet,
die für die Streckenleitfunktion verwendet wird. Weiter
hin wird Japanisch ebenso für die Sprache verwendet, die
zum Leiten entlang der Strecke erzeugt wird.
Das Navigationssystem des ersten Ausführungsbeispiels
der vorliegenden Erfindung ist dadurch gekennzeichnet,
daß das zu verwendende Idiom einfach entsprechend den Be
dürfnissen eines Benutzers umschaltbar ist.
Das zu verwendende Idiom wird umgeschaltet, wie es in
Fig. 2 gezeigt ist, welche lediglich den Abschnitt aus
der in Fig. 1 gezeigten Gesamtstruktur darstellt, der
sich auf das Sprachsteuern bezieht. Für ein leichtes Ver
ständnis der Wechselbeziehung zu Fig. 1 werden die glei
chen Bezugszeichen wie in Fig. 1 verwendet.
In dem ersten Ausführungsbeispiel der vorliegenden
Erfindung wird die Spracheinteilung im voraus einge
stellt, wobei die Spracheinteilung, zu welcher die
Spracheingabe eines Benutzers gehört, welche von dem Mi
krofon 22a mittels der Spracheingabe-Steuereinheit 22 zu
geführt wird, bestimmt wird. Das Idiom wird auf der
Grundlage der bestimmten Spracheinteilung zu dem Idiom
umgeschaltet, die für die Informationseingabe/ausgabe zu
verwenden ist.
Deshalb ist die Spracheinteilung die Einteilung durch
Idiome. Um die Spracheinteilung zu bestimmen, zu welcher
die eingegebene Sprache gehört, werden die Spracheintei
lungsangabewörter, die den jeweiligen Spracheinteilungen
bzw. einer Idiomeinteilung entsprechen, im voraus gespei
chert. In dem Sprachwörterbuchspeicher 30 werden die
Spracheinteilungsangabewörter gespeichert. Wie es in Fig.
2 gezeigt ist, werden in dem Japanisch-Wörterbuch 31 des
Sprachwörterbuchspeichers 30 zum Beispiel Wörter, wie zum
Beispiel "Ohayo gozaimasu", "Konnichiwa" und "Konbanwa"
als das Spracheinteilungsangabewort gespeichert. In dem
Englisch-Wörterbuch 32 des Sprachwörterbuchspeichers 30
werden zum Beispiel Wörter wie zum Beispiel "Good
morning", "Good afternoon" und "Good evening" als das
Spracheinteilungsangabewort gespeichert. Weiterhin werden
in dem Deutsch-Wörterbuch 33 des Sprachwörterbuchspei
chers 30 zum Beispiel Wörter wie zum Beispiel "Guten Mor
gen", "Guten Tag" und "Guten Abend" als das Spracheintei
lungsangabewort gespeichert. Wörter, die Sprachanweisun
gen zum Betreiben des Navigationssystems 1 entsprechen,
sind in den jeweiligen Wörterbüchern 31 bis 33 enthalten,
wie es vorhergehend beschrieben worden ist, obgleich es
in Fig. 2 nicht gezeigt ist.
Die Sprachsteuereinheit 11 vergleicht eine eingege
bene Sprache eines Benutzers, die von dem Mikrofon mit
tels der Spracheingabe-Steuereinheit 22 zugeführt wird,
mit einem Wort, das in den Wörterbüchern 31 bis 33 des
Sprachwörterbuchspeichers 30 gespeichert ist, um die
Übereinstimmung zu bestimmen. Zum Beispiel wird, wenn die
eingegebene Sprache "Konnichiwa" ist, wie es in Fig. 2
gezeigt ist, das Idiom als Japanisch identifiziert, da
die eingegebene Sprache als identisch zu dem Wort
"Konnichiwa" identifiziert wird, das in dem Japanisch-
Wörterbuch 31 gespeichert ist. In diesem Fall wird das
Idiom, das für die Informationseingabe/ausgabe zu verwen
den ist, auf Japanisch festgelegt. Als Ergebnis erzeugt
die Sprachsteuereinheit 11 eine japanische Sprache
"Nihongo de annai shimasu" aus dem Lautsprecher 21a. Da
nach wird Japanisch für jede Sprache verwendet, die von
der Sprachausgabe-Steuereinheit 21 mittels des Lautspre
chers 21a erzeugt wird, wie zum Beispiel die Sprache für
eine Streckenleitung und eine Anzeige auf der Anzeigeein
heit 40, die in Fig. 1 gezeigt ist.
Als nächstes wird die Idiomeinstellroutine, die das
Idiomumschaltverfahren verwendet, auf Grundlage des Fluß
diagramms in Fig. 3 beschrieben. Die in Fig. 3 gezeigte
Idiomeinstellroutine wird von der Sprachsteuereinheit 11
durchgeführt und automatisch durchgeführt, wenn die Ener
gieversorgungsquelle an das Navigationssystem 1 angelegt
wird. Zum Beispiel wird in dem Fall eines fahrzeugseiti
gen Navigationssystems die Idiomeinstellroutine durchge
führt, wenn ein Motor des Fahrzeugs gestartet wird oder
wenn ein Zubehörteil eingeschaltet wird (ACC ON). Andern
falls kann die Idiomeinstellroutine in einem vorbestimm
ten Zeitintervall, wie zum Beispiel 2 Stunden, durchge
führt werden oder kann durchgeführt werden, wenn ein Be
nutzer einen Schalter betätigt.
In einem ersten Schritt S100 wird ein Anfangsschirm
auf der Anzeigeeinheit 40 angezeigt. Dieser Schritt ist
ein Schritt zum Anfordern oder Veranlassen, daß ein Be
nutzer eine Spracheingabe eingibt. Im Detail wird der An
fangsschirm, wie er in Fig. 4 beispielhaft dargestellt
ist, angezeigt. Japanisch (Konnichiwa) ", Eng
lisch "Good afternoon" und Deutsch "Guten Tag" werden auf
dem Anzeigefeld 40a der Anzeigeeinheit 40 angezeigt, wie
es in Fig. 4 gezeigt ist, um den Benutzer zu veranlassen,
irgendeines dieser Wörter zu sprechen. Obwohl ein einfa
cher Ausdruck, der leicht für den Benutzer zu lesen ist,
in Fig. 4 verwendet wird, kann andernfalls ein Ausdruck
"Nihongo de 'Konnichiwa' to ohanasi kudasai" verwendet
werden.
In einem nachfolgenden Schritt S110 werden eine
Spracheingabe und eine Spracherkennung durchgeführt. Eine
Sprache von einem Benutzer wird von der Spracheingabe-
Steuereinheit 22 mittels des Mikrofons 22a eingegeben.
Deshalb wird die eingegebene Sprache in die Sprachein
gabe-Steuereinheit 22 eingegeben und mit den Wörtern ver
glichen, die in den Wörterbüchern 31 bis 33 des Sprach
wörterbuchspeichers 30 gespeichert sind, um die Überein
stimmung zu bestimmen.
Auf der Grundlage des Spracherkennungsergebnisses
wird in einem nächsten Schritt S120 bestimmt, ob die ein
gegebene Sprache Japanisch ist oder nicht. Wenn die ein
gegebene Sprache mit dem Wort identisch ist, das in dem
Japanisch-Wörterbuchspeicher 31 gespeichert ist, wird ein
Ergebnis JA ausgegeben. Wenn die eingegebene Sprache als
Japanisch bestimmt wird (S120: JA), dann wird in einem
Schritt S130 Japanisch eingestellt und wird die Idiomein
stellroutine beendet. Andererseits schreitet, wenn die
eingegebene Sprache als Nichtjapanisch bestimmt wird
(S120: NEIN), dann die Routine zu einem Schritt S140
fort.
In dem Schritt S140 wird auf der Grundlage des Spra
cherkennungsergebnisses in dem Schritt S110 bestimmt, ob
die eingegebene Sprache Englisch ist oder nicht. Wenn die
eingegebene Sprache als identisch zu einem Wort bestimmt
wird, das in dem Englisch-Wörterbuch 32 gespeichert ist,
dann wird ein Ergebnis JA ausgegeben. Wenn die eingege
bene Sprache als Englisch bestimmt wird (S140: JA), dann
wird in einem Schritt S150 Englisch eingestellt und wird
die Idiomeinstellroutine beendet. Anderseits schreitet,
wenn die eingegebene Sprache als Nichtenglisch bestimmt
wird (S140: NEIN), dann die Routine zu einem Schritt S160
fort.
In dem Schritt S160 wird es auf der Grundlage des
Spracherkennungsergebnisses in dem Schritt S110 bestimmt,
ob die eingegebene Sprache Deutsch ist oder nicht. Wenn
die eingegebene Sprache als identisch zu einem Wort be
stimmt wird, das in dem Deutsch-Wörterbuch 33 gespeichert
ist, dann wird ein Ergebnis JA ausgegeben. Wenn die ein
gegebene Sprache als Deutsch bestimmt wird (S160: JA),
dann wird in einem Schritt S170 Deutsch eingestellt und
wird die Idiomeinstellroutine beendet. Andererseits wie
derholt, wenn die eingegebene Sprache als Nichtdeutsch
bestimmt wird (S160: NEIN), dann die Routine die Schritte
von dem Schritt S110 an.
Wenn nach einem Wiederholen der Routine von dem
Schritt S110 bis zu dem Schritt S160 ein vorbestimmtes
Mal (zum Beispiel dreimal) kein bestimmtes Idiom einge
stellt werden kann, wird die Idiomeinstellroutine beendet
und wird das Idiom, das eingestellt gewesen ist, bevor
die Routine durchgeführt worden ist, zur Informationsaus
gabe verwendet, wie sie war. In diesem Fall wird die
Idiomeinstellroutine beendet und kann eine manuelle
Idiomeinstellung, bei welcher ein Menü auf dem Schirm für
eine Auswahl eines Idioms durch einen Benutzer angezeigt
wird, der Idiomeinstellroutine folgen.
Gemäß dem Navigationssystem 1 des ersten Ausführungs
beispiels der vorliegenden Erfindung wird die eingegebene
Sprache nicht selbst als eine Anweisung verwendet, son
dern es wird auf der Grundlage der unbestimmten eingege
benen Sprache bestimmt, ob eine eingegebene Sprache Ja
panisch (S120 in Fig. 3), Englisch (S140) oder Deutsch
(S160) ist, und entsprechend dem Bestimmungsergebnis wird
das Idiom, das für eine Informationsausgabe auf der In
formationseinheit 40 verwendet wird, umgeschaltet (S130,
S150 und S170). Deshalb wird das Umschalten hinsichtlich
des Idioms, das für einen Benutzer annehmbar ist, automa
tisch ohne ein Erinnern an eine bestimmte Sprachanweisung
verwirklicht.
Weiterhin wird in dem ersten Ausführungsbeispiel der
vorliegenden Erfindung der Anfangsschirm zum Veranlassen,
daß ein Benutzer eine Spracheingabe eingibt, auf der An
zeige angezeigt (S100 in Fig. 3). Nicht mittels einer An
frage, die auf einem Schirm eines Benutzers angezeigt
wird, eine vollständig beliebige Sprache einzugeben, ver
anlaßt das Navigationssystem 1 des ersten Ausführungsbei
spiels der vorliegenden Erfindung, daß ein Benutzer ein
Spracheinteilungsangabewort spricht, das in den Wörterbü
chern 31 bis 33 gespeichert ist. Als Ergebnis ist die
eingegebene Sprache eines Benutzers auf einige Wörter be
schränkt, wird die eingegebene Sprache einfach identifi
ziert, obgleich die Anzahl von Wörtern, die in den Wör
terbüchern 31 bis 33 gespeichert sind, gering ist, und
kann die Sprache mit einer hohen Wahrscheinlichkeit rich
tig umgeschaltet werden.
Weiterhin wird, da Wörter, die Sprachanweisungen zum
Betreiben des Navigationssystems 1 entsprechen, in den
Wörterbüchern 31 bis 33 gespeichert sind, auch dann, wenn
ein Benutzer unberücksichtigt der Schirmanzeige in dem
Schritt S100 eine Sprachanweisung spricht, die Sprachein
teilung (Idiomeinteilung) bestimmt und das Idiom umge
schaltet.
Nachstehend erfolgt die Beschreibung eines zweiten
Ausführungsbeispiels der vorliegenden Erfindung.
Das zweite Ausführungsbeispiel der vorliegenden Er
findung unterscheidet sich von dem ersten Ausführungsbei
spiel der vorliegenden Erfindung hinsichtlich der Idiom
einstellroutine, die in Fig. 3 gezeigt ist. Die Idiomein
stellroutine in dem zweiten Ausführungsbeispiel der vor
liegenden Erfindung ist in einem Flußdiagramm in Fig. 5
gezeigt. Die Idiomeinstellroutine wird ebenso von der
Sprachsteuereinheit 11 durchgeführt und automatisch
durchgeführt, wenn eine Energieversorgungsquelle an das
Navigationssystem 1 angelegt wird. Zum Beispiel wird in
dem Fall eines fahrzeugseitigen Navigationssystems die
Idiomeinstellroutine automatisch durchgeführt, wenn der
Motor eines Fahrzeugs gestartet wird oder wenn ein Zube
hörteil eingeschaltet wird (ACC ON). Andernfalls kann zum
Beispiel die Idiomeinstellroutine in einem vorbestimmten
Zeitintervall, wie zum Beispiel 2 Stunden, durchgeführt
werden oder kann mittels einer Schalterbetätigung durch
einen Benutzer durchgeführt werden.
Als erstes erfolgt in einem Schritt S200 eine Anfrage
in Japanisch. Bei dieser Verarbeitung wird die Sprachaus
gabe-Steuereinheit 21 angewiesen, eine Sprachausgabe mit
tels des Lautsprechers 21a zum Veranlassen, daß ein Be
nutzer eine Spracheingabe eingibt, zu erzeugen. Im Detail
wird eine Sprache "Ohayo gozaimasu", wenn es Morgen ist,
"Konnichiwa", wenn es Nachmittag ist, oder "Konbanwa",
wenn es Abend ist, erzeugt.
Nachfolgend werden die Spracheingabe und die Sprach
erkennung in einem Schritt S210 durchgeführt. Diese Ver
arbeitung ist die gleiche wie die in dem Schritt S100,
der in Fig. 3 gezeigt ist, die in dem ersten Ausführungs
beispiel der vorliegenden Erfindung beschrieben ist. Die
eingegebene Sprache wird eingegeben und es wird bestimmt,
ob die eingegebene Sprache zu einem Wort identisch ist,
das in den Wörterbüchern 31 bis 33 des Sprachwörterbuch
speichers 30 gespeichert ist, oder nicht. Der Benutzer
spricht wahrscheinlich "Ohayo gozaimasu", "Konnichiwa"
oder "Konbanwa" als Reaktion auf die Anfrage in dem
Schritt S200. Deshalb kann die eingegebene Sprache des
Benutzers erkannt werden.
In einem nächsten Schritt S220 wird auf der Grundlage
des Spracherkennungsergebnisses bestimmt, ob die eingege
bene Sprache Japanisch ist oder nicht. Wenn die eingege
bene Sprache identisch zu dem Wort ist, das in dem Japa
nisch-Wörterbuch 31 gespeichert ist, dann wird ein Ergeb
nis JA ausgegeben. Wenn die eingegebene Sprache als eine
japanische Spracheingabe bestimmt wird (S220: JA), dann
wird in einem Schritt S230 Japanisch eingestellt und wird
die Idiomeinstellroutine beendet. Andererseits schreitet,
wenn die eingegebene Sprache als Nichtjapanisch bestimmt
wird (S220: NEIN), dann die Routine zu einem Schritt S240
fort.
In dem Schritt S240 erfolgt eine Anfrage in Englisch.
Bei dieser Verarbeitung wird die Sprachausgabe-Steuerein
heit 21 angewiesen, eine Sprachausgabe mittels des Laut
sprechers 21a zum Veranlassen, daß ein Benutzer eine
Spracheingabe wie in dem Schritt S200 eingibt, zu erzeu
gen. Im Detail wird eine Sprache "Good morning", wenn es
Morgen ist, "Good afternoon", wenn es Nachmittag ist,
oder "Good evening", wenn es Abend ist, erzeugt.
In einem nachfolgenden Schritt S250 werden die
Spracheingabe und die Spracherkennung durchgeführt. Wie
in dem Schritt S210 wird die eingegebene Sprache eingege
ben und wird die eingegebene Sprache mit Wörtern vergli
chen, die in den Wörterbüchern 31 bis 33 des Sprachwör
terbuchspeichers 30 gespeichert sind, um die Übereinstim
mung zu bestimmen. Die eingegebene Sprache des Benutzers,
die als Reaktion auf die Anfrage in dem Schritt S240 er
zeugt wird, wird erkannt.
In einem Schritt S260 wird es auf der Grundlage des
Spracherkennungsergebnisses bestimmt, ob die eingegebene
Sprache Englisch ist oder nicht. Wenn die eingegebene
Sprache zu einem Wort identisch ist, das in dem Englisch-
Wörterbuch 32 gespeichert ist, dann wird ein Ergebnis JA
ausgegeben. Wenn die eingegebene Sprache als Englisch be
stimmt wird (S260: JA), dann wird Englisch in einem
Schritt S270 eingestellt und wird die Idiomeinstellrou
tine beendet. Andererseits schreitet, wenn die eingege
bene Sprache als Nichtenglisch bestimmt wird (S260:
NEIN), dann die Routine zu einem Schritt S280 fort.
In dem Schritt S280 erfolgt eine Anfrage in Deutsch.
Bei dieser Verarbeitung wird die Sprachausgabe-Steuerein
heit 21 angewiesen, eine Sprachausgabe mittels des Laut
sprechers 21a zum Veranlassen, daß ein Benutzer eine
Spracheingabe wie in den Schritten S200 und S240 eingibt,
zu erzeugen. Im Detail wird eine Sprache "Guten Morgen",
wenn es Morgen ist, "Guten Tag", wenn es Nachmittag ist,
oder "Guten Abend", wenn es Abend ist, erzeugt.
In einem nachfolgenden Schritt S290 werden die
Spracheingabe und die Spracherkennung durchgeführt. Wie
in den Schritten S210 und S250, wird die eingegebene
Sprache eingegeben und wird die eingegebene Sprache mit
Wörtern verglichen, die in den Wörterbüchern 31 bis 33
des Sprachwörterbuchspeichers 30 gespeichert sind, um die
Übereinstimmung zu überprüfen. Die eingegebene Sprache
des Benutzers, die als Reaktion auf die Anfrage in dem
Schritt S280 erzeugt wird, wird erkannt.
In einem nächsten Schritt S300 wird es auf der Grund
lage des Spracherkennungsergebnisses bestimmt, ob die
eingegebene Sprache eine Deutsch ist oder nicht. Wenn die
eingegebene Sprache zu einem Wort identisch ist, das in
dem Deutsch-Wörterbuch 32 gespeichert ist, dann wird ein
Ergebnis JA ausgegeben. Wenn die eingegebene Sprache als
Deutsch bestimmt wird (S300: JA), dann wird in einem
Schritt S310 Deutsch eingestellt und wird die Idiomein
stellroutine beendet. Anderseits wiederholt, wenn die
eingegebene Sprache als Nichtdeutsch bestimmt wird (S300:
NEIN), dann die Routine die Schritte von S200 an.
Wenn kein bestimmtes Idiom eingestellt werden kann,
nachdem die Routine von dem Schritt S200 bis zu dem
Schritt S300 vorbestimmte Male (zum Beispiel dreimal)
wiederholt worden ist, dann wird die Idiomeinstellroutine
beendet und wird die Sprache, die eingestellt gewesen
ist, bevor die Routine durchgeführt worden ist, für eine
Informationsausgabe verwendet, wie sie war. In diesem
Fall wird andernfalls die Idiomeinstellroutine beendet
und kann die manuelle Idiomeinstellung, bei welcher ein
Menü auf dem Schirm für eine Auswahl eines Idioms durch
einen Benutzer angezeigt wird, der Idiomeinstellroutine
folgen.
In diesem Ausführungsbeispiel wird auch dann, wenn
sich ein Benutzer nicht an eine bestimmte Sprachanweisung
erinnert, ein Umschalten zu dem Idiom, das für den Benut
zer annehmbar ist, einfach verwirklicht. Da die phoneti
sche Anfrage an einen Benutzer (S200, S240 und S280 in
Fig. 5) veranlaßt, daß der Benutzer ein Spracheintei
lungsangabewort spricht, das in den Wörterbüchern 31 bis
33 gespeichert ist, ist die eingegebene Sprache des Be
nutzers mit einer hohen Wahrscheinlichkeit beschränkt,
wird die eingegebene Sprache identifiziert, obwohl die
Anzahl von Wörtern, die in den Wörterbüchern 31 bis 33
gespeichert sind, wenig ist, und wird ein Umschalten zu
einem annehmbaren Idiom mit einer hohen Wahrscheinlich
keit verwirklicht. Eine Spracheinteilung
(Idiomeinteilung) wird bestimmt, wenn ein Benutzer eine
Sprachanweisung spricht, und das Idiom wird auf die glei
che Weise, wie hier im vorhergehenden Verlauf beschrie
ben, umgeschaltet.
In dem Fall, in dem ein Benutzer die Sprache der pho
netischen Anfrage in dem zweiten Ausführungsbeispiel der
vorliegenden Erfindung nicht verstehen kann, kann der Be
nutzer still sein. Im Gegensatz dazu kann ein Benutzer in
dem Fall einer verständlichen Sprache einiges an Reaktion
(zum Beispiel "Ossu" oder "Un" in Japanisch) zurückgeben.
Deshalb wird das Idiom, das dem Wort einiger Reaktion des
Benutzers auf die phonetische Anfrage entspricht, einge
stellt und wird nach diesem Zeitpunkt dieses Idiom für
die Informationsausgabe von dem System verwendet. In die
sem Fall müssen diese Reaktionswörter im voraus in dem
Sprachwörterbuchspeicher 30 gespeichert werden.
Nachstehend erfolgt die Beschreibung eines dritten
Ausführungsbeispiels der vorliegenden Erfindung.
Das dritte Ausführungsbeispiel der vorliegenden Er
findung zeigt ein Beispiel, bei welchem die vorliegende
Erfindung an einer tragbaren Informationsendstellenein
heit 3 angewendet wird, die in Fig. 6 gezeigt ist.
Die tragbare Informationsendstelleneinheit 3 weist
die zentrale Steuereinheit 10 auf und ist mit der Sprach
eingabe/ausgabe-Steuereinheit 20, die mit der zentralen
Steuereinheit 10 verbunden ist, dem Sprachwörterbuchspei
cher 30, der Anzeigeeinheit 40, der Betätigungsschalter
gruppe 70, einer Speichereinheit 91, einer Kommunika
tionsschnittstelle (Kommunikations-I/F) 92 und einer Da
tenspeichereinheit 93 ausgestattet.
Die Struktur der Steuereinheit 10, der Sprachein
gabe/ausgabe-Steuereinheit 20, der Anzeigeeinheit 40 und
der Betätigungsschaltergruppe 70 ist die gleiche wie die
der ersten und zweiten Ausführungsbeispiele der vorlie
genden Erfindung.
Die tragbare Informationsendstelleneinheit 3 ist ähn
lich den ersten und zweiten Ausführungsbeispielen der
vorliegenden Erfindung mit dem Sprachwörterbuchspeicher
ausgestattet. Der Sprachwörterbuchspeicher 30 ist zu den
vorhergehenden Ausführungsbeispielen der vorliegenden Er
findung darin unterschiedlich, daß ein Kind-Wörterbuch 34
und ein Wörterbuch 35 für ältere Leute vorgesehen sind.
In diesen Wörterbüchern 34 und 35 sind Spracheinteilungs
angabewörter für eine Ausgabebetriebsart-Einstellverar
beitung gespeichert.
Die Speichereinheit 91 weist eine Speichereinheit,
wie zum Beispiel eine Festplatte, auf und speichert ver
schiedene Anwendungssoftware. In dem dritten Ausführungs
beispiel der vorliegenden Erfindung sind eine Textverar
beitungssoftware 91a, ein Netzbrowser 91b, eine Musikab
spielsoftware 91c, eine Filmabspielsoftware 91d und eine
Spielesoftware 91e als die Anwendungssoftware gespei
chert.
Die Kommunikations-I/F 92 ist eine Schnittstelle zum
Verbinden von Zellulartelefonen (nicht gezeigt). Der
Netzbrowser 91b wird zum Verbinden mit dem Internet unter
Verwendung der Kommunikations-I/F 92 verwendet. Ein Be
nutzer kann unter Verwendung des Netzbrowsers 91b eine e-
Mail übermitteln und das Netzsurfen genießen. Die Musik
abspielsoftware 91c und die Filmabspielsoftware 91d wer
den für den Betrieb verwendet, bei welchem die tragbare
Informationsendstelleneinheit 3 mittels der Kommunika
tions-I/F 92 mit einem vorbestimmten Center verbunden
ist, die Musikdaten oder Filmdaten, die der Benutzer
wünscht, erfaßt werden und die erfaßten Musikdaten oder
Filmdaten abgespielt oder wiedergegeben werden. Die Musik
wird mittels des Lautsprechers 21a von der Sprachausgabe-
Steuereinheit 21 erzeugt. Das Bild wird auf der Anzeige
einheit 40 angezeigt. Ein Benutzer kann mittels der Kom
munikations-I/F 92 unter Verwendung der Spielesoftware
91e ein Spiel mit einer fremden Person genießen. Die An
wendungssoftware erstreckt sich auf den RAM der Steuer
einheit 10 und wird von der CPU der Steuereinheit 10 aus
geführt, um die vorhergehenden Funktionsweisen zu ver
wirklichen.
Die Datenspeichereinheit 93 ist eine Speichervorrich
tung mit einer großen Kapazität zum Speichern der abzu
spielenden Musikdaten und Filmdaten unter Verwendung der
Musikabspielsoftware 91c und der Filmabspielsoftware 91d.
Die tragbare Informationsendstelleneinheit 3 ist der
art aufgebaut, daß ein Benutzer in Übereinstimmung mit
dem Menü, das auf der Anzeigeeinheit 40 angezeigt wird,
einen Informationsdienst empfangen kann, wie es erwünscht
ist.
Fig. 7 zeigt ein Hauptmenü, das auf der Anzeigeein
heit 40 angezeigt wird. Grundsätzlich werden in dem Fall
dieser tragbaren Informationsendstelleneinheit 3 insge
samt sieben Piktogramme, wie zum Beispiel
"Textverarbeitung", "Netzsurfen", "e-Mail", "Musik",
"Film", "Spiel" und "Einstellungen" angezeigt, wie es in
Fig. 7 gezeigt ist. Wenn ein Benutzer ein Piktogramm auf
dem Schirm mit einem Finger berührt, wird die Menüaus
wahlinformation mittels der Betätigungsschaltergruppe 70,
die mit der angezeigten Einheit 40 kombiniert ist, der
Steuereinheit 10 zugeführt. Dadurch wird eine Anwendung,
die dem Piktogramm entspricht, aus der Speichereinheit 91
zu der Steuereinheit 10 ausgelesen und ausgeführt. Wenn
das Piktogramm "Einstellungen" ausgewählt wird, wird ein
Systemmenü zum benutzerspezifischen Anpassen von ver
schiedenen Funktionen der tragbaren Informationsendstel
leneinheit 3 aktiviert.
Die sieben Piktogramme werden in dem Fall dieser
tragbaren Informationsendstelleneinheit 1 hauptsächlich
aus dem Grund angezeigt, daß die Anzeigebetriebsart des
Hauptmenüs, das heißt, das Piktogramm, das auf dem Haupt
menü angezeigt wird, abhängig von dem Alter des Benutzers
umgeschaltet werden kann.
Als nächstes wird ein Verfahren zum Umschalten der
Hauptmenü-Betriebsart hier im weiteren Verlauf beschrie
ben.
Ebenso wird in dem Fall des dritten Ausführungsbei
spiels der vorliegenden Erfindung die Spracheinteilung im
voraus eingestellt, wobei die Spracheinteilung, zu wel
cher die eingegebene Sprache eines Benutzers, die von der
Spracheingabe-Steuereinheit 22 mittels des Mikrofons 22a
eingegeben wird, bestimmt wird, und wird die Hauptmenü-
Anzeigebetriebsart wie in dem Fall der ersten und zweiten
Ausführungsbeispiele der vorliegenden Erfindung umge
schaltet.
Deshalb wird angenommen, daß die hierin angesprochene
Spracheinteilung eine Einteilung nach Alter (Altersein
teilung) ist. Um die Spracheinteilung (Alterseinteilung)
zu bestimmen, zu welcher die eingegebene Sprache gehört,
sind Spracheinteilungsangabewörter, die jeweiligen
Spracheinteilungen (Alterseinteilungen) entsprechen, im
voraus gespeichert worden. Der Sprachwörterbuchspeicher
30 speichert die Spracheinteilungsangabewörter. Die Al
terseinteilung beinhaltet in dem dritten Ausführungsbei
spiel der vorliegenden Erfindung drei Einteilungen, eine
Erwachseneneinteilung, eine Kindeinteilung und eine Ein
teilung für ältere Leute. In dem Kind-Wörterbuch 34 des
Sprachwörterbuchspeichers 30 sind Spracheinteilungsanga
bewörter gespeichert, die der Kindeinteilung entsprechen.
Diese Wörter können Wörter sein, die lediglich Kindern
bekannt sind, zum Beispiel Namen von Heldinnen und Helden
in Fernsehprogrammen, die Kindern bekannt sind. In dem
Wörterbuch 35 für ältere Leute des Sprachwörterbuchspei
chers 30 sind Spracheinteilungsangabewörter gespeichert,
die der Einteilung für ältere Leute entsprechen. Diese
Wörter können Wörter sein, die lediglich älteren Leuten
bekannt sind, zum Beispiel Namen von Persönlichkeiten,
die lediglich älteren Leuten bekannt sind.
Die Sprachsteuereinheit 11 vergleicht eine eingege
bene Sprache eines Benutzers, die mittels des Mikrofons
22a von der Spracheingabe-Steuereinheit 22 zugeführt
wird, mit einem Wort, das in den Wörterbüchern 34 und 35
des Sprachwörterbuchspeichers 30 gespeichert ist, um die
Übereinstimmung zu bestimmen. Wenn die eingegebene Spra
che zu einem Wort in dem Kind-Wörterbuch 34 identisch
ist, dann wird die eingegebene Sprache als ein Wort be
stimmt, das zu der Kindeinteilung gehört. Andererseits
wird, wenn die eingegebene Sprache zu einem Wort iden
tisch ist, das in dem Wörterbuch 35 für ältere Leute ge
speichert ist, dann die eingegebene Sprache als ein Wort
bestimmt, das zu der Einteilung für ältere Leute gehört.
Wenn die Spracheinteilung (Alterseinteilung), zu welcher
die eingegebene Sprache gehört, identifiziert ist, schal
tet die Sprachsteuereinheit 11 die Anzeigebetriebsart des
Hauptmenüs auf der Grundlage der Spracheinteilung
(Alterseinteilung) um.
Als nächstes wird die Ausgabebetriebsart-Einstellrou
tine, die das Hauptmenü-Anzeigebetriebsart-Umschaltver
fahren verwendet, unter Bezugnahme auf ein in Fig. 8 ge
zeigtes Flußdiagramm beschrieben. Die Ausgabebetriebsart-
Einstellroutine, die in Fig. 8 gezeigt ist, wird von der
Sprachsteuereinheit 11 ausgeführt und automatisch ausge
führt, wenn eine Energieversorgungsquelle an die Informa
tionsendstelleneinheit 3 des dritten Ausführungsbeispiels
der vorliegenden Erfindung angelegt wird. Die Einstell
routine kann in einem vorbestimmten Zeitintervall, wie
zum Beispiel 2 Stunden, durchgeführt werden oder kann
mittels einer Schalterbetätigung durch einen Benutzer
mittels der Betätigungsschaltergruppe 70 durchgeführt
werden.
In einem ersten Schritt S400 wird ein Schirm auf der
Anzeigeeinheit 40 angezeigt. Diese Verarbeitung veran
laßt, daß ein Benutzer eine Spracheingabe eingibt, und
ein Schirm, der beispielhaft in Fig. 9 dargestellt ist,
wird auf dem Anzeigefeld 40a angezeigt. Im Detail werden
eine Heldin oder ein Held in Fernsehprogrammen, die le
diglich Kindern bekannt sind (mit dem Buchstaben A ge
zeigt), und eine Persönlichkeit, die lediglich älteren
Leuten bekannt ist (mit dem Buchstaben B gezeigt), Seite
an Seite angezeigt. "Nenne bitte den Namen von einem"
wird angezeigt. Zu diesem Zeitpunkt wird, wenn der Benut
zer ein Kind ist, der Benutzer wahrscheinlich den Namen
der Heldin oder des Helden in Fernsehprogrammen sagen.
Andererseits wird der Benutzer, wenn der Benutzer eine
ältere Person ist, wahrscheinlich den Namen der Persön
lichkeit sagen.
Nachfolgend werden in einem Schritt S410 die Sprach
eingabe und die Spracherkennung durchgeführt. Die einge
gebene Sprache von dem Benutzer wird von der Sprachein
gabe-Steuereinheit 22 mittels des Mikrofons 22a eingege
ben, wie es zuvor beschrieben ist. Deshalb wird die ein
gegebene Sprache eingegeben und mit Wörtern verglichen,
die in den Wörterbüchern 34 und 35 in dem Sprachwörter
buchspeicher 30 gespeichert sind, um die Übereinstimmung
zu bestimmen.
In einem nächsten Schritt S420 wird auf der Grundlage
des Spracherkennungsergebnisses bestimmt, ob der Benutzer
ein Kind ist oder nicht. Wenn die eingegebene Sprache zu
einem Wort identisch ist, das in dem Kind-Wörterbuch 34
gespeichert ist, dann wird ein Ergebnis JA ausgegeben.
Wenn der Benutzer als ein Kind bestimmt wird (S420: JA),
dann wird in einem Schritt S430 das Kindermenü einge
stellt und wird die Ausgabebetriebsart-Einstellroutine
beendet. In dem Menü für Kinder können zum Beispiel das
Piktogramm "Textverarbeitung" und das Piktogramm
"Einstellungen" zum benutzerspezifischen Anpassen nicht
angezeigt werden, wie es in Fig. 10A gezeigt ist. Ande
rerseits schreitet, wenn der Benutzer als kein Kind be
stimmt wird (S420: NEIN), die Routine zu einem Schritt
S440 fort.
In einem Schritt S440 wird es auf der Grundlage des
Spracherkennungsergebnisses, das in dem Schritt S410 er
zielt wird, bestimmt, ob der Benutzer eine ältere Person
ist oder nicht. Wenn die eingegebene Sprache zu einem
Wort identisch ist, das in dem Wörterbuch 35 für ältere
Leute gespeichert ist, dann wird ein Ergebnis JA ausgege
ben. Wenn der Benutzer als eine ältere Person bestimmt
wird (S440: JA), dann wird in einem Schritt S450 das Menü
für ältere Leute eingestellt und wird dann die Ausgabebe
triebsart-Einstellroutine beendet. In dem Menü für ältere
Leute können zum Beispiel das Piktogramm "Spiel", welches
wahrscheinlich nicht verwendet wird, und das Piktogramm
"Einstellungen" zum benutzerspezifischen Anpassen von De
tails nicht angezeigt werden, wie es in Fig. 10B gezeigt
ist. Andererseits wird, wenn der Benutzer nicht als eine
ältere Person bestimmt wird (S440: NEIN), in einem
Schritt S460 das Erwachsenenmenü eingestellt und wird
dann die Ausgabebetriebsart-Einstellroutine beendet. In
dem Erwachsenenmenü können zum Beispiel alle Piktogramme
angezeigt werden, wie es in Fig. 7 gezeigt ist.
Um die Bestimmung eines Kinds, einer älteren Person
oder eines Erwachsenen sicherzustellen, kehrt die Routine
zu dem Schritt S400 zurück, wenn eine Bestimmung NEIN in
dem Schritt S440 (S440: NEIN) ausgegeben wird, werden die
Buchstabenanzeigen, die beispielhaft in Fig. 9 darge
stellt sind, geändert, um den Inhalt der Schirmanzeige zu
ändern, und kann dann die Verarbeitung in den Schritten
S410 bis S440 ausgeführt werden. Zu diesem Zeitpunkt
wird, wenn der Benutzer nach mehreren Wiederholungen der
Verarbeitung nicht als ein Kind oder eine ältere Person
bestimmt wird, dieser dann als Erwachsener bestimmt.
Wie in den ersten und zweiten Ausführungsbeispielen
der vorliegenden Erfindung wird ebenso in der tragbaren
Informationsendstelleneinheit 3 des dritten Ausführungs
beispiels der vorliegenden Erfindung die eingegebene
Sprache selbst nicht als eine Anweisung verwendet. Ob ein
Benutzer, der eine Sprache gesprochen hat, ein Kind (S420
in Fig. 8) oder eine ältere Person (S440) ist, wird auf
der Grundlage der unbestimmten eingegebenen Sprache be
stimmt, und die Hauptmenü-Anzeigebetriebsart wird abhän
gig von dem Bestimmungsergebnis umgeschaltet (S430, S450
und S460). Dadurch wird das Umschalten zu der Ausgabebe
triebsart, die für einen Benutzer annehmbar ist, einfach
verwirklicht, ohne sich an eine bestimmte Sprachanweisung
zu erinnern.
Ebenso veranlaßt in dem dritten Ausführungsbeispiel
der vorliegenden Erfindung die Schirmanzeige, daß ein Be
nutzer eine Spracheingabe eingibt (S400 in Fig. 8). Die
Anfrage an einen Benutzer mittels der Schirmanzeige ver
anlaßt, daß der Benutzer ein Spracheinteilungsangabewort
spricht, das in den Wörterbüchern 34 und 35 gespeichert
ist. Als Ergebnis ist die eingegebene Sprache eines Be
nutzers mit einer hohen Wahrscheinlichkeit auf bestimmte
Wörter beschränkt und kann die eingegebene Sprache trotz
einer beschränkten Anzahl von Wörtern, die in den Wörter
büchern 34 und 35 gespeichert sind, mit einer hohen Wahr
scheinlichkeit identifiziert werden.
Nachstehend erfolgt die Beschreibung von anderen Aus
führungsbeispielen der vorliegenden Erfindung.
- a) In den ersten und zweiten Ausführungsbeispielen
der vorliegenden Erfindung wird das Idiom, das für eine
Informationsausgabe verwendet wird, zu irgendeinem von
Japanisch, Englisch und Deutsch umgeschaltet. Es kann an
dernfalls zum Beispiel zu irgendeinem von Französisch,
Italienisch, Spanisch und dergleichen umgeschaltet wer
den, vorausgesetzt, daß Wörterbücher, die den jeweiligen
Idiomen entsprechen, in dem Sprachwörterbuchspeicher 30
gespeichert sind.
Das Idiom wird nicht notwendigerweise für eine Infor mationsausgabeverarbeitung verwendet. Das heißt, ein all gemeines Wort, das ein breiteres Konzept als das des Idioms aufweist, kann verwendet werden. Ein allgemeines Wort, das hierin verwendet wird, kann als ein Symbol system zum Ausdrücken und Übertragen des Denkens, der Emotion und der Absicht von Leuten mittels Sprache oder Zeichen definiert sein. Weiterhin kann ein anderes Dia gramm oder Bild als ein allgemeines Wort für eine Infor mationsausgabe verwendet werden. In diesem Fall kann die Informationsausgabebetriebsart der Informationsausgabe verarbeitung ebenso umgeschaltet werden. - b) Obgleich in der Idiomeinstellroutine in den er sten und zweiten Ausführungsbeispielen der vorliegenden Erfindung (S100 in Fig. 3, S200, S240 und S280 in Fig. 5) veranlaßt wird, daß ein Benutzer ein Wort spricht, das normalerweise zum Grüßen verwendet wird, wie zum Beispiel "Konnichiwa", ist das Wort nicht auf dieses Wort be schränkt. Die Anfrage zum Erzielen einer erwarteten Re aktion eines Benutzers kann verwendet werden oder ein Wort, wie zum Beispiel "Genkidesuka" oder "Dochiramade ikimasuka", kann angezeigt oder gesprochen werden. In diesem Fall wird eine Reaktion, wie zum Beispiel "Genkidesu", "Hai" oder "Iie", als Reaktion auf "Genkidesuka" erwartet und wird eine Reaktion, wie zum Beispiel ein Name einer Einrichtung oder ein Name eines örtlichen Gebiets, als Reaktion auf "Dochiramade ikimasuka" erwartet. Deshalb ist das Wort, wie zum Bei spiel "Genkidesu", der Name der Einrichtung oder der Name des örtlichen Gebiets in den Wörterbüchern 31 bis 33 ge speichert, denn in diesem Fall kann die Spracheinteilung (Idiomeinteilung) bestimmt werden.
- c) Obwohl das Idiom, das für eine Informationsaus
gabe verwendet wird, in den ersten und zweiten Ausfüh
rungsbeispielen der vorliegenden Erfindung umgeschaltet
wird, wird andernfalls ein System für ein allgemeines
Wort für eine Informationsausgabe umgeschaltet, wie es in
der vorhergehenden Ausgestaltung (b) beschrieben ist. In
diesem Fall kann ein Wörterbuch, das die Standardsprache
oder ein Dialekt speichert, in dem Sprachwörterbuchspei
cher 30 gespeichert werden. Zum Beispiel sind zum Um
schalten zwischen dem Dialekt von Osaka, dem Dialekt von
Nagoya und dem Dialekt von Tohoku ein Wörterbuch, das
Wörter im Dialekt von Osaka, ein Wörterbuch, das Wörter
im Dialekt von Nagoya, und ein Wörterbuch, das Wörter im
Dialekt von Tohoku speichert, gespeichert.
Weiterhin kann die Sprache der Einheitenseite zwi schen männlicher Sprache und weiblicher Sprache umge schaltet werden. In diesem Fall können ein Wörterbuch, das Wörter speichert, die lediglich ein Mann ausnahms weise verwenden wird, und ein Wörterbuch, das Wörter speichert, die lediglich eine Frau ausnahmsweise verwen den wird, in dem Sprachwörterbuchspeicher 30 gespeichert werden. Ein weibliches Wort (weibliche Sprache) kann als die Wörter gespeichert werden, die lediglich eine Frau verwenden wird.
Weiterhin kann, wie es in dem dritten Ausführungsbei spiel der vorliegenden Erfindung beschrieben ist, die Ausgabebetriebsart der Information abhängig von dem Alter eines Benutzers umgeschaltet werden. - d) In den ersten und zweiten Ausführungsbeispielen der vorliegenden Erfindung wird das Wort, das der Sprachanweisung zum Betreiben des Navigationssystems 1 entspricht, als das Erkennungszielwort in den Wörterbü chern 31 bis 33 in dem Sprachwörterbuchspeicher 30 ge speichert. Die eingegebene Sprache wird einer Spracher kennung unterzogen und die Informationseingabe wird mit tels der Sprache verwirklicht, die von einem Benutzer eingegeben wird.
Das Wort, das der Sprachanweisung zum Betreiben des
Navigationssystems 1 entspricht, kann immer in den Wör
terbüchern 31 bis 33 gespeichert sein, wie es zuvor be
schrieben ist. In einigen Fällen ist jedoch die Anzahl
von Erkennungszielwörtern, die in dem Sprachwörterbuch
speicher 30 zu speichern sind, abhängig von der Kapazität
des Systems beschränkt. Um ein derartiges Problem zu lö
sen, kann das Wörterbuch, das in dem Sprachwörterbuch
speicher 30 zu speichern ist, abhängig von einem Umschal
ten des Idioms oder dergleichen, das zu verwenden ist,
geändert werden. Zum Beispiel wird in dem Fall, in dem
das Idiom zu Japanisch umgeschaltet wird, da ein Benutzer
wahrscheinlich die japanische Informationseingabe in das
Navigationssystem 1 eingibt, der Sprachwörterbuchspeicher
30 auf das Japanisch-Sprachwörterbuch festgelegt. Daher
wird das Wörterbuch, das für den Benutzer annehmbar ist,
in dem Sprachwörterbuchspeicher 30 gespeichert und wird
die reibungslose Informationseingabe mittels Sprache ver
wirklicht.
In einem zuvor beschriebenen Informationsverarbei
tungssystem, wie zum Beispiel einem Navigationssystem
oder einer tragbaren Informationsendstelleneinheit, wird
eine Informationsausgabebetriebsart einer Anzeigeeinheit
zu einem Benutzer zu einer Mehrzahl von Ausgabebetriebs
arten umgeschaltet. Das Navigationssystem schaltet das zu
verwendende Idiom für eine Informationsausgabe zu irgend
einer von Japanisch, Englisch und Deutsch um. Nicht die
eingegebene Sprache selbst wird als eine Anweisung ver
wendet, sondern ob die eingegebene Sprache Japanisch,
Englisch oder Deutsch ist, wird bestimmt. Das für eine
Informationsausgabe zu verwendende Idiom wird abhängig
von dem Bestimmungsergebnis umgeschaltet.
Claims (16)
1. Informationsverarbeitungssystem (1, 3) zum Kommmuni
zieren einer Information mit einem Benutzer, das auf
weist:
eine Informationsausgabeeinrichtung (21, 21a, 40, 40a) zum Ausgeben einer Information;
eine Spracheingabeeinrichtung (22, 22a) zum Eingeben einer Sprache eines Benutzers;
eine Speichereinrichtung (30 bis 35) zum Speichern von Spracheinteilungsangabewörtern;
eine Spracheinteilungsangabeeinrichtung (10, 11) zum Bestimmen einer Übereinstimmung zwischen einer einge gebenen Sprache, die mittels der Spracheingabeein richtung zugeführt wird, und einem Spracheinteilungs angabewort in der Speichereinrichtung (30 bis 35) und zum Angeben einer Spracheinteilung, zu welcher die eingegebene Sprache gehört; und
eine Umschalteinrichtung (10, 11) zum Umschalten ei ner Informationsausgabebetriebsart der Informations ausgabeeinrichtung (21, 21a, 40, 40a) in einer Infor mationsausgabeverarbeitung auf der Grundlage der Spracheinteilung, die von der Spracheinteilungsanga beeinrichtung angegeben wird.
eine Informationsausgabeeinrichtung (21, 21a, 40, 40a) zum Ausgeben einer Information;
eine Spracheingabeeinrichtung (22, 22a) zum Eingeben einer Sprache eines Benutzers;
eine Speichereinrichtung (30 bis 35) zum Speichern von Spracheinteilungsangabewörtern;
eine Spracheinteilungsangabeeinrichtung (10, 11) zum Bestimmen einer Übereinstimmung zwischen einer einge gebenen Sprache, die mittels der Spracheingabeein richtung zugeführt wird, und einem Spracheinteilungs angabewort in der Speichereinrichtung (30 bis 35) und zum Angeben einer Spracheinteilung, zu welcher die eingegebene Sprache gehört; und
eine Umschalteinrichtung (10, 11) zum Umschalten ei ner Informationsausgabebetriebsart der Informations ausgabeeinrichtung (21, 21a, 40, 40a) in einer Infor mationsausgabeverarbeitung auf der Grundlage der Spracheinteilung, die von der Spracheinteilungsanga beeinrichtung angegeben wird.
2. System nach Anspruch 1, dadurch gekennzeichnet, daß:
als die Informationsausgabe-Betriebsart ein Idiom in dem Fall umgeschaltet wird, in dem das Idiom in der Informationsausgabeverarbeitung zu verwenden ist;
eine Idiomeinteilung, die eine Einteilung des von dem Benutzer zu verwendenden Idioms ist, in der Sprach einteilung beinhaltet ist; und
die Umschalteinrichtung das in der Informationsausga beverarbeitung zu verwendende Idiom auf der Grundlage der Idiomeinteilung umschaltet, die von der Sprach einteilungsangabeeinrichtung angegeben wird.
als die Informationsausgabe-Betriebsart ein Idiom in dem Fall umgeschaltet wird, in dem das Idiom in der Informationsausgabeverarbeitung zu verwenden ist;
eine Idiomeinteilung, die eine Einteilung des von dem Benutzer zu verwendenden Idioms ist, in der Sprach einteilung beinhaltet ist; und
die Umschalteinrichtung das in der Informationsausga beverarbeitung zu verwendende Idiom auf der Grundlage der Idiomeinteilung umschaltet, die von der Sprach einteilungsangabeeinrichtung angegeben wird.
3. System nach Anspruch 1 oder 2, dadurch gekennzeich
net, daß:
als die Informationsausgabebetriebsart ein Allgemein wortsystem in dem Fall umgeschaltet wird, in dem das Idiom ein System einer Mehrzahl von allgemeinen Wör tern aufweist, die eine Standardsprache und Dialekte aufweisen, wenn das Idiom in der Informationsausgabe verarbeitung verwendet wird;
die Spracheinteilung eine Dialektaufteilung beinhal tet, die eine Einteilung in Übereinstimmung mit dem Allgemeinwortsystem ist, das von dem Benutzer verwen det wird; und
die Umschalteinrichtung das in der Informationsausga beverarbeitung zu verwendende Allgemeinwortsystem auf der Grundlage der Dialekteinteilung umschaltet, die von der Spracheinteilungsangabeeinrichtung angegeben wird.
als die Informationsausgabebetriebsart ein Allgemein wortsystem in dem Fall umgeschaltet wird, in dem das Idiom ein System einer Mehrzahl von allgemeinen Wör tern aufweist, die eine Standardsprache und Dialekte aufweisen, wenn das Idiom in der Informationsausgabe verarbeitung verwendet wird;
die Spracheinteilung eine Dialektaufteilung beinhal tet, die eine Einteilung in Übereinstimmung mit dem Allgemeinwortsystem ist, das von dem Benutzer verwen det wird; und
die Umschalteinrichtung das in der Informationsausga beverarbeitung zu verwendende Allgemeinwortsystem auf der Grundlage der Dialekteinteilung umschaltet, die von der Spracheinteilungsangabeeinrichtung angegeben wird.
4. System nach einem der Ansprüche 1 bis 3, dadurch ge
kennzeichnet, daß:
eine in der Informationsausgabeverarbeitung verwen dete Sprache als die Informationsausgabebetriebsart zwischen männlicher Sprache und weiblicher Sprache umschaltbar ist;
eine Geschlechtseinteilung, die eine Einteilung nach einem Geschlecht des Benutzers ist, in der Sprachein teilung beinhaltet ist; und
die Umschalteinrichtung die vorrichtungsseitige Spra che zur weiblichen Sprache umschaltet, wenn die Ge schlechtseinteilung, die von der Spracheinteilungsan gabeeinrichtung angegeben wird, die männliche Eintei lung ist, wobei die Umschalteinrichtung andererseits die vorrichtungsseitige Sprache zur männlichen Spra che umschaltet, wenn die Geschlechtseinteilung die weibliche Einteilung ist.
eine in der Informationsausgabeverarbeitung verwen dete Sprache als die Informationsausgabebetriebsart zwischen männlicher Sprache und weiblicher Sprache umschaltbar ist;
eine Geschlechtseinteilung, die eine Einteilung nach einem Geschlecht des Benutzers ist, in der Sprachein teilung beinhaltet ist; und
die Umschalteinrichtung die vorrichtungsseitige Spra che zur weiblichen Sprache umschaltet, wenn die Ge schlechtseinteilung, die von der Spracheinteilungsan gabeeinrichtung angegeben wird, die männliche Eintei lung ist, wobei die Umschalteinrichtung andererseits die vorrichtungsseitige Sprache zur männlichen Spra che umschaltet, wenn die Geschlechtseinteilung die weibliche Einteilung ist.
5. System nach einem der Ansprüche 1 bis 4, dadurch ge
kennzeichnet, daß:
Betriebsarten, die einem Alter eines Benutzers ent sprechen, als die Informationsausgabebetriebsart be inhaltet sind;
die Spracheinteilung eine Alterseinteilung beinhal tet, die die Einteilung nach dem Alters eines Benut zers ist; und
die Umschalteinrichtung die Informationsausgabebe triebsart zu einer Betriebsart, die für den Benutzer annehmbar ist, auf der Grundlage der Alterseinteilung umschaltet, die von der Spracheinteilungsangabeein richtung bestimmt wird.
Betriebsarten, die einem Alter eines Benutzers ent sprechen, als die Informationsausgabebetriebsart be inhaltet sind;
die Spracheinteilung eine Alterseinteilung beinhal tet, die die Einteilung nach dem Alters eines Benut zers ist; und
die Umschalteinrichtung die Informationsausgabebe triebsart zu einer Betriebsart, die für den Benutzer annehmbar ist, auf der Grundlage der Alterseinteilung umschaltet, die von der Spracheinteilungsangabeein richtung bestimmt wird.
6. System nach einem der Ansprüche 1 bis 5, dadurch ge
kennzeichnet, daß:
die Spracheinteilungsangabeeinrichtung eine Sprach erkennungseinrichtung zum Verwirklichen einer Infor mationseingabe mittels Sprache von einem Benutzer und zur Spracherkennung unter Verwendung von Erkennungs zielwörtern beinhaltet; und
die Umschalteinrichtung eine Erkennungszielwort-Ände rungseinrichtung zum Ändern des Erkennungszielworts, das zur Spracherkennung von der Spracherkennungsein richtung verwendet wird, entsprechend der Informa tionsausgabebetriebsart beinhaltet, die von der Um schalteinrichtung umgeschaltet wird.
die Spracheinteilungsangabeeinrichtung eine Sprach erkennungseinrichtung zum Verwirklichen einer Infor mationseingabe mittels Sprache von einem Benutzer und zur Spracherkennung unter Verwendung von Erkennungs zielwörtern beinhaltet; und
die Umschalteinrichtung eine Erkennungszielwort-Ände rungseinrichtung zum Ändern des Erkennungszielworts, das zur Spracherkennung von der Spracherkennungsein richtung verwendet wird, entsprechend der Informa tionsausgabebetriebsart beinhaltet, die von der Um schalteinrichtung umgeschaltet wird.
7. System nach einem der Ansprüche 1 bis 6, dadurch ge
kennzeichnet, daß die Spracheinteilungsangabeeinrich
tung eine Anfrageeinrichtung zum Ausführen einer An
frageverarbeitung beinhaltet, um zu veranlassen, daß
ein Benutzer das Spracheinteilungsangabewort spricht.
8. System nach Anspruch 7, dadurch gekennzeichnet, daß
die Anfrageverarbeitung der Anfrageeinrichtung eine
Anzeigeverarbeitung mittels der Anzeigeeinrichtung
ist.
9. System nach Anspruch 7 oder 8, dadurch gekennzeich
net, daß die Anfrageverarbeitung der Anfrageeinrich
tung eine Sprachverarbeitung mittels Sprache ist.
10. System nach einem der Ansprüche 1 bis 9, dadurch ge
kennzeichnet, daß das System als mindestens entweder
eine Navigationsvorrichtung (1) oder eine tragbare
Informationsendstelleneinheit (3) aufgebaut ist.
11. System nach einem der Ansprüche 1 bis 10, dadurch ge
kennzeichnet, daß die Spracheinteilungsangabeeinrich
tung das Bestimmen der Übereinstimmung mehrere Male
wiederholt und eine ursprüngliche Ausgabebetriebsart
aufrechterhält, wenn keine Übereinstimmung nach den
mehreren Malen bestimmt wird.
12. System nach Anspruch 6, dadurch gekennzeichnet, daß
die Speichereinrichtung eine Mehrzahl von Sprachwör
terbüchern speichert, welche die Erkennungszielwörter
in unterschiedlichen Idiomen beinhalten.
13. System nach Anspruch 12, dadurch gekennzeichnet, daß
die Spracheinteilungsangabeeinrichtung eines der ge
speicherten Wörter als das Erkennungszielwort verwen
det.
14. Verfahren zum Steuern eines Informationsverarbei
tungssystems (1, 3), das eine Spracheingabeeinheit
(22, 22a), eine Speichereinheit (30 bis 35) und eine
Informationsausgabeeinheit (21, 22a, 40, 40a) auf
weist, wobei das Verfahren die folgenden Schritte
aufweist:
Ansteuern (S110, S200, S240, S280, S400) der Informa tionsausgabeeinheit, um eine Anfrage zu einem Benut zer auszugeben, welche eine Eingabe von Sprache an fordert;
Bestimmen (S120, S140, S160, S220, S260, S300, S420, S440) eines Typs der Spracheingabe von dem Benutzer unter Bezugnahme auf eine Mehrzahl von Sprachtypen, die in der Speichereinheit gespeichert sind;
Einstellen (S130, S150, S170, S230, S270, S310, S430, S450, S460) einer Ausgabebetriebsart von Information aus der Informationsausgabeeinheit entsprechend des bestimmten Typs einer Spracheingabe; und
Ansteuern der Informationsausgabeeinheit, um eine In formation in der eingestellten Ausgabebetriebsart auszugeben.
Ansteuern (S110, S200, S240, S280, S400) der Informa tionsausgabeeinheit, um eine Anfrage zu einem Benut zer auszugeben, welche eine Eingabe von Sprache an fordert;
Bestimmen (S120, S140, S160, S220, S260, S300, S420, S440) eines Typs der Spracheingabe von dem Benutzer unter Bezugnahme auf eine Mehrzahl von Sprachtypen, die in der Speichereinheit gespeichert sind;
Einstellen (S130, S150, S170, S230, S270, S310, S430, S450, S460) einer Ausgabebetriebsart von Information aus der Informationsausgabeeinheit entsprechend des bestimmten Typs einer Spracheingabe; und
Ansteuern der Informationsausgabeeinheit, um eine In formation in der eingestellten Ausgabebetriebsart auszugeben.
15. Verfahren nach Anspruch 14, dadurch gekennzeichnet,
daß die Ansteuerschritte jeweilige Schritte zum An
zeigen der Anfrage und der Information auf einem An
zeigefeld der Informationsausgabeeinheit beinhalten.
16. Verfahren nach Anspruch 14 oder 15, dadurch gekenn
zeichnet, daß:
die Mehrzahl von Sprachtypen unterschiedliche Idiome sind; und
der Einstellschritt die Ausgabebetriebsart der Infor mationsausgabeeinheit auf ein gleiches Idiom wie das Idiom Spracheingabe von dem Benutzer einstellt.
die Mehrzahl von Sprachtypen unterschiedliche Idiome sind; und
der Einstellschritt die Ausgabebetriebsart der Infor mationsausgabeeinheit auf ein gleiches Idiom wie das Idiom Spracheingabe von dem Benutzer einstellt.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP26230199A JP4292646B2 (ja) | 1999-09-16 | 1999-09-16 | ユーザインタフェース装置、ナビゲーションシステム、情報処理装置及び記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10045020A1 true DE10045020A1 (de) | 2001-05-03 |
Family
ID=17373893
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10045020A Ceased DE10045020A1 (de) | 1999-09-16 | 2000-09-12 | System und Verfahren, die imstande sind, eine Informationsausgabebetriebsart automatisch umzuschalten |
Country Status (3)
Country | Link |
---|---|
US (1) | US6243675B1 (de) |
JP (1) | JP4292646B2 (de) |
DE (1) | DE10045020A1 (de) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10061696A1 (de) * | 2000-12-12 | 2002-06-27 | Bernhard Lehmeier | Fahrzeug-Navigationssystem |
US8112276B2 (en) | 2005-12-14 | 2012-02-07 | Mitsubishi Electric Corporation | Voice recognition apparatus |
WO2012099788A1 (en) * | 2011-01-21 | 2012-07-26 | Google Inc. | Speech recognition using device docking context |
US8352246B1 (en) | 2010-12-30 | 2013-01-08 | Google Inc. | Adjusting language models |
US8751217B2 (en) | 2009-12-23 | 2014-06-10 | Google Inc. | Multi-modal input on an electronic device |
US9412365B2 (en) | 2014-03-24 | 2016-08-09 | Google Inc. | Enhanced maximum entropy models |
EP1902906B1 (de) * | 2006-09-22 | 2017-07-26 | Harman Becker Automotive Systems GmbH | Hinzufügbares Modul zum externen Steuern eines Sprachdialogsystems |
US9842592B2 (en) | 2014-02-12 | 2017-12-12 | Google Inc. | Language models using non-linguistic context |
US9978367B2 (en) | 2016-03-16 | 2018-05-22 | Google Llc | Determining dialog states for language models |
DE10324425B4 (de) | 2003-05-30 | 2018-10-18 | Robert Bosch Gmbh | Verfahren zur Aufbereitung akustischer Fahranweisungen sowie Navigationsendgerät hierzu |
US10134394B2 (en) | 2015-03-20 | 2018-11-20 | Google Llc | Speech recognition using log-linear model |
US10311860B2 (en) | 2017-02-14 | 2019-06-04 | Google Llc | Language model biasing system |
DE102007011039B4 (de) * | 2007-03-07 | 2019-08-29 | Man Truck & Bus Ag | Freisprecheinrichtung in einem Kraftfahrzeug |
US10832664B2 (en) | 2016-08-19 | 2020-11-10 | Google Llc | Automated speech recognition using language models that selectively use domain-specific model components |
US11416214B2 (en) | 2009-12-23 | 2022-08-16 | Google Llc | Multi-modal input on an electronic device |
Families Citing this family (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4200607B2 (ja) * | 1999-09-03 | 2008-12-24 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム格納媒体 |
US7349843B1 (en) * | 2000-01-18 | 2008-03-25 | Rockwell Electronic Commercial Corp. | Automatic call distributor with language based routing system and method |
JP3908437B2 (ja) * | 2000-04-14 | 2007-04-25 | アルパイン株式会社 | ナビゲーションシステム |
WO2002010900A2 (en) * | 2000-07-28 | 2002-02-07 | Siemens Automotive Corporation | User interface for telematics systems |
US7013260B2 (en) * | 2001-01-30 | 2006-03-14 | Sysmex Corporation | Display device and sample analysis device equipped with the display device |
JP4626089B2 (ja) * | 2001-05-21 | 2011-02-02 | 三菱電機株式会社 | 個人適応型装置及び情報配信機器 |
JP4084550B2 (ja) * | 2001-07-05 | 2008-04-30 | アルパイン株式会社 | ナビゲーション装置 |
US7949513B2 (en) * | 2002-01-22 | 2011-05-24 | Zi Corporation Of Canada, Inc. | Language module and method for use with text processing devices |
JP2004037721A (ja) * | 2002-07-02 | 2004-02-05 | Pioneer Electronic Corp | 音声応答システム、音声応答プログラム及びそのための記憶媒体 |
US7418095B2 (en) * | 2003-03-06 | 2008-08-26 | At&T Knowledge Ventures, L.P. | System and method for providing caller activities while in queue |
US8090402B1 (en) | 2003-09-26 | 2012-01-03 | Iwao Fujisaki | Communication device |
JP2005283531A (ja) * | 2004-03-31 | 2005-10-13 | Equos Research Co Ltd | 車載装置及びデータ作成装置 |
US7742923B2 (en) * | 2004-09-24 | 2010-06-22 | Microsoft Corporation | Graphic user interface schemes for supporting speech recognition input systems |
JP2006111134A (ja) * | 2004-10-14 | 2006-04-27 | Pioneer Electronic Corp | 挙動案内装置、その方法、そのプログラム、および、そのプログラムを記録した記録媒体 |
TW200638294A (en) * | 2005-04-22 | 2006-11-01 | Mitac Int Corp | Navigation system and method capable of switching to multinational language operating interface |
KR100678201B1 (ko) * | 2005-04-25 | 2007-02-02 | 삼성전자주식회사 | 휴대단말기에서 메인언어를 설정하는 방법 |
JP4804052B2 (ja) * | 2005-07-08 | 2011-10-26 | アルパイン株式会社 | 音声認識装置、音声認識装置を備えたナビゲーション装置及び音声認識装置の音声認識方法 |
US8719034B2 (en) | 2005-09-13 | 2014-05-06 | Nuance Communications, Inc. | Displaying speech command input state information in a multimodal browser |
SG133419A1 (en) * | 2005-12-12 | 2007-07-30 | Creative Tech Ltd | A method and apparatus for accessing a digital file from a collection of digital files |
EP1801709A1 (de) * | 2005-12-23 | 2007-06-27 | Harman Becker Automotive Systems GmbH | Sprachgenerierungssystem |
JP2007193166A (ja) * | 2006-01-20 | 2007-08-02 | Kenwood Corp | 対話装置、対話方法及びプログラム |
JP4997796B2 (ja) * | 2006-03-13 | 2012-08-08 | 株式会社デンソー | 音声認識装置、及びナビゲーションシステム |
US20080003551A1 (en) * | 2006-05-16 | 2008-01-03 | University Of Southern California | Teaching Language Through Interactive Translation |
US8706471B2 (en) * | 2006-05-18 | 2014-04-22 | University Of Southern California | Communication system using mixed translating while in multilingual communication |
US8032355B2 (en) * | 2006-05-22 | 2011-10-04 | University Of Southern California | Socially cognizant translation by detecting and transforming elements of politeness and respect |
US8032356B2 (en) * | 2006-05-25 | 2011-10-04 | University Of Southern California | Spoken translation system using meta information strings |
CN101097138B (zh) * | 2006-06-30 | 2010-09-22 | 佛山市顺德区顺达电脑厂有限公司 | 一种实时切换语言的导航系统及其方法 |
US7873517B2 (en) | 2006-11-09 | 2011-01-18 | Volkswagen Of America, Inc. | Motor vehicle with a speech interface |
US20080167807A1 (en) * | 2007-01-09 | 2008-07-10 | Jien-Yang Chang | Navigation system with immediate language transform and method thereof |
JP2008170210A (ja) * | 2007-01-10 | 2008-07-24 | Pioneer Electronic Corp | ナビゲーション装置、その方法、そのプログラム及びその記録媒体 |
US20080177529A1 (en) * | 2007-01-24 | 2008-07-24 | Kristi Roberts | Voice-over device and method of use |
JP4985068B2 (ja) * | 2007-04-11 | 2012-07-25 | トヨタ自動車株式会社 | 名称表示装置 |
US20090171665A1 (en) * | 2007-12-28 | 2009-07-02 | Garmin Ltd. | Method and apparatus for creating and modifying navigation voice syntax |
US8099289B2 (en) * | 2008-02-13 | 2012-01-17 | Sensory, Inc. | Voice interface and search for electronic devices including bluetooth headsets and remote systems |
JP4873497B2 (ja) * | 2008-07-30 | 2012-02-08 | 株式会社モリタ製作所 | 医療用実習装置 |
US9323854B2 (en) * | 2008-12-19 | 2016-04-26 | Intel Corporation | Method, apparatus and system for location assisted translation |
JP5535676B2 (ja) * | 2010-02-15 | 2014-07-02 | アルパイン株式会社 | ナビゲーション装置 |
JP5423535B2 (ja) * | 2010-03-31 | 2014-02-19 | アイシン・エィ・ダブリュ株式会社 | ナビゲーション装置及びナビゲーション方法 |
US8600732B2 (en) * | 2010-11-08 | 2013-12-03 | Sling Media Pvt Ltd | Translating programming content to match received voice command language |
JP5250066B2 (ja) * | 2011-03-04 | 2013-07-31 | 東芝テック株式会社 | 情報処理装置およびプログラム |
JP2012185303A (ja) * | 2011-03-04 | 2012-09-27 | Toshiba Tec Corp | 情報処理装置およびプログラム |
JP2013069060A (ja) * | 2011-09-21 | 2013-04-18 | Toshiba Corp | 自動改札装置および改札方法 |
US9256396B2 (en) * | 2011-10-10 | 2016-02-09 | Microsoft Technology Licensing, Llc | Speech recognition for context switching |
JP2015087649A (ja) * | 2013-10-31 | 2015-05-07 | シャープ株式会社 | 発話制御装置、方法、発話システム、プログラム、及び発話装置 |
KR102188090B1 (ko) * | 2013-12-11 | 2020-12-04 | 엘지전자 주식회사 | 스마트 가전제품, 그 작동방법 및 스마트 가전제품을 이용한 음성인식 시스템 |
CN104978015B (zh) * | 2014-04-14 | 2018-09-18 | 博世汽车部件(苏州)有限公司 | 具有语种自适用功能的导航系统及其控制方法 |
US9536521B2 (en) * | 2014-06-30 | 2017-01-03 | Xerox Corporation | Voice recognition |
CN107796415B (zh) * | 2016-09-07 | 2022-11-18 | 阿尔派株式会社 | 导航装置及其显示控制方法 |
US10229678B2 (en) * | 2016-10-14 | 2019-03-12 | Microsoft Technology Licensing, Llc | Device-described natural language control |
DE102017200976B4 (de) | 2017-01-23 | 2018-08-23 | Audi Ag | Verfahren zum Betreiben eines Kraftfahrzeugs mit einer Bedienvorrichtung |
JP6522679B2 (ja) * | 2017-03-13 | 2019-05-29 | シャープ株式会社 | 発話制御装置、方法、発話システム、及びプログラム |
WO2018167960A1 (ja) * | 2017-03-17 | 2018-09-20 | ヤマハ株式会社 | 音声処理装置、音声処理システム、音声処理方法、および音声処理プログラム |
JP2019066731A (ja) * | 2017-10-03 | 2019-04-25 | 東芝ライフスタイル株式会社 | 制御システム |
CN108882032A (zh) * | 2018-06-08 | 2018-11-23 | 百度在线网络技术(北京)有限公司 | 用于输出信息的方法和装置 |
JP7199872B2 (ja) * | 2018-08-10 | 2023-01-06 | ナブテスコ株式会社 | 多言語音声案内装置および多言語音声案内方法 |
JP7117970B2 (ja) * | 2018-10-17 | 2022-08-15 | 株式会社日立ビルシステム | 案内ロボットシステム及び案内方法 |
JP7133149B2 (ja) * | 2018-11-27 | 2022-09-08 | トヨタ自動車株式会社 | 自動運転装置、カーナビゲーション装置及び運転支援システム |
JP7379872B2 (ja) * | 2019-06-04 | 2023-11-15 | コニカミノルタ株式会社 | 画像形成システム、画像形成装置、画像形成装置の制御プログラム、および画像形成装置の制御方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5720043A (en) | 1980-07-10 | 1982-02-02 | Matsushita Electric Ind Co Ltd | Looped optical fiber transmitter |
US4884972A (en) * | 1986-11-26 | 1989-12-05 | Bright Star Technology, Inc. | Speech synchronized animation |
JPH01138594A (ja) | 1987-11-25 | 1989-05-31 | Nec Corp | 多言語音声応答装置 |
JP2699626B2 (ja) | 1990-08-22 | 1998-01-19 | ソニー株式会社 | 音声対話型カーナビゲーションシステム |
US5890122A (en) * | 1993-02-08 | 1999-03-30 | Microsoft Corporation | Voice-controlled computer simulateously displaying application menu and list of available commands |
JPH0720894A (ja) | 1993-06-17 | 1995-01-24 | Sony Corp | 音声情報処理装置 |
DE69427083T2 (de) | 1993-07-13 | 2001-12-06 | Theodore Austin Bordeaux | Spracherkennungssystem für mehrere sprachen |
JPH08193837A (ja) | 1995-01-20 | 1996-07-30 | Sony Corp | ナビゲーションシステム |
US5855000A (en) * | 1995-09-08 | 1998-12-29 | Carnegie Mellon University | Method and apparatus for correcting and repairing machine-transcribed input using independent or cross-modal secondary input |
JPH10143191A (ja) | 1996-11-13 | 1998-05-29 | Hitachi Ltd | 音声認識システム |
JPH117296A (ja) | 1997-06-18 | 1999-01-12 | Oputoromu:Kk | 電子回路を有する記憶媒体と該記憶媒体を有する音声合成装置 |
JPH11112665A (ja) | 1997-09-30 | 1999-04-23 | Meidensha Corp | 携帯電話システム |
-
1999
- 1999-09-16 JP JP26230199A patent/JP4292646B2/ja not_active Expired - Lifetime
-
2000
- 2000-08-08 US US09/634,759 patent/US6243675B1/en not_active Expired - Lifetime
- 2000-09-12 DE DE10045020A patent/DE10045020A1/de not_active Ceased
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10061696A1 (de) * | 2000-12-12 | 2002-06-27 | Bernhard Lehmeier | Fahrzeug-Navigationssystem |
DE10324425B4 (de) | 2003-05-30 | 2018-10-18 | Robert Bosch Gmbh | Verfahren zur Aufbereitung akustischer Fahranweisungen sowie Navigationsendgerät hierzu |
US8112276B2 (en) | 2005-12-14 | 2012-02-07 | Mitsubishi Electric Corporation | Voice recognition apparatus |
EP1902906B1 (de) * | 2006-09-22 | 2017-07-26 | Harman Becker Automotive Systems GmbH | Hinzufügbares Modul zum externen Steuern eines Sprachdialogsystems |
DE102007011039B4 (de) * | 2007-03-07 | 2019-08-29 | Man Truck & Bus Ag | Freisprecheinrichtung in einem Kraftfahrzeug |
US10713010B2 (en) | 2009-12-23 | 2020-07-14 | Google Llc | Multi-modal input on an electronic device |
US8751217B2 (en) | 2009-12-23 | 2014-06-10 | Google Inc. | Multi-modal input on an electronic device |
US9031830B2 (en) | 2009-12-23 | 2015-05-12 | Google Inc. | Multi-modal input on an electronic device |
US9047870B2 (en) | 2009-12-23 | 2015-06-02 | Google Inc. | Context based language model selection |
US9251791B2 (en) | 2009-12-23 | 2016-02-02 | Google Inc. | Multi-modal input on an electronic device |
US11914925B2 (en) | 2009-12-23 | 2024-02-27 | Google Llc | Multi-modal input on an electronic device |
US9495127B2 (en) | 2009-12-23 | 2016-11-15 | Google Inc. | Language model selection for speech-to-text conversion |
US11416214B2 (en) | 2009-12-23 | 2022-08-16 | Google Llc | Multi-modal input on an electronic device |
US10157040B2 (en) | 2009-12-23 | 2018-12-18 | Google Llc | Multi-modal input on an electronic device |
US8352246B1 (en) | 2010-12-30 | 2013-01-08 | Google Inc. | Adjusting language models |
US9076445B1 (en) | 2010-12-30 | 2015-07-07 | Google Inc. | Adjusting language models using context information |
US9542945B2 (en) | 2010-12-30 | 2017-01-10 | Google Inc. | Adjusting language models based on topics identified using context |
US8352245B1 (en) | 2010-12-30 | 2013-01-08 | Google Inc. | Adjusting language models |
WO2012099788A1 (en) * | 2011-01-21 | 2012-07-26 | Google Inc. | Speech recognition using device docking context |
US8296142B2 (en) | 2011-01-21 | 2012-10-23 | Google Inc. | Speech recognition using dock context |
US8396709B2 (en) | 2011-01-21 | 2013-03-12 | Google Inc. | Speech recognition using device docking context |
US9842592B2 (en) | 2014-02-12 | 2017-12-12 | Google Inc. | Language models using non-linguistic context |
US9412365B2 (en) | 2014-03-24 | 2016-08-09 | Google Inc. | Enhanced maximum entropy models |
US10134394B2 (en) | 2015-03-20 | 2018-11-20 | Google Llc | Speech recognition using log-linear model |
US9978367B2 (en) | 2016-03-16 | 2018-05-22 | Google Llc | Determining dialog states for language models |
US10553214B2 (en) | 2016-03-16 | 2020-02-04 | Google Llc | Determining dialog states for language models |
US10832664B2 (en) | 2016-08-19 | 2020-11-10 | Google Llc | Automated speech recognition using language models that selectively use domain-specific model components |
US11557289B2 (en) | 2016-08-19 | 2023-01-17 | Google Llc | Language models using domain-specific model components |
US11875789B2 (en) | 2016-08-19 | 2024-01-16 | Google Llc | Language models using domain-specific model components |
US11037551B2 (en) | 2017-02-14 | 2021-06-15 | Google Llc | Language model biasing system |
US11682383B2 (en) | 2017-02-14 | 2023-06-20 | Google Llc | Language model biasing system |
US10311860B2 (en) | 2017-02-14 | 2019-06-04 | Google Llc | Language model biasing system |
Also Published As
Publication number | Publication date |
---|---|
US6243675B1 (en) | 2001-06-05 |
JP2001083991A (ja) | 2001-03-30 |
JP4292646B2 (ja) | 2009-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10045020A1 (de) | System und Verfahren, die imstande sind, eine Informationsausgabebetriebsart automatisch umzuschalten | |
DE602004012071T2 (de) | Multimedia- und textnachrichten mit sprache-zu-text-hilfe | |
DE69837064T2 (de) | Nachrichtenverarbeitungssystem und Verfahren für die Verarbeitung von Nachrichten | |
DE102005060072B4 (de) | Verfahren und Vorrichtung zum Verwalten von Benutzer-Nametags für ein Fahrzeugkommunikationssystem | |
EP0540570B1 (de) | Verfahren zur durchführung eines variablen dialogs mit technischen geräten | |
DE10147341B4 (de) | Verfahren und Vorrichtung zum Aufbau einer in einem Computersystem implementierten Dialogsteuerung aus Dialogobjekten sowie zugehöriges Computersystem zur Durchführung einer Dialogsteuerung | |
DE112014006614B4 (de) | Benutzerschnittstellensystem, Benutzerschnittstellensteuereinrichtung, Benutzerschnittstellensteuerverfahren und Benutzerschnittstellensteuerprogramm | |
DE112014002747T5 (de) | Vorrichtung, Verfahren und grafische Benutzerschnittstelle zum Ermöglichen einer Konversationspersistenz über zwei oder mehr Instanzen eines digitalen Assistenten | |
DE112016004863T5 (de) | Parametersammlung und automatische Dialogerzeugung in Dialogsystemen | |
DE102014109122A1 (de) | Systeme und Verfahren für ergebnisbezogene Arbitrierung in Sprachdialogsystemen | |
EP1071075B1 (de) | Verfahren und Vorrichtung zur Eingabe von Daten | |
DE102016125812A1 (de) | Erlernen von Aussprachen einer personalisierten Entität | |
DE10330274A1 (de) | Sprachgesteuertes System | |
DE19548354A1 (de) | Verfahren und Vorrichtung zur persönlichen Attributauswahl die eine Verzögerungsverwaltung aufweist | |
DE112010002363T5 (de) | Verfahren und system zur ausführung einer internet-funkanwendung in einem fahrzeug | |
EP1123842A2 (de) | Fahrerassistenzsystem und Verfahren zur Steuerung von einer Informationsdarstellung, von Kommunikationsmitteln und von einer Aktorik in einem Fahrzeug | |
EP1867953A2 (de) | Modulare Navigationseinrichtung für Media Player | |
DE10008226C2 (de) | Vorrichtung zur Sprachsteuerung und Verfahren zur Sprachsteuerung | |
DE60216013T2 (de) | Navigationssystem | |
EP1041362A2 (de) | Eingabeverfahren in ein Fahrerinformationssystem | |
DE10328200B4 (de) | Navigationsgerät für ein Kraftfahrzeug | |
DE10123823A1 (de) | System und Verfahren zur parallelen Darbietung von mehreren Audioinformationsquellen | |
DE102008061097A1 (de) | Automatisierte Auswahl von Computer-Optionen | |
DE102009030263A1 (de) | Bedienverfahren für ein menübasiertes Bedien- und Informationssystem eines Fahrzeugs | |
WO2008052823A1 (de) | Verfahren zur auswahl eines fahrziels |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R002 | Refusal decision in examination/registration proceedings | ||
R003 | Refusal decision now final |