-
QUERVERWEIS AUF DIE ZUGEHÖRIGE ANMELDUNG
-
Die vorliegende Anmeldung beansprucht die Priorität und den Vorteil der am 10. Mai 2019 eingereichten koreanischen Patentanmeldung Nr.
10-2019-0055047 , die durch Bezugnahme in ihrer Gesamtheit hierin aufgenommen ist.
-
HINTERGRUND DER ERFINDUNG
-
Technisches Gebiet
-
Die vorliegende Offenbarung bezieht sich auf ein System und ein Verfahren zum Bereitstellen von Informationen auf der Grundlage von Spracherkennung.
-
Beschreibung des Stands der Technik
-
Die Aussagen in diesem Abschnitt stellen lediglich Hintergrundinformationen im Zusammenhang mit der vorliegenden Offenbarung dar und sollen keinen Stand der Technik darstellen.
-
Da die Spracherkennungstechnologie auf ein Fahrzeug angewendet wird, wurde ein Schema der Extraktion, durch Filtern aussagekräftiger Informationen aus Sprachinformationen erforscht, die durch die Verwendung der Spracherkennungstechnologie erfasst werden, wenn der Insasse im Fahrzeug Informationen über Verkehr oder Standort ausspricht und die aussagekräftigen Informationen mit anderen Fahrzeugführern teilt.
-
In der herkömmlichen Informationsaustausch-Technologie muss der Fahrer einen bestimmten Vorgang (z.B. das Drücken einer Spracherkennungstaste oder einer voreingestellten Befehlsaussage) ausführen, um eine Spracherkennungsfunktion zu aktivieren, um Informationen zu sammeln, die der Insasse im Fahrzeug geäußert hat. Ein solches Schema zur Aktivierung einer Spracherkennungsfunktion kann jedoch einen Unfall verursachen, indem es die Aufmerksamkeit des Fahrers während der Fahrt ablenkt.
-
Gleichzeitig können bei der Erfassung der Sprachinformationen durch die automatische Aktivierung der Spracherkennungsfunktion, um die Ablenkung der Aufmerksamkeit des Fahrers während der Fahrt zu verhindern, unerwünschte Informationen, wie beispielsweise personenbezogene Daten, erfasst werden. Infolgedessen kann es zu einer zunehmenden Sorge um den Schutz der Privatsphäre kommen.
-
DARSTELLUNG DER ERFINDUNG
-
Ein Aspekt der vorliegenden Offenbarung sieht ein System und ein Verfahren zum Bereitstellen von Informationen auf der Grundlage von Spracherkennung vor, welche Informationen auf der Grundlage der Spracherkennung, ohne spezifische Operationen eines Benutzers, sammeln können, indem der Kontext geändert wird, der es automatisch ermöglicht, dass eine Spracherkennungsfunktion auf der Grundlage von Fahrzeugfahrumgebungsinformationen oder Fahrzeuginformationen aufgeweckt wird, und die gesammelten Sprachinformationen verarbeitet werden, um die Informationen an ein anderes Fahrzeug weiterzugeben.
-
Die technischen Probleme, die durch das vorliegende erfinderische Konzept gelöst werden sollen, beschränken sich nicht auf die oben genannten Probleme, und alle anderen technischen Probleme, die hierin nicht erwähnt werden, werden aus der folgenden Beschreibung von den Fachleuten, auf die sich die vorliegende Offenbarung bezieht, klar verstanden.
-
In einer Form der vorliegenden Offenbarung weist ein System zum Bereitstellen von Informationen auf der Grundlage von Spracherkennung ein Fahrzeug und einen Server auf, der einen automatischen Aufwachkontext einer Spracherkennungsfunktion auf der Grundlage von Fahrumgebungsinformationen und Fahrzeuginformationen des Fahrzeugs bereitstellt, Sprachinformationen vom Fahrzeug empfängt, die dem automatischen Aufwachkontext zugeordnet sind, und Dienstinformationen durch Verarbeitung der empfangenen Sprachinformationen erzeugt, um die Dienstinformationen einem anderen Fahrzeug bereitzustellen, wobei das Fahrzeug die Sprachinformationen automatisch unter Verwendung der Spracherkennung erfasst, wenn der automatische Aufwachkontext geäußert wird, und die Sprachinformationen an den Server sendet.
-
Der Server kann personenbezogene Daten aus den Sprachinformationen herausfiltern.
-
Der Server kann die Dienstinformationen unter Berücksichtigung der Häufigkeit von Äußerungen der Sprachinformationen und/oder einer Gewichtung, welche der Zuordnung zum automatischen Aufwachkontext entspricht, erzeugen.
-
In einer Form der vorliegenden Offenbarung weist ein Fahrzeug eine Navigationsvorrichtung, die Fahrumgebungsinformationen des Fahrzeugs bereitstellt, einen Fahrzeuginformationsdetektor, der Fahrzeuginformationen bereitstellt, einen Spracherkenner, der Sprachinformationen im Fahrzeug erkennt, und einen Prozessor auf, der Sprachinformationen erfasst, die mit einem automatischen Aufwachkontext assoziiert sind, der entsprechend den Fahrumgebungsinformationen und den Fahrzeuginformationen geändert wird.
-
Der Prozessor kann bestimmen, ob der Spracherkenner auf Grundlage der Fahrumgebungsinformationen und/oder den Fahrzeuginformationen aktiviert werden soll.
-
Der Prozessor kann die Spracherkennung aktivieren, wenn die Fahrumgebungsinformationen nicht mit den Fahrzeuginformationen übereinstimmen.
-
Das Fahrzeug kann ferner eine Kommunikationsvorrichtung aufweist, die mit einem Server in Verbindung steht, wobei der Prozessor den automatischen Aufwachkontext vom Server anfordert und den automatischen Aufwachkontext empfängt.
-
Der Prozessor kann mittels des Spracherkenners bestimmen, ob der automatische Aufwachkontext geäußert worden ist, nachdem der Spracherkenner aktiviert worden ist.
-
Der Prozessor kann die Sprachinformationen nach einem Zeitpunkt, an dem der automatische Aufwachkontext ausgesprochen worden ist, erfassen und die Sprachinformationen an den Server übertragen.
-
Das Fahrzeug kann ferner einen Speicher aufweisen, der den automatischen Aufwachkontext auf Grundlage der Fahrumgebungsinformationen und den Fahrzeuginformationen speichert.
-
In einer weiteren Form der vorliegenden Offenbarung umfasst ein Verfahren zum Bereitstellen von Informationen auf der Grundlage von Spracherkennung das Erhalten von Sprachinformationen durch ein Fahrzeug, die mit einem automatischen Aufwachkontext einer Spracherkennungsfunktion auf der Grundlage der Fahrumgebungsinformationen und der Fahrzeuginformationen assoziiert sind, das Übertragen der Sprachinformationen durch das Fahrzeug an einen Server und das Erzeugen von Dienstinformationen durch den Server durch Verarbeitung der Sprachinformationen, um die Dienstinformationen an ein anderes Fahrzeug zu übertragen.
-
Das Erhalten der Fahrumgebungsinformationen und der Fahrzeuginformationen kann das Erhalten der Fahrumgebungsinformationen durch das Fahrzeug umfassen, einschließlich mindestens einer von aktuellen Standortinformationen, Echtzeit-Straßeninformationen und Wetterinformationen durch eine Navigationsvorrichtung, und das Erhalten der Fahrzeuginformationen durch das Fahrzeug, einschließlich Fahrzeuggeschwindigkeitsinformationen und/oder Zustandsinformationen durch am Fahrzeug angebrachte Sensoren.
-
Das Erhalten der Sprachinformationen kann das Bestimmen der Aktivierung der Spracherkennungsfunktion auf Grundlage der Fahrumgebungsinformationen und der Fahrzeuginformationen durch das Fahrzeug, das Erfassen der Äußerung des automatischen Aufwachkontextes durch das Fahrzeug nach dem Aktivieren der Spracherkennungsfunktion, und das Erhalten und Speichern von Sprachinformationen durch das Fahrzeug nach einem Zeitpunkt, an dem der automatische Aufwachkontext geäußert worden ist, aufweisen.
-
Das Bestimmen der Aktivierung der Spracherkennungsfunktion kann das Bestimmen der Aktivierung der Spracherkennungsfunktion aufweisen, wenn eine Straße, auf der das Fahrzeug fährt, als überlasteter Zustand auf Grundlage der Fahrumgebungsinformationen identifiziert worden ist.
-
Das Bestimmen der Aktivierung der Spracherkennungsfunktion kann das Bestimmen der Aktivierung der Spracherkennungsfunktion aufweisen, wenn das Fahrzeug in einem langsamen Zustand oder einem stationären Zustand auf Grundlage der Fahrzeuginformationen identifiziert worden ist.
-
Das Bestimmen der Aktivierung der Spracherkennungsfunktion kann das Bestimmen der Aktivierung der Spracherkennungsfunktion aufweisen, wenn die Fahrumgebungsinformationen mit den Fahrzeuginformationen nicht übereinstimmen.
-
Das Verfahren kann ferner nach dem Bestimmen der Aktivierung der Spracherkennungsfunktion das Anfordern des automatischen Aufwachkontextes durch das Fahrzeug vom Server und das Bereitstellen des automatischen Aufwachkontextes für das Fahrzeug durch den Server auf Grundlage der Fahrumgebungsinformationen und den Fahrzeuginformationen aufweisen.
-
Das Erfassen der Äußerung des automatischen Aufwachkontextes kann das Erhalten von Sprachinformationen durch das Fahrzeug, die von einem Benutzer an Bord des Fahrzeugs ausgesprochen worden sind, um die Sprachinformationen mit dem automatischen Aufwachkontext zu vergleichen, und das Bestimmen, ob der automatische Aufwachkontext auf Grundlage des Vergleichsergebnis ausgesprochen worden ist, aufweisen.
-
Das Erzeugen der Dienstinformationen, um die Dienstinformationen an das andere Fahrzeug zu liefern, kann das Filtern persönlicher Informationen aus den Sprachinformationen und das Sammeln von Informationen durch den Server und das Erzeugen der Dienstinformationen durch den Server unter Verwendung der gesammelten Informationen aufweisen.
-
Das Sammeln der Informationen kann das Sammeln von Informationen unter Berücksichtigung der Häufigkeit von Äußerungen der Sprachinformationen und/oder einer Gewichtung, welche der Zuordnung zum automatischen Aufwachkontext entspricht, aufweisen.
-
Weitere Anwendungsbereiche ergeben sich aus der vorliegenden Beschreibung. Es ist zu verstehen, dass die Beschreibung und die konkreten Beispiele nur zur Veranschaulichung dienen und nicht dazu dienen, den Umfang der vorliegenden Offenbarung einzuschränken.
-
Figurenliste
-
Damit die Offenbarung gut verstanden werden kann, werden nun verschiedene Ausführungsformen davon, exemplarisch unter Bezugnahme auf die beigefügten Zeichnungen, beschrieben, in denen:
- 1 eine Ansicht ist, welche ein System zum Bereitstellen von Informationen auf der Grundlage von Spracherkennung in einer Form der vorliegenden Offenbarung darstellt;
- 2 ein Blockdiagramm des in 1 dargestellten Fahrzeugs ist;
- 3 ein Blockdiagramm des in 1 dargestellten Servers ist; und
- 4 ein Flussdiagramm ist, welches ein Verfahren zum Bereitstellen von Informationen auf Grundlage von Spracherkennung in einer Form der vorliegenden Offenbarung veranschaulicht.
-
Die hierin beschriebenen Zeichnungen dienen nur der Veranschaulichung und sollen den Umfang der vorliegenden Offenbarung in keiner Weise einschränken.
-
DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORM
-
Die nachfolgende Beschreibung ist lediglich exemplarischer Natur und soll die vorliegende Offenbarung, Anmeldung oder Verwendung nicht einschränken. Es ist zu verstehen, dass in den Zeichnungen entsprechende Bezugszahlen gleichartige oder übereinstimmende Teile und Merkmale bezeichnen.
-
Bei der Beschreibung einiger Ausführungsformen der vorliegenden Offenbarung können Begriffe wie erste, zweite, „A“, „B“, (a), (b) und dergleichen verwendet werden. Diese Begriffe dienen lediglich der Unterscheidung einer Komponente von einer anderen Komponente, und die Begriffe schränken die Art, Reihenfolge oder Ordnung der Komponenten nicht ein. Sofern nicht anders definiert, haben alle hierin verwendeten Begriffe, einschließlich technischer oder wissenschaftlicher Begriffe, die gleiche Bedeutung wie die, die allgemein von den Fachleuten der Fachrichtung, auf die sich die vorliegende Offenbarung bezieht, verstanden werden. Begriffe, die in einem allgemein gebräuchlichen Wörterbuch definiert sind, sind so zu interpretieren, dass sie Bedeutungen haben, die den kontextuellen Bedeutungen im jeweiligen Fachgebiet entsprechen, und nicht so auszulegen, dass sie ideale oder übermäßig formale Bedeutungen haben, es sei denn, sie sind in der vorliegenden Anmeldung klar als solche definiert.
-
Gemäß der vorliegenden Offenbarung ist der automatische Aufwachkontext einer Spracherkennungsfunktion basierend auf der Fahrumgebung (z.B. eine bestimmte Situation, geografische Position, eine bestimmte Bereichsbedingung und dergleichen) eines Fahrzeugs und/oder basierend auf Fahrzeuginformationen. Wenn ein Benutzer einen bestimmten automatischen Aufwachkontext ausspricht, kann die Spracherkennungsfunktion automatisch aktiviert werden, um Sprachinformationen zu sammeln, d.h. Daten, so dass Daten, die auf Grundlage des automatischen Aufwachkontexts ausgewählt wurden, und Daten, die an den Benutzer gerichtet sind, erhalten werden können.
-
Darüber hinaus kann gemäß der vorliegenden Offenbarung ein Recht zur Sprachaufzeichnung nur einem Benutzer gewährt werden, der Informationen austauschen möchte. Personenbezogene Daten (Informationen zur Privatsphäre) und/oder Inhalte, die für den automatischen Aufwachkontext der Spracherkennung irrelevant sind, können aus den durch die Aufzeichnung erhaltenen Daten (Sprachinformationen) entfernt und kategorisiert werden, um nur die Informationen bereitzustellen, bei denen eine Menge des gleichen Inhalts erhöht wird, wodurch verhindert wird, dass personenbezogene Daten preisgegeben werden.
-
Darüber hinaus können gemäß der vorliegenden Offenbarung bei hoher Relevanz von Sprachnachrichtendaten Daten auf einer Fahrzeuganzeige in Textform unter Berücksichtigung von Gewichtung, Frequenz und dergleichen visualisiert werden, um Informationen einfacher und leichter erhalten zu können.
- 1 ist eine Ansicht, die ein System zum Bereitstellen von Informationen auf der Grundlage der Spracherkennung in einigen Ausführungsformen der vorliegenden Offenbarung darstellt.
- 2 ist ein Blockdiagramm des in 1 dargestellten Fahrzeugs. 3 ist ein Blockdiagramm des in 1 dargestellten Servers.
-
Unter Bezugnahme auf 1 umfasst ein Informationsversorgungssystem ein Fahrzeug 100 und einen Server 200, die über ein Netzwerk verbunden sind. Das Netzwerk kann mit drahtloser Internettechnologie, Kurzstreckenkommunikationstechnologie, Mobilfunktechnologie oder dergleichen realisiert werden. In diesem Fall können Wireless LAN (WLAN: Wi-Fi), ein drahtloses Breitband (Wibro), die weltweite Interoperabilität für Mikrowellenzugang (Wimax) und dergleichen als drahtlose Internettechnologie verwendet werden. Bluetooth, Nahfeldkommunikation (NFC), Radiofrequenz-Identifikation (RFID), Infrarot-Datenassoziation (IrDA), Ultrabreitband (UWB), ZigBee und dergleichen können als Kurzstrecken-Kommunikationstechnologie eingesetzt werden. Als Mobilfunktechnologie können Code Division Multiple Access (CDMA), Global System for Mobile Communication (GSM), Long Term Evolution (LTE), LTE-advanced, International Mobile Telecommunication (IMT) -2020 und dergleichen verwendet werden.
-
Das Fahrzeug 100 weist eine Navigationsvorrichtung 110, einen Fahrzeuginformationsdetektor 120, einen Spracherkenner 130, eine Kommunikationsvorrichtung 140, einen Speicher 150, eine Ausgabevorrichtung 160 und einen Prozessor 170 auf.
-
Die Navigationsvorrichtung 110 kann Navigationsinformationen bereitstellen, d.h. Informationen über die Fahrumgebung eines Fahrzeugs, wie beispielsweise einen aktuellen Standort des Fahrzeugs 100, Echtzeit-Straßeninformationen, Orientierungsinformationen, einen POI, Wetterinformationen, Verkehrsinformationen, Gebührenzustandsinformationen und dergleichen. Die Navigationsvorrichtung 110 kann mindestens eine oder mehrere der Positionierungstechnologien wie ein globales Positionierungssystem (GPS), Dead Reckoning (DR), ein differentielles GPS (DGPS) und ein Trägerphasendifferenzial GPS (CDGPS) verwenden, um aktuelle Standortinformationen des Fahrzeugs 100 zu erhalten. Darüber hinaus kann die Navigationsvorrichtung 110 Echtzeit-Verkehrsinformationen, Echtzeit-Straßeninformationen, Wetterinformationen und dergleichen von einer Verkehrszentrale über ein Netzwerk beziehen.
-
Der Fahrzeuginformationsdetektor 120 erfasst Fahrzeuginformationen wie Fahrzeuggeschwindigkeitsinformationen (z.B. eine niedrige oder hohe Geschwindigkeit) und Zustandsinformationen (z.B. ein Halt oder Fahrzustand). Der Fahrzeuginformationsdetektor 120 kann die Fahrzeuginformationen unter Verwendung von am Fahrzeug 100 angebrachten Sensoren, wie beispielsweise einem Geschwindigkeitssensor und/oder einem Schalthebelpositionssensor, erfassen.
-
Der Spracherkenner 130 erfasst Sprachinformationen (Äußerungsinformationen) über mindestens ein im Fahrzeug 100 installiertes Mikrofon (nicht dargestellt). Wenn ein von einem Fahrzeuginsassen (z.B. einem Fahrer und/oder Beifahrer) erzeugtes Sprachsignal eingegeben wird, verarbeitet der Spracherkenner 130 das Sprachsignal, um das Sprachsignal in Text umzusetzen. In diesem Fall ist ein Mikrofon (nicht dargestellt) ein Tonsensor, der ein externes akustisches Signal empfängt und in ein elektrisches Signal umwandelt. Im Mikrofon können verschiedene Rauschunterdrückungsalgorithmen implementiert werden, um das Rauschen, das zusammen mit einem akustischen Signal eingegeben wird, zu entfernen. Mit anderen Worten, das Mikrofon kann das während der Fahrt erzeugte Geräusch oder das Geräusch von außen aus dem akustischen Signaleingang von außen entfernen und das verarbeitete akustische Signal ausgeben.
-
In einigen Ausführungsformen der vorliegenden Offenbarung werden die Details weggelassen, da der Spracherkenner 130 Sprachdaten (Sprachinformationen) erkennen kann, die vom Benutzer unter Verwendung mindestens einer der verschiedenen bekannten Spracherkennungstechniken ausgesprochen wurden.
-
Die Kommunikationsvorrichtung 140 ermöglicht dem Fahrzeug 100 den Zugriff auf ein Netzwerk. Die Kommunikationsvorrichtung 140 kann es dem Fahrzeug 100 ermöglichen, Daten mit dem Server 200 auszutauschen. Die Kommunikationsvorrichtung 140 kann mit einer drahtlosen Internettechnologie, einer Kurzstreckenkommunikationstechnologie, einer mobilen Kommunikationstechnologie, einer Vehicle-to-Allything (V2X)-Technologie und dergleichen implementiert werden. Als V2X-Technologie können Fahrzeug-zu-Fahrzeug (V2V), Fahrzeug-zu-Infrastruktur (V2I), Fahrzeug-zu-Nomadenvorrichtungen (V2N), Fahrzeug-Netzwerk (IVN) und dergleichen eingesetzt werden.
-
Der Speicher 150 kann Software speichern, die so programmiert ist, dass der Prozessor 170 einen vorbestimmten Prozess ausführen kann. Der Speicher 150 kann mit mindestens einem der Aufzeichnungsmedien wie einem Flash-Speicher, einer Festplatte, einer sicheren digitalen (SD)-Karte, einem Direktzugriffsspeicher (RAM), einem statischen Direktzugriffsspeicher (SRAM), einem Nur-Lese-Speicher (ROM), einem programmierbaren Nur-Lese-Speicher (PROM), einem elektrisch löschbaren und programmierbaren ROM (EEPROM), einem löschbaren und programmierbaren ROM (EPROM), einem Register, einer Wechselplatte, einem Webspeicher und dergleichen implementiert werden.
-
Der Speicher 150 kann die Fahrumgebungsinformationen und die Fahrzeuginformationen des Fahrzeugs speichern, die durch die Navigationsvorrichtung 110 und den Fahrzeuginformationsdetektor 120 erfasst werden. Der Speicher 150 kann Informationen speichern, die über die Kommunikationsvorrichtung 140 empfangen worden sind. Darüber hinaus kann der Speicher 150 einen automatischen Aufwachkontext für eine unerwartete Situation wie „Unfall“, „119“, „Verletzung“, „Ausfall“ und dergleichen speichern.
-
Die Ausgabevorrichtung 160 gibt den Fortschrittsstatus und das Ergebnis des Betriebs des Prozessors 170 in Form von Zeitinformationen, Hörinformationen, taktilen Informationen und dergleichen aus. Die Ausgabevorrichtung 160 kann eine Anzeige, ein Audioausgabemodul, ein taktiles Informationsausgabemodul und dergleichen aufweisen. Die Anzeige kann mit mindestens einer von einer Flüssigkristallanzeige (LCD), einer Dünnfilmtransistor-Flüssigkristallanzeige (TFT LCD), einer organischen Leuchtdiodenanzeige (OLED), einer flexiblen Anzeige, einer 3D-Anzeige, einer transparenten Anzeige, einer Head-up-Anzeige (HUD), einem Touchscreen, einem Cluster und dergleichen realisiert werden. Das Audioausgabemodul kann die im Speicher 150 gespeicherten Audiodaten ausgeben. Das Audioausgangsmodul kann einen Empfänger, einen Lautsprecher, einen Summer und dergleichen umfassen. Das taktile Informationsausgabemodul gibt ein Signal in einer Form aus, die der Benutzer mit einem Tastsinn wahrnehmen kann. So kann beispielsweise das taktile Informationsausgabemodul als Vibrator zum Steuern der Vibrationsintensität und -muster eingesetzt werden.
-
Der Prozessor 170, der den Gesamtbetrieb des Fahrzeugs 100 steuert, kann mit mindestens einer anwendungsspezifischen integrierten Schaltung (ASIC), einem digitalen Signalprozessor (DSP), einer programmierbaren Logikvorrichtung (PLD), feldprogrammierbaren Gate-Arrays (FPGAs), einer zentralen Verarbeitungseinheit (CPU), einem Mikrocontroller, einem Mikroprozessor und dergleichen implementiert werden.
-
Der Prozessor 170 erfasst (sammelt) die Fahrumgebungsinformationen und/oder die Fahrzeuginformationen des Fahrzeugs durch die Navigationsvorrichtung 110 und den Fahrzeuginformationsdetektor 120, während das Fahrzeug 100 gefahren wird. Der Prozessor 170 bestimmt, ob die Spracherkennungsfunktion auf Grundlage der Fahrumgebungsinformationen und/oder den Fahrzeuginformationen aktiviert werden soll. So bestimmt beispielsweise der Prozessor 170 die Aktivierung der Spracherkennungsfunktion, wenn der Stauzustand der Straße, auf der das Fahrzeug 100 fährt, durch die von der Navigationsvorrichtung 110 bereitgestellten Echtzeit-Straßeninformationen identifiziert wird. Unterdessen bestimmt der Prozessor 170 die Aktivierung der Spracherkennungsfunktion, wenn der Fahrzeuginformationsdetektor 120 erkennt, dass sich das Fahrzeug 100 in einem langsamen oder stationären Zustand befindet. Wenn die von der Navigationsvorrichtung 110 vorgesehenen Informationen und die von dem Fahrzeuginformationsdetektor 120 gelieferten Informationen nicht übereinstimmen, wird beispielsweise festgestellt, dass sich die Fahrbahn des Fahrzeugs 100 aufgrund der von der Navigationsvorrichtung 110 vorgesehenen Echtzeit-Straßeninformationen in einem Stauzustand befindet, die Fahrgeschwindigkeit des Fahrzeugs 100 aber tatsächlich hoch ist, bestimmt der Prozessor 170 die Aktivierung der Spracherkennungsfunktion.
-
Der Prozessor 170 aktiviert die Spracherkennungsfunktion, wenn bestimmt wurde, die Spracherkennungsfunktion zu aktivieren. Das heißt, der Prozessor 170 betreibt den Spracherkenner 130.
-
Darüber hinaus fordert der Prozessor 170 bei der Bestimmung, die Spracherkennungsfunktion zu aktivieren, vom Server 200 über die Kommunikationsvorrichtung 140 den automatischen Aufwachkontext an, mit dem die Startzeit der Informationssammlung durch die Spracherkennung bestimmt wird. Der Prozessor 170 sendet eine Anforderungsnachricht für den automatischen Aufwachkontext, welche die Fahrumgebungsinformationen und die Fahrzeuginformationen des Fahrzeugs aufweist.
-
Der Prozessor 170 empfängt den automatischen Aufwachkontext auf der Grundlage der Fahrumgebungsinformationen und der Fahrzeuginformationen des Fahrzeugs, die vom Server 200 über die Kommunikationsvorrichtung 140 übertragen werden. Der Prozessor 170 speichert den empfangenen automatischen Aufwachkontext im Speicher 150.
-
Der Prozessor 170 vergleicht die durch den Spracherkenner 130 erhaltenen Sprachinformationen mit dem im Speicher 150 gespeicherten automatischen Aufwachkontext, um zu bestimmen, ob mit dem Sammeln der Sprachinformationen begonnen werden soll.
-
Der Prozessor 170 erhält die Sprachinformationen durch den Spracherkenner 130 und speichert die erhaltenen Sprachinformationen im Speicher 150, wenn die erhaltenen Sprachinformationen mit dem gespeicherten automatischen Aufwachkontext übereinstimmen. Das heißt, der Prozessor 170 sammelt die durch den Spracherkenner 130 erhaltenen Sprachinformationen nach dem Zeitpunkt, zu dem der automatische Aufwachkontext, d.h. ein Schlüsselwort für den automatischen Aufwachkontext, vom Benutzer ausgesprochen worden ist. Der Prozessor 170 sendet die gesammelten Sprachinformationen an den Server 200. Der Prozessor 170 sammelt nur Sprachinformationen einschließlich des automatischen Aufwachkontextes und sendet diese an den Server 200.
-
Der Prozessor 170 überträgt die aktuellen Standortinformationen des Fahrzeugs 100 an den Server 200 über die Kommunikationsvorrichtung 140. Danach empfängt der Prozessor 170 die Dienstinformationen, die mit den aktuellen Standortinformationen verknüpft sind, vom Server 200. Der Prozessor 170 gibt die vom Server 200 vorgesehenen Dienstinformationen an die Ausgabevorrichtung 160 aus. So empfängt beispielsweise der Prozessor 170 die vom Server 200 übertragenen Dienstinformationen und zeigt die empfangenen Dienstinformationen auf der Anzeige im Fahrzeug 100 an.
-
Der Server 200 stellt den automatischen Aufwachkontext als Reaktion auf die Anforderung des Fahrzeugs 100 zur Verfügung und sammelt die von einem oder mehreren Fahrzeugen 100 übertragenen Sprachinformationen, um Dienstinformationen (verarbeitete Informationen) bereitzustellen. Der Server 200 weist eine Kommunikationsvorrichtung 210, einen Speicher 220, eine Datenbank (DB) 230 und einen Prozessor 240 auf.
-
Die Kommunikationsvorrichtung 210 ermöglicht es dem Server 200, Daten mit dem Fahrzeug 100 auszutauschen. Die Kommunikationsvorrichtung 210 führt die Datenkommunikation unter Verwendung von drahtloser Internettechnologie, Kurzstreckenkommunikationstechnologie, Mobilfunktechnologie oder dergleichen durch.
-
Der Speicher 220 speichert Software, die so programmiert ist, dass der Prozessor 240 einen bestimmten Vorgang ausführen kann. Der Speicher 220 kann Dateneingabe zum Prozessor 240 und Datenausgabe vom Prozessor 240 speichern. Darüber hinaus kann der Speicher 220 Informationen speichern, die über die Kommunikationsvorrichtung 210 empfangen werden.
-
Der Speicher 220 kann mit mindestens einem der Aufzeichnungsmedien wie einem Flash-Speicher, einer Festplatte, einer sicheren digitalen (SD)-Karte, einem Direktzugriffsspeicher (RAM), einem statischen Direktzugriffsspeicher (SRAM), einem Nur-Lese-Speicher (ROM), einem programmierbaren Nur-Lese-Speicher (PROM), einem elektrisch löschbaren und programmierbaren ROM (EEPROM), einem löschbaren und programmierbaren ROM (EPROM), einem Register, einer Wechselplatte und dergleichen implementiert werden.
-
Die DB 230 speichert und verwaltet den automatischen Aufwachkontext auf Grundlage der Fahrumgebungsinformationen und/oder den Fahrzeuginformationen des Fahrzeugs. Der automatische Aufwachkontext kann ein automatisches Aufwachkontext-Schlüsselwort für jeden POI (Point of Interest), ein im Voraus definiertes automatisches Aufwachkontext-Schlüsselwort auf Grundlage der Fahrumgebungsinformationen und/oder den Fahrzeuginformationen, ein automatisches Aufwachkontext-Schlüsselwort für eine unerwartete Situation und dergleichen aufweisen. Die DB 230 kann die vom Prozessor 240 gesammelten gültigen Informationen speichern und verwalten.
-
Der Prozessor 240 empfängt eine Nachricht zum Anfordern des automatischen Aufwachkontextes, der vom Fahrzeug 100 über die Kommunikationsvorrichtung 210 übertragen wird. Der Prozessor 240 durchsucht die DB 230 nach dem automatischen Aufwachkontext, d.h. einem Schlüsselwort für den automatischen Aufwachkontext, auf Grundlage der Fahrumgebungsinformationen und den in der Anforderungsnachricht enthaltenen Fahrzeuginformationen. Der Prozessor 240 sendet den erfassten automatischen Aufwachkontext an das Fahrzeug 100.
-
Der Prozessor 240 empfängt die von den Fahrzeugen 100 durch die Kommunikationsvorrichtung 210 übertragenen Sprachinformationen und speichert die Sprachinformationen im Speicher 220. Beim Speichern der durch die Fahrzeuge 100 gesammelten Sprachinformationen speichert der Prozessor 240 geografische Informationen, d.h. die Standortinformationen des Fahrzeugs 100, welche die Sprachinformationen bereitstellen.
-
Der Prozessor 240 bestimmt, ob die empfangenen Sprachinformationen verwendbare Informationen sind. Mit anderen Worten, der Prozessor 240 bestimmt, ob die empfangenen Sprachinformationen dem automatischen Aufwachkontext zugeordnet sind und personenbezogene Informationen enthalten (z.B. Name, Alter, Einwohnermeldeamt, Handynummer, E-Mail-Adresse und dergleichen). Der Prozessor 240 bestimmt, dass die Sprachinformationen gültig sind, wenn die empfangenen Sprachinformationen dem automatischen Aufwachkontext zugeordnet sind und die persönlichen Informationen nicht enthalten. Währenddessen bestimmt der Prozessor 240, dass die entsprechenden Sprachinformationen ungültig sind, wenn die empfangenen Sprachinformationen nicht mit dem automatischen Aufwachkontext verknüpft sind oder persönliche Informationen enthalten.
-
Der Prozessor 240 filtert die persönlichen Informationen und/oder die Sprachinformationen, die nicht mit dem automatischen Aufwachkontext verbunden sind, aus den gesammelten Sprachinformationen. Darüber hinaus extrahiert der Prozessor 240 relevante Daten, d.h. Sprachinformationen, auf Grundlage der aktuellen Standortinformationen des Fahrzeugs 100 und den in der DB 230 vorab gespeicherten Informationen. Der Prozessor 240 extrahiert eine häufig auftretende Datenrangfolge auf Grundlage der Häufigkeit der im DB 230 gespeicherten Äußerungen. Der Prozessor 240 gewichtet die relevanten Daten stärker und spiegelt sie in den Rankings wider. Der Prozessor 240 aktualisiert und materialisiert kontinuierlich die übergeordneten Dateninformationen.
-
Wenn beispielsweise die der Sprechhäufigkeit entsprechende Datenrangfolge wie in Tabelle 1 angegeben ist, kann der Prozessor
240 die Datenrangfolge durch Gewichtung eines „Parkplatzes“ reorganisieren, wenn sich das Fahrzeug
100 auf dem Parkplatz befindet. In diesem Fall, wenn dem „Parkplatz“ eine Gewichtung von „
150“ gegeben wird, beträgt die Häufigkeit des „Parkplatzes + Volle Sitzbank“ aufgrund der Gewichtung
230, und das Datenranking ändert sich auf „1“.
Tabelle 1
Ranking | Sprachinformation | Häufigkeit |
1 | Fahrbahn + Stauung | 200 |
2 | Leute + viele | 150 |
3 | Parkplatz + volle Sitzbank | 80 |
-
Der Prozessor 240 erzeugt Dienstinformationen unter Verwendung verwendbarer Sprachinformationen, d.h. gültiger Informationen. Die Dienstinformationen sind Informationen, die für die Fahrt des Fahrzeugs 100 auf der Straße erforderlich sind, und können Straßeninformationen, Unfallinformationen, Fehlerinformationen und dergleichen aufweisen. Wie vorstehend beschrieben, kann gemäß der Offenbarung der automatische Aufwachkontext variiert werden, um die Stimme des Benutzers in einer bestimmten Situation (geografische Position, Unfall/Fehlerereignis) natürlich aufzuzeichnen, indem der automatische Aufwachkontext geändert wird (ohne dass der Fahrer eine separate Spracherkennungstaste drücken muss), persönliche Informationen zum Schutz der Privatsphäre gefiltert werden können und aktuelle Informationen über ein Fahrzeug, das im gleichen Bereich fährt und Gewichtungen zuordnet, visuell durch Aufbringen einer Gewichtung zur Verfügung gestellt werden können.
-
4 ist ein Flussdiagramm, das ein Verfahren zum Bereitstellen von Informationen auf Grundlage von Spracherkennung in einigen Ausführungsformen der vorliegenden Offenbarung veranschaulicht.
-
Unter Bezugnahme auf 4, in S110, erfasst das Fahrzeug 100 die Fahrumgebungsinformationen und/oder die Fahrzeuginformationen des Fahrzeugs 100. Der Prozessor 170 des Fahrzeugs 100 erfasst die Fahrumgebungsinformationen des Fahrzeugs 100 durch die Navigationsvorrichtung 110 und erhält die Fahrzeuginformationen durch den Fahrzeuginformationsdetektor 120.
-
In S120 bestimmt das Fahrzeug 100, ob die Spracherkennungsfunktion auf Grundlage der Fahrumgebungsinformationen und/oder den Fahrzeuginformationen aktiviert werden soll. Das Fahrzeug 100 bestimmt die Aktivierung der Spracherkennungsfunktion, indem es den Stauzustand der Fahrbahn durch die von der Navigationsvorrichtung 110 bereitgestellten Echtzeit-Straßeninformationen identifiziert. Alternativ bestimmt das Fahrzeug 100 die Aktivierung der Spracherkennungsfunktion, wenn die vom Fahrzeuginformationsdetektor 120 bereitgestellte Fahrzeuggeschwindigkeitsinformation kleiner ist als eine Referenz zur Bestimmung einer niedrigen Geschwindigkeit. Alternativ bestimmt das Fahrzeug 100 die Aktivierung der Spracherkennungsfunktion, wenn die von der Navigationsvorrichtung 110 gelieferten Informationen und die von dem Fahrzeuginformationsdetektor 120 gelieferten Informationen nicht übereinstimmen. Wenn die Aktivierung der Spracherkennungsfunktion bestimmt wird, betätigt das Fahrzeug 100 den Spracherkenner 130, um die Spracherkennungsfunktion zu aktivieren.
-
Wenn in S130 die Aktivierung der Spracherkennungsfunktion bestimmt wird, fordert das Fahrzeug 100 den Server 200 für den automatischen Aufwachkontext an. Das Fahrzeug 100 kann die Fahrumgebungsinformationen und die Fahrzeuginformationen des Fahrzeugs 100 übertragen, wenn es eine Nachricht zum Anfordern des automatischen Aufwachkontexts sendet.
-
In S140 sucht der Server 200 die DB 230 nach dem automatischen Aufwachkontext als Reaktion auf die Anforderung des Fahrzeugs 100 und sendet die Informationen an das Fahrzeug 100. Der Server 200 kann dem Fahrzeug 100 das Schlüsselwort für den automatischen Aufwachkontext für jeden POI (Point of Interest), das im Voraus definierte Schlüsselwort für den automatischen Aufwachkontext auf Grundlage der Fahrumgebungsinformationen und/oder den Fahrzeuginformationen, das Schlüsselwort für den automatischen Aufwachkontext für eine unerwartete Situation und dergleichen, liefern.
-
In S150 erkennt das Fahrzeug 100 die Sprachinformationen durch den Spracherkenner 130. Der Prozessor 170 des Fahrzeugs 100 erkennt die von einem Benutzer (z.B. einem Fahrer oder Beifahrer) über mindestens ein im Fahrzeug 100 installiertes Mikrofon ausgesprochenen Sprachinformationen.
-
In S160 vergleicht das Fahrzeug 100 die erkannten Sprachinformationen mit dem vom Server 200 bereitgestellten automatischen Aufwachkontext. Das Fahrzeug 100 bestimmt, ob die erkannte Sprachinformation mit dem automatischen Aufwachkontext, d.h. dem Schlüsselwort für den automatischen Aufwachkontext, übereinstimmt.
-
In S170, wenn die erkannten Sprachinformationen mit dem automatischen Aufwachkontext übereinstimmen, sammelt das Fahrzeug 100 die Sprachinformationen über den Spracherkenner 130. Das Fahrzeug 100 bestimmt, ob mit dem Sammeln der Sprachinformationen begonnen werden soll, je nachdem, ob die erkannten Sprachinformationen mit dem automatischen Aufwachkontext übereinstimmen. Das Fahrzeug 100 beginnt, die Sprachinformationen zu sammeln, wenn die erkannten Sprachinformationen mit dem automatischen Aufwachkontext übereinstimmen. Mit anderen Worten, das Fahrzeug 100 erhält die Sprachinformationen durch den Spracherkenner 130 und speichert die Sprachinformationen im Speicher 150 nach dem Zeitpunkt, zu dem der automatische Aufwachkontext vom Benutzer ausgesprochen wird.
-
Im S180 sendet das Fahrzeug 100 die gesammelten Sprachinformationen an den Server 200. Der Server 200 empfängt die von mindestens einem Fahrzeug 100 übertragenen Sprachinformationen.
-
In S190 filtert und sammelt der Server 200 die vom Fahrzeug 100 empfangenen Sprachinformationen. Der Server 200 speichert und verwaltet die gesammelten Informationen in der DB 230.
-
In S200 generiert der Server 200 Dienstinformationen auf Grundlage der gesammelten Informationen. Der Server 200 extrahiert Informationen aus den gesammelten Informationen in Verbindung mit den aktuellen Standortinformationen des Fahrzeugs 100, um die Dienstinformationen zu generieren.
-
In S210 sendet der Server 200 die erzeugten Dienstinformationen an das Fahrzeug 100.
-
In S220 gibt das Fahrzeug 100 die vom Server 200 gelieferten Dienstinformationen in einer für den Benutzer erkennbaren Form aus. Das Fahrzeug 100 kann die Dienstinformationen auf dem Display anzeigen oder die Dienstinformationen als Sprachnachricht über den Lautsprecher ausgeben.
-
Wie vorstehend beschrieben, zeichnet das Fahrzeug, wenn der Benutzer einen Satz ausspricht, der das automatische Aufwachkontext-Schlüsselwort enthält, die ausgesprochenen Sprachinformationen auf und sendet sie zusammen mit den aktuellen Standortinformationen des Fahrzeugs 100 an den Server 200. Wenn der Server 200 die aktuellen Standortinformationen vom Fahrzeug 100 empfängt, kann der Server 200 die Zuordnungsinformationen aus der DB 230 in Verbindung mit den empfangenen aktuellen Standortinformationen extrahieren und die extrahierten Informationen verarbeiten, um die verarbeiteten Informationen an ein anderes Fahrzeug weiterzugeben. Wenn der Server 200 beispielsweise die Standortinformationen von einem bestimmten Fahrzeug empfängt, kann der Server 200 Dienstinformationen erzeugen, einschließlich des Auftretens des Unfalls auf der Straße, auf der das bestimmte Fahrzeug fährt, des Unfallortes und dergleichen in Verbindung mit den empfangenen Standortinformationen, und die Dienstinformationen für das bestimmte Fahrzeug zur Verfügung zu stellen.
-
Im Folgenden wird ein Beispiel für die Bereitstellung von Informationen auf der Grundlage der Spracherkennung in einigen Formen der vorliegenden Offenbarung beschrieben.
-
Erstens, wenn festgestellt wird, dass das Fahrzeug 100 einen bestimmten POI eingegeben hat, z.B. in einem Umkreis von 5 km um „Lotte-world@“, sendet das Fahrzeug 100 eine Meldung über die Anforderung des automatischen Aufwachkontexts zusammen mit den aktuellen Standortinformationen des Fahrzeugs 100 an den Server 200. Der Server 200 durchsucht die DB 230 nach Schlüsselwörtern wie „Lotte-world@“, „Freizeitpark“, „Parken“, „ Parkplatz“ und dergleichen, die dem spezifischen POI zugeordnet sind, auf Grundlage der aktuellen Standortinformationen des Fahrzeugs 100. Der Server 200 stellt dem Fahrzeug 100 das erkannte Schlüsselwort als automatischen Aufwachkontext zur Verfügung.
-
Wenn der vom Server 200 bereitgestellte automatische Aufwachkontext vom Benutzer geäußert wird, erhält das Fahrzeug 100 nach der Äußerung die Sprachinformationen durch den Spracherkenner 130 und sendet die Sprachinformationen an den Server 200. So erhält das Fahrzeug 100 beispielsweise „Lotte-World ist heute zu überlaufen“, „die Straße zur Lotte-World ist sehr verstopft“, „Der Vergnügungspark ist immer am Wochenende sehr gut besucht“, „Es braucht zu viel Zeit, um in einen Vergnügungspark zu gehen“, „Es gibt keinen Platz zum Parken“, „Parkplatz ist voll“ und dergleichen und sendet es an den Server 200.
-
Das Fahrzeug 100 deaktiviert die Spracherkennungsfunktion, wenn sich das Fahrzeug 100 außerhalb des spezifischen POI-Radius von 5 km befindet. Das heißt, das Fahrzeug 100 stoppt (beendet) den Betrieb des Spracherkenners 130.
-
Zweitens, wenn die von der Navigationsvorrichtung 110 bereitgestellten Fahrumgebungsinformationen und die von dem Fahrzeuginformationsdetektor 120 gelieferten Fahrzeuginformationen nicht übereinstimmen, kann das Fahrzeug 100 die Spracherkennungsfunktion unabhängig vom automatischen Aufwachkontext aktivieren, so dass Sprachinformationen erhalten werden können. So wird beispielsweise gemäß den von der Navigationsvorrichtung 110 bereitgestellten Verkehrsinformationen, wenn sich die befahrene Straße in einem Stauzustand befindet und die durch den Fahrzeuginformationsdetektor 120 erhaltene Fahrzeuggeschwindigkeit keine niedrige Geschwindigkeit von 50 km oder weniger ist, oder gemäß den von der Navigationsvorrichtung 110 gelieferten Wetterinformationen der Fahrbereich als Regengebiet identifiziert, aber gemäß den vom Fahrzeuginformationsdetektor 120 erhaltenen Informationen, wenn der Scheibenwischer nicht länger als eine Minute betätigt wird, werden die Sprachinformationen durch den Spracherkenner 130 erhalten und gespeichert.
-
Währenddessen kann das Fahrzeug 100 automatische Aufwachkontexte wie „Differenz“, „Fehler“, „Wetter“, „ Schön“, „Regen“, „Verkehr“, „Stauung“, „Verkehr reibungsfrei“ und dergleichen empfangen, indem es den automatischen Aufwachkontext vom Server 200 anfordert.
-
Wenn der Benutzer den automatischen Aufwachkontext ausspricht, erhält das Fahrzeug 100 durch die Spracherkennung 130 ausgedrückte Informationen wie „Verkehr ist fließend und nicht blockiert“, „es wird hier regnen, aber es regnet nicht dort“ und dergleichen. Das Fahrzeug 100 sendet die erhaltenen Sprachinformationen an den Server 200.
-
Das Fahrzeug 100 deaktiviert die Spracherkennungsfunktion, wenn die Fahrumgebungsinformationen und die Fahrzeuginformationen übereinstimmen oder wenn eine bestimmte Zeit verstrichen ist.
-
Drittens, wenn der automatische Aufwachkontext, der sich auf die unerwartete Situation bezieht, die im Speicher 150 gespeichert ist, vom Benutzer geäußert wird, speichert (sammelt) das Fahrzeug 100 die über den Spracherkenner 130 eingegebenen Sprachinformationen in den Speicher 150. Das Fahrzeug 100 überträgt die durch den Spracherkenner 130 erhaltenen Sprachinformationen an den Server 200. Wenn das Fahrzeug 100 in einen bestimmten Radius einer Unfallgefahr eintritt, fordert das Fahrzeug 100 den Server 200 auf, einen automatischen Aufwachkontext für die unerwartete Situation bereitzustellen. Wenn der automatische Aufwachkontext vom Benutzer ausgedrückt wird, überträgt das Fahrzeug 100 Sprachinformationen, wie „Ein Unfall (Problem) tritt auf“, „Es gibt einen Krankenwagen, also ein Unfall“ und dergleichen, die durch Spracherkennung an den Server 200 übermittelt werden.
-
Wenn das Fahrzeug 100 den im Speicher 150 gespeicherten automatischen Aufwachkontext verwendet, kann die Spracherkennungsfunktion in einem aktiven Zustand gehalten werden, bis der Fahrzeugbetrieb beendet ist. Wenn das Fahrzeug 100 den vom Server 200 bereitgestellten automatischen Aufwachkontext verwendet, kann die Spracherkennungsfunktion deaktiviert werden, wenn das Fahrzeug 100 aus einem bestimmten Radius der Unfallgefahr herauskommt.
-
Gemäß der vorliegenden Offenbarung werden die Informationen auf Grundlage der Spracherkennung ohne eine bestimmte Bedienung des Benutzers gesammelt, indem der Kontext für das automatische Aufwachen der Spracherkennungsfunktion auf Grundlage der Fahrumgebungsinformationen und/oder den Fahrzeuginformationen des Fahrzeugs ohne jegliche Aktion des Benutzers geändert wird, so dass es möglich ist, eine Streuung der Aufmerksamkeit aufgrund der Aktion des Benutzers während der Fahrt zu verhindern.
-
Darüber hinaus werden gemäß der vorliegenden Offenbarung Informationen zum Datenschutz aus den gesammelten Äußerungsinformationen gefiltert und an andere Fahrzeuge weitergegeben, so dass verhindert werden kann, dass die Informationen zum Datenschutz durchsickern.
-
Die Beschreibung der Offenbarung ist lediglich exemplarischer Natur, so dass Abweichungen, die nicht vom Inhalt der Offenbarung abweichen, im Rahmen der Offenbarung liegen sollen. Solche Abweichungen sind nicht als Abweichung von Geist und Umfang der Offenbarung zu betrachten.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-