DE102019212050A1 - System und Verfahren zum Bereitstellen von Informationen auf der Grundlage von Sprecherkennung - Google Patents

System und Verfahren zum Bereitstellen von Informationen auf der Grundlage von Sprecherkennung Download PDF

Info

Publication number
DE102019212050A1
DE102019212050A1 DE102019212050.4A DE102019212050A DE102019212050A1 DE 102019212050 A1 DE102019212050 A1 DE 102019212050A1 DE 102019212050 A DE102019212050 A DE 102019212050A DE 102019212050 A1 DE102019212050 A1 DE 102019212050A1
Authority
DE
Germany
Prior art keywords
information
vehicle
context
voice
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019212050.4A
Other languages
English (en)
Inventor
Jang Won Choi
Tae Hyun Sung
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Motor Co
Kia Corp
Original Assignee
Hyundai Motor Co
Kia Motors Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyundai Motor Co, Kia Motors Corp filed Critical Hyundai Motor Co
Publication of DE102019212050A1 publication Critical patent/DE102019212050A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • G10L17/24Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/02Protecting privacy or anonymity, e.g. protecting personally identifiable information [PII]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Computer Security & Cryptography (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ein System und ein Verfahren zum Bereitstellen von Informationen auf der Grundlage von Spracherkennung sind vorgesehen. Das System zum Bereitstellen von Informationen auf der Grundlage von Spracherkennung umfasst ein Fahrzeug und einen Server, der einen automatischen Aufwachkontext einer Spracherkennungsfunktion auf der Grundlage von Fahrumgebungsinformationen und Fahrzeuginformationen des Fahrzeugs bereitstellt, Sprachinformationen, die mit dem automatischen Aufwachkontext assoziiert sind, vom Fahrzeug empfängt, und Dienstinformationen durch Verarbeiten der empfangenen Sprachinformationen erzeugt, um die Dienstinformationen einem anderen Fahrzeug bereitzustellen, wobei das Fahrzeug die Sprachinformationen automatisch unter Verwendung der Spracherkennung erfasst, wenn der automatische Aufwachkontext ausgesprochen wird, und die Sprachinformationen an den Server übermittelt.

Description

  • QUERVERWEIS AUF DIE ZUGEHÖRIGE ANMELDUNG
  • Die vorliegende Anmeldung beansprucht die Priorität und den Vorteil der am 10. Mai 2019 eingereichten koreanischen Patentanmeldung Nr. 10-2019-0055047 , die durch Bezugnahme in ihrer Gesamtheit hierin aufgenommen ist.
  • HINTERGRUND DER ERFINDUNG
  • Technisches Gebiet
  • Die vorliegende Offenbarung bezieht sich auf ein System und ein Verfahren zum Bereitstellen von Informationen auf der Grundlage von Spracherkennung.
  • Beschreibung des Stands der Technik
  • Die Aussagen in diesem Abschnitt stellen lediglich Hintergrundinformationen im Zusammenhang mit der vorliegenden Offenbarung dar und sollen keinen Stand der Technik darstellen.
  • Da die Spracherkennungstechnologie auf ein Fahrzeug angewendet wird, wurde ein Schema der Extraktion, durch Filtern aussagekräftiger Informationen aus Sprachinformationen erforscht, die durch die Verwendung der Spracherkennungstechnologie erfasst werden, wenn der Insasse im Fahrzeug Informationen über Verkehr oder Standort ausspricht und die aussagekräftigen Informationen mit anderen Fahrzeugführern teilt.
  • In der herkömmlichen Informationsaustausch-Technologie muss der Fahrer einen bestimmten Vorgang (z.B. das Drücken einer Spracherkennungstaste oder einer voreingestellten Befehlsaussage) ausführen, um eine Spracherkennungsfunktion zu aktivieren, um Informationen zu sammeln, die der Insasse im Fahrzeug geäußert hat. Ein solches Schema zur Aktivierung einer Spracherkennungsfunktion kann jedoch einen Unfall verursachen, indem es die Aufmerksamkeit des Fahrers während der Fahrt ablenkt.
  • Gleichzeitig können bei der Erfassung der Sprachinformationen durch die automatische Aktivierung der Spracherkennungsfunktion, um die Ablenkung der Aufmerksamkeit des Fahrers während der Fahrt zu verhindern, unerwünschte Informationen, wie beispielsweise personenbezogene Daten, erfasst werden. Infolgedessen kann es zu einer zunehmenden Sorge um den Schutz der Privatsphäre kommen.
  • DARSTELLUNG DER ERFINDUNG
  • Ein Aspekt der vorliegenden Offenbarung sieht ein System und ein Verfahren zum Bereitstellen von Informationen auf der Grundlage von Spracherkennung vor, welche Informationen auf der Grundlage der Spracherkennung, ohne spezifische Operationen eines Benutzers, sammeln können, indem der Kontext geändert wird, der es automatisch ermöglicht, dass eine Spracherkennungsfunktion auf der Grundlage von Fahrzeugfahrumgebungsinformationen oder Fahrzeuginformationen aufgeweckt wird, und die gesammelten Sprachinformationen verarbeitet werden, um die Informationen an ein anderes Fahrzeug weiterzugeben.
  • Die technischen Probleme, die durch das vorliegende erfinderische Konzept gelöst werden sollen, beschränken sich nicht auf die oben genannten Probleme, und alle anderen technischen Probleme, die hierin nicht erwähnt werden, werden aus der folgenden Beschreibung von den Fachleuten, auf die sich die vorliegende Offenbarung bezieht, klar verstanden.
  • In einer Form der vorliegenden Offenbarung weist ein System zum Bereitstellen von Informationen auf der Grundlage von Spracherkennung ein Fahrzeug und einen Server auf, der einen automatischen Aufwachkontext einer Spracherkennungsfunktion auf der Grundlage von Fahrumgebungsinformationen und Fahrzeuginformationen des Fahrzeugs bereitstellt, Sprachinformationen vom Fahrzeug empfängt, die dem automatischen Aufwachkontext zugeordnet sind, und Dienstinformationen durch Verarbeitung der empfangenen Sprachinformationen erzeugt, um die Dienstinformationen einem anderen Fahrzeug bereitzustellen, wobei das Fahrzeug die Sprachinformationen automatisch unter Verwendung der Spracherkennung erfasst, wenn der automatische Aufwachkontext geäußert wird, und die Sprachinformationen an den Server sendet.
  • Der Server kann personenbezogene Daten aus den Sprachinformationen herausfiltern.
  • Der Server kann die Dienstinformationen unter Berücksichtigung der Häufigkeit von Äußerungen der Sprachinformationen und/oder einer Gewichtung, welche der Zuordnung zum automatischen Aufwachkontext entspricht, erzeugen.
  • In einer Form der vorliegenden Offenbarung weist ein Fahrzeug eine Navigationsvorrichtung, die Fahrumgebungsinformationen des Fahrzeugs bereitstellt, einen Fahrzeuginformationsdetektor, der Fahrzeuginformationen bereitstellt, einen Spracherkenner, der Sprachinformationen im Fahrzeug erkennt, und einen Prozessor auf, der Sprachinformationen erfasst, die mit einem automatischen Aufwachkontext assoziiert sind, der entsprechend den Fahrumgebungsinformationen und den Fahrzeuginformationen geändert wird.
  • Der Prozessor kann bestimmen, ob der Spracherkenner auf Grundlage der Fahrumgebungsinformationen und/oder den Fahrzeuginformationen aktiviert werden soll.
  • Der Prozessor kann die Spracherkennung aktivieren, wenn die Fahrumgebungsinformationen nicht mit den Fahrzeuginformationen übereinstimmen.
  • Das Fahrzeug kann ferner eine Kommunikationsvorrichtung aufweist, die mit einem Server in Verbindung steht, wobei der Prozessor den automatischen Aufwachkontext vom Server anfordert und den automatischen Aufwachkontext empfängt.
  • Der Prozessor kann mittels des Spracherkenners bestimmen, ob der automatische Aufwachkontext geäußert worden ist, nachdem der Spracherkenner aktiviert worden ist.
  • Der Prozessor kann die Sprachinformationen nach einem Zeitpunkt, an dem der automatische Aufwachkontext ausgesprochen worden ist, erfassen und die Sprachinformationen an den Server übertragen.
  • Das Fahrzeug kann ferner einen Speicher aufweisen, der den automatischen Aufwachkontext auf Grundlage der Fahrumgebungsinformationen und den Fahrzeuginformationen speichert.
  • In einer weiteren Form der vorliegenden Offenbarung umfasst ein Verfahren zum Bereitstellen von Informationen auf der Grundlage von Spracherkennung das Erhalten von Sprachinformationen durch ein Fahrzeug, die mit einem automatischen Aufwachkontext einer Spracherkennungsfunktion auf der Grundlage der Fahrumgebungsinformationen und der Fahrzeuginformationen assoziiert sind, das Übertragen der Sprachinformationen durch das Fahrzeug an einen Server und das Erzeugen von Dienstinformationen durch den Server durch Verarbeitung der Sprachinformationen, um die Dienstinformationen an ein anderes Fahrzeug zu übertragen.
  • Das Erhalten der Fahrumgebungsinformationen und der Fahrzeuginformationen kann das Erhalten der Fahrumgebungsinformationen durch das Fahrzeug umfassen, einschließlich mindestens einer von aktuellen Standortinformationen, Echtzeit-Straßeninformationen und Wetterinformationen durch eine Navigationsvorrichtung, und das Erhalten der Fahrzeuginformationen durch das Fahrzeug, einschließlich Fahrzeuggeschwindigkeitsinformationen und/oder Zustandsinformationen durch am Fahrzeug angebrachte Sensoren.
  • Das Erhalten der Sprachinformationen kann das Bestimmen der Aktivierung der Spracherkennungsfunktion auf Grundlage der Fahrumgebungsinformationen und der Fahrzeuginformationen durch das Fahrzeug, das Erfassen der Äußerung des automatischen Aufwachkontextes durch das Fahrzeug nach dem Aktivieren der Spracherkennungsfunktion, und das Erhalten und Speichern von Sprachinformationen durch das Fahrzeug nach einem Zeitpunkt, an dem der automatische Aufwachkontext geäußert worden ist, aufweisen.
  • Das Bestimmen der Aktivierung der Spracherkennungsfunktion kann das Bestimmen der Aktivierung der Spracherkennungsfunktion aufweisen, wenn eine Straße, auf der das Fahrzeug fährt, als überlasteter Zustand auf Grundlage der Fahrumgebungsinformationen identifiziert worden ist.
  • Das Bestimmen der Aktivierung der Spracherkennungsfunktion kann das Bestimmen der Aktivierung der Spracherkennungsfunktion aufweisen, wenn das Fahrzeug in einem langsamen Zustand oder einem stationären Zustand auf Grundlage der Fahrzeuginformationen identifiziert worden ist.
  • Das Bestimmen der Aktivierung der Spracherkennungsfunktion kann das Bestimmen der Aktivierung der Spracherkennungsfunktion aufweisen, wenn die Fahrumgebungsinformationen mit den Fahrzeuginformationen nicht übereinstimmen.
  • Das Verfahren kann ferner nach dem Bestimmen der Aktivierung der Spracherkennungsfunktion das Anfordern des automatischen Aufwachkontextes durch das Fahrzeug vom Server und das Bereitstellen des automatischen Aufwachkontextes für das Fahrzeug durch den Server auf Grundlage der Fahrumgebungsinformationen und den Fahrzeuginformationen aufweisen.
  • Das Erfassen der Äußerung des automatischen Aufwachkontextes kann das Erhalten von Sprachinformationen durch das Fahrzeug, die von einem Benutzer an Bord des Fahrzeugs ausgesprochen worden sind, um die Sprachinformationen mit dem automatischen Aufwachkontext zu vergleichen, und das Bestimmen, ob der automatische Aufwachkontext auf Grundlage des Vergleichsergebnis ausgesprochen worden ist, aufweisen.
  • Das Erzeugen der Dienstinformationen, um die Dienstinformationen an das andere Fahrzeug zu liefern, kann das Filtern persönlicher Informationen aus den Sprachinformationen und das Sammeln von Informationen durch den Server und das Erzeugen der Dienstinformationen durch den Server unter Verwendung der gesammelten Informationen aufweisen.
  • Das Sammeln der Informationen kann das Sammeln von Informationen unter Berücksichtigung der Häufigkeit von Äußerungen der Sprachinformationen und/oder einer Gewichtung, welche der Zuordnung zum automatischen Aufwachkontext entspricht, aufweisen.
  • Weitere Anwendungsbereiche ergeben sich aus der vorliegenden Beschreibung. Es ist zu verstehen, dass die Beschreibung und die konkreten Beispiele nur zur Veranschaulichung dienen und nicht dazu dienen, den Umfang der vorliegenden Offenbarung einzuschränken.
  • Figurenliste
  • Damit die Offenbarung gut verstanden werden kann, werden nun verschiedene Ausführungsformen davon, exemplarisch unter Bezugnahme auf die beigefügten Zeichnungen, beschrieben, in denen:
    • 1 eine Ansicht ist, welche ein System zum Bereitstellen von Informationen auf der Grundlage von Spracherkennung in einer Form der vorliegenden Offenbarung darstellt;
    • 2 ein Blockdiagramm des in 1 dargestellten Fahrzeugs ist;
    • 3 ein Blockdiagramm des in 1 dargestellten Servers ist; und
    • 4 ein Flussdiagramm ist, welches ein Verfahren zum Bereitstellen von Informationen auf Grundlage von Spracherkennung in einer Form der vorliegenden Offenbarung veranschaulicht.
  • Die hierin beschriebenen Zeichnungen dienen nur der Veranschaulichung und sollen den Umfang der vorliegenden Offenbarung in keiner Weise einschränken.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORM
  • Die nachfolgende Beschreibung ist lediglich exemplarischer Natur und soll die vorliegende Offenbarung, Anmeldung oder Verwendung nicht einschränken. Es ist zu verstehen, dass in den Zeichnungen entsprechende Bezugszahlen gleichartige oder übereinstimmende Teile und Merkmale bezeichnen.
  • Bei der Beschreibung einiger Ausführungsformen der vorliegenden Offenbarung können Begriffe wie erste, zweite, „A“, „B“, (a), (b) und dergleichen verwendet werden. Diese Begriffe dienen lediglich der Unterscheidung einer Komponente von einer anderen Komponente, und die Begriffe schränken die Art, Reihenfolge oder Ordnung der Komponenten nicht ein. Sofern nicht anders definiert, haben alle hierin verwendeten Begriffe, einschließlich technischer oder wissenschaftlicher Begriffe, die gleiche Bedeutung wie die, die allgemein von den Fachleuten der Fachrichtung, auf die sich die vorliegende Offenbarung bezieht, verstanden werden. Begriffe, die in einem allgemein gebräuchlichen Wörterbuch definiert sind, sind so zu interpretieren, dass sie Bedeutungen haben, die den kontextuellen Bedeutungen im jeweiligen Fachgebiet entsprechen, und nicht so auszulegen, dass sie ideale oder übermäßig formale Bedeutungen haben, es sei denn, sie sind in der vorliegenden Anmeldung klar als solche definiert.
  • Gemäß der vorliegenden Offenbarung ist der automatische Aufwachkontext einer Spracherkennungsfunktion basierend auf der Fahrumgebung (z.B. eine bestimmte Situation, geografische Position, eine bestimmte Bereichsbedingung und dergleichen) eines Fahrzeugs und/oder basierend auf Fahrzeuginformationen. Wenn ein Benutzer einen bestimmten automatischen Aufwachkontext ausspricht, kann die Spracherkennungsfunktion automatisch aktiviert werden, um Sprachinformationen zu sammeln, d.h. Daten, so dass Daten, die auf Grundlage des automatischen Aufwachkontexts ausgewählt wurden, und Daten, die an den Benutzer gerichtet sind, erhalten werden können.
  • Darüber hinaus kann gemäß der vorliegenden Offenbarung ein Recht zur Sprachaufzeichnung nur einem Benutzer gewährt werden, der Informationen austauschen möchte. Personenbezogene Daten (Informationen zur Privatsphäre) und/oder Inhalte, die für den automatischen Aufwachkontext der Spracherkennung irrelevant sind, können aus den durch die Aufzeichnung erhaltenen Daten (Sprachinformationen) entfernt und kategorisiert werden, um nur die Informationen bereitzustellen, bei denen eine Menge des gleichen Inhalts erhöht wird, wodurch verhindert wird, dass personenbezogene Daten preisgegeben werden.
  • Darüber hinaus können gemäß der vorliegenden Offenbarung bei hoher Relevanz von Sprachnachrichtendaten Daten auf einer Fahrzeuganzeige in Textform unter Berücksichtigung von Gewichtung, Frequenz und dergleichen visualisiert werden, um Informationen einfacher und leichter erhalten zu können.
    • 1 ist eine Ansicht, die ein System zum Bereitstellen von Informationen auf der Grundlage der Spracherkennung in einigen Ausführungsformen der vorliegenden Offenbarung darstellt.
    • 2 ist ein Blockdiagramm des in 1 dargestellten Fahrzeugs. 3 ist ein Blockdiagramm des in 1 dargestellten Servers.
  • Unter Bezugnahme auf 1 umfasst ein Informationsversorgungssystem ein Fahrzeug 100 und einen Server 200, die über ein Netzwerk verbunden sind. Das Netzwerk kann mit drahtloser Internettechnologie, Kurzstreckenkommunikationstechnologie, Mobilfunktechnologie oder dergleichen realisiert werden. In diesem Fall können Wireless LAN (WLAN: Wi-Fi), ein drahtloses Breitband (Wibro), die weltweite Interoperabilität für Mikrowellenzugang (Wimax) und dergleichen als drahtlose Internettechnologie verwendet werden. Bluetooth, Nahfeldkommunikation (NFC), Radiofrequenz-Identifikation (RFID), Infrarot-Datenassoziation (IrDA), Ultrabreitband (UWB), ZigBee und dergleichen können als Kurzstrecken-Kommunikationstechnologie eingesetzt werden. Als Mobilfunktechnologie können Code Division Multiple Access (CDMA), Global System for Mobile Communication (GSM), Long Term Evolution (LTE), LTE-advanced, International Mobile Telecommunication (IMT) -2020 und dergleichen verwendet werden.
  • Das Fahrzeug 100 weist eine Navigationsvorrichtung 110, einen Fahrzeuginformationsdetektor 120, einen Spracherkenner 130, eine Kommunikationsvorrichtung 140, einen Speicher 150, eine Ausgabevorrichtung 160 und einen Prozessor 170 auf.
  • Die Navigationsvorrichtung 110 kann Navigationsinformationen bereitstellen, d.h. Informationen über die Fahrumgebung eines Fahrzeugs, wie beispielsweise einen aktuellen Standort des Fahrzeugs 100, Echtzeit-Straßeninformationen, Orientierungsinformationen, einen POI, Wetterinformationen, Verkehrsinformationen, Gebührenzustandsinformationen und dergleichen. Die Navigationsvorrichtung 110 kann mindestens eine oder mehrere der Positionierungstechnologien wie ein globales Positionierungssystem (GPS), Dead Reckoning (DR), ein differentielles GPS (DGPS) und ein Trägerphasendifferenzial GPS (CDGPS) verwenden, um aktuelle Standortinformationen des Fahrzeugs 100 zu erhalten. Darüber hinaus kann die Navigationsvorrichtung 110 Echtzeit-Verkehrsinformationen, Echtzeit-Straßeninformationen, Wetterinformationen und dergleichen von einer Verkehrszentrale über ein Netzwerk beziehen.
  • Der Fahrzeuginformationsdetektor 120 erfasst Fahrzeuginformationen wie Fahrzeuggeschwindigkeitsinformationen (z.B. eine niedrige oder hohe Geschwindigkeit) und Zustandsinformationen (z.B. ein Halt oder Fahrzustand). Der Fahrzeuginformationsdetektor 120 kann die Fahrzeuginformationen unter Verwendung von am Fahrzeug 100 angebrachten Sensoren, wie beispielsweise einem Geschwindigkeitssensor und/oder einem Schalthebelpositionssensor, erfassen.
  • Der Spracherkenner 130 erfasst Sprachinformationen (Äußerungsinformationen) über mindestens ein im Fahrzeug 100 installiertes Mikrofon (nicht dargestellt). Wenn ein von einem Fahrzeuginsassen (z.B. einem Fahrer und/oder Beifahrer) erzeugtes Sprachsignal eingegeben wird, verarbeitet der Spracherkenner 130 das Sprachsignal, um das Sprachsignal in Text umzusetzen. In diesem Fall ist ein Mikrofon (nicht dargestellt) ein Tonsensor, der ein externes akustisches Signal empfängt und in ein elektrisches Signal umwandelt. Im Mikrofon können verschiedene Rauschunterdrückungsalgorithmen implementiert werden, um das Rauschen, das zusammen mit einem akustischen Signal eingegeben wird, zu entfernen. Mit anderen Worten, das Mikrofon kann das während der Fahrt erzeugte Geräusch oder das Geräusch von außen aus dem akustischen Signaleingang von außen entfernen und das verarbeitete akustische Signal ausgeben.
  • In einigen Ausführungsformen der vorliegenden Offenbarung werden die Details weggelassen, da der Spracherkenner 130 Sprachdaten (Sprachinformationen) erkennen kann, die vom Benutzer unter Verwendung mindestens einer der verschiedenen bekannten Spracherkennungstechniken ausgesprochen wurden.
  • Die Kommunikationsvorrichtung 140 ermöglicht dem Fahrzeug 100 den Zugriff auf ein Netzwerk. Die Kommunikationsvorrichtung 140 kann es dem Fahrzeug 100 ermöglichen, Daten mit dem Server 200 auszutauschen. Die Kommunikationsvorrichtung 140 kann mit einer drahtlosen Internettechnologie, einer Kurzstreckenkommunikationstechnologie, einer mobilen Kommunikationstechnologie, einer Vehicle-to-Allything (V2X)-Technologie und dergleichen implementiert werden. Als V2X-Technologie können Fahrzeug-zu-Fahrzeug (V2V), Fahrzeug-zu-Infrastruktur (V2I), Fahrzeug-zu-Nomadenvorrichtungen (V2N), Fahrzeug-Netzwerk (IVN) und dergleichen eingesetzt werden.
  • Der Speicher 150 kann Software speichern, die so programmiert ist, dass der Prozessor 170 einen vorbestimmten Prozess ausführen kann. Der Speicher 150 kann mit mindestens einem der Aufzeichnungsmedien wie einem Flash-Speicher, einer Festplatte, einer sicheren digitalen (SD)-Karte, einem Direktzugriffsspeicher (RAM), einem statischen Direktzugriffsspeicher (SRAM), einem Nur-Lese-Speicher (ROM), einem programmierbaren Nur-Lese-Speicher (PROM), einem elektrisch löschbaren und programmierbaren ROM (EEPROM), einem löschbaren und programmierbaren ROM (EPROM), einem Register, einer Wechselplatte, einem Webspeicher und dergleichen implementiert werden.
  • Der Speicher 150 kann die Fahrumgebungsinformationen und die Fahrzeuginformationen des Fahrzeugs speichern, die durch die Navigationsvorrichtung 110 und den Fahrzeuginformationsdetektor 120 erfasst werden. Der Speicher 150 kann Informationen speichern, die über die Kommunikationsvorrichtung 140 empfangen worden sind. Darüber hinaus kann der Speicher 150 einen automatischen Aufwachkontext für eine unerwartete Situation wie „Unfall“, „119“, „Verletzung“, „Ausfall“ und dergleichen speichern.
  • Die Ausgabevorrichtung 160 gibt den Fortschrittsstatus und das Ergebnis des Betriebs des Prozessors 170 in Form von Zeitinformationen, Hörinformationen, taktilen Informationen und dergleichen aus. Die Ausgabevorrichtung 160 kann eine Anzeige, ein Audioausgabemodul, ein taktiles Informationsausgabemodul und dergleichen aufweisen. Die Anzeige kann mit mindestens einer von einer Flüssigkristallanzeige (LCD), einer Dünnfilmtransistor-Flüssigkristallanzeige (TFT LCD), einer organischen Leuchtdiodenanzeige (OLED), einer flexiblen Anzeige, einer 3D-Anzeige, einer transparenten Anzeige, einer Head-up-Anzeige (HUD), einem Touchscreen, einem Cluster und dergleichen realisiert werden. Das Audioausgabemodul kann die im Speicher 150 gespeicherten Audiodaten ausgeben. Das Audioausgangsmodul kann einen Empfänger, einen Lautsprecher, einen Summer und dergleichen umfassen. Das taktile Informationsausgabemodul gibt ein Signal in einer Form aus, die der Benutzer mit einem Tastsinn wahrnehmen kann. So kann beispielsweise das taktile Informationsausgabemodul als Vibrator zum Steuern der Vibrationsintensität und -muster eingesetzt werden.
  • Der Prozessor 170, der den Gesamtbetrieb des Fahrzeugs 100 steuert, kann mit mindestens einer anwendungsspezifischen integrierten Schaltung (ASIC), einem digitalen Signalprozessor (DSP), einer programmierbaren Logikvorrichtung (PLD), feldprogrammierbaren Gate-Arrays (FPGAs), einer zentralen Verarbeitungseinheit (CPU), einem Mikrocontroller, einem Mikroprozessor und dergleichen implementiert werden.
  • Der Prozessor 170 erfasst (sammelt) die Fahrumgebungsinformationen und/oder die Fahrzeuginformationen des Fahrzeugs durch die Navigationsvorrichtung 110 und den Fahrzeuginformationsdetektor 120, während das Fahrzeug 100 gefahren wird. Der Prozessor 170 bestimmt, ob die Spracherkennungsfunktion auf Grundlage der Fahrumgebungsinformationen und/oder den Fahrzeuginformationen aktiviert werden soll. So bestimmt beispielsweise der Prozessor 170 die Aktivierung der Spracherkennungsfunktion, wenn der Stauzustand der Straße, auf der das Fahrzeug 100 fährt, durch die von der Navigationsvorrichtung 110 bereitgestellten Echtzeit-Straßeninformationen identifiziert wird. Unterdessen bestimmt der Prozessor 170 die Aktivierung der Spracherkennungsfunktion, wenn der Fahrzeuginformationsdetektor 120 erkennt, dass sich das Fahrzeug 100 in einem langsamen oder stationären Zustand befindet. Wenn die von der Navigationsvorrichtung 110 vorgesehenen Informationen und die von dem Fahrzeuginformationsdetektor 120 gelieferten Informationen nicht übereinstimmen, wird beispielsweise festgestellt, dass sich die Fahrbahn des Fahrzeugs 100 aufgrund der von der Navigationsvorrichtung 110 vorgesehenen Echtzeit-Straßeninformationen in einem Stauzustand befindet, die Fahrgeschwindigkeit des Fahrzeugs 100 aber tatsächlich hoch ist, bestimmt der Prozessor 170 die Aktivierung der Spracherkennungsfunktion.
  • Der Prozessor 170 aktiviert die Spracherkennungsfunktion, wenn bestimmt wurde, die Spracherkennungsfunktion zu aktivieren. Das heißt, der Prozessor 170 betreibt den Spracherkenner 130.
  • Darüber hinaus fordert der Prozessor 170 bei der Bestimmung, die Spracherkennungsfunktion zu aktivieren, vom Server 200 über die Kommunikationsvorrichtung 140 den automatischen Aufwachkontext an, mit dem die Startzeit der Informationssammlung durch die Spracherkennung bestimmt wird. Der Prozessor 170 sendet eine Anforderungsnachricht für den automatischen Aufwachkontext, welche die Fahrumgebungsinformationen und die Fahrzeuginformationen des Fahrzeugs aufweist.
  • Der Prozessor 170 empfängt den automatischen Aufwachkontext auf der Grundlage der Fahrumgebungsinformationen und der Fahrzeuginformationen des Fahrzeugs, die vom Server 200 über die Kommunikationsvorrichtung 140 übertragen werden. Der Prozessor 170 speichert den empfangenen automatischen Aufwachkontext im Speicher 150.
  • Der Prozessor 170 vergleicht die durch den Spracherkenner 130 erhaltenen Sprachinformationen mit dem im Speicher 150 gespeicherten automatischen Aufwachkontext, um zu bestimmen, ob mit dem Sammeln der Sprachinformationen begonnen werden soll.
  • Der Prozessor 170 erhält die Sprachinformationen durch den Spracherkenner 130 und speichert die erhaltenen Sprachinformationen im Speicher 150, wenn die erhaltenen Sprachinformationen mit dem gespeicherten automatischen Aufwachkontext übereinstimmen. Das heißt, der Prozessor 170 sammelt die durch den Spracherkenner 130 erhaltenen Sprachinformationen nach dem Zeitpunkt, zu dem der automatische Aufwachkontext, d.h. ein Schlüsselwort für den automatischen Aufwachkontext, vom Benutzer ausgesprochen worden ist. Der Prozessor 170 sendet die gesammelten Sprachinformationen an den Server 200. Der Prozessor 170 sammelt nur Sprachinformationen einschließlich des automatischen Aufwachkontextes und sendet diese an den Server 200.
  • Der Prozessor 170 überträgt die aktuellen Standortinformationen des Fahrzeugs 100 an den Server 200 über die Kommunikationsvorrichtung 140. Danach empfängt der Prozessor 170 die Dienstinformationen, die mit den aktuellen Standortinformationen verknüpft sind, vom Server 200. Der Prozessor 170 gibt die vom Server 200 vorgesehenen Dienstinformationen an die Ausgabevorrichtung 160 aus. So empfängt beispielsweise der Prozessor 170 die vom Server 200 übertragenen Dienstinformationen und zeigt die empfangenen Dienstinformationen auf der Anzeige im Fahrzeug 100 an.
  • Der Server 200 stellt den automatischen Aufwachkontext als Reaktion auf die Anforderung des Fahrzeugs 100 zur Verfügung und sammelt die von einem oder mehreren Fahrzeugen 100 übertragenen Sprachinformationen, um Dienstinformationen (verarbeitete Informationen) bereitzustellen. Der Server 200 weist eine Kommunikationsvorrichtung 210, einen Speicher 220, eine Datenbank (DB) 230 und einen Prozessor 240 auf.
  • Die Kommunikationsvorrichtung 210 ermöglicht es dem Server 200, Daten mit dem Fahrzeug 100 auszutauschen. Die Kommunikationsvorrichtung 210 führt die Datenkommunikation unter Verwendung von drahtloser Internettechnologie, Kurzstreckenkommunikationstechnologie, Mobilfunktechnologie oder dergleichen durch.
  • Der Speicher 220 speichert Software, die so programmiert ist, dass der Prozessor 240 einen bestimmten Vorgang ausführen kann. Der Speicher 220 kann Dateneingabe zum Prozessor 240 und Datenausgabe vom Prozessor 240 speichern. Darüber hinaus kann der Speicher 220 Informationen speichern, die über die Kommunikationsvorrichtung 210 empfangen werden.
  • Der Speicher 220 kann mit mindestens einem der Aufzeichnungsmedien wie einem Flash-Speicher, einer Festplatte, einer sicheren digitalen (SD)-Karte, einem Direktzugriffsspeicher (RAM), einem statischen Direktzugriffsspeicher (SRAM), einem Nur-Lese-Speicher (ROM), einem programmierbaren Nur-Lese-Speicher (PROM), einem elektrisch löschbaren und programmierbaren ROM (EEPROM), einem löschbaren und programmierbaren ROM (EPROM), einem Register, einer Wechselplatte und dergleichen implementiert werden.
  • Die DB 230 speichert und verwaltet den automatischen Aufwachkontext auf Grundlage der Fahrumgebungsinformationen und/oder den Fahrzeuginformationen des Fahrzeugs. Der automatische Aufwachkontext kann ein automatisches Aufwachkontext-Schlüsselwort für jeden POI (Point of Interest), ein im Voraus definiertes automatisches Aufwachkontext-Schlüsselwort auf Grundlage der Fahrumgebungsinformationen und/oder den Fahrzeuginformationen, ein automatisches Aufwachkontext-Schlüsselwort für eine unerwartete Situation und dergleichen aufweisen. Die DB 230 kann die vom Prozessor 240 gesammelten gültigen Informationen speichern und verwalten.
  • Der Prozessor 240 empfängt eine Nachricht zum Anfordern des automatischen Aufwachkontextes, der vom Fahrzeug 100 über die Kommunikationsvorrichtung 210 übertragen wird. Der Prozessor 240 durchsucht die DB 230 nach dem automatischen Aufwachkontext, d.h. einem Schlüsselwort für den automatischen Aufwachkontext, auf Grundlage der Fahrumgebungsinformationen und den in der Anforderungsnachricht enthaltenen Fahrzeuginformationen. Der Prozessor 240 sendet den erfassten automatischen Aufwachkontext an das Fahrzeug 100.
  • Der Prozessor 240 empfängt die von den Fahrzeugen 100 durch die Kommunikationsvorrichtung 210 übertragenen Sprachinformationen und speichert die Sprachinformationen im Speicher 220. Beim Speichern der durch die Fahrzeuge 100 gesammelten Sprachinformationen speichert der Prozessor 240 geografische Informationen, d.h. die Standortinformationen des Fahrzeugs 100, welche die Sprachinformationen bereitstellen.
  • Der Prozessor 240 bestimmt, ob die empfangenen Sprachinformationen verwendbare Informationen sind. Mit anderen Worten, der Prozessor 240 bestimmt, ob die empfangenen Sprachinformationen dem automatischen Aufwachkontext zugeordnet sind und personenbezogene Informationen enthalten (z.B. Name, Alter, Einwohnermeldeamt, Handynummer, E-Mail-Adresse und dergleichen). Der Prozessor 240 bestimmt, dass die Sprachinformationen gültig sind, wenn die empfangenen Sprachinformationen dem automatischen Aufwachkontext zugeordnet sind und die persönlichen Informationen nicht enthalten. Währenddessen bestimmt der Prozessor 240, dass die entsprechenden Sprachinformationen ungültig sind, wenn die empfangenen Sprachinformationen nicht mit dem automatischen Aufwachkontext verknüpft sind oder persönliche Informationen enthalten.
  • Der Prozessor 240 filtert die persönlichen Informationen und/oder die Sprachinformationen, die nicht mit dem automatischen Aufwachkontext verbunden sind, aus den gesammelten Sprachinformationen. Darüber hinaus extrahiert der Prozessor 240 relevante Daten, d.h. Sprachinformationen, auf Grundlage der aktuellen Standortinformationen des Fahrzeugs 100 und den in der DB 230 vorab gespeicherten Informationen. Der Prozessor 240 extrahiert eine häufig auftretende Datenrangfolge auf Grundlage der Häufigkeit der im DB 230 gespeicherten Äußerungen. Der Prozessor 240 gewichtet die relevanten Daten stärker und spiegelt sie in den Rankings wider. Der Prozessor 240 aktualisiert und materialisiert kontinuierlich die übergeordneten Dateninformationen.
  • Wenn beispielsweise die der Sprechhäufigkeit entsprechende Datenrangfolge wie in Tabelle 1 angegeben ist, kann der Prozessor 240 die Datenrangfolge durch Gewichtung eines „Parkplatzes“ reorganisieren, wenn sich das Fahrzeug 100 auf dem Parkplatz befindet. In diesem Fall, wenn dem „Parkplatz“ eine Gewichtung von „150“ gegeben wird, beträgt die Häufigkeit des „Parkplatzes + Volle Sitzbank“ aufgrund der Gewichtung 230, und das Datenranking ändert sich auf „1“. Tabelle 1
    Ranking Sprachinformation Häufigkeit
    1 Fahrbahn + Stauung 200
    2 Leute + viele 150
    3 Parkplatz + volle Sitzbank 80
  • Der Prozessor 240 erzeugt Dienstinformationen unter Verwendung verwendbarer Sprachinformationen, d.h. gültiger Informationen. Die Dienstinformationen sind Informationen, die für die Fahrt des Fahrzeugs 100 auf der Straße erforderlich sind, und können Straßeninformationen, Unfallinformationen, Fehlerinformationen und dergleichen aufweisen. Wie vorstehend beschrieben, kann gemäß der Offenbarung der automatische Aufwachkontext variiert werden, um die Stimme des Benutzers in einer bestimmten Situation (geografische Position, Unfall/Fehlerereignis) natürlich aufzuzeichnen, indem der automatische Aufwachkontext geändert wird (ohne dass der Fahrer eine separate Spracherkennungstaste drücken muss), persönliche Informationen zum Schutz der Privatsphäre gefiltert werden können und aktuelle Informationen über ein Fahrzeug, das im gleichen Bereich fährt und Gewichtungen zuordnet, visuell durch Aufbringen einer Gewichtung zur Verfügung gestellt werden können.
  • 4 ist ein Flussdiagramm, das ein Verfahren zum Bereitstellen von Informationen auf Grundlage von Spracherkennung in einigen Ausführungsformen der vorliegenden Offenbarung veranschaulicht.
  • Unter Bezugnahme auf 4, in S110, erfasst das Fahrzeug 100 die Fahrumgebungsinformationen und/oder die Fahrzeuginformationen des Fahrzeugs 100. Der Prozessor 170 des Fahrzeugs 100 erfasst die Fahrumgebungsinformationen des Fahrzeugs 100 durch die Navigationsvorrichtung 110 und erhält die Fahrzeuginformationen durch den Fahrzeuginformationsdetektor 120.
  • In S120 bestimmt das Fahrzeug 100, ob die Spracherkennungsfunktion auf Grundlage der Fahrumgebungsinformationen und/oder den Fahrzeuginformationen aktiviert werden soll. Das Fahrzeug 100 bestimmt die Aktivierung der Spracherkennungsfunktion, indem es den Stauzustand der Fahrbahn durch die von der Navigationsvorrichtung 110 bereitgestellten Echtzeit-Straßeninformationen identifiziert. Alternativ bestimmt das Fahrzeug 100 die Aktivierung der Spracherkennungsfunktion, wenn die vom Fahrzeuginformationsdetektor 120 bereitgestellte Fahrzeuggeschwindigkeitsinformation kleiner ist als eine Referenz zur Bestimmung einer niedrigen Geschwindigkeit. Alternativ bestimmt das Fahrzeug 100 die Aktivierung der Spracherkennungsfunktion, wenn die von der Navigationsvorrichtung 110 gelieferten Informationen und die von dem Fahrzeuginformationsdetektor 120 gelieferten Informationen nicht übereinstimmen. Wenn die Aktivierung der Spracherkennungsfunktion bestimmt wird, betätigt das Fahrzeug 100 den Spracherkenner 130, um die Spracherkennungsfunktion zu aktivieren.
  • Wenn in S130 die Aktivierung der Spracherkennungsfunktion bestimmt wird, fordert das Fahrzeug 100 den Server 200 für den automatischen Aufwachkontext an. Das Fahrzeug 100 kann die Fahrumgebungsinformationen und die Fahrzeuginformationen des Fahrzeugs 100 übertragen, wenn es eine Nachricht zum Anfordern des automatischen Aufwachkontexts sendet.
  • In S140 sucht der Server 200 die DB 230 nach dem automatischen Aufwachkontext als Reaktion auf die Anforderung des Fahrzeugs 100 und sendet die Informationen an das Fahrzeug 100. Der Server 200 kann dem Fahrzeug 100 das Schlüsselwort für den automatischen Aufwachkontext für jeden POI (Point of Interest), das im Voraus definierte Schlüsselwort für den automatischen Aufwachkontext auf Grundlage der Fahrumgebungsinformationen und/oder den Fahrzeuginformationen, das Schlüsselwort für den automatischen Aufwachkontext für eine unerwartete Situation und dergleichen, liefern.
  • In S150 erkennt das Fahrzeug 100 die Sprachinformationen durch den Spracherkenner 130. Der Prozessor 170 des Fahrzeugs 100 erkennt die von einem Benutzer (z.B. einem Fahrer oder Beifahrer) über mindestens ein im Fahrzeug 100 installiertes Mikrofon ausgesprochenen Sprachinformationen.
  • In S160 vergleicht das Fahrzeug 100 die erkannten Sprachinformationen mit dem vom Server 200 bereitgestellten automatischen Aufwachkontext. Das Fahrzeug 100 bestimmt, ob die erkannte Sprachinformation mit dem automatischen Aufwachkontext, d.h. dem Schlüsselwort für den automatischen Aufwachkontext, übereinstimmt.
  • In S170, wenn die erkannten Sprachinformationen mit dem automatischen Aufwachkontext übereinstimmen, sammelt das Fahrzeug 100 die Sprachinformationen über den Spracherkenner 130. Das Fahrzeug 100 bestimmt, ob mit dem Sammeln der Sprachinformationen begonnen werden soll, je nachdem, ob die erkannten Sprachinformationen mit dem automatischen Aufwachkontext übereinstimmen. Das Fahrzeug 100 beginnt, die Sprachinformationen zu sammeln, wenn die erkannten Sprachinformationen mit dem automatischen Aufwachkontext übereinstimmen. Mit anderen Worten, das Fahrzeug 100 erhält die Sprachinformationen durch den Spracherkenner 130 und speichert die Sprachinformationen im Speicher 150 nach dem Zeitpunkt, zu dem der automatische Aufwachkontext vom Benutzer ausgesprochen wird.
  • Im S180 sendet das Fahrzeug 100 die gesammelten Sprachinformationen an den Server 200. Der Server 200 empfängt die von mindestens einem Fahrzeug 100 übertragenen Sprachinformationen.
  • In S190 filtert und sammelt der Server 200 die vom Fahrzeug 100 empfangenen Sprachinformationen. Der Server 200 speichert und verwaltet die gesammelten Informationen in der DB 230.
  • In S200 generiert der Server 200 Dienstinformationen auf Grundlage der gesammelten Informationen. Der Server 200 extrahiert Informationen aus den gesammelten Informationen in Verbindung mit den aktuellen Standortinformationen des Fahrzeugs 100, um die Dienstinformationen zu generieren.
  • In S210 sendet der Server 200 die erzeugten Dienstinformationen an das Fahrzeug 100.
  • In S220 gibt das Fahrzeug 100 die vom Server 200 gelieferten Dienstinformationen in einer für den Benutzer erkennbaren Form aus. Das Fahrzeug 100 kann die Dienstinformationen auf dem Display anzeigen oder die Dienstinformationen als Sprachnachricht über den Lautsprecher ausgeben.
  • Wie vorstehend beschrieben, zeichnet das Fahrzeug, wenn der Benutzer einen Satz ausspricht, der das automatische Aufwachkontext-Schlüsselwort enthält, die ausgesprochenen Sprachinformationen auf und sendet sie zusammen mit den aktuellen Standortinformationen des Fahrzeugs 100 an den Server 200. Wenn der Server 200 die aktuellen Standortinformationen vom Fahrzeug 100 empfängt, kann der Server 200 die Zuordnungsinformationen aus der DB 230 in Verbindung mit den empfangenen aktuellen Standortinformationen extrahieren und die extrahierten Informationen verarbeiten, um die verarbeiteten Informationen an ein anderes Fahrzeug weiterzugeben. Wenn der Server 200 beispielsweise die Standortinformationen von einem bestimmten Fahrzeug empfängt, kann der Server 200 Dienstinformationen erzeugen, einschließlich des Auftretens des Unfalls auf der Straße, auf der das bestimmte Fahrzeug fährt, des Unfallortes und dergleichen in Verbindung mit den empfangenen Standortinformationen, und die Dienstinformationen für das bestimmte Fahrzeug zur Verfügung zu stellen.
  • Im Folgenden wird ein Beispiel für die Bereitstellung von Informationen auf der Grundlage der Spracherkennung in einigen Formen der vorliegenden Offenbarung beschrieben.
  • Erstens, wenn festgestellt wird, dass das Fahrzeug 100 einen bestimmten POI eingegeben hat, z.B. in einem Umkreis von 5 km um „Lotte-world@“, sendet das Fahrzeug 100 eine Meldung über die Anforderung des automatischen Aufwachkontexts zusammen mit den aktuellen Standortinformationen des Fahrzeugs 100 an den Server 200. Der Server 200 durchsucht die DB 230 nach Schlüsselwörtern wie „Lotte-world@“, „Freizeitpark“, „Parken“, „ Parkplatz“ und dergleichen, die dem spezifischen POI zugeordnet sind, auf Grundlage der aktuellen Standortinformationen des Fahrzeugs 100. Der Server 200 stellt dem Fahrzeug 100 das erkannte Schlüsselwort als automatischen Aufwachkontext zur Verfügung.
  • Wenn der vom Server 200 bereitgestellte automatische Aufwachkontext vom Benutzer geäußert wird, erhält das Fahrzeug 100 nach der Äußerung die Sprachinformationen durch den Spracherkenner 130 und sendet die Sprachinformationen an den Server 200. So erhält das Fahrzeug 100 beispielsweise „Lotte-World ist heute zu überlaufen“, „die Straße zur Lotte-World ist sehr verstopft“, „Der Vergnügungspark ist immer am Wochenende sehr gut besucht“, „Es braucht zu viel Zeit, um in einen Vergnügungspark zu gehen“, „Es gibt keinen Platz zum Parken“, „Parkplatz ist voll“ und dergleichen und sendet es an den Server 200.
  • Das Fahrzeug 100 deaktiviert die Spracherkennungsfunktion, wenn sich das Fahrzeug 100 außerhalb des spezifischen POI-Radius von 5 km befindet. Das heißt, das Fahrzeug 100 stoppt (beendet) den Betrieb des Spracherkenners 130.
  • Zweitens, wenn die von der Navigationsvorrichtung 110 bereitgestellten Fahrumgebungsinformationen und die von dem Fahrzeuginformationsdetektor 120 gelieferten Fahrzeuginformationen nicht übereinstimmen, kann das Fahrzeug 100 die Spracherkennungsfunktion unabhängig vom automatischen Aufwachkontext aktivieren, so dass Sprachinformationen erhalten werden können. So wird beispielsweise gemäß den von der Navigationsvorrichtung 110 bereitgestellten Verkehrsinformationen, wenn sich die befahrene Straße in einem Stauzustand befindet und die durch den Fahrzeuginformationsdetektor 120 erhaltene Fahrzeuggeschwindigkeit keine niedrige Geschwindigkeit von 50 km oder weniger ist, oder gemäß den von der Navigationsvorrichtung 110 gelieferten Wetterinformationen der Fahrbereich als Regengebiet identifiziert, aber gemäß den vom Fahrzeuginformationsdetektor 120 erhaltenen Informationen, wenn der Scheibenwischer nicht länger als eine Minute betätigt wird, werden die Sprachinformationen durch den Spracherkenner 130 erhalten und gespeichert.
  • Währenddessen kann das Fahrzeug 100 automatische Aufwachkontexte wie „Differenz“, „Fehler“, „Wetter“, „ Schön“, „Regen“, „Verkehr“, „Stauung“, „Verkehr reibungsfrei“ und dergleichen empfangen, indem es den automatischen Aufwachkontext vom Server 200 anfordert.
  • Wenn der Benutzer den automatischen Aufwachkontext ausspricht, erhält das Fahrzeug 100 durch die Spracherkennung 130 ausgedrückte Informationen wie „Verkehr ist fließend und nicht blockiert“, „es wird hier regnen, aber es regnet nicht dort“ und dergleichen. Das Fahrzeug 100 sendet die erhaltenen Sprachinformationen an den Server 200.
  • Das Fahrzeug 100 deaktiviert die Spracherkennungsfunktion, wenn die Fahrumgebungsinformationen und die Fahrzeuginformationen übereinstimmen oder wenn eine bestimmte Zeit verstrichen ist.
  • Drittens, wenn der automatische Aufwachkontext, der sich auf die unerwartete Situation bezieht, die im Speicher 150 gespeichert ist, vom Benutzer geäußert wird, speichert (sammelt) das Fahrzeug 100 die über den Spracherkenner 130 eingegebenen Sprachinformationen in den Speicher 150. Das Fahrzeug 100 überträgt die durch den Spracherkenner 130 erhaltenen Sprachinformationen an den Server 200. Wenn das Fahrzeug 100 in einen bestimmten Radius einer Unfallgefahr eintritt, fordert das Fahrzeug 100 den Server 200 auf, einen automatischen Aufwachkontext für die unerwartete Situation bereitzustellen. Wenn der automatische Aufwachkontext vom Benutzer ausgedrückt wird, überträgt das Fahrzeug 100 Sprachinformationen, wie „Ein Unfall (Problem) tritt auf“, „Es gibt einen Krankenwagen, also ein Unfall“ und dergleichen, die durch Spracherkennung an den Server 200 übermittelt werden.
  • Wenn das Fahrzeug 100 den im Speicher 150 gespeicherten automatischen Aufwachkontext verwendet, kann die Spracherkennungsfunktion in einem aktiven Zustand gehalten werden, bis der Fahrzeugbetrieb beendet ist. Wenn das Fahrzeug 100 den vom Server 200 bereitgestellten automatischen Aufwachkontext verwendet, kann die Spracherkennungsfunktion deaktiviert werden, wenn das Fahrzeug 100 aus einem bestimmten Radius der Unfallgefahr herauskommt.
  • Gemäß der vorliegenden Offenbarung werden die Informationen auf Grundlage der Spracherkennung ohne eine bestimmte Bedienung des Benutzers gesammelt, indem der Kontext für das automatische Aufwachen der Spracherkennungsfunktion auf Grundlage der Fahrumgebungsinformationen und/oder den Fahrzeuginformationen des Fahrzeugs ohne jegliche Aktion des Benutzers geändert wird, so dass es möglich ist, eine Streuung der Aufmerksamkeit aufgrund der Aktion des Benutzers während der Fahrt zu verhindern.
  • Darüber hinaus werden gemäß der vorliegenden Offenbarung Informationen zum Datenschutz aus den gesammelten Äußerungsinformationen gefiltert und an andere Fahrzeuge weitergegeben, so dass verhindert werden kann, dass die Informationen zum Datenschutz durchsickern.
  • Die Beschreibung der Offenbarung ist lediglich exemplarischer Natur, so dass Abweichungen, die nicht vom Inhalt der Offenbarung abweichen, im Rahmen der Offenbarung liegen sollen. Solche Abweichungen sind nicht als Abweichung von Geist und Umfang der Offenbarung zu betrachten.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • KR 1020190055047 [0001]

Claims (20)

  1. System zum Bereitstellen von Informationen auf der Grundlage von Spracherkennung, wobei das System aufweist: ein Fahrzeug; und einen Server, der ausgestaltet ist: dem Fahrzeug einen automatischen Aufwachkontext einer Spracherkennungsfunktion bereitzustellen, der auf Fahrumgebungsinformationen und Fahrzeuginformationen basiert; Sprachinformationen, die mit dem automatischen Aufwachkontext assoziiert sind, vom Fahrzeug zu empfangen; Dienstinformationen mittels Verarbeiten der empfangenen Sprachinformationen zu erzeugen; und die Dienstinformationen einem anderen Fahrzeug zur Verfügung zu stellen, wobei das Fahrzeug ausgestaltet ist: die Sprachinformationen automatisch unter Verwendung der Spracherkennung zu erfassen, wenn der automatische Aufwachkontext ausgesprochen wird; und die Sprachinformationen an den Server zu übertragen.
  2. System gemäß Anspruch 1, wobei der Server ausgestaltet ist persönliche Informationen aus den Sprachinformationen herauszufiltern.
  3. System gemäß Anspruch 1 oder 2, wobei der Server ausgestaltet ist die Dienstinformationen auf der Grundlage mindestens einer der Äußerungshäufigkeit der Sprachinformationen oder einer Gewichtung, die dem automatischen Aufwachkontext entspricht, zu erzeugen.
  4. Fahrzeug, aufweisend: eine Navigationsvorrichtung, die ausgestaltet ist Fahrumgebungsinformationen des Fahrzeugs bereitzustellen; einen Fahrzeuginformationsdetektor, der ausgestaltet ist, Fahrzeuginformationen bereitzustellen; einen Spracherkenner, der ausgestaltet ist Sprachinformationen im Fahrzeug zu erkennen; und einen Prozessor, der ausgestaltet ist Sprachinformationen zu erhalten, die einem automatischen Aufwachkontext zugeordnet sind, der entsprechend den Fahrumgebungsinformationen und den Fahrzeuginformationen geändert wird.
  5. Fahrzeug gemäß Anspruch 4, wobei der Prozessor ausgestaltet ist zu bestimmen, ob der Spracherkenner auf der Grundlage mindestens einer der Fahrumgebungsinformationen oder der Fahrzeuginformationen aktiviert werden soll.
  6. Fahrzeug gemäß Anspruch 5, wobei der Prozessor ausgestaltet ist den Spracherkenner zu aktivieren, wenn die Fahrumgebungsinformationen mit den Fahrzeuginformationen nicht übereinstimmen.
  7. Fahrzeug gemäß Anspruch 5 oder 6, wobei das Fahrzeug ferner aufweist: eine Kommunikationsvorrichtung, die ausgestaltet ist mit einem Server in Verbindung zu stehen, wobei der Prozessor ausgestaltet ist vom Server den automatischen Aufwachkontext zu empfangen.
  8. Fahrzeug gemäß Anspruch 7, wobei der Prozessor ausgestaltet ist, mittels des Spracherkenners, zu bestimmen, ob der automatische Aufwachkontext ausgesprochen wird, nachdem der Spracherkenner aktiviert worden ist.
  9. Fahrzeug gemäß Anspruch 8, wobei der Prozessor ausgestaltet ist: die Sprachinformationen zu erhalten, nachdem der automatische Aufwachkontext ausgesprochen worden ist; und die Sprachinformationen an den Server zu übertragen.
  10. Fahrzeug gemäß einem der Ansprüche 4 bis 9, wobei das Fahrzeug ferner aufweist: einen Speicher, der ausgestaltet ist, den automatischen Aufwachkontext auf Grundlage der Fahrumgebungsinformationen und den Fahrzeuginformationen zu speichern.
  11. Verfahren zum Bereitstellen von Informationen auf Grundlage von Spracherkennung, wobei das Verfahren aufweist: Erhalten von Fahrumgebungsinformationen und Fahrzeuginformationen mittels eines Fahrzeugs; Erhalten von Sprachinformationen mittels des Fahrzeugs, die mit einem automatischen Aufwachkontext einer Spracherkennungsfunktion assoziiert sind, auf der Grundlage der Fahrumgebungsinformationen und der Fahrzeuginformationen; Übertragen der Sprachinformationen an einen Server mittels des Fahrzeugs; Erzeugen von Dienstinformationen mittels des Servers durch Verarbeiten der Sprachinformationen; und Bereitstellen der Dienstinformationen für ein anderes Fahrzeug mittels des Servers.
  12. Verfahren gemäß Anspruch 11, wobei das Erhalten der Fahrumgebungsinformationen und der Fahrzeuginformationen aufweist: Erhalten der Fahrumgebungsinformationen, einschließlich mindestens einer der aktuellen Standortinformationen, Echtzeit-Straßeninformationen oder Wetterinformationen, mittels einer Navigationsvorrichtung des Fahrzeugs; und Erhalten der Fahrzeuginformationen, die mindestens eine von Fahrzeuggeschwindigkeitsinformationen oder Zustandsinformationen aufweisen, mittels einer Vielzahl von Sensoren des Fahrzeugs.
  13. Verfahren gemäß Anspruch 11 oder 12, wobei das Erhalten der Sprachinformationen aufweist: Bestimmen einer Aktivierung der Spracherkennungsfunktion durch das Fahrzeug auf Grundlage der Fahrumgebungsinformationen und den Fahrzeuginformationen; Erfassen der Äußerung des automatischen Aufwachkontextes mittels des Fahrzeugs, nachdem die Spracherkennungsfunktion aktiviert worden ist; und Erhalten und Speichern von Sprachinformationen mittels des Fahrzeugs, nachdem der automatische Aufwachkontext ausgesprochen worden ist.
  14. Verfahren gemäß Anspruch 13, wobei das Bestimmen der Aktivierung der Spracherkennungsfunktion aufweist: Bestimmen der Aktivierung der Spracherkennungsfunktion, wenn eine Straße, auf der das Fahrzeug fährt, aufgrund der Fahrumgebungsinformationen als überlasteter Zustand identifiziert worden ist.
  15. Verfahren gemäß Anspruch 13 oder 14, wobei das Bestimmen der Aktivierung der Spracherkennungsfunktion aufweist: Bestimmen der Aktivierung der Spracherkennungsfunktion, wenn das Fahrzeug auf Grundlage der Fahrzeuginformationen als in einem langsamen oder stehenden Zustand identifiziert worden ist.
  16. Verfahren gemäß Anspruch 13, 14 oder 15, wobei das Bestimmen der Aktivierung der Spracherkennungsfunktion aufweist: Bestimmen der Aktivierung der Spracherkennungsfunktion, wenn die Fahrumgebungsinformationen mit den Fahrzeuginformationen nicht übereinstimmen.
  17. Verfahren gemäß einem der Ansprüche 13 bis 16, wobei das Verfahren ferner aufweist: Anfordern des automatischen Aufwachkontextes vom Server mittels des Fahrzeugs; und Bereitstellen des automatischen Aufwachkontexts für das Fahrzeug mittels des Servers auf der Grundlage der Fahrumgebungsinformationen und der Fahrzeuginformationen.
  18. Verfahren gemäß einem der Ansprüche 13 bis 17, wobei das Erfassen der Äußerung des automatischen Aufwachkontextes aufweist: Erhalten von Sprachinformationen mittels des Fahrzeugs, die von einem Benutzer im Fahrzeug ausgesprochen werden; Vergleichen der Sprachinformationen mit dem automatischen Aufwachkontext; und Bestimmen, ob der automatische Aufwachkontext auf Grundlage eines Vergleichsergebnisses ausgesprochen worden ist.
  19. Verfahren gemäß einem der Ansprüche 11 bis 18, wobei das Erzeugen der Dienstinformationen aufweist: Sammeln von Informationen mittels des Servers durch Filtern persönlicher Informationen aus den Sprachinformationen; und Erzeugen der Dienstinformationen mittels des Servers auf der Grundlage der erfassten Informationen.
  20. Verfahren gemäß Anspruch 19, wobei das Sammeln der Informationen aufweist: Sammeln der Informationen auf der Grundlage von mindestens einer Äußerungshäufigkeit der Sprachinformationen oder einer Gewichtung, die dem automatischen Aufwachkontext entspricht.
DE102019212050.4A 2019-05-10 2019-08-12 System und Verfahren zum Bereitstellen von Informationen auf der Grundlage von Sprecherkennung Pending DE102019212050A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0055047 2019-05-10
KR1020190055047A KR20200129922A (ko) 2019-05-10 2019-05-10 음성인식 기반 정보 제공 시스템 및 방법

Publications (1)

Publication Number Publication Date
DE102019212050A1 true DE102019212050A1 (de) 2020-11-12

Family

ID=72943475

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019212050.4A Pending DE102019212050A1 (de) 2019-05-10 2019-08-12 System und Verfahren zum Bereitstellen von Informationen auf der Grundlage von Sprecherkennung

Country Status (4)

Country Link
US (1) US11133007B2 (de)
KR (1) KR20200129922A (de)
CN (1) CN111916069B (de)
DE (1) DE102019212050A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200129922A (ko) * 2019-05-10 2020-11-18 현대자동차주식회사 음성인식 기반 정보 제공 시스템 및 방법
CN114968428A (zh) * 2021-02-20 2022-08-30 上海博泰悦臻网络技术服务有限公司 虚拟角色的静默模式设定方法、系统、介质及装置
CN114356275B (zh) * 2021-12-06 2023-12-29 上海小度技术有限公司 交互控制方法、装置、智能语音设备及存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6298324B1 (en) * 1998-01-05 2001-10-02 Microsoft Corporation Speech recognition system with changing grammars and grammar help command
CN1811341A (zh) * 2005-01-27 2006-08-02 乐金电子(惠州)有限公司 车载导航装置及其工作方法
US9177557B2 (en) * 2009-07-07 2015-11-03 General Motors Llc. Singular value decomposition for improved voice recognition in presence of multi-talker background noise
US8766817B2 (en) * 2011-03-07 2014-07-01 International Business Machines Corporation Road hazard detection and warning system and method
CN103090871A (zh) * 2011-11-04 2013-05-08 上海博泰悦臻网络技术服务有限公司 车载导航装置及其导航方法、车载导航系统
WO2016028228A1 (en) * 2014-08-21 2016-02-25 Avennetz Technologies Pte Ltd System, method and apparatus for determining driving risk
WO2016054230A1 (en) * 2014-10-01 2016-04-07 XBrain, Inc. Voice and connection platform
CN104802798A (zh) * 2015-04-30 2015-07-29 佛山市天地行科技有限公司 行车安全提醒方法
EP3936394A1 (de) * 2015-07-02 2022-01-12 Sony Group Corporation Fahrzeugsteuerungsvorrichtung, fahrzeugsteuerungsverfahren und programm
CN106504556A (zh) * 2015-09-07 2017-03-15 深圳市京华信息技术有限公司 一种语音查询和播报实时路况的方法及系统
KR101850857B1 (ko) * 2016-05-30 2018-04-23 엘지전자 주식회사 디스플레이 장치 및 이를 포함하는 차량
KR102338990B1 (ko) * 2017-01-23 2021-12-14 현대자동차주식회사 대화 시스템, 이를 포함하는 차량 및 대화 처리 방법
US10144346B1 (en) * 2018-03-31 2018-12-04 Jewel L. Dohan Voice-recognition/voice-activated vehicle signal system
KR102562227B1 (ko) * 2018-06-12 2023-08-02 현대자동차주식회사 대화 시스템, 그를 가지는 차량 및 차량의 제어 방법
CN108766423B (zh) * 2018-05-25 2021-07-09 三星电子(中国)研发中心 一种基于场景的主动唤醒方法和装置
KR20200000155A (ko) * 2018-06-22 2020-01-02 현대자동차주식회사 대화 시스템 및 이를 이용한 차량
KR20200129922A (ko) * 2019-05-10 2020-11-18 현대자동차주식회사 음성인식 기반 정보 제공 시스템 및 방법

Also Published As

Publication number Publication date
CN111916069B (zh) 2024-03-22
KR20200129922A (ko) 2020-11-18
CN111916069A (zh) 2020-11-10
US20200357394A1 (en) 2020-11-12
US11133007B2 (en) 2021-09-28

Similar Documents

Publication Publication Date Title
DE202016107361U1 (de) Verwalten von Nachrichten in Fahrzeugen
DE102018130755A1 (de) Externe informationsdarstellung
EP2983937B1 (de) Verfahren und vorrichtung zur proaktiven dialogführung
DE102017110251A1 (de) Funktionalität zur Rundum-Versorgung für Fahrgäste von vollständig autonomen gemeinsam genutzten oder Taxidienst-Fahrzeugen
DE102019212050A1 (de) System und Verfahren zum Bereitstellen von Informationen auf der Grundlage von Sprecherkennung
DE102020215839A1 (de) Fahrzeuginternes abtastmodul zur überwachung eines fahrzeugs
DE102018100097A1 (de) Interaktives fahrersystem für halbautonome modi eines fahrzeugs
DE102017102532A1 (de) Geofencing-Anwendung für Fahrkomfort
DE102016106803B4 (de) Adaptives Fahrzeugschnittstellensystem
DE102017126167A1 (de) Verfahren und vorrichtung zur fahrzeugfahrunterstützung
DE102019118595A1 (de) Beifahrer-frontanzeigen für fahrzeuge
DE102017123687A1 (de) Dynamisches aktualisieren der routenauswahl für halb-autonomes fahren
DE102013110594A1 (de) Verfahren zum Kontrollieren von Fahrzeugschnittstellen unter Verwendung von Gerätebewegung und Nahfeldkommunikation
DE102019105251A1 (de) Dialekt- und sprachenerkennung zur spracherkennung in fahrzeugen
DE102016114754A1 (de) Fokussiersystem zum Verbessern einer Fahrzeugsichtleistung
DE102019124907A1 (de) Fahrzeugwerbung
DE102018120911A1 (de) Navigationssystem mit automatischer Unterdrückung von Navigationsanweisungen für bekannte geographische Gebiete
DE102015206263A1 (de) Anwendungsvorhersage für kontextbezogene schnittstellen
EP2727773A1 (de) Verfahren zum Aktivieren einer Sprachinteraktion mit einem Insassen eines Fahrzeugs und Sprachinteraktionssystem für ein Fahrzeug
DE112016007479T5 (de) Werbetafeloberflächen für fahrzeuganzeigen
DE112015006714T5 (de) Vom nutzer konfigurierbares fahrzeug-einparkhilfesystem
DE102022111037A1 (de) Verfahren und systeme zur optimierung von fahrzeugereignisprozessen
EP3729423B1 (de) Verfahren zum betreiben einer schallausgabeeinrichtung eines kraftfahrzeugs, sprachanalyse- und steuereinrichtung, kraftfahrzeug, und kraftfahrzeugexterne servereinrichtung
DE102017109097A1 (de) Disambiguierung von spracherkennungsbefehlen für ein fahrzeug
DE102019132403A1 (de) Verfahren zum selbsttätigen Auswählen eines Nutzerprofils in einem Fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G10L0015220000

Ipc: G10L0015080000

R016 Response to examination communication