DE102011002985A1 - Beratungssystem mit einem Zeitagenten - Google Patents

Beratungssystem mit einem Zeitagenten Download PDF

Info

Publication number
DE102011002985A1
DE102011002985A1 DE102011002985A DE102011002985A DE102011002985A1 DE 102011002985 A1 DE102011002985 A1 DE 102011002985A1 DE 102011002985 A DE102011002985 A DE 102011002985A DE 102011002985 A DE102011002985 A DE 102011002985A DE 102011002985 A1 DE102011002985 A1 DE 102011002985A1
Authority
DE
Germany
Prior art keywords
occupant
spoken
time
time information
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102011002985A
Other languages
English (en)
Inventor
Steven Joseph Mr. Mich. Szwabowski
Perry Robinson Mr. Mich. MacNeille
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102011002985A1 publication Critical patent/DE102011002985A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Acoustics & Sound (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)

Abstract

Ein Beratungssystem zur Verwendung durch einen oder mehrere Insassen eines Kraftfahrzeugs umfasst einen Computer. Der Computer ist dafür ausgelegt, Eingaben zu empfangen, die einen Betriebszustand des Fahrzeugs angeben. Der Computer bestimmt eine Notwendigkeit, einem Insassen Zeitinformationen zu geben, auf der Basis des Betriebszustands des Fahrzeugs und/oder eine Insassenanforderung, dem Insassen Zeitinformationen zu geben. Der Computer erzeugt Daten, die einen Avatar mit einem Aussehen repräsentieren, und Daten, die eine gesprochene Aussage für den Avatar repräsentieren. Die gesprochene Aussage gibt dem Insassen Zeitinformationen in gesprochenem Dialog auf der Basis der Notwendigkeit und/oder der Anforderung. Der Computer gibt zur visuellen Anzeige Daten, die den Avatar repräsentieren, und zur Audiowiedergabe Daten, die die Aussage für den Avatar repräsentieren, aus.

Description

  • STAND DER TECHNIK
  • Die Erfindung betrifft ein Beratungssystem (EAS – Emotive Advisory System) zur Verwendung durch einen oder mehrere Insassen eines Kraftfahrzeugs.
  • Die Verwendung der Fahrzeuguhr sollte für den Fahrer so einfach als hätte er einen Passagier im Auto, der die Zeit für ihn herausfinden kann. Ferner sollte es möglich sein, die Zeit in einem analogen Format anzuzeigen, so dass sie leichter zu lesen wird. Uhren mit Radios auf dem neuesten Stand der Technik sind schwierig zu verwenden. Die traditionelle analoge Uhr, die auf dem Armaturenbrett sichtbar war, wurde aufgrund von Überfüllung auf dem Armaturenbrett beseitigt. Die Uhr auf dem neuesten Stand der Technik ist ein LED- oder LC-Anzeige, das die Zeit periodisch auf einer kleinen Anzeige in digitalem Format anzeigt.
  • Beim Lesen des Anzeige wird immer von der Straße weggeschaut und darauf gewartet, dass die Zeit auf dem Anzeige erscheint. Oft ist das Anzeige bei der Verwendung von Sonnenbrillen oder bei Nahfeld-Sehschwäche nicht sichtbar. Deshalb müssen Brillen abgenommen oder aufgesetzt werden, bevor die Zeit gelesen werden kann, und während die Zeit gelesen wird, kann der Fahrer die Straße vor dem Auto nicht ausreichend beobachten. Ferner können bei Uhren auf dem neuesten Stand der Technik viele der Merkmale fehlen, durch die sie leicht zu verwenden werden könnten. Eine digitale Zeitanzeige ist nicht zweckmäßig, weil man oft einige Arithmetik ausführen muss, um die Informationen zu erhalten, die man benötigt. Wenn man zum Beispiel um 13:10 einen Termin hat und auf der Uhr 12:56 steht, muss nachgerechnet werden um zu erkenne, dass man 14 Minuten hat, um zu seinem Termin zu kommen.
  • Uhren auf dem neuesten Stand der Technik korrigieren nicht die Sommerzeit oder die Zeitzone. Sie können einem auch nicht die Zeit in Chicago mitteilen, wenn man sich in Detroit befindet. Der Fahrer sollte in der Lage sein, die Uhr zu fragen „Wie lange noch?”, und die Uhr sagt einem, wie viele Minuten es zum Ziel sind. Leider sind Fahrzeuguhren nicht sehr gut in andere Fahrzeugfunktionen integriert. Zum Beispiel gibt es keine Möglichkeit, die Zeit zu berechnen, in der der Kraftstoff ausgehen wird, oder die Zeit, zu der am Standort oder voraussichtlichen Standort des Fahrzeugs die Sonne auf- oder untergeht oder schlechtes Wetter herrschen wird.
  • Zusätzlich wird das Fahrzeugarmaturenbrett immer komplexer. Wenn neue Systeme hinzugefügt und existierende Systeme komplexer werden, besteht zusätzliche Konkurrenz um Platz auf dem Armaturenbrett, und die Steuerelemente sind immer schwieriger zu verwenden. Neue Systeme umfassen Navigationssysteme, MP3-Player, freihändige Mobilfunkgeräte und Satellitenradios; dagegen sind ältere Systeme, die komplexer werden, UKW-MW-Radios, HVAC (Heizung, Ventilation und Klimaanlage), Fahrzeugbeleuchtung und Kraftübertragungs-Steuerelemente.
  • Es besteht zunehmend ein Trend weg von herkömmlichen Steuerelementen zu menschlichen Schnittstellen zur Verwaltung dieser Komplexität. Bei einem Ansatz werden mehrere Schnittstellen in einem Kraftfahrzeug in einem Beratungssystem (EAS) zu einer einzigen Schnittstelle konsolidiert. Hintergrundinformationen finden sich zum Beispiel in der US-Pub. Nr. 2008/0269958 .
  • Aufgabe der Erfindung ist es, ein Beratungssystem benutzerfreundlicher zu gestalten. Insbesondere soll es leichter bedienbar und/oder leichter für den Benutzer verständlich sein.
  • Gelöst wird diese Aufgabe mit den Merkmalen des Anspruchs 1.
  • Bei einer Ausführungsform der Erfindung umfasst ein Beratungssystem zur Verwendung durch einen oder mehrere Insassen eines Kraftfahrzeugs einen Computer. Der Computer ist dafür ausgelegt, Eingaben zu empfangen, die einen Betriebszustand des Fahrzeugs angeben. Der Computer bestimmt mindestens eine der folgenden Alternativen: (1) eine Notwendigkeit, einem Insassen Zeitinformationen zu geben, auf der Basis des Betriebszustands des Fahrzeugs und (2) eine Insassenanforderung, dem Insassen Zeitinformationen zu geben. Der Computer erzeugt Daten, die einen Avatar repräsentieren, der ein Aussehen aufweist, und Daten, die eine gesprochene Aussage für den Avatar repräsentieren. Die gesprochene Aussage gibt dem Insassen Zeitinformationen im gesprochenen Dialog auf der Basis der Notwendigkeit und/oder der Anforderung. Der Computer gibt zur visuellen Anzeige Daten, die den Avatar repräsentieren, und zur Audiowiedergabe Daten, die die Aussage für den Avatar repräsentieren, aus.
  • Unter Avatar ist eine künstliche Person oder ein grafischer Stellvertreter einer echten Person in der virtuellen Welt im Computer des Fahrzeugs zu verstehen.
  • Ausführungsformen der Erfindung können auf vielfältige Weise implementiert werden. Zum Beispiel kann der Computer ferner dafür ausgelegt sein, eine Schnittstelle natürlicher Sprache zur Kommunikation mit den Insassen bereitzustellen. Zum Beispiel können das Aussehen und die gesprochene Aussage dem Insassen einen simulierten emotionalen Zustand des Avatar vermitteln.
  • Bei einer Ausführungsform ist der Computer ferner dafür ausgelegt, Eingaben in Form von gesprochenem Dialog zu empfangen, die die Insassenanforderung angeben, dem Insassen Zeitinformationen zu geben. Die gesprochene Aussage gibt dem Insassen Zeitinformationen in gesprochenem Dialog auf der Basis der Anforderung.
  • In der gesprochenen Aussage gegebene Zeitinformationen können ferner auf Benutzerpräferenzen basieren und/oder können ferner auf Kontextinformationen basieren.
  • Bei einer Ausführungsform ist der Computer ferner dafür ausgelegt, die Notwendigkeit, dem Insassen Zeitinformationen zu geben, auf der Basis eines vorherigen als Eingabe empfangenen Befehls in Form von gesprochenem Dialog zu bestimmen, der einen vom Insassen gesetzten Alarm anzeigt. Der vorherige Befehl kann ferner eine Dringlichkeit für den Alarm angeben.
  • Zusätzlich versteht sich, dass Ausführungsformen der Erfindung Zeitinformationen geben können, die auf von verschiedenen Quellen erhaltenen Informationen basieren. Zum Beispiel kann der Computer ferner dafür ausgelegt sein, mit einem Navigationssystem für das Kraftfahrzeug zu kommunizieren. In diesem Fall gibt die gesprochene Aussage dem Insassen Zeitinformationen in gesprochenem Dialog teilweise auf der Basis von aus dem Navigationssystem erhaltenen Informationen. Bei anderen Beispielen kann der Computer mit einem globalen Positionsbestimmungssystem des Kraftfahrzeugs oder einem von dem Kraftfahrzeug getrennten Zeitanwendungsserver kommunizieren.
  • Bei einer anderen Ausführungsform umfasst die Erfindung ein Beratungssystem zur Verwendung durch einen oder mehrere Insassen eines Kraftfahrzeugs mit einem Computer; der Computer ist dafür ausgelegt, auf der Basis eines Betriebszustands des Fahrzeugs eine Notwendigkeit zu bestimmen, einem Insassen Zeitinformationen zu geben. Der Computer erzeugt Daten, die eine gesprochene Aussage repräsentieren, die dem Insassen Zeitinformationen in gesprochenem Dialog auf der Basis der Notwendigkeit geben, und gibt die Daten, die die Aussage repräsentieren, zur Audiowiedergabe aus.
  • Weitere Merkmale der Erfindung ergeben sich aus den Zeichnungen und der dazugehörigen Beschreibung.
  • 1 ist ein Blockdiagramm eines Beratungssystems für ein Kraftfahrzeug in einer Ausführungsform;
  • 2 ist ein Blockdiagramm eines Beratungssystems für ein Kraftfahrzeug mit einem Zeitagenten in einer Ausführungsform;
  • 3 zeigt eine Ausführungsform des Zeitagenten einschließlich verschiedener Funktionsmodule;
  • 4 bis 7 zeigen den Betrieb der verschiedenen Funktionsmodule des Zeitagenten;
  • 8A bis 8D zeigen Aspekte eines Nachrichtenprotokolls für den Zeitagenten;
  • 9 ist ein Blockdiagramm, das einen EAS-Agenten darstellt, der wünscht, die Zeit anzusagen, in einer Ausführungsform der Erfindung;
  • 10 ist ein Blockdiagramm, das einen Fahrer darstellt, der Zeitinformationen anfordert, in einer Ausführungsform der Erfindung; und
  • 11 ist ein Blockdiagramm, das einen EAS-Agenten darstellt, der wünscht, die Zeit zu erfahren, in einer Ausführungsform der Erfindung.
  • Ausführungsformen der Erfindung umfassen ein Beratungssystem (EAS) zur Verwendung durch einen oder mehrere Insassen eines Kraftfahrzeugs. Bei einem Ansatz zur Implementierung des Systems werden verschiedene Fahrzeugschnittstellen in dem Kraftfahrzeug zu einer einzigen Schnittstelle in dem Beratungssystem (EAS) konsolidiert.
  • Im Allgemeinen übermittelt das Beratungssystem (EAS) für das Kraftfahrzeug einem Insassen Informationen auf gefühlsansprechende Weise. Das System empfängt Eingaben, die einen Betriebszustand des Fahrzeugs angeben, transformiert die Angaben in Daten, die einen simulierten emotionalen Zustand repräsentieren, und erzeugt Daten, die einen Avatar repräsentieren, der den simulierten emotionalen Zustand ausdrückt. Der Avatar kann angezeigt werden. Das System kann eine Anfrage von dem Insassen bezüglich des emotionalen Zustands des Avatars empfangen und auf die Anfrage reagieren. Ein beispielhaftes Beratungssystem und -verfahren wird in der US-Pub. Nr. 2008/0269958 beschrieben.
  • Wie in 1 gezeigt, hilft eine Ausführungsform eines Beratungssystems (EAS) 10 einem Insassen/Benutzer 12 eines Fahrzeugs 14 beim Betrieb des Fahrzeugs 14 und beim Zugriff auf von dem Fahrzeug 14 abgesetzte Informationsquellen 16a, 16b, 16c, wie zum Beispiel Webserver usw., über ein Netzwerk 17. Natürlich können innerhalb des Kontextes einer beliebigen Art von Einrichtung und/oder Maschine andere Ausführungsformen des EAS 10 implementiert werden. Zum Beispiel kann das EAS 10 mit einem Haushaltsgerät, einem Handdatenverarbeitungsgerät usw. einhergehen. Bestimmte Ausführungsformen des EAS 10 können als ein integriertes Modul implementiert werden, das mit einer anderen Einrichtung und/oder Maschine gedockt werden kann. Ein Benutzer kann somit sein EAS 10 mit sich führen und es als Schnittstelle mit Einrichtungen und/oder Maschinen, mit denen er in Dialog treten möchte, verwenden. Es sind auch andere Konfigurationen und Anordnungen möglich.
  • Bei der Ausführungsform von 1 detektieren Sensoren 18 durch den Insassen 12 erzeugte Eingaben und setzen diese in digitale Informationen für einen Computer 20 um. Der Computer 20 empfängt diese Eingaben sowie Eingaben von den Informationsquellen 16a, 16b, 16c und Fahrzeugsystemen 22. Der Computer 20 verarbeitet diese Eingaben und erzeugt Ausgaben für mindestens eine der folgenden Alternativen: den Insassen 12, die Informationsquellen 16a, 16b, 16c und Fahrzeugsysteme 22. Aktoren/Ausgänge usw. 24 setzen die Ausgaben für den Insassen 12 aus einem digitalen Format in ein Format um, das von dem Insassen 12 wahrgenommen werden kann, wie zum Beispiel visuell, hörbar, tastend, haptisch usw.
  • Der Insasse 12 kann bei bestimmten Ausführungsformen durch gesprochenen Dialog mit dem EAS 10 kommunizieren, der Diskursregeln (z. B. die Maximen von Grice) befolgt. Zum Beispiel kann der Insasse 12 fragen „Gibt es gute Restaurants in der Nähe?”. Als Reaktion kann das EAS 10 entsprechende Informationsquellen 16a, 16b, 16c abfragen und zusammen mit geografischen Ortsinformationen von den Fahrzeugsystemen 22 eine Liste von gut bewerteten Restaurants in der Nähe des aktuellen Orts des Fahrzeugs 14 bestimmen. Das EAS 10 kann mit dem folgenden simulierten Dialog antworten: „Es gibt einige wenige. Möchten Sie die Liste hören?” Eine bejahende Antwort von dem Insassen 12 kann bewirken, dass das EAS 10 die Liste liest.
  • Der Insasse 12 kann dem EAS 10 auch befehlen, bestimmte mit den Fahrzeugsystemen 22 assoziierte Parameter zu ändern. Zum Beispiel kann der Insasse 12 aussagen „Mir ist heute nach schnell fahren”. Als Reaktion kann das EAS 10 fragen „Möchten Sie, dass die Kraftübertragung für Performance-Fahren optimiert wird?”. Eine bejahende Reaktion von dem Insassen 12 kann bewirken, dass das EAS 10 Motor-Tuningparameter für verbesserte Performance ändert.
  • Bei bestimmten Ausführungsformen kann der gesprochene Dialog mit dem EAS 10 ohne Betätigung jeglicher Tasten oder anderweitige physische Eingabe in das EAS 10 eingeleitet werden. Diese Funktionalität des offenen Mikrofons ermöglicht es dem Insassen 12 ein Gespräch mit dem EAS 10 genauso einzuleiten, wie der Insasse 12 ein Gespräch mit einem anderen Insassen des Fahrzeugs 14 einleiten würde.
  • Der Insasse 12 kann dem EAS 10 auch „ins Wort fallen”, während es spricht. Zum Beispiel kann der Insasse 12, während das EAS 10 die obenerwähnte Liste von Restaurants liest, einwerfen: „Sag mir mehr über Restaurant X”. Als Reaktion kann das EAS 10 mit dem Lesen der Liste aufhören und entsprechende Informationsquellen 16a, 16b, 16c abfragen, um zusätzliche Informationen bezüglich des Restaurants X zu sammeln. Das EAS 10 kann dann die zusätzlichen Informationen dem Insassen 12 vorlesen.
  • Bei einigen Ausführungsformen umfassen die Aktoren/Ausgänge 24 einen Bildschirm, der selektiv einen Avatar anzeigt. Der Avatar kann eine grafische Repräsentation eines Menschen, eines Tiers, einer Maschine, einer Pflanze, eines Fahrzeugs usw. sein und kann Merkmale wie zum Beispiel ein Gesicht usw. umfassen, die in der Lage sind, visuell Emotion zu übermitteln. Der Avatar kann von der Sicht verborgen werden, wenn zum Beispiel eine Geschwindigkeit des Fahrzeugs 14 größer als eine Schwelle ist, die vom Hersteller oder vom Benutzer definiert werden kann. Die Stimme des Avatars kann jedoch weiter zu hören sein. Natürlich kann jede beliebige geeignete Art von Anzeigetechnologie verwendet werden, wie zum Beispiel eine holografische oder Head-Up-Anzeige.
  • Der simulierte menschliche emotionale Zustand des Avatars kann sich nach vielfältigen verschiedenen Kriterien richten, darunter ein geschätzter emotionaler Zustand des Insassen 12, ein Zustand des Fahrzeugs 14 und/oder die Qualität, mit der das EAS 10 eine Aufgabe ausführt usw. Zum Beispiel können die Sensoren 18 Kopfbewegungen, Sprachprosodie, biometrische Informationen usw. des Insassen 12 detektieren, die, wenn sie durch den Computer 20 verarbeitet werden, anzeigen, dass der Insasse 12 verärgert ist. Bei einer beispielhaften Reaktion kann das EAS 10 den Dialog, den es mit dem Insassen 12 einleitet, begrenzen oder unterbrechen, während der Insasse 12 verärgert ist. Bei einer anderen beispielhaften Reaktion kann der Avatar in blauen Farbtönen mit einem besorgten Gesichtsausdruck wiedergegeben werden und kann in einer ruhigen Stimme fragen „Ärgert Sie etwas?”. Wenn der Insasse 12 reagiert, indem er „Wegen dieses Verkehrs komm ich wahrscheinlich zu spät zur Arbeit” sagt, kann der Avatar fragen „Soll ich eine schnellere Route finden?” oder „Soll ich jemanden anrufen?”. Wenn der Insasse 12 reagiert, indem er „Nein. Es gibt keinen anderen Weg...” sagt, kann der Avatar fragen „Möchten Sie etwas klassische Musik hören?”. Der Insasse 12 kann antworten „Nein. Aber kannst du mir etwas über die bevorstehenden Wahlen sagen?”. Als Reaktion kann das EAS 10 die entsprechenden Informationsquellen 16a, 16b, 16c abfragen, um die neuesten Nachrichten über die Wahlen zu sammeln. Während der Abfrage kann, wenn die Kommunikationsverbindung mit den Informationsquellen 16a, 16b, 16c stark ist, der Avatar froh aussehen. Wenn die Kommunikationsverbindung mit den Informationsquellen 16a, 16b, 16c jedoch schwach ist, kann der Avatar traurig aussehen, wodurch der Insasse dazu aufgefordert wird, zu fragen „Hast du Schwierigkeiten, Nachrichten über die Wahlen zu erhalten?”. Der Avatar kann antworten „Ja, ich habe Schwierigkeiten, eine Fernkommunikationsverbindung herzustellen”.
  • Während des obigen Austauschs kann der Avatar frustriert zu werden scheinen, wenn zum Beispiel das Fahrzeug 14 häufige Beschleunigung und Bremsung oder anderweitigen harschen Umgang erfährt. Diese Änderung der simulierten Emotion kann den Insassen 12 dazu auffordern, zu fragen „Was hast du?”. Der Avatar kann antworten „Ihr Fahrstil ist schlecht für meinen Kraftstoffverbrauch. Vielleicht sollten häufige Beschleunigung und Bremsung verringert werden”. Der Avatar kann auch verwirrt zu werden scheinen, wenn zum Beispiel der Avatar einen Befehl oder eine Anfrage von dem Insassen 12 nicht versteht. Diese Art von Dialog kann fortgesetzt werden, wobei der Avatar dynamisch über sein Aussehen, den Ausdruck, den Ton der Stimme, Wortwahl usw. seinen simulierten emotionalen Zustand ändert, um dem Insassen 12 Informationen zu übermitteln.
  • Das EAS 10 kann auch lernen, Anforderungen, Befehle und/oder Präferenzen des Insassen 12 auf der Basis einer Vorgeschichte des Dialogs zwischen dem Insassen 12 und dem EAS 10 zu antizipieren. Zum Beispiel kann das EAS 10 lernen, dass der Insasse 12 eine Fahrgastraumtemperatur von 72° Fahrenheit bevorzugt, wenn die Umgebungstemperaturen 80° Fahrenheit übersteigen, sowie eine Fahrgastraumtemperatur von 78° Fahrenheit, wenn die Umgebungstemperaturen kleiner als 40° Fahrenheit sind und es ein wolkiger Tag ist. Eine Aufzeichnung solcher Klimasteuerungseinstellungen und Umgebungstemperaturen kann das EAS 10 bezüglich dieser anscheinenden Präferenz des Insassen 12 informieren. Ähnlich kann das EAS 10 lernen, dass der Insasse 12 bevorzugt, die lokalen Verkehrsdurchsagen zu hören, wenn das Fahrzeug startet. Eine Aufzeichnung mehrerer Anforderungen von Verkehrsnachrichten nach dem Fahrzeugstart kann das EAS 10 dazu auffordern, beim Fahrzeugstart solche Informationen zu sammeln und den Insassen 12 zu fragen, ob er den lokalen Verkehr hören möchte. Es sind auch andere erlernte Verhaltensweisen möglich.
  • Diese erlernten Anforderungen, Befehle und/oder Präferenzen können mit vom Insassen definierten Kriterien ergänzt und/oder initialisiert werden. Zum Beispiel kann der Insasse 12 das EAS 10 informieren, dass er nicht gerne über Sport diskutiert, aber gerne über Musik usw. In diesem Beispiel kann das EAS 10 davon absehen, Gespräche mit dem Insassen 12 über Sport einzuleiten, kann aber periodisch mit dem Insassen 12 über Musik sprechen.
  • Es versteht sich, dass ein Beratungssystem (EAS) auf vielfältige Weisen implementiert werden kann und dass die vorliegende Beschreibung beispielhaft ist. Eine weitere ausführlichere Beschreibung eines beispielhaften Beratungssystems wird in der US-Pub. Nr. 2008/0269958 gegeben. Unter fortgesetzter Bezugnahme auf 1 kommuniziert im Allgemeinen der Computer 20 mit Informationsquellen 16a, 16b, 16c und kommuniziert mit verschiedenen Peripheriegeräten, wie zum Beispiel Tasten, einer Videokamera, einem Fahrzeug-BUS-Controller, einer Beschallungseinrichtung und einem privaten Fahrzeugnetzwerk. Der Computer 20 kommuniziert außerdem mit einer Anzeige, auf der der Avatar wiedergegeben werden kann. Es sind natürlich auch andere Konfigurationen und Anordnungen möglich.
  • 2 zeigt ein Blockdiagramm eines Beratungssystems (EAS) 30 für ein Kraftfahrzeug in einer beispielhaften Ausführungsform. Das EAS 30 ist etwas ausführlicher dargestellt, und kann im Allgemeinen auf dieselbe Weise wie oben für das EAS 10 von 1 arbeiten. Wie gezeigt, kommuniziert das System bzw. der Dispatcher 32 für gesprochenen Dialog mit der Spracherkennungskomponente 34 und der Avatar-Komponente 36, die eine Schnittstelle mit dem Fahrer 38 bilden. Außerdem kommuniziert das System bzw. der Dispatcher 32 für gesprochenen Dialog außerdem mit der Dialogkomponente 40. Verschiedene Komponenten des EAS 30 werden in dem Prozessor 42 implementiert. Der Prozessor 42 kann die Form einer beliebigen geeigneten Einrichtung annehmen, wie für Fachleute erkennbar ist. Zum Beispiel kann der Prozessor 42 als ein Steuermodul in dem Fahrzeug implementiert werden. Ausführlicher kommuniziert die Kraftübertragung AI 44 mit dem System bzw. Dispatcher 32 für gesprochenen Dialog und mit der Schnittstelle 50 für das CAN (Controller Area Network), die aus einem Datenmanager 52 und einem CAN-Manager 54 besteht. CAN ist ein derzeit in Fahrzeugen verwendetes eingebettetes Netzwerk. Es sind auch andere Implementierungen möglich.
  • Middleware verbindet das EAS 30 mit einem oder mehreren Softwareagenten 60, darunter der Zeitagent 62. Im Allgemeinen kann ein Softwareagent ein unabhängiges Programm sein, das mit dem in 2 dargestellten EAS 30 (oder dem EAS 10 von 1) interagiert, um spezifische Aufgaben/Funktionen zu implementieren. Zum Beispiel implementiert ein Agent eine spezifische Aufgabe oder Funktion und kann das System bzw. den Dispatcher 32 für gesprochenen Dialog und andere Systemkomponenten benutzen, um mit dem Fahrer 38 zu interagieren.
  • Ein Softwareagent kann dafür ausgelegt sein, vielfältige Eingaben zu empfangen. Der Agent kann diese Eingaben verarbeiten, vielfältige Ausgaben bereitstellen und gemäß den Eingaben seine designierte Aufgabe bzw. designierten Aufgaben ausführen. Der Agent kann auch Fahrzeugsystemausgaben verarbeiten. Der Agent kann auch eine emotionale Ausgabe zur Präsentation durch den Avatar 36 ausgeben, die ein Indikator dafür ist, wie gut der Agent seine beabsichtigte Funktion ausführt.
  • Gemäß der dargestellten Ausführungsform der Erfindung wird die Uhr als EAS-Agent, der Zeitagent 62, implementiert. Das EAS-System 30 ermöglicht der Uhr Interaktion mit dem Fahrer 38 über gesprochenen Dialog, statt passiv auf Uhrinformationen zu warten.
  • Ein Zeit-Client 64 wird auf einer mobilen Einrichtung 66 implementiert. Die Mobile Einrichtung 66 kann die Form einer beliebigen geeigneten Einrichtung annehmen, wie für Fachleute erkennbar ist, und kommuniziert über die Verbindung 70 mit dem System bzw. Dispatcher 32 für gesprochenen Dialog. Zum Beispiel kann die mobile Einrichtung 66 die Form eines Mobiltelefons oder PDA annehmen. Bei einer Implementierung werden ARM-Hardware (ARM Holdings, Cambridge, England, UK) und das Windows-Mobilbetriebssystem (Microsoft Corporation, Redmond, Washington) verwendet. Der Zeit-Client 64 kommuniziert mit dem Zeitanwendungsserver 72, der im Internet 74 befindlich gezeigt ist.
  • Unter weiterer Bezugnahme auf 2 werden weitere Einzelheiten der beispielhaften Ausführungsform beschrieben. Wegschauereignisse werden durch Verwendung einer Sprachschnittstelle beseitigt. Ferner kann das EAS 30 sein kontextbewusstes Empfehlungssystem verwenden, um zu antizipieren, dass der Fahrer Uhrinformationen benötigt, und sie proaktiv bereitzustellen. Uhrinformationen können visuell durch Befehl auf dem EAS-Schirm angezeigt werden, indem die Navigations- oder Avatar-Tafeln mit Uhrgrafik ersetzt werden. Uhrinformationen könnten auch auf einem Heads-up-Anzeige angezeigt werden. In diesem Fall werden Wegschauvorgänge minimiert, weil die Informationen verfügbar sind, wenn sie der Fahrer anfordert. Der EAS-Uhr-/-Zeitagent 62 ist über die nachrichtenorientierte Middleware (MOM) des EAS mit anderen Agenten 60 in dem EAS-System 30 integriert. Darüber hinaus befindet sich das EAS 30 über die CAN Schnittstelle 50 in Kommunikation mit verschiedenen Fahrzeugsystemen 80, darunter zum Beispiel das Kraftübertragungs-Steuermodul 82, das Navigationssystem 84 und das globale Positionsbestimmungssystem 86.
  • Der Zeitagent 62 ist deshalb in der Lage, Folgendes zu erhalten: Informationen über aktuelle Uhrzeit, Position, Geschwindigkeit, Richtung, Sonnenaufgang, Sonnenuntergang usw. von dem GPS 86, Routeninformationen, wie zum Beispiel die geschätzte Ankunftszeit, die Zeit bis zur nächsten Ausfahrt, von dem Navigationssystem 84. Der Zeitagent 62 kann Geocode-Informationen von Web-Quellen abrufen, wie zum Beispiel die Zeitzone für eine Postleitzahl an einer bestimmten Adresse oder einem bestimmten GPS-Ort. Auf diese Weise kann der Zeitagent 62 auf vielfältige Fahreranforderungen reagieren, wie zum Beispiel „Wieviel Uhr ist es in Chicago?”; „Was ist die aktuelle Uhrzeit an meinem aktuellen Ort?”; „Wieviel Uhr wird es sein, wenn ich den Sonnenuntergang sehe?”; „Wo werde ich beim Sonnenuntergang sein?”; Wo werde ich um die Mittagszeit herum sein?”; oder „Wo werde ich um 5:00 sein?”.
  • Der EAS-Uhragent 62 kann auch zu einem spezifischen Zeitpunkt und mit einer spezifischen Dringlichkeit stattzufindende Alarme setzen. Der Fahrer kann einen von mehreren gesprochenen Befehlen aufrufen, um einen Alarm zu setzen, zum Beispiel: „Sag mir jede halbe Stunde die Zeit”; „Sag mit die Zeit in einer Stunde”; „Sag mir die Zeit beim Sonnenaufgang”. Wie bei allen Zeitbefehlen kann diesen ein Dringlichkeitsniveau gegeben werden, indem man zum Beispiel Folgendes sagt: „Unterbreche die Nachrichten, um mir die Zeit in einer halben Stunde zu sagen”. Der EAS-Uhragent 62 kann auch Alarme für andere Agenten setzen, wenn also der Kraftstoffüberwachungsagent alle 10 Minuten einen Alarm benötigt, um die Kraftstoffparameter zu aktualisieren, kann er mit dem Uhragenten 62 einen Alarm setzen, der ihn in dem voreingestellten Intervall aufwecken wird.
  • Ferner könnte ein Alarm einen vom Fahrer ausgewählten Glocken- oder Klingelton bereitstellen, um so bestimmte Zeitinformationen bereitzustellen, ohne die Audiounterhaltung oder gesprochenen EAS-Dialog zu unterbrechen. Zum Beispiel könnte ein Glocken- oder Klingelton „Stundenschlag-Informationen” bereitstellen, ohne Audiounterhaltung oder gesprochenen EAS-Dialog zu unterbrechen. Es könnten gegebenenfalls auch andere Alarme als ein Glocken- oder Klingelton implementiert werden. Der Fahrer kann einen Befehl aufrufen, um einen Glocken- oder Klingelton als einen Alarm zu setzen, zum Beispiel „Läute jeden Stundenschlag”; „Spiel in einer Stunde meinen Lieblings-Klingelton”; „Glockenschlag 20 Minuten vor Sonnenuntergang”.
  • Ferner kann der Zeitagent 62 gemäß als ein Benutzerprofil 90 gespeicherten Benutzerpräferenzen Aktionen unternehmen. Der Zeitagent 62 ist auch als mit dem Anzeigetreiber 92 wie oben besprochen eine Schnittstelle bildend gezeigt.
  • Es versteht sich, dass das EAS 10, das EAS 30, der Software-Zeitagent 62 und andere dargestellte Systeme und Komponenten lediglich Beispiele sind und verschiedene Implementierungen der Erfindung möglich sind.
  • 3 zeigt eine Ausführungsform des Zeitagenten einschließlich verschiedener Funktionsmodule. Ausführlicher besteht der Zeitagent 62 aus verschiedenen Komponenten zur Implementierung der gewünschten Funktionalität. Der Zeitagent 62, einschließlich der verschiedenen Komponenten, kann in Software und/oder auf beliebige geeignete Weise implementiert werden, wie für Durchschnittsfachleute erkennbar ist. Wie in 3 gezeigt, umfasst der Zeitagent 62 eine Zeitkalkulatorkomponente 100, ein Ortsmodul 102, ein Ergebnistypmodul 104, ein Prioritätsmodul 106 und ein Genauigkeitsmodul 108.
  • 47 zeigen den Betrieb der verschiedenen Funktionsmodule 102, 104, 106, 108 des Zeitagenten 62. In 4 befindet sich das Ortsmodul 102 in Kommunikation mit Kontextinformationen 120 von dem Zeitanwendungsserver 72, Kontextinformationen 122 von anderen EAS-Agenten 60, Benutzerpräferenzen 124 aus dem Benutzerprofil 90 und Kontextinformationen 126 aus dem System 32 für gesprochenen Dialog. Das Ortsmodul 102 empfängt das Ortselement 130 als Eingabe und produziert Ausgaben, die ein revidiertes Ortselement 132 und Zeitzoneninformation 134 umfassen.
  • In 5 befindet sich das Ergebnistypmodul 104 in Kommunikation mit Kontextinformationen 120 aus dem Zeitanwendungsserver 72, Kontextinformationen 122 aus anderen EAS-Agenten 60, Benutzerpräferenzen 124 aus dem Benutzerprofil 90 und Kontextinformation 126 aus dem System 32 für gesprochenen Dialog. Das Ergebnistypmodul 102 empfängt das Ergebnistypelement 140 als Eingabe und produziert das revidierte Ergebnistypelement 142 als Ausgabe.
  • In 6 befindet sich das Prioritätsmodul 106 in Kommunikation mit Kontextinformationen 120 aus dem Zeitanwendungsserver 72, Kontextinformationen 122 aus anderen EAS-Agenten 60, Benutzerpräferenzen 124 aus dem Benutzerprofil 90 und Kontextinformationen 126 aus dem System 32 für gesprochenen Dialog. Das Prioritätsmodul 106 empfängt das Prioritätselement 150 als Eingabe und produziert das revidierte Prioritätselement 152 als Ausgabe In 7 befindet sich das Genauigkeitsmodul 108 in Kommunikation mit Kontextinformationen 120 aus dem Zeitanwendungsserver 72, Kontextinformationen 122 aus anderen EAS-Agenten 60, Benutzerpräferenzen 124 aus dem Benutzerprofil 90 und Kontextinformationen 126 aus dem System 32 für gesprochenen Dialog. Das Genauigkeitsmodul 108 empfängt das Genauigkeitselement 160 als Eingabe und produziert das Genauigkeitselement 162 als Ausgabe.
  • 8A8D zeigen Aspekte eines Nachrichtenprotokolls für den Zeitagenten in der dargestellten Ausführungsform. Zum Beispiel kann ein EAS-Agent wünschen, die Zeit anzusagen, ein Fahrer kann Zeitinformationen anfordern oder ein EAS-Agent kann wünschen, die Uhrzeit zu erfahren. Im Allgemeinen folgen Zeitanforderungen (durch einen Agenten oder den Fahrer), Agentenansagen und Zeitergebnisse aus dem Zeitagenten einem definierten Nachrichtenprotokoll. 8A8D zeigen eine Möglichkeit für ein solches Protokoll. Die Diagramme in 8A8D repräsentieren Dokumente/Nachrichten in XML (Extensible Markup Language), es versteht sich jedoch, dass andere Nachrichten- oder Objektformate möglich sind.
  • 8A zeigt ein Element der obersten Ebene für eine Agentenansage bei 170. Ausführlicher zeigt 8A das Nachrichtenprotokoll, das von einem EAS-Agenten benutzt wird, der wünscht, die Zeit anzusagen. Das Agentenansageelement 170 umfasst Attribute 172, darunter ein Relativ/Absolut-Attribut 174, ein Anforderer-ID-Attribut 176 und ein Anforderungs-ID-Attribut 178. Das Agentenansagelement 170 umfasst Teilelemente, darunter ein Ortselement 180, ein Genauigkeitselement 182, ein Prioritätsmodellelement 184 und ein Ergebnistypelement 186.
  • 8B zeigt ein Element der obersten Ebene für eine Fahrerzeitanforderungsnachricht bei 190. Ausführlicher zeigt 8B das für eine Zeitanforderung durch den Fahrer verwendete Nachrichtenprotokoll. Das Fahrerzeitanforderungs-Nachrichtenelement 190 umfasst Attribute 192, darunter ein Relativ/Absolut-Attribut 194 und ein Anforderungs-ID-Attribut 198. Das Fahrerzeitanforderungs-Nachrichtenelement 190 umfasst Teilelemente, darunter ein Ortselement 200, ein Genauigkeitselement 202, ein Prioritätsmodellelement 204 und ein Ergebnistypelement 206.
  • 8C zeigt ein Element der obersten Ebene für eine Agentenzeitanforderungsnachricht bei 210. Ausführlicher zeigt 8C das Nachrichtenprotokoll, das für eine Zeitanforderung durch einen EAS-Agenten verwendet wird, der bestimmte Zeitinformationen wissen möchte. Das Zeitagentenanforderungs-Nachrichtenelement 210 umfasst Attribute 212, darunter ein Anforderer-ID-Attribut 216 und ein Anforderungs-ID-Attribut 218. Das Agentenzeitanforderungs-Nachrichtenelement 210 umfasst Teilelemente, darunter ein Ortselement 220, ein Genauigkeitselement 222, ein Prioritätsmodellelement 224 und ein Ergebnistypelement 226.
  • 8D zeigt ein Element der obersten Ebene für ein Zeitergebnis bei 230. Ausführlicher zeigt 8D das Nachrichtenprotokoll, das für ein Zeitergebnis von dem Zeitagenten verwendet wird. Das Zeitergebnis 230 umfasst Attribute 232, darunter ein Anforderer-ID-Attribut 236 und ein Anforderungs-ID-Attribut 238. Das Zeitergebniselement 230 umfasst Teilelemente, darunter ein Ortselement 240, ein Zeitelement 242, ein Prioritätsmodellelement 244 und ein Ergebnistypelement 246.
  • Unter weiterer Bezugnahme auf 8A8D gibt ein Relativ/Absolut-Attribut im Allgemeinen an, ob die Nachricht eine relative Zeit oder eine absolute Zeit betrifft; ein Anforderer-ID-Attribut gibt den anfordernden oder ansagenden EAS-Agenten an; und ein Anforderungs-ID-Attribut gibt eine eindeutige ID für diese bestimmte Anforderung an. Ferner gibt im Allgemeinen ein Ortsteilelement den Ort für die bestimmte interessierende Zeit an, weil Zeit an verschiedenen. Orten (Zeitzonen) verschieden ist. Das Ortsteilelement in einer Nachricht an den Zeitagenten wird durch das Ortsmodul 102 (4) verarbeitet, um das Ortsteilelement für das Zeitergebnis zu produzieren. Ein Genauigkeitsteilelement gibt die für die bestimmte interessierende Zeit, zum Beispiel Tag oder Nacht; Morgen, Nachmittag oder Abend; nächste Viertelstunde; usw. erforderliche Genauigkeit an. Das Genauigkeitsteilelement in einer Nachricht an den Zeitagenten wird durch das Genauigkeitsmodul 108 (7) verarbeitet, um die Genauigkeit für das Zeitergebnis zu produzieren.
  • Ein Prioritätsmodell-Teilelement gibt die Priorität für die bestimmte Anforderung oder Ansage an, zum Beispiel kritisch oder zur Information. Das Prioritätsteilelement in einer Nachricht an den Zeitagenten wird durch das Prioritätsmodul 106 (6) verarbeitet, um das Prioritätsteilelement für das Zeitergebnis zu produzieren.
  • Ein Ergebnistyp-Teilelement gibt den Ergebnistyp für die bestimmte Anforderung oder Ansage an, zum Beispiel eine geschätzte absolute Zeit, zu der der Fahrer ein bestimmtes Ziel, einen bestimmten interessierenden Punkt oder einen bestimmten Ort erreichen wird; eine relative Zeit, wie zum Beispiel wie lange noch bis zu einem bestimmten Ereignis oder wie lange es seit einem bestimmten Ergebnis her ist usw.; oder einen Ort, an dem sich der Fahrer zu einem bestimmten interessierenden Zeitpunkt befinden wird. Das Ergebnistyp-Teilelement in einer Nachricht an den Zeitagenten wird durch das Ergebnistypmodul 104 (5) verarbeitet, um das Ergebnistyp-Teilelement für das Zeitergebnis zu produzieren.
  • Ein Zeitteilelement gibt die mit dem Zeitergebniselement 230 assoziierte Zeit an.
  • 9 ist ein Blockdiagramm eines EAS-Agenten, der wünscht, die Zeit anzusagen, in einer Ausführungsform der Erfindung. Im Block 260 sendet ein EAS-Agent eine Anforderung über den Datenmanager zu dem Zeitagenten. Der Zeitagent empfängt die Anforderung. Im Block 262 bestimmt der Zeitagent eine Priorität der Nachricht. Der Zeitagent verarbeitet die Anforderung, um ein Zeitergebnis zu produzieren. Ausführlicher wendet der Zeitagent im Block 264 Zeitzoneninformationen an. Im Block 266 wendet der Zeitagent Genauigkeitsinformationen aus der Anforderung an; und im Block 268 wendet der Zeitagent Genauigkeitsinformationen aus dem Benutzerprofil an. Im Block 270 wendet der Zeitagent im Allgemeinen Kontextinformationen an.
  • Im Block 272 sendet der Zeitagent nach der Bestimmung des Zeitergebnisses eine Anforderung über den Datenmanager zu dem Dispatcher. Im Block 274 ruft der Dispatcher eine Ereignissequenz auf, um zu einem gesprochenen Dialog mit dem Fahrer zu führen. Im Block 276 publiziert der Dispatcher eine Nachricht in dem Datenmanager, dass die Anforderung abgeschlossen ist. Im Block 278 publiziert der Zeitagent, wenn es angefordert wird, eine Bestätigung in dem Datenmanager an den anfordernden EAS-Agenten.
  • 10 ist ein Blockdiagramm, das einen Fahrer darstellt, der Zeitinformationen anfordert, in einer Ausführungsform der Erfindung. Im Block 280 fordert der Fahrer zum Beispiel durch eine gesprochene Anforderung Zeitinformationen an. Im Block 282 gibt die Spracherkennung des EAS-Systems eine Dialogaktion zur Verarbeitung an den Dispatcher zurück. Im Block 284 sendet der Dispatcher über den Datenmanager eine Anforderung zu dem. Zeitagenten.
  • Der Zeitagent verarbeitet die empfangene Anforderung. Im Block 286 berechnet der Zeitagent die Zeitzone. Im Block 288 berechnet der Zeitagent die erforderliche Genauigkeit. Im Block 290 berechnet der Zeitagent die erforderliche Priorität. Das Zeitergebnis wird im Block 292 berechnet. Im Block 294 sendet der Zeitagent über den Datenmanager eine Anforderung zu dem Dispatcher. Im Block 296 sendet der Dispatcher zum entsprechenden Zeitpunkt eine Nachricht zu dem System für gesprochenen Dialog. Im Block 298 gibt das System für gesprochenen Dialog korrekten Dialog mit dem Fahrer wider. Im Block 300 publiziert der Dispatcher eine Nachricht in dem Datenmanager, dass die Anforderung abgeschlossen ist.
  • 11 ist ein Blockdiagramm, das einen EAS-Agenten zeigt, der die Zeit erfahren möchte, in einer Ausführungsform der Erfindung. Im Block 310 sendet ein EAS-Agent eine Anforderung über den Datenmanager zu dem Zeitagenten. Im Block 312 berechnet der Zeitagent die Zeitzone. Im Block 314 berechnet der Zeitagent die erforderliche Genauigkeit. Im Block 316 berechnet der Zeitagent die erforderliche Priorität. Im Block 318 berechnet der Zeitagent das angeforderte Ergebnis. Im Block 320 gibt der Zeitagent über einen Datenmanager ein Zeitergebnis an den die Zeit anfordernden EAS-Agenten aus.
  • Obwohl Ausführungsformen der Erfindung dargestellt und beschrieben wurden, ist nicht beabsichtigt, dass diese Ausführungsformen alle möglichen Formen der Erfindung darstellen und beschreiben. Stattdessen sind die in der Beschreibung verwendeten Wörter nicht Wörter der Beschränkung, sondern der Beschreibung, und es versteht sich, dass verschiedene Änderungen vorgenommen werden können, ohne von dem Gedanken und Schutzumfang der Erfindung abzuweichen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2008/0269958 [0006, 0027, 0039]

Claims (11)

  1. Beratungssystem zur Verwendung durch einen oder mehrere Insassen eines Kraftfahrzeugs, wobei das System einen Computer umfaßt, der für Folgendes ausgelegt ist: – Bestimmen einer Notwendigkeit, einem Insassen Zeitinformationen zu geben, auf der Basis eines Betriebszustands des Fahrzeugs, – Erzeugen von Daten, die eine gesprochene Aussage repräsentieren, die dem Insassen Zeitinformationen in gesprochenem Dialog geben, auf der Basis der Notwendigkeit und – Ausgeben der Daten, die die Aussage repräsentieren, zur Audiowiedergabe.
  2. Beratungssystem zur Verwendung durch einen oder mehrere Insassen eines Kraftfahrzeugs, wobei das System einen Computer, aufweist, der für Folgendes ausgelegt ist: – Empfangen von Eingaben, die einen Betriebszustand des Fahrzeugs angeben, – Bestimmen einer Notwendigkeit, einem Insassen Zeitinformationen zu geben, auf der Basis des Betriebszustands des Fahrzeugs und/oder einer Insassenanforderung, dem Insassen Zeitinformationen zu geben, – Erzeugen (i) von Daten, die einen Avatar repräsentieren, der ein Aussehen aufweist, und (ii) von Daten, die eine gesprochene Aussage für den Avatar repräsentieren, wobei die gesprochene Aussage dem Insassen Zeitinformationen in gesprochenem Dialog auf der Basis der Notwendigkeit und/oder der Anforderung gibt, – Ausgeben der Daten, die den Avatar repräsentieren, zur visuellen Anzeige und – Ausgeben der Daten, die die Aussage für den Avatar repräsentieren, zur Audiowiedergabe.
  3. Beratungssystem nach Anspruch 1 oder 2, wobei der Computer eine Schnittstelle für natürliche Sprache zur Kommunikation mit dem Insassen aufweist.
  4. Beratungssystem nach einem der vorhergehenden Ansprüche, wobei das Aussehen und die gesprochene Aussage dem Insassen einen simulierten emotionalen Zustand des Avatar vermitteln.
  5. Beratungssystem nach einem der vorhergehenden Ansprüche, wobei der Computer ausgelegt ist zum Empfangen von Eingaben in Form von gesprochenem Dialog, die die Insassenanforderung, dem Insassen Zeitinformationen zu geben, angeben, wobei die gesprochene Aussage dem Insassen Zeitinformationen im gesprochenen Dialog auf der Basis der Anforderung gibt.
  6. Beratungssystem nach einem der vorherigen Ansprüche, wobei der Computer ferner für Folgendes ausgelegt ist: Bestimmen der Notwendigkeit, dem Insassen Zeitinformationen zu geben, auf der Basis des Betriebszustands des Fahrzeugs, wobei die gesprochene Aussage dem Insassen Zeitinformationen in gesprochenem Dialog auf der Basis der Notwendigkeit gibt.
  7. Beratungssystem nach Anspruch 5 oder 6, wobei der Computer ferner für Folgendes ausgelegt ist: Bestimmen der in der gesprochenen Aussage angegebenen Zeitinformationen auf der Basis der Notwendigkeit und ferner auf der Basis von erlernten Benutzerpräferenzen.
  8. Beratungssystem nach einem der Ansprüche 5 bis 7, wobei der Computer ferner für Folgendes ausgelegt ist: Bestimmen der in der gesprochenen Aussage angegebenen Zeitinformationen auf der Basis der Notwendigkeit und ferner auf der Basis von Kontextinformationen.
  9. Beratungssystem nach einem der vorherigen Ansprüche, wobei der Computer ferner für Folgendes ausgelegt ist: Bestimmen der Notwendigkeit, dem Insassen Zeitinformationen zu geben, auf der Basis eines vorherigen als Eingabe empfangenen Befehls in Form von gesprochenem Dialog, der einen vom Insassen gesetzten Alarm angibt.
  10. Beratungssystem nach einem der vorherigen Ansprüche, wobei der Computer ferner für Folgendes ausgelegt ist: Kommunizieren mit einem Navigationssystem bzw. globalen Positionsbestimmungssystem des Kraftfahrzeugs, wobei die gesprochene Aussage dem Insassen Zeitinformationen in gesprochenem Dialog teilweise auf der Basis von aus dem Navigationssystem bzw. globalen Positionsbestimmungssystem erhaltenen Informationen gibt.
  11. Beratungssystem nach einem der vorherigen Ansprüche, wobei der Computer ferner für Folgendes ausgelegt ist: Kommunizieren mit einem vom Kraftfahrzeug getrennten Zeitanwendungsserver, wobei die gesprochene Aussage dem Insassen Zeitinformationen in gesprochenem Dialog teilweise auf der Basis von aus dem Zeitanwendungsserver erhaltenen Informationen gibt.
DE102011002985A 2010-02-09 2011-01-21 Beratungssystem mit einem Zeitagenten Pending DE102011002985A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/702,625 US8400332B2 (en) 2010-02-09 2010-02-09 Emotive advisory system including time agent
US12/702,625 2010-02-09

Publications (1)

Publication Number Publication Date
DE102011002985A1 true DE102011002985A1 (de) 2011-08-11

Family

ID=44316799

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011002985A Pending DE102011002985A1 (de) 2010-02-09 2011-01-21 Beratungssystem mit einem Zeitagenten

Country Status (3)

Country Link
US (1) US8400332B2 (de)
CN (1) CN102145695B (de)
DE (1) DE102011002985A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016200815A1 (de) * 2015-12-15 2017-06-22 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Sprachsteuerung eines Kraftfahrzeugs
DE102016212681A1 (de) * 2016-07-12 2018-01-18 Audi Ag Steuervorrichtung und Verfahren zum sprachbasierten Betreiben eines Kraftfahrzeugs

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8181205B2 (en) 2002-09-24 2012-05-15 Russ Samuel H PVR channel and PVR IPG information
US20110093158A1 (en) * 2009-10-21 2011-04-21 Ford Global Technologies, Llc Smart vehicle manuals and maintenance tracking system
JP2011209787A (ja) * 2010-03-29 2011-10-20 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
US20120130717A1 (en) * 2010-11-19 2012-05-24 Microsoft Corporation Real-time Animation for an Expressive Avatar
US9536517B2 (en) 2011-11-18 2017-01-03 At&T Intellectual Property I, L.P. System and method for crowd-sourced data labeling
US20140310379A1 (en) * 2013-04-15 2014-10-16 Flextronics Ap, Llc Vehicle initiated communications with third parties via virtual personality
KR20140008870A (ko) * 2012-07-12 2014-01-22 삼성전자주식회사 컨텐츠 정보 제공 방법 및 이를 적용한 방송 수신 장치
US20140142948A1 (en) * 2012-11-21 2014-05-22 Somya Rathi Systems and methods for in-vehicle context formation
DE102013006173A1 (de) * 2013-04-10 2014-10-16 Audi Ag Verfahren und Vorrichtung zur proaktiven Dialogführung
WO2014172312A2 (en) * 2013-04-15 2014-10-23 Flextronics Ap, Llc User interface and virtual personality presentation based on user profile
US9431008B2 (en) 2013-05-29 2016-08-30 Nuance Communications, Inc. Multiple parallel dialogs in smart phone applications
US9728184B2 (en) 2013-06-18 2017-08-08 Microsoft Technology Licensing, Llc Restructuring deep neural network acoustic models
US9311298B2 (en) 2013-06-21 2016-04-12 Microsoft Technology Licensing, Llc Building conversational understanding systems using a toolset
US9589565B2 (en) 2013-06-21 2017-03-07 Microsoft Technology Licensing, Llc Environmentally aware dialog policies and response generation
US9324321B2 (en) 2014-03-07 2016-04-26 Microsoft Technology Licensing, Llc Low-footprint adaptation and personalization for a deep neural network
US9529794B2 (en) 2014-03-27 2016-12-27 Microsoft Technology Licensing, Llc Flexible schema for language model customization
US9614724B2 (en) 2014-04-21 2017-04-04 Microsoft Technology Licensing, Llc Session-based device configuration
US9520127B2 (en) 2014-04-29 2016-12-13 Microsoft Technology Licensing, Llc Shared hidden layer combination for speech recognition systems
US10111099B2 (en) 2014-05-12 2018-10-23 Microsoft Technology Licensing, Llc Distributing content in managed wireless distribution networks
US9384335B2 (en) 2014-05-12 2016-07-05 Microsoft Technology Licensing, Llc Content delivery prioritization in managed wireless distribution networks
US9384334B2 (en) 2014-05-12 2016-07-05 Microsoft Technology Licensing, Llc Content discovery in managed wireless distribution networks
US9430667B2 (en) 2014-05-12 2016-08-30 Microsoft Technology Licensing, Llc Managed wireless distribution network
US9874914B2 (en) 2014-05-19 2018-01-23 Microsoft Technology Licensing, Llc Power management contracts for accessory devices
US10037202B2 (en) 2014-06-03 2018-07-31 Microsoft Technology Licensing, Llc Techniques to isolating a portion of an online computing service
US9367490B2 (en) 2014-06-13 2016-06-14 Microsoft Technology Licensing, Llc Reversible connector for accessory devices
EP3264258A4 (de) * 2015-02-27 2018-08-15 Sony Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
US10796248B2 (en) 2015-04-29 2020-10-06 Ford Global Technologies, Llc Ride-sharing joint rental groups
US20160321771A1 (en) 2015-04-29 2016-11-03 Ford Global Technologies, Llc Ride-sharing range contours
US20160320194A1 (en) 2015-04-29 2016-11-03 Ford Global Technologies, Llc Ride-sharing user path disturbances and user re-routing
US20160320198A1 (en) * 2015-04-29 2016-11-03 Ford Global Technologies, Llc Ride-sharing routing using contextual constraints
US20160320195A1 (en) 2015-04-29 2016-11-03 Ford Global Technologies, Llc Ride-sharing long-term ride-share groups
US10692126B2 (en) 2015-11-17 2020-06-23 Nio Usa, Inc. Network-based system for selling and servicing cars
US20180012197A1 (en) 2016-07-07 2018-01-11 NextEv USA, Inc. Battery exchange licensing program based on state of charge of battery pack
US9928734B2 (en) 2016-08-02 2018-03-27 Nio Usa, Inc. Vehicle-to-pedestrian communication systems
US10209949B2 (en) * 2016-08-23 2019-02-19 Google Llc Automated vehicle operator stress reduction
US10074359B2 (en) * 2016-11-01 2018-09-11 Google Llc Dynamic text-to-speech provisioning
US10031523B2 (en) 2016-11-07 2018-07-24 Nio Usa, Inc. Method and system for behavioral sharing in autonomous vehicles
US10410064B2 (en) 2016-11-11 2019-09-10 Nio Usa, Inc. System for tracking and identifying vehicles and pedestrians
US10694357B2 (en) 2016-11-11 2020-06-23 Nio Usa, Inc. Using vehicle sensor data to monitor pedestrian health
US10708547B2 (en) 2016-11-11 2020-07-07 Nio Usa, Inc. Using vehicle sensor data to monitor environmental and geologic conditions
US10515390B2 (en) 2016-11-21 2019-12-24 Nio Usa, Inc. Method and system for data optimization
US10249104B2 (en) 2016-12-06 2019-04-02 Nio Usa, Inc. Lease observation and event recording
US10074223B2 (en) 2017-01-13 2018-09-11 Nio Usa, Inc. Secured vehicle for user use only
US9984572B1 (en) 2017-01-16 2018-05-29 Nio Usa, Inc. Method and system for sharing parking space availability among autonomous vehicles
US10031521B1 (en) 2017-01-16 2018-07-24 Nio Usa, Inc. Method and system for using weather information in operation of autonomous vehicles
US10471829B2 (en) 2017-01-16 2019-11-12 Nio Usa, Inc. Self-destruct zone and autonomous vehicle navigation
US10464530B2 (en) 2017-01-17 2019-11-05 Nio Usa, Inc. Voice biometric pre-purchase enrollment for autonomous vehicles
US10286915B2 (en) 2017-01-17 2019-05-14 Nio Usa, Inc. Machine learning for personalized driving
US10897469B2 (en) 2017-02-02 2021-01-19 Nio Usa, Inc. System and method for firewalls between vehicle networks
US10234302B2 (en) 2017-06-27 2019-03-19 Nio Usa, Inc. Adaptive route and motion planning based on learned external and internal vehicle environment
US10369974B2 (en) 2017-07-14 2019-08-06 Nio Usa, Inc. Control and coordination of driverless fuel replenishment for autonomous vehicles
US10710633B2 (en) 2017-07-14 2020-07-14 Nio Usa, Inc. Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles
US10837790B2 (en) 2017-08-01 2020-11-17 Nio Usa, Inc. Productive and accident-free driving modes for a vehicle
US10635109B2 (en) 2017-10-17 2020-04-28 Nio Usa, Inc. Vehicle path-planner monitor and controller
US20190122121A1 (en) * 2017-10-23 2019-04-25 AISA Innotech Inc. Method and system for generating individual microdata
US10606274B2 (en) 2017-10-30 2020-03-31 Nio Usa, Inc. Visual place recognition based self-localization for autonomous vehicles
US10935978B2 (en) 2017-10-30 2021-03-02 Nio Usa, Inc. Vehicle self-localization using particle filters and visual odometry
US10717412B2 (en) 2017-11-13 2020-07-21 Nio Usa, Inc. System and method for controlling a vehicle using secondary access methods
US10369966B1 (en) 2018-05-23 2019-08-06 Nio Usa, Inc. Controlling access to a vehicle using wireless access devices
US11132681B2 (en) 2018-07-06 2021-09-28 At&T Intellectual Property I, L.P. Services for entity trust conveyances
BR112021002265A2 (pt) * 2018-08-06 2021-05-04 Nissan Motor Co., Ltd. dispositivo de diálogo por voz, sistema de diálogo por voz e método de controle do sistema de diálogo por voz
US10802872B2 (en) 2018-09-12 2020-10-13 At&T Intellectual Property I, L.P. Task delegation and cooperation for automated assistants
US11481186B2 (en) 2018-10-25 2022-10-25 At&T Intellectual Property I, L.P. Automated assistant context and protocol
US20200193264A1 (en) * 2018-12-14 2020-06-18 At&T Intellectual Property I, L.P. Synchronizing virtual agent behavior bias to user context and personality attributes
US20200279553A1 (en) * 2019-02-28 2020-09-03 Microsoft Technology Licensing, Llc Linguistic style matching agent
FR3105499B1 (fr) 2019-12-18 2021-12-24 Psa Automobiles Sa Procédé et dispositif d’animation visuelle d’une interface de commande vocale d’un assistant personnel virtuel embarqué dans un véhicule automobile, et véhicule automobile l’incorporant
CN112270168B (zh) * 2020-10-14 2023-11-24 北京百度网讯科技有限公司 对白情感风格预测方法、装置、电子设备及存储介质
US11961516B1 (en) * 2022-10-24 2024-04-16 Conversation Processing Intelligence, Corp. System and method for modifying operations of telecommunication devices using conversation processing
US20240221435A1 (en) 2023-01-03 2024-07-04 Ford Global Technologies, Llc System and method for vehicle remote diagnostics

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080269958A1 (en) 2007-04-26 2008-10-30 Ford Global Technologies, Llc Emotive advisory system and method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6249720B1 (en) * 1997-07-22 2001-06-19 Kabushikikaisha Equos Research Device mounted in vehicle
JP4085500B2 (ja) * 1999-01-29 2008-05-14 株式会社エクォス・リサーチ 車両状況把握装置、エージェント装置、および、車両制御装置
US20020055844A1 (en) * 2000-02-25 2002-05-09 L'esperance Lauren Speech user interface for portable personal devices
JP2002318132A (ja) * 2001-04-23 2002-10-31 Hitachi Ltd 音声対話型ナビゲーションシステムおよび移動端末装置および音声対話サーバ
DE102004051963A1 (de) * 2004-10-25 2006-05-04 Robert Bosch Gmbh Verfahren zur Fahrerunterstützung
JP4682714B2 (ja) * 2005-06-14 2011-05-11 トヨタ自動車株式会社 対話システム
US20070139182A1 (en) * 2005-12-19 2007-06-21 O'connor Jay D Emergency communications for the mobile environment
US20100251283A1 (en) * 2009-03-31 2010-09-30 Qualcomm Incorporated System and mehod for providing interactive content

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080269958A1 (en) 2007-04-26 2008-10-30 Ford Global Technologies, Llc Emotive advisory system and method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016200815A1 (de) * 2015-12-15 2017-06-22 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Sprachsteuerung eines Kraftfahrzeugs
DE102016212681A1 (de) * 2016-07-12 2018-01-18 Audi Ag Steuervorrichtung und Verfahren zum sprachbasierten Betreiben eines Kraftfahrzeugs
US11535100B2 (en) 2016-07-12 2022-12-27 Audi Ag Control device and method for the voice-based operation of a motor vehicle

Also Published As

Publication number Publication date
US8400332B2 (en) 2013-03-19
CN102145695A (zh) 2011-08-10
US20110193726A1 (en) 2011-08-11
CN102145695B (zh) 2015-12-09

Similar Documents

Publication Publication Date Title
DE102011002985A1 (de) Beratungssystem mit einem Zeitagenten
DE102010040818B4 (de) Gefühlsansprechendes Beratungssystem zur Verwendung durch einen oder mehrere Insassen eines Kraftfahrzeugs
US20110172873A1 (en) Emotive advisory system vehicle maintenance advisor
CN109416733B (zh) 便携式个性化
US20110093158A1 (en) Smart vehicle manuals and maintenance tracking system
US20170168689A1 (en) Systems and methods for providing vehicle-related information in accord with a pre-selected information-sharing mode
JP4659754B2 (ja) 車両運転者および複数のアプリケーション間の対話方法およびシステム
DE102010036666A1 (de) Intelligente Musikauswahl in Fahrzeugen
US20170291543A1 (en) Context-aware alert systems and algorithms used therein
US20150160019A1 (en) Controlling in-vehicle computing system based on contextual data
DE102017110283A1 (de) Steuern von funktionen und ausgaben von autonomen fahrzeugen auf der grundlage einer position und aufmerksamkeit von insassen
DE102017112172A1 (de) Systeme, um proaktives infotainment bei autonom fahrenden fahrzeugen bereitzustellen
DE102015200065A1 (de) Ein im Fahrzeug befindliche Planung der Präsentation von Benachrichtigungen
JP2020522776A (ja) 既存の会話を促進するためにアクションを推奨するように構成された仮想アシスタント
JP2007511414A6 (ja) 車両運転者および複数のアプリケーション間の対話方法およびシステム
DE10008226C2 (de) Vorrichtung zur Sprachsteuerung und Verfahren zur Sprachsteuerung
JP6221945B2 (ja) 表示・音声出力制御装置
CN115700203A (zh) 用于设备的自动控制期间非监控时间段分配的用户界面
CN112193255A (zh) 车机系统的人机交互方法、装置、设备以及存储介质
US20230206915A1 (en) Method and system for assisting a user
CN115830724A (zh) 基于多模态识别的车载识别交互方法及系统
Nakrani Smart car technologies: a comprehensive study of the state of the art with analysis and trends
DE102019105588A1 (de) Minimalinvasive Integration von Messagingdiensten in Fahrzeugen
JP6372239B2 (ja) 車両用情報提供装置
EP4232324B1 (de) Verfahren zum betrieb eines sprachdialogsystems

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: LORENZ SEIDLER GOSSEL RECHTSANWAELTE PATENTANW, DE

R084 Declaration of willingness to licence
R016 Response to examination communication