-
STAND DER TECHNIK
-
Die Erfindung betrifft ein Beratungssystem (EAS – Emotive Advisory System) zur Verwendung durch einen oder mehrere Insassen eines Kraftfahrzeugs.
-
Die Verwendung der Fahrzeuguhr sollte für den Fahrer so einfach als hätte er einen Passagier im Auto, der die Zeit für ihn herausfinden kann. Ferner sollte es möglich sein, die Zeit in einem analogen Format anzuzeigen, so dass sie leichter zu lesen wird. Uhren mit Radios auf dem neuesten Stand der Technik sind schwierig zu verwenden. Die traditionelle analoge Uhr, die auf dem Armaturenbrett sichtbar war, wurde aufgrund von Überfüllung auf dem Armaturenbrett beseitigt. Die Uhr auf dem neuesten Stand der Technik ist ein LED- oder LC-Anzeige, das die Zeit periodisch auf einer kleinen Anzeige in digitalem Format anzeigt.
-
Beim Lesen des Anzeige wird immer von der Straße weggeschaut und darauf gewartet, dass die Zeit auf dem Anzeige erscheint. Oft ist das Anzeige bei der Verwendung von Sonnenbrillen oder bei Nahfeld-Sehschwäche nicht sichtbar. Deshalb müssen Brillen abgenommen oder aufgesetzt werden, bevor die Zeit gelesen werden kann, und während die Zeit gelesen wird, kann der Fahrer die Straße vor dem Auto nicht ausreichend beobachten. Ferner können bei Uhren auf dem neuesten Stand der Technik viele der Merkmale fehlen, durch die sie leicht zu verwenden werden könnten. Eine digitale Zeitanzeige ist nicht zweckmäßig, weil man oft einige Arithmetik ausführen muss, um die Informationen zu erhalten, die man benötigt. Wenn man zum Beispiel um 13:10 einen Termin hat und auf der Uhr 12:56 steht, muss nachgerechnet werden um zu erkenne, dass man 14 Minuten hat, um zu seinem Termin zu kommen.
-
Uhren auf dem neuesten Stand der Technik korrigieren nicht die Sommerzeit oder die Zeitzone. Sie können einem auch nicht die Zeit in Chicago mitteilen, wenn man sich in Detroit befindet. Der Fahrer sollte in der Lage sein, die Uhr zu fragen „Wie lange noch?”, und die Uhr sagt einem, wie viele Minuten es zum Ziel sind. Leider sind Fahrzeuguhren nicht sehr gut in andere Fahrzeugfunktionen integriert. Zum Beispiel gibt es keine Möglichkeit, die Zeit zu berechnen, in der der Kraftstoff ausgehen wird, oder die Zeit, zu der am Standort oder voraussichtlichen Standort des Fahrzeugs die Sonne auf- oder untergeht oder schlechtes Wetter herrschen wird.
-
Zusätzlich wird das Fahrzeugarmaturenbrett immer komplexer. Wenn neue Systeme hinzugefügt und existierende Systeme komplexer werden, besteht zusätzliche Konkurrenz um Platz auf dem Armaturenbrett, und die Steuerelemente sind immer schwieriger zu verwenden. Neue Systeme umfassen Navigationssysteme, MP3-Player, freihändige Mobilfunkgeräte und Satellitenradios; dagegen sind ältere Systeme, die komplexer werden, UKW-MW-Radios, HVAC (Heizung, Ventilation und Klimaanlage), Fahrzeugbeleuchtung und Kraftübertragungs-Steuerelemente.
-
Es besteht zunehmend ein Trend weg von herkömmlichen Steuerelementen zu menschlichen Schnittstellen zur Verwaltung dieser Komplexität. Bei einem Ansatz werden mehrere Schnittstellen in einem Kraftfahrzeug in einem Beratungssystem (EAS) zu einer einzigen Schnittstelle konsolidiert. Hintergrundinformationen finden sich zum Beispiel in der
US-Pub. Nr. 2008/0269958 .
-
Aufgabe der Erfindung ist es, ein Beratungssystem benutzerfreundlicher zu gestalten. Insbesondere soll es leichter bedienbar und/oder leichter für den Benutzer verständlich sein.
-
Gelöst wird diese Aufgabe mit den Merkmalen des Anspruchs 1.
-
Bei einer Ausführungsform der Erfindung umfasst ein Beratungssystem zur Verwendung durch einen oder mehrere Insassen eines Kraftfahrzeugs einen Computer. Der Computer ist dafür ausgelegt, Eingaben zu empfangen, die einen Betriebszustand des Fahrzeugs angeben. Der Computer bestimmt mindestens eine der folgenden Alternativen: (1) eine Notwendigkeit, einem Insassen Zeitinformationen zu geben, auf der Basis des Betriebszustands des Fahrzeugs und (2) eine Insassenanforderung, dem Insassen Zeitinformationen zu geben. Der Computer erzeugt Daten, die einen Avatar repräsentieren, der ein Aussehen aufweist, und Daten, die eine gesprochene Aussage für den Avatar repräsentieren. Die gesprochene Aussage gibt dem Insassen Zeitinformationen im gesprochenen Dialog auf der Basis der Notwendigkeit und/oder der Anforderung. Der Computer gibt zur visuellen Anzeige Daten, die den Avatar repräsentieren, und zur Audiowiedergabe Daten, die die Aussage für den Avatar repräsentieren, aus.
-
Unter Avatar ist eine künstliche Person oder ein grafischer Stellvertreter einer echten Person in der virtuellen Welt im Computer des Fahrzeugs zu verstehen.
-
Ausführungsformen der Erfindung können auf vielfältige Weise implementiert werden. Zum Beispiel kann der Computer ferner dafür ausgelegt sein, eine Schnittstelle natürlicher Sprache zur Kommunikation mit den Insassen bereitzustellen. Zum Beispiel können das Aussehen und die gesprochene Aussage dem Insassen einen simulierten emotionalen Zustand des Avatar vermitteln.
-
Bei einer Ausführungsform ist der Computer ferner dafür ausgelegt, Eingaben in Form von gesprochenem Dialog zu empfangen, die die Insassenanforderung angeben, dem Insassen Zeitinformationen zu geben. Die gesprochene Aussage gibt dem Insassen Zeitinformationen in gesprochenem Dialog auf der Basis der Anforderung.
-
In der gesprochenen Aussage gegebene Zeitinformationen können ferner auf Benutzerpräferenzen basieren und/oder können ferner auf Kontextinformationen basieren.
-
Bei einer Ausführungsform ist der Computer ferner dafür ausgelegt, die Notwendigkeit, dem Insassen Zeitinformationen zu geben, auf der Basis eines vorherigen als Eingabe empfangenen Befehls in Form von gesprochenem Dialog zu bestimmen, der einen vom Insassen gesetzten Alarm anzeigt. Der vorherige Befehl kann ferner eine Dringlichkeit für den Alarm angeben.
-
Zusätzlich versteht sich, dass Ausführungsformen der Erfindung Zeitinformationen geben können, die auf von verschiedenen Quellen erhaltenen Informationen basieren. Zum Beispiel kann der Computer ferner dafür ausgelegt sein, mit einem Navigationssystem für das Kraftfahrzeug zu kommunizieren. In diesem Fall gibt die gesprochene Aussage dem Insassen Zeitinformationen in gesprochenem Dialog teilweise auf der Basis von aus dem Navigationssystem erhaltenen Informationen. Bei anderen Beispielen kann der Computer mit einem globalen Positionsbestimmungssystem des Kraftfahrzeugs oder einem von dem Kraftfahrzeug getrennten Zeitanwendungsserver kommunizieren.
-
Bei einer anderen Ausführungsform umfasst die Erfindung ein Beratungssystem zur Verwendung durch einen oder mehrere Insassen eines Kraftfahrzeugs mit einem Computer; der Computer ist dafür ausgelegt, auf der Basis eines Betriebszustands des Fahrzeugs eine Notwendigkeit zu bestimmen, einem Insassen Zeitinformationen zu geben. Der Computer erzeugt Daten, die eine gesprochene Aussage repräsentieren, die dem Insassen Zeitinformationen in gesprochenem Dialog auf der Basis der Notwendigkeit geben, und gibt die Daten, die die Aussage repräsentieren, zur Audiowiedergabe aus.
-
Weitere Merkmale der Erfindung ergeben sich aus den Zeichnungen und der dazugehörigen Beschreibung.
-
1 ist ein Blockdiagramm eines Beratungssystems für ein Kraftfahrzeug in einer Ausführungsform;
-
2 ist ein Blockdiagramm eines Beratungssystems für ein Kraftfahrzeug mit einem Zeitagenten in einer Ausführungsform;
-
3 zeigt eine Ausführungsform des Zeitagenten einschließlich verschiedener Funktionsmodule;
-
4 bis 7 zeigen den Betrieb der verschiedenen Funktionsmodule des Zeitagenten;
-
8A bis 8D zeigen Aspekte eines Nachrichtenprotokolls für den Zeitagenten;
-
9 ist ein Blockdiagramm, das einen EAS-Agenten darstellt, der wünscht, die Zeit anzusagen, in einer Ausführungsform der Erfindung;
-
10 ist ein Blockdiagramm, das einen Fahrer darstellt, der Zeitinformationen anfordert, in einer Ausführungsform der Erfindung; und
-
11 ist ein Blockdiagramm, das einen EAS-Agenten darstellt, der wünscht, die Zeit zu erfahren, in einer Ausführungsform der Erfindung.
-
Ausführungsformen der Erfindung umfassen ein Beratungssystem (EAS) zur Verwendung durch einen oder mehrere Insassen eines Kraftfahrzeugs. Bei einem Ansatz zur Implementierung des Systems werden verschiedene Fahrzeugschnittstellen in dem Kraftfahrzeug zu einer einzigen Schnittstelle in dem Beratungssystem (EAS) konsolidiert.
-
Im Allgemeinen übermittelt das Beratungssystem (EAS) für das Kraftfahrzeug einem Insassen Informationen auf gefühlsansprechende Weise. Das System empfängt Eingaben, die einen Betriebszustand des Fahrzeugs angeben, transformiert die Angaben in Daten, die einen simulierten emotionalen Zustand repräsentieren, und erzeugt Daten, die einen Avatar repräsentieren, der den simulierten emotionalen Zustand ausdrückt. Der Avatar kann angezeigt werden. Das System kann eine Anfrage von dem Insassen bezüglich des emotionalen Zustands des Avatars empfangen und auf die Anfrage reagieren. Ein beispielhaftes Beratungssystem und -verfahren wird in der
US-Pub. Nr. 2008/0269958 beschrieben.
-
Wie in 1 gezeigt, hilft eine Ausführungsform eines Beratungssystems (EAS) 10 einem Insassen/Benutzer 12 eines Fahrzeugs 14 beim Betrieb des Fahrzeugs 14 und beim Zugriff auf von dem Fahrzeug 14 abgesetzte Informationsquellen 16a, 16b, 16c, wie zum Beispiel Webserver usw., über ein Netzwerk 17. Natürlich können innerhalb des Kontextes einer beliebigen Art von Einrichtung und/oder Maschine andere Ausführungsformen des EAS 10 implementiert werden. Zum Beispiel kann das EAS 10 mit einem Haushaltsgerät, einem Handdatenverarbeitungsgerät usw. einhergehen. Bestimmte Ausführungsformen des EAS 10 können als ein integriertes Modul implementiert werden, das mit einer anderen Einrichtung und/oder Maschine gedockt werden kann. Ein Benutzer kann somit sein EAS 10 mit sich führen und es als Schnittstelle mit Einrichtungen und/oder Maschinen, mit denen er in Dialog treten möchte, verwenden. Es sind auch andere Konfigurationen und Anordnungen möglich.
-
Bei der Ausführungsform von 1 detektieren Sensoren 18 durch den Insassen 12 erzeugte Eingaben und setzen diese in digitale Informationen für einen Computer 20 um. Der Computer 20 empfängt diese Eingaben sowie Eingaben von den Informationsquellen 16a, 16b, 16c und Fahrzeugsystemen 22. Der Computer 20 verarbeitet diese Eingaben und erzeugt Ausgaben für mindestens eine der folgenden Alternativen: den Insassen 12, die Informationsquellen 16a, 16b, 16c und Fahrzeugsysteme 22. Aktoren/Ausgänge usw. 24 setzen die Ausgaben für den Insassen 12 aus einem digitalen Format in ein Format um, das von dem Insassen 12 wahrgenommen werden kann, wie zum Beispiel visuell, hörbar, tastend, haptisch usw.
-
Der Insasse 12 kann bei bestimmten Ausführungsformen durch gesprochenen Dialog mit dem EAS 10 kommunizieren, der Diskursregeln (z. B. die Maximen von Grice) befolgt. Zum Beispiel kann der Insasse 12 fragen „Gibt es gute Restaurants in der Nähe?”. Als Reaktion kann das EAS 10 entsprechende Informationsquellen 16a, 16b, 16c abfragen und zusammen mit geografischen Ortsinformationen von den Fahrzeugsystemen 22 eine Liste von gut bewerteten Restaurants in der Nähe des aktuellen Orts des Fahrzeugs 14 bestimmen. Das EAS 10 kann mit dem folgenden simulierten Dialog antworten: „Es gibt einige wenige. Möchten Sie die Liste hören?” Eine bejahende Antwort von dem Insassen 12 kann bewirken, dass das EAS 10 die Liste liest.
-
Der Insasse 12 kann dem EAS 10 auch befehlen, bestimmte mit den Fahrzeugsystemen 22 assoziierte Parameter zu ändern. Zum Beispiel kann der Insasse 12 aussagen „Mir ist heute nach schnell fahren”. Als Reaktion kann das EAS 10 fragen „Möchten Sie, dass die Kraftübertragung für Performance-Fahren optimiert wird?”. Eine bejahende Reaktion von dem Insassen 12 kann bewirken, dass das EAS 10 Motor-Tuningparameter für verbesserte Performance ändert.
-
Bei bestimmten Ausführungsformen kann der gesprochene Dialog mit dem EAS 10 ohne Betätigung jeglicher Tasten oder anderweitige physische Eingabe in das EAS 10 eingeleitet werden. Diese Funktionalität des offenen Mikrofons ermöglicht es dem Insassen 12 ein Gespräch mit dem EAS 10 genauso einzuleiten, wie der Insasse 12 ein Gespräch mit einem anderen Insassen des Fahrzeugs 14 einleiten würde.
-
Der Insasse 12 kann dem EAS 10 auch „ins Wort fallen”, während es spricht. Zum Beispiel kann der Insasse 12, während das EAS 10 die obenerwähnte Liste von Restaurants liest, einwerfen: „Sag mir mehr über Restaurant X”. Als Reaktion kann das EAS 10 mit dem Lesen der Liste aufhören und entsprechende Informationsquellen 16a, 16b, 16c abfragen, um zusätzliche Informationen bezüglich des Restaurants X zu sammeln. Das EAS 10 kann dann die zusätzlichen Informationen dem Insassen 12 vorlesen.
-
Bei einigen Ausführungsformen umfassen die Aktoren/Ausgänge 24 einen Bildschirm, der selektiv einen Avatar anzeigt. Der Avatar kann eine grafische Repräsentation eines Menschen, eines Tiers, einer Maschine, einer Pflanze, eines Fahrzeugs usw. sein und kann Merkmale wie zum Beispiel ein Gesicht usw. umfassen, die in der Lage sind, visuell Emotion zu übermitteln. Der Avatar kann von der Sicht verborgen werden, wenn zum Beispiel eine Geschwindigkeit des Fahrzeugs 14 größer als eine Schwelle ist, die vom Hersteller oder vom Benutzer definiert werden kann. Die Stimme des Avatars kann jedoch weiter zu hören sein. Natürlich kann jede beliebige geeignete Art von Anzeigetechnologie verwendet werden, wie zum Beispiel eine holografische oder Head-Up-Anzeige.
-
Der simulierte menschliche emotionale Zustand des Avatars kann sich nach vielfältigen verschiedenen Kriterien richten, darunter ein geschätzter emotionaler Zustand des Insassen 12, ein Zustand des Fahrzeugs 14 und/oder die Qualität, mit der das EAS 10 eine Aufgabe ausführt usw. Zum Beispiel können die Sensoren 18 Kopfbewegungen, Sprachprosodie, biometrische Informationen usw. des Insassen 12 detektieren, die, wenn sie durch den Computer 20 verarbeitet werden, anzeigen, dass der Insasse 12 verärgert ist. Bei einer beispielhaften Reaktion kann das EAS 10 den Dialog, den es mit dem Insassen 12 einleitet, begrenzen oder unterbrechen, während der Insasse 12 verärgert ist. Bei einer anderen beispielhaften Reaktion kann der Avatar in blauen Farbtönen mit einem besorgten Gesichtsausdruck wiedergegeben werden und kann in einer ruhigen Stimme fragen „Ärgert Sie etwas?”. Wenn der Insasse 12 reagiert, indem er „Wegen dieses Verkehrs komm ich wahrscheinlich zu spät zur Arbeit” sagt, kann der Avatar fragen „Soll ich eine schnellere Route finden?” oder „Soll ich jemanden anrufen?”. Wenn der Insasse 12 reagiert, indem er „Nein. Es gibt keinen anderen Weg...” sagt, kann der Avatar fragen „Möchten Sie etwas klassische Musik hören?”. Der Insasse 12 kann antworten „Nein. Aber kannst du mir etwas über die bevorstehenden Wahlen sagen?”. Als Reaktion kann das EAS 10 die entsprechenden Informationsquellen 16a, 16b, 16c abfragen, um die neuesten Nachrichten über die Wahlen zu sammeln. Während der Abfrage kann, wenn die Kommunikationsverbindung mit den Informationsquellen 16a, 16b, 16c stark ist, der Avatar froh aussehen. Wenn die Kommunikationsverbindung mit den Informationsquellen 16a, 16b, 16c jedoch schwach ist, kann der Avatar traurig aussehen, wodurch der Insasse dazu aufgefordert wird, zu fragen „Hast du Schwierigkeiten, Nachrichten über die Wahlen zu erhalten?”. Der Avatar kann antworten „Ja, ich habe Schwierigkeiten, eine Fernkommunikationsverbindung herzustellen”.
-
Während des obigen Austauschs kann der Avatar frustriert zu werden scheinen, wenn zum Beispiel das Fahrzeug 14 häufige Beschleunigung und Bremsung oder anderweitigen harschen Umgang erfährt. Diese Änderung der simulierten Emotion kann den Insassen 12 dazu auffordern, zu fragen „Was hast du?”. Der Avatar kann antworten „Ihr Fahrstil ist schlecht für meinen Kraftstoffverbrauch. Vielleicht sollten häufige Beschleunigung und Bremsung verringert werden”. Der Avatar kann auch verwirrt zu werden scheinen, wenn zum Beispiel der Avatar einen Befehl oder eine Anfrage von dem Insassen 12 nicht versteht. Diese Art von Dialog kann fortgesetzt werden, wobei der Avatar dynamisch über sein Aussehen, den Ausdruck, den Ton der Stimme, Wortwahl usw. seinen simulierten emotionalen Zustand ändert, um dem Insassen 12 Informationen zu übermitteln.
-
Das EAS 10 kann auch lernen, Anforderungen, Befehle und/oder Präferenzen des Insassen 12 auf der Basis einer Vorgeschichte des Dialogs zwischen dem Insassen 12 und dem EAS 10 zu antizipieren. Zum Beispiel kann das EAS 10 lernen, dass der Insasse 12 eine Fahrgastraumtemperatur von 72° Fahrenheit bevorzugt, wenn die Umgebungstemperaturen 80° Fahrenheit übersteigen, sowie eine Fahrgastraumtemperatur von 78° Fahrenheit, wenn die Umgebungstemperaturen kleiner als 40° Fahrenheit sind und es ein wolkiger Tag ist. Eine Aufzeichnung solcher Klimasteuerungseinstellungen und Umgebungstemperaturen kann das EAS 10 bezüglich dieser anscheinenden Präferenz des Insassen 12 informieren. Ähnlich kann das EAS 10 lernen, dass der Insasse 12 bevorzugt, die lokalen Verkehrsdurchsagen zu hören, wenn das Fahrzeug startet. Eine Aufzeichnung mehrerer Anforderungen von Verkehrsnachrichten nach dem Fahrzeugstart kann das EAS 10 dazu auffordern, beim Fahrzeugstart solche Informationen zu sammeln und den Insassen 12 zu fragen, ob er den lokalen Verkehr hören möchte. Es sind auch andere erlernte Verhaltensweisen möglich.
-
Diese erlernten Anforderungen, Befehle und/oder Präferenzen können mit vom Insassen definierten Kriterien ergänzt und/oder initialisiert werden. Zum Beispiel kann der Insasse 12 das EAS 10 informieren, dass er nicht gerne über Sport diskutiert, aber gerne über Musik usw. In diesem Beispiel kann das EAS 10 davon absehen, Gespräche mit dem Insassen 12 über Sport einzuleiten, kann aber periodisch mit dem Insassen 12 über Musik sprechen.
-
Es versteht sich, dass ein Beratungssystem (EAS) auf vielfältige Weisen implementiert werden kann und dass die vorliegende Beschreibung beispielhaft ist. Eine weitere ausführlichere Beschreibung eines beispielhaften Beratungssystems wird in der
US-Pub. Nr. 2008/0269958 gegeben. Unter fortgesetzter Bezugnahme auf
1 kommuniziert im Allgemeinen der Computer
20 mit Informationsquellen
16a,
16b,
16c und kommuniziert mit verschiedenen Peripheriegeräten, wie zum Beispiel Tasten, einer Videokamera, einem Fahrzeug-BUS-Controller, einer Beschallungseinrichtung und einem privaten Fahrzeugnetzwerk. Der Computer
20 kommuniziert außerdem mit einer Anzeige, auf der der Avatar wiedergegeben werden kann. Es sind natürlich auch andere Konfigurationen und Anordnungen möglich.
-
2 zeigt ein Blockdiagramm eines Beratungssystems (EAS) 30 für ein Kraftfahrzeug in einer beispielhaften Ausführungsform. Das EAS 30 ist etwas ausführlicher dargestellt, und kann im Allgemeinen auf dieselbe Weise wie oben für das EAS 10 von 1 arbeiten. Wie gezeigt, kommuniziert das System bzw. der Dispatcher 32 für gesprochenen Dialog mit der Spracherkennungskomponente 34 und der Avatar-Komponente 36, die eine Schnittstelle mit dem Fahrer 38 bilden. Außerdem kommuniziert das System bzw. der Dispatcher 32 für gesprochenen Dialog außerdem mit der Dialogkomponente 40. Verschiedene Komponenten des EAS 30 werden in dem Prozessor 42 implementiert. Der Prozessor 42 kann die Form einer beliebigen geeigneten Einrichtung annehmen, wie für Fachleute erkennbar ist. Zum Beispiel kann der Prozessor 42 als ein Steuermodul in dem Fahrzeug implementiert werden. Ausführlicher kommuniziert die Kraftübertragung AI 44 mit dem System bzw. Dispatcher 32 für gesprochenen Dialog und mit der Schnittstelle 50 für das CAN (Controller Area Network), die aus einem Datenmanager 52 und einem CAN-Manager 54 besteht. CAN ist ein derzeit in Fahrzeugen verwendetes eingebettetes Netzwerk. Es sind auch andere Implementierungen möglich.
-
Middleware verbindet das EAS 30 mit einem oder mehreren Softwareagenten 60, darunter der Zeitagent 62. Im Allgemeinen kann ein Softwareagent ein unabhängiges Programm sein, das mit dem in 2 dargestellten EAS 30 (oder dem EAS 10 von 1) interagiert, um spezifische Aufgaben/Funktionen zu implementieren. Zum Beispiel implementiert ein Agent eine spezifische Aufgabe oder Funktion und kann das System bzw. den Dispatcher 32 für gesprochenen Dialog und andere Systemkomponenten benutzen, um mit dem Fahrer 38 zu interagieren.
-
Ein Softwareagent kann dafür ausgelegt sein, vielfältige Eingaben zu empfangen. Der Agent kann diese Eingaben verarbeiten, vielfältige Ausgaben bereitstellen und gemäß den Eingaben seine designierte Aufgabe bzw. designierten Aufgaben ausführen. Der Agent kann auch Fahrzeugsystemausgaben verarbeiten. Der Agent kann auch eine emotionale Ausgabe zur Präsentation durch den Avatar 36 ausgeben, die ein Indikator dafür ist, wie gut der Agent seine beabsichtigte Funktion ausführt.
-
Gemäß der dargestellten Ausführungsform der Erfindung wird die Uhr als EAS-Agent, der Zeitagent 62, implementiert. Das EAS-System 30 ermöglicht der Uhr Interaktion mit dem Fahrer 38 über gesprochenen Dialog, statt passiv auf Uhrinformationen zu warten.
-
Ein Zeit-Client 64 wird auf einer mobilen Einrichtung 66 implementiert. Die Mobile Einrichtung 66 kann die Form einer beliebigen geeigneten Einrichtung annehmen, wie für Fachleute erkennbar ist, und kommuniziert über die Verbindung 70 mit dem System bzw. Dispatcher 32 für gesprochenen Dialog. Zum Beispiel kann die mobile Einrichtung 66 die Form eines Mobiltelefons oder PDA annehmen. Bei einer Implementierung werden ARM-Hardware (ARM Holdings, Cambridge, England, UK) und das Windows-Mobilbetriebssystem (Microsoft Corporation, Redmond, Washington) verwendet. Der Zeit-Client 64 kommuniziert mit dem Zeitanwendungsserver 72, der im Internet 74 befindlich gezeigt ist.
-
Unter weiterer Bezugnahme auf 2 werden weitere Einzelheiten der beispielhaften Ausführungsform beschrieben. Wegschauereignisse werden durch Verwendung einer Sprachschnittstelle beseitigt. Ferner kann das EAS 30 sein kontextbewusstes Empfehlungssystem verwenden, um zu antizipieren, dass der Fahrer Uhrinformationen benötigt, und sie proaktiv bereitzustellen. Uhrinformationen können visuell durch Befehl auf dem EAS-Schirm angezeigt werden, indem die Navigations- oder Avatar-Tafeln mit Uhrgrafik ersetzt werden. Uhrinformationen könnten auch auf einem Heads-up-Anzeige angezeigt werden. In diesem Fall werden Wegschauvorgänge minimiert, weil die Informationen verfügbar sind, wenn sie der Fahrer anfordert. Der EAS-Uhr-/-Zeitagent 62 ist über die nachrichtenorientierte Middleware (MOM) des EAS mit anderen Agenten 60 in dem EAS-System 30 integriert. Darüber hinaus befindet sich das EAS 30 über die CAN Schnittstelle 50 in Kommunikation mit verschiedenen Fahrzeugsystemen 80, darunter zum Beispiel das Kraftübertragungs-Steuermodul 82, das Navigationssystem 84 und das globale Positionsbestimmungssystem 86.
-
Der Zeitagent 62 ist deshalb in der Lage, Folgendes zu erhalten: Informationen über aktuelle Uhrzeit, Position, Geschwindigkeit, Richtung, Sonnenaufgang, Sonnenuntergang usw. von dem GPS 86, Routeninformationen, wie zum Beispiel die geschätzte Ankunftszeit, die Zeit bis zur nächsten Ausfahrt, von dem Navigationssystem 84. Der Zeitagent 62 kann Geocode-Informationen von Web-Quellen abrufen, wie zum Beispiel die Zeitzone für eine Postleitzahl an einer bestimmten Adresse oder einem bestimmten GPS-Ort. Auf diese Weise kann der Zeitagent 62 auf vielfältige Fahreranforderungen reagieren, wie zum Beispiel „Wieviel Uhr ist es in Chicago?”; „Was ist die aktuelle Uhrzeit an meinem aktuellen Ort?”; „Wieviel Uhr wird es sein, wenn ich den Sonnenuntergang sehe?”; „Wo werde ich beim Sonnenuntergang sein?”; Wo werde ich um die Mittagszeit herum sein?”; oder „Wo werde ich um 5:00 sein?”.
-
Der EAS-Uhragent 62 kann auch zu einem spezifischen Zeitpunkt und mit einer spezifischen Dringlichkeit stattzufindende Alarme setzen. Der Fahrer kann einen von mehreren gesprochenen Befehlen aufrufen, um einen Alarm zu setzen, zum Beispiel: „Sag mir jede halbe Stunde die Zeit”; „Sag mit die Zeit in einer Stunde”; „Sag mir die Zeit beim Sonnenaufgang”. Wie bei allen Zeitbefehlen kann diesen ein Dringlichkeitsniveau gegeben werden, indem man zum Beispiel Folgendes sagt: „Unterbreche die Nachrichten, um mir die Zeit in einer halben Stunde zu sagen”. Der EAS-Uhragent 62 kann auch Alarme für andere Agenten setzen, wenn also der Kraftstoffüberwachungsagent alle 10 Minuten einen Alarm benötigt, um die Kraftstoffparameter zu aktualisieren, kann er mit dem Uhragenten 62 einen Alarm setzen, der ihn in dem voreingestellten Intervall aufwecken wird.
-
Ferner könnte ein Alarm einen vom Fahrer ausgewählten Glocken- oder Klingelton bereitstellen, um so bestimmte Zeitinformationen bereitzustellen, ohne die Audiounterhaltung oder gesprochenen EAS-Dialog zu unterbrechen. Zum Beispiel könnte ein Glocken- oder Klingelton „Stundenschlag-Informationen” bereitstellen, ohne Audiounterhaltung oder gesprochenen EAS-Dialog zu unterbrechen. Es könnten gegebenenfalls auch andere Alarme als ein Glocken- oder Klingelton implementiert werden. Der Fahrer kann einen Befehl aufrufen, um einen Glocken- oder Klingelton als einen Alarm zu setzen, zum Beispiel „Läute jeden Stundenschlag”; „Spiel in einer Stunde meinen Lieblings-Klingelton”; „Glockenschlag 20 Minuten vor Sonnenuntergang”.
-
Ferner kann der Zeitagent 62 gemäß als ein Benutzerprofil 90 gespeicherten Benutzerpräferenzen Aktionen unternehmen. Der Zeitagent 62 ist auch als mit dem Anzeigetreiber 92 wie oben besprochen eine Schnittstelle bildend gezeigt.
-
Es versteht sich, dass das EAS 10, das EAS 30, der Software-Zeitagent 62 und andere dargestellte Systeme und Komponenten lediglich Beispiele sind und verschiedene Implementierungen der Erfindung möglich sind.
-
3 zeigt eine Ausführungsform des Zeitagenten einschließlich verschiedener Funktionsmodule. Ausführlicher besteht der Zeitagent 62 aus verschiedenen Komponenten zur Implementierung der gewünschten Funktionalität. Der Zeitagent 62, einschließlich der verschiedenen Komponenten, kann in Software und/oder auf beliebige geeignete Weise implementiert werden, wie für Durchschnittsfachleute erkennbar ist. Wie in 3 gezeigt, umfasst der Zeitagent 62 eine Zeitkalkulatorkomponente 100, ein Ortsmodul 102, ein Ergebnistypmodul 104, ein Prioritätsmodul 106 und ein Genauigkeitsmodul 108.
-
4–7 zeigen den Betrieb der verschiedenen Funktionsmodule 102, 104, 106, 108 des Zeitagenten 62. In 4 befindet sich das Ortsmodul 102 in Kommunikation mit Kontextinformationen 120 von dem Zeitanwendungsserver 72, Kontextinformationen 122 von anderen EAS-Agenten 60, Benutzerpräferenzen 124 aus dem Benutzerprofil 90 und Kontextinformationen 126 aus dem System 32 für gesprochenen Dialog. Das Ortsmodul 102 empfängt das Ortselement 130 als Eingabe und produziert Ausgaben, die ein revidiertes Ortselement 132 und Zeitzoneninformation 134 umfassen.
-
In 5 befindet sich das Ergebnistypmodul 104 in Kommunikation mit Kontextinformationen 120 aus dem Zeitanwendungsserver 72, Kontextinformationen 122 aus anderen EAS-Agenten 60, Benutzerpräferenzen 124 aus dem Benutzerprofil 90 und Kontextinformation 126 aus dem System 32 für gesprochenen Dialog. Das Ergebnistypmodul 102 empfängt das Ergebnistypelement 140 als Eingabe und produziert das revidierte Ergebnistypelement 142 als Ausgabe.
-
In 6 befindet sich das Prioritätsmodul 106 in Kommunikation mit Kontextinformationen 120 aus dem Zeitanwendungsserver 72, Kontextinformationen 122 aus anderen EAS-Agenten 60, Benutzerpräferenzen 124 aus dem Benutzerprofil 90 und Kontextinformationen 126 aus dem System 32 für gesprochenen Dialog. Das Prioritätsmodul 106 empfängt das Prioritätselement 150 als Eingabe und produziert das revidierte Prioritätselement 152 als Ausgabe In 7 befindet sich das Genauigkeitsmodul 108 in Kommunikation mit Kontextinformationen 120 aus dem Zeitanwendungsserver 72, Kontextinformationen 122 aus anderen EAS-Agenten 60, Benutzerpräferenzen 124 aus dem Benutzerprofil 90 und Kontextinformationen 126 aus dem System 32 für gesprochenen Dialog. Das Genauigkeitsmodul 108 empfängt das Genauigkeitselement 160 als Eingabe und produziert das Genauigkeitselement 162 als Ausgabe.
-
8A–8D zeigen Aspekte eines Nachrichtenprotokolls für den Zeitagenten in der dargestellten Ausführungsform. Zum Beispiel kann ein EAS-Agent wünschen, die Zeit anzusagen, ein Fahrer kann Zeitinformationen anfordern oder ein EAS-Agent kann wünschen, die Uhrzeit zu erfahren. Im Allgemeinen folgen Zeitanforderungen (durch einen Agenten oder den Fahrer), Agentenansagen und Zeitergebnisse aus dem Zeitagenten einem definierten Nachrichtenprotokoll. 8A–8D zeigen eine Möglichkeit für ein solches Protokoll. Die Diagramme in 8A–8D repräsentieren Dokumente/Nachrichten in XML (Extensible Markup Language), es versteht sich jedoch, dass andere Nachrichten- oder Objektformate möglich sind.
-
8A zeigt ein Element der obersten Ebene für eine Agentenansage bei 170. Ausführlicher zeigt 8A das Nachrichtenprotokoll, das von einem EAS-Agenten benutzt wird, der wünscht, die Zeit anzusagen. Das Agentenansageelement 170 umfasst Attribute 172, darunter ein Relativ/Absolut-Attribut 174, ein Anforderer-ID-Attribut 176 und ein Anforderungs-ID-Attribut 178. Das Agentenansagelement 170 umfasst Teilelemente, darunter ein Ortselement 180, ein Genauigkeitselement 182, ein Prioritätsmodellelement 184 und ein Ergebnistypelement 186.
-
8B zeigt ein Element der obersten Ebene für eine Fahrerzeitanforderungsnachricht bei 190. Ausführlicher zeigt 8B das für eine Zeitanforderung durch den Fahrer verwendete Nachrichtenprotokoll. Das Fahrerzeitanforderungs-Nachrichtenelement 190 umfasst Attribute 192, darunter ein Relativ/Absolut-Attribut 194 und ein Anforderungs-ID-Attribut 198. Das Fahrerzeitanforderungs-Nachrichtenelement 190 umfasst Teilelemente, darunter ein Ortselement 200, ein Genauigkeitselement 202, ein Prioritätsmodellelement 204 und ein Ergebnistypelement 206.
-
8C zeigt ein Element der obersten Ebene für eine Agentenzeitanforderungsnachricht bei 210. Ausführlicher zeigt 8C das Nachrichtenprotokoll, das für eine Zeitanforderung durch einen EAS-Agenten verwendet wird, der bestimmte Zeitinformationen wissen möchte. Das Zeitagentenanforderungs-Nachrichtenelement 210 umfasst Attribute 212, darunter ein Anforderer-ID-Attribut 216 und ein Anforderungs-ID-Attribut 218. Das Agentenzeitanforderungs-Nachrichtenelement 210 umfasst Teilelemente, darunter ein Ortselement 220, ein Genauigkeitselement 222, ein Prioritätsmodellelement 224 und ein Ergebnistypelement 226.
-
8D zeigt ein Element der obersten Ebene für ein Zeitergebnis bei 230. Ausführlicher zeigt 8D das Nachrichtenprotokoll, das für ein Zeitergebnis von dem Zeitagenten verwendet wird. Das Zeitergebnis 230 umfasst Attribute 232, darunter ein Anforderer-ID-Attribut 236 und ein Anforderungs-ID-Attribut 238. Das Zeitergebniselement 230 umfasst Teilelemente, darunter ein Ortselement 240, ein Zeitelement 242, ein Prioritätsmodellelement 244 und ein Ergebnistypelement 246.
-
Unter weiterer Bezugnahme auf 8A–8D gibt ein Relativ/Absolut-Attribut im Allgemeinen an, ob die Nachricht eine relative Zeit oder eine absolute Zeit betrifft; ein Anforderer-ID-Attribut gibt den anfordernden oder ansagenden EAS-Agenten an; und ein Anforderungs-ID-Attribut gibt eine eindeutige ID für diese bestimmte Anforderung an. Ferner gibt im Allgemeinen ein Ortsteilelement den Ort für die bestimmte interessierende Zeit an, weil Zeit an verschiedenen. Orten (Zeitzonen) verschieden ist. Das Ortsteilelement in einer Nachricht an den Zeitagenten wird durch das Ortsmodul 102 (4) verarbeitet, um das Ortsteilelement für das Zeitergebnis zu produzieren. Ein Genauigkeitsteilelement gibt die für die bestimmte interessierende Zeit, zum Beispiel Tag oder Nacht; Morgen, Nachmittag oder Abend; nächste Viertelstunde; usw. erforderliche Genauigkeit an. Das Genauigkeitsteilelement in einer Nachricht an den Zeitagenten wird durch das Genauigkeitsmodul 108 (7) verarbeitet, um die Genauigkeit für das Zeitergebnis zu produzieren.
-
Ein Prioritätsmodell-Teilelement gibt die Priorität für die bestimmte Anforderung oder Ansage an, zum Beispiel kritisch oder zur Information. Das Prioritätsteilelement in einer Nachricht an den Zeitagenten wird durch das Prioritätsmodul 106 (6) verarbeitet, um das Prioritätsteilelement für das Zeitergebnis zu produzieren.
-
Ein Ergebnistyp-Teilelement gibt den Ergebnistyp für die bestimmte Anforderung oder Ansage an, zum Beispiel eine geschätzte absolute Zeit, zu der der Fahrer ein bestimmtes Ziel, einen bestimmten interessierenden Punkt oder einen bestimmten Ort erreichen wird; eine relative Zeit, wie zum Beispiel wie lange noch bis zu einem bestimmten Ereignis oder wie lange es seit einem bestimmten Ergebnis her ist usw.; oder einen Ort, an dem sich der Fahrer zu einem bestimmten interessierenden Zeitpunkt befinden wird. Das Ergebnistyp-Teilelement in einer Nachricht an den Zeitagenten wird durch das Ergebnistypmodul 104 (5) verarbeitet, um das Ergebnistyp-Teilelement für das Zeitergebnis zu produzieren.
-
Ein Zeitteilelement gibt die mit dem Zeitergebniselement 230 assoziierte Zeit an.
-
9 ist ein Blockdiagramm eines EAS-Agenten, der wünscht, die Zeit anzusagen, in einer Ausführungsform der Erfindung. Im Block 260 sendet ein EAS-Agent eine Anforderung über den Datenmanager zu dem Zeitagenten. Der Zeitagent empfängt die Anforderung. Im Block 262 bestimmt der Zeitagent eine Priorität der Nachricht. Der Zeitagent verarbeitet die Anforderung, um ein Zeitergebnis zu produzieren. Ausführlicher wendet der Zeitagent im Block 264 Zeitzoneninformationen an. Im Block 266 wendet der Zeitagent Genauigkeitsinformationen aus der Anforderung an; und im Block 268 wendet der Zeitagent Genauigkeitsinformationen aus dem Benutzerprofil an. Im Block 270 wendet der Zeitagent im Allgemeinen Kontextinformationen an.
-
Im Block 272 sendet der Zeitagent nach der Bestimmung des Zeitergebnisses eine Anforderung über den Datenmanager zu dem Dispatcher. Im Block 274 ruft der Dispatcher eine Ereignissequenz auf, um zu einem gesprochenen Dialog mit dem Fahrer zu führen. Im Block 276 publiziert der Dispatcher eine Nachricht in dem Datenmanager, dass die Anforderung abgeschlossen ist. Im Block 278 publiziert der Zeitagent, wenn es angefordert wird, eine Bestätigung in dem Datenmanager an den anfordernden EAS-Agenten.
-
10 ist ein Blockdiagramm, das einen Fahrer darstellt, der Zeitinformationen anfordert, in einer Ausführungsform der Erfindung. Im Block 280 fordert der Fahrer zum Beispiel durch eine gesprochene Anforderung Zeitinformationen an. Im Block 282 gibt die Spracherkennung des EAS-Systems eine Dialogaktion zur Verarbeitung an den Dispatcher zurück. Im Block 284 sendet der Dispatcher über den Datenmanager eine Anforderung zu dem. Zeitagenten.
-
Der Zeitagent verarbeitet die empfangene Anforderung. Im Block 286 berechnet der Zeitagent die Zeitzone. Im Block 288 berechnet der Zeitagent die erforderliche Genauigkeit. Im Block 290 berechnet der Zeitagent die erforderliche Priorität. Das Zeitergebnis wird im Block 292 berechnet. Im Block 294 sendet der Zeitagent über den Datenmanager eine Anforderung zu dem Dispatcher. Im Block 296 sendet der Dispatcher zum entsprechenden Zeitpunkt eine Nachricht zu dem System für gesprochenen Dialog. Im Block 298 gibt das System für gesprochenen Dialog korrekten Dialog mit dem Fahrer wider. Im Block 300 publiziert der Dispatcher eine Nachricht in dem Datenmanager, dass die Anforderung abgeschlossen ist.
-
11 ist ein Blockdiagramm, das einen EAS-Agenten zeigt, der die Zeit erfahren möchte, in einer Ausführungsform der Erfindung. Im Block 310 sendet ein EAS-Agent eine Anforderung über den Datenmanager zu dem Zeitagenten. Im Block 312 berechnet der Zeitagent die Zeitzone. Im Block 314 berechnet der Zeitagent die erforderliche Genauigkeit. Im Block 316 berechnet der Zeitagent die erforderliche Priorität. Im Block 318 berechnet der Zeitagent das angeforderte Ergebnis. Im Block 320 gibt der Zeitagent über einen Datenmanager ein Zeitergebnis an den die Zeit anfordernden EAS-Agenten aus.
-
Obwohl Ausführungsformen der Erfindung dargestellt und beschrieben wurden, ist nicht beabsichtigt, dass diese Ausführungsformen alle möglichen Formen der Erfindung darstellen und beschreiben. Stattdessen sind die in der Beschreibung verwendeten Wörter nicht Wörter der Beschränkung, sondern der Beschreibung, und es versteht sich, dass verschiedene Änderungen vorgenommen werden können, ohne von dem Gedanken und Schutzumfang der Erfindung abzuweichen.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- US 2008/0269958 [0006, 0027, 0039]