DE102006000001A1 - Agentvorrichtung für ein Fahrzeug, Agentsystem, Agentsteuerverfahren, Endgerätvorrichtung und Informationsbereitstellungsverfahren - Google Patents

Agentvorrichtung für ein Fahrzeug, Agentsystem, Agentsteuerverfahren, Endgerätvorrichtung und Informationsbereitstellungsverfahren Download PDF

Info

Publication number
DE102006000001A1
DE102006000001A1 DE102006000001A DE102006000001A DE102006000001A1 DE 102006000001 A1 DE102006000001 A1 DE 102006000001A1 DE 102006000001 A DE102006000001 A DE 102006000001A DE 102006000001 A DE102006000001 A DE 102006000001A DE 102006000001 A1 DE102006000001 A1 DE 102006000001A1
Authority
DE
Germany
Prior art keywords
vehicle
agent
information
terminal device
portable terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102006000001A
Other languages
English (en)
Inventor
Hiroaki Toyota Sekiyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of DE102006000001A1 publication Critical patent/DE102006000001A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Game Theory and Decision Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ein Beobachtungsabschnitt beobachtet eine Fahrsituation, beruhend auf Sensorinformationen, ein Lernabschnitt lernt durch Speicherung eines vom Beobachtungsabschnitt erhaltenen Beobachtungsergebnisses zusammen mit den Sensorinformationen, ein Bestimmungsabschnitt bestimmt eine Kommunikationsaktion mit einem Benutzer, beruhend auf einem vom Lernabschnitt erhaltenen Lernergebnis, ein Anzeigesteuerabschnitt zeigt ein erstes Bild im Fahrzeug an, das die durch den Bestimmungsabschnitt bestimmte Kommunikationsaktion ausdrückt, und ein Erhalteabschnitt erhält von außerhalb des Fahrzeugs erfasste und in einer tragbaren Endgerätvorrichtung gespeicherte erfasste Informationen. Der Bestimmungsabschnitt bestimmt die Kommunikationsaktion durch Reflektieren der erfassten Informationen auf das Lernergebnis.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Agentvorrichtung für ein Fahrzeug, ein Agentsteuerverfahren, eine Endgerätvorrichtung und ein Informationsbereitstellungsverfahren, und insbesondere auf eine Agentvorrichtung für ein Fahrzeug, ein Agentsteuerverfahren, eine Endgerätvorrichtung und ein Informationsbereitstellungsverfahren zur Ausführung einer Kommunikationsfunktion mit einem personifizierten Agenten.
  • Eine Agentvorrichtung ist bekannt (beispielsweise aus der Japanischen Patentanmeldungsoffenlegungsschrift Nr. 2000-20888), bei der Bilder einer Vielzahl personifizierter Agenten vorgesehen sind, so dass die Vielzahl der Agenten mit unterschiedlichen Erscheinungen auftreten können, und ein Benutzer Namen für die Agenten mit den jeweiligen Erscheinungsbildern frei vergeben kann. Ruft bei einer derartigen Agentvorrichtung der Benutzer einen anderen Namen als den eines aktuellen Agenten auf, wird ein entsprechender Agent aufgerufen, und der so aufgerufene Agent übernimmt dann die Verarbeitung des aktuellen Agenten.
  • KURZZUSAMMENFASSUNG DER ERFINDUNG
  • Ein so genannter „Agent" ist jemand bzw. etwas, das verschiedene Arten von Informationen für einen Benutzer lernen soll, das heißt, Charaktere, Aktionen, Geschmäcker/Ideen usw., die den Benutzer betreffen, um dem Benutzer geeignete Informationen zu empfehlen.
  • Allerdings ist das, was vom Agenten zum Lernen verfügbar ist, bei der herkömmlichen Agentvorrichtung auf etwas im Fahrzeug beschränkt, und so sind Gelegenheiten zum Lernen von Informationen für den Benutzer beschränkt. In einem derartigen System empfiehlt der Agent eventuell nicht immer geeignete Informationen entsprechend. Der Grund dafür ist, dass der Anteil der Zeit, die der Benutzer im Fahrzeug fährt, im Leben des Benutzers sehr kurz ist, und der Agent nicht unbedingt ausreichend Informationen in dieser kurzen Zeit lernen kann, um geeignete Informationen zu empfehlen.
  • Die vorliegende Erfindung wurde unter Berücksichtigung dieser Situation entwickelt, und eine Aufgabe der Erfindung besteht darin, ein Agentsystem/eine Agentvorrichtung auszugestalten, anhand der geeignete Informationen dem Benutzer empfohlen werden können.
  • Gemäß einer Ausgestaltung der Erfindung ist eine Agentvorrichtung für ein Fahrzeug ausgebildet, in der
    ein Beobachtungsabschnitt, der eine Fahrsituation beruhend auf Sensorinformationen beobachtet,
    ein Lernabschnitt, der durch Speichern eines Beobachtungsergebnisses, das vom Beobachtungsabschnitt erhalten wird, zusammen mit den Sensorinformationen lernt,
    ein Bestimmungsabschnitt, der eine Kommunikationsaktion für einen Benutzer beruhend auf einem vom Lernabschnitt erhaltenen Lernergebnis bestimmt,
    ein Anzeigesteuerabschnitt, der ein erstes Bild im Fahrzeug anzeigt, wobei die durch den Bestimmungsabschnitt bestimmte Kommunikationsaktion ausgeführt wird, und
    ein Erhalteabschnitt, der von außerhalb des Fahrzeugs erfasste und in einer tragbaren Endgerätvorrichtung gespeicherte Informationen erhält, vorgesehen sind, und
    der Bestimmungsabschnitt die Kommunikationsaktion durch Reflektieren der erfassten Informationen auf das Lernergebnisses bestimmt.
  • Gemäß einer anderen Ausgestaltung der Erfindung ist eine Agentvorrichtung ausgestaltet, in der
    eine Vorrichtung am Fahrzeug und eine tragbare Endgerätvorrichtung vorgesehen sind, und
    beide Vorrichtungen jeweilige Kommunikationsfunktionen mit personifizierten Agenten aufweisen, und von außerhalb des Fahrzeugs durch die tragbare Endgerätvorrichtung erfasste Informationen auf die Kommunikationsfunktion der Vorrichtung am Fahrzeug reflektiert werden.
  • Da bei diesen Ausgestaltungen der Erfindung ein Benutzer eine tragbare Endgerätvorrichtung (beispielsweise ein Mobiltelefon) nicht nur in einem Fahrzeug, sondern auch in anderen Situationen in seinem persönlichen Leben mitführt, können von außerhalb des Fahrzeugs für den Benutzer erhaltene Informationen einfach auf durch die Agentvorrichtung im Fahrzeug zu verarbeitende Informationen reflektiert werden. Infolgedessen verbessert sich der Lerneffekt verglichen mit einem Fall, in dem lediglich im Fahrzeug erfasste Informationen für das Lernen verwendet werden. Infolgedessen können erfindungsgemäß geeignete Informationen für den Benutzer empfohlen werden.
  • KURZBESCHREIBUNG DER ZEICHNUNG
  • Weitere Aufgaben und Merkmale der Erfindung werden aus der folgenden ausführlichen Beschreibung in Verbindung mit der beiliegenden Zeichnung ersichtlich:
  • 1 zeigt ein Beispiel einer Systemkonfiguration einer Agentvorrichtung für ein Fahrzeug gemäß der Erfindung,
  • 2 zeigt ein Beispiel einer Systemkonfiguration eines Abschnitts einer tragbaren Endgerätvorrichtung, die der in 1 gezeigten Agentvorrichtung entspricht,
  • 3 zeigt ein Ablaufdiagramm zum Übertragen von Informationen hinsichtlich eines Benutzers, die in der in 2 gezeigten tragbaren Endgerätvorrichtung gespeichert sind, zu dem Fahrzeug,
  • 4 zeigt ein Ablaufdiagramm zum Übertragen eines Agenten der tragbaren Endgerätvorrichtung in das Fahrzeug,
  • 5 zeigt ein Ablaufdiagramm für einen Fall, in dem eine Vielzahl von Agenten im Fahrzeug vorhanden sind, und
  • 6A und 6B zeigen einen Fall, wenn ein Agent der tragbaren Endgerätvorrichtung zum Fahrzeug bewegt wird.
  • AUSFÜHRLICHE BESCHREIBUNG DES BEVORZUGTEN AUSFÜHRUNGSBEISPIELS
  • Unter Bezugnahme auf die Figuren wird nun das bevorzugte Ausführungsbeispiel beschrieben. 1 zeigt ein Beispiel einer erfindungsgemäßen Systemkonfiguration einer Agentvorrichtung für ein Fahrzeug.
  • Wie in 1 gezeigt, umfasst die Agentvorrichtung für das Fahrzeug einen Agentsteuerabschnitt 10, einen Bildsteu erabschnitt 12, einen Anzeigeabschnitt 13, einen Sprachsteuerabschnitt 15, einen Spracheingabeabschnitt 17, einen Sprachausgabeabschnitt 16, verschiedene Arten von Sensoren 18, einen Fahrsituationbeobachtungsverarbeitungsabschnitt 19, einen Speicherabschnitt 20, einen Navigationssteuerabschnitt 11 und einen Sende-/Empfangsabschnitt 21.
  • Die in 1 gezeigten verschiedenen Arten von Sensoren 18 bezeichnen Einrichtungen zur Erfassung von Fahrzeugsituationen und biologischen Informationen eines Benutzers in einem Fahrzeug. Die Sensoren zur Erfassung von Fahrzeugsituationen können beispielsweise einen Beschleunigungssensor, einen Bremssensor, einen Fahrzeugbewegungssensor, einen Verschiebepositionssensor, einen Gurtsensor, einen Sensor zur Erfassung einer Entfernung von einem vorausfahrenden Fahrzeug usw. umfassen. Verschiedene Arten von Sensoren zur Erfassung von Fahrzeugsituationen können für bestimmte Zwecke vorgesehen sein. Die Sensoren zur Erfassung biologischer Informationen des Benutzers können beispielsweise einen Körpertemperatursensor, einen Hirnstromwellensensor, einen Herzfrequenzsensor, einen Fingerabdrucksensor, einen Blickrichtungssensor, eine Kamera usw. enthalten. Verschiedene Arten von Sensoren zur Erfassung biologischer Informationen können für bestimmte Zwecke vorgesehen sein.
  • Der Fahrsituationsbeobachtungsverarbeitungsabschnitt 19 in 1 beobachtet die Fahrsituationen, wie die Fahrzeugsituationen und die biologischen Informationen beruhend auf den durch die vorstehend beschriebenen verschiedenen Sensorarten 18 erfassten Sensorinformationen und sendet Beobachtungsergebnisse zu einem in 1 gezeigten Agentsteuerabschnitt 10.
  • Der Agentsteuerabschnitt 10 erzeugt und steuert einen personifizierten Agenten, der mit dem Benutzer im Fahrzeug kommuniziert, durch eine Informationsverarbeitungsfunktion einer CPU. Das tatsächliche Erscheinungsbild des Agenten kann ein Mensch, oder davon verschieden aus verschiedenen Dingen ausgewählt werden, beispielsweise ein Tier, ein Roboter, eine Zeichentrickfigur usw. entsprechend den Benutzervorlieben sein. Der Agent kann in der Form eines sich auf einer Anzeigeeinrichtung bewegenden Bildes, ein Hologramm oder etwas in dieser Richtung sein. Der Agentsteuerabschnitt 10 bestimmt eine Kommunikationsaktion des Agenten für den Benutzer beruhend auf einem Lernergebnis, was nachstehend beschrieben ist, und steuert Agentbilddaten, so dass der Agent die so bestimmte Aktion ausführen kann. Das Lernergebnis wird als Ergebnis der über die verschiedenen Sensorarten 18 erfassten Sensorinformationen sowie als Beobachtungsergebnis erhalten, das durch den Fahrsituationsbeobachtungsverarbeitungsabschnitt 19 erhalten und in einem in 1 gezeigten Speicherabschnitt 20 gespeichert wird. Bei einem Vorgang, bei dem der Benutzer des Fahrzeugs fährt, kann eine Ortsänderung, eine Zeitänderung, eine Verkehrssituationsänderung, eine Fahrzeuginsassenänderung, eine Emotionsänderung, eine psychologische Änderung usw. auftreten. Diese Änderungen werden durch die verschiedenen Sensorarten 18 gelesen, und als Ergebnis einer Antwort des Benutzers im Ansprechen auf die durch die Agentvorrichtung empfohlenen Inhalte, die vom Agentsteuerabschnitt 10 gelernt sind, können die zu empfehlenden Inhalte geändert werden. Die Agentbilddaten können zuvor im Speicherabschnitt 20 gespeichert werden, oder können zum Speicherabschnitt 20 als Ergebnis ihres Herunterladens von außerhalb des Fahrzeugs hinzugefügt werden.
  • Der Navigationssteuerabschnitt 11 in 1 weist eine Routensuchfunktion, eine Ortsuchfunktion usw. auf. Der Navigationssteuerabschnitt 11 kann eine Position des Fahrzeugs auf einer Karte beruhend auf Informationen erkennen, die von einem GPS-(Global Positioning System)Satelliten über einen (nicht gezeigten) GPS-Empfänger empfangen werden, und beruhend auf Kartendaten in einer (nicht gezeigten) Kartendatenbank erkennen. So kann eine Route von der eigenen Fahrzeugposition zu einem Ziel gesucht werden. Außerdem kann der Navigationssteuerabschnitt 11 nach einem Platz, zu dem der Benutzer gehen möchte, beruhend auf einer Einrichtungsdatenbank (nicht gezeigt) suchen, die Informationen hinsichtlich Einrichtungen wie Restaurants, Parks usw. speichert. Diese Datenbanken, die der Navigationssteuerabschnitt 11 verwendet, können im Fahrzeug selbst oder in einem zentralen Steuerzentrum enthalten sein, das sich außerhalb des Fahrzeugs befindet und über eine Kommunikationsleitung verbindbar ist.
  • Der in 1 gezeigte Sprachsteuerabschnitt 15 steuert einen auch in 1 gezeigten Spracheingabeabschnitt 17 zum Senden von Spracheingabedaten zum Agentsteuerabschnitt 10 oder steuert den Sprachausgabeabschnitt 16 entsprechend einem vom Agentsteuerabschnitt 10 bereitgestellten Agentsprachsteuersignal. Der Spracheingabeabschnitt 17 umfasst ein Mikrofon oder dergleichen, das die Stimme eines Fahrzeuginsassen aufnimmt. Die so aufgenommene Sprache wird nicht nur für eine verbale Kommunikation mit dem Agenten verwendet, sondern auch zum Identifizieren einer Person durch ein Stimmabdrucksystem. Der Sprachausgabeabschnitt 16 umfasst einen Lautsprecher oder dergleichen zur Ausgabe einer durch den Sprachsteuerabschnitt 15 gesteuerten Sprache. Die so ausgegebene Sprache durch den Lautsprecher wird für eine Routenführung für die Navigation als Stimme des Agenten oder dergleichen verwendet.
  • Der Bildsteuerabschnitt 12 steuert den Anzeigeabschnitt 13 entsprechend einem vom Agentsteuerabschnitt 10 bereitgestellten Agentanzeigesteuersignal. Der Anzeigeabschnitt 13 zeigt Karteninformationen oder dergleichen an, die vom Navigationssteuerabschnitt 11 oder dem Agenten bereitgestellt werden. Der Anzeigeabschnitt 13 umfasst eine Anzeigeeinrichtung, die auf einer Frontkonsole des Fahrzeugs vorgesehen ist, oder eine Anzeigeeinrichtung, die für jeden Sitz vorgesehen ist, so dass der entsprechende Fahrzeuginsasse sie einfach betrachten kann.
  • Der Sende-/Empfangsabschnitt 21 umfasst eine Einrichtung zur Bereitstellung einer Kommunikation mit einem außerhalb des Fahrzeugs liegenden Bereich. So kann eine Datenübertragung/ein Datenempfang zu/von einer tragbaren Endgerätvorrichtung 40, dem zentralen Steuerzentrum usw. ausgeführt werden.
  • Die tragbare Endgerätvorrichtung 40 weist auch eine Anzeigeeinrichtung 41 entsprechend einem in 2 gezeigten Anzeigeabschnitt 113 auf, und ist ein Mobiltelefon, ein PDA (Personal Digital Assistant) oder dergleichen, den der Benutzer außerhalb des Fahrzeugs mitführen kann. Auch diese tragbare Endgerätvorrichtung 40 bietet eine Funktion der Kommunikation mit einem personifizierten Agenten, so wie die vorstehend beschriebene Agentvorrichtung für das Fahrzeug, die in 1 gezeigt ist.
  • 2 zeigt ein Blockschaltbild eines Abschnitts der tragbaren Endgerätvorrichtung 40, der die vorstehend beschriebene Funktion betrifft. Wie es in 2 gezeigt ist, umfasst die tragbare Endgerätvorrichtung 40 einen Agentsteuerabschnitt 110, einen Bildsteuerabschnitt 112, einen Anzeigeabschnitt 113, einen Sprachsteuerabschnitt 115, einen Spracheingabeabschnitt 117, einen Sprachausgabeabschnitt 116, einen Speicherabschnitt 120 und einen Sende-/Empfangsabschnitt 121.
  • Wie die Agentvorrichtung für das Fahrzeug in 1 steuert der Agentsteuerabschnitt 110 der tragbaren Endgerätvorrichtung 40 einen personifizierten Agenten, der mit dem Benutzer kommuniziert, entweder wenn sich der Benutzer im Fahrzeug befindet oder außerhalb des Fahrzeugs ist, solange der Benutzer die tragbare Endgerätvorrichtung 40 hält bzw. mitführt.
  • Der Sprachsteuerabschnitt 115 der tragbaren Endgerätvorrichtung 40 steuert den Spracheingabeabschnitt 117 zum Senden von Spracheingabedaten zu dem Agentsteuerabschnitt 110 oder steuert den Sprachaungabeabschnitt 116 entsprechend einem vom Agentsteuerabschnitt 110 bereitgestellten Agentsprachsteuersignal. Der Spracheingabeabschnitt 117 umfasst ein Mikrofon oder dergleichen, das die Stimme eines Fahrzeuginsassen aufnimmt. Die so aufgenommene Sprache wird für eine verbale Kommunikation mit dem Agenten in der tragbaren Endgerätvorrichtung 40 verwendet. Der Sprachausgabeabschnitt 116 umfasst einen Lautsprecher oder dergleichen zur Ausgabe einer durch den Sprachsteuerabschnitt 115 gesteuerten Sprache. Die so durch den Lautsprecher ausgegebene Sprache wird als Stimme des Agenten in der tragbaren Endgerätvorrichtung 40 verwendet.
  • Der Bildsteuerabschnitt 112 der tragbaren Endgerätvorrichtung 40 steuert den Anzeigeabschnitt 113 entsprechend einem vom Agentsteuerabschnitt 110 bereitgestellten Agentanzeigesteuersignal. Der Anzeigeabschnitt 113 zeigt den Agenten in der tragbaren Endgerätvorrichtung 40 an.
  • Der Sende-/Empfangsabschnitt 121 der tragbaren Endgerätvorrichtung 40 umfasst eine Einrichtung zum Bereitstellen einer Kommunikation mit der vorstehend beschriebenen Agentvorrichtung für das Fahrzeug in 1. So kann eine Datenübertragung/ein Datenempfang zu/von der vorstehend be schriebenen Agentvorrichtung für das Fahrzeug ausgeführt werden.
  • Der Agent in der tragbaren Endgerätvorrichtung 40 arbeitet auf der Anzeigeeinrichtung 41 (dem Anzeigeabschnitt 113) wie vorstehend beschrieben. In dem Speicherabschnitt 120 der tragbaren Endgerätvorrichtung 40 werden von einer Kommunikation mit dem Benutzer erfasste Informationen als erfasste Informationen gespeichert. Tritt beispielsweise ein vorbestimmtes Schlüsselwort bei einer verbalen Kommunikation mit dem Benutzer auf, wird diese Angelegenheit dort als die erfassten Informationen gespeichert. Des weiteren werden ein Name eines Restaurants, zu dem der Benutzer geht, die Zeit, zu der der Benutzer in das Restaurant geht, Positionskoordinatendaten des Restaurants, die vom GPS-Satelliten erhalten werden, auch als die erfassten Informationen gespeichert. Auch werden ein Erscheinungsbild des Agenten in der tragbaren Endgerätvorrichtung 40 bestimmende Informationen usw. als die erfassten Informationen gespeichert.
  • Nachstehend wird die Zusammenarbeit zwischen der tragbaren Endgerätvorrichtung 40 und dem Fahrzeug in einem Agentsystem, das die unter Bezugnahme auf 1 beschriebene Agentvorrichtung für das Fahrzeug und den unter Bezugnahme auf 2 beschriebenen Abschnitt der tragbaren Endgerätvorrichtung 40 umfasst, beschrieben. Die tragbare Endgerätvorrichtung 40 wird vom Benutzer in jeder Lebenssituation mitgeführt. Dementsprechend teilt der Agent in der tragbaren Endgerätvorrichtung 40, der wie vorstehend beschrieben personifiziert ist und auf der Anzeigeeinrichtung 41 der tragbaren Endgerätvorrichtung 40 arbeitet, beinahe alle Ereignisse mit dem Benutzer. Zum Ausführen seiner eigenen Agentenrolle speichert der Agent in der tragbaren Endgerätvorrichtung 40 vorbestimmte Schlüsselworte, einen Aktions umfang, eine Zeit der Aktion des Benutzers usw. aus einer Kommunikation mit dem Benutzer in dessen persönlichem Leben und lernt diese. Infolgedessen versteht der Agent in der tragbaren Endgerätvorrichtung 40 die Interessen, Ideen des Benutzers usw. Da die CPU der tragbaren Endgerätvorrichtung 40, die nicht gezeigt ist, die tatsächlich als die verschiedenen Steuerabschnitte 110, 112 und 115 in 2 arbeitet, aber eine begrenzte Informationsverarbeitungsfähigkeit aufweist, ist der Umfang der Agentenrolle, die der Agent in der tragbaren Endgerätvorrichtung, der lediglich in der tragbaren Endgerätvorrichtung 40 arbeitet, ausführen kann, beschränkt. Dagegen hat eine CPU, wie eine Navigations-ECU, die als Navigationssteuerabschnitt 11 in 1 arbeitet, im Fahrzeug, das ein umfangreicheres System als die tragbare Endgerätvorrichtung 40 aufweist, eine größere Informationsverarbeitungsfähigkeit als die CPU der tragbaren Endgerätvorrichtung 40. Da der Agent in der tragbaren Endgerätvorrichtung 40 in das Fahrzeug zusammen mit den Benutzerinteressen, Ideen usw., die in der tragbaren Endgerätvorrichtung 40 wie vorstehend beschrieben erfasst werden, sowie Informationen hinsichtlich des Benutzers, die aus einer Kommunikation mit dem Benutzer in der tragbaren Endgerätvorrichtung 40 wie in den 6A und 6B gezeigt zu dem Fahrzeug übertragen werden, kann der Agent in der tragbaren Endgerätvorrichtung 40, der dann als Agent im Fahrzeug arbeitet, dementsprechend die Agentenrolle besser ausführen.
  • Beispielsweise wird ein Fall angenommen, in dem der Benutzer in einem italienischen Restaurant zu Mittag isst, bevor er mit dem Fahrzeug fährt. In diesem Fall fährt der Benutzer danach mit dem Fahrzeug, genießt das Fahren im Fahrzeug, und dann kommt die Zeit für das Abendessen. Zu diesem Zeitpunkt fragt der Benutzer den personifizierten Agenten im Fahrzeug „Gibt es einen Ort in der Nähe für ein schönes Abendessen?". In diesem Fall sucht der Agent im Fahrzeug, der nur im Fahrzeug arbeitet, nach einem Restaurant in der Nähe anhand des Navigationssystems und findet als Ergebnis ein zweites italienisches Restaurant heraus, das sich zufällig in der Nähe befindet. Dann antwortet der Agent im Fahrzeug dem Benutzer, dass „es ein italienisches Restaurant gibt". Allerdings kann der Agent in der tragbaren Endgerätvorrichtung 40, der das Ereignis mit dem Benutzer im italienischen Restaurant für das Mittagessen wie vorstehend beschrieben geteilt hat, eher eine von einem italienischen Restaurant verschiedene Restaurantart empfehlen, selbst wenn das italienische Restaurant als das nächstgelegene gefunden wurde.
  • Kann der Agent im Fahrzeug also dazu gebracht werden, Einzelheiten über die jüngste Benutzeraktion oder Interessen/Ideen zu verstehen, indem mit dem Benutzer während dessen persönlichem Leben sogar außerhalb des Fahrzeugs kommuniziert wird, kann der Agent im Fahrzeug geeignete Informationen für den Benutzer empfehlen, und so kann die leistungsstarke Funktion im Fahrzeug effektiv ausgenutzt werden. Zu diesem Zweck sollten erfasste Informationen, die außerhalb des Fahrzeugs erfasst und im Speicherabschnitt 120 der tragbaren Endgerätvorrichtung 40 gespeichert werden, auf das Lernergebnis in der Agentvorrichtung für das Fahrzeug in 1 reflektiert werden.
  • 3 zeigt ein Ablaufdiagramm zum Übertragen der erfassten Informationen hinsichtlich des Benutzers, die in der tragbaren Endgerätvorrichtung 40 gespeichert sind, zu dem Fahrzeug. Das Agentsystem in der tragbaren Endgerätvorrichtung 40, die vorstehend unter Bezugnahme auf 2 beschrieben ist, und das Agentsystem im Fahrzeug, das vorstehend unter Bezugnahme auf 1 beschrieben ist, arbeiten separat, wenn sie nicht miteinander verbunden werden. Beide Agentsysteme sollten miteinander verbunden werden, so dass die dort gespeicherten Informationen jeweils gegenseitig übertragen und verknüpft werden können, und so sollten die jüngsten Zustände sichergestellt werden. Diese Verbindung kann immer ausgeführt werden. Allerdings kann die Verbindung statt dessen gemacht werden, wenn der Benutzer das Fahrzeug tatsächlich benutzt, und so sollten die jüngsten Zustände auch in diesem Fall sichergestellt werden. Zum Aktivieren einer genauen Verbindung zwischen diesen sollte eine Zeitbasis in Übereinstimmung gebracht werden. Beispielsweise sollte die Zeitbasis unter Verwendung der vom GPS angewendeten Greenwicher Zeit verwaltet werden.
  • In den Schritten S100 und S110 in 3 wird eine Authentifizierung ausgeführt, um zu beweisen, dass die tragbare Endgerätvorrichtung 40 eine autorisierte ist, und dass der Benutzer eine autorisierte Person ist. Ist die Authentifizierung nicht erfolgreich, werden die erfassten Informationen hinsichtlich des Benutzers nicht von der tragbaren Endgerätvorrichtung 40 zum Fahrzeug übertragen. Ist die Authentifizierung in jedem Schritt erfolgreich, wird Schritt S120 ausgeführt. In Schritt S120 werden die erfassten Informationen hinsichtlich des Benutzers (die als im Endgerät erfasste Informationen bezeichnet werden) von der tragbaren Endgerätvorrichtung 40 in das Fahrzeug heruntergeladen. Sind in Schritt S130 die so heruntergeladenen im Endgerät erfassten Informationen neuer als die bereits im Speicherabschnitt 20 der Agentvorrichtung für das Fahrzeug gespeicherten Informationen (die als im Fahrzeug gespeicherte Informationen bezeichnet werden), werden die im Fahrzeug gespeicherten Informationen in Schritt S140 durch die so übertragenen im Endgerät erfassten Informationen aktualisiert. Sind die so heruntergeladenen im Endgerät erfassten Informationen andererseits älter als die im Fahrzeug ge speicherten Informationen, bleiben die im Fahrzeug gespeicherten Informationen unverändert.
  • Wie vorstehend beschrieben, können die von der tragbaren Endgerätvorrichtung 40 zum Fahrzeug wie in 3 gezeigt übertragenen im Endgerät erfassten Informationen Informationen hinsichtlich vorbestimmter Schlüsselworte, Einrichtungen, wohin der Benutzer gegangen ist, usw. enthalten. Die zu übertragenden Informationen enthalten auch Informationen zum Bestimmen eines Erscheinungsbildes des Agenten in der tragbaren Endgerätvorrichtung 40. 4 zeigt ein Ablaufdiagramm zum Übertragen des Agenten in der tragbaren Endgerätvorrichtung 40 zum Fahrzeug als Antwort auf eine Benutzeranweisung. In Schritt S200 beginnt als Antwort auf die Benutzeranweisung eine Übertragung (das heißt, Bewegung) des Agenten in der tragbaren Endgerätvorrichtung 40 (das heißt, der das Erscheinungsbild des Agenten in der tragbaren Endgerätvorrichtung 40 bestimmenden Informationen usw.), und so wird die Bewegung des Agenten in der tragbaren Endgerätvorrichtung 40 in Schritt S210 ausgeführt. Zu diesem Zeitpunkt werden aktuelle Fahrsituationen über die verschiedenen Sensortypen 18 gelesen, und auch das Lernergebnis wird aus dem Speicherabschnitt 20 in Schritt S220 gelesen. Dann bestimmt der Agentsteuerabschnitt 10 in Schritt S230 beruhend auf den so von den verschiedenen Sensortypen 18 und aus dem Speicherabschnitt 20 gelesenen Informationen, ob eine Erscheinungsumwandlung auszuführen ist oder nicht (das heißt, ob ein Bild für einen Agenten zu ändern ist oder nicht). Wird eine Bestimmung zum Ausführen der Umwandlung gemacht, werden Bilddaten eines anderen Agenten aus dem Speicherabschnitt 20 in Schritt S240 gelesen. Wird andererseits bestimmt, dass keine Umwandlung auszuführen ist, bleiben die aktuellen Bilddaten des Agenten in der tragbaren Endgerätvorrichtung 40 im Fahrzeug in Schritt S250 unverändert. Dann werden in Schritt S260 die so erhaltenen Agentbilddaten entsprechend dem Bestimmungsergebnis in Schritt S230 zur Anzeige eines Agenten im Fahrzeug auf dem Anzeigeabschnitt 13 entsprechend dem Agenten in der tragbaren Endgerätvorrichtung 40 angewendet, dessen Daten in Schritt S210 heruntergeladen wurden. Zu diesem Zeitpunkt gleichzeitig oder unmittelbar vor der Anzeige des Agenten im Fahrzeug auf dem Anzeigeabschnitt 13, wird die Angelegenheit der Anzeige des Agenten im Fahrzeug dem Agentsteuerabschnitt 110 der tragbaren Endgerätvorrichtung 40 in Schritt S270 mitgeteilt. Im Ansprechen auf diese Mitteilung löscht der Agentsteuerabschnitt 110 in der tragbaren Endgerätvorrichtung 40 in Schritt S280 den entsprechenden Agenten in der tragbaren Endgerätvorrichtung 40 von der Anzeigeeinrichtung 41 (dem Anzeigeabschnitt 113).
  • Als Ergebnis der Mitteilung der Anzeige des Agenten im Fahrzeug entsprechend dem Agenten in der tragbaren Endgerätvorrichtung 40, die für die tragbare Endgerätvorrichtung 40 wie vorstehend beschrieben ausgeführt wird, wodurch der entsprechende Agent in der tragbaren Endgerätvorrichtung 40 von der Anzeigeeinrichtung 41 der tragbaren Endgerätvorrichtung 40 entfernt wird, hat der Benutzer den Eindruck, dass sich der Agent in der tragbaren Endgerätvorrichtung 40 von der tragbaren Endgerätvorrichtung 40 in das Fahrzeug bewegt, wenn in Schritt S230 bestimmt wird, dass das Erscheinungsbild des Agenten im Fahrzeug, der dem Agenten in der tragbaren Endgerätvorrichtung 40 entspricht, nicht geändert ist. Da so bestimmt wird, ob der Agent im Fahrzeug in Schritt S230 umzuwandeln ist oder nicht, kann das Erscheinungsbild des Agenten im Fahrzeug geeignet mit der Fahrzeugsituation gesteuert werden. In diesem Zusammenhang ist der Raum im Fahrzeug bis zu einem gewissen Ausmaß ziemlich öffentlich, da der Raum im Fahrzeug auch von einer vom Fahrer verschiedenen Person eingenommen werden kann. Dagegen ist die tragbare Endgerätvorrichtung 40, die dem Benut zer gehört, sehr privat. In dieser Hinsicht kann das Erscheinungsbild des Agenten im Fahrzeug entsprechend dem TPO im Fahrzeug umgewandelt werden. Hat der Agent in der tragbaren Endgerätvorrichtung 40 beispielsweise das Erscheinungsbild einer Zeichentrickfigur, kann die erfindungsgemäße Agentvorrichtung für das Fahrzeug den Agenten im Fahrzeug, der dem Agenten in der tragbaren Endgerätvorrichtung 40 entspricht, umwandeln, dass er das Erscheinungsbild einer Sekretärin hat, wenn das Fahrzeug, in das der Benutzer einsteigt, ein einer Firma gehörendes Dienstfahrzeug ist. Die gleiche Verarbeitung wie vorstehend unter Bezugnahme auf die 3 und 4 beschrieben kann auch für eine entgegengesetzte Richtung ausgeführt werden, das heißt, wenn Informationen vom Fahrzeug zur tragbaren Endgerätvorrichtung 40 übertragen werden.
  • Ein Auslöser zum Initiieren der vorstehend beschriebenen Übertragung der Informationen hinsichtlich des Benutzers oder die vorstehend beschriebene Übertragung des Agenten in der tragbaren Endgerätvorrichtung 40 oder im Fahrzeug kann eine manuelle Operation durch den Benutzer, die Erfüllung einer vorbestimmten Anforderung oder dergleichen sein. Beispielsweise kann der vorstehend beschriebene Auslöser ein Grund sein, dass der Benutzer die tragbare Endgerätvorrichtung 40 vor den Anzeigeabschnitt 13 des Fahrzeugs hält, eine vorbestimmte Taste auf der tragbaren Endgerätvorrichtung 40 vom Benutzer betätigt wird, der Benutzer der tragbaren Endgerätvorrichtung 40 entsprechende Anweisungen durch seine Stimme gibt, die Zündung des Fahrzeugs eingeschaltet wird, das Betreten des Fahrzeugs durch den Benutzer über eine Kamera im Fahrzeug erfasst wird, die tragbare Endgerätvorrichtung 40 in einen Bereich des Fahrzeugs eintritt, innerhalb dessen eine direkte Kommunikation zwischen der tragbaren Endgerätvorrichtung 40 und dem Fahrzeug möglich ist, oder dergleichen. In Verbindung mit dem Bereich des Fahrzeugs, in dem eine direkte Kommunikation zwischen der tragbaren Endgerätvorrichtung 40 und dem Fahrzeug verfügbar ist, kann es eine Konfiguration derart geben, dass zum visuellen Erkennen durch eine Person im Fahrzeug, dass eine Person, die die tragbare Endgerätvorrichtung 40 mitführt, sich von außen dem Fahrzeug nähert, der entsprechende auf dem Anzeigeabschnitt 13 angezeigte Agent größer wird, wenn sich die Entfernung der Person verringert.
  • Ein Verfahren zum Anzeigen des Agenten im Fahrzeug kann darin bestehen, dass eine Entsprechung zwischen einer ID der tragbaren Endgerätvorrichtung 40 und einem Erscheinungsbild eines bestimmten Agenten zuvor im Speicherabschnitt 20 registriert wird, und somit der bestimmte Agent auf dem Anzeigeabschnitt 13 im Ansprechen auf von der tragbaren Endgerätvorrichtung 40 kommende Anweisungen angezeigt wird. Anstelle der ID der tragbaren Endgerätvorrichtung 40 kann eine Entsprechung zwischen biologischen Authentifizierungsinformationen, die eine Person identifizieren, und einem Erscheinungsbild eines bestimmten Agenten zuvor registriert werden, und somit der bestimmte Agent auf dem Anzeigeabschnitt 13 im Ansprechen auf die Erfassung registrierter biologischer Informationen angezeigt werden.
  • Es kann eine Szene im Fahrzeug geben, nicht nur eine, in der nur ein Fahrer alleine fährt, sondern auch eine, in der eine Vielzahl von Personen zusammen im Fahrzeug fahren. 5 zeigt ein Ablaufdiagramm für einen Fall, in dem eine Vielzahl von Agenten im Fahrzeug, die der Vielzahl der Personen jeweils entsprechen, im Fahrzeug erzeugt werden. Das heißt, es wird ein Fall angenommen, in dem im Fahrzeug abgesehen von einem Fahrer A Mitreisende B, C und D auf den Sitzen sitzen. Die jeweiligen Fahrzeuginsassen, das heißt, der Fahrer A und die Mitreisenden B, C und D haben ihre eigenen Agenten. Informationen der erfassten Informationen hinsichtlich dieser Personen A, B, C und D, die jeweils in ihren eigenen tragbaren Endgerätvorrichtungen 40 gespeichert sind, werden übertragen und im Speicherabschnitt 20 des Fahrzeugs separat für die jeweiligen Benutzer A, B, C und D im vorstehend unter Bezugnahme auf die 3 und 4 beschriebenen Prozess gespeichert. Die jeweiligen Agenten im Fahrzeug, die so von den jeweiligen tragbaren Endgerätvorrichtungen 40 übertragen sind, werden auf den jeweiligen Anzeigeabschnitten 13 angezeigt, die in derartigen Positionen angeordnet sind, dass die jeweiligen Insassen ihre jeweiligen Agenten im Fahrzeug leicht betrachten können. Beispielsweise ist für einen Insassen, der auf einem Rücksitz des Fahrzeugs sitzt, der Anzeigeabschnitt 13 auf der Rückseite des unmittelbaren Vordersitzes angebracht. Werden die jeweiligen Agenten im Fahrzeug dieser vier Insassen zusammen auf einem Anzeigeabschnitt 13 angezeigt, können die jeweiligen Agenten im Fahrzeug derart angezeigt werden, dass diese eine Positionsbeziehung haben, die einer tatsächlichen Positionsbeziehung unter den vier Insassen entspricht, die unter Verwendung eines Insassenerfassungssensors, der das Vorhandensein des Insassen durch Erfassung einer auf den entsprechenden Sitz wirkenden Kraft erfasst, unter Verwendung einer Gesichtserkennungstechnik mit einer Kamera, usw. beobachtet wird.
  • Wie in den Schritten S300 bis S330 in 5 gezeigt, können die jeweiligen Insassen mit ihren eigenen Agenten im Fahrzeug jeweils kommunizieren. So während der Kommunikation erfasste Informationen werden im Speicherabschnitt 20 separat für die jeweiligen Insassen gespeichert. Der Agentsteuerabschnitt 10 liest die so gespeicherten Daten und biologischen Informationen (die durch die Sensoren 18 erhalten werden) der jeweiligen Insassen in Schritt S340 und bestimmt in Schritt S350 jeweilige Kommunikationsaktionen für die jeweiligen Insassen entsprechend einer vorbestimm ten Prioritätsreihenfolge. Beispielsweise ist die Prioritätsreihenfolge unter diesen vier Personen zuvor registriert, und der Agentsteuerabschnitt 10 führt eine Bestimmung derart aus, dass einer Kommunikationsaktion für eine Person mit höherer Priorität Priorität gegeben wird. Der Agentsteuerabschnitt 10 steuert die jeweiligen Agenten im Fahrzeug in Schritt S360 separat derart, dass die Agenten im Fahrzeug die so bestimmten Kommunikationsaktionen jeweils ausführen.
  • Vorstehend ist das bevorzugte Ausführungsbeispiel der Erfindung beschrieben. Ausführungsbeispiele der Erfindung sind aber nicht darauf beschränkt. Verschiedene Abwandlungen können ausgeführt werden, ohne vom grundlegenden Konzept der Erfindung wie nachstehend beansprucht abzuweichen.
  • Bei dem vorstehend beschriebenen Ausführungsbeispiel werden aus einer Kommunikation zwischen dem Agenten in der tragbaren Endgerätvorrichtung und dem Benutzer erfasste Informationen gespeichert. Statt der Anwendung eines derartigen Agentsystems kann ein Benutzer Informationen selbst eingeben, die er in dem Speicherabschnitt 20 gespeichert haben möchte. Des weiteren können Protokollinformationen, wie solche, die automatisch gespeichert werden, wenn das Internet verbunden wird, als die erfassten Informationen im Speicherabschnitt 20 gespeichert werden.
  • Die vorliegende Anmeldung beruht auf einer Japanischen Prioritätsanmeldung Nr. 2005-004363, eingereicht am 11. Januar 2005, deren gesamter Inhalt durch Bezugnahme hier aufgenommen ist.
  • Ein Beobachtungsabschnitt beobachtet eine Fahrsituation beruhend auf Sensorinformationen, ein Lernabschnitt lernt durch Speicherung eines vom Beobachtungsabschnitt erhalte nen Beobachtungsergebnisses zusammen mit den Sensorinformationen, ein Bestimmungsabschnitt bestimmt eine Kommunikationsaktion mit einem Benutzer beruhend auf einem vom Lernabschnitt erhaltenen Lernergebnis, ein Anzeigesteuerabschnitt zeigt ein erstes Bild im Fahrzeug an, das die durch den Bestimmungsabschnitt bestimmte Kommunikationsaktion ausdrückt, und ein Erhalteabschnitt erhält von außerhalb des Fahrzeugs erfasste und in einer tragbaren Endgerätvorrichtung gespeicherte erfasste Informationen. Der Bestimmungsabschnitt bestimmt die Kommunikationsaktion durch Reflektieren der erfassten Informationen auf das Lernergebnis.

Claims (40)

  1. Agentvorrichtung für ein Fahrzeug, mit einem Beobachtungsabschnitt zum Beobachten einer Fahrsituation beruhend auf Sensorinformationen, einem Lernabschnitt zum Lernen durch Speichern eines von dem Beobachtungsabschnitt erhaltenen Beobachtungsergebnisses zusammen mit den Sensorinformationen, einem Bestimmungsabschnitt zum Bestimmen einer Kommunikationsaktion für einen Benutzer beruhend auf einem von dem Lernabschnitt erhaltenen Lernergebnis, einem Anzeigesteuerabschnitt zum Anzeigen eines ersten Bildes im Fahrzeug, das die durch den Bestimmungsabschnitt bestimmte Kommunikationsaktion ausführt, und einem Erhalteabschnitt zum Erhalten von außerhalb des Fahrzeugs erfasster und in einer tragbaren Endgerätvorrichtung gespeicherter erfasster Informationen, wobei der Bestimmungsabschnitt zum Bestimmen der Kommunikationsaktion durch Reflektieren der erfassten Informationen auf das Lernergebnis eingerichtet ist.
  2. Agentvorrichtung nach Anspruch 1, wobei die tragbare Endgerätvorrichtung eine Kommunikationsfunktion mit einem personifizierten zweiten Bild in der tragbaren Endgerätvorrichtung aufweist, und die erfassten Informationen aus einer Kommunikation mit dem zweiten Bild erfasst werden.
  3. Agentvorrichtung nach Anspruch 1, wobei die erfassten Informationen Informationen hinsichtlich eines Orts umfassen, an dem sich der Benutzer bewegt, der die tragbare Endgerätvorrichtung mitführt.
  4. Agentvorrichtung nach Anspruch 1, wobei die Fahrsituation eine Fahrzeugsituation und/oder biologische Informationen des Benutzers umfasst.
  5. Agentvorrichtung nach Anspruch 1, wobei die erfassten Informationen auf das Lernergebnis im Ansprechen auf Anweisungsinformationen des Benutzers reflektiert werden.
  6. Agentvorrichtung nach Anspruch 5, wobei die Anweisungsinformationen eine vorbestimmte Eingabeoperation bei der tragbaren Endgerätvorrichtung umfassen.
  7. Agentvorrichtung nach Anspruch 1, wobei die erfassten Informationen auf das Lernergebnis reflektiert werden, wenn die tragbare Endgerätvorrichtung in einen vorbestimmten Bereich des Fahrzeugs des Benutzers eintritt.
  8. Agentvorrichtung nach Anspruch 7, wobei der vorbestimmte Bereich einen Bereich umfasst, in dem eine Kommunikation zwischen der tragbaren Endgerätvorrichtung und dem Fahrzeug des Benutzers verfügbar ist.
  9. Agentvorrichtung nach Anspruch 1, wobei in einem Fall, dass eine Vielzahl erster Bilder im Fahrzeug für jeweilige Benutzer vorgesehen ist, der Bestimmungsabschnitt zum Bestimmen der jeweiligen Kommunikationsaktionen jeweiliger erster Bilder der Vielzahl der ersten Bilder eingerichtet ist.
  10. Agentvorrichtung nach Anspruch 9, wobei der Bestimmungsabschnitt zum Bestimmen der jeweiligen Kommunikationsaktionen entsprechend einer Prioritätsreihenfolge unter den jeweiligen Benutzern eingerichtet ist.
  11. Agentvorrichtung nach Anspruch 2, wobei dann, wenn das erste Bild im Fahrzeug oder das zweite Bild in der tragbaren Endgerätvorrichtung angezeigt wird, das andere nicht angezeigt wird.
  12. Agentvorrichtung nach Anspruch 1, wobei das erste Bild im Fahrzeug angezeigt wird, wenn eine Zündung eingeschaltet ist, und nicht angezeigt wird, wenn die Zündung ausgeschaltet ist.
  13. Agentvorrichtung nach Anspruch 1, wobei der Anzeigesteuerabschnitt zum Anzeigen des ersten Bildes entsprechend Identifizierungsinformationen der tragbaren Endgerätvorrichtung eingerichtet ist.
  14. Agentvorrichtung nach Anspruch 1, wobei dann, wenn das erste Bild im Fahrzeug entsprechend jedem Benutzer vorgesehen ist, der Anzeigesteuerabschnitt zum Anzeigen des dem Benutzer entsprechenden ersten Bildes eingerichtet ist.
  15. Agentvorrichtung nach Anspruch 14, wobei der Beobachtungsabschnitt zum Beobachten einer Positionsbeziehung zwischen den jeweiligen Benutzern eingerichtet ist, und die den jeweiligen Benutzern entsprechenden ersten Bilder entsprechend der beobachteten Positionsbeziehung angezeigt werden.
  16. Agentvorrichtung nach Anspruch 2, wobei das erste Bild im Fahrzeug und das zweite Bild in der tragbaren Endgerätvorrichtung ein gemeinsames Erscheinungsbild haben.
  17. Agentvorrichtung nach Anspruch 1, wobei das erste Bild im Fahrzeug sich selbst in ein anderes Bild entsprechend dem Lernergebnis umwandelt.
  18. Agentvorrichtung nach Anspruch 1, wobei eine Größe des ersten Bildes im Fahrzeug sich entsprechend einer Entfernung von der tragbaren Endgerätvorrichtung ändert.
  19. Agentsystem mit einer Vorrichtung im Fahrzeug und einer tragbaren Endgerätvorrichtung, wobei beide Vorrichtungen jeweilige Kommunikationsfunktionen mit personifizierten Agenten aufweisen, und von außerhalb des Fahrzeugs durch die tragbare Endgerätvorrichtung erfasste Informationen auf die Kommunikationsfunktion der Vorrichtung im Fahrzeug reflektiert werden.
  20. Agentsteuerverfahren mit einem Beobachtungsschritt des Beobachtens einer Fahrsituation beruhend auf Sensorinformationen, einem Lernschritt des Lernens durch Speichern eines vom Beobachtungsschritt erhaltenen Beobachtungsergebnisses zusammen mit den Sensorinformationen, einem Bestimmungsschritt des Bestimmens einer Kommunikationsaktion für einen Benutzer beruhend auf einem vom Lernschritt erhaltenen Lernergebnis, einem Anzeigesteuerschritt des Anzeigens eines ersten Bildes im Fahrzeug, das die durch den Bestimmungsschritt bestimmte Kommunikationsaktion ausführt, und einem Erhalteschritt des Erhaltens von außerhalb des Fahrzeugs erfassten und in einer tragbaren Endgerätvorrichtung gespeicherten erfassten Informationen, wobei in dem Bestimmungsschritt die Kommunikationsaktion unter Reflektieren der erfassten Informationen auf das Lernergebnis bestimmt wird.
  21. Agentsteuerverfahren nach Anspruch 20, wobei die tragbare Endgerätvorrichtung eine Kommunikationsfunktion mit einem personifizierten zweiten Bild in der tragbaren Endgerätvorrichtung aufweist, und die erfassten Informationen aus einer Kommunikation mit dem zweiten Bild erfasst werden.
  22. Agentsteuerverfahren nach Anspruch 20, wobei die erfassten Informationen Informationen hinsichtlich eines Orts umfassen, an dem sich der Benutzer bewegt, der die tragbare Endgerätvorrichtung mit sich führt.
  23. Agentsteuerverfahren nach Anspruch 20, wobei die Fahrsituation eine Fahrzeugsituation und/oder biologische Informationen des Benutzers umfasst.
  24. Agentsteuerverfahren nach Anspruch 20, wobei die erfassten Informationen auf das Lernergebnis im Ansprechen auf Anweisungsinformationen des Benutzers reflektiert werden.
  25. Agentsteuerverfahren nach Anspruch 24, wobei die Anweisungsinformationen eine vorbestimmte Eingabeoperation bei der tragbaren Endgerätvorrichtung umfassen.
  26. Agentsteuerverfahren nach Anspruch 20, wobei die erfassten Informationen auf das Lernergebnis reflektiert werden, wenn die tragbare Endgerätvorrichtung in einen vorbestimmten Bereich des Fahrzeugs des Benutzers eintritt.
  27. Agentsteuerverfahren nach Anspruch 26, wobei der vorbestimmte Bereich einen Bereich umfasst, in dem eine Kommunikation zwischen der tragbaren Endgerätvorrichtung und dem Fahrzeug des Benutzers verfügbar ist.
  28. Agentsteuerverfahren nach Anspruch 20, wobei in einem Fall, dass die Vielzahl erster Bilder im Fahrzeug für jeweilige Benutzer vorgesehen ist, die jeweiligen Kommunikationsaktionen der Vielzahl der ersten Bilder in dem Bestimmungsschritt bestimmt werden.
  29. Agentsteuerverfahren nach Anspruch 28, wobei im Bestimmungsschritt die jeweiligen Kommunikationsaktionen entsprechend einer Prioritätsreihenfolge unter dem jeweiligen Benutzer bestimmt werden.
  30. Agentsteuerverfahren nach Anspruch 21, wobei dann, wenn das erste Bild im Fahrzeug oder das zweite Bild in der tragbaren Endgerätvorrichtung angezeigt wird, das andere nicht angezeigt wird.
  31. Agentsteuerverfahren nach Anspruch 20, wobei das erste Bild im Fahrzeug angezeigt wird, wenn eine Zündung eingeschaltet ist, und nicht angezeigt wird, wenn die Zündung ausgeschaltet ist.
  32. Agentsteuerverfahren nach Anspruch 20, wobei im Anzeigesteuerschritt das erste Bild entsprechend Identifizierungsinformationen der tragbaren Endgerätvorrichtung angezeigt wird.
  33. Agentsteuerverfahren nach Anspruch 20, wobei dann, wenn das erste Bild im Fahrzeug entsprechend jedem Benutzer vorgesehen ist, das dem Benutzer entsprechende erste Bild in dem Anzeigesteuerschritt angezeigt wird.
  34. Agentsteuerverfahren nach Anspruch 33, wobei in dem Beobachtungsschritt eine Positionsbeziehung zwischen den jeweiligen Benutzern beobachtet wird, und die den jeweiligen Benutzern entsprechenden ersten Bilder entsprechend der beobachteten Positionsbeziehung angezeigt werden.
  35. Agentsteuerverfahren nach Anspruch 21, wobei das erste Bild im Fahrzeug und das zweite Bild in der tragbaren Endgerätvorrichtung ein gemeinsames Erscheinungsbild haben.
  36. Agentsteuerverfahren nach Anspruch 20, wobei das erste Bild im Fahrzeug sich selbst in ein anderes Bild entsprechend dem Lernergebnis umwandelt.
  37. Agentsteuerverfahren nach Anspruch 20, wobei eine Größe des ersten Bildes im Fahrzeug sich entsprechend einer Entfernung von der tragbaren Endgerätvorrichtung ändert.
  38. Agentsteuerverfahren für eine Vorrichtung im Fahrzeug und eine tragbare Endgerätvorrichtung, wobei beide Vorrichtungen jeweilige Kommunikationsfunktionen mit personifizierten Agenten aufweisen, und von außerhalb des Fahrzeugs durch die tragbare Endgerätvorrichtung erfasste Informationen auf die Kommunikationsfunktion der Vorrichtung im Fahrzeug reflektiert werden.
  39. Endgerätvorrichtung, die vorbestimmte Informationen für eine Agentvorrichtung für ein Fahrzeug bereitstellt, wobei die Agentvorrichtung einen Beobachtungsabschnitt zum Beobachten einer Fahrsituation beruhend auf Sensorinformationen, einen Lernabschnitt zum Lernen durch Speichern eines von dem Beobachtungsabschnitt erhaltenen Beobachtungsergebnisses zusammen mit den Sensorinformationen, einen Bestimmungsabschnitt zum Bestimmen einer Kommunikationsaktion für einen Benutzer beruhend auf einem vom Lernabschnitt erhaltenen Lernergebnis und einen Anzeigesteuerabschnitt zum Anzeigen eines Bildes im Fahrzeug zum Ausführen der durch den Bestimmungsabschnitt bestimmten Kommunikationsaktion umfasst, mit einem Erfassungsabschnitt zum Erfassen vorbestimmter Informationen außerhalb des Fahrzeugs, und einem Bereitstellungsabschnitt zum Bereitstellen der durch den Erfassungsabschnitt erfassten vorbestimmten Informationen für die Agentvorrichtung für das Fahrzeug, wobei die vorbestimmten Informationen derartige Informationen umfassen, dass der Bestimmungsabschnitt der Agentvorrichtung für das Fahrzeug zum Bestimmen der Kommunikationsaktion durch Reflektieren der Informationen auf das Lernergebnis eingerichtet ist.
  40. Informationsbereitstellungsverfahren mit einem Erfassungsabschnitt des Erfassens vorbestimmter Informationen außerhalb eines Fahrzeugs, und einem Schritt des Bereitstellens der vorbestimmten Informationen für ein Agentsteuerverfahren, wobei das Agentsteuerverfahren einen Beobachtungsschritt des Beobachtens einer Fahrsituation beruhend auf Sensorinformationen, einen Lernschritt des Lernens durch Speichern eines aus dem Beobachtungsschritt erhaltenen Beobachtungsergebnisses zusammen mit den Sensorinformationen, einen Bestimmungsschritt des Bestimmens einer Kommunikationsaktion für einen Benutzer beruhend auf einem aus dem Lernschritt erhaltenen Lernergebnis, und einen Anzeigesteuerschritt der Anzeige eines Bildes im Fahrzeug umfasst, das die durch den Bestimmungsschritt bestimmte Kommunikationsaktion ausdrückt, wobei die vorbestimmten Informationen derartige Informationen umfassen, dass im Bestimmungsschritt des Agentsteuerverfahrens die Kommunikationsaktion unter Reflexion der Informationen auf das Lernergebnis bestimmt wird.
DE102006000001A 2005-01-11 2006-01-05 Agentvorrichtung für ein Fahrzeug, Agentsystem, Agentsteuerverfahren, Endgerätvorrichtung und Informationsbereitstellungsverfahren Ceased DE102006000001A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005004363A JP4371057B2 (ja) 2005-01-11 2005-01-11 車両用エージェント装置、エージェントシステム及びエージェント制御方法
JP2005-004363 2005-01-11

Publications (1)

Publication Number Publication Date
DE102006000001A1 true DE102006000001A1 (de) 2006-08-24

Family

ID=36654438

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006000001A Ceased DE102006000001A1 (de) 2005-01-11 2006-01-05 Agentvorrichtung für ein Fahrzeug, Agentsystem, Agentsteuerverfahren, Endgerätvorrichtung und Informationsbereitstellungsverfahren

Country Status (3)

Country Link
US (2) US20060155665A1 (de)
JP (1) JP4371057B2 (de)
DE (1) DE102006000001A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2363282A2 (de) 2010-03-01 2011-09-07 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verbundwerkstoff aus mehreren Faserverbundschichten und einem Verstärkungsbereich

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2140341B1 (de) * 2007-04-26 2012-04-25 Ford Global Technologies, LLC Emotives beratungssystem und verfahren
JP4524763B2 (ja) * 2008-03-25 2010-08-18 株式会社デンソー 自動車用情報提供システム
US8073590B1 (en) * 2008-08-22 2011-12-06 Boadin Technology, LLC System, method, and computer program product for utilizing a communication channel of a mobile device by a vehicular assembly
US8078397B1 (en) * 2008-08-22 2011-12-13 Boadin Technology, LLC System, method, and computer program product for social networking utilizing a vehicular assembly
US8265862B1 (en) * 2008-08-22 2012-09-11 Boadin Technology, LLC System, method, and computer program product for communicating location-related information
US8903708B2 (en) * 2012-02-10 2014-12-02 Microsoft Corporation Analyzing restaurant menus in view of consumer preferences
JP6227459B2 (ja) * 2014-03-31 2017-11-08 Kddi株式会社 遠隔操作方法ならびにシステムならびにそのユーザ端末および視聴端末
WO2016092920A1 (ja) * 2014-12-09 2016-06-16 ソニー株式会社 情報処理装置、制御方法、およびプログラム
JP7010646B2 (ja) 2017-10-04 2022-01-26 トヨタ自動車株式会社 プログラム、情報処理装置及び画面表示方法
JP7043853B2 (ja) * 2018-01-29 2022-03-30 トヨタ自動車株式会社 表示制御システムおよび表示制御方法
JP2020077135A (ja) * 2018-11-06 2020-05-21 本田技研工業株式会社 制御装置、エージェント装置及びプログラム
JP7288781B2 (ja) * 2019-03-27 2023-06-08 本田技研工業株式会社 情報提供装置、情報提供方法、およびプログラム
JP7169921B2 (ja) * 2019-03-27 2022-11-11 本田技研工業株式会社 エージェント装置、エージェントシステム、エージェント装置の制御方法、およびプログラム
JP2021018480A (ja) * 2019-07-17 2021-02-15 本田技研工業株式会社 画像表示装置、画像表示システムおよび画像表示方法
JP6778964B2 (ja) * 2019-10-15 2020-11-04 株式会社ユピテル 装置及びプログラム
JP7287258B2 (ja) 2019-12-10 2023-06-06 トヨタ自動車株式会社 エージェント管理装置、プログラムおよびエージェント管理方法
JP7386739B2 (ja) * 2020-03-19 2023-11-27 本田技研工業株式会社 表示制御装置、表示制御方法、およびプログラム
JP7310705B2 (ja) * 2020-05-18 2023-07-19 トヨタ自動車株式会社 エージェント制御装置、エージェント制御方法、及びエージェント制御プログラム
CN112153224B (zh) * 2020-09-22 2021-11-26 上海博泰悦臻电子设备制造有限公司 车辆数据发送、获取方法及相关设备
US11218596B1 (en) 2021-03-10 2022-01-04 Capital One Services, Llc Contact callback system
JP2024048302A (ja) 2022-09-27 2024-04-08 株式会社Subaru 車両

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259446A (ja) * 1998-03-12 1999-09-24 Aqueous Reserch:Kk エージェント装置
US6249720B1 (en) * 1997-07-22 2001-06-19 Kabushikikaisha Equos Research Device mounted in vehicle
JP2000338859A (ja) * 1999-05-28 2000-12-08 Sony Corp 電子機器の情報管理方法及び電子機器システム
US6405034B1 (en) * 2000-01-28 2002-06-11 Leap Wireless International, Inc. Adaptive communication data retrieval system
US6381537B1 (en) * 2000-06-02 2002-04-30 Navigation Technologies Corp. Method and system for obtaining geographic data using navigation systems
JP2002267467A (ja) * 2001-03-09 2002-09-18 Mitsubishi Electric Corp ナビゲーションシステム
JP4622126B2 (ja) * 2001-03-16 2011-02-02 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置、ナビゲーション方法及びナビゲーションプログラム
US7493369B2 (en) * 2001-06-28 2009-02-17 Microsoft Corporation Composable presence and availability services
JP4202621B2 (ja) * 2001-07-06 2008-12-24 アルパイン株式会社 情報交換システム
JP4301537B2 (ja) * 2001-08-13 2009-07-22 パイオニア株式会社 移動体用ナビゲーションシステム及び方法並びにコンピュータプログラム
US20030167167A1 (en) * 2002-02-26 2003-09-04 Li Gong Intelligent personal assistants
JP2006154926A (ja) * 2004-11-25 2006-06-15 Denso Corp キャラクタ表示を利用した電子機器操作システム及び電子機器

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2363282A2 (de) 2010-03-01 2011-09-07 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verbundwerkstoff aus mehreren Faserverbundschichten und einem Verstärkungsbereich

Also Published As

Publication number Publication date
JP4371057B2 (ja) 2009-11-25
US20060155665A1 (en) 2006-07-13
US20130212050A1 (en) 2013-08-15
JP2006195578A (ja) 2006-07-27

Similar Documents

Publication Publication Date Title
DE102006000001A1 (de) Agentvorrichtung für ein Fahrzeug, Agentsystem, Agentsteuerverfahren, Endgerätvorrichtung und Informationsbereitstellungsverfahren
DE112016004391B4 (de) Dialogvorrichtung und Dialogverfahren
DE60219649T2 (de) Vorrichtung zum sammeln von funktionen mit einem agenten
DE10146897B4 (de) System und Verfahren zum Speichern und Verwenden von Informationen, die geografische Bereiche betreffen, die für einen mobilen Benutzer von Interesse sind
DE102017110283A1 (de) Steuern von funktionen und ausgaben von autonomen fahrzeugen auf der grundlage einer position und aufmerksamkeit von insassen
DE112012006997B4 (de) Navigationsvorrichtung
DE69413322T2 (de) Navigationssystem
DE102017112000A1 (de) Systeme und Verfahren zum Implementieren relativer Tags in Verbindung mit einer Nutzung autonomer Fahrzeuge
DE602004010025T2 (de) Fahrzeuginformationsbereitstellungsgerät
DE102017120978A1 (de) Fahrgastüberwachungssysteme und -verfahren
DE102007044578A1 (de) Vorrichtung zur Erkennung eines beobachteten Objekts und Verfahren zur Erkennung eines beobachteten Objekts
DE102008026388B4 (de) System, das eine fernzugängliche Seite wartet, und Verfahren zum Anfordern navigationsbezogener Informationen
DE10253502A1 (de) Vorrichtung zur Projektion eines Objekts in einem Raum eines Fahrzeugs
DE112018006464T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm, anzeigesystem und mobiles objekt
DE102008036023A1 (de) Fahrzeuginformationsmeldevorrichtung
WO2020074565A1 (de) Fahrerassistenzsystem für ein fahrzeug
DE102017215161A1 (de) Verfahren und Vorrichtung zur Anwahl von einem Umgebungsobjekt im Umfeld eines Fahrzeugs
DE112018003025T5 (de) Bildgebungssystem für ein fahrzeug, serversystem und bildgebungsverfahren für ein fahrzeug
DE102017215956A1 (de) Verfahren zur Ausgabe von Informationen zu einem Objekt in einer Umgebung eines Fortbewegungsmittels, System und Automobil
DE112022000602T5 (de) Leitsystem
EP3729423A1 (de) Verfahren zum betreiben einer schallausgabeeinrichtung eines kraftfahrzeugs, sprachanalyse- und steuereinrichtung, kraftfahrzeug, und kraftfahrzeugexterne servereinrichtung
DE102019112412A1 (de) System und verfahren zur unterstützung des fahrers eines fahrzeugs sowie fahrzeug, insbesondere kraftfahrzeug
DE112021003214T5 (de) Verfahren und Systeme zur Darstellung von visuellem Inhalt an einem Kraftfahrzeug und Verfahren zur Bereitstellung eines Kraftfahrzeugs
DE102017200970B3 (de) Verfahren zum Dokumentieren einer Fahrt eines Kraftfahrzeugs
WO2020200557A1 (de) Verfahren und vorrichtung zur interaktion mit einem umgebungsobjekt im umfeld eines fahrzeugs

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R006 Appeal filed
R008 Case pending at federal patent court
R003 Refusal decision now final
R011 All appeals rejected, refused or otherwise settled