DE112012006617T5 - Bord-Informationsvorrichtung - Google Patents

Bord-Informationsvorrichtung Download PDF

Info

Publication number
DE112012006617T5
DE112012006617T5 DE112012006617.0T DE112012006617T DE112012006617T5 DE 112012006617 T5 DE112012006617 T5 DE 112012006617T5 DE 112012006617 T DE112012006617 T DE 112012006617T DE 112012006617 T5 DE112012006617 T5 DE 112012006617T5
Authority
DE
Germany
Prior art keywords
voice
vehicle
display
information device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112012006617.0T
Other languages
English (en)
Other versions
DE112012006617B4 (de
Inventor
c/o Mitsubishi Electric Corp. Kato Shin
c/o Mitsubishi Electric Corp. Chikuri Takayoshi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Motor Co
Kia Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112012006617T5 publication Critical patent/DE112012006617T5/de
Application granted granted Critical
Publication of DE112012006617B4 publication Critical patent/DE112012006617B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Abstract

Im Fahrzeug montierte Bord-Informationsvorrichtung, um Information zum Unterstützen eines Passagiers bereitzustellen, beinhaltet eine Stimmerfassungseinheit, welche kontinuierlich eine Stimme, die der Passagier äußert, detektiert und erfasst, während die Bord-Informationsvorrichtung arbeitet; eine Spracherkennungseinheit, die Sprechinhalte der Stimme, welche die Stimmerfassungseinheit erfasst, erkennt; einen Fahrzeugzustands-Detektor, der den Fahrzeugzustand detektiert, einschließlich eines Umgebungszustands im Fahrzeug, Umfeld-Zustands des Fahrzeugs oder Betriebszustands des Fahrzeugs; eine Ausgangssteuerung, die Anzeigedaten oder Stimmdaten aus den durch die Spracherkennungseinheit erkannten Sprachinhalten gemäß dem Fahrzeugzustand, den der Fahrzeugzustands-Detektor detektiert, erzeugt und die Ausgabe der Anzeigedaten oder Stimmdaten steuert; und eine Ausgangseinheit, welche die Anzeigedaten oder Stimmdaten, welche die Ausgangssteuerung erzeugt, ausgibt. Sie kann eine effektive Unterhaltungsunterstützung in Echtzeit anhand des Erkennungsergebnisses durchführen, welches durch kontinuierliches Erkennen von Sprachinhalten des Passagiers ermittelt wird.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung bezieht sich auf eine Bord-Informationsvorrichtung, welche kontinuierlich Sprachinhalte eines Passagiers erkennt, um die Unterhaltung in einem Fahrzeug zu unterstützen.
  • HINTERGRUND
  • Bezüglich der Konversation in einem Fahrzeug gibt es im Allgemeinen ein Problem damit, dass Motorgeräusch bzw. -lärm, Reifengeräusch oder Geräusch von außerhalb des Fahrzeugs dazu führen können, dass Unterhaltungsinhalte verloren gehen. Entsprechend sind konventioneller Weise Techniken zur Verbesserung des Problems vorgeschlagen worden. Beispielsweise offenbart Patentdokument 1 ein Fahrzeug-Unterhaltungs-Unterstützungssystem, das die Unterhaltung in einem Fahrzeug mit einem Mikrofon aufnimmt und sein Anhören über einen Lautsprecher ermöglicht.
  • Jedoch ist das im Patentdokument 1 als Beispiel offenbarte konventionelle Fahrzeug-Unterhaltungs-Unterstützungssystem eine Unterhaltungsunterstützung per Stimme. Entsprechend gibt es das Problem, dass, wenn die aus dem Lautsprecher ausgegebene Stimme verpasst wird, dies das Problem nicht löst. Zusätzlich, da sie Sprachdaten verwendet, können die Inhalte nicht bestätigt werden, bis sie danach wiedergegeben werden. Weiterhin ist es wahrscheinlich, dass aufgrund des Aufnehmens des Tons mit dem Mikrofon und Ausgeben aus dem Lautsprecher ein Pfeifen auftreten kann.
  • Entsprechend ist es vorstellbar, eine Unterhaltung im Fahrzeug mit einem Mikrofon aufzunehmen und die Unterhaltungsinhalte in Zeichenketten bereitzustellen.
  • Als für das Subjekt relevante Technik sind verschiedene Vorrichtungen vorgeschlagen worden, welche Sprachinhalte in der Unterhaltung mit einem Mikrofon aufnehmen und automatisch Notizen aufzeichnen. Beispielsweise offenbart das Patentdokument 2 eine Spracherkennungsvorrichtung und Konferenzsystem, das zum Aufnehmen kleinster Daten in der Lage ist, welche Sprachinhalte jedes der Redner wiedergeben.
  • STAND-DER-TECHNIK-DOKUMENT
  • PATENTDOKUMENT
    • Patentdokument 1: Japanische Patentoffenlegungsschrift Nr. 2008-42390
    • Patentdokument 2: Japanische Patentoffenlegungsschrift Nr. 2008-275987
  • OFFENBARUNG DER ERFINDUNG
  • DURCH DIE ERFINDUNG ZU LÖSENDE PROBLEME
  • Jedoch, obwohl die konventionelle Spracherkennungsvorrichtung und Konferenzsystem, die beispielsweise in Patentdokument 2 offenbart sind, die Sprache als Zeichenketten aufzeichnen können, da es sich um ein Konferenzsystem handelt, ist nicht davon auszugehen, dass es in einem Fahrzeug oder als Fahrzeug-Unterhaltungsunterstützung verwendet wird.
  • Entsprechend wird das konventionelle Problem während des Fahrens eines Fahrzeugs nicht berücksichtigt, dass Motorgeräusch, Reifengeräusch oder Lärm von außerhalb des Fahrzeugs mit den Unterhaltungsinhalten interferieren kann und dazu führen kann, dass ihre Erfassung scheitert. Zusätzlich wird nicht berücksichtigt, Echtzeit-Unterhaltungsunterstützung für Jene vorzubereiten, die scheitern, die Unterhaltungsinhalte zu erfassen. Folglich, selbst falls die Spracherkennungsvorrichtung und das Konferenzsystem, die hier in Patentdokument 2 offenbart sind, beispielsweise auf eine Bord-Informationsvorrichtung angewendet wird, kann sie nicht die einem Fahrzeug eigenen Probleme lösen.
  • Die vorliegende Erfindung ist implementiert worden, um die vorstehenden Probleme zu lösen. Daher ist es eine Aufgabe der vorliegenden Erfindung, eine Bord-Informationsvorrichtung bereitzustellen, welche in der Lage ist, effektive Unterhaltungsunterstützung in Echtzeit anhand eines Erkennungsergebnisses von kontinuierlicher Erkennung der Unterhaltungsinhalte in einem Fahrzeug auszuführen.
  • MITTEL ZUM LÖSEN DES PROBLEMS
  • Um die vorstehenden Probleme zu lösen, umfasst eine Bord-Informationsvorrichtung gemäß der vorliegenden Erfindung, die in einem Fahrzeug montiert ist, um Information zum Unterstützen eines Passagiers bereitzustellen: eine Spracherfassungseinheit, welche kontinuierlich Sprache, die der Passagier äußert, detektiert und erfasst, während die Bord-Informationsvorrichtung in Betrieb ist; eine Spracherkennungseinheit, welche Sprachinhalte der durch die Spracherfassungseinheit erfassten Stimme erkennt; einen Fahrzeugzustands-Detektor, der einen Fahrzeugzustand einschließlich eines Umgebungszustands im Fahrzeug, einen Umgebungszustand des Fahrzeugs oder einen Betriebszustand des Fahrzeugs detektiert; eine Ausgangssteuerung, welche Anzahl und Daten oder Stimmdaten aus den Sprachinhalten erzeugt, welche durch die Spracherkennungseinheit erkannt sind, gemäß dem durch den Fahrzeugzustands-Detektor detektierten Fahrzeugzustand, und die Ausgangssteuerung der Anzeigedaten oder Stimmdaten ausführt; und eine Ausgabeeinheit, welche die Anzeigedaten oder Stimmdaten ausgibt, welche durch die Ausgangssteuerung erzeugt werden.
  • VORTEILE DER ERFINDUNG
  • Gemäß der Bord-Informationsvorrichtung gemäß der vorliegenden Erfindung kann sie effektive Unterhaltungsunterstützung in Echtzeit auf Basis des Erkennungsergebnisses der kontinuierlichen Erkennung der Sprachinhalte eines Passagiers ausführen (einem Sprecher wie etwa einen Mitpassagier).
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Blockdiagramm, das eine Basis-Konfiguration einer Bord-Informationsvorrichtung einer Ausführungsform 1 zeigt;
  • 2 ist ein Flussdiagramm, das einen Basisbetrieb der Bord-Informationsvorrichtung von Ausführungsform 1 zeigt;
  • 3 ist ein Blockdiagramm, welches eine Konfiguration einer Bord-Informationsvorrichtung der Ausführungsform 1 zeigt;
  • 4 ist ein Flussdiagramm, welches den Betrieb der Bord-Informationsvorrichtung von Ausführungsform 1 zeigt;
  • 5 ist ein Diagramm, das ein Anzeigebeispiel der auf einer Anzeigeeinheit angezeigten Unterhaltungsinhalte zeigt;
  • 6 ist ein Blockdiagramm, das eine Konfiguration einer Bord-Informationsvorrichtung einer Ausführungsform 2 zeigt;
  • 7 ist ein Flussdiagramm, das den Betrieb der Bord-Informationsvorrichtung der Ausführungsform 2 zeigt;
  • 8 ist ein Blockdiagramm, das eine Konfiguration einer Bord-Informationsvorrichtung einer Ausführungsform 3 zeigt;
  • 9 ist ein Flussdiagramm, welches den Betrieb der Bord-Informationsvorrichtung der Ausführungsform 3 zeigt;
  • 10 ist ein Blockdiagramm, das eine Konfiguration einer Bord-Informationsvorrichtung einer Ausführungsform 4 zeigt;
  • 11 ist ein Flussdiagramm, das den Betrieb der Bord-Informationsvorrichtung der Ausführungsform 4 zeigt;
  • 12 ist ein Anzeigebeispiel, wenn eine Anzeigeeinheit am Passagier- bzw. Beifahrersitz installiert ist;
  • 13 ist ein Anzeigebeispiel, wenn die Anzeigeeinheit an Fahrersitz installiert ist;
  • 14 ist ein anderes Anzeigebeispiel, wenn die Anzeigeeinheit am Passagiersitz installiert ist;
  • 15 ist ein Blockdiagramm, das eine Konfiguration einer Bord-Informationsvorrichtung einer Ausführungsform 5 zeigt;
  • 16 ist ein Flussdiagramm, das den Betrieb der Bord-Informationsvorrichtung der Ausführungsform 5 zeigt;
  • 17 ist ein Blockdiagramm, das eine Konfiguration einer Bord-Informationsvorrichtung einer Ausführungsform 6 zeigt;
  • 18 ist ein Blockdiagramm, das eine Konfiguration einer Bord-Informationsvorrichtung einer Ausführungsform 7 zeigt;
  • 19 ist ein Flussdiagramm, das den Betrieb der Bord-Informationsvorrichtung der Ausführungsform 7 zeigt;
  • 20 ist ein Blockdiagramm, das eine Konfiguration einer Bord-Informationsvorrichtung einer Ausführungsform 8 zeigt;
  • 21 ist ein Blockdiagramm, das eine Konfiguration einer Bord-Informationsvorrichtung einer Ausführungsform 9 zeigt;
  • 22 ist ein Blockdiagramm, das eine Konfiguration einer Bord-Informationsvorrichtung einer Ausführungsform 10 zeigt;
  • 23 ist ein Flussdiagramm, das den Betrieb der Bord-Informationsvorrichtung der Ausführungsform 10 zeigt;
  • 24 ist ein Blockdiagramm, das eine Konfiguration einer Bord-Informationsvorrichtung einer Ausführungsform 11 zeigt;
  • 25 ist ein Flussdiagramm, das den Betrieb der Bord-Informationsvorrichtung der Ausführungsform 11 zeigt;
  • 26 ist ein Blockdiagramm, das eine Konfiguration einer Bord-Informationsvorrichtung einer Ausführungsform 12 zeigt; und
  • 27 ist ein Flussdiagramm, das den Betrieb der Bord-Informationsvorrichtung der Ausführungsform 12 zeigt.
  • BESTER MODUS ZUM AUSFÜHREN DER ERFINDUNG
  • Der beste Modus zum Ausführen der Erfindung wird nunmehr unter Bezugnahme auf die beigefügten Zeichnungen beschrieben.
  • AUSFÜHRUNGSFORM 1
  • Gemäß der vorliegenden Erfindung erkennt eine Bord-Informationsvorrichtung eines Bord-Navigationssystems, Bord-Audiosystems, Bord-Videosystems, oder dergleichen kontinuierlich die Sprechinhalte eines Beifahrers in einem Fahrzeug, während die Bord-Informationsvorrichtung aktiv ist, und führt Unterhaltungsunterstützung in Echtzeit auf Basis des Erkennungsergebnisses aus. Dies passt auch zu den nachfolgenden Ausführungsformen.
  • 1 ist ein Blockdiagramm, das eine Basiskonfiguration einer Bord-Informationsvorrichtung einer Ausführungsform 1 gemäß der vorliegenden Erfindung zeigt. Die Bord-Informationsvorrichtung umfasst eine Stimmerfassungseinheit 1, eine Spracherkennungseinheit 2, eine Anzeigesteuerung (Ausgabesteuerung) 3 und eine Anzeigeeinheit (Ausgabeeinheit) 4 umfasst. Zusätzlich, obwohl in der Zeichnung nicht gezeigt, umfasst die Bord-Informationsvorrichtung auch eine Tasteneingabeeinheit, die ein Eingangssignal unter Verwendung von Tasten, einem Berührungsbildschirm oder dergleichen erfasst.
  • Die Stimmerfassungseinheit 1 führt A/D-Wandlung von Sprache eines Passagiers, die mit einem Mikrofon in einem Fahrzeug aufgenommen wurde, aus, das heißt die durch das Sprechen eines Passagiers eingegebene Stimme im Fahrzeug und erfasst sie beispielsweise in einem PCM-(Puls-Code-Modulations-)Format. Zusätzlich wird in der Umgebung des Fahrzeugs, da Musik, Führungsstimme und dergleichen aus einem Bordaudio oder Autonavigation ausgegeben werden, hier angenommen, dass diese Geräusche einer solchen Verarbeitung unterzogen werden, welche die Stimmerfassungseinheit 1 hindert, sie zu erfassen, unter Verwendung üblicher Echokompensationstechniken unter Verwendung eines FIR-(Finite Impulse Response)Filters.
  • Die Spracherkennungseinheit 2 weist ein (nicht gezeigtes) Erkennungswörterbuch auf, detektiert einen sprachaktiven Abschnitt entsprechend Sprechinhalten, die ein Beifahrer äußert, aus dem durch die Stimmerfassungseinheit 1 erfassten Stimmdaten, extrahiert Merkmale der Stimmdaten im stimmaktiven Abschnitt, führt die Erkennungsverarbeitung unter Verwendung des Erkennungswörterbuchs auf Basis der Merkmale aus und gibt eine Zeichenkette des Spracherkennungsergebnisses aus. Übrigens ist es als Erkennungsverarbeitung möglich, beispielsweise ein übliches Verfahren wie etwa ein HMM (Hidden Markov Model) zu verwenden. Zusätzlich kann als Spracherkennungseinheit 2 ebenfalls ein Spracherkennungsserver in einem Netzwerk verwendet werden.
  • Übrigens ist es für eine Spracherkennungsfunktion, die in einem Autonavigationssystem oder dergleichen montiert ist, normal, einen Beifahrer zu veranlassen, einen Start der Sprache dem System zu spezifizieren (anzuweisen). Um dies zu erreichen, wird eine Taste oder dergleichen zum Anweisen des Spracherkennungsstarts (ab jetzt als „Spracherkennungsstart-Anweisungseinheit” bezeichnet) auf einem Berührungsbildschirm angezeigt oder am Lenkrad montiert. Dann, nachdem der Beifahrer die Spracherkennungsstart-Anweisungseinheit herunterdrückt, wird die Äußerung spracherkannt. Spezifischer, wenn die Spracherkennungsstart-Anweisungseinheit das Spracherkennungsstartsignal ausgibt, empfängt die Spracherkennungseinheit das Signal, detektiert sie einen stimmaktiven Abschnitt entsprechend den Inhalten des Redens des Beifahrers aus den durch die Stimmerfassungseinheit erfassten Stimmdaten und führt die oben beschriebene Erkennungsverarbeitung aus.
  • Die Spracherkennungseinheit 2 der vorliegenden Ausführungsform 1 erkennt jedoch kontinuierlich die Inhalte, die der Beifahrer äußert, selbst falls der Beifahrer keine Spracherkennungsstart-Anweisung erteilt. Spezifischer, selbst falls die Spracherkennungseinheit 2 das Spracherkennungsstartsignal nicht empfängt, führt sie wiederholt die Verarbeitung des Detektierens des stimmaktiven Abschnitts entsprechend den Inhalten, die der Beifahrer äußert, aus den durch die Stimmerfassungseinheit 1 erfassten Stimmdaten, Extrahieren der Merkmale der Stimmdaten im stimmaktiven Abschnitt, Ausführen der Erkennungsverarbeitung unter Verwendung des Erkennungswörterbuches, basierend auf den Merkmalen, und Ausgeben der Zeichenkette des Spracherkennungsergebnisses aus. Übrigens gilt dies auch für die unten beschriebenen Ausführungsformen.
  • Die Anzeigesteuerung 3 erzeugt die Anzeigedaten der Sprachinhalte des Beifahrers, welche das Spracherkennungsergebnis der Spracherkennungseinheit 2 sind und ordnet die Anzeigedaten beispielsweise in einer Zeitserien-Reihenfolge an.
  • Die Anzeigeeinheit 4 zeigt die durch die Anzeigesteuerung 3 erzeugten Anzeigedaten an und besteht beispielsweise aus einem Anzeigebildschirm eines Navigationssystems, einer Anzeigeeinheit auf dem Armaturenbrett, einer Windschutzscheibe und einem Rücksitz-Unterhaltungssystem (RSE) oder dergleichen.
  • Als Nächstes wird der Basisbetrieb der Bord-Informationsvorrichtung beschrieben. 2 ist ein Flussdiagramm, das den Basisbetrieb der Bord-Informationsvorrichtung der Ausführungsform 1 zeigt. Übrigens wird die nachfolgende Verarbeitung kontinuierlich während des Betriebs dieser Vorrichtung (Bord-Informationsvorrichtung) ausgeführt.
  • Zuerst, falls irgendeine Spracheingabe stattfindet, erfasst die Stimmerfassungseinheit 1 die eingegebene Stimme, führt eine A/D-Wandlung durch, beispielsweise um die Stimmdaten im PCM-Format zu erhalten (Schritt ST1). Als Nächstes erkennt die Spracherkennungseinheit 2 die durch die Stimmerfassungseinheit 1 erhaltenen Stimmdaten (Schritt ST2). Dann erzeugt die Anzeigesteuerung 3 die Anzeigedaten durch Anordnen der Zeichenketten des Spracherkennungsergebnisses durch die Spracherkennungseinheit 2 in einer Zeitserien-Reihenfolge und liefert die Anzeigedaten an die Anzeigeeinheit 4, wodurch sie in der Lage ist, die Unterhaltungsinhalte in den Zeichenkette auf der Anzeigeeinheit 4 anzuzeigen (Schritt ST3) (siehe 12 von Ausführungsform 4, die später beschrieben wird).
  • 3 ist ein Blockdiagramm, das eine Konfiguration einer Bord-Informationsvorrichtung der Ausführungsform 1 gemäß der vorliegenden Erfindung zeigt. Übrigens werden dieselben Komponenten wie jene in der in 1 gezeigten Basiskonfiguration durch dieselben Bezugszeichen gezeichnet und ihre wiederholte Beschreibung wird weggelassen. Im Vergleich zur in 1 gezeigten Basiskonfiguration ist die folgende Ausführungsform 1 mit einer Mehrzahl von (N) Mikrofonen für N Beifahrer vorgesehen, indem berücksichtigt wird, dass eine Mehrzahl von Beifahrern im Fahrzeug sind, und umfasst einen Fahrzeug-Umgebungszustands-Detektor (Fahrzeugzustands-Detektor) 30, der die Position der Sprache jedes Beifahrers detektiert.
  • Dann umfasst die Bord-Informationsvorrichtung der vorliegenden Ausführungsform 1 Stimmerfassungseinheiten 1 (1-1, 1-2, ..., 1-N) durch die Anzahl von Passagieren (Mikrofonen) N, ihnen entsprechende Spracherkennungseinheiten 2 (2-1, 2-2, ..., 2-N), den Fahrzeug-Umgebungszustands-Detektor (Fahrzeugzustands-Detektor) 30, die Anzeigesteuerung (Ausgangssteuerung) 3 und die Anzeigeeinheit (Ausgangseinheit) 4. Somit umfasst sie eine Mehrzahl von Paaren von Stimmerfassungseinheiten 1 und Spracherkennungseinheiten 2, die alle für jeden Beifahrer im Fahrzeug vorgesehen sind.
  • Der Fahrzeug-Umgebungszustands-Detektor (Fahrzeugzustands-Detektor) 30 in der Ausführungsform 1 gemäß der vorliegenden Erfindung detektiert den Umgebungszustand im Fahrzeug, den lokalisierten Zustand der Stimmerfassungseinheiten 1 (1-1, 1-2, ..., 1-N), vorgesehen für die individuellen Passagiere, wodurch er in der Lage ist, die Position der Sprache jedes Beifahrers zu detektieren.
  • Zusätzlich erzeugt die Anzeigesteuerung 3 (Ausgangssteuerung) aus dem Spracherkennungsergebnis durch die Spracherkennungseinheit 2 die Anzeigedaten und führt Ausgangssteuerung derselben als die Sprachinhalte entsprechend der Sprechposition jedes durch den Fahrzeug-Umgebungszustands-Detektor (Fahrzeugzustands-Detektor) 30 detektierten Passagiers aus. Beispielsweise erzeugt sie die Anzeigedaten in einem Modus, der Identifikation der Mehrzahl von Passagieren ermöglicht, indem die Anzeigedaten in einer Zeitserien-Reihenfolge für jeden Passagier angeordnet werden.
  • Als Nächstes wird der Betrieb der Bord-Informationsvorrichtung der vorliegenden Ausführungsform beschrieben. 4 ist ein Flussdiagramm, das den Betrieb der Bord-Informationsvorrichtung der Ausführungsform 1 zeigt.
  • Zuerst, falls irgendein Reden eingegeben wird, erfasst jede Stimmerfassungseinheit 1 (1-1, 1-2, ..., 1-N) die eingegebene Stimme und führt eine A/D-Wandlung durch, um die Stimmdaten beispielsweise im PCM-Format zu erhalten (Schritt ST11). Als Nächstes erkennt die Spracherkennungseinheit 2 (2-1, 2-2, ..., 2-N) die durch die entsprechende Stimmerfassungseinheit 1 ermittelten Stimmdaten (Schritt ST12). Dann detektiert der Fahrzeug-Umgebungszustands-Detektor 30 eine Zeichenkette, die aus der Spracherkennung durch jede Spracherkennungseinheit 2 herrührt, für jede Spracherkennungseinheit 2, das heißt für jede Position der Fahrgäste gemäß der Position jeder Stimmerfassungseinheit 1 entsprechend jeder Spracherkennungseinheit 2 (Schritt ST13) und ordnet die Anzeigesteuerung 3 sie entsprechend jeder Position der Passagiere und in einer Zeitserienreihenfolge an, um die Anzeigedaten zu erzeugen, und liefert die Anzeigedaten an die Anzeigeeinheit 4. Somit zeigt die Anzeigeeinheit 4 die Unterhaltungsinhalte in den Zeichenketten an (Schritt ST14).
  • 5 ist ein Diagramm, das ein Beispiel der auf der Anzeigeeinheit 4 angezeigten Unterhaltungsinhalte zeigt. In diesem Beispiel wird die Unterhaltung zwischen dem Fahrer A und dem Beifahrer B auf dem Passagiersitz in der Zeitserienreihenfolge angeordnet, wobei jedes Reden an den Positionen der Passagiere getrennt wird. Spezifischer werden sie in einem Layout angezeigt, welches eine Identifikation der Mehrzahl von Passagieren, die Äußerungen sprechen, ermöglicht.
  • Dies ermöglicht das Bestätigen der Unterhaltungsinhalte und macht es leichter, den Ablauf der Unterhaltung zu verstehen, selbst falls Motorgeräusch, Reifengeräusch oder Geräusche von außerhalb des Fahrzeugs dazu führen können, dass ein Wort der Unterhaltungsinhalte verloren geht oder selbst wenn der Fahrer ein Wort aufgrund des Konzentrierens auf das Fahren versehentlich nicht mitbekommt.
  • Übrigens, obwohl 5 ein Beispiel zeigt, in welchem die Anzeigesteuerung (Ausgangssteuerung) 3 die Anzeigedaten in verschiedenen Modi ausgibt, welche Identifikation der Mehrzahl von Passagieren ermöglicht, die Sprache liefern, durch Ändern eines Layouts der Anzeigenzeichen auf dem Bildschirm für die individuellen Passagiere, ist dies nicht essentiell. Beispielsweise ist es auch möglich, als die Anzeigedaten in verschiedenen Modi die Anzeigedaten zu erzeugen und anzuzeigen, die sich in Typ, Form, Größe, Farbe, Dichte, Helligkeit oder Layout auf dem Bildschirm der Anzeigezeichen oder der Anzeigebildes unterscheiden. Es wird angenommen, dass dies auch für die nachfolgenden Ausführungsformen gilt.
  • Wie oben beschrieben, führt gemäß der vorliegenden Erfindung die Bord-Informationsvorrichtung kontinuierlich Stimmerfassung und Spracherkennung während ihres Betriebs aus, selbst falls dies die Passagiere nicht bemerken, und führt, falls irgendeine Sprechen auftritt, die Stimmerfassung und Spracherkennung automatisch durch und ordnet das Spracherkennungsergebnis in den Zeichenketten in der Zeitserienreihenfolge an und gibt sie aus.
  • Entsprechend ist es nicht notwendig, dass die Passagiere irgendwelche manuelle Bedienung oder absichtliche Eingabe zum Start der Stimmerfassung und Spracherkennung vornehmen, und selbst falls sie die Unterhaltungsinhalte versehentlich nicht erfassen können, aufgrund von Lärm oder der Konzentration aufs Fahren, können sie die Unterhaltungsinhalte bestätigen.
  • Zusätzlich, da sie kontinuierlich die Fahrzeugunterhaltung für jeden Passagier einfängt, Spracherkennung ausführt, die Sprechpositionen jedes Passagiers getrennt detektiert und sie anordnet und präsentiert, kann sie den Fahrer und Passagiere in der Lage versetzen, die Unterhaltungsinhalte zu bestätigen und es für sie leichter machen, den Ablauf der Unterhaltung zu verstehen, selbst wenn sie die Unterhaltung nicht auffassen können, aufgrund von Lärm oder einer Konzentration auf das Fahren. Zusätzlich, da sie Spracherkennung für die individuellen Passagiere ausführen kann, kann sie die Spracherkennungsrate verbessern, wenn sie gleichzeitig reden.
  • AUSFÜHRUNGSFORM 2
  • 6 ist ein Blockdiagramm, das eine Konfiguration einer Bord-Informationsvorrichtung einer Ausführungsform 2 gemäß der vorliegenden Erfindung zeigt. Übrigens werden dieselben Komponenten wie jene, die in Ausführungsform 1 beschrieben sind, durch dieselben Bezugszeichen bezeichnet und ihre duplizierte Beschreibung wird weggelassen. Im Vergleich zur Konfiguration der in 3 gezeigten Ausführungsform 1 unterscheidet sich die Ausführungsform 2 dahingehend, dass die Stimmerfassungseinheit 1 aus einem Rastermikrofon besteht, in welchem M Mikrofone (1-1, 1-2, ..., 1-M) in einem Raster angeordnet sind, und dass eine Signalverarbeitungseinheit 5 hinzugefügt ist. Spezifischer erfassen in der Bord-Informationsvorrichtung der vorliegenden Ausführungsform 2 die Stimmerfassungseinheiten 1 (1-1, 1-2, ..., 1-M) in denen M Mikrofone in einem Raster angeordnet sind, Stimmen (Geräuschquellen), und trennt die Signalverarbeitungseinheit 5 die Geräuschquellen in N, und führt jede der N Spracherkennungseinheiten eine Spracherkennung der Sprachinhalte von einem der N Passagiere aus.
  • In der vorliegenden Ausführungsform 2 ist die Anzahl von Mikrofonen in dem Rastermikrofon M für die N Passagiere und werden die Mikrofone nicht für die einzelnen Passagiere, die sprechen, bereitgestellt. Jedoch trennt die Signalverarbeitungseinheit 5 die aus dem Rastermikrofon erfassten Stimmdaten mit M Mikrofonen, die in einem Raster angeordnet sind, in N (N ist die Anzahl von Passagieren) Geräuschquellen, unter Verwendung üblicher Geräuschquellentrennung, wie etwa Strahlformung. Bezüglich der Geräuschquelltrennung, obwohl sie hier nicht beschrieben wird, weil sie eine wohlbekannte Technik ist, wird in den nachfolgenden Ausführungsformen angenommen, dass die „Geräuschquelltrennung” unter Verwendung einer solchen üblichen Geräuschquelltrennung ausgeführt wird.
  • Dann ist der Fahrzeug-Umgebungszustands-Detektor (Fahrzeugzustands-Detektor) 30 in der Ausführungsform 2 gemäß der vorliegenden Erfindung ein Detektor, der als den Umgebungszustand im Fahrzeug die Position von Sprache jedes der N Passagiere detektiert, das heißt den lokalisierten Zustand der Passagiere, aus den durch die Signalverarbeitungseinheit 5 getrennten N Geräuschquellen.
  • Zusätzlich erzeugt die Anzeigesteuerung 3 (Ausgangssteuerung) die Anzeigedaten aus dem Spracherkennungsergebnis durch die Spracherkennungseinheit 2 und führt eine Ausgangssteuerung derselben als die Sprachinhalte entsprechend der Sprachposition jedes Passagiers durch, die durch den Fahrzeug-Umgebungszustands-Detektor (Fahrzeugzustands-Detektor) 30 detektiert sind. Beispielsweise erzeugt sie die Anzeigedaten in einem solchen Modus, der die Identifikation der Mehrzahl von Passagieren ermöglicht, durch Anordnen der Anzeigedaten in einer Zeitserienreihenfolge für jeden Passagier.
  • Als Nächstes wird der Betrieb der Bord-Informationsvorrichtung der vorliegenden Ausführungsform 2 beschrieben. 7 ist ein Flussdiagramm, das den Betrieb der Bord-Informationsvorrichtung der Ausführungsform 2 zeigt.
  • Zuerst, falls irgendeine Sprache eingegeben wird, ermittelt jede Stimmerfassungseinheit 1 (1-1, 1-2, ..., 1-M) die eingegebene Stimme und führt eine A/D-Wandlung durch, um die Stimmdaten beispielsweise eines PCM-Formats zu erhalten (Schritt ST21). Als Nächstes führt die Signalverarbeitungseinheit 5 eine Geräuschquelltrennung der durch die Stimmerfassungseinheit 1 ermittelten Stimmdaten in N Teile aus (entsprechend der Anzahl von Passagieren N) (Schritt ST22). Jede entsprechende Spracherkennungseinheit 2 (2-1, 2-2, ..., 2-N) erkennt die Stimmdaten der in N Geräuschquellen getrennten Unterhaltung (Schritt ST23). Dann detektiert der Fahrzeug-Umgebungszustands-Detektor 30 für jede Position der Passagiere jede Zeichenkette, die aus der Spracherkennung durch die Spracherkennungseinheit 2 herrührt (Schritt ST24), und ordnet die Anzeigesteuerung 3 sie anhand jeder Position der Passagiere und in einer Zeitserienreihenfolge an, um die Anzeigedaten zu erzeugen und liefert die Anzeigedaten an die Anzeigeeinheit 4. Somit zeigt die Anzeigeeinheit 4 die Unterhaltungsinhalte in den Zeichenketten an (Schritt ST25).
  • Ein so angezeigtes Anzeigebeispiel ist das gleiche wie dasjenige der in der in Ausführungsform 1 gezeigten Signalverarbeitungseinheit 5, in welchem eine Unterhaltung zwischen einem Fahrer A und dem Beifahrer B auf dem Beifahrersitz in der Zeitserienreihenfolge angeordnet wird, wobei die Sprache an jeder Position der Passagiere getrennt wird.
  • Dies ermöglicht das Bestätigen der Unterhaltungsinhalte und macht es leichter, den Ablauf der Unterhaltung zu verstehen, selbst falls Motorlärm, Reifenlärm oder Lärm von außerhalb des Fahrzeugs dazu führt, dass ein Wort der Unterhaltungsinhalte verpasst wird, oder selbst wenn der Fahrer ein Wort versehentlich nicht aufnehmen kann, aufgrund seiner Konzentration auf das Fahren.
  • Wie oben beschrieben, gemäß der vorliegenden Ausführungsform 2, umfasst sie das Rastermikrofon, das eine Mehrzahl von Mikrofonen, die in einem Raster angeordnet sind, im Fahrzeug umfasst, führt Spracherkennung durch kontinuierliches Aufnehmen der Unterhaltung im Fahrzeug aus, und präsentiert die Erkennungsergebnisse nach ihrer Anordnung für jeden Passagier. Entsprechend, wie in Ausführungsform 1, selbst falls sie die Unterhaltungsinhalte versehentlich nicht aufnehmen kann, aufgrund von Lärm oder einer Konzentration auf das Fahren, ermöglicht sie ihnen, die Unterhaltungsinhalte zu bestätigen, um es leichter für sie zu machen, den Ablauf der Unterhaltung zu verstehen. Zusätzlich, da sie Stimmen der individuellen Passagiere erkennen kann, kann sie die Spracherkennungsrate verbessern, wenn sie gleichzeitig reden.
  • AUSFÜHRUNGSFORM 3
  • 8 ist ein Blockdiagramm, welches eine Konfiguration einer Bord-Informationsvorrichtung einer Ausführungsform 3 gemäß der vorliegenden Erfindung zeigt. Übrigens werden dieselben Komponenten wie jene in den Ausführungsformen 1 und 2 beschriebenen durch dieselben Bezugszeichen bezeichnet und ihre wiederholte Beschreibung wird weggelassen. Im Vergleich zur Konfiguration der in 6 gezeigten Ausführungsform 2 unterscheidet sich die Ausführungsform 3 dahingehend, dass sie weiter N Sprachaktivabschnitt-Detektoren 6 und N Sprachdaten-Extraktionseinheiten 7 entsprechend den N Stimmdaten, welche die Trennung durch die Signalverarbeitungseinheit 5 durchlaufen, eine Sprachdatensequenz-Anordnungseinheit 8 und einen Erkennungswarte-Sprachdatenspeicher 9 umfasst, und dass die Spracherkennungseinheit 2 nur eine ist.
  • Übrigens, obwohl die vorliegende Ausführungsform 3 eine Konfiguration aufweist, welche das Rastermikrofon mit M in einem Raster angeordneten Mikrofonen enthält, wie die Ausführungsform 2, ist auch eine Konfiguration möglich, die N N Mikrofone umfasst, die alle für einen der Passagiere vorgesehen sind, wie die in 3 der Ausführungsform 1 gezeigte Konfiguration.
  • Der Sprachaktivabschnitt-Detektor 6 detektiert einen stimmaktiven Abschnitt der für jede Position der Passagiere getrennten Stimmdaten, die aus der Signalverarbeitungseinheit 5 ausgegeben werden, und wenn die Sprache detektiert wird, weist sie die Sprachdaten-Extraktionseinheit 7 an, die Sprachdaten des detektierten stimmaktiven Abschnitts zu extrahieren.
  • Die Sprachdaten-Extraktionseinheit 7 extrahiert den durch den Sprachaktivabschnitt-Detektor 6 angewiesenen stimmaktiven Abschnitt aus den für jede Position der Passagiere getrennten Stimmdaten, die aus der Signalverarbeitungseinheit 5 ausgegeben sind, und liefert die Sprachdaten (Stimmdaten), welche extrahiert sind, an die Sprachdatensequenz-Anordnungseinheit 8.
  • Die Sprachdatensequenz-Anordnungseinheit 8 empfängt die Sprachdaten aus der Sprachdaten-Extraktionseinheit 7 und entscheidet gleichzeitig über die Position des Passagiers, der spricht, anhand dem, aus welcher der N Sprachdaten-Extraktionseinheiten 7 sie die Sprachdaten empfängt, und liefert die Sprachdaten (Stimmdaten) an die Spracherkennungseinheit 2 und die Positionsinformation zum Passagier an den Fahrzeug-Umgebungszustands-Detektor (Fahrzeugzustands-Detektor) 30 an der Nach-Stufe. Falls jedoch die Spracherkennungseinheit 2 die Spracherkennungs-Verarbeitung der vorherigen Stimmdaten noch nicht abgeschlossen hat, liefert die Sprachdatensequenz-Anordnungseinheit 8 zeitweilig die Sprachdaten und die Positionsinformation zum Passagier, der spricht, an den Erkennungswarte-Sprachdatenspeicher 9, erfasst die Sprachdaten (Stimmdaten) und die Positionsinformation zum Passagier, der spricht, aus dem Erkennungswarte-Sprachdatenspeicher 9, nachdem die Spracherkennungseinheit 2 die vorherige Spracherkennungs-Verarbeitung abgeschlossen hat, und liefert sie an den Spracherkennungseinheit 2 und den Fahrzeug-Umgebungszustands-Detektor (Fahrzeugzustands-Detektor) 30.
  • Der Erkennungswarte-Sprachdatenspeicher 9 speichert in einer Warteschlange (FIFO (First In First Out)) die Sprachdaten und die Positionsinformation zum Passagier, der spricht, geliefert aus der Sprachdatensequenz-Anordnungseinheit 8 und sendet die Sprachdaten und die Positionsinformation zum redenden Passagier zurück an die Sprachdatensequenz-Anordnungseinheit 8, wenn eine Erfassungsanfrage daraus gesendet wird.
  • Dann ist der Fahrzeug-Umgebungszustands-Detektor (Fahrzeugzustands-Detektor) 30 in der Ausführungsform 3 gemäß der vorliegenden Erfindung ein Detektor, der als den Umgebungszustand im Fahrzeug die Position von Rede jeder der N Passagiere detektiert, das heißt den lokalisierten Zustand der Passagiere durch Suche nach Sprachdaten (Stimmdaten), welche durch die Sprachdatensequenz-Anordnungseinheit 8 erfasst und angeordnet sind.
  • Zusätzlich ordnet die Anzeigesteuerung 3 (Ausgangssteuerung) die Spracherkennungsergebnisse, welche die durch die Spracherkennungseinheit 2 erkannten Sprachinhalte sind, für jede Position der Passagiere gemäß dem lokalisierten Zustand (Sprachpositions-Information) der Passagiere, empfangen aus dem Fahrzeug-Umgebungszustands-Detektor (Fahrzeugzustands-Detektor) 30, an, erzeugt die Anzeigedaten im Muster, der Identifikation der Mehrzahl von Passagieren ermöglicht, die reden, beispielsweise durch Anordnen der Daten in einer Zeitserienreihenfolge für jeden Passagier, und führt Steuerung der Inhalte, die auf der Anzeigeeinheit 4 dargestellt werden, aus.
  • Als Nächstes wird der Betrieb der Bord-Informationsvorrichtung der Verarbeitungsvorrichtung 3 beschrieben. 9 ist ein Flussdiagramm, welches den Betrieb der Bord-Informationsvorrichtung der Ausführungsform 3 zeigt.
  • Zuerst, falls irgendeine Sprache eingegeben wird, erfasst jede Stimmerfassungseinheit 1 (1-1, 1-2, ..., 1-M) die eingegebene Stimme und führt eine A/D-Wandlung durch, um die Stimmdaten beispielsweise eines PCM-Formates zu erhalten (Schritt ST31). Als Nächstes führt die Signalverarbeitungseinheit 5 die Geräuschquelltrennung der durch die Stimmerfassungseinheit 1 ermittelten Stimmdaten in N Teile aus (entsprechend der Anzahl von Passagieren N) (Schritt ST32). Jeder Sprachaktivabschnitt-Detektor 6 (6-1, 6-2, ..., 6-N) detektiert, ob die in N Geräuschquellen getrennten Stimmdaten der Unterhaltung die Sprache enthalten oder nicht (Schritt ST33). Bezüglich der Detektion des sprachaktiven Abschnitts kann er unter Verwendung der stimmaktiven Abschnittsdetektion durchgeführt werden, die den Lautstärkepegel der Stimme aller Stimmdaten detektiert.
  • Wenn das Sprechen nicht detektiert wird (NEIN in Schritt ST33), kehrt die Verarbeitung zu Schritt ST31 zurück. Falls andererseits das Sprechen detektiert wird (Schritt ST33), weist der Sprachaktivabschnitt-Detektor 6 die Sprachdaten-Extraktionseinheit 7 (7-1, 7-2, ..., 7-N) an, den stimmaktiven Abschnitt aus allen Stimmdaten zu extrahieren, welche die N Trennung passieren, und aus der Signalverarbeitungseinheit 5 empfangen werden. Dann führt die Sprachdaten-Extraktionseinheit 7 die Extraktionsverarbeitung aus und liefert die extrahierten Sprachdaten an die Sprachdatensequenz-Anordnungseinheit 8 (Schritt ST34).
  • Dann, wenn nicht die Spracherkennungseinheit 2 die Spracherkennungs-Verarbeitung ausführt (NEIN in Schritt ST35), führt die Spracherkennungseinheit 2 die Spracherkennungs-Verarbeitung der Sprachdaten aus (Schritt ST38). Falls andererseits die Spracherkennungseinheit 2 die vorherige Spracherkennungs-Verarbeitung ausführt (JA in Schritt ST35), speichert die Sprachdatensequenz-Anordnungseinheit 8 zeitweilig in den Erkennungswarte-Sprachdatenspeicher 9 die Sprachdaten, von denen erwartet wird, dass sie aus der Sprachdatensequenz-Anordnungseinheit 8 an die Spracherkennungseinheit 2 gesendet werden, und die Positionsinformation zum Passagier, von der erwartet wird, dass sie an die Anzeigesteuerung 3 gesendet wird (Schritt ST36).
  • Danach, darauf wartend, dass die Spracherkennungseinheit 2 die Spracherkennungs-Verarbeitung abgeschlossen wird, und sobald sie die Spracherkennungs-Verarbeitung abgeschlossen hat, erfasst die Sprachdatensequenz-Anordnungseinheit 8 die Sprachdaten und die Positionsinformation zum Passagier, die in dem Erkennungswarte-Sprachdatenspeicher 9 gespeichert ist, und liefert sie an die Spracherkennungseinheit 2 und den Fahrzeug-Umgebungszustands-Detektor 30 (Schritt ST37). Dann führt die Spracherkennungseinheit 2 die Spracherkennungs-Verarbeitung der Sprachdaten aus (Schritt ST38).
  • Schließlicht detektiert der Fahrzeug-Umgebungszustands-Detektor 30 jede Zeichenkette des Spracherkennungsergebnisses durch die Spracherkennungseinheit 2 für jede Position der Passagiere anhand der Positionsinformation zu den Passagieren, die aus der Sprachdatensequenz-Anordnungseinheit 8 empfangen werden (Schritt ST39), und ordnet die Anzeigesteuerung 3 sie an, um die Anzeigedaten zu erzeugen, in welchen sie anhand jeder Position der Passagiere und in einer Zeitserienreihenfolge angeordnet sind, und liefert die Anzeigedaten an die Anzeigeeinheit 4, so dass die Anzeigeeinheit 4 die Unterhaltungsinhalte in den Zeichenketten anzeigt (Schritt ST40).
  • Ein derart angezeigtes Anzeigebeispiel ist das gleiche wie dasjenige der in Ausführungsform 1 gezeigten 5, in der die Unterhaltung zwischen einem Fahrer A und dem Beifahrer B auf dem Passagiersitz in der Zeitserienreihenfolge angeordnet ist, wobei jede Rede an den Positionen der Passagiere getrennt ist.
  • Dies ermöglicht es, die Unterhaltungsinhalte zu bestätigen und macht es einfacher, den Ablauf der Unterhaltung zu verstehen, selbst falls der Motorlärm, Reifenlärm oder Lärm von außerhalb des Fahrzeugs dazu führt, dass ein Wort der Unterhaltungsinhalte verloren geht, oder selbst wenn der Fahrer ein Wort versehentlich nicht aufnehmen kann, aufgrund der Konzentration auf das Fahren.
  • Wie oben beschrieben, gemäß der vorliegenden Ausführungsform 3, da sie die Anzahl von Spracherkennungseinheiten 2 reduzieren kann, bietet sie neben dem gleichen Vorteil der Ausführungsform 1 und 2 einen Vorteil, in der Lage zu sein, die Ressourcen, welche die Spracherkennungseinheit 2 erfordert, zu reduzieren und die Leistungsfähigkeit der Spracherkennungseinheit 2 durch Einsetzen eines Teils entsprechend der Reduktion der Ressourcen zu verbessern.
  • AUSFÜHRUNGSFORM 4
  • 10 ist ein Blockdiagramm, welches eine Konfiguration einer Bord-Informationsvorrichtung der Ausführungsform 4 gemäß der vorliegenden Erfindung zeigt. Übrigens werden dieselben Komponenten wie jene in den Ausführungsformen 1 bis 3 beschriebenen durch dieselben Bezugszeichen bezeichnet und ihre duplizierte Beschreibung wird weggelassen. Im Vergleich zur in 1, in der Ausführungsform 1 beschriebenen Basiskonfiguration unterscheidet sich die nachfolgende Ausführungsform 4 darin, dass sie eine Mehrzahl von (N) Anzeigeeinheiten 4 und einen Fahrzeug-Umgebungszustands-Detektor 30 umfasst, der die Position jeder Anzeigeeinheit 4 (4-1, 4-2, ..., 4-N) detektiert. Dann, wenn erkannte Stimmdaten in Zeichenkette angezeigt werden, zeigt sie durch Ändern des Anzeigeformats (Anzeigeninhalte) anhand der Position jeder Anzeigeeinheit 4 (4-1, 4-2, ..., 4-N), welche durch den Fahrzeug-Umgebungszustands-Detektor (Fahrzeugzustands-Detektor) 30 detektiert wird, an.
  • Somit wird der Fahrzeug-Umgebungszustands-Detektor 30 (Fahrzeugzustands-Detektor) in der Ausführungsform 4 gemäß der vorliegenden Erfindung zum Detektieren des lokalisierten Zustandes der Anzeigeeinheiten 4 (4-1, 4-2, ..., 4-N) als den Umgebungszustand im Fahrzeug bereitgestellt.
  • Zusätzlich erzeugt die Anzeigesteuerung 3 (Ausgangssteuerung) die Anzeigedaten in einem anderen Anzeigemodus anhand des lokalisierten Zustands der Anzeigeeinheiten 4 (4-1, 4-2, ..., 4-N), detektiert durch den Fahrzeug-Umgebungszustands-Detektor (Fahrzeugzustands-Detektor) 30, das heißt anhand dem, ob die Anzeigeeinheit 4 beispielsweise am Fahrersitz oder am Beifahrersitz platziert ist, und führt eine Ausgangssteuerung der dargestellten Inhalte an die Anzeigeeinheit 4 aus.
  • Als Nächstes wird der Betrieb der Bord-Informationsvorrichtung der vorliegenden Ausführungsform 4 beschrieben. 11 ist ein Flussdiagramm, das den Betrieb der Bord-Informationsvorrichtung der Ausführungsform 4 zeigt.
  • Zuerst, falls irgendeine Spracheingabe stattfindet, erfasst die Stimmerfassungseinheit 1 die eingegebene Stimme und führt eine A/D-Wandlung aus, um die Stimmdaten beispielsweise eines PCM-Formats zu erhalten (Schritt ST41). Als Nächstes erkennt die Spracherkennungseinheit 2 die durch die Stimmerfassungseinheit 1 erhaltenen Stimmdaten (Schritt ST42). Andererseits detektiert der Fahrzeug-Umgebungszustands-Detektor (Fahrzeugzustands-Detektor) 30 die Position jeder Anzeigeeinheit 4 (4-1, 4-2, ..., 4-N) (Schritt ST43). Dann erzeugt die Anzeigesteuerung 3 die Anzeigedaten durch Anordnen der Zeichenketten des Spracherkennungsergebnisses der Spracherkennungseinheit 2 in einer Zeitserienreihenfolge und durch Ändern des Anzeigeformats (Anzeigeninhalte) gemäß der Position jeder Anzeigeeinheit 4 (4-1, 4-2, ..., 4-N), welche durch den Fahrzeug-Umgebungszustands-Detektor (Fahrzeugzustands-Detektor) 30 detektiert werden, und liefert die Anzeigedaten an die individuellen Anzeigeeinheiten 4. Somit zeigt jede Anzeigeeinheit 4 die Unterhaltungsinhalte in den Zeichenketten an (Schritt ST44).
  • 12 und 13 sind Diagramme, welche Anzeigenbeispiele zeigen, die auf diese Weise angezeigt werden. 12 ist ein Anzeigebeispiel, wenn die Position der Anzeigeeinheit 4 an dem Passagiersitz ist, und 13 ist ein Anzeigebeispiel, wenn die Position der Anzeigeeinheit 4 am Fahrersitz ist. In den Beispielen zeigt die Anzeigeeinheit 4 am in 12 gezeigten Passagiersitz eine Mehrzahl von Zeilen (fünf Zeilen oder so gleichzeitig gemäß der Zeit der Sprache im Beispiel) der gesamten Unterhaltung in einer Zeitserienreihenfolge an. Andererseits zeigt die Anzeigeeinheit 4 am in 13 gezeigten Fahrersitz nur zwei Zeilen über dem gesamten Bildschirm (ohne Sprachzeit) an. Dies liegt daran, dass der Fahrer sich auf das Fahren konzentrieren muss, und wenn nicht die Zeichen groß genug sind, kann er oder sie nicht die Unterhaltungsinhalte in kurzer Zeit bestätigen.
  • Alternativ, wenn es möglich ist, die Position des Beifahrers, wie in den Ausführungsformen 1 bis 3 zu erfassen, indem eine Mehrzahl von Mikrofonen oder ein Rastermikrofon verwendet wird, kann die Anzeigeeinheit 4 am Beifahrersitz beispielsweise einen Bildschirm wie in 14 statt 12 gezeigt anzeigen. In diesem Fall erleichtert es, die Anzeige der Sprachinhalte der anderen Personen größer als der Sprachinhalte von einem selbst (B) am Beifahrersitz zu machen, die Unterhaltung der anderen Personen zu erkennen.
  • Wie oben beschrieben, gemäß der vorliegenden Ausführungsform 4, erfasst sie kontinuierlich die Unterhaltung im Fahrzeug, um die Spracherkennung auszuführen, zeigt optimal für jede Position der Anzeigeeinheiten, wie etwa Anzeigen auf der Anzeigeeinheit des Fahrersitzes in einer Weise, dass die Zeichen visuell in kurzer Zeit bestätigt werden können, beispielsweise, oder Anzeigen auf der Anzeigeeinheit an einem Beifahrersitz in einer Weise, dass sie einen größeren Informationsbetrag zur Verfügung stellt, weil es keine solche Beschränkung wie beim Fahrer gibt, an. Entsprechend kann sie das Verständnis der Anzeigeinhalte vereinfachen. Zusätzlich kann es das Anzeigen unter Berücksichtigung der Position des Passagiers für ihn oder sie leichter machen, die Unterhaltung der anderen Personen zu erkennen.
  • AUSFÜHRUNGSFORM 5
  • 15 ist ein Blockdiagramm, welches eine Konfiguration einer Bord-Informationsvorrichtung einer Ausführungsform 5 gemäß der vorliegenden Erfindung zeigt. Übrigens werden dieselben Komponenten wie jene in den Ausführungsformen 1 bis 4 beschriebenen durch dieselben Bezugszeichen bezeichnet und ihre wiederholte Beschreibung wird weggelassen. Im Vergleich mit der in 1, in der Ausführungsform 1 beschriebenen Basiskonfiguration unterscheidet sich die folgende Ausführungsform 5 darin, dass sie einen Fahrzeug-Umgebungszustands-Detektor (Fahrzeugzustands-Detektor) 30, eine Stimm-S/N-Erfassungseinheit 31, eine Audiosystem-Betriebszustands-Erfassungseinheit 32, eine Klimaanlagen-Betriebszustands-Erfassungseinheit 33, eine Fahrzeuglärmzustands-Erfassungseinheit 34 und eine Fenster- oder Dachöffnungs-/Schließzustands-Erfassungseinheit 35 erfasst.
  • Die Stimm-S/N-Erfassungseinheit 31 detektiert einen stimmaktiven Abschnitt aus dem durch die Stimmerfassungseinheit 1 ermittelten Stimmdaten und berechnet das Verhältnis zwischen dem Signalpegel im stimmaktiven Abschnitt und dem Signalpegel in den anderen Abschnitten.
  • Die Audiosystem-Betriebszustands-Erfassungseinheit 32 und die Klimaanlagen-Betriebszustands-Erfassungseinheit 33 erfassen den Betriebszustand eines Audiosystems, wie etwa Fahrzeugaudio-Ausrüstung, und denjenigen der Klimaanlagen-Ausrüstung, wie etwa einer Klimaanlage.
  • Die Fahrzeuglärmzustands-Erfassungseinheit 34 erfasst einen Lärmzustand dembezüglich, ob der Fahrzeuglärmpegel im Inneren einen vorgegebenen Schwellenwert übersteigt oder nicht.
  • Die Fenster- oder Dachöffnungs-/Schließzustands-Erfassungseinheit 35 erfasst den Fenster- oder Dachöffnungs-/Schließzustand des Fahrzeugs aus dem CAN-(Controller Area Network)Signal oder dergleichen, das aus dem Fahrzeug zugeführt wird.
  • Hier, obwohl der Fahrzeug-Umgebungszustands-Detektor 30 in der Ausführungsform 1 bis 4 den lokalisierten Zustand eines der Sprecher (Passagiere), Stimmerfassungseinheiten 1 und Anzeigeeinheiten (Ausgangseinheiten) 4 im Fahrzeug detektiert, detektiert der Fahrzeug-Umgebungszustands-Detektor 30 in der vorliegenden Ausführungsform 5 das S/N-Verhältnis der durch die Stimmerfassungseinheit 1 erfassten Stimme, den Betriebszustand des Audiosystems (Audioausrüstung und dergleichen) oder Klimaanlagen-Ausrüstung (Klimaanlage oder dergleichen), des Lärmzustands im Fahrzeug oder des Öffnungs-/Schließ-Zustands des Fensters oder Daches des Fahrzeugs.
  • Dann, falls der Fahrzeug-Umgebungszustands-Detektor 30 den Fahrzeugzustand detektiert, dass der Umgebungszustand im Fahrzeug laut ist, ändert die vorliegende Ausführungsform 5 das Anzeigeformat (Anzeigeinhalte) anhand des detektierten Fahrzeugzustands und zeigt ihn an.
  • Als Nächstes wird der Betrieb der Bord-Informationsvorrichtung der vorliegenden Ausführungsform 5 beschrieben. 16 ist ein Flussdiagramm, welches den Betrieb der Bord-Informationsvorrichtung der Ausführungsform 5 zeigt.
  • Zuerst, falls irgendeine Spracheingabe stattfindet, erfasst die Stimmerfassungseinheit 1 die eingegebene Stimme und führt A/D-Wandlung aus, um beispielsweise die Stimmdaten eines PCM-Formats zu erhalten (Schritt ST51). Als Nächstes erkennt die Spracherkennungseinheit 2 die durch die Stimmerfassungseinheit 1 ermittelten Stimmdaten (Schritt ST52).
  • Danach entscheidet der Fahrzeug-Umgebungszustands-Detektor 30 darüber, ob die Anzeige der Unterhaltungsinhalte notwendig ist oder nicht, abhängig davon, ob der Umgebungszustand als laut oder nicht entschieden wird (Schritt ST53). Spezifischer entscheidet der Fahrzeug-Umgebungszustands-Detektor 30, dass der Umgebungszustand laut ist und dass die Präsentation der Umgebung notwendig ist, falls das durch die Stimm-S/N-Erfassungseinheit 31 ermittelte Stimm-S/N-Verhältnis kleiner als der vorgegebene Schwellenwert ist, falls der Audiosystem-Betriebszustand im Fahrzeug, der durch die Audiosystem-Betriebszustands-Erfassungseinheit 32 erfasst ist, in Betrieb ist, falls der durch die Klimaanlagen-Betriebszustands-Erfassungseinheit 33 erfasste Klimaanlagen-Betriebszustand im Fahrzeug in Betrieb ist, falls der durch die Fahrzeuglärmzustands-Erfassungseinheit 34 erfasste Fahrzeuglärmpegel den vorgegebenen Schwellenwert übersteigt, oder falls das durch die Öffnungs-/Schließzustands-Erfassungseinheit 35 erfasste Fenster oder Dach detektiert, dass der Fenster- oder Dachöffnungs-/Schließzustand des Fahrzeugs offen ist.
  • Dann, falls der Fahrzeug-Umgebungszustands-Detektor 30 keine Entscheidung trifft, dass die Präsentation der Unterhaltung notwendig ist (NEIN in Schritt S53), kehrt sie zu Schritt ST51 zurück, um die Verarbeitung auszuführen.
  • Falls sie andererseits entscheidet, dass die Präsentation der Unterhaltung notwendig ist (JA in Schritt ST53), erzeugt die Anzeigesteuerung 3 die Anzeigedaten durch Anordnen der im Schritt S52 erkannten Stimmdaten in eine Zeitserienreihenfolge und liefert die Anzeigedaten an die Anzeigeeinheit 4, so dass die Anzeigeeinheit 4 die Unterhaltungsinhalte in Zeichenketten anzeigt (Schritt ST54).
  • Wie oben beschrieben, gemäß der vorliegenden Ausführungsform 5, nimmt sie kontinuierlich die Fahrzeugunterhaltung auf und führt die Spracherkennung durch, und falls sie die Entscheidung trifft, dass der Umgebungszustand im Fahrzeug laut ist und es sehr wahrscheinlich ist, dass der Passagier ein Wort der Unterhaltung verpassen kann, stellt sie die Unterhaltungsinhalte dar. Entsprechend, selbst falls die Unterhaltung nicht aufgenommen werden kann, aufgrund von Lärm oder dergleichen, kann sie es möglich machen, die Unterhaltungsinhalte zu bestätigen und macht es einfacher, den Ablauf der Unterhaltung zu verstehen.
  • AUSFÜHRUNGSFORM 6
  • 17 ist ein Blockdiagramm, das eine Konfiguration einer Bord-Informationsvorrichtung einer Ausführungsform 6 gemäß der vorliegenden Erfindung zeigt. Übrigens werden dieselben Komponenten wie jene, die in den Ausführungsformen 1 bis 5 beschrieben sind, durch dieselben Bezugszeichen bezeichnet und ihre wiederholte Beschreibung wird weggelassen. Im Vergleich zur in der Ausführungsform 1 beschriebenen, in 1 gezeigten Konfiguration umfasst die Ausführungsform 6 einen Fahrzeug-Umgebungszustands-Detektor 30 (Fahrzeugzustands-Detektor) und eine Sprachmerkmalsinformations-Erfassungseinheit 36.
  • In der vorliegenden Ausführungsform 6 erfasst die Stimmmerkmalsinformations-Erfassungseinheit 36 die Stimmmerkmal-Information einschließlich Typ, Lautstärke, Intervall, Tonqualität, Klang, Farbe, Tempo und Frequenz-Charakteristika der Stimme, welche die Stimmerfassungseinheit 1 erfasst, und detektiert der Fahrzeug-Umgebungszustands-Detektor 30 als den Fahrzeugzustand den emotionalen Zustand eines Passagiers, der die Stimme äußert, anhand der Schätzung, basierend auf der Stimmmerkmal-Information.
  • Dann, wenn der Fahrzeug-Umgebungszustands-Detektor 30 den Fahrzeugzustand detektiert, der einschätzt, dass der emotionale Zustand eines Passagiers fröhlich/traurig ist, zeigt die vorliegende Ausführungsform 6 durch Ändern des Anzeigeformats (Anzeigeinhalte) anhand dem detektierten Fahrzeugzustand an.
  • Als Nächstes wird der Betrieb der Bord-Informationsvorrichtung der vorliegenden Ausführungsform 6 beschrieben. Bezüglich des den Betrieb der Bord-Informationsvorrichtung der vorliegenden Ausführungsform 6 zeigenden Flussdiagramms, das dasselbe wie das in 16 der Ausführungsform 5 gezeigte Flussdiagramm ist, wird eine Zeichnung desselben weggelassen. Nur die Entscheidungsverarbeitung in Schritt ST53 unterscheidet sich von Ausführungsform 5.
  • Zuerst, falls irgendeine Spracheingabe stattfindet, erfasst die Stimmerfassungseinheit 1 die eingegebene Stimme, und führt eine A/D-Wandlung aus, um die Stimmdaten beispielsweise eines PCM-Formats zu ermitteln (Schritt ST51). Als Nächstes erkennt die Spracherkennungseinheit 2 die durch die Stimmerfassungseinheit 1 ermittelten Stimmdaten (Schritt ST52).
  • Danach entscheidet der Fahrzeug-Umgebungszustands-Detektor 30 darüber, ob die Anzeige der Unterhaltungsinhalte notwendig ist oder nicht abhängig davon, ob der emotionale Zustand des Passagiers im Fahrzeuginneren fröhlich oder traurig ist (Schritt ST53). Genauer gesagt, schätzt der Fahrzeug-Umgebungszustands-Detektor 30 ab, ob der emotionale Zustand des Passagiers im Fahrzeug fröhlich oder traurig ist, aus der Stimmmerkmals-Information, welche durch die Stimmmerkmalsinformations-Erfassungseinheit 36 erfasst ist, und falls der emotionale Zustand des Passagiers traurig ist, entscheidet sie, dass die Unterhaltung wahrscheinlich schwierig zu erfassen ist und dass die Präsentation der Unterhaltung notwendig ist.
  • Dann, falls sie schätzt, dass der emotionale Zustand des Passagiers im Fahrzeug fröhlich ist, und entscheidet, dass die Präsentation der Unterhaltung unnötig ist (NEIN in Schritt ST53), kehrt sie zum Schritt ST51 zurück, um die Verarbeitung auszuführen.
  • Falls sie andererseits abschätzt, dass der emotionale Zustand des Passagiers im Fahrzeug traurig ist und entscheidet, dass die Präsentation der Unterhaltung notwendig ist (JA in Schritt S53), ordnet die Anzeigesteuerung 3 die im Schritt ST52 erkannten Stimmdaten in einer Zeitserienreihenfolge an, um die Anzeigedaten zu erzeugen und liefert die Anzeigedaten an die Anzeigeeinheit 4, so dass die Anzeigeeinheit 4 die Unterhaltungsinhalte in den Zeichenkette anzeigt (Schritt ST54).
  • Wie oben beschrieben, gemäß der vorliegenden Ausführungsform 6, nimmt sie kontinuierlich die Fahrzeugunterhaltung auf und führt die Spracherkennung durch, und falls der emotionale Zustand des Passagiers im Fahrzeug traurig ist, und falls sie entscheidet, dass die Unterhaltung wahrscheinlich schwierig aufzunehmen ist, zeigt sie die Unterhaltungsinhalte an. Entsprechend, selbst falls die Unterhaltung schwierig aufzunehmen ist, aufgrund von Lärm oder Konzentration auf das Fahren, kann sie es ermöglichen, die Unterhaltungsinhalte zu bestätigen und es leichter machen, den Ablauf der Unterhaltung zu verstehen.
  • AUSFÜHRUNGSFORM 7
  • 18 ist ein Blockdiagramm, welches eine Konfiguration einer Bord-Informationsvorrichtung einer Ausführungsform 7 gemäß der vorliegenden Erfindung zeigt. Übrigens werden dieselben Komponenten wie jene, die in den Ausführungsformen 1 bis 6 beschrieben sind, durch dieselben Bezugszeichen bezeichnet und ihre wiederholte Beschreibung wird weggelassen. Im Vergleich zum in, in der Ausführungsform 4 beschriebenen 10 gezeigten Blockdiagramm umfasst die folgende Ausführungsform 7 einen Fahrzeug-Umgebungszustands-Detektor (Fahrzeugzustands-Detektor) 40 anstelle des Fahrzeug-Umgebungszustands-Detektor (Fahrzeugzustands-Detektor) 30 und umfasst weiter eine Zeit-Erfassungseinheit 41 und eine Wetterzustands-Erfassungseinheit 42.
  • Der Fahrzeug-Umgebungszustands-Detektor 40 der vorliegenden Ausführungsform 7 detektiert als den Fahrzeugzustand des Umgebungszustand des Fahrzeugs das aktuelle Datum, Zeit, einen Wochentag und den Wetterzustand um das Fahrzeug herum, erfasst durch die Zeit-Erfassungseinheit 41, welche Informationen wie etwa aktuelles Datum, Zeit, Wochentag und dergleichen erfasst, und durch die Wetterzustands-Erfassungseinheit 42, die Wetterinformationen an der aktuellen Fahrzeugposition über ein Kommunikationssystem erfasst.
  • Dann, falls der Fahrzeug-Umgebungszustands-Detektor 40 aus dem Umgebungszustand des Fahrzeugs detektiert, dass der Fahrer sich auf den Fahrbetrieb konzentrieren muss, führt die vorliegende Ausführungsform 7 eine Steuerung, wie etwa Auswahl, Änderung, Umschalten oder dergleichen der Anzeigeeinheit, welche die Anzeigedaten ausgibt, oder der Anzeigeeinheit, welche sie nicht ausgibt, wie etwa durch Anzeigen nach Ändern des Anzeigeformats (Anzeigeinhalte) oder durch Ändern eines Anzeigemodus der Anzeigeeinheit 4 am Fahrersitz zu einem Nicht-Anzeigemodus gemäß dem detektierten Fahrzeugzustand aus.
  • Als Nächstes wird der Betrieb der Bord-Informationsvorrichtung der vorliegenden Ausführungsform 7 beschrieben. 19 ist ein Flussdiagramm, das den Betrieb der Bord-Informationsvorrichtung der Ausführungsform 7 zeigt.
  • Zuerst, falls irgendeine Spracheingabe stattfindet, erfasst die Stimmerfassungseinheit 1 die eingegebene Stimme und führt eine A/D-Wandlung aus, um die Stimmdaten eines PCM-Formats zu ermitteln, beispielsweise (Schritt ST71). Als Nächstes erkennt die Spracherkennungseinheit 2 die durch die Stimmerfassungseinheit 1 erhaltenen Stimmdaten (Schritt ST72).
  • Dann, wenn nicht die Anzeigesteuerung 3 eine Anzeige auf der Anzeigeeinheit 4 am Fahrersitz ausführt (Position vom Fahrer aus sichtbar) (NEIN in Schritt ST73), erzeugt die Anzeigesteuerung 3 die Anzeigedaten durch Anordnen der Zeichenketten des Spracherkennungsergebnisses aus der Spracherkennungseinheit 2 im Schritt ST72 in einer Zeitserienreihenfolge und durch Ändern des Anzeigeformats (Anzeigeinhalte) gemäß der Position jeder Anzeigeeinheit 4 (4-1, 4-2, ..., 4-N) und liefert die Anzeigedaten an die einzelnen Anzeigeeinheiten 4. Somit zeigt jede Anzeigeeinheit 4 die Unterhaltungsinhalte in den Zeichenketten an (Schritt ST74).
  • Falls andererseits die Anzeigesteuerung 3 die Anzeige auf der Anzeigeeinheit 4 am Fahrersitz ausführt (vom Fahrer sichtbare Position) (JA in Schritt ST73), entscheidet der Fahrzeug-Umgebungszustands-Detektor 40 in Schritt S75 darüber, ob der Fahrer sich auf den Fahrbetrieb konzentrieren muss oder nicht, aus einem von Datum, Zeit, Wochentag und Wetter um die aktuelle Position des Fahrzeugs herum (Schritt ST75). Spezifischer, gemäß dem Datum, Zeit, Wochentag um die aktuelle Position des Fahrzeugs herum, welche durch die Zeit-Erfassungseinheit 41 erfasst ist, und gemäß dem Wetter um die aktuelle Position des Fahrzeugs herum, das durch die Wetterzustands-Erfassungseinheit 42 erfasst ist, entscheidet der Fahrzeug-Umgebungszustands-Detektor 40, dass der Fahrer sich auf den Fahrbetrieb konzentrieren muss, falls das Datum oder der Wochentag ein Zeitraum von Verstopfung ist, falls der Zeitraum nachts ist, oder falls es regnerisch ist.
  • Dann, falls der Fahrzeug-Umgebungszustands-Detektor 40 nicht entscheidet, dass eine Konzentration auf das Fahren notwendig ist (NEIN in Schritt ST75), stellt die Anzeigesteuerung 3 die Anzeigeeinheit 4 am Fahrersitz auf den Anzeigemodus ein (Schritt ST76). Falls die Anzeigeeinheit bereits im Anzeigemodus eingestellt worden ist, macht sie jedoch nichts.
  • Falls sie andererseits entscheidet, dass die Konzentration auf das Fahren notwendig ist (Ja in Schritt ST75), stellt die Anzeigesteuerung 3 die Anzeigeeinheit 4 am Fahrersitz in den Nicht-Anzeigemodus ein (Schritt ST77). Sie macht jedoch nichts, falls die Anzeigeeinheit bereits im Nicht-Anzeigemodus eingestellt worden ist.
  • Wie oben beschrieben, gemäß der vorliegenden Ausführungsform 7, nimmt sie kontinuierlich die Unterhaltung im Fahrzeug auf und führt die Spracherkennung durch, und falls die Position der Anzeigeeinheit und der Umgebungszustand des Fahrzeugs in einem Zustand sind, in welchem sich der Fahrer auf den Fahrbetrieb konzentrieren muss, hindert sie die Anzeigeeinheit am Fahrersitz daran, das Spracherkennungsergebnis anzuzeigen. Entsprechend kann sie zusätzlich zu den Vorteilen der Ausführungsform 4 verhindern, dass der Fahrer zur Seite blickt, während er fährt.
  • AUSFÜHRUNGSFORM 8
  • 20 ist ein Blockdiagramm, das eine Konfiguration einer Bord-Informationsvorrichtung einer Ausführungsform 8 gemäß der vorliegenden Erfindung zeigt. Übrigens werden dieselben Komponenten wie jene, die in den Ausführungsformen 1 bis 7 beschrieben sind, durch dieselben Bezugszeichen bezeichnet und ihre wiederholte Beschreibung wird weggelassen. Im Vergleich zum in, in der Ausführungsform 4 beschriebenen 10 gezeigten Blockdiagramm, umfasst die vorliegende Ausführungsform 8 einen Fahrzeug-Betriebszustands-Detektor (Fahrzeugzustandsdetektor) 50 statt des Fahrzeug-Umgebungszustands-Detektors (Fahrzeugzustands-Detektor) 30 und umfasst weiter eine Lenkzustands-Erfassungseinheit 51, Gangschalthebel-Betriebszustands-Erfassungseinheit 52, Bremsbetriebszustands-Erfassungseinheit 53, Richtungsindikator-Betriebszustands-Erfassungseinheit 54, Beleuchtungszustands-Erfassungseinheit 55 und Scheibenwischer-Betriebszustands-Erfassungseinheit 56.
  • Die Lenkzustands-Erfassungseinheit 51, die Gangschalthebel-Betriebszustands-Erfassungseinheit 52, die Bremsbetriebszustands-Erfassungseinheit 53, die Richtungsindikator-Betriebszustands-Erfassungseinheit 54, die Beleuchtungszustands-Erfassungseinheit 55 und die Scheibenwischer-Betriebszustands-Erfassungseinheit 56 erfassen genutzte/ungenutzte Signale jeweils des Lenkens, Gangschalthebels, der Bremse, des Richtungsindikators, der Beleuchtung und von Scheibenwischern aus dem CAN-Signal oder dergleichen aus dem Fahrzeug.
  • Der Fahrzeug-Betriebszustands-Detektor 50 in der vorliegenden Ausführungsform 8 dient zum Detektieren des Betriebszustands der Komponenten, wie etwa Lenkung, Gangschalthebel, Bremse, Richtungsindikator, Beleuchtung und Scheibenwischer des Fahrzeugs.
  • Dann, falls der Fahrzeug-Betriebszustands-Detektor 50 detektiert, dass die vorstehenden Fahrzeugeinrichtungen sich in einem verwendeten Zustand befinden, führt die vorliegende Ausführungsform 8 eine Steuerung wie etwa Auswahl, Änderung, Umschalten oder dergleichen der Anzeigeeinheit durch, welche die Anzeigedaten ausgibt oder nicht ausgibt, wie etwa durch Anzeigen nach Ändern des Anzeigeformats (Anzeigeinhalte) oder durch Ändern des Anzeigemodus der Anzeigeeinheit 4 am Fahrersitz zu einem Nicht-Anzeigemodus, gemäß dem detektierten Fahrzeugzustand.
  • Als Nächstes wird der Betrieb der Bord-Informationsvorrichtung der vorliegenden Ausführungsform 8 beschrieben. Bezüglich des Flussdiagramms, das den Betrieb der Bord-Informationsvorrichtung der vorliegenden Ausführungsform 8 zeigt, da es das gleiche wie das in 19 von Ausführungsform 7 gezeigte Flussdiagramm ist, wird eine Zeichnung weggelassen. Nur die Entscheidungsverarbeitung im Schritt ST75 unterscheidet sich von der Ausführungsform 7.
  • Zuerst, falls irgendeine Spracheingabe stattfindet, erfasst die Stimmerfassungseinheit 1 die eingegebene Stimme und führt eine A/D-Wandlung durch, um die Stimmdaten beispielsweise eines PCM-Formats zu erhalten (Schritt ST71). Als Nächstes erkennt die Spracherkennungseinheit 2 die durch die Stimmerfassungseinheit 1 ermittelten Stimmdaten (Schritt ST72).
  • Dann, wenn nicht die Anzeigesteuerung 3 eine Anzeige auf der Anzeigeeinheit 4 am Fahrersitz ausführt (Position von Fahrer aus sichtbar) (NEIN in Schritt ST73), erzeugt die Anzeigesteuerung 3 die Anzeigedaten durch Anordnen der Zeichenketten des Spracherkennungsergebnisses aus der Spracherkennungseinheit 2 in einer Zeitserienreihenfolge und durch Ändern des Anzeigeformats (Anzeigeinhalte) in Übereinstimmung mit der Position jeder Anzeigeeinheit 4 (4-1, 4-2, ..., 4-N) und liefert die Anzeigedaten an die einzelnen Anzeigeeinheiten 4. Somit zeigt jede Anzeigeeinheit 4 die Unterhaltungsinhalte in den Zeichenketten an (Schritt ST74).
  • Falls andererseits die Anzeigesteuerung 3 Anzeige auf der Anzeigeeinheit 4 am Fahrersitz ausführt (Position vom Fahrer aus sichtbar) (JA in Schritt ST73), entscheidet der Fahrzeug-Betriebszustands-Detektor 50 im Schritt 75 darüber, ob der Fahrer sich auf den Fahrbetrieb konzentrieren muss oder nicht, daraus, ob die Lenkung, Gangschalthebel, Bremse, Richtungsindikator, Beleuchtung oder Wischer des Fahrzeugs verwendet werden oder nicht (Schritt ST75). Spezifischer, wenn die Verwendet/Unverwendet-Signale des Lenkzustands, Gangschalthebels, Bremse, Richtungsindikator, Beleuchtung und Wischers des Fahrzeugs verwendet werden (während der Verwendung), erfasst durch die Lenkzustands-Erfassungseinheit 51, die Gangschalthebel-Betriebszustands-Erfassungseinheit 52, die Bremsbetriebszustands-Erfassungseinheit 53, die Richtungsindikator-Betriebszustands-Erfassungseinheit 54, die Beleuchtungszustands-Erfassungseinheit 55 und die Scheibenwischer-Betriebszustands-Erfassungseinheit 56, entscheidet der Fahrzeug-Betriebszustands-Detektor 50, dass sich der Fahrer auf den Fahrbetrieb konzentrieren muss.
  • Dann, falls der Fahrzeug-Betriebszustands-Detektor 50 nicht entscheidet, dass die Konzentration auf den Fahrbetrieb notwendig ist (NEIN in Schritt ST75), stellt die Anzeigesteuerung 3 die Anzeigeeinheit 4 am Fahrersitz in den Anzeigemodus (Schritt ST76). Jedoch tut er nichts, falls die Anzeigeeinheit bereits im Anzeigemodus eingestellt worden ist.
  • Falls sie andererseits entscheidet, dass die Konzentration auf den Fahrbetrieb notwendig ist (JA in Schritt ST75), stellt die Anzeigesteuerung 3 die Wärmesenke 4 am Fahrersitz im Nicht-Anzeigemodus ein (Schritt ST77). Jedoch tut sie nichts, falls die Anzeigeeinheit bereits im Nicht-Anzeigemodus eingestellt worden ist.
  • Wie oben beschrieben, gemäß der vorliegenden Ausführungsform 8, nimmt sie kontinuierlich die Unterhaltung im Fahrzeug auf und führt die Spracherkennung durch und verhindert, dass die Anzeigeeinheit am Fahrersitz das Spracherkennungsergebnis anzeigt, falls sich der Fahrer auf den Fahrbetrieb konzentrieren muss, bestimmt aus der Position der Anzeigeeinheit und aus dem Betriebszustand des Fahrzeugs, das eines vom Lenkzustand, Gangschalthebel, Bremse, Richtungsindikator, Beleuchtung und Scheibenwischer des Fahrzeugs in Verwendung ist. Entsprechend, zusätzlich zu den Vorteilen der Ausführungsform 4, kann sie den Fahrer daran hindern, während des Fahrens zur Seite zu blicken.
  • AUSFÜHRUNGSFORM 9
  • 21 ist ein Blockdiagramm, das eine Konfiguration einer Bord-Informationsvorrichtung einer Ausführungsform 9 gemäß der vorliegenden Erfindung zeigt. Übrigens werden dieselben Komponenten wie jene, die in den Ausführungsformen 1 bis 8 beschrieben sind, durch dieselben Bezugszeichen bezeichnet und ihre wiederholte Beschreibung wird weggelassen. Im Vergleich zum im, in der Ausführungsform 4 beschriebenen 10 gezeigten Blockdiagramm, umfasst die nachfolgende Ausführungsform 9 einen Fahrzeug-Betriebszustands-Detektor (Fahrzeugzustandsdetektor) 50 anstelle des Fahrzeug-Umgebungszustands-Detektors 30 (Fahrzeugzustands-Detektor) und umfasst weiter eine Fahrzeugpositions-Erfassungseinheit 61, eine Fahrzeuggeschwindigkeits-Signalerfassungseinheit 62, eine Beschleunigungs-Erfassungseinheit 63, eine Richtungs-Erfassungseinheit 64, eine kontinuierliche Fahrzeit-Erfassungseinheit 65, eine kontinuierliche Fahrdistanz-Erfassungseinheit 66, eine Fahrstraßentyp-Erfassungseinheit 67, eine Fahrstraßen-Oberflächenzustands-Erfassungseinheit 68, eine Fahrstraßen-Verstopfungszustands-Erfassungseinheit 69, eine Fahrrouten-Einstellzustands-Erfassungseinheit 70 und eine Fahrrouten-Führungszustands-Erfassungseinheit 71.
  • Der Fahrzeug-Betriebszustands-Detektor 50 der vorliegenden Ausführungsform 9 detektiert einen Betriebszustand des Fahrzeugs von einer der akteuellen Position, Geschwindigkeit, Beschleunigung, Richtung, kontinuierliche Fahrdistanz, kontinuierliche Fahrzeit, Fahrstraßentyp, Fahrstraßen-Oberflächenzustand, Fahrstraßen-Verstopfungszustand, Fahrrouten-Einstellzustand, Fahrrouten-Führungszustand des Fahrzeugs.
  • Dann ändert die vorliegende Ausführungsform 9 das Anzeigeformat (Anzeigeinhalte) anhand des durch den Fahrzeug-Betriebszustands-Detektor 50 detektierten Fahrzeugzustands und führt die Anzeige durch.
  • Übrigens, wenn eine Mehrzahl von Anzeigeeinheiten 4 wie in den Ausführungsformen 4, 7 und 8 vorgesehen sind, ist es auch möglich, die Steuerung der Anzeige durch Ändern des Anzeigeformats (Anzeigeninhalte) anhand des durch den Fahrzeug-Betriebszustands-Detektor 50 detektierten Fahrzeugzustands, oder Steuerung des Auswählens, Änderns, Schaltens oder dergleichen der Anzeigeeinheit, welche die Anzeigedaten wie etwa Einstellung der Anzeigeeinheit 4 am Fahrersitz in den Nicht-Anzeigemodus während des Betriebs des Fahrzeugs ausgibt oder nicht ausgibt, auszuführen.
  • Die Fahrzeugpositions-Erfassungseinheit 61 erfasst die aktuelle Position des Fahrzeugs unter Verwendung von Information, die aus einem GPS-(globales Positionierungssystem)Empfänger oder einem Gyroskop oder dergleichen erfasst wird.
  • Die Fahrzeuggeschwindigkeits-Signalerfassungseinheit 62 erfasst die Geschwindigkeitsinformation des Fahrzeugs aus dem CAN-Signal oder dergleichen des Fahrzeugs.
  • Die Beschleunigungs-Erfassungseinheit 63 erfasst die Beschleunigung des Fahrzeugs aus dem Gyroskop oder aus dem Betrieb des Gaspedals, der Bremse oder dem Lenkrad des Fahrzeugs.
  • Die Richtungs-Erfassungseinheit 64 erfasst die Richtung des Fahrzeugs aus der Bewegungsrichtung der Fahrzeugposition oder aus einem elektronischen Kompass.
  • Die kontinuierliche Fahrzeit-Erfassungseinheit 65 und die kontinuierliche Fahrdistanz-Erfassungseinheit 66 erfassen die kontinuierliche Fahrzeit bzw. kontinuierliche Fahrdistanz aus einer Autonavigation oder dem CAN-Signal oder dergleichen aus dem Fahrzeug.
  • Die Fahrstraßentyp-Erfassungseinheit 67 und die Fahrstraßen-Oberflächenzustands-Erfassungseinheit 68 erfassen den Typ und den Oberflächenzustand der Straße, auf der das Fahrzeug nun fährt, aus der aktuellen Positionsinformation zum Fahrzeug, welche durch die Fahrzeugpositions-Erfassungseinheit 61 erfast ist, und aus den in dem Kartendatenspeicher 72 gespeicherten Kartendaten oder dergleichen, was später beschrieben wird. Als erfassbare Information gibt es Straßenzustände, welche die Lärmbedingung oder Fahrtbedingung „in einem Tunnel oder nicht” und „asphaltiert oder nicht asphaltiert” beeinflusst. zusätzlich ist auch eine Konfiguration möglich, die solche Information wie „bald in einen Tunnel fahrend” erfasst, wenn die Fahrzeugposition noch nicht im Tunnel ist, aber in den Tunnel gehen wird, wenn sich das Fahrzeug auf der Straße bewegt.
  • Die Fahrstraßen-Verstopfungszustands-Erfassungseinheit 69 erfasst den Verstopfungszustand der Fahrzeugposition durch Kommunikationsausrüstung, oder erfasst VICS(Fahrzeuginformations- und Kommunikationssystem, Vehicle Information and Communication System, registriertes Warenzeichen)-Information (Verkehrsinformation) durch Funkwellen oder Infrarotbarke.
  • Die Fahrrouten-Einstellzustands-Erfassungseinheit 70 und die Fahrrouten-Führungszustands-Erfassungseinheit 71 erfassen Information über den aktuellen Fahrrouten-Einstellzustand und den Fahrrouten-Führungszustand aus dem Navigationssystem.
  • Der Kartendatenspeicher 72 speichert Kartendaten wie etwa Straßendaten und Tunneldaten. Der Kartendatenspeicher 72 kann irgendein Typ sein, wie eine DVD-ROM, eine Festplatte und eine SD-Karte. Zusätzlich ist auch eine Konfiguration möglich, die auf einem Netzwerk platziert ist und Information wie etwa Straßendaten über ein Kommunikationsnetzwerk erfassen kann.
  • Der Fahrzeug-Betriebszustands-Detektor 50 entscheidet darüber, ob das Fahrzeug fährt oder stoppt, aus der, von der Fahrzeugpositions-Erfassungseinheit 61, Fahrzeuggeschwindigkeits-Signalerfassungseinheit 62, Beschleunigungs-Erfassungseinheit 63, Richtungs-Erfassungseinheit 64, kontinuierlicher Fahrzeit-Erfassungseinheit 65 und kontinuierlicher Fahrdistanz-Erfassungseinheit 66 erfassten Information; entscheidet darüber, ob der Straßenzustand den Fahrbetrieb oder die Lärmbedingungen der Straße, auf der das Fahrzeug fährt, beeinträchtigen wird, aus der Information, welche aus der Fahrstraßentyp-Erfassungseinheit 67, der Fahrstraßen-Oberflächenzustands-Erfassungseinheit 68 und der Fahrstraßen-Verstopfungszustands-Erfassungseinheit 69 erfasst ist, und entscheidet darüber, ob die Fahrroute eingestellt und durch das Navigationssystem geführt wird oder nicht.
  • Dann stellt die Anzeigesteuerung 3 die Anzeigeeinheit 4 am Fahrersitz (vom Fahrer aus sichtbar) in den Nicht-Anzeigemodus der Anzeigeinhalte ein, falls der Fahrzeug-Betriebszustands-Detektor 50 entscheidet, dass das Fahrzeug fährt oder die Straße in dem Zustand des Beeinträchtigens der Fahroperation ist.
  • Als Nächstes wird die Operation der Bord-Informationsvorrichtung der vorliegenden Ausführungsform 9 beschrieben. Bezüglich des Flussdiagramms, das den Betrieb der Bord-Informationsvorrichtung der vorliegenden Ausführungsform 9 zeigt, da es das gleiche wie das Flussdiagramm ist, das in 19 von Ausführungsform 7 gezeigt ist, wird eine Zeichnung desselben weggelassen. Nur die Entscheidungsverarbeitung im Schritt ST75 unterscheidet sich von der Ausführungsform 7.
  • Zuerst, falls irgendeine Sprecheingabe stattfindet, erfasst die Stimmerfassungseinheit 1 die eingegebene Stimme und führt eine A/D-Wandlung durch, um die Stimmdaten beispielsweise eines PCM-Formates zu erhalten (Schritt ST71). Als Nächstes erkennt die Spracherkennungseinheit 2 die durch die Stimmerfassungseinheit 1 ermittelten Stimmdaten (Schritt ST72). Dann, falls die Anzeigesteuerung 3 die Anzeige der Anzeigeeinheit 4 nicht am Fahrersitz (vom Fahrer aus sichtbare Position) ausführt (NEIN in Schritt ST73), erzeugt die Anzeigesteuerung 3 die Anzeigedaten durch Anordnen der Zeichenketten des Spracherkennungsergebnisses aus der Spracherkennungseinheit 2 in einer Zeitserienreihenfolge und durch Ändern des Anzeigeformats (Anzeigeinhalte) in Übereinstimmung mit der Position jeder Anzeigeeinheit 4 (4-1, 4-2, ..., 4-N) und liefert die Anzeigedaten an die einzelnen Anzeigeeinheiten 4. Somit zeigt jede Anzeigeeinheit 4 die Unterhaltungsinhalte in den Zeichenketten an (Schritt ST74).
  • Falls andererseits die Anzeigesteuerung 3 die Anzeige auf der Anzeigeeinheit 4 an dem Fahrersitz ausführt (von dem Fahrer aus sichtbare Position) (JA in Schritt ST73), entscheidet der Fahrzeug-Betriebszustands-Detektor 50 im Schritt 75, ob das Fahrzeug fährt oder stoppt, aus der aktuellen Position des Fahrzeugs, der Fahrzeuggeschwindigkeit, der Beschleunigung, Richtung, kontinuierlichen Fahrzeit oder kontinuierlichen Fahrdistanz; entscheidet darüber, ob der Straßenzustand den Fahrbetrieb oder die Lärmbedingungen der Straße, auf der das Fahrzeug fährt, beeinträchtigen wird, aus einem vom Typ, Oberflächenzustand und Verstopfungszustand der Straße, auf der das Fahrzeug fährt; oder entscheidet darüber, ob sich der Fahrer nun auf den Fahrbetrieb konzentrieren muss, indem eine Entscheidung getroffen wird dazu, ob die Navigation der Fahrroute durchgeführt wird (ob die Fahrroute eingestellt und durch das Navigationssystem geführt wird) aus dem Fahrrouten-Einstellzustand oder Fahrrouten-Führungszustand (Schritt ST75).
  • Dann, falls der Fahrzeug-Betriebszustands-Detektor 50 nicht entscheidet, dass die Konzentration auf den Fahrbetrieb notwendig ist (NEIN in Schritt ST75), stellt die Anzeigesteuerung 3 die Anzeigeeinheit 4 am Fahrersitz in den Anzeigemodus ein (Schritt ST76). Jedoch macht sie nichts, falls die Erzeugungseinheit bereits in den Anzeigemodus versetzt worden ist.
  • Andererseits, falls sie entscheidet, dass die Konzentration auf den Fahrbetrieb notwendig ist (JA in Schritt ST75), stellt die Anzeigesteuerung 3 die Anzeigeeinheit 4 am Fahrersitz in den Nicht-Anzeigemodus ein (Schritt ST77). Jedoch tut sie nichts, falls die Anzeigeeinheit bereits im Nicht-Anzeigemodus eingestellt worden ist.
  • Wie oben beschrieben, gemäß der vorliegenden Ausführungsform 9, erfasst sie kontinuierlich die Unterhaltung im Fahrzeug und führt die Spracherkennung aus, und falls die Position der Anzeigeeinheit und des Betriebszustands des Fahrzeugs den Zustand anzeigen, dass der Fahrer sich auf den Fahrbetrieb konzentrieren muss, verhindert sie, dass die Anzeigeeinheit am Fahrersitz das Spracherkennungsergebnis anzeigt. Entsprechend kann sie zusätzlich zu den Vorteilen der Ausführungsform 4 verhindern, dass der Fahrer seitlich schaut, während er fährt.
  • AUSFÜHRUNGSFORM 10
  • 22 ist ein Blockdiagramm, das eine Konfiguration einer Bord-Informationsvorrichtung einer Ausführungsform 10 gemäß der vorliegenden Erfindung zeigt. Übrigens werden dieselben Komponenten wie jene in den Ausführungsformen 1 bis 9 beschrieben durch dieselben Bezugszeichen bezeichnet und ihre wiederholte Beschreibung wird weggelassen. Im Vergleich mit dem in 20, beschrieben in Ausführungsform 8, gezeigten Blockdiagramm umfasst die folgende Ausführungsform 10 weiter eine Sprachausgabesteuerung 11 und eine Stimmausgabeeinheit 12. Da sie die Anzeigeeinheit 4 im Fahrersitz zur Anzeige während des Fahrens abschaltet, gibt sie dem Fahrer Unterhaltungsinhalte über Stimmausgabe als alternative Information. Übrigens, obwohl die vorliegende Ausführungsform 10 hier auf Basis der Ausführungsform 7 beschrieben wird, können Ausführungsform 8 oder 9 eine ähnliche Konfiguration aufweisen, die die Stimmausgabesteuerung und die Stimmausgabeeinheit umfasst.
  • Wenn die Anzeigeeinheit 4 auf dem Fahrersitz in den Nicht-Anzeigemodus platziert wird, führt die Stimmausgabesteuerung 11 Sprachsynthese der Sprachinhalte aus, welche durch die Spracherkennungseinheit 2 erkannt werden und gibt sie an die Stimmausgabeeinheit 12 ab.
  • Übrigens, obwohl die vorliegende Ausführungsform 10 eine Konfiguration aufweist, welche die synthetisierte Sprache ausgibt, ist auch eine Konfiguration möglich, welche den stimmaktiven Abschnitt ausgibt, der durch die Spracherkennungseinheit 2 detektiert wird, anstelle der synthetisierten Sprache.
  • Die Stimmausgabeeinheit 12 gibt die aus der Stimmausgabesteuerung 11 gelieferten Stimmdaten über einen Lautsprecher oder dergleichen aus.
  • Als Nächstes wird der Betrieb der Bord-Informationsvorrichtung der vorliegenden Ausführungsform 10 beschrieben. 23 ist ein Flussdiagramm, welches den Betrieb der Bord-Informationsvorrichtung der Ausführungsform 10 zeigt.
  • Bezüglich der Verarbeitung ab Schritt ST101 bis Schritt ST107, weil sie die gleiche wie die Verarbeitung von Schritt ST71 zu Schritt ST77 des Flussdiagramms von 10 in der Ausführungsform 7 ist, wird deren Beschreibung weggelassen. Dann, in der vorliegenden Ausführungsform 10, nachdem die Anzeigeeinheit 4 auf dem Fahrersitz in den Nicht-Anzeigemodus in Schritt ST107 platziert wird, liefert die Stimmausgabesteuerung 11 die Stimmdaten der Sprachinhalte, welche durch die Spracherkennungseinheit 2 erkannt werden, an die Stimmausgabeeinheit 12, um die Stimmdaten auszugeben (Schritt ST108).
  • Auf diese Weise stellt die vorliegende Ausführungsform 10 die Anzeigeeinheit am Fahrersitz während des Fahrens, wie in der Ausführungsform 7 in den Nicht-Anzeigemodus, und stellt dem Fahrer die Unterhaltungsinhalte über die Stimmausgabe als alternative Information bereit. Entsprechend kann der Fahrer die Unterhaltungsinhalte durch Stimme erkennen.
  • Wie oben beschrieben, gemäß der vorliegenden Ausführungsform 10, gibt sie das Spracherkennungsergebnis über die Stimmausgabeeinheit aus, wenn die Anzeigeeinheit am Fahrersitz im Nicht-Anzeigemodus während des Fahrens gehalten wird. Entsprechend, zusätzlich zu den Vorteilen der Ausführungsform 7, ermöglicht die vorliegende Ausführungsform 10 dem Fahrer, die Unterhaltungsinhalte durch Stimme selbst beim Fahren zu erkennen.
  • AUSFÜHRUNGSFORM 11
  • 24 ist ein Blockdiagramm, das eine Konfiguration einer Bord-Informationsvorrichtung einer Ausführungsform 11 gemäß der vorliegenden Erfindung zeigt. Übrigens werden dieselben Komponenten wie jene, die in den Ausführungsformen 1 bis 10 beschrieben sind, durch dieselben Bezugszeichen bezeichnet und ihre wiederholte Beschreibung wird weggelassen. Im Vergleich mit dem in, in Ausführungsform 6 beschriebenen 20 gezeigten Blockdiagramm umfasst die nachfolgende Ausführungsform 11 weiter eine Stimmausgabe-Reservierungs-Entscheidungseinheit 10, eine Stimmausgabesteuerung 11 und eine Stimmausgabeeinheit 12. Da sie die Anzeigeeinheit 4 am Fahrersitz zur Anzeige während des Fahrens abschaltet, stellt sie dem Fahrer Unterhaltungsinhalte über Stimmausgabe als alternative Information zur Verfügung. Übrigens, obwohl die vorliegende Ausführungsform 11 hier auf Basis der Ausführungsform 8 beschrieben wird, kann die Ausführungsform 9 eine ähnliche Konfiguration aufweisen, welche die Stimmausgabe-Reservierungs-Entscheidungseinheit 10, Stimmausgabesteuerung und Stimmausgabeeinheit umfasst.
  • Im Vergleich zur Ausführungsform 10 unterscheidet sich die vorliegende ausführungsform 11 nur darin, dass sie die Stimmausgabe-Reservierungs-Entscheidungseinheit 10 umfasst.
  • Die Stimmausgabe-Reservierungs-Entscheidungseinheit 10 entscheidet darüber, ob die aktuelle Situation die ist, die besondere Aufmerksamkeit erfordert, wie etwa das Vornehmen einer Rechts- oder Linksabbiegung oder einen Spurwechsel, anhand der Information aus der Lenkzustands-Erfassungseinheit 51, der Gangschalthebel-Betriebszustands-Erfassungseinheit 52, der Bremsbetriebszustands-Erfassungseinheit 53, der Richtungsindikator-Betriebszustands-Erfassungseinheit 54, der Beleuchtungszustands-Erfassungseinheit 55 und der Scheibenwischer-Betriebszustands-Erfassungseinheit 56, entscheidet über die Notwendigkeit für die Reservierung der Stimmausgabe und teilt dies der Stimmausgabesteuerung 11 mit.
  • Wenn die Anzeigeeinheit 4 am Fahrersitz in den Nicht-Anzeigemodus gesetzt wird, führt die Stimmausgabesteuerung 11 Sprachsynthese der durch die Spracherkennungseinheit 2 erkannten Sprachinhalte aus und liefert sie an die Stimmausgabeeinheit 12. Falls jedoch die Stimmausgabe-Reservierungs-Entscheidungseinheit 10 die Reservierung der Stimmausgabe mitteilt, stoppt sie die Ausgabe ohne Verzögerung. Falls die Reservierung entfernt ist, liefert sie die reservierten Stimmdaten wiederum ab oben. Zusätzlich, wenn die Reservierungszeit lang ist, kann sie die reservierten Stimmdaten verwerfen.
  • Übrigens, obwohl die vorliegende Ausführungsform 11 eine Konfiguration aufweist, welche die synthetisierte Rede ausgibt, ist auch eine Konfiguration möglich, welche den durch die Spracherkennungseinheit 2 detektierten stimmaktiven Abschnitt anstelle der synthetisierten Rede ausgibt.
  • Die Stimmausgabeeinheit 12 gibt die aus der Stimmausgabesteuerung 11 gelieferten Stimmdaten über einen Lautsprecher oder dergleichen aus.
  • Als Nächstes wird der Betrieb der Bord-Informationsvorrichtung der vorliegenden Ausführungsform 11 beschrieben. 25 ist ein Flussdiagramm, das den Betrieb der Bord-Informationsvorrichtung der Ausführungsform 11 zeigt.
  • Bezüglich der Verarbeitung ab Schritt ST111 bis Schritt ST117, das die gleiche ist wie die Verarbeitung von Schritt ST101 bis Schritt ST107 vom Flussdiagramm von 23 in der Ausführungsform 10, wird deren Beschreibung weggelassen. Dann entscheidet in der vorliegenden Ausführungsform 11, nachdem die Anzeigeeinheit 4 am Fahrersitz in Schritt ST111 in den Nicht-Anzeigemodus gesetzt wird, die Stimmausgabe-Reservierungs-Entscheidungseinheit 10 über die Notwendigkeit zur Reservierung der Schrittausgabe (Schritt ST118). Falls eine Entscheidung getroffen wird, dass die Reservierung der Stimmausgabe notwendig ist (JA in Schritt ST118), reserviert sie die an die Stimmausgabeeinheit zu liefernden Stimmdaten, bis die Reservierung der Stimmausgabe aufgehoben wird (NEIN in Schritt ST119).
  • Falls im Schritt ST118 eine Entscheidung getroffen wird, dass die Reservierung der Stimmausgabe unnötig ist (NEIN im Schritt ST118), oder die Reservierung der Stimmausgabe aufgehoben wird (JA in Schritt ST119), liefert die Stimmausgabesteuerung 11 die Stimmdaten der durch die Spracherkennungseinheit 2 erkannten Sprechinhalte an die Stimmausgabeeinheit 12, um die Stimmdaten auszugeben (Schritt ST120). Übrigens, falls die Reservierung während der Stimmausgabe gemacht wird und dann aufgehoben wird, gibt sie wieder die ab Anfang reservierten Stimmdaten aus.
  • Hier wird die Verarbeitung der Stimmausgabe-Reservierungs-Entscheidungseinheit 10, welche Entscheidung zur Notwendigkeit für die Reservierung der Stimmausgabe im Schritt ST118 macht, beschrieben. Wenn beispielsweise die Richtungsindikator-Betriebszustands-Erfassungseinheit 54 detektiert, dass der Richtungsindikator verwendet wird und wenn der Fahrzeug-Betriebszustands-Detektor 50 detektiert, dass der Betriebszustand des Fahrzeugs derjenige ist, eine Rechts- oder Linkswendung oder einen Spurwechsel vorzunehmen, entscheidet die Stimmausgabe-Reservierungs-Entscheidungseinheit 10, dass die Situation die ist, die besondere Aufmerksamkeit beim Fahren erfordert, aufgrund der Rechts- oder Linkswendung oder mit dem Spurwechsel, entscheidet, dass die Reservierung der Stimmausgabe notwendig ist, und teilt der Stimmausgabesteuerung 11 mit, dass „die Reservierung der Stimmausgabe notwendig ist”. Falls andererseits die Stimmausgabe-Reservierungs-Entscheidungseinheit 10 entscheidet, dass die Reservierung der Stimmausgabe unnötig ist, weil aus der, aus der Lenkzustands-Erfassungseinheit 51, der Gangschalthebel-Betriebszustands-Erfassungseinheit 52, der Bremsbetriebszustands-Erfassungseinheit 53, der Richtungsindikator-Betriebszustands-Erfassungseinheit 54, der Beleuchtungszustands-Erfassungseinheit 55 und der Scheibenwischer-Betriebszustands-Erfassungseinheit 56 gelieferten Information detektiert wird, dass keine von ihnen verwendet wird, teilt sie der Stimmausgabesteuerung 11 mit, dass „die Reservierung der Stimmausgabe unnötig ist”.
  • Auf diese Weise stellt die vorliegende Ausführungsform 11 die Anzeigeeinheit am Fahrersitz in den Nicht-Anzeigemodus ein, während des Fahrens, wie in der Ausführungsform 10, und stellt dem Fahrer die Unterhaltungsinhalte über die Stimmausgabe als alternative Information zur Verfügung. Entsprechend kann der Fahrer die Unterhaltungsinhalte durch Stimme erkennen. Zusätzlich detektiert sie, ob die Situation eine besondere Aufmerksamkeit beim Fahren erfordert, wie etwa das Vornehmen einer Rechts- oder Linkswendung oder einen Spurwechsel, und falls sie entscheidet, dass die Situation eine besondere Aufmerksamkeit beim Fahren erfordert, stoppt (reserviert) sie selbst die Stimmausgabe, wodurch der Fahrer in die Lage versetzt wird, sich auf das Fahren zu konzentrieren.
  • Wie oben beschrieben, gemäß der vorliegenden Ausführungsform 11, gibt sie das Spracherkennungsergebnis über die Stimmausgabeeinheit aus, während die Anzeigeeinheit am Fahrersitz im Nicht-Anzeigemodus während des Fahrens gehalten wird. Entsprechend, zusätzlich zu den Vorteilen der Ausführungsform 10, ermöglicht die vorliegende Ausführungsform 11 dem Fahrer, die Unterhaltungsinhalte durch Stimme selbst während des Fahrens zu erkennen. Zusätzlich, da sie das Bereitstellen der Stimme in einer Situation stoppt, welche eine besondere Aufmerksamkeit erfordert, wie etwa eine Rechts- oder Linksabbiegung oder einen Spurwechsel, kann sich der Fahrer weiter auf das Fahren konzentrieren.
  • AUSFÜHRUNGSFORM 12
  • 26 ist ein Blockdiagramm, das eine Konfiguration einer Bord-Informationsvorrichtung einer Ausführungsform 12 gemäß der vorliegenden Erfindung zeigt. Übrigens werden dieselben Komponenten wie jene, die in den Ausführungsformen 1 bis 11 beschrieben sind, durch dieselben Bezugszeichen bezeichnet und ihre wiederholte Beschreibung wird weggelassen. Verglichen mit der in 1, in Ausführungsform 1 beschriebenen Basiskonfiguration, umfasst die Ausführungsform 12 einen der Sätze von Erfassungseinheiten 31 bis 36, 41 bis 42, 51 bis 56 und 61 bis 72, die in Ausführungsform 5 bis 10 beschrieben sind, und den Fahrzeug-Umgebungszustands-Detektor 30, 40 oder 50 und umfasst weiter eine Schlüsselwort-Extraktionseinheit 13 und einen Unterhaltungsverlaufspeicher 14. Die vorliegende Ausführungsform 12 entscheidet über die Notwendigkeit zur Ausgabe aller oder eines Teils der Sprachinhalte aus dem durch den Fahrzeug-Umgebungszustands-Detektor 30, 40 oder 50 detektierten Fahrzeugzustand oder aus einem vorgegebenen Schlüsselwort, das durch die Schlüsselwort-Extraktionseinheit 13 extrahiert wird. Sie erzeugt die Anzeigedaten aller oder eines Teils der Sprachinhalte, an welchen die Entscheidung getroffen wird, dass die Ausgabe notwendig ist, oder entscheidet über das Timing eines Anzeigestarts oder Anzeigestopps oder ändert das Timing der Anzeige.
  • Die Schlüsselwort-Extraktionseinheit 13 extrahiert das Schlüsselwort, falls eine durch die Spracherkennungseinheit 2 erkannte Unterhaltungs-Zeichenkette ein vorgegebenes Schlüsselwort wie etwa „was?”, „Zeige die Unterhaltung in Untertiteln an” oder „Zeige die Unterhaltung nicht in Untertiteln an” oder „Die Untertitel sind hinderlich” enthält.
  • Der Unterhaltungsverlaufspeicher 14 dient dem Speichern aller Sprechinhalte, welche durch die Spracherkennungseinheit 2 erkannt sind. Falls die Anweisung aus der Anzeigesteuerung 3 die Unterhaltung direkt zuvor erfordert, liefert der Unterhaltungsverlaufspeicher 14 die Unterhaltung direkt vor den gespeicherten Unterhaltungsinhalten.
  • Die Anzeigesteuerung 3 liefert die durch die Spracherkennungseinheit 2 erkannten Sprechinhalte an die Anzeigeeinheit 4 als Präsentationsinhalte anhand der aus dem Satz der Erfassungseinheiten 31 bis 36, 41 bis 42, 51 bis 56 oder 61 bis 72 ermittelten Information. Beispielsweise führt durch Kombinieren der nachfolgenden Entscheidungen die Anzeigesteuerung 3 die Steuerung, wie etwa Umschaltanzeige oder Nichtanzeige der Unterhaltungsinhalte, Anzeigen der zu präsentierenden Unterhaltung direkt zuvor, wenn sie angezeigt wird, oder im Gegenteil präsentiert direkt nach der Unterhaltung, aus. Übrigens, ermittelt beim Präsentieren der Unterhaltung von direkt zuvor die Anzeigesteuerung 3 direkt zuvor aus dem Unterhaltungsverlaufspeicher 14 und zeigt sie an. Zusätzlich sind die nachfolgenden Entscheidungen a) bis h) nur ein Beispiel, aber es versteht sich, dass eine Kombination anderer Bedingungen anhand der aus dem Satz von Erfassungseinheiten 31 bis 36, 41 bis 42, 51 bis 56 oder 61 bis 62 erfassten Information verwendet werden können.
    • a) Falls die Fahrzeuggeschwindigkeit nicht kleiner als ein vorgegebener Schwellenwert ist, wird die Präsentation durchgeführt, aber wenn sie kleiner als der Schwellenwert ist, wird die Präsentation nicht gegeben.
    • b) Falls ein Fenster geöffnet ist, wird die Präsentation gegeben, aber falls es geschlossen ist, wird die Präsentation nicht gegeben.
    • c) Falls das Fahrzeug in einem Tunnel fährt, wird die Präsentation gegeben, aber falls es außerhalb des Tunnels ist, wird die Präsentation nicht gegeben.
    • d) Falls mitgeteilt wird, dass das Fahrzeug bald in einen Tunnel fährt, wird die Präsentation ab der Unterhaltung direkt davor gestartet.
    • e) Falls das eingegebene Stimmen-S/N-Verhältnis nicht größer als der Schwellenwert ist, wird die Präsentation gegeben, aber falls es größer als der Schwellenwert ist, wird die Präsentation gegeben.
    • f) Falls das Spracherkennungsergebnis ein Schlüsselwort wie „Was?” enthält, welches angibt, dass die Unterhaltung nicht aufgenommen werden kann, wird die Präsentation ab der Unterhaltung gerade vor dem Schlüsselwort gegeben.
    • g) Falls das Spracherkennungsergebnis ein Schlüsselwort wie etwa „Zeige die Unterhaltung mit Untertiteln an” enthält, was eine Anweisung zur Anzeige angibt, wird die Präsentation ab der Unterhaltung direkt vor dem Schlüsselwort gegeben.
    • h) Falls das Spracherkennungsergebnis ein Schlüsselwort wie etwa „Zeige die Unterhaltung nicht in Untertiteln an”, „Die Untertitel sind überdeckend” oder dergleichen enthält, welches eine Anweisung angibt, nicht anzuzeigen, wird die Präsentation der Unterhaltung nicht gegeben.
  • Als Nächstes wird der Betrieb der Bord-Informationsvorrichtung der vorliegenden Ausführungsform 12 beschrieben. 27 ist ein Flussdiagramm, das den Basisbetrieb der Bord-Informationsvorrichtung der Ausführungsform 12 zeigt.
  • Zuerst, falls irgendeine Spracheingabe stattfindet, erfasst die Stimmerfassungseinheit 1 die eingegebene Stimme und führt eine A/D-Umwandlung aus, um die Sprachdaten beispielsweise eines PCM-Formats zu erhalten (Schritt ST121). Als Nächstes erkennt die Spracherkennungseinheit 2 die durch die Stimmerfassungseinheit 1 erhaltenen Stimmdaten (Schritt ST122). Dann speichert die Spracherkennungseinheit 2 die Zeichenkette der Unterhaltung, die sie erkennt, im Unterhaltungsverlaufspeicher 14 als den Unterhaltungsverlauf, so dass sich die Fahrzeug-Umgebungszustands-Detektor 30 auf die danach erkannten Sprachinhalte beziehen kann (Schritt ST123).
  • Danach entscheidet die Anzeigesteuerung 3 darüber, ob die Anzeige der Unterhaltungsinhalte notwendig ist oder nicht, aus den Kombinationen der vorstehenden Entscheidungen a) bis h) (Schritt ST124). Falls die Anzeigesteuerung 3 entscheidet, dass die Präsentation der Unterhaltung notwendig ist (JA in Schritt ST124), und falls sie informiert wird, dass das Timing der Präsentation gerade nach der Erkennung ist (JA in Schritt ST125), kehrt sie zu Schritt ST121 zurück, um die Verarbeitung auszuführen.
  • Falls sie übrigens entscheidet, dass die Präsentation der Unterhaltung unnötig ist (NEIN in Schritt ST124), kehrt sie ebenfalls zu Schritt ST121 zurück.
  • Falls andererseits die Anzeigesteuerung 3 entscheidet, dass die Präsentation der Unterhaltung notwendig ist, und falls sie informiert wird, dass das Timing der Präsentation direkt vor der Erkennung ist (JA in Schritt ST126), erfasst die Anzeigesteuerung 3 die Unterhaltungsinhalte direkt von vor der in dem Unterhaltungsverlaufspeicher 14 gespeicherten Unterhaltungsverlauf, um die Anzeigedaten zu erzeugen, und liefert sie an die Anzeigeeinheit 4 (Schritt ST127), gefolgt von der Lieferung der aus den Zeichenketten der Sprache erzeugten Anzeigedaten (aktuelle Sprachinhalte), welche durch die Spracherkennungseinheit 2 erkannt sind, an die Anzeigeeinheit 4 zur Anzeige (Schritt ST128).
  • Zusätzlich, falls das Timing der Präsentation weder direkt vor noch direkt nach der Erkennung ist (NEIN im Schritt ST126), liefert die Anzeigesteuerung 3 die aus den Zeichenketten Unterhaltung, welche durch die Spracherkennungseinheit erkannt sind, erzeugten Anzeigedaten an die Anzeigeeinheit 4 zur Anzeige (Schritt ST128).
  • Auf diese Weise nimmt die vorliegende Ausführungsform 12 kontinuierlich die Unterhaltung im Fahrzeug auf und führt eine Spracherkennung aus, genau wie in Ausführungsform 1, und präsentiert die Unterhaltung. Nur sie entscheidet über die Notwendigkeit der Ausgabe aller oder eines Teils der Sprachinhalte anhand des durch den Fahrzeugzustands-Detektor detektierten Fahrzeugzustand oder dem vorgegebenen Schlüsselwort, das durch die Schlüsselwort-Extraktionseinheit extrahiert wird, erzeugt nur die Anzeigedaten aller oder eines Teils der Sprachinhalte, bezüglich welcher eine Entscheidung getroffen wird, dass die Ausgabe notwendig ist, und präsentiert die Unterhaltung nur wenn notwendig. Entsprechend, wenn die Anzeige der Unterhaltung unnötig ist, kann sie andere Inhalte anzeigen. Zusätzlich, bezüglich des Timings der Präsentation der Unterhaltung anhand des durch den Fahrzeugzustands-Detektor detektierten Fahrzeugzustands oder des durch die Schlüsselwort-Extraktionseinheit extrahierten vorgegebenen Schlüsselworts entscheidet sie über das Timing des Anzeigestarts oder Anzeigestopps, wie etwa gerade nach dem Einfahren in einen Tunnel, direkt vor dem Schlüsselwort, was angibt, dass die Unterhaltung nicht erfasst werden kann, und direkt nach dem Schlüsselwort, welches anweist, anzuzeigen, und führt Steuerung in einer solchen Weise durch, dass die Unterhaltung zu dem erforderlichen Timing präsentiert wird, oder nicht anzuzeigen, nach Detektieren des Schlüsselworts, welches anweist, nicht anzuzeigen.
  • Übrigens ist auch eine Konfiguration möglich, die, falls ein Schlüsselwort, das die Schlüsselwort-Extraktionseinheit 13 extrahiert, einen vorgegebenen Ausdruck enthält, die Anzeigedaten durch Umwandeln des vorgegebenen Ausdrucks in einen vorgegebenen anderen Ausdruck oder ein vorgegebenes Bild (oder die Stimmdaten durch Umwandeln des vorgegebenen Ausdrucks in einen vorgegebenen anderen Ausdruck oder vorgegebene Stimme, erzeugt, oder, falls eine vorgegebene Abkürzung oder ein Wort, das verwendet wird, um ein anderes Wort oder einen Dialekt zu ersetzen, enthalten ist, die Anzeigedaten (oder Sprachdaten) durch Umwandeln der vorgegebenen Abkürzung oder des Worts zum Ersetzen eines anderen Worts oder des Dialekts in einen vorgegebenen Standardausdruck erzeugt. Um konkret zu sein, ersetzt sie beispielsweise einen Markennamen durch ein Markenzeichen, einen emotionalen Ausdruck wie „Wir haben es geschafft” in ein Bildsymbol und gibt einen Toneffekt wie ein Händeklatschen bezüglich eines Schlüsselwortes wie etwa „Gratuliere” aus.
  • Dies ermöglicht ist, einen klar definierten Ausdruck für einen schwierig zu verstehenden Ausdruck zu präsentieren und damit die Unterhaltungsinhalte klarer zu bestätigen.
  • Wie oben beschrieben, gemäß der vorliegenden Ausführungsform 12, erfasst sie kontinuierlich die Unterhaltung im Fahrzeug und führt die Spracherkennung aus und präsentiert die Unterhaltung nur wenn nötig und zu einem Timing, das anhand des Fahrzeugzustands, der durch den Fahrzeugzustands-Detektor detektiert ist, oder dem vorgegebenen Schlüsselwort, das durch die Schlüsselwort-Extraktionseinheit extrahiert ist, erforderlichen Timing. Entsprechend ermöglicht sie das Bestätigen der Unterhaltungsinhalte, wenn die Notwendigkeit auftritt, und ermöglicht, falls nicht notwendig, das Anzeigen anderer Inhalte.
  • Die Bord-Informationsvorrichtung gemäß der vorliegenden Erfindung ist auf ein Bord-Navigationssystem, Bord-Audiosystem, Bord-Videosystem oder dergleichen anwendbar, das Stimm-Interaktion zwischen einem Passagier und dem System durchführen kann.
  • Übrigens versteht sich, dass eine freie Kombination der individuellen Ausführungsformen, Variationen jeglicher Komponenten der individuellen Ausführungsformen oder Entfernen jeglicher Komponenten der individuellen Ausführungsformen innerhalb des Schutzumfangs der vorliegenden Erfindung möglich ist.
  • INDUSTRIELLE ANWENDBARKEIT
  • Eine Bord-Informationsvorrichtung gemäß der vorliegenden Erfindung ist auf ein Bord-Navigationssystem, Bord-Audiosystem, Bord-Videosystem oder dergleichen anwendbar, welche Sprach-Interaktion zwischen einem Passagier und dem System durchführen können.
  • BESCHREIBUNG VON BEZUGSZEICHEN
    • 1 Stimmerfassungseinheit; 2 Spracherkennungseinheit; 3 Anzeigesteuerung; 4 Anzeigeeinheit; 5 Signalverarbeitungseinheit; 6 Sprachaktivabschnitt-Detektor; 7 Sprachdaten-Extraktionseinheit; 8 Sprachdatensequenz-Anordnungseinheit; 9 Erkennungswarte-Sprachdatenspeicher; 10 Stimmausgabe-Reservierungs-Entscheidungseinheit; 11 Stimmausgabesteuerung (Ausgabesteuerung); 12 Stimmausgabeeinheit (Ausgabeeinheit); 13 Schlüsselwort-Extraktionseinheit; 14 Unterhaltungsverlaufspeicher; 30 Fahrzeug-Umgebungszustands-Detektor; 31 Stimm-S/N-Erfassungseinheit; 32 Audiosystem-Betriebszustands-Erfassungseinheit; 33 Klimaanlagen-Betriebszustands-Erfassungseinheit; 34 Fahrzeuglärmzustands-Erfassungseinheit; 35 Fenster- oder Dachöffnungs-/Schließzustands-Erfassungseinheit; 36 Stimmmerkmalsinformations-Erfassungseinheit; 40 Sprachumgebungszustands-Detektor (Fahrzeugzustands-Detektor); 41 Zeit-Erfassungseinheit; 42 Wetterzustands-Erfassungseinheit; 50 Fahrzeug-Betriebszustands-Detektor (Fahrzeugzustands-Detektor); 51 Lenkzustands-Erfassungseinheit; 52 Gangschalthebel-Betriebszustands-Erfassungseinheit; 53 Bremsbetriebszustands-Erfassungseinheit; 54 Richtungsindikator-Betriebszustands-Erfassungseinheit; 55 Beleuchtungszustands-Erfassungseinheit; 56 Scheibenwischer-Betriebszustands-Erfassungseinheit; 61 Fahrzeugpositions-Erfassungseinheit; 62 Fahrzeuggeschwindigkeits-Signalerfassungseinheit; 63 Beschleunigungs-Erfassungseinheit; 64 Richtungs-Erfassungseinheit; 65 kontinuierliche Fahrzeit-Erfassungseinheit; 66 kontinuierliche Fahrdistanz-Erfassungseinheit; 67 Fahrwegtyp-Erfassungseinheit; 68 Fahrweg-Oberflächenzustands-Erfassungseinheit; 69 Fahrweg-Verstopfungszustands-Erfassungseinheit; 70 Fahrrouten-Einstellzustands-Erfassungseinheit; 71 Fahrrouten-Führungszustands-Erfassungseinheit; 72 Kartendatenspeicher.

Claims (18)

  1. Bord-Informationsvorrichtung, die in einem Fahrzeug montiert ist, um Information zum Unterstützen eines Passagiers bereitzustellen, wobei die Bord-Informationsvorrichtung umfasst: eine Spracherfassungseinheit, welche kontinuierlich Sprache, die der Passagier äußert, detektiert und erfasst, während die Bord-Informationsvorrichtung in Betrieb ist; eine Spracherkennungseinheit, welche Sprachinhalte der durch die Spracherfassungseinheit erfassten Stimme erkennt; einen Fahrzeugzustands-Detektor, der einen Fahrzeugzustand einschließlich eines Umgebungszustands im Fahrzeug, einen Umgebungszustand des Fahrzeugs oder einen Betriebszustand des Fahrzeugs detektiert; eine Ausgangssteuerung, welche Anzahl und Daten oder Stimmdaten aus den Sprachinhalten erzeugt, welche durch die Spracherkennungseinheit erkannt sind, gemäß dem durch den Fahrzeugzustands-Detektor detektierten Fahrzeugzustand, und die Ausgangssteuerung der Anzeigedaten oder Stimmdaten ausführt; und eine Ausgabeeinheit, welche die Anzeigedaten oder Stimmdaten ausgibt, welche durch die Ausgangssteuerung erzeugt werden.
  2. Bord-Informationsvorrichtung gemäß Anspruch 1, weiter umfassend: eine Schlüsselwort-Extraktionseinheit, die ein vorgegebenes Schlüsselwort aus den durch die Spracherkennungseinheit erkannten Sprachinhalten extrahiert; wobei die Ausgangssteuerung die Anzeigedaten oder Stimmdaten der Sprachinhalte gemäß dem durch den Fahrzeugzustands-Detektor detektierten Fahrzeugzustand und dem durch die Schlüsselwort-Extraktionseinheit extrahierten Schlüsselwort erzeugt, und Ausgangssteuerung der Anzeigedaten oder Stimmdaten ausführt.
  3. Bord-Informationsvorrichtung gemäß Anspruch 1, weiter umfassend: einen Unterhaltungsverlaufsspeicher, der die durch die Spracherkennungseinheit erkannten Sprachinhalte speichert, wobei die Ausgangssteuerung die Anzeigedaten oder Stimmdaten unter Verwendung der im Unterhaltungsverlaufsspeicher gespeicherten Sprachinhalte erzeugt.
  4. Bord-Informationsvorrichtung gemäß Anspruch 1, wobei der Fahrzeugzustands-Detektor als den Umgebungszustand in einem Fahrzeug einen lokalisierten Zustand des Passagiers, der Stimmerfassungseinheit und der Ausgabeeinheit detektiert.
  5. Bord-Informationsvorrichtung gemäß Anspruch 1, wobei der Fahrzeugzustands-Detektor als den Umgebungszustand im Fahrzeug das S/N-Verhältnis der Stimme, welche die Stimmerfassungseinheit erfasst, einen Betriebszustand eines Fahrzeug-Audiosystems oder einer Klimaanlage, einen Fahrzeuglärmzustand, oder einen Fenster- oder Dachöffnungs-/Schließ-Zustand detektiert.
  6. Bord-Informationsvorrichtung gemäß Anspruch 1, wobei der Fahrzeugzustands-Detektor als den Umgebungszustand im Fahrzeug einen emotionalen Zustand des Passagiers detektiert, der die Stimme äußert, durch Abschätzen aus Stimmmerkmals-Information einschließlich eines Typs, Lautstärke, Intervall, Tonqualität, Klang, Farbe, Tempo oder Frequenz-Charakteristik der Stimme, welche die Stimmerfassungseinheit erfasst.
  7. Bord-Informationsvorrichtung gemäß Anspruch 1, wobei der Fahrzeugzustands-Detektor als den Umgebungszustand des Fahrzeugs das aktuelle Datum, Zeit, Wochentag oder einen Wetterzustand in Fahrzeugumgebungen detektiert.
  8. Bord-Informationsvorrichtung gemäß Anspruch 1, wobei der Fahrzeugzustands-Detektor als den Betriebszustand des Fahrzeugs die Betriebszustände des Lenkens, Gangschalthebel, Bremsen, Richtungsindikatoren, Beleuchtung oder Scheibenwischer detektiert.
  9. Bord-Informationsvorrichtung gemäß Anspruch 1, wobei der Fahrzeugzustands-Detektor als den Betriebszustand des Fahrzeugs die aktuelle Position, Geschwindigkeit, Beschleunigung, Richtung, kontinuierliche Fahrdistanz, kontinuierliche Fahrzeit, Fahrwegtyp, Fahrweg-Oberflächenzustand, Fahrweg-Belegungszustand, Fahrrouten-Einstellzustand oder Fahrrouten-Führungszustand des Fahrzeugs detektiert.
  10. Bord-Informationsvorrichtung gemäß Anspruch 2, wobei die Ausgangssteuerung die Anzeigedaten oder Stimmdaten verschiedener Modi gemäß dem durch den Fahrzeugzustands-Detektor detektierten Fahrzeugzustand oder dem durch die Schlüsselwort-Extraktionseinheit extrahierten Schlüsselwort erzeugt.
  11. Bord-Informationsvorrichtung gemäß Anspruch 10, wobei die Anzeigedaten oder Stimmdaten der verschiedenen Modi aus Anzeigedaten bestehen, die sich in einem Typ von Anzeigezeichen oder Anzeigebildern, ihre Form, Größe, Farbe, Dichte, Helligkeit oder Layout der Anzeigenzeichen oder Anzeigenbilder auf einem Bildschirm unterscheiden, oder Stimmdaten, die sich in einem Typ der Stimme, ihrer Lautstärke, Intervall, Tonqualität, Tönung, Farbe, Tempo, akustisches Bild, Hall, Anzahl von Kanälen oder Frequenz-Charakteristika unterscheiden.
  12. Bord-Informationsvorrichtung gemäß Anspruch 2, wobei die Ausgangssteuerung die Notwendigkeit des Ausgebens aller oder eines Teils der Sprachinhalte gemäß dem durch den Fahrzeugzustands-Detektor detektierten Fahrzeugzustand oder dem durch die Schlüsselwort-Extraktionseinheit extrahierten Schlüsselwort entscheidet und die Anzeigedaten oder Stimmdaten aller oder eines Teils der Sprechinhalte erzeugt, oder nicht erzeugt.
  13. Bord-Informationsvorrichtung gemäß Anspruch 2, wobei die Ausgangssteuerung darüber entscheidet, ob das Schlüsselwort einen voll gegebenen Ausdruck enthält oder nicht, und, wenn entschieden wird, dass das Schlüsselwort den vorgegebenen Ausdruck enthält, die Anzeigedaten oder Stimmdaten erzeugt, indem sie den vorgegebenen Ausdruck in einen vorgegebenen anderen Ausdruck oder ein vorgegebenes Bild oder eine vorgegebene Stimme umwandelt.
  14. Bord-Informationsvorrichtung gemäß Anspruch 2, wobei die Ausgangssteuerung darüber entscheidet, ob das Schlüsselwort eine vorgegebene Abkürzung oder ein Wort, das zum Ersetzen eines anderen Worts oder eines Dialekts verwendet wird, enthält, und, wenn entschieden wird, dass das Schlüsselwort die vorgegebene Abkürzung oder das Wort enthält, das verwendet wird, um ein anderes Wort oder den Dialekt zu ersetzen, enthält, die Anzeigedaten oder Stimmdaten durch Umwandeln der vorgegebenen Abkürzung oder des Worts, das verwendet wird, um ein anderes Wort oder den Dialekt zu ersetzen, in einen vorgegebenen Standardausdruck erzeugt.
  15. Bord-Informationsvorrichtung gemäß Anspruch 2, wobei die Ausgangssteuerung das Timing eines Ausgangsstarts oder Ausgangsstopps der Anzeigedaten oder Stimmdaten gemäß dem Fahrzeugzustand entscheidet, der durch den Fahrzeugzustands-Detektor detektiert wird, oder dem durch die Schlüsselwort-Extraktionseinheit extrahierten Schlüsselwort, und die Ausgangseinheit so steuert, dass der Ausgangsstart oder Ausgangsstopp der Anzeigedaten oder Stimmdaten zum festgestellten Timing vorgenommen wird.
  16. Bord-Informationsvorrichtung gemäß Anspruch 1, wobei die Ausgangssteuerung, wenn eine Mehrzahl von Passagieren im Fahrzeug sind, die Anzeigedaten oder Stimmdaten mit einem Modus erzeugt, der Identifikation der Mehrzahl von Passagieren, die Äußerungen sprechen, ermöglicht.
  17. Bord-Informationsvorrichtung gemäß Anspruch 2, wobei die Ausgangssteuerung, wenn eine Mehrzahl von Ausgangseinheiten vorgesehen ist, die Ausgangseinheiten, welche die Anzeigedaten oder Stimmdaten in Übereinstimmung mit dem durch den Fahrzeugzustands-Detektor detektierten Fahrzeugzustand oder dem durch die Schlüsselwort-Extraktionseinheit extrahierten Schlüsselwort ausgibt oder nicht ausgibt.
  18. Bord-Informationsvorrichtung gemäß Anspruch 1, wobei die Bord-Informationsvorrichtung eine eines Bord-Navigationssystems, eines Bord-Audiosystems und eines Bord-Videosystems ist.
DE112012006617.0T 2012-06-25 2012-06-25 Bord-Informationsvorrichtung Active DE112012006617B4 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/004099 WO2014002128A1 (ja) 2012-06-25 2012-06-25 車載情報装置

Publications (2)

Publication Number Publication Date
DE112012006617T5 true DE112012006617T5 (de) 2015-04-09
DE112012006617B4 DE112012006617B4 (de) 2023-09-28

Family

ID=49782371

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112012006617.0T Active DE112012006617B4 (de) 2012-06-25 2012-06-25 Bord-Informationsvorrichtung

Country Status (5)

Country Link
US (1) US9305555B2 (de)
JP (1) JP5972372B2 (de)
CN (1) CN104412323B (de)
DE (1) DE112012006617B4 (de)
WO (1) WO2014002128A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015011023A1 (de) * 2015-08-22 2017-02-23 Audi Ag Fahrzeug-Datenschreiber
DE102022113817A1 (de) 2022-06-01 2023-12-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren und vorrichtung zum betreiben eines sprachsteuersystems eines automatisierten kraftfahrzeugs
DE102022125547A1 (de) 2022-10-04 2024-04-04 Cariad Se Kraftfahrzeug und Verfahren zum Zusammenfassen eines Gesprächs in einem Kraftfahrzeug

Families Citing this family (110)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US20120311585A1 (en) 2011-06-03 2012-12-06 Apple Inc. Organizing task items that represent tasks to perform
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9269351B2 (en) * 2012-07-03 2016-02-23 Mitsubishi Electric Corporation Voice recognition device
US10199051B2 (en) 2013-02-07 2019-02-05 Apple Inc. Voice trigger for a digital assistant
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US20140288939A1 (en) * 2013-03-20 2014-09-25 Navteq B.V. Method and apparatus for optimizing timing of audio commands based on recognized audio patterns
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
JP6413263B2 (ja) * 2014-03-06 2018-10-31 株式会社デンソー 報知装置
US9584236B2 (en) * 2014-05-16 2017-02-28 Alphonso Inc. Efficient apparatus and method for audio signature generation using motion
EP3480811A1 (de) 2014-05-30 2019-05-08 Apple Inc. Verfahren zur eingabe von mehreren befehlen mit einer einzigen äusserung
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
EP2949536B1 (de) * 2014-05-30 2016-10-05 Honda Research Institute Europe GmbH Verfahren zur Steuerung eines Fahrerassistenzsystems
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
KR102249392B1 (ko) * 2014-09-02 2021-05-07 현대모비스 주식회사 사용자 맞춤형 서비스를 위한 차량 기기 제어 장치 및 방법
JP6242773B2 (ja) * 2014-09-16 2017-12-06 株式会社東芝 会議情報蓄積装置、方法およびプログラム
US10546582B2 (en) * 2014-12-26 2020-01-28 Sony Corporation Information processing device, method of information processing, and program
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
CN106714026B (zh) * 2015-07-30 2019-06-21 惠州市德赛西威汽车电子股份有限公司 多输出音源的识别方法以及基于该方法的车载多音源系统
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
JP6227209B2 (ja) * 2015-09-09 2017-11-08 三菱電機株式会社 車載用音声認識装置および車載機器
WO2017061149A1 (ja) * 2015-10-08 2017-04-13 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
WO2017212569A1 (ja) * 2016-06-08 2017-12-14 三菱電機株式会社 車載情報処理装置、車載装置および車載情報処理方法
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
KR102405295B1 (ko) * 2016-08-29 2022-06-07 하만인터내셔날인더스트리스인코포레이티드 청취 공간에 대한 가상 현장들을 생성하기 위한 장치 및 방법
DE102016218270B4 (de) * 2016-09-22 2018-04-26 Audi Ag Verfahren zum Betreiben einer Kraftfahrzeug-Bedienvorrichtung mit Spracherkenner, Bedienvorrichtung und Kraftfahrzeug
US10950235B2 (en) * 2016-09-29 2021-03-16 Nec Corporation Information processing device, information processing method and program recording medium
WO2018061354A1 (ja) * 2016-09-30 2018-04-05 本田技研工業株式会社 情報提供装置、及び移動体
JP6918471B2 (ja) * 2016-11-24 2021-08-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 対話補助システムの制御方法、対話補助システム、及び、プログラム
US10593328B1 (en) * 2016-12-27 2020-03-17 Amazon Technologies, Inc. Voice control of remote device
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
CN110402584B (zh) 2017-03-17 2021-11-23 三菱电机株式会社 车内通话控制装置、车内通话系统以及车内通话控制方法
CN107230478A (zh) * 2017-05-03 2017-10-03 上海斐讯数据通信技术有限公司 一种语音信息处理方法及系统
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK201770411A1 (en) * 2017-05-15 2018-12-20 Apple Inc. MULTI-MODAL INTERFACES
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
DE102017213249A1 (de) * 2017-08-01 2019-02-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zum Erzeugen einer auditiven Meldung in einem Innenraum eines Fahrzeugs
US20190156834A1 (en) * 2017-11-22 2019-05-23 Toyota Motor Engineering & Manufacturing North America, Inc. Vehicle virtual assistance systems for taking notes during calls
CN109835280B (zh) * 2017-11-27 2022-07-15 比亚迪股份有限公司 一种通过语音识别显示车辆状态及驾驶行为的系统和车辆
KR102567188B1 (ko) 2017-12-20 2023-08-16 현대자동차주식회사 차량 및 그 제어 방법
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
JP7186375B2 (ja) * 2018-03-29 2022-12-09 パナソニックIpマネジメント株式会社 音声処理装置、音声処理方法および音声処理システム
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
KR20200042127A (ko) * 2018-10-15 2020-04-23 현대자동차주식회사 대화 시스템, 이를 포함하는 차량 및 대화 처리 방법
KR20200001188A (ko) * 2018-06-27 2020-01-06 현대자동차주식회사 대화 시스템, 그를 가지는 차량 및 차량의 제어 방법
KR20200004054A (ko) 2018-07-03 2020-01-13 현대자동차주식회사 대화 시스템 및 대화 처리 방법
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
JP6936772B2 (ja) * 2018-06-04 2021-09-22 株式会社ホンダアクセス 情報提供装置
JP7163625B2 (ja) * 2018-06-06 2022-11-01 日本電信電話株式会社 移動支援情報提示制御装置、方法およびプログラム
CN112313137A (zh) * 2018-06-19 2021-02-02 日产自动车株式会社 行驶信息处理装置和处理方法
EP3828883A4 (de) * 2018-07-24 2022-05-04 Faurecia Clarion Electronics Co., Ltd. Informationssammelvorrichtung und steuerverfahren
ES2966500T3 (es) * 2018-08-02 2024-04-22 Nippon Telegraph And Telephone Corp Sistema de ayuda a la conversación, método para el mismo, y programa
KR102109186B1 (ko) * 2018-08-24 2020-05-11 정우주 차량 탑승자 대화기반 컨텐츠 추천 방법 및 장치
WO2020065771A1 (ja) * 2018-09-26 2020-04-02 三菱電機株式会社 音声感情認識装置および音声感情認識方法
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
JP2020060830A (ja) * 2018-10-05 2020-04-16 本田技研工業株式会社 エージェント装置、エージェント提示方法、およびプログラム
JP7068986B2 (ja) * 2018-10-09 2022-05-17 本田技研工業株式会社 エージェントシステム、エージェント制御方法、およびプログラム
JP2020060696A (ja) * 2018-10-10 2020-04-16 本田技研工業株式会社 コミュニケーション支援システム、コミュニケーション支援方法、およびプログラム
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
CN109733293A (zh) * 2018-12-14 2019-05-10 江苏辰汉电子科技有限公司 一种支持语音识别的新型车载智能终端装置
JP2020154013A (ja) 2019-03-18 2020-09-24 株式会社Subaru 車両用注意喚起装置、車両用注意喚起方法及びプログラム
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
WO2021056255A1 (en) 2019-09-25 2021-04-01 Apple Inc. Text detection using global geometry estimators
CN111402868B (zh) * 2020-03-17 2023-10-24 阿波罗智联(北京)科技有限公司 语音识别方法、装置、电子设备及计算机可读存储介质
KR20210133600A (ko) * 2020-04-29 2021-11-08 현대자동차주식회사 차량 음성 인식 방법 및 장치
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11043220B1 (en) 2020-05-11 2021-06-22 Apple Inc. Digital assistant hardware abstraction
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
CN111816189B (zh) * 2020-07-03 2023-12-26 斑马网络技术有限公司 一种车辆用多音区语音交互方法及电子设备
CN114089943A (zh) 2020-07-17 2022-02-25 阿尔卑斯阿尔派株式会社 声音输出装置及声音输出方法
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
JP2022061873A (ja) * 2020-10-07 2022-04-19 トヨタ自動車株式会社 車両用エージェント装置、車両用エージェントシステム、及び車両用エージェントプログラム
US20220415321A1 (en) * 2021-06-25 2022-12-29 Samsung Electronics Co., Ltd. Electronic device mounted in vehicle, and method of operating the same

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8054203B2 (en) * 1995-06-07 2011-11-08 Automotive Technologies International, Inc. Apparatus and method for determining presence of objects in a vehicle
JP4002030B2 (ja) * 1999-06-11 2007-10-31 富士通テン株式会社 車載用情報提供装置及び音声認識装置
JP2001005487A (ja) 1999-06-18 2001-01-12 Mitsubishi Electric Corp 音声認識装置
EP2587481B1 (de) * 2002-10-23 2020-01-08 Nuance Communications, Inc. Steuerung einer Vorrichtung auf der Basis von Sprache
JP4533705B2 (ja) * 2003-09-01 2010-09-01 パナソニック株式会社 車載対話装置
JP4311190B2 (ja) * 2003-12-17 2009-08-12 株式会社デンソー 車載機器用インターフェース
JP2005309185A (ja) 2004-04-23 2005-11-04 Nissan Motor Co Ltd 音声入力装置、および音声入力方法
US8880047B2 (en) 2005-08-03 2014-11-04 Jeffrey C. Konicek Realtime, location-based cell phone enhancements, uses, and applications
US7949529B2 (en) 2005-08-29 2011-05-24 Voicebox Technologies, Inc. Mobile systems and methods of supporting natural language human-machine interactions
JP2007208828A (ja) * 2006-02-03 2007-08-16 Denso Corp 車両用音声入出力制御装置
WO2008004486A1 (fr) * 2006-07-06 2008-01-10 Panasonic Corporation Dispositif d'entrée vocale
JP2008042390A (ja) 2006-08-03 2008-02-21 National Univ Corp Shizuoka Univ 車内会話支援システム
JP2008242261A (ja) * 2007-03-28 2008-10-09 Denso Corp 音声認識装置
JP2008275987A (ja) 2007-05-01 2008-11-13 Yamaha Corp 音声認識装置および会議システム
US7881929B2 (en) * 2007-07-25 2011-02-01 General Motors Llc Ambient noise injection for use in speech recognition
US20090055180A1 (en) * 2007-08-23 2009-02-26 Coon Bradley S System and method for optimizing speech recognition in a vehicle
US8451108B2 (en) * 2007-10-12 2013-05-28 Mitsubishi Electric Corporation On-vehicle information providing device
US8351581B2 (en) 2008-12-19 2013-01-08 At&T Mobility Ii Llc Systems and methods for intelligent call transcription
JP2010156825A (ja) * 2008-12-26 2010-07-15 Fujitsu Ten Ltd 音声出力装置
JP5326843B2 (ja) 2009-06-11 2013-10-30 日産自動車株式会社 感情推定装置及び感情推定方法
JP2011170634A (ja) * 2010-02-18 2011-09-01 Nikon Corp 情報処理装置
US8428227B2 (en) 2010-05-18 2013-04-23 Certicall, Llc Certified communications system and method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015011023A1 (de) * 2015-08-22 2017-02-23 Audi Ag Fahrzeug-Datenschreiber
DE102015011023B4 (de) 2015-08-22 2022-01-05 Audi Ag Fahrzeug-Datenschreibervorrichtung, Fahrzeug und Verfahren zum Protokollieren eines Vorgangs in einem Fahrzeug
DE102022113817A1 (de) 2022-06-01 2023-12-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren und vorrichtung zum betreiben eines sprachsteuersystems eines automatisierten kraftfahrzeugs
DE102022125547A1 (de) 2022-10-04 2024-04-04 Cariad Se Kraftfahrzeug und Verfahren zum Zusammenfassen eines Gesprächs in einem Kraftfahrzeug

Also Published As

Publication number Publication date
US20150006167A1 (en) 2015-01-01
JPWO2014002128A1 (ja) 2016-05-26
WO2014002128A1 (ja) 2014-01-03
DE112012006617B4 (de) 2023-09-28
US9305555B2 (en) 2016-04-05
CN104412323B (zh) 2017-12-12
JP5972372B2 (ja) 2016-08-17
CN104412323A (zh) 2015-03-11

Similar Documents

Publication Publication Date Title
DE112012006617B4 (de) Bord-Informationsvorrichtung
DE112012006997B4 (de) Navigationsvorrichtung
DE112013006384T5 (de) Spracherkennungsvorrichtung und Anzeigeverfahren
DE112008003084B4 (de) Fahrzeugeigene Führungsvorrichtung
DE112016004391T5 (de) Dialogvorrichtung und Dialogverfahren
DE112011105614B4 (de) Navigationsvorrichtung
DE112012007103B4 (de) Spracherkennungsvorrichtung
DE102012013503A1 (de) Verfahren und Steuerungssystem zum Betreiben eines Kraftwagens
DE102018114529A1 (de) System und Verfahren zur selektiven Lautstärkeeinstellung in einem Fahrzeug
DE112013007521T5 (de) Server zur Navigation, Navigationssystem und Navigationsverfahren
DE112013007103T5 (de) Spracherkennungssystem, Erkennungsergebnis-Anzeigevorrichtung und Anzeigeverfahren
DE10008226C2 (de) Vorrichtung zur Sprachsteuerung und Verfahren zur Sprachsteuerung
EP2744105B1 (de) Einrichtung und Verfahren zur automatischen Anpassung der Lautstärke von Geräuschen in einem Fahrzeuginnenraum
DE112014000297T5 (de) Spracherkennungsvorrichtung und Anzeigeverfahren
DE112018003014T5 (de) Erfahrung-bereitstellungssystem, erfahrung-bereitstellungsverfahren und erfahrung-bereitstellungsprogramm
DE102018200133A1 (de) Unterhaltungssystem für ein Kraftfahrzeug und Verfahren zum Betreiben eines Unterhaltungssystems eines Kraftfahrzeugs
DE102015225135B4 (de) System und Verfahren zur Anpassung einer akustischen Ausgabe eines Navigationssystems
DE102012004601A1 (de) Fahrerassistenzsystem und Verfahren zum Anbieten und/oder Signalisieren von Informationen an einen Insassen eines Kraftfahrzeugs, sowie Kraftfahrzeug mit dem Fahrerassistenzsystem
DE112017008305T5 (de) Spracherkennungsvorrichtung, Spracherkennungssystem und Spracherkennungsverfahren
DE102021004970A1 (de) Verfahren und Vorrichtung zur individuellen Erzeugung von Sound-Signaturen eines Fahrzeuges
WO2003016110A2 (de) Verfahren zur unterstützung eines bedieners eines gerätes beim auffinden eines bedienelements
DE102009018468A1 (de) Verfahren zur selektiven Wiedergabe von Außengeräuschen und/oder wenigstens einer daraus abgeleiteten Information in einem schallgedämpften Innenraum eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
DE102004029985B4 (de) Verfahren und Vorrichtung zum Ausgeben eines Anfahrsignals
DE102016124888A1 (de) Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Einparken unter Verwendung einer Fahrerassistenzvorrichtung, entsprechendes Computerprogrammprodukt und Fahrerassistenzvorrichtung
EP3729423A1 (de) Verfahren zum betreiben einer schallausgabeeinrichtung eines kraftfahrzeugs, sprachanalyse- und steuereinrichtung, kraftfahrzeug, und kraftfahrzeugexterne servereinrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: HOFFMANN - EITLE PATENT- UND RECHTSANWAELTE PA, DE

R084 Declaration of willingness to licence
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G10L0015220000

Ipc: G10L0015260000

R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: HYUNDAI MOTOR COMPANY, KR

Free format text: FORMER OWNER: MITSUBISHI ELECTRIC CORPORATION, TOKYO, JP

Owner name: KIA CORPORATION, KR

Free format text: FORMER OWNER: MITSUBISHI ELECTRIC CORPORATION, TOKYO, JP

Owner name: HYUNDAI MOTOR CO., KR

Free format text: FORMER OWNER: MITSUBISHI ELECTRIC CORPORATION, TOKYO, JP

R081 Change of applicant/patentee

Owner name: KIA CORPORATION, KR

Free format text: FORMER OWNERS: HYUNDAI MOTOR CO., SEOUL, KR; KIA CORPORATION, SEOUL, KR

Owner name: HYUNDAI MOTOR COMPANY, KR

Free format text: FORMER OWNERS: HYUNDAI MOTOR CO., SEOUL, KR; KIA CORPORATION, SEOUL, KR

R085 Willingness to licence withdrawn
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G10L0015260000

Ipc: G10L0015220000

R018 Grant decision by examination section/examining division