DE102014202037A1 - System und Verfahren zum Arbitrieren von durch Mobilanwendungen gestreamten Audioquellen - Google Patents

System und Verfahren zum Arbitrieren von durch Mobilanwendungen gestreamten Audioquellen Download PDF

Info

Publication number
DE102014202037A1
DE102014202037A1 DE201410202037 DE102014202037A DE102014202037A1 DE 102014202037 A1 DE102014202037 A1 DE 102014202037A1 DE 201410202037 DE201410202037 DE 201410202037 DE 102014202037 A DE102014202037 A DE 102014202037A DE 102014202037 A1 DE102014202037 A1 DE 102014202037A1
Authority
DE
Germany
Prior art keywords
audio
vehicle
fcs
computing device
mobile computing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE201410202037
Other languages
English (en)
Inventor
Yiping Xia
Douglas VanDagens
Edward Andrew Pleet
Julius Marchwicki
Doron M. Elliott
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102014202037A1 publication Critical patent/DE102014202037A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/57Arrangements for indicating or recording the number of the calling subscriber at the called subscriber's set
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/81Detection of presence or absence of voice signals for discriminating voice from music
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G3/00Gain control in amplifiers or frequency changers
    • H03G3/20Automatic control
    • H03G3/30Automatic control in amplifiers having semiconductor devices
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G3/00Gain control in amplifiers or frequency changers
    • H03G3/20Automatic control
    • H03G3/30Automatic control in amplifiers having semiconductor devices
    • H03G3/3005Automatic control in amplifiers having semiconductor devices in amplifiers suitable for low-frequencies, e.g. audio amplifiers
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G3/00Gain control in amplifiers or frequency changers
    • H03G3/20Automatic control
    • H03G3/30Automatic control in amplifiers having semiconductor devices
    • H03G3/3089Control of digital or coded signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • H04M1/6033Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
    • H04M1/6041Portable telephones adapted for handsfree use
    • H04M1/6075Portable telephones adapted for handsfree use adapted for handsfree use in a vehicle
    • H04M1/6083Portable telephones adapted for handsfree use adapted for handsfree use in a vehicle by interfacing with the vehicle audio system
    • H04M1/6091Portable telephones adapted for handsfree use adapted for handsfree use in a vehicle by interfacing with the vehicle audio system including a wireless interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R27/00Public address systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/48Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for in-vehicle communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/02Details of telephonic subscriber devices including a Bluetooth interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/01Input selection or mixing for amplifiers or loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Quality & Reliability (AREA)
  • Telephonic Communication Services (AREA)
  • Telephone Function (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

Ein System zum Dämpfen eines Fahrzeug-Audios für Ansagen von Mobilanwendungen, wobei das System ein Fahrzeug-Computersystem mit einem oder mehreren Prozessoren zum Abspielen von Audio in dem Fahrzeug von mehreren verschiedenen Audioquellen umfasst. Das System enthält des Weiteren einen Drahtlostransceiver zum Übermitteln von Signalen von einem mobilen Computergerät zum Verarbeiten durch das Fahrzeug-Computersystem. Das Fahrzeug-Computersystem ist dafür konfiguriert, von dem mobilen Computergerät ein drahtloses Signal zu empfangen, das für eine Ansage steht, die in dem Fahrzeug abzuspielen ist. Wenn das Fahrzeug-Computersystem Audio in dem Fahrzeug zu einem Zeitpunkt abspielt, wo das drahtlose Signal von dem mobilen Computergerät empfangen wird, so wird ein Dämpfungsbetrag für das Audio auf der Grundlage der Audio-Quelle festgestellt. Das Audio wird auf der Grundlage der Feststellung gedämpft und die Ansage abgespielt.

Description

  • Die veranschaulichenden Ausführungsformen betreffen allgemein eine Vorrichtung und ein Verfahren zum Arbitrieren oder Mischen von durch ein Mobilgerät gestreamtem Audio.
  • Im Folgenden werden einige Unterhaltungssysteme des Standes der Technik beschrieben. Weitere Gerätenutzungen können anhand der folgenden Quellenangaben erhalten und beschrieben werden.
  • US-Patent Nr. 6,778,073 offenbart ein Fahrzeugaudiosystem, das einen drahtlosen Audio-Sensor enthält, der dafür konfiguriert ist, verschiedene portable Audioquellen, die in das Fahrzeug gebracht wurden, drahtlos zu detektieren. Audioausgabegeräte befinden sich in dem Fahrzeug, um Audiosignale von den verschiedenen Audioquellen auszugeben. Ein Prozessor verbindet selektiv die verschiedenen Audioquellen mit den verschiedenen Audioausgabegeräten. In einem weiteren Aspekt enthält das Audiosystem Objektsensoren, die Objekte detektieren, die sich außerhalb des Fahrzeugs befinden. Der Prozessor generiert Warnsignale, die je nachdem, wo die Objekte durch die Objektsensoren detektiert werden, von den verschiedenen Audioausgabegeräten ausgegeben werden.
  • US-Patentanmeldung Nr. 2011/0014871 offenbart ein Drahtloskommunikations-Endgerät, das eine Netzkommunikationseinheit, eine Kurzstrecken-Drahtloskommunikationseinheit, eine Eingabeeinheit und eine Steuereinheit umfasst. Die Netzkommunikationseinheit sendet über eine Basisstation Funksignale an das Kommunikationsnetz. Die Kurzstrecken-Drahtloskommunikationseinheit sendet Funksignale zu und von einem externen Gerät. Die Kurzstrecken-Drahtloskommunikationseinheit stellt eine Sprachverbindung zwischen dem Drahtloskommunikations-Endgerät und dem externen Gerät her, um Tondaten zu senden. Die Eingabeeinheit gibt eine Lautstärkeregelungsanweisung aus. Die Steuereinheit veranlasst die Kurzstrecken-Drahtloskommunikationseinheit, ein Signal auf der Grundlage der Lautstärkeregelungsanweisung zu senden, falls der Sprachkanal zwischen dem Drahtloskommunikations-Endgerät und dem externen Gerät hergestellt ist.
  • US-Patent Nr. 7,251,330 offenbart ein Inhaltswiedergabesystem zum Verbreiten von Inhalten, die sich im Besitz vieler Nutzer befinden, die jeweils einen Token von verschlüsseltem Inhalt inne haben, wobei das Inhaltswiedergabesystem eine Wiedergabeanforderungsvorrichtung enthält, die einen Token speichert und die die Wiedergabe des verschlüsselten Inhalts anfordert, sowie eine temporäre Wiedergabevorrichtung zum Ausführen der Wiedergabe des verschlüsselten Inhalts in Reaktion auf eine Wiedergabeanforderung des Inhalts enthält. Die temporäre Wiedergabevorrichtung sendet eine Tokensendeanforderung in einer Form, bei der ein Identifikator des Inhalts und eine digitale Signatur angefügt sind. Die Wiedergabeanforderungsvorrichtung sendet den Token nur dann an die temporäre Wiedergabevorrichtung zurück, wenn ein Authentifizierungsverfahren für die digitale Signatur erfolgreich ist.
  • Eine erste veranschaulichende Ausführungsform offenbart ein System zum Dämpfen eines Fahrzeug-Audios für Ansagen von Mobilanwendungen, wobei das System ein Fahrzeug-Computersystem umfasst, das einen oder mehrere Prozessoren zum Abspielen von Audio in dem Fahrzeug von mehreren verschiedenen Audioquellen aufweist. Das System enthält außerdem einen Drahtlostransceiver zum Übermitteln von Signalen von einem mobilen Computergerät zum Verarbeiten durch das Fahrzeug-Computersystem. Das Fahrzeug-Computersystem ist dafür konfiguriert, von dem mobilen Computergerät ein drahtloses Signal zu empfangen, das eine Ansage repräsentiert, die in dem Fahrzeug wiederzugeben ist, falls das Fahrzeug-Computersystem in dem Moment, wo das drahtlose Signal von dem mobilen Computergerät empfangen wird, in dem Fahrzeug Audio abspielt; eine Dämpfungsstärke für das Audio auf der Grundlage der Audioquelle zu bestimmen; und das Audio zu dämpfen und die Ansage wiederzugeben.
  • Eine zweite veranschaulichende Ausführungsform offenbart ein Verfahren zum Dämpfen einer Audioquelle in dem Fahrzeug zum Wiedergeben von Ansagen von Mobilanwendungen, wobei das Verfahren das Abspielen von Audio in dem Fahrzeug von einer von mehreren verschiedenen Audioquellen umfasst. Das Verfahren enthält des Weiteren folgende Schritte: Empfangen – in dem Fahrzeug, und von dem mobilen Computergerät – eines drahtlosen Signals, das eine Ansage repräsentiert, die in dem Fahrzeug abzuspielen ist; Bestimmen einer Dämpfungsstärke für die abspielende Audioquelle auf der Grundlage der Quelle des abspielenden Audios; und Dämpfen des abspielenden Audios und Wiedergeben der Ansage.
  • Eine dritte veranschaulichende Ausführungsform offenbart ein Fahrzeug-Computersystem, das einen Drahtlostransceiver, der mit einem Mobilgerät kommuniziert, und einen Prozessor umfasst, der dafür konfiguriert ist, Audio von einer von mehreren Audioquellen abzuspielen. Der Prozessor ist des Weiteren dafür konfiguriert, eine Instruktion zu empfangen, die von dem Mobilgerät auszugeben ist. Der Prozessor ist des Weiteren dafür konfiguriert, einen Dämpfungsbetrag für das abspielende Audio auf der Grundlage der Audioquelle zu bestimmen, das Audio zu dämpfen und die Instruktion abzuspielen.
  • 1 zeigt eine beispielhafte Blocktopologie für ein Fahrzeug-gestütztes Computersystem für ein Fahrzeug.
  • 2 zeigt einen beispielhaften Verwendungsfall eines Fahrzeug-gestützten Computersystems, das mittels eines Audio Video Remote Control-Profils (AVRCP) mit einem nomadischen Gerät oder einer Anwendung verbunden ist.
  • 3 zeigt einen beispielhaften Verwendungsfall eines Fahrzeug-gestützten Computersystems, das mittels eines Enhanced Synchronous Connection Oriented-Links(eSCO)-Verfahrens oder eines Synchronous Connection-Oriented Links(SCO)-Verfahrens mit einer Anwendung verbunden ist.
  • 4 zeigt ein beispielhaftes Flussdiagramm eines Audiomischungs- oder -arbitrierungs-Verwendungsfalls zwischen einem nomadischen Gerät und einem Fahrzeug-gestützten Computersystem.
  • Im vorliegenden Text werden detaillierte Ausführungsformen der vorliegenden Erfindung offenbart. Es versteht sich, dass die offenbarten Ausführungsformen die Erfindung, die in verschiedenen und alternativen Formen verkörpert sein kann, lediglich beispielhaft veranschaulichen. Die Figuren sind nicht unbedingt maßstabsgetreu. Einige Merkmale können überzeichnet oder minimiert dargestellt sein, um Details bestimmter Komponenten zu zeigen. Darum dürfen konkrete strukturelle und funktionale Details, die im vorliegenden Text offenbart sind, nicht in einem einschränkenden Sinn interpretiert werden.
  • Die Erfindung wird nun im Folgenden mit Bezug auf die begleitenden Zeichnungen, in denen Ausführungsformen der Erfindung gezeigt sind, ausführlicher beschrieben. Diese Erfindung kann jedoch in vielen verschiedenen Formen verkörpert sein und darf nicht so ausgelegt werden, als sei sie auf die im vorliegenden Text dargelegten Ausführungsformen beschränkt. Gleiche Zahlen bezeichnen überall gleiche Elemente. Im Sinne des vorliegenden Textes beinhaltet der Begriff „und/oder“ sämtliche Kombinationen eines oder mehrerer der zugehörigen angeführten Elemente.
  • Unsere Telefone, Tablet-Computer, MP3-Player usw. sind mit vielen neuen Merkmalen und Funktionen vollgepackt. Jedoch sind viele dieser Merkmale nicht unter Berücksichtigung einer Fahrzeugumgebung entwickelt worden. Die zunehmende Interoperabilität zwischen Mobilgeräten und dem Computersystem eines Fahrzeugs gestattet den Kunden eine nahtlose Mediennutzung unabhängig davon, ob sie sich in einer Fahrzeugumgebung befinden oder nicht. Ein veranschaulichendes Beispiel einer nahtlosen Mediennutzung durch einen Kunden ist es, wenn die Navigationsanwendung auf dem nomadischen Gerät eines Nutzers mit dem Computersystem eines Fahrzeugs interagieren kann. Anstatt Turn-by-Turn-Sprachaufforderungen und -Anweisungen über die Lautsprecher des Mobilgerätes ansagen zu lassen, könnte das Mobilgerät in der Lage sein, die Lautsprecher des Fahrzeugs zum Ausgeben von Anweisungen und Sprachaufforderungen zu nutzen. Dadurch kann auch die Situation vermieden werden, dass die Lautsprecher eines Fahrzeugs Audio über die Sprachaufforderungen oder Anweisungen eines Mobilgeräts legen, was dazu führen kann, dass der Fahrer ein wichtiges Manöver verpasst. Der Fahrer kann auch die Möglichkeit haben, die Sprachaufforderungen oder Anweisungen des Mobilgerätes ganz und gar zu ignorieren, wenn der Nutzer diese Anweisungen zu ignorieren wünscht, wie zum Beispiel während eines Telefonats.
  • 1 veranschaulicht eine beispielhafte Blocktopologie für ein Fahrzeug-gestütztes Computersystem 1 (FCS) für ein Fahrzeug 31. Ein Beispiel eines solchen Fahrzeug-basierten Computersystems 1 ist das von der FORD MOTOR COMPANY hergestellte SYNC-System. Ein mit einem Fahrzeug-basierten Computersystem ausgestattetes Fahrzeug kann eine in dem Fahrzeug befindliche visuelle Frontend-Schnittstelle 4 enthalten. Der Nutzer kann auch in der Lage sein, mit der Schnittstelle zu interagieren, falls sie vorhanden ist, zum Beispiel mit einem berührungsempfindlichen Bildschirm. In einer weiteren veranschaulichenden Ausführungsform erfolgt die Interaktion durch Tastendrücke, ein Sprachdialogsystem mit automatischer Spracherkennung und Sprachsynthese.
  • In der in 1 gezeigten veranschaulichenden Ausführungsform 1 steuert ein Prozessor 3 mindestens einen Teil des Betriebes des Fahrzeug-basierten Computersystems. Der in dem Fahrzeug befindliche Prozessor erlaubt eine bordeigene Verarbeitung von Befehlen und Routinen. Des Weiteren ist der Prozessor sowohl mit nicht-dauerhaftem Speicher 5 als auch mit dauerhaftem Speicher 7 verbunden. In dieser veranschaulichenden Ausführungsform ist der nicht-dauerhafte Speicher ein Direktzugriffsspeicher (RAM), und der dauerhafte Speicher ist ein Festplattenlaufwerk (HDD) oder ein Flash-Speicher.
  • Der Prozessor ist auch mit einer Reihe verschiedener Eingänge versehen, die dem Nutzer das Anbinden an den Prozessor erlauben. In dieser veranschaulichenden Ausführungsform sind ein Mikrofon 29, ein Zusatzeingang 25 (für Eingang 33), ein USB-Eingang 23, eine GPS-Eingang 24 und ein BLUETOOTH-Eingang 15 vorhanden. Ein Eingangswähler 51 ist ebenfalls vorhanden, um einem Nutzer die Auswahl zwischen verschiedenen Eingängen zu ermöglichen. Das Eingangssignal sowohl in das Mikrofon als auch in den Zusatzanschluss wird durch einen Wandler 27 von analog zu digital umgewandelt, bevor es an den Prozessor weitergeleitet wird. Obgleich nicht gezeigt, können diese und andere Komponenten über ein Fahrzeugmultiplex-Netz (wie zum Beispiel einen CAN-Bus) mit dem FCS kommunizieren, um Daten zu und von dem FCS (oder seinen Komponenten) weiterzuleiten.
  • Zu den Ausgabekomponenten des Systems können beispielsweise eine visuelle Anzeige 4 und ein Lautsprecher 13 oder ein Stereoanlagenausgang gehören. Der Lautsprecher ist mit einem Verstärker 11 verbunden und empfängt sein Signal über einen Digital-Analog-Wandler 9 von dem Prozessor 3. Das Ausgangssignal kann auch an ein räumlich abgesetztes BLUETOOTH-Gerät, wie zum Beispiel ein PND 54 oder ein USB-Gerät, wie zum Beispiel ein Fahrzeugnavigationsgerät 60, entlang den bidirektionalen Datenströmen ausgegeben werden, die bei 19 bzw. 21 gezeigt sind.
  • In einer veranschaulichenden Ausführungsform verwendet das System 1 den BLUETOOTH-Transceiver 15 zum Kommunizieren 17 mit einem nomadischen Gerät 53 eines Nutzers (zum Beispiel einem Mobiltelefon, Smartphone, PDA oder sonstigen Gerät mit drahtloser Netzfernkonnektivität). Das nomadische Gerät kann dann zum Kommunizieren 59 mit einem Netz 61 außerhalb des Fahrzeugs 31 beispielsweise über eine Kommunikation 55 mit einem Mobilfunkmast 57 verwendet werden. In einigen Ausführungsformen kann der Mast 57 ein WiFi-Zugangspunkt sein.
  • Eine beispielhafte Kommunikation zwischen dem nomadischen Gerät und dem BLUETOOTH-Transceiver wird durch das Signal 14 dargestellt. Das Paaren eines nomadischen Gerätes 53 und des BLUETOOTH-Transceivers 15 kann über eine Taste 52 oder eine ähnliche Eingabe angewiesen werden. Dementsprechend wird die CPU angewiesen, dass der bordeigene BLUETOOTH-Transceiver mit einem BLUETOOTH-Transceiver in einem nomadischen Gerät gepaart wird.
  • Daten können zwischen der CPU 3 und dem Netz 61 beispielsweise unter Verwendung eines Data-Plan, von Data over Voice oder von DTMF-Tönen, die dem nomadischen Gerät 53 zugeordnet sind, übermittelt werden. Alternativ kann es wünschenswert sein, ein bordeigenes Modem 63, das eine Antenne 18 aufweist, einzubinden, um Daten zwischen der CPU 3 und dem Netz 61 über das Sprachband zu übermitteln 16. Das nomadische Gerät 53 kann dann zum Kommunizieren 59 mit einem Netz 61 außerhalb des Fahrzeugs 31 beispielsweise über eine Kommunikation 55 mit einem Mobilfunkmast 57 verwendet werden. In einigen Ausführungsformen kann das Modem 63 eine Kommunikation 20 mit dem Mast 57 zum Kommunizieren mit dem Netz 61 herstellen. Als ein nicht-einschränkendes Beispiel kann das Modem 63 ein USB-Mobilfunkmodem sein, und die Kommunikation 20 kann eine Mobilfunkkommunikation sein.
  • In einer veranschaulichenden Ausführungsform ist der Prozessor mit einem Betriebssystem ausgestattet, das eine API zum Kommunizieren mit einer Modem-Anwendungssoftware enthält. Die Modem-Anwendungssoftware kann auf ein eingebettetes Modul oder Firmware in dem BLUETOOTH-Transceiver zugreifen, um eine Drahtloskommunikation mit einem räumlich abgesetzten BLUETOOTH-Transceiver (wie zum Beispiel einem, den man in einem nomadischen Gerät findet) aufzubauen. Bluetooth ist ein Teil der IEEE 802 PAN(Personal Area Network)-Protokolle. IEEE 802 LAN(Local Area Network)-Protokolle enthalten WiFi und haben sehr viele Querfunktionen mit IEEE 802 PAN. Beide eignen sich für eine Drahtloskommunikation in einem Fahrzeug. Ein weiteres Kommunikationsmittel, das auf diesem Gebiet verwendet werden kann, sind optische Kommunikation im freien Raum (wie zum Beispiel IrDA) und nicht-standardisierte Verbraucher-IR-Protokolle.
  • In einer weiteren Ausführungsform enthält das nomadische Gerät 53 ein Modem für eine Sprachband- oder Breitbanddatenkommunikation. In der Data-over-Voice-Ausführungsform kann eine als Frequenzmultiplexierung bekannte Technik implementiert werden, wobei der Eigentümer des nomadischen Gerätes über das Gerät sprechen kann, während gleichzeitig Daten übertragen werden. Zu anderen Zeiten, wenn der Eigentümer das Gerät nicht nutzt, kann die Datenübertragung die gesamte Bandbreite nutzen (in einem Beispiel 300 Hz bis 3,4 kHz). Während die Frequenzmultiplexierung für die analoge Mobilfunkkommunikation zwischen dem Fahrzeug und dem Internet üblich sein kann und immer noch verwendet wird, ist sie doch inzwischen größtenteils durch Hybride aus Code Domain Multiple Access (CDMA), Time Domain Multiple Access (TDMA) und Space-Domain Multiple Access (SDMA) für digitale Mobilfunkkommunikation ersetzt worden. Dies alles sind ITU IMT-2000 (3G)-kompatible Standards und bieten Datenraten von bis 2 Mbs für stillstehende oder laufende Nutzer und 385 kbs für Nutzer in einen fahrenden Fahrzeug. 3G-Standards werden nun durch IMT-Advanced (4G) ersetzt, das 100 Mbs für Nutzer in einem Fahrzeug und 1 Gbs für stillstehende Nutzer bietet. Falls der Nutzer einen zu dem nomadischen Gerät gehörenden Data-Plan hat, so ist es möglich, dass der Data-Plan eine Breitbandübertragung gestattet und dass das System eine viel größere Bandbreite nutzen könnte (Beschleunigung der Datenübertragung). In einer weiteren Ausführungsform wird das nomadische Gerät 53 durch ein
  • Mobilfunkkommunikationsgerät (nicht gezeigt) ersetzt, das in dem Fahrzeug 31 installiert ist. In einer weiteren Ausführungsform kann das NG 53 ein drahtloses Local Area Network(LAN)-Gerät sein, das für eine Kommunikation beispielsweise über ein 802.11g-Netz (d. h. WiFi) oder ein WiMax-Netz befähigt ist.
  • In einer Ausführungsform können ankommende Daten durch das nomadische Gerät über ein Data-over-Voice oder einen Data-Plan, durch den bordeigenen BLUETOOTH-Transceiver und in den internen Prozessor 3 des Fahrzeugs geleitet werden. Im Fall bestimmter temporärer Daten können die Daten beispielsweise auf der HDD oder einem anderen Speichermedium 7 gespeichert werden, bis die Daten nicht mehr gebraucht werden.
  • Zu zusätzlichen Quellen, die mit dem Fahrzeug verbunden werden können, gehören ein persönliches Navigationsgerät 54, das zum Beispiel einen USB-Anschluss 56 und/oder eine Antenne 58 aufweist, ein Fahrzeugnavigationsgerät 60 mit einem USB 62- oder sonstigen Anschluss, ein bordeigenes GPS-Gerät 24 oder ein (nicht gezeigtes) Fernnavigationssystem mit Anschlussfähigkeit zum Netz 61. USB ist eines aus einer Klasse von seriellen Vernetzungsprotokollen. IEEE 1394 (FireWireTM (Apple), i.LINKTM (Sony) und LynxTM (Texas Instruments)), serielle EIA(Electronics Industry Association)-Protokolle, IEEE 1284 (Centronics Port), S/PDIF (Sony/Philips Digital Interconnect Format) und USB-IF (USB Implementers Forum) bilden das Rückgrat der seriellen Gerät-Gerät-Standards. Die meisten der Protokolle können entweder für elektrische oder optische Kommunikation implementiert werden.
  • Des Weiteren könnte die CPU mit einer Vielzahl weiterer Zusatzgeräte 65 kommunizieren. Diese Geräte können über einen drahtlosen Anschluss 67 oder einen verdrahteten Anschluss 69 verbunden werden. Ein Zusatzgerät 65 kann beispielsweise ein persönlicher Mediaplayer, ein drahtloses Gesundheitsgerät, ein tragbarer Computer, ein nomadisches Gerät, ein Schlüsselanhänger und dergleichen enthalten.
  • Außerdem, oder alternativ, könnte die CPU beispielsweise mittels eines WiFi (IEEE 803.11) 71-Transceivers mit einem Fahrzeug-gestützten Drahtlosrouter 73 verbunden sein. Dies könnte es der CPU ermöglichen, sich mit Fernnetzen in Reichweite des lokalen Routers 73 zu verbinden.
  • In einer weiteren Ausführungsform kann die CPU mit einem Audiosteuermodul kommunizieren. Die CPU kann verschiedene Meldungen versenden, die an das Audiosteuermodul gerichtet sind und den benötigten Dämpfungsbetrag anzeigen.
  • Neben beispielhaften Prozessen, die durch ein in einem Fahrzeug befindliches Fahrzeug-Computersystem ausgeführt werden können, können in bestimmten Ausführungsformen die beispielhaften Prozesse durch ein Computersystem ausgeführt werden, das mit einem Fahrzeug-Computersystem kommuniziert. Ein solches System kann beispielsweise ein Drahtlosgerät (beispielsweise ein Mobiltelefon) oder ein räumlich abgesetztes Computersystem (beispielsweise einen Server), das über das Drahtlosgerät verbunden ist, enthalten. Solche Systeme können gemeinsam als Fahrzeug-zugehörige Computersysteme (Vehicle Associated Computing Systems, VACS). In bestimmten Ausführungsformen können bestimmte Komponenten des VACS je nach der konkreten Implementierung des Systems bestimmte Teile eines Prozesses ausführen. Wenn beispielsweise ein Prozess einen Schritt des Sendens oder Empfangens von Informationen mit einem gepaarten Drahtlosgerät enthält, dann ist es wahrscheinlich, dass das Drahtlosgerät den Prozess nicht ausführt, da das Drahtlosgerät keine Informationen mit sich selbst „senden und empfangen“ würde. Der Durchschnittsfachmann weiß, wann es unzweckmäßig ist, ein bestimmtes VACS auf eine bestimmte Lösung anzuwenden. In allen Lösungen wird in Betracht gezogen, dass wenigstens das in dem Fahrzeug selbst befindliche Fahrzeug-Computersystem (FCS) in der Lage ist, die beispielhaften Prozesse auszuführen.
  • 2 zeigt einen veranschaulichenden Verwendungsfall eines FCS, das mit einer Anwendung mittels eines Audio/Video Remote Control-Profils (AVRCP) verbunden ist. Das in 2 beschriebene Verfahren kann asynchrone Daten verwenden, die mittels Asynchronous Connection-Oriented Logical Transport(ACL)-Paketen über Bluetooths Logical Link Control and Adaptation Protocol(L2CAP)-Schicht abgebildet werden. Asynchrone Daten können Start- und Stoppbits verwenden, um das Anfangsbit und das Endbit zu bezeichnen. Asynchrone Daten können verwendet werden, wenn Daten gesendet werden. Dadurch kann ein Empfänger erkennen, wann das zweite Informationspaket gesendet wird. Die Anwendungsschicht des Bluetooth-Protokolls kann dafür genutzt werden, die Audio-Arbitrierung zu unterstützen.
  • Eine Kopfeinheit 201 oder ein Fahrzeug-Computersystem (FCS) 201 kann mit einem nomadischen Gerät 203 verbunden sein, das eine Anwendung, wie zum Beispiel eine Navigationsanwendung, nutzt. Nachdem die Verbindung hergestellt ist, können das nomadische Gerät und das FCS aus verschiedenen Gründen miteinander interagieren, wie zum Beispiel zum Streamen von Musik, Freisprechtelefonate, eine Navigationsanwendung usw. Es ist möglich, dass das nomadische Gerät und das FCS miteinander kommunizieren müssen, um das Anwendungs-Audio mit der momentan von dem FCS genutzten Audioquelle zu arbitrieren.
  • Das FCS kann die Audiozustandsbedingung 205 feststellen, die das FCS nutzt, um das Audio zu arbitrieren. Zu einigen nicht-einschränkenden Beispielen der Audiozustandsbedingung gehören ein Telefonat, MW, UKW, CD, Aux, USB, iPod, BT-Audio usw. Es ist auch möglich, dass der Audiozustand des FCS nicht existiert und dass gerade gar keine Audioquelle abspielt. Zum Beispiel kann das Radio des Fahrzeugs ausgeschaltet oder stummgeschaltet sein, und nichts wird über die Lautsprecher oder den Ausgang durch den Verstärker wiedergegeben. Die Audio-Arbitrierung kann entsprechend der Audioquelle in Abhängigkeit von der Ausführung des FCS unterschiedlich gehandhabt werden.
  • Das nomadische Gerät oder eine Anwendung kann eine Abspielstatusbenachrichtigung 207 an das FCS senden. Die Abspielstatusbenachrichtigung kann die Verwendung der Fahrzeuglautsprecher anfordern oder das Öffnen des Audio-Kanals anfordern. Das FCS kann dann das nomadische Gerät oder die Anwendung auffordern, die aktuellen Metadaten 209 über das Audio Video Remote Control-Profil (AVRCP) zu übermitteln. Das nomadische Gerät oder die Anwendung kann dann Daten oder Metadaten an das FCS unter Verwendung des AVRCP 211 senden. Vor dem Senden der Daten kann es sein, dass das nomadische Gerät die Daten in Metadaten umwandeln muss, um sie über das AVRCP weiterzuleiten. Zum Beispiel kann das nomadische Gerät verschiedene Inhalte in Metadaten umwandeln, wie zum Beispiel eine Wiedergabeliste, eine Tonspur, ein Titel, ein Albumcover usw. Die Metadaten können ein Kopffeld enthalten, das anzeigt, dass es sich um eine zertifizierte Anwendung handelt, die die Nutzung des FCS anfordert. Die Daten können auch andere Informationen für verschiedene Verwendungen enthalten, die durch das FCS 213 angezeigt werden sollen. Zum Beispiel können die Metadaten in einer nicht-einschränkenden Ausführungsform Turn-by-Turn(TBT)-Informationen enthalten, um ein bevorstehendes Manöver auf der Anzeige des Fahrzeugs anzuzeigen. Zum Beispiel können die TBT-Informationen Daten enthalten, die die Art der zu nehmenden Abbiegung, die Straße, in der abzubiegen ist, oder die Entfernung bis zur Abbiegung anzuzeigen, oder können Führungsankündigungsinformationen enthalten. In anderen veranschaulichenden Beispielen können Verkehrs- oder Wetterinformationen in den Metadaten enthalten sein, die durch das FCS angezeigt werden sollen.
  • Das FCS kann eine API verwenden, um entsprechend dem Bedingungszustand des Fahrzeugs genau festzustellen, wie das FCS die Daten verwenden sollte. In einem weiteren Beispiel kann das FCS eine Nachschlagetabelle verwenden, um genau festzustellen, welche Verkehrskarte für das momentane Szenario zu verwenden ist. In einem weiteren Szenario können das nomadische Gerät und das FCS eine kustomisierte Nachrichtengabe über AVRCP verwenden, um die übermittelten Daten zu verwenden. Je nach dem momentanen Audio-Modus des FCS und den momentanen Daten, die durch das nomadische Gerät gestreamt werden, können verschiedene Situationen eintreten, wie das Audio dem Nutzer präsentiert wird.
  • Bei Empfang des Inhalts der Daten kann das FCS die Daten oder Metadaten analysieren. Das FCS kann eine API, eine Nachschlagetabelle oder ein anderes ähnliches Software-Verfahren verwenden, um festzustellen, wie die Daten zu verwenden sind. Die Mensch-Maschine-Schnittstelle (HMI) des FCS kann dann bei Empfang der Daten verschiedene Informationen, wie zum Beispiel Turn-by-Turn-Informationen, anzeigen. In einem Beispiel kann das FCS Daten empfangen, die anzeigen, dass das nomadische Gerät anfordert, Turn-by-Turn-Anweisungen anzuzeigen. Das FCS kann eine API verwenden, um genau festzustellen, wie das FCS die Turn-by-Turn-Anweisungen auf dem momentanen HMI-Bildschirm, der vom Nutzer des Fahrzeugs verwendet wird, anzeigen sollte. In einem weiteren Beispiel kann das FCS Daten empfangen, die für eine Verkehrskarte stehen, die als ein Overlay des momentanen HMI-Bildschirms verwendet werden kann. Das FCS kann eine Nachschlagetabelle verwenden, um genau festzustellen, welche Verkehrskarte für das momentane Szenario zu verwenden ist. In einem weiteren Szenario können das nomadische Gerät und das FCS eine kustomisierte Nachrichtengabe über AVRCP verwenden, um die übermittelten Daten zu verwenden. Je nach der momentanen HMI-Anzeige des FCS und den momentanen Daten, die durch das nomadische Gerät gestreamt werden, können verschiedene Situationen eintreten, wie die Daten dem Nutzer präsentiert werden.
  • Die Metadaten können auch andere Informationen für verschiedene Verwendungen enthalten, die durch das FCS angezeigt werden sollen. Zum Beispiel können die Metadaten in einer nicht-einschränkenden veranschaulichenden Ausführungsform Turn-by-Turn(TBT)-Informationen enthalten, um ein bevorstehendes Manöver auf der Anzeige des Fahrzeugs anzuzeigen. Zum Beispiel können die TBT-Informationen Daten enthalten, die die Art der zu nehmenden Abbiegung, die Straße, in der abzubiegen ist, oder die Entfernung bis zur Abbiegung anzuzeigen, oder können Führungsankündigungsinformationen enthalten. In anderen veranschaulichenden Beispielen können Verkehrs- oder Wetterinformationen in den Metadaten enthalten sein, die durch das FCS angezeigt werden sollen.
  • Das FCS kann dann die Daten empfangen, die das Kopffeld und/oder die anderen Informationen, wie zum Beispiel TBT-Daten, enthalten können. Das FCS kann das Kopffeld analysieren, um festzustellen, dass es befugt ist, die Komponenten des FCS zu verwenden. Zum Beispiel kann das FCS die Verwendung einer Anwendung verweigern, falls das Kopffeld nicht der Erwartung des FCS entspricht. Falls das FCS das richtige Kopffeld empfängt, so können die Anwendung und das nomadische Gerät Daten zur Verwendung des FCS zulassen.
  • Nach der Verifizierung kann das FCS das Audio / Video Distribution Transport-Protokoll (AVDTP) verwenden, um das Streamen der Anforderung 215 zu beginnen. Das AVDTP kann Audio/Video-Stream-Negoziierungs-, -Herstellungs- und -Übertragungsverfahren definieren. Das AVDTP kann dafür verwendet werden, eine Punkt-zu-Punkt-Zeichengabe über einen verbindungsorientierten L2CAP-Kanal anzuwenden. Die AVDTP-Anforderung kann auf der Grundlage des Kopffeldes, das per AVRCP gesendet wird, akzeptiert werden 217. Falls die AVDTP-Informationen verifiziert wurden, so kann das FCS gestatten, dass Audio von dem nomadischen Gerät 219 wiedergegeben wird. Das nomadische Gerät und die Anwendung können die Audiodaten über das Advanced Audio Distribution-Profil (A2DP) an das FCS 221 senden. Zu einigen veranschaulichenden Beispielen von Audiodaten, die durch die Anwendung gestreamt werden können, gehören eine Anleitung für Manöver oder Verkehrsinformationen. Zum Beispiel kann das nomadische Gerät Audio streamen, das sagt: „In 100 Metern nach rechts in die Michigan Avenue abbiegen.“ In einem weiteren veranschaulichenden Beispiel kann das nomadische Gerät Audio streamen, das sagt: „Frei fließender Verkehr auf dem Southfield Freeway.“
  • 3 zeigt einen veranschaulichenden Verwendungsfall eines FCS 301, das mit einem nomadischen Gerät oder einer Anwendung 303 unter Verwendung eines Enhanced Synchronous Connection Oriented-Links(eSCO)-Verfahrens und eines Synchronous Connection-Oriented Links(SCO)-Verfahrens verbunden ist. SCO- und eSCO-Pakete verwenden kein L2CAP und können in der Bluetooth-Spezifikation separat behandelt werden. Darum werden die L2CAP-Parameter in Bluetooth nicht auf synchrone Daten angewendet. Die eSCO- oder SCO-Links können synchrone Daten verwenden, darum brauchen keine Start- und Stoppbits verwendet zu werden. Statt dessen kann ein kontinuierlicher Datenstrom zwischen zwei Knoten gesendet werden. Die Anwendungsschicht des Bluetooth-Protokolls kann zum Ermöglichen einer Audio-Arbitrierung verwendet werden.
  • Das nomadische Gerät kann Caller ID (Caller Identification, CID), auch als Calling Line Identification (CLID) bezeichnet, Calling Number Delivery (CND), Calling Number Identification (CNID) oder Calling Line Identification Presentation (CLIP) verwenden. Caller ID kann in analogen und digitalen Telefonsystemen zur Verfügung stehen. Caller ID kann auch in den meisten Voice over Internet Protocol(VoIP)-Anwendungen verfügbar sein, die die Nummer eines Anrufers an das Telefon des Angerufenen übermitteln, während das Klingelsignal oder wenn der Anruf aufgebaut wird, aber bevor der Anruf entgegengenommen wird. Falls verfügbar, kann die Caller ID auch einen Namen übermitteln, welcher der anrufenden Telefonnummer zugeordnet ist. Die Informationen, die dem Angerufenen zur Verfügung gestellt werden, können auf dem Anzeigefeld des Telefons oder auf einem separat angeschlossenen Gerät angezeigt werden oder können durch einen angeschlossenen Computer mit entsprechender Schnittstellen-Hardware verarbeitet werden.
  • Das nomadische Gerät kann eine CLIP mit einem Kopffeld 305 senden, das anzeigt, dass es für nicht-herkömmliche Bluetooth-Einstellungen verwendet werden kann. Das Kopffeld unterscheidet die CLIP von einem typischen Telefonat und kann es dem FCS gestatten, die CLIP zum Arbitrieren von Audio zu verwenden oder andere Informationen anzuzeigen. Das FCS kann die CLIP analysieren und anhand des Kopffeldes feststellen, dass Audio-Arbitrierung verwendet werden kann. Der Inhalt des Kopffeldes kann eine alphanumerische Zahl sein, die normalerweise nicht verwendet wird, um ein Mobiltelefon zu bedienen, wie zum Beispiel die Zahl „99999“ oder „9*#12“. Der Inhalt ist darum in der Regel ein alphanumerischer Satz, der nicht in der Lage ist, ein Telefonat auf einer Telefonleitung aufzubauen. Das nomadische Gerät oder die Anwendung kann dann eine Anforderung senden, um den eSCO/SCO-Link 307 zu öffnen. Das nomadische Gerät kann die Öffnungsanforderung senden, wenn Audiodaten, wie zum Beispiel Führungsinstruktionen oder anderen Daten, zur Verwendung mit dem FCS bereit sind.
  • Nach dem Empfang der CLIP mit dem Kopffeld und der Anforderung zum Öffnen des eSCO/SCO-Links kann das FCS die momentane Audioquelle analysieren, um festzustellen, ob das Eröffnen der Audio-Sitzung das richtige Vorgehen ist. Falls das FCS feststellt, dass das Eröffnen der Audio-Sitzung richtig ist, so kann das FCS der Anforderung stattgeben. Falls das FCS jedoch feststellt, dass die Audio-Sitzung nicht geöffnet werden sollte, so lehnt das FCS die Anforderung ab. In einem veranschaulichenden Beispiel kann die momentane Audioquelle ein Telefonat sein, wenn das FCS die CLIP mit dem Kopffeld empfängt. Das FCS kann feststellen, dass der Anforderung nicht stattgegeben werden soll, weil dem Telefonat Vorrang vor der Anwendung des nomadischen Gerätes eingeräumt wird. Darum kann das FCS die Anforderung zum Eröffnen ignorieren oder die Daten oder eine Nachricht an das nomadische Gerät zurücksenden, die anzeigen, dass der Anforderung zum Eröffnen nicht stattgegeben werden konnte. Falls das FCS jedoch feststellt, dass der Anforderung stattgegeben werden sollte, so initialisiert das FCS das Eröffnen der Audio-Sitzung zwischen dem nomadischen Gerät und dem FCS.
  • Nach dem Öffnen des eSCO/SCO-Links 307 ist die Audio-Sitzung zwischen dem FCS und dem nomadischen Gerät eröffnet 309. Durch Eröffnen der Audio-Sitzung kann es dem nomadischen Gerät gestattet werden, Audio zu dem FCS zu streamen. Das FCS kann AT-Befehle oder einen Hayes-Befehl verwenden, um eine Datenanforderung zu stellen. AT-Befehle oder ein Hayes-Befehlssatz können dafür verwendet werden, einem Modem, einem Telefon oder einem weiteren nomadischen Gerät die Ausführung bestimmter Befehle zu befehlen. Ein veranschaulichendes Beispiel eines Befehls, der verwendet werden kann, ist CLCC, bei dem es sich um eine Anforderung handelt, momentane Rufe aufzulisten. In einem veranschaulichenden Beispiel kann das FCS den CLCC-Befehl 313 auf der Grundlage der CLIP mit dem Kopffeld anfordern.
  • Nach dem Empfangen der Anforderung des CLCC von dem FCS kann das nomadische Gerät reagieren, indem es entweder den CLCC 313 ausgibt oder die Anforderung ignoriert. Das nomadische Gerät kann mit dem CLCC antworten, das Daten enthält, die für Informationen wie zum Beispiel Turn-by-Turn, Wetter, Verkehr usw. stehen. Das FCS kann die Daten nach dem Empfangen der CLCC mit den Daten analysieren. Das FCS kann die Daten für eine entsprechende Darstellung auf der HMI 317 transformieren.
  • Das nomadische Gerät oder die Anwendung kann auch das Audio 319 nach dem Eröffnen der Audio-Sitzung wiedergeben. Das nomadische Gerät oder die Anwendung kann beginnen, die Audiodaten 319 über den Bluetooth-Anschluss zu streamen. Das FCS kann dann das Audio 321 oder die Führungsinstruktionen oder sonstige akustische Informationen über die Fahrzeuglautsprecher wiedergeben. Die durch das FCS ausgeführte Audio-Arbitrierung kann das gestreamte Audio auch über spezielle Lautsprecher oder entsprechend einem Lautstärkepegel relativ zu der durch das FCS abgespielten momentanen Audioquelle wiedergeben.
  • Das nomadische Gerät kann eine Anforderung senden, den eSCO/SCO-Link zu schließen, wenn das Streamen von Audio durch die Anwendung vollendet ist. Das nomadische Gerät kann eine Nachricht an das FCS senden, um anzufordern, dass der Link beendet oder geschlossen wird 323. Das FCS kann die Notwendigkeit analysieren, den Link offen zu lassen. Falls das FCS feststellt, dass der Link nicht mehr zum Streamen von Audio benötigt wird, so gibt das FCS der Anforderung statt und schließt den eSCO/SCO-Link 325.
  • 4 ist ein veranschaulichendes Flussdiagramm einer Audiomischung oder -arbitrierung auf der Grundlage verschiedener Verwendungsfall-Szenarien. Das FCS kann mit einem nomadischen Gerät, auf dem eine Navigationsanwendung 401 abläuft, verbunden sein und kommunizieren. Das FCS kann mit dem nomadischen Gerät über eine Bluetooth-Verbindung oder einen sonstigen drahtlosen Anschluss kommunizieren. Das FCS kann dann auf Anforderungen oder Befehle achten, die von dem nomadischen Gerät gesendet wurden, und Anforderungen oder Befehle von dem nomadischen Gerät 403 empfangen. Nach dem Empfangen einer Anforderung von dem nomadischen Gerät kann das FCS feststellen, ob die Anforderung oder der Befehl standardmäßige Bluetooth-Funktionen nutzt 405. Falls die Anforderung oder der Befehl standardmäßige Bluetooth-Funktionen nutzt 407, so führt das FCS die Anforderung mit Bezug auf normale Logik, HMI und Fluss aus. Falls jedoch die Anforderung keine Anforderung ist, die dem Bluetooth-Protokoll entspricht, so analysiert das FCS die Anforderung, um festzustellen, ob die Anforderung oder der Befehl ein Kopffeld mitführt, um anzuzeigen, dass sie für eine bestimmte Anwendung spezifisch sind 409. Das Kopffeld kann mittels des AVRCP- oder eSCO/SCO-Verfahrens gesendet werden. Des Weiteren kann das Kopffeld AT-Befehle zum Steuern des Telefons enthalten. AT-Befehle oder ein Hayes-Befehlssatz können dafür verwendet werden, einen Modem oder Telefon zu befehlen, bestimmte Befehle auszuführen. Ein veranschaulichendes Beispiel eines Befehls, der verwendet werden kann, ist CLCC, was eine Anforderung zum Auflisten momentaner Rufe ist. Das FCS kann den Befehl 411 ignorieren, falls das Kopffeld nicht in dem Bluetooth-Befehl gefunden wird.
  • Gemäß dem Kopffeld stellt das FCS Informationen 413 über die AVRCP-Nachricht je nach dem Audiozustand oder der Bedingung des FCS 415 dar. Wenn zum Beispiel keine Audioquelle 417 in dem FCS verwendet wird, so kann das FCS die HMI-Formatvorlage nutzen, die zum Anzeigen von Informationen vorgesehen ist. Das FCS kann dann das von dem Telefon gestreamte Audio abspielen. Das Audio kann über die Fahrzeuglautsprecher abgespielt werden und bevorstehende Führungsanweisungen oder Manöver anzeigen. Das FCS braucht kein Audio zu arbitrieren, wenn momentan keine Audioquellen in Betrieb sind.
  • In einem weiteren veranschaulichenden Beispiel kann das FCS, wenn die momentane Audioquelle des FCS ein Telefonat oder ein iPod 421 ist, die Audio-Aufforderung ignorieren und die momentane Audioquelle als das Telefonat oder den iPod 423 belassen, um zu verhindern, dass das Gespräch des Nutzers unterbrochen wird. Das Telefonat kann von dem nomadischen Gerät oder von einem weiteren nomadischen Gerät oder Telefon in dem Fahrzeug stammen, das ebenfalls an das FCS angeschlossen ist. In einem weiteren Szenario kann das Gespräch des Telefonats stummgeschaltet werden, und die Navigationsführung kann über die Fahrzeuglautsprecher ausgegeben werden.
  • In einem weiteren Beispiel kann die momentane Audioquelle des FCS eine Nicht-Bluetooth-Audioquelle sein, wie zum Beispiel MW, UKW, CD, Aux, USB usw. 425. Es können auch andere fahrzeuginterne Audioquellen 425 zur Verfügung stehen (wie zum Beispiel ein MP3-Player oder ein Disk-Wechsler). Nach dem Empfang des AVRCP-Befehls mit dem Kopffeld kann das FCS die momentane Audioquelle dämpfen oder stummschalten 427, um es zu ermöglichen, das Audio oder die Führungsaufforderungen über die Fahrzeuglautsprecher abzuspielen. Des Weiteren kann es eine HMI-Formatvorlage verwenden, die dafür ausgelegt ist, Metadaten zu zeigen, um Turn-by-Turn-Informationen anzuzeigen, die in dem AVRCP-Befehl transportiert werden. Wenn sich zum Beispiel eine Rechtsabbiegung auf die Michigan AVE nähert, so kann die Audio-Aufforderung sagen: „Gleich biegen Sie rechts ab auf die Michigan Avenue“. Die gestaltete HMI-Formatvorlage kann ein Bild eines Rechtsabbiegepfeils mit einem Straßenschild der Michigan Avenue zeigen, um dem Nutzer das bevorstehende Manöver anzuzeigen. Audiodaten, Bilddaten, Textdaten usw. können allesamt von dem nomadischen Gerät gesendet werden, um in dem FCS genutzt zu werden.
  • In einem weiteren Beispiel kann die momentane Audioquelle des FCS eine Bluetooth-Audioquelle 429 sein, die von dem nomadischen Gerät streamt. Zum Beispiel kann das nomadische Gerät Audio von einem Telefon (zum Beispiel einem Smartphone, einem iPhone, einem Android-Telefon usw.) oder von einem digitalen Audio-Player (zum Beispiel iPod Touch usw.) des Nutzers streamen, während eine Navigationsanwendung auf dem nomadischen Gerät genutzt wird. Der Media-Player des nomadischen Gerätes kann Audio über Bluetooth-Audio streamen, um Audio-Inhalte auch außerhalb des nomadischen Gerätes zu verwenden. Das FCS und das nomadische Gerät können feststellen, ob das nomadische Gerät momentan Audio streamt 431. Nach der Feststellung, dass das FCS momentan Audio streamt, braucht das FCS nicht zu versuchen, das Audio zu arbitrieren, und kann dem nomadischen Gerät die Arbitrierung überlassen 435. Falls das Telefon kein Audio über Bluetooth streamt, kann das FCS die Informationen (zum Beispiel Turn-by-Turn-Informationen), die in dem AVRCP-Befehl transportiert werden, anzeigen und/oder das Audio 433 über das A2DP (Advanced Audio Distribution-Profil) streamen. Wenn zum Beispiel die momentane Audioquelle Bluetooth ist, aber das nomadische Gerät nicht streamt, weil es auf Pause oder Stopp gestellt ist, so kann das FCS das ankommende Audio streamen.
  • Die im vorliegenden Text offenbarten Prozesse, Verfahren oder Algorithmen können an einen Verarbeitungsbaustein, einen Controller oder einen Computer übermittelt und/oder darin implementiert werden. Dazu kann jede existierende programmierbare elektronische Steuereinheit oder dedizierte elektronische Steuereinheit gehören. Gleichermaßen können die Prozesse, Verfahren oder Algorithmen als Daten und Instruktionen gespeichert werden, die durch einen Controller oder Computer in vielen Formen ausgeführt werden können, wie beispielsweise Informationen, die dauerhaft auf einem nicht-beschreibbaren Speichermedium gespeichert sind, wie zum Beispiel ROM-Medien, und Informationen, die änderbar auf beschreibbaren Speichermedien gespeichert sind, wie zum Beispiel Floppy-Disks, Magnetbänder, CDs, RAM-Medien und andere magnetische und optische Medien. Die Prozesse, Verfahren oder Algorithmen können auch in einem durch Software ausführbaren Objekt implementiert werden. Alternativ können die Prozesse, Verfahren oder Algorithmen ganz oder teilweise unter Verwendung geeigneter Hardware-Komponenten verkörpert werden, wie zum Beispiel anwendungsspezifische integrierte Schaltkreise (ASICs), feldprogrammierbare Gate-Arrays (FPGAs), Zustandsautomaten, Controller oder andere Hardware-Komponenten oder Geräte oder eine Kombination aus Hardware-, Software- und Firmware-Komponenten.
  • Obgleich oben beispielhafte Ausführungsformen beschrieben wurden, ist es nicht beabsichtigt, dass diese Ausführungsformen alle möglichen Formen beschreiben, die unter die Ansprüche fallen. Die in der Spezifikation verwendeten Wörter dienen der Beschreibung und nicht der Einschränkung, und es versteht sich, dass verschiedene Änderungen daran vorgenommen werden können, ohne den Geist und Geltungsbereich der Offenbarung zu verlassen. Wie zuvor beschrieben, können die Merkmale verschiedener Ausführungsformen zu weiteren Ausführungsformen der Erfindung kombiniert werden, die möglicherweise nicht ausdrücklich beschrieben oder veranschaulicht wurden. Obgleich verschiedene Ausführungsformen so beschrieben worden sein können, dass sie in Bezug auf eine oder mehrere erwünschte Eigenschaften Vorteile realisieren oder gegenüber anderen Ausführungsformen oder Implementierungen des Standes der Technik bevorzugt sind, erkennt der Durchschnittsfachmann, dass ein oder mehrere Merkmale oder Eigenschaften zurückgenommen werden können, um erwünschte Gesamtsystemattribute zu erreichen, die von der konkreten Anwendung und Implementierung abhängen. Zu diesen Attributen können beispielsweise folgende gehören: Kosten, Festigkeit, Langlebigkeit, Lebenszykluskosten, Marktfähigkeit, Erscheinungsbild, Verpackung, Größe, Wartungsfreundlichkeit, Gewicht, Herstellbarkeit, Einfachheit der Montage usw. Das heißt, Ausführungsformen, die mit Bezug auf eine oder mehrere Eigenschaften als weniger wünschenswert als andere Ausführungsformen oder Implementierungen des Standes der Technik beschrieben wurden, liegen darum nicht außerhalb des Geltungsbereichs der Offenbarung und können für bestimmte Anwendungen durchaus wünschenswert sein.
  • Bezugszeichenliste
  • Fig. 1
  • 61
    Netz
    4
    Anzeige
    51
    Eingangswähler
    52
    BT-Paar
    53
    NG
    11
    Verstärker
    71
    Drahtlosmodul
    7
    Festplatte (HDD)
    6
    Datenbus
    67
    Zusatzgerät
    58
    Persönliches Navigationsgerät
    60
    Fahrzeugnavigationsgerät
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 6778073 [0003]
    • US 2011/0014871 [0004]
    • US 7251330 [0005]
  • Zitierte Nicht-Patentliteratur
    • IEEE 802 [0023]
    • IEEE 802 [0023]
    • IEEE 802 [0023]
    • IEEE 1394 [0027]
    • IEEE 1284 [0027]
    • IEEE 803.11 [0029]

Claims (20)

  1. System zum Dämpfen eines Fahrzeug-Audios für Ansagen von Mobilanwendungen, wobei das System Folgendes umfasst: ein Fahrzeug-Computersystem mit einem oder mehreren Prozessoren zum Abspielen von Audio in dem Fahrzeug von mehreren verschiedenen Audioquellen; und einen Drahtlostransceiver zum Übermitteln von Signalen von einem mobilen Computergerät zum Verarbeiten durch das Fahrzeug-Computersystem; wobei das Fahrzeug-Computersystem für Folgendes konfiguriert ist: Empfangen eines drahtlosen Signals von dem mobilen Computergerät, das für eine Ansage steht, die in dem Fahrzeug abzuspielen ist; wenn das Fahrzeug-Computersystem zu dem Zeitpunkt Audio in dem Fahrzeug abspielt, an dem das drahtlose Signal von dem mobilen Computergerät empfangen wird, Feststellen eines Dämpfungsbetrages für das Audio auf der Grundlage der Audio-Quelle; und Dämpfen des Audios und Abspielen der Ansage.
  2. System nach Anspruch 1, wobei der Dämpfungsbetrag für das Audio null ist.
  3. System nach Anspruch 1, wobei das Fahrzeug-Computersystem des Weiteren dafür konfiguriert ist, eine Anruferidentifizierung von dem mobilen Computergerät zu empfangen, welche die Mobilanwendung identifiziert.
  4. System nach Anspruch 3, wobei die Anruferidentifizierung eine Anruferleitungsidentifizierungsdarstellung enthält.
  5. System nach Anspruch 3, wobei die Anruferidentifizierung eine alphanumerische Nummer enthält, die nicht in der Lage ist, ein durchführbares Telefonat an eine Telefonleitung zu realisieren.
  6. System nach Anspruch 1, wobei das drahtlose Signal von dem mobilen Computergerät einen AT-Befehl enthält.
  7. System nach Anspruch 6, wobei der AT-Befehl ein Befehl zum Auflisten eines momentanen Anrufs ist.
  8. System nach Anspruch 1, wobei das Fahrzeug-Computersystem des Weiteren dafür konfiguriert ist, eine Audio Video Remote Control-Profil-Nachricht zu empfangen, die anzeigt, dass das Mobilgerät die Ausgabe einer Ansage anfordert.
  9. System nach Anspruch 1, wobei das drahtlose Signal von dem mobilen Computergerät unter Verwendung eines Enhanced Synchronous Connection Oriented-Links empfangen wird.
  10. System nach Anspruch 1, wobei das drahtlose Signal von dem mobilen Computergerät unter Verwendung eines Synchronous Connection Oriented-Links empfangen wird.
  11. System nach Anspruch 1, wobei das Fahrzeug-Computersystem des Weiteren dafür konfiguriert ist, die Ansage zu ignorieren, wenn die Audio-Quelle ein Telefonat ist.
  12. System nach Anspruch 1, wobei der Dämpfungsbetrag größer als null ist, wenn die Audio-Quelle entweder MW, UKW, CD oder USB ist.
  13. Verfahren zum Dämpfen einer Audioquelle in einem Fahrzeug zum Wiedergeben von Ansagen von Mobilanwendungen, wobei das Verfahren Folgendes umfasst: Abspielen von Audio in dem Fahrzeug von einer von mehreren verschiedenen Audioquellen; Empfangen eines drahtlosen Signals in dem Fahrzeug von dem mobilen Computergerät, das für eine Ansage steht, die in dem Fahrzeug abzuspielen ist; Feststellen eines Dämpfungsbetrages für das Abspielen der Audioquelle auf der Grundlage der Quelle des abspielenden Audios; und Dämpfen des abspielenden Audios und Abspielen der Ansage.
  14. Verfahren nach Anspruch 13, wobei der Dämpfungsbetrag null ist.
  15. Verfahren nach Anspruch 13, wobei das Empfangen des drahtlosen Signals von dem mobilen Computergerät unter Verwendung eines Enhanced Synchronous Connection Oriented-Links erfolgt.
  16. Verfahren nach Anspruch 13, wobei das Empfangen des drahtlosen Signals von dem mobilen Computergerät über einen Synchronous Connection Oriented-Link ausgeführt wird.
  17. Verfahren nach Anspruch 13, wobei das Verfahren des Weiteren den Schritt des Empfangens einer Anruferidentifizierung von dem mobilen Computergerät enthält, welche die Mobilanwendung identifiziert.
  18. Verfahren nach Anspruch 17, wobei die Anruferidentifizierung eine Anruferleitungsidentifizierungsdarstellung enthält.
  19. Verfahren nach Anspruch 13, wobei das Verfahren des Weiteren den Schritt des Beendens der Dämpfung des abspielenden Audios enthält, nachdem die Ansage abgespielt wurde.
  20. Fahrzeug-Computersystem (FCS), das Folgendes umfasst: einen Drahtlostransceiver, der mit einem Mobilgerät kommuniziert; und einen Prozessor, der für Folgendes konfiguriert ist: Abspielen von Audio von einer von mehreren Audioquellen; Empfangen einer Instruktion, die von dem Mobilgerät auszugeben ist; Feststellen eines Dämpfungsbetrages für das Abspielen von Audio auf der Grundlage der Audioquelle; Dämpfen des Audios und Abspielen der Anweisung.
DE201410202037 2013-02-07 2014-02-05 System und Verfahren zum Arbitrieren von durch Mobilanwendungen gestreamten Audioquellen Pending DE102014202037A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/761,486 US9146899B2 (en) 2013-02-07 2013-02-07 System and method of arbitrating audio source streamed by mobile applications
US13/761,486 2013-02-07

Publications (1)

Publication Number Publication Date
DE102014202037A1 true DE102014202037A1 (de) 2014-08-07

Family

ID=51206273

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201410202037 Pending DE102014202037A1 (de) 2013-02-07 2014-02-05 System und Verfahren zum Arbitrieren von durch Mobilanwendungen gestreamten Audioquellen

Country Status (4)

Country Link
US (2) US9146899B2 (de)
CN (1) CN103986490B (de)
DE (1) DE102014202037A1 (de)
RU (1) RU2627127C2 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6319722B2 (ja) * 2014-02-19 2018-05-09 アルプス電気株式会社 ハンズフリー機器
KR101543163B1 (ko) * 2014-05-09 2015-08-07 현대자동차주식회사 블루투스 연결 제어 방법
US11166167B2 (en) * 2014-06-18 2021-11-02 Texas Instruments Incorporated Audio stream identification by a wireless network controller
GB2557132B (en) * 2015-08-24 2021-06-23 Ford Global Tech Llc Dynamic acoustic model for vehicle
KR101788188B1 (ko) * 2016-01-05 2017-10-19 현대자동차주식회사 스마트 기기의 음향 출력을 고려한 차량의 음향 모드 변경 방법 및 그를 위한 장치
CN106354471A (zh) * 2016-09-29 2017-01-25 北京小米移动软件有限公司 音频播放控制方法、装置及电子设备
US20180222384A1 (en) * 2017-02-08 2018-08-09 Ford Global Technologies, Llc Audio of external speakers of vehicles based on ignition switch positions

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6778073B2 (en) 2001-06-26 2004-08-17 Medius, Inc. Method and apparatus for managing audio devices
US7251330B2 (en) 2000-02-23 2007-07-31 Sony Corporation Content playback system, content playback method, content playback requesting apparatus, and temporary playback apparatus
US20110014871A1 (en) 2009-07-17 2011-01-20 Kabushiki Kaisha Toshiba Wireless communication terminal and sound volume control method

Family Cites Families (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6418324B1 (en) 1995-06-01 2002-07-09 Padcom, Incorporated Apparatus and method for transparent wireless communication between a remote device and host system
US6233468B1 (en) 1999-04-09 2001-05-15 E. Lead Electronic Co., Ltd. Hand-free system capable of preventing a vehicle's automatic antenna from random operation
US6564056B1 (en) 1999-08-03 2003-05-13 Avaya Technology Corp. Intelligent device controller
US6526335B1 (en) 2000-01-24 2003-02-25 G. Victor Treyz Automobile personal computer systems
EP1132796A1 (de) 2000-03-08 2001-09-12 Universite Catholique De Louvain Mobiler Kode und Verfahren zur Betriebsmittelverwaltung für mobilen Kode
US6944679B2 (en) 2000-12-22 2005-09-13 Microsoft Corp. Context-aware systems and methods, location-aware systems and methods, context-aware vehicles and methods of operating the same, and location-aware vehicles and methods of operating the same
US20020098853A1 (en) 2001-01-22 2002-07-25 General Motors Corporation Method and system for providing vehicle-directed services
US8086287B2 (en) 2001-01-24 2011-12-27 Alcatel Lucent System and method for switching between audio sources
US6970940B1 (en) 2001-03-16 2005-11-29 3Com Corporation System and method for distributing a single multicast multi-program audio stream over a network
US7207041B2 (en) 2001-06-28 2007-04-17 Tranzeo Wireless Technologies, Inc. Open platform architecture for shared resource access management
US7801941B2 (en) 2001-07-09 2010-09-21 Palm, Inc. Apparatus and method for exchanging data between two devices
JP4728537B2 (ja) 2001-09-14 2011-07-20 株式会社ホンダアクセス ブルートゥース通信システム
US7026957B2 (en) 2001-10-01 2006-04-11 Advanced Public Safety, Inc. Apparatus for communicating with a vehicle during remote vehicle operations, program product, and associated methods
US20030147534A1 (en) 2002-02-06 2003-08-07 Ablay Sewim F. Method and apparatus for in-vehicle device authentication and secure data delivery in a distributed vehicle network
JP3716801B2 (ja) 2002-02-27 2005-11-16 ヤマハ株式会社 自動車位置通信システム及び携帯通信装置
US7142678B2 (en) * 2002-11-26 2006-11-28 Microsoft Corporation Dynamic volume control
US20040203660A1 (en) 2002-12-09 2004-10-14 Sanjay Tibrewal Method of assisting a user placed on-hold
US20040137925A1 (en) 2003-01-09 2004-07-15 Jason Lowe Preselection of resources in a personal area network
JP2006521724A (ja) 2003-01-28 2006-09-21 セルポート システムズ インコーポレイテッド セキュア・テレマティクス
EP1473913B1 (de) 2003-04-29 2007-08-08 Sony Ericsson Mobile Communications AB Benutzerschnittstelleneinheit für einen Telefonapparat
US20060156315A1 (en) 2003-05-27 2006-07-13 Wood Larry J Method, computer-readable medium and apparatus for providing a graphical user interface in a client-server environment
US20040260438A1 (en) 2003-06-17 2004-12-23 Chernetsky Victor V. Synchronous voice user interface/graphical user interface
US7827047B2 (en) 2003-06-24 2010-11-02 At&T Intellectual Property I, L.P. Methods and systems for assisting scheduling with automation
SE0303122D0 (sv) 2003-11-20 2003-11-20 Volvo Technology Corp Method and system for communication and/or interaction between a vehicle driver and a plurality of applications
US20050177635A1 (en) 2003-12-18 2005-08-11 Roland Schmidt System and method for allocating server resources
US20070132572A1 (en) 2004-02-20 2007-06-14 Sharp Kabushiki Kaisha Instrument panel image display device, instrument panel image changing method, vehicle, server, instrument panel image changing system, instrument panel image display program, computer-readable storage medium storing instrument panel image display program
US7266435B2 (en) 2004-05-14 2007-09-04 General Motors Corporation Wireless operation of a vehicle telematics device
US7945934B2 (en) 2004-06-15 2011-05-17 Panasonic Avionics Corporation Portable media device and method for presenting viewing content during travel
US8024743B2 (en) 2004-12-30 2011-09-20 Sap Ag Connection of clients for management of systems
DK1891848T3 (en) 2005-06-13 2015-10-19 Intelligent Mechatronic Sys VEHICLE SIMMERSIVE COMMUNICATION SYSTEM
US20060287821A1 (en) 2005-06-15 2006-12-21 William Lin Computer rearview mirror
US7552009B2 (en) 2005-07-14 2009-06-23 Honda Motor Co., Ltd. System and method for synchronizing data for use in a navigation system
US8245270B2 (en) 2005-09-01 2012-08-14 Microsoft Corporation Resource based dynamic security authorization
US7505784B2 (en) 2005-09-26 2009-03-17 Barbera Melvin A Safety features for portable electronic device
US8270933B2 (en) 2005-09-26 2012-09-18 Zoomsafer, Inc. Safety features for portable electronic device
US20070140187A1 (en) 2005-12-15 2007-06-21 Rokusek Daniel S System and method for handling simultaneous interaction of multiple wireless devices in a vehicle
RU2008139883A (ru) * 2006-03-08 2010-04-20 Томтом Интернэшнл Б.В. (Nl) Устройство передачи данных с опосредованным распределением команды
KR100800716B1 (ko) 2006-05-10 2008-02-01 삼성전자주식회사 근거리 통신을 이용한 동영상 데이터 송수신 장치 및 그송수신 장치에서의 동영상 데이터 송수신 방법
US7783699B2 (en) 2006-06-19 2010-08-24 Ford Motor Company User interface system for a vehicle
US7386393B2 (en) 2006-09-21 2008-06-10 Bayerische Motoren Werke Aktiengesellschaft System and method for automatically providing vehicle navigation information
US8738368B2 (en) * 2006-09-21 2014-05-27 GM Global Technology Operations LLC Speech processing responsive to a determined active communication zone in a vehicle
EP2084629A1 (de) 2006-11-14 2009-08-05 Johnson Controls Technology Company System und verfahren zur synchronisierung eines steuersystems an bord eines fahrzeuges mit einer fernsteuerungsquelle
JP4622991B2 (ja) * 2006-11-15 2011-02-02 株式会社デンソー カーオーディオシステムの音量制御装置
US7765046B2 (en) * 2006-12-28 2010-07-27 Fujitsu Ten Limited In-vehicle electronic apparatus and in-vehicle electronic system
CN101013595A (zh) * 2007-01-19 2007-08-08 华为技术有限公司 一种媒体播放器及媒体播放方法
US20080195305A1 (en) * 2007-02-13 2008-08-14 Magnus Jendbro System and method for broadcasting navigation prompts
WO2008143870A1 (en) 2007-05-14 2008-11-27 Kopin Corporation Mobile wireless display for accessing data from a host and method for controlling
EP2153580A4 (de) 2007-06-05 2011-05-18 Lane Systems Inc E Medienaustauschsystem
CA2700122A1 (en) 2007-09-18 2009-03-26 Xm Satellite Radio, Inc. Remote vehicle infotainment apparatus and interface
US20090106036A1 (en) 2007-10-22 2009-04-23 Kazuya Tamura Method and system for making automated appointments
US8150474B2 (en) 2008-04-04 2012-04-03 Denso Corporation In-vehicle handsfree apparatus
WO2009152614A1 (en) 2008-06-19 2009-12-23 E-Lane Systems Inc. Communication system with voice mail access and call by spelling functionality
WO2010040390A1 (en) 2008-10-07 2010-04-15 Tomtom International B.V. Validating map data corrections
US8352575B2 (en) 2008-10-14 2013-01-08 Samaha Tareq A System and method for a server-based files and tasks brokerage
US20100098853A1 (en) 2008-10-22 2010-04-22 Applied Materials, Inc. Arrangement for vaporizing materials and method for coating substrates
WO2010105210A2 (en) 2009-03-12 2010-09-16 Comsys Communication & Signal Processing Ltd. Vehicle integrated communications system
US8254837B2 (en) 2009-04-23 2012-08-28 Motorola Mobility Llc Establishing full-duplex audio over an asynchronous bluetooth link
US8554831B2 (en) 2009-06-02 2013-10-08 Ford Global Technologies, Llc System and method for executing hands-free operation of an electronic calendar application within a vehicle
US9307065B2 (en) 2009-10-09 2016-04-05 Panasonic Intellectual Property Management Co., Ltd. Method and apparatus for processing E-mail and outgoing calls
US8315617B2 (en) 2009-10-31 2012-11-20 Btpatent Llc Controlling mobile device functions
US8224300B2 (en) 2009-12-11 2012-07-17 Alpine Electronics, Inc. Method and apparatus to enhance navigation user experience for a smart phone device
US8750525B2 (en) * 2010-01-28 2014-06-10 Harris Corporation Method to maximize loudspeaker sound pressure level with a high peak to average power ratio audio source
US8346310B2 (en) 2010-02-05 2013-01-01 Ford Global Technologies, Llc Method and apparatus for communication between a vehicle based computing system and a remote application
US9094436B2 (en) 2010-05-27 2015-07-28 Ford Global Technologies, Llc Methods and systems for interfacing with a vehicle computing system over multiple data transport channels
US8473575B2 (en) 2010-08-26 2013-06-25 Ford Global Technologies, Llc Methods and apparatus for remote activation of an application
US10163273B2 (en) 2010-09-28 2018-12-25 Ford Global Technologies, Llc Method and system for operating mobile applications in a vehicle
US8762151B2 (en) * 2011-06-16 2014-06-24 General Motors Llc Speech recognition for premature enunciation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7251330B2 (en) 2000-02-23 2007-07-31 Sony Corporation Content playback system, content playback method, content playback requesting apparatus, and temporary playback apparatus
US6778073B2 (en) 2001-06-26 2004-08-17 Medius, Inc. Method and apparatus for managing audio devices
US20110014871A1 (en) 2009-07-17 2011-01-20 Kabushiki Kaisha Toshiba Wireless communication terminal and sound volume control method

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
IEEE 1284
IEEE 1394
IEEE 802
IEEE 803.11

Also Published As

Publication number Publication date
US20140221033A1 (en) 2014-08-07
RU2627127C2 (ru) 2017-08-03
US9146899B2 (en) 2015-09-29
US20150373175A1 (en) 2015-12-24
RU2014104295A (ru) 2015-08-20
CN103986490A (zh) 2014-08-13
CN103986490B (zh) 2018-03-27
US9531855B2 (en) 2016-12-27

Similar Documents

Publication Publication Date Title
DE102014202037A1 (de) System und Verfahren zum Arbitrieren von durch Mobilanwendungen gestreamten Audioquellen
DE102015108727B4 (de) Verfahren zum Priorisieren und Leiten von Audiosignalen zwischen Verbraucherelektronikgeräten
DE112015003889B4 (de) Systeme und Verfahren für das Verwalten von Betriebsarten eines elektronischen Geräts
DE102016118848A1 (de) Fahrzeugbasiertes Teilen von Inhalt
RU2589311C2 (ru) Способ и система для эксплуатации мобильных приложений в транспортном средстве
US8346310B2 (en) Method and apparatus for communication between a vehicle based computing system and a remote application
DE102014209992A1 (de) Anlage und System zum Interagieren mit einer Einrichtung in einem Fahrzeug und einem Fahrzeug
US9538339B2 (en) Method and system of outputting in a vehicle data streamed by mobile applications
DE102016119723A1 (de) Aktivierung und sperrung der synchronisation von datenschutzeinstellungen
DE102011075064A1 (de) Verfahren und System zum Implementieren und Durchsetzen von Sicherheits- und Betriebsmittelrichtlinien für ein Fahrzeug
DE102017101438A1 (de) Verfahren und Einrichtung zum sicheren Verarbeiten von Kraftstofflieferanforderungen
DE102014204747A1 (de) System und verfahren zum bestimmen des insassenorts unter verwendung verbundener vorrichtungen
DE102015120902A1 (de) Fernerlaubnissteuerung und -überwachung von Fahrzeuganwendungen
CN104608710B (zh) 用于车辆无线电台隐私模式控制的方法和设备
DE102016224306A1 (de) Verfahren und systeme zur interaktiven passagierbenachrichtigung
TWI480191B (zh) 車載資通訊系統及相關行動裝置與方法
DE102015104094A1 (de) Telematik mit variabler Berichtsfrequenz
CN102932516B (zh) 在基于车辆的计算系统和远程应用之间通信的设备
DE112010002363T5 (de) Verfahren und system zur ausführung einer internet-funkanwendung in einem fahrzeug
CN104813688A (zh) 司机与司机通信系统、车辆及其方法
DE102019105287A1 (de) Verfahren und vorrichtung für fahrzeugkommunikation
DE102016121140A1 (de) Verfahren und Vorrichtung zur drahtlosen näherungsbasierten Bereitstellung von Komponenteninformationen
DE102015113631A1 (de) Verfahren und Vorrichtung zur Infotainmentsteuerung über ein betriebssystemunabhängiges Protokoll für eine drahtlose Vorrichtung
DE102015104632A1 (de) Aufrüstungen fahrzeuginterner telematik
US20190230206A1 (en) Extending mobile-to-vehicle apis to the cloud

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: LORENZ SEIDLER GOSSEL RECHTSANWAELTE PATENTANW, DE

R084 Declaration of willingness to licence