-
Die veranschaulichenden Ausführungsformen betreffen allgemein eine Vorrichtung und ein Verfahren zum Arbitrieren oder Mischen von durch ein Mobilgerät gestreamtem Audio.
-
Im Folgenden werden einige Unterhaltungssysteme des Standes der Technik beschrieben. Weitere Gerätenutzungen können anhand der folgenden Quellenangaben erhalten und beschrieben werden.
-
US-Patent Nr. 6,778,073 offenbart ein Fahrzeugaudiosystem, das einen drahtlosen Audio-Sensor enthält, der dafür konfiguriert ist, verschiedene portable Audioquellen, die in das Fahrzeug gebracht wurden, drahtlos zu detektieren. Audioausgabegeräte befinden sich in dem Fahrzeug, um Audiosignale von den verschiedenen Audioquellen auszugeben. Ein Prozessor verbindet selektiv die verschiedenen Audioquellen mit den verschiedenen Audioausgabegeräten. In einem weiteren Aspekt enthält das Audiosystem Objektsensoren, die Objekte detektieren, die sich außerhalb des Fahrzeugs befinden. Der Prozessor generiert Warnsignale, die je nachdem, wo die Objekte durch die Objektsensoren detektiert werden, von den verschiedenen Audioausgabegeräten ausgegeben werden.
-
US-Patentanmeldung Nr. 2011/0014871 offenbart ein Drahtloskommunikations-Endgerät, das eine Netzkommunikationseinheit, eine Kurzstrecken-Drahtloskommunikationseinheit, eine Eingabeeinheit und eine Steuereinheit umfasst. Die Netzkommunikationseinheit sendet über eine Basisstation Funksignale an das Kommunikationsnetz. Die Kurzstrecken-Drahtloskommunikationseinheit sendet Funksignale zu und von einem externen Gerät. Die Kurzstrecken-Drahtloskommunikationseinheit stellt eine Sprachverbindung zwischen dem Drahtloskommunikations-Endgerät und dem externen Gerät her, um Tondaten zu senden. Die Eingabeeinheit gibt eine Lautstärkeregelungsanweisung aus. Die Steuereinheit veranlasst die Kurzstrecken-Drahtloskommunikationseinheit, ein Signal auf der Grundlage der Lautstärkeregelungsanweisung zu senden, falls der Sprachkanal zwischen dem Drahtloskommunikations-Endgerät und dem externen Gerät hergestellt ist.
-
US-Patent Nr. 7,251,330 offenbart ein Inhaltswiedergabesystem zum Verbreiten von Inhalten, die sich im Besitz vieler Nutzer befinden, die jeweils einen Token von verschlüsseltem Inhalt inne haben, wobei das Inhaltswiedergabesystem eine Wiedergabeanforderungsvorrichtung enthält, die einen Token speichert und die die Wiedergabe des verschlüsselten Inhalts anfordert, sowie eine temporäre Wiedergabevorrichtung zum Ausführen der Wiedergabe des verschlüsselten Inhalts in Reaktion auf eine Wiedergabeanforderung des Inhalts enthält. Die temporäre Wiedergabevorrichtung sendet eine Tokensendeanforderung in einer Form, bei der ein Identifikator des Inhalts und eine digitale Signatur angefügt sind. Die Wiedergabeanforderungsvorrichtung sendet den Token nur dann an die temporäre Wiedergabevorrichtung zurück, wenn ein Authentifizierungsverfahren für die digitale Signatur erfolgreich ist.
-
Eine erste veranschaulichende Ausführungsform offenbart ein System zum Dämpfen eines Fahrzeug-Audios für Ansagen von Mobilanwendungen, wobei das System ein Fahrzeug-Computersystem umfasst, das einen oder mehrere Prozessoren zum Abspielen von Audio in dem Fahrzeug von mehreren verschiedenen Audioquellen aufweist. Das System enthält außerdem einen Drahtlostransceiver zum Übermitteln von Signalen von einem mobilen Computergerät zum Verarbeiten durch das Fahrzeug-Computersystem. Das Fahrzeug-Computersystem ist dafür konfiguriert, von dem mobilen Computergerät ein drahtloses Signal zu empfangen, das eine Ansage repräsentiert, die in dem Fahrzeug wiederzugeben ist, falls das Fahrzeug-Computersystem in dem Moment, wo das drahtlose Signal von dem mobilen Computergerät empfangen wird, in dem Fahrzeug Audio abspielt; eine Dämpfungsstärke für das Audio auf der Grundlage der Audioquelle zu bestimmen; und das Audio zu dämpfen und die Ansage wiederzugeben.
-
Eine zweite veranschaulichende Ausführungsform offenbart ein Verfahren zum Dämpfen einer Audioquelle in dem Fahrzeug zum Wiedergeben von Ansagen von Mobilanwendungen, wobei das Verfahren das Abspielen von Audio in dem Fahrzeug von einer von mehreren verschiedenen Audioquellen umfasst. Das Verfahren enthält des Weiteren folgende Schritte: Empfangen – in dem Fahrzeug, und von dem mobilen Computergerät – eines drahtlosen Signals, das eine Ansage repräsentiert, die in dem Fahrzeug abzuspielen ist; Bestimmen einer Dämpfungsstärke für die abspielende Audioquelle auf der Grundlage der Quelle des abspielenden Audios; und Dämpfen des abspielenden Audios und Wiedergeben der Ansage.
-
Eine dritte veranschaulichende Ausführungsform offenbart ein Fahrzeug-Computersystem, das einen Drahtlostransceiver, der mit einem Mobilgerät kommuniziert, und einen Prozessor umfasst, der dafür konfiguriert ist, Audio von einer von mehreren Audioquellen abzuspielen. Der Prozessor ist des Weiteren dafür konfiguriert, eine Instruktion zu empfangen, die von dem Mobilgerät auszugeben ist. Der Prozessor ist des Weiteren dafür konfiguriert, einen Dämpfungsbetrag für das abspielende Audio auf der Grundlage der Audioquelle zu bestimmen, das Audio zu dämpfen und die Instruktion abzuspielen.
-
1 zeigt eine beispielhafte Blocktopologie für ein Fahrzeug-gestütztes Computersystem für ein Fahrzeug.
-
2 zeigt einen beispielhaften Verwendungsfall eines Fahrzeug-gestützten Computersystems, das mittels eines Audio Video Remote Control-Profils (AVRCP) mit einem nomadischen Gerät oder einer Anwendung verbunden ist.
-
3 zeigt einen beispielhaften Verwendungsfall eines Fahrzeug-gestützten Computersystems, das mittels eines Enhanced Synchronous Connection Oriented-Links(eSCO)-Verfahrens oder eines Synchronous Connection-Oriented Links(SCO)-Verfahrens mit einer Anwendung verbunden ist.
-
4 zeigt ein beispielhaftes Flussdiagramm eines Audiomischungs- oder -arbitrierungs-Verwendungsfalls zwischen einem nomadischen Gerät und einem Fahrzeug-gestützten Computersystem.
-
Im vorliegenden Text werden detaillierte Ausführungsformen der vorliegenden Erfindung offenbart. Es versteht sich, dass die offenbarten Ausführungsformen die Erfindung, die in verschiedenen und alternativen Formen verkörpert sein kann, lediglich beispielhaft veranschaulichen. Die Figuren sind nicht unbedingt maßstabsgetreu. Einige Merkmale können überzeichnet oder minimiert dargestellt sein, um Details bestimmter Komponenten zu zeigen. Darum dürfen konkrete strukturelle und funktionale Details, die im vorliegenden Text offenbart sind, nicht in einem einschränkenden Sinn interpretiert werden.
-
Die Erfindung wird nun im Folgenden mit Bezug auf die begleitenden Zeichnungen, in denen Ausführungsformen der Erfindung gezeigt sind, ausführlicher beschrieben. Diese Erfindung kann jedoch in vielen verschiedenen Formen verkörpert sein und darf nicht so ausgelegt werden, als sei sie auf die im vorliegenden Text dargelegten Ausführungsformen beschränkt. Gleiche Zahlen bezeichnen überall gleiche Elemente. Im Sinne des vorliegenden Textes beinhaltet der Begriff „und/oder“ sämtliche Kombinationen eines oder mehrerer der zugehörigen angeführten Elemente.
-
Unsere Telefone, Tablet-Computer, MP3-Player usw. sind mit vielen neuen Merkmalen und Funktionen vollgepackt. Jedoch sind viele dieser Merkmale nicht unter Berücksichtigung einer Fahrzeugumgebung entwickelt worden. Die zunehmende Interoperabilität zwischen Mobilgeräten und dem Computersystem eines Fahrzeugs gestattet den Kunden eine nahtlose Mediennutzung unabhängig davon, ob sie sich in einer Fahrzeugumgebung befinden oder nicht. Ein veranschaulichendes Beispiel einer nahtlosen Mediennutzung durch einen Kunden ist es, wenn die Navigationsanwendung auf dem nomadischen Gerät eines Nutzers mit dem Computersystem eines Fahrzeugs interagieren kann. Anstatt Turn-by-Turn-Sprachaufforderungen und -Anweisungen über die Lautsprecher des Mobilgerätes ansagen zu lassen, könnte das Mobilgerät in der Lage sein, die Lautsprecher des Fahrzeugs zum Ausgeben von Anweisungen und Sprachaufforderungen zu nutzen. Dadurch kann auch die Situation vermieden werden, dass die Lautsprecher eines Fahrzeugs Audio über die Sprachaufforderungen oder Anweisungen eines Mobilgeräts legen, was dazu führen kann, dass der Fahrer ein wichtiges Manöver verpasst. Der Fahrer kann auch die Möglichkeit haben, die Sprachaufforderungen oder Anweisungen des Mobilgerätes ganz und gar zu ignorieren, wenn der Nutzer diese Anweisungen zu ignorieren wünscht, wie zum Beispiel während eines Telefonats.
-
1 veranschaulicht eine beispielhafte Blocktopologie für ein Fahrzeug-gestütztes Computersystem 1 (FCS) für ein Fahrzeug 31. Ein Beispiel eines solchen Fahrzeug-basierten Computersystems 1 ist das von der FORD MOTOR COMPANY hergestellte SYNC-System. Ein mit einem Fahrzeug-basierten Computersystem ausgestattetes Fahrzeug kann eine in dem Fahrzeug befindliche visuelle Frontend-Schnittstelle 4 enthalten. Der Nutzer kann auch in der Lage sein, mit der Schnittstelle zu interagieren, falls sie vorhanden ist, zum Beispiel mit einem berührungsempfindlichen Bildschirm. In einer weiteren veranschaulichenden Ausführungsform erfolgt die Interaktion durch Tastendrücke, ein Sprachdialogsystem mit automatischer Spracherkennung und Sprachsynthese.
-
In der in 1 gezeigten veranschaulichenden Ausführungsform 1 steuert ein Prozessor 3 mindestens einen Teil des Betriebes des Fahrzeug-basierten Computersystems. Der in dem Fahrzeug befindliche Prozessor erlaubt eine bordeigene Verarbeitung von Befehlen und Routinen. Des Weiteren ist der Prozessor sowohl mit nicht-dauerhaftem Speicher 5 als auch mit dauerhaftem Speicher 7 verbunden. In dieser veranschaulichenden Ausführungsform ist der nicht-dauerhafte Speicher ein Direktzugriffsspeicher (RAM), und der dauerhafte Speicher ist ein Festplattenlaufwerk (HDD) oder ein Flash-Speicher.
-
Der Prozessor ist auch mit einer Reihe verschiedener Eingänge versehen, die dem Nutzer das Anbinden an den Prozessor erlauben. In dieser veranschaulichenden Ausführungsform sind ein Mikrofon 29, ein Zusatzeingang 25 (für Eingang 33), ein USB-Eingang 23, eine GPS-Eingang 24 und ein BLUETOOTH-Eingang 15 vorhanden. Ein Eingangswähler 51 ist ebenfalls vorhanden, um einem Nutzer die Auswahl zwischen verschiedenen Eingängen zu ermöglichen. Das Eingangssignal sowohl in das Mikrofon als auch in den Zusatzanschluss wird durch einen Wandler 27 von analog zu digital umgewandelt, bevor es an den Prozessor weitergeleitet wird. Obgleich nicht gezeigt, können diese und andere Komponenten über ein Fahrzeugmultiplex-Netz (wie zum Beispiel einen CAN-Bus) mit dem FCS kommunizieren, um Daten zu und von dem FCS (oder seinen Komponenten) weiterzuleiten.
-
Zu den Ausgabekomponenten des Systems können beispielsweise eine visuelle Anzeige 4 und ein Lautsprecher 13 oder ein Stereoanlagenausgang gehören. Der Lautsprecher ist mit einem Verstärker 11 verbunden und empfängt sein Signal über einen Digital-Analog-Wandler 9 von dem Prozessor 3. Das Ausgangssignal kann auch an ein räumlich abgesetztes BLUETOOTH-Gerät, wie zum Beispiel ein PND 54 oder ein USB-Gerät, wie zum Beispiel ein Fahrzeugnavigationsgerät 60, entlang den bidirektionalen Datenströmen ausgegeben werden, die bei 19 bzw. 21 gezeigt sind.
-
In einer veranschaulichenden Ausführungsform verwendet das System 1 den BLUETOOTH-Transceiver 15 zum Kommunizieren 17 mit einem nomadischen Gerät 53 eines Nutzers (zum Beispiel einem Mobiltelefon, Smartphone, PDA oder sonstigen Gerät mit drahtloser Netzfernkonnektivität). Das nomadische Gerät kann dann zum Kommunizieren 59 mit einem Netz 61 außerhalb des Fahrzeugs 31 beispielsweise über eine Kommunikation 55 mit einem Mobilfunkmast 57 verwendet werden. In einigen Ausführungsformen kann der Mast 57 ein WiFi-Zugangspunkt sein.
-
Eine beispielhafte Kommunikation zwischen dem nomadischen Gerät und dem BLUETOOTH-Transceiver wird durch das Signal 14 dargestellt. Das Paaren eines nomadischen Gerätes 53 und des BLUETOOTH-Transceivers 15 kann über eine Taste 52 oder eine ähnliche Eingabe angewiesen werden. Dementsprechend wird die CPU angewiesen, dass der bordeigene BLUETOOTH-Transceiver mit einem BLUETOOTH-Transceiver in einem nomadischen Gerät gepaart wird.
-
Daten können zwischen der CPU 3 und dem Netz 61 beispielsweise unter Verwendung eines Data-Plan, von Data over Voice oder von DTMF-Tönen, die dem nomadischen Gerät 53 zugeordnet sind, übermittelt werden. Alternativ kann es wünschenswert sein, ein bordeigenes Modem 63, das eine Antenne 18 aufweist, einzubinden, um Daten zwischen der CPU 3 und dem Netz 61 über das Sprachband zu übermitteln 16. Das nomadische Gerät 53 kann dann zum Kommunizieren 59 mit einem Netz 61 außerhalb des Fahrzeugs 31 beispielsweise über eine Kommunikation 55 mit einem Mobilfunkmast 57 verwendet werden. In einigen Ausführungsformen kann das Modem 63 eine Kommunikation 20 mit dem Mast 57 zum Kommunizieren mit dem Netz 61 herstellen. Als ein nicht-einschränkendes Beispiel kann das Modem 63 ein USB-Mobilfunkmodem sein, und die Kommunikation 20 kann eine Mobilfunkkommunikation sein.
-
In einer veranschaulichenden Ausführungsform ist der Prozessor mit einem Betriebssystem ausgestattet, das eine API zum Kommunizieren mit einer Modem-Anwendungssoftware enthält. Die Modem-Anwendungssoftware kann auf ein eingebettetes Modul oder Firmware in dem BLUETOOTH-Transceiver zugreifen, um eine Drahtloskommunikation mit einem räumlich abgesetzten BLUETOOTH-Transceiver (wie zum Beispiel einem, den man in einem nomadischen Gerät findet) aufzubauen. Bluetooth ist ein Teil der IEEE 802 PAN(Personal Area Network)-Protokolle. IEEE 802 LAN(Local Area Network)-Protokolle enthalten WiFi und haben sehr viele Querfunktionen mit IEEE 802 PAN. Beide eignen sich für eine Drahtloskommunikation in einem Fahrzeug. Ein weiteres Kommunikationsmittel, das auf diesem Gebiet verwendet werden kann, sind optische Kommunikation im freien Raum (wie zum Beispiel IrDA) und nicht-standardisierte Verbraucher-IR-Protokolle.
-
In einer weiteren Ausführungsform enthält das nomadische Gerät 53 ein Modem für eine Sprachband- oder Breitbanddatenkommunikation. In der Data-over-Voice-Ausführungsform kann eine als Frequenzmultiplexierung bekannte Technik implementiert werden, wobei der Eigentümer des nomadischen Gerätes über das Gerät sprechen kann, während gleichzeitig Daten übertragen werden. Zu anderen Zeiten, wenn der Eigentümer das Gerät nicht nutzt, kann die Datenübertragung die gesamte Bandbreite nutzen (in einem Beispiel 300 Hz bis 3,4 kHz). Während die Frequenzmultiplexierung für die analoge Mobilfunkkommunikation zwischen dem Fahrzeug und dem Internet üblich sein kann und immer noch verwendet wird, ist sie doch inzwischen größtenteils durch Hybride aus Code Domain Multiple Access (CDMA), Time Domain Multiple Access (TDMA) und Space-Domain Multiple Access (SDMA) für digitale Mobilfunkkommunikation ersetzt worden. Dies alles sind ITU IMT-2000 (3G)-kompatible Standards und bieten Datenraten von bis 2 Mbs für stillstehende oder laufende Nutzer und 385 kbs für Nutzer in einen fahrenden Fahrzeug. 3G-Standards werden nun durch IMT-Advanced (4G) ersetzt, das 100 Mbs für Nutzer in einem Fahrzeug und 1 Gbs für stillstehende Nutzer bietet. Falls der Nutzer einen zu dem nomadischen Gerät gehörenden Data-Plan hat, so ist es möglich, dass der Data-Plan eine Breitbandübertragung gestattet und dass das System eine viel größere Bandbreite nutzen könnte (Beschleunigung der Datenübertragung). In einer weiteren Ausführungsform wird das nomadische Gerät 53 durch ein
-
Mobilfunkkommunikationsgerät (nicht gezeigt) ersetzt, das in dem Fahrzeug 31 installiert ist. In einer weiteren Ausführungsform kann das NG 53 ein drahtloses Local Area Network(LAN)-Gerät sein, das für eine Kommunikation beispielsweise über ein 802.11g-Netz (d. h. WiFi) oder ein WiMax-Netz befähigt ist.
-
In einer Ausführungsform können ankommende Daten durch das nomadische Gerät über ein Data-over-Voice oder einen Data-Plan, durch den bordeigenen BLUETOOTH-Transceiver und in den internen Prozessor 3 des Fahrzeugs geleitet werden. Im Fall bestimmter temporärer Daten können die Daten beispielsweise auf der HDD oder einem anderen Speichermedium 7 gespeichert werden, bis die Daten nicht mehr gebraucht werden.
-
Zu zusätzlichen Quellen, die mit dem Fahrzeug verbunden werden können, gehören ein persönliches Navigationsgerät 54, das zum Beispiel einen USB-Anschluss 56 und/oder eine Antenne 58 aufweist, ein Fahrzeugnavigationsgerät 60 mit einem USB 62- oder sonstigen Anschluss, ein bordeigenes GPS-Gerät 24 oder ein (nicht gezeigtes) Fernnavigationssystem mit Anschlussfähigkeit zum Netz 61. USB ist eines aus einer Klasse von seriellen Vernetzungsprotokollen. IEEE 1394 (FireWireTM (Apple), i.LINKTM (Sony) und LynxTM (Texas Instruments)), serielle EIA(Electronics Industry Association)-Protokolle, IEEE 1284 (Centronics Port), S/PDIF (Sony/Philips Digital Interconnect Format) und USB-IF (USB Implementers Forum) bilden das Rückgrat der seriellen Gerät-Gerät-Standards. Die meisten der Protokolle können entweder für elektrische oder optische Kommunikation implementiert werden.
-
Des Weiteren könnte die CPU mit einer Vielzahl weiterer Zusatzgeräte 65 kommunizieren. Diese Geräte können über einen drahtlosen Anschluss 67 oder einen verdrahteten Anschluss 69 verbunden werden. Ein Zusatzgerät 65 kann beispielsweise ein persönlicher Mediaplayer, ein drahtloses Gesundheitsgerät, ein tragbarer Computer, ein nomadisches Gerät, ein Schlüsselanhänger und dergleichen enthalten.
-
Außerdem, oder alternativ, könnte die CPU beispielsweise mittels eines WiFi (IEEE 803.11) 71-Transceivers mit einem Fahrzeug-gestützten Drahtlosrouter 73 verbunden sein. Dies könnte es der CPU ermöglichen, sich mit Fernnetzen in Reichweite des lokalen Routers 73 zu verbinden.
-
In einer weiteren Ausführungsform kann die CPU mit einem Audiosteuermodul kommunizieren. Die CPU kann verschiedene Meldungen versenden, die an das Audiosteuermodul gerichtet sind und den benötigten Dämpfungsbetrag anzeigen.
-
Neben beispielhaften Prozessen, die durch ein in einem Fahrzeug befindliches Fahrzeug-Computersystem ausgeführt werden können, können in bestimmten Ausführungsformen die beispielhaften Prozesse durch ein Computersystem ausgeführt werden, das mit einem Fahrzeug-Computersystem kommuniziert. Ein solches System kann beispielsweise ein Drahtlosgerät (beispielsweise ein Mobiltelefon) oder ein räumlich abgesetztes Computersystem (beispielsweise einen Server), das über das Drahtlosgerät verbunden ist, enthalten. Solche Systeme können gemeinsam als Fahrzeug-zugehörige Computersysteme (Vehicle Associated Computing Systems, VACS). In bestimmten Ausführungsformen können bestimmte Komponenten des VACS je nach der konkreten Implementierung des Systems bestimmte Teile eines Prozesses ausführen. Wenn beispielsweise ein Prozess einen Schritt des Sendens oder Empfangens von Informationen mit einem gepaarten Drahtlosgerät enthält, dann ist es wahrscheinlich, dass das Drahtlosgerät den Prozess nicht ausführt, da das Drahtlosgerät keine Informationen mit sich selbst „senden und empfangen“ würde. Der Durchschnittsfachmann weiß, wann es unzweckmäßig ist, ein bestimmtes VACS auf eine bestimmte Lösung anzuwenden. In allen Lösungen wird in Betracht gezogen, dass wenigstens das in dem Fahrzeug selbst befindliche Fahrzeug-Computersystem (FCS) in der Lage ist, die beispielhaften Prozesse auszuführen.
-
2 zeigt einen veranschaulichenden Verwendungsfall eines FCS, das mit einer Anwendung mittels eines Audio/Video Remote Control-Profils (AVRCP) verbunden ist. Das in 2 beschriebene Verfahren kann asynchrone Daten verwenden, die mittels Asynchronous Connection-Oriented Logical Transport(ACL)-Paketen über Bluetooths Logical Link Control and Adaptation Protocol(L2CAP)-Schicht abgebildet werden. Asynchrone Daten können Start- und Stoppbits verwenden, um das Anfangsbit und das Endbit zu bezeichnen. Asynchrone Daten können verwendet werden, wenn Daten gesendet werden. Dadurch kann ein Empfänger erkennen, wann das zweite Informationspaket gesendet wird. Die Anwendungsschicht des Bluetooth-Protokolls kann dafür genutzt werden, die Audio-Arbitrierung zu unterstützen.
-
Eine Kopfeinheit 201 oder ein Fahrzeug-Computersystem (FCS) 201 kann mit einem nomadischen Gerät 203 verbunden sein, das eine Anwendung, wie zum Beispiel eine Navigationsanwendung, nutzt. Nachdem die Verbindung hergestellt ist, können das nomadische Gerät und das FCS aus verschiedenen Gründen miteinander interagieren, wie zum Beispiel zum Streamen von Musik, Freisprechtelefonate, eine Navigationsanwendung usw. Es ist möglich, dass das nomadische Gerät und das FCS miteinander kommunizieren müssen, um das Anwendungs-Audio mit der momentan von dem FCS genutzten Audioquelle zu arbitrieren.
-
Das FCS kann die Audiozustandsbedingung 205 feststellen, die das FCS nutzt, um das Audio zu arbitrieren. Zu einigen nicht-einschränkenden Beispielen der Audiozustandsbedingung gehören ein Telefonat, MW, UKW, CD, Aux, USB, iPod, BT-Audio usw. Es ist auch möglich, dass der Audiozustand des FCS nicht existiert und dass gerade gar keine Audioquelle abspielt. Zum Beispiel kann das Radio des Fahrzeugs ausgeschaltet oder stummgeschaltet sein, und nichts wird über die Lautsprecher oder den Ausgang durch den Verstärker wiedergegeben. Die Audio-Arbitrierung kann entsprechend der Audioquelle in Abhängigkeit von der Ausführung des FCS unterschiedlich gehandhabt werden.
-
Das nomadische Gerät oder eine Anwendung kann eine Abspielstatusbenachrichtigung 207 an das FCS senden. Die Abspielstatusbenachrichtigung kann die Verwendung der Fahrzeuglautsprecher anfordern oder das Öffnen des Audio-Kanals anfordern. Das FCS kann dann das nomadische Gerät oder die Anwendung auffordern, die aktuellen Metadaten 209 über das Audio Video Remote Control-Profil (AVRCP) zu übermitteln. Das nomadische Gerät oder die Anwendung kann dann Daten oder Metadaten an das FCS unter Verwendung des AVRCP 211 senden. Vor dem Senden der Daten kann es sein, dass das nomadische Gerät die Daten in Metadaten umwandeln muss, um sie über das AVRCP weiterzuleiten. Zum Beispiel kann das nomadische Gerät verschiedene Inhalte in Metadaten umwandeln, wie zum Beispiel eine Wiedergabeliste, eine Tonspur, ein Titel, ein Albumcover usw. Die Metadaten können ein Kopffeld enthalten, das anzeigt, dass es sich um eine zertifizierte Anwendung handelt, die die Nutzung des FCS anfordert. Die Daten können auch andere Informationen für verschiedene Verwendungen enthalten, die durch das FCS 213 angezeigt werden sollen. Zum Beispiel können die Metadaten in einer nicht-einschränkenden Ausführungsform Turn-by-Turn(TBT)-Informationen enthalten, um ein bevorstehendes Manöver auf der Anzeige des Fahrzeugs anzuzeigen. Zum Beispiel können die TBT-Informationen Daten enthalten, die die Art der zu nehmenden Abbiegung, die Straße, in der abzubiegen ist, oder die Entfernung bis zur Abbiegung anzuzeigen, oder können Führungsankündigungsinformationen enthalten. In anderen veranschaulichenden Beispielen können Verkehrs- oder Wetterinformationen in den Metadaten enthalten sein, die durch das FCS angezeigt werden sollen.
-
Das FCS kann eine API verwenden, um entsprechend dem Bedingungszustand des Fahrzeugs genau festzustellen, wie das FCS die Daten verwenden sollte. In einem weiteren Beispiel kann das FCS eine Nachschlagetabelle verwenden, um genau festzustellen, welche Verkehrskarte für das momentane Szenario zu verwenden ist. In einem weiteren Szenario können das nomadische Gerät und das FCS eine kustomisierte Nachrichtengabe über AVRCP verwenden, um die übermittelten Daten zu verwenden. Je nach dem momentanen Audio-Modus des FCS und den momentanen Daten, die durch das nomadische Gerät gestreamt werden, können verschiedene Situationen eintreten, wie das Audio dem Nutzer präsentiert wird.
-
Bei Empfang des Inhalts der Daten kann das FCS die Daten oder Metadaten analysieren. Das FCS kann eine API, eine Nachschlagetabelle oder ein anderes ähnliches Software-Verfahren verwenden, um festzustellen, wie die Daten zu verwenden sind. Die Mensch-Maschine-Schnittstelle (HMI) des FCS kann dann bei Empfang der Daten verschiedene Informationen, wie zum Beispiel Turn-by-Turn-Informationen, anzeigen. In einem Beispiel kann das FCS Daten empfangen, die anzeigen, dass das nomadische Gerät anfordert, Turn-by-Turn-Anweisungen anzuzeigen. Das FCS kann eine API verwenden, um genau festzustellen, wie das FCS die Turn-by-Turn-Anweisungen auf dem momentanen HMI-Bildschirm, der vom Nutzer des Fahrzeugs verwendet wird, anzeigen sollte. In einem weiteren Beispiel kann das FCS Daten empfangen, die für eine Verkehrskarte stehen, die als ein Overlay des momentanen HMI-Bildschirms verwendet werden kann. Das FCS kann eine Nachschlagetabelle verwenden, um genau festzustellen, welche Verkehrskarte für das momentane Szenario zu verwenden ist. In einem weiteren Szenario können das nomadische Gerät und das FCS eine kustomisierte Nachrichtengabe über AVRCP verwenden, um die übermittelten Daten zu verwenden. Je nach der momentanen HMI-Anzeige des FCS und den momentanen Daten, die durch das nomadische Gerät gestreamt werden, können verschiedene Situationen eintreten, wie die Daten dem Nutzer präsentiert werden.
-
Die Metadaten können auch andere Informationen für verschiedene Verwendungen enthalten, die durch das FCS angezeigt werden sollen. Zum Beispiel können die Metadaten in einer nicht-einschränkenden veranschaulichenden Ausführungsform Turn-by-Turn(TBT)-Informationen enthalten, um ein bevorstehendes Manöver auf der Anzeige des Fahrzeugs anzuzeigen. Zum Beispiel können die TBT-Informationen Daten enthalten, die die Art der zu nehmenden Abbiegung, die Straße, in der abzubiegen ist, oder die Entfernung bis zur Abbiegung anzuzeigen, oder können Führungsankündigungsinformationen enthalten. In anderen veranschaulichenden Beispielen können Verkehrs- oder Wetterinformationen in den Metadaten enthalten sein, die durch das FCS angezeigt werden sollen.
-
Das FCS kann dann die Daten empfangen, die das Kopffeld und/oder die anderen Informationen, wie zum Beispiel TBT-Daten, enthalten können. Das FCS kann das Kopffeld analysieren, um festzustellen, dass es befugt ist, die Komponenten des FCS zu verwenden. Zum Beispiel kann das FCS die Verwendung einer Anwendung verweigern, falls das Kopffeld nicht der Erwartung des FCS entspricht. Falls das FCS das richtige Kopffeld empfängt, so können die Anwendung und das nomadische Gerät Daten zur Verwendung des FCS zulassen.
-
Nach der Verifizierung kann das FCS das Audio / Video Distribution Transport-Protokoll (AVDTP) verwenden, um das Streamen der Anforderung 215 zu beginnen. Das AVDTP kann Audio/Video-Stream-Negoziierungs-, -Herstellungs- und -Übertragungsverfahren definieren. Das AVDTP kann dafür verwendet werden, eine Punkt-zu-Punkt-Zeichengabe über einen verbindungsorientierten L2CAP-Kanal anzuwenden. Die AVDTP-Anforderung kann auf der Grundlage des Kopffeldes, das per AVRCP gesendet wird, akzeptiert werden 217. Falls die AVDTP-Informationen verifiziert wurden, so kann das FCS gestatten, dass Audio von dem nomadischen Gerät 219 wiedergegeben wird. Das nomadische Gerät und die Anwendung können die Audiodaten über das Advanced Audio Distribution-Profil (A2DP) an das FCS 221 senden. Zu einigen veranschaulichenden Beispielen von Audiodaten, die durch die Anwendung gestreamt werden können, gehören eine Anleitung für Manöver oder Verkehrsinformationen. Zum Beispiel kann das nomadische Gerät Audio streamen, das sagt: „In 100 Metern nach rechts in die Michigan Avenue abbiegen.“ In einem weiteren veranschaulichenden Beispiel kann das nomadische Gerät Audio streamen, das sagt: „Frei fließender Verkehr auf dem Southfield Freeway.“
-
3 zeigt einen veranschaulichenden Verwendungsfall eines FCS 301, das mit einem nomadischen Gerät oder einer Anwendung 303 unter Verwendung eines Enhanced Synchronous Connection Oriented-Links(eSCO)-Verfahrens und eines Synchronous Connection-Oriented Links(SCO)-Verfahrens verbunden ist. SCO- und eSCO-Pakete verwenden kein L2CAP und können in der Bluetooth-Spezifikation separat behandelt werden. Darum werden die L2CAP-Parameter in Bluetooth nicht auf synchrone Daten angewendet. Die eSCO- oder SCO-Links können synchrone Daten verwenden, darum brauchen keine Start- und Stoppbits verwendet zu werden. Statt dessen kann ein kontinuierlicher Datenstrom zwischen zwei Knoten gesendet werden. Die Anwendungsschicht des Bluetooth-Protokolls kann zum Ermöglichen einer Audio-Arbitrierung verwendet werden.
-
Das nomadische Gerät kann Caller ID (Caller Identification, CID), auch als Calling Line Identification (CLID) bezeichnet, Calling Number Delivery (CND), Calling Number Identification (CNID) oder Calling Line Identification Presentation (CLIP) verwenden. Caller ID kann in analogen und digitalen Telefonsystemen zur Verfügung stehen. Caller ID kann auch in den meisten Voice over Internet Protocol(VoIP)-Anwendungen verfügbar sein, die die Nummer eines Anrufers an das Telefon des Angerufenen übermitteln, während das Klingelsignal oder wenn der Anruf aufgebaut wird, aber bevor der Anruf entgegengenommen wird. Falls verfügbar, kann die Caller ID auch einen Namen übermitteln, welcher der anrufenden Telefonnummer zugeordnet ist. Die Informationen, die dem Angerufenen zur Verfügung gestellt werden, können auf dem Anzeigefeld des Telefons oder auf einem separat angeschlossenen Gerät angezeigt werden oder können durch einen angeschlossenen Computer mit entsprechender Schnittstellen-Hardware verarbeitet werden.
-
Das nomadische Gerät kann eine CLIP mit einem Kopffeld 305 senden, das anzeigt, dass es für nicht-herkömmliche Bluetooth-Einstellungen verwendet werden kann. Das Kopffeld unterscheidet die CLIP von einem typischen Telefonat und kann es dem FCS gestatten, die CLIP zum Arbitrieren von Audio zu verwenden oder andere Informationen anzuzeigen. Das FCS kann die CLIP analysieren und anhand des Kopffeldes feststellen, dass Audio-Arbitrierung verwendet werden kann. Der Inhalt des Kopffeldes kann eine alphanumerische Zahl sein, die normalerweise nicht verwendet wird, um ein Mobiltelefon zu bedienen, wie zum Beispiel die Zahl „99999“ oder „9*#12“. Der Inhalt ist darum in der Regel ein alphanumerischer Satz, der nicht in der Lage ist, ein Telefonat auf einer Telefonleitung aufzubauen. Das nomadische Gerät oder die Anwendung kann dann eine Anforderung senden, um den eSCO/SCO-Link 307 zu öffnen. Das nomadische Gerät kann die Öffnungsanforderung senden, wenn Audiodaten, wie zum Beispiel Führungsinstruktionen oder anderen Daten, zur Verwendung mit dem FCS bereit sind.
-
Nach dem Empfang der CLIP mit dem Kopffeld und der Anforderung zum Öffnen des eSCO/SCO-Links kann das FCS die momentane Audioquelle analysieren, um festzustellen, ob das Eröffnen der Audio-Sitzung das richtige Vorgehen ist. Falls das FCS feststellt, dass das Eröffnen der Audio-Sitzung richtig ist, so kann das FCS der Anforderung stattgeben. Falls das FCS jedoch feststellt, dass die Audio-Sitzung nicht geöffnet werden sollte, so lehnt das FCS die Anforderung ab. In einem veranschaulichenden Beispiel kann die momentane Audioquelle ein Telefonat sein, wenn das FCS die CLIP mit dem Kopffeld empfängt. Das FCS kann feststellen, dass der Anforderung nicht stattgegeben werden soll, weil dem Telefonat Vorrang vor der Anwendung des nomadischen Gerätes eingeräumt wird. Darum kann das FCS die Anforderung zum Eröffnen ignorieren oder die Daten oder eine Nachricht an das nomadische Gerät zurücksenden, die anzeigen, dass der Anforderung zum Eröffnen nicht stattgegeben werden konnte. Falls das FCS jedoch feststellt, dass der Anforderung stattgegeben werden sollte, so initialisiert das FCS das Eröffnen der Audio-Sitzung zwischen dem nomadischen Gerät und dem FCS.
-
Nach dem Öffnen des eSCO/SCO-Links 307 ist die Audio-Sitzung zwischen dem FCS und dem nomadischen Gerät eröffnet 309. Durch Eröffnen der Audio-Sitzung kann es dem nomadischen Gerät gestattet werden, Audio zu dem FCS zu streamen. Das FCS kann AT-Befehle oder einen Hayes-Befehl verwenden, um eine Datenanforderung zu stellen. AT-Befehle oder ein Hayes-Befehlssatz können dafür verwendet werden, einem Modem, einem Telefon oder einem weiteren nomadischen Gerät die Ausführung bestimmter Befehle zu befehlen. Ein veranschaulichendes Beispiel eines Befehls, der verwendet werden kann, ist CLCC, bei dem es sich um eine Anforderung handelt, momentane Rufe aufzulisten. In einem veranschaulichenden Beispiel kann das FCS den CLCC-Befehl 313 auf der Grundlage der CLIP mit dem Kopffeld anfordern.
-
Nach dem Empfangen der Anforderung des CLCC von dem FCS kann das nomadische Gerät reagieren, indem es entweder den CLCC 313 ausgibt oder die Anforderung ignoriert. Das nomadische Gerät kann mit dem CLCC antworten, das Daten enthält, die für Informationen wie zum Beispiel Turn-by-Turn, Wetter, Verkehr usw. stehen. Das FCS kann die Daten nach dem Empfangen der CLCC mit den Daten analysieren. Das FCS kann die Daten für eine entsprechende Darstellung auf der HMI 317 transformieren.
-
Das nomadische Gerät oder die Anwendung kann auch das Audio 319 nach dem Eröffnen der Audio-Sitzung wiedergeben. Das nomadische Gerät oder die Anwendung kann beginnen, die Audiodaten 319 über den Bluetooth-Anschluss zu streamen. Das FCS kann dann das Audio 321 oder die Führungsinstruktionen oder sonstige akustische Informationen über die Fahrzeuglautsprecher wiedergeben. Die durch das FCS ausgeführte Audio-Arbitrierung kann das gestreamte Audio auch über spezielle Lautsprecher oder entsprechend einem Lautstärkepegel relativ zu der durch das FCS abgespielten momentanen Audioquelle wiedergeben.
-
Das nomadische Gerät kann eine Anforderung senden, den eSCO/SCO-Link zu schließen, wenn das Streamen von Audio durch die Anwendung vollendet ist. Das nomadische Gerät kann eine Nachricht an das FCS senden, um anzufordern, dass der Link beendet oder geschlossen wird 323. Das FCS kann die Notwendigkeit analysieren, den Link offen zu lassen. Falls das FCS feststellt, dass der Link nicht mehr zum Streamen von Audio benötigt wird, so gibt das FCS der Anforderung statt und schließt den eSCO/SCO-Link 325.
-
4 ist ein veranschaulichendes Flussdiagramm einer Audiomischung oder -arbitrierung auf der Grundlage verschiedener Verwendungsfall-Szenarien. Das FCS kann mit einem nomadischen Gerät, auf dem eine Navigationsanwendung 401 abläuft, verbunden sein und kommunizieren. Das FCS kann mit dem nomadischen Gerät über eine Bluetooth-Verbindung oder einen sonstigen drahtlosen Anschluss kommunizieren. Das FCS kann dann auf Anforderungen oder Befehle achten, die von dem nomadischen Gerät gesendet wurden, und Anforderungen oder Befehle von dem nomadischen Gerät 403 empfangen. Nach dem Empfangen einer Anforderung von dem nomadischen Gerät kann das FCS feststellen, ob die Anforderung oder der Befehl standardmäßige Bluetooth-Funktionen nutzt 405. Falls die Anforderung oder der Befehl standardmäßige Bluetooth-Funktionen nutzt 407, so führt das FCS die Anforderung mit Bezug auf normale Logik, HMI und Fluss aus. Falls jedoch die Anforderung keine Anforderung ist, die dem Bluetooth-Protokoll entspricht, so analysiert das FCS die Anforderung, um festzustellen, ob die Anforderung oder der Befehl ein Kopffeld mitführt, um anzuzeigen, dass sie für eine bestimmte Anwendung spezifisch sind 409. Das Kopffeld kann mittels des AVRCP- oder eSCO/SCO-Verfahrens gesendet werden. Des Weiteren kann das Kopffeld AT-Befehle zum Steuern des Telefons enthalten. AT-Befehle oder ein Hayes-Befehlssatz können dafür verwendet werden, einen Modem oder Telefon zu befehlen, bestimmte Befehle auszuführen. Ein veranschaulichendes Beispiel eines Befehls, der verwendet werden kann, ist CLCC, was eine Anforderung zum Auflisten momentaner Rufe ist. Das FCS kann den Befehl 411 ignorieren, falls das Kopffeld nicht in dem Bluetooth-Befehl gefunden wird.
-
Gemäß dem Kopffeld stellt das FCS Informationen 413 über die AVRCP-Nachricht je nach dem Audiozustand oder der Bedingung des FCS 415 dar. Wenn zum Beispiel keine Audioquelle 417 in dem FCS verwendet wird, so kann das FCS die HMI-Formatvorlage nutzen, die zum Anzeigen von Informationen vorgesehen ist. Das FCS kann dann das von dem Telefon gestreamte Audio abspielen. Das Audio kann über die Fahrzeuglautsprecher abgespielt werden und bevorstehende Führungsanweisungen oder Manöver anzeigen. Das FCS braucht kein Audio zu arbitrieren, wenn momentan keine Audioquellen in Betrieb sind.
-
In einem weiteren veranschaulichenden Beispiel kann das FCS, wenn die momentane Audioquelle des FCS ein Telefonat oder ein iPod 421 ist, die Audio-Aufforderung ignorieren und die momentane Audioquelle als das Telefonat oder den iPod 423 belassen, um zu verhindern, dass das Gespräch des Nutzers unterbrochen wird. Das Telefonat kann von dem nomadischen Gerät oder von einem weiteren nomadischen Gerät oder Telefon in dem Fahrzeug stammen, das ebenfalls an das FCS angeschlossen ist. In einem weiteren Szenario kann das Gespräch des Telefonats stummgeschaltet werden, und die Navigationsführung kann über die Fahrzeuglautsprecher ausgegeben werden.
-
In einem weiteren Beispiel kann die momentane Audioquelle des FCS eine Nicht-Bluetooth-Audioquelle sein, wie zum Beispiel MW, UKW, CD, Aux, USB usw. 425. Es können auch andere fahrzeuginterne Audioquellen 425 zur Verfügung stehen (wie zum Beispiel ein MP3-Player oder ein Disk-Wechsler). Nach dem Empfang des AVRCP-Befehls mit dem Kopffeld kann das FCS die momentane Audioquelle dämpfen oder stummschalten 427, um es zu ermöglichen, das Audio oder die Führungsaufforderungen über die Fahrzeuglautsprecher abzuspielen. Des Weiteren kann es eine HMI-Formatvorlage verwenden, die dafür ausgelegt ist, Metadaten zu zeigen, um Turn-by-Turn-Informationen anzuzeigen, die in dem AVRCP-Befehl transportiert werden. Wenn sich zum Beispiel eine Rechtsabbiegung auf die Michigan AVE nähert, so kann die Audio-Aufforderung sagen: „Gleich biegen Sie rechts ab auf die Michigan Avenue“. Die gestaltete HMI-Formatvorlage kann ein Bild eines Rechtsabbiegepfeils mit einem Straßenschild der Michigan Avenue zeigen, um dem Nutzer das bevorstehende Manöver anzuzeigen. Audiodaten, Bilddaten, Textdaten usw. können allesamt von dem nomadischen Gerät gesendet werden, um in dem FCS genutzt zu werden.
-
In einem weiteren Beispiel kann die momentane Audioquelle des FCS eine Bluetooth-Audioquelle 429 sein, die von dem nomadischen Gerät streamt. Zum Beispiel kann das nomadische Gerät Audio von einem Telefon (zum Beispiel einem Smartphone, einem iPhone, einem Android-Telefon usw.) oder von einem digitalen Audio-Player (zum Beispiel iPod Touch usw.) des Nutzers streamen, während eine Navigationsanwendung auf dem nomadischen Gerät genutzt wird. Der Media-Player des nomadischen Gerätes kann Audio über Bluetooth-Audio streamen, um Audio-Inhalte auch außerhalb des nomadischen Gerätes zu verwenden. Das FCS und das nomadische Gerät können feststellen, ob das nomadische Gerät momentan Audio streamt 431. Nach der Feststellung, dass das FCS momentan Audio streamt, braucht das FCS nicht zu versuchen, das Audio zu arbitrieren, und kann dem nomadischen Gerät die Arbitrierung überlassen 435. Falls das Telefon kein Audio über Bluetooth streamt, kann das FCS die Informationen (zum Beispiel Turn-by-Turn-Informationen), die in dem AVRCP-Befehl transportiert werden, anzeigen und/oder das Audio 433 über das A2DP (Advanced Audio Distribution-Profil) streamen. Wenn zum Beispiel die momentane Audioquelle Bluetooth ist, aber das nomadische Gerät nicht streamt, weil es auf Pause oder Stopp gestellt ist, so kann das FCS das ankommende Audio streamen.
-
Die im vorliegenden Text offenbarten Prozesse, Verfahren oder Algorithmen können an einen Verarbeitungsbaustein, einen Controller oder einen Computer übermittelt und/oder darin implementiert werden. Dazu kann jede existierende programmierbare elektronische Steuereinheit oder dedizierte elektronische Steuereinheit gehören. Gleichermaßen können die Prozesse, Verfahren oder Algorithmen als Daten und Instruktionen gespeichert werden, die durch einen Controller oder Computer in vielen Formen ausgeführt werden können, wie beispielsweise Informationen, die dauerhaft auf einem nicht-beschreibbaren Speichermedium gespeichert sind, wie zum Beispiel ROM-Medien, und Informationen, die änderbar auf beschreibbaren Speichermedien gespeichert sind, wie zum Beispiel Floppy-Disks, Magnetbänder, CDs, RAM-Medien und andere magnetische und optische Medien. Die Prozesse, Verfahren oder Algorithmen können auch in einem durch Software ausführbaren Objekt implementiert werden. Alternativ können die Prozesse, Verfahren oder Algorithmen ganz oder teilweise unter Verwendung geeigneter Hardware-Komponenten verkörpert werden, wie zum Beispiel anwendungsspezifische integrierte Schaltkreise (ASICs), feldprogrammierbare Gate-Arrays (FPGAs), Zustandsautomaten, Controller oder andere Hardware-Komponenten oder Geräte oder eine Kombination aus Hardware-, Software- und Firmware-Komponenten.
-
Obgleich oben beispielhafte Ausführungsformen beschrieben wurden, ist es nicht beabsichtigt, dass diese Ausführungsformen alle möglichen Formen beschreiben, die unter die Ansprüche fallen. Die in der Spezifikation verwendeten Wörter dienen der Beschreibung und nicht der Einschränkung, und es versteht sich, dass verschiedene Änderungen daran vorgenommen werden können, ohne den Geist und Geltungsbereich der Offenbarung zu verlassen. Wie zuvor beschrieben, können die Merkmale verschiedener Ausführungsformen zu weiteren Ausführungsformen der Erfindung kombiniert werden, die möglicherweise nicht ausdrücklich beschrieben oder veranschaulicht wurden. Obgleich verschiedene Ausführungsformen so beschrieben worden sein können, dass sie in Bezug auf eine oder mehrere erwünschte Eigenschaften Vorteile realisieren oder gegenüber anderen Ausführungsformen oder Implementierungen des Standes der Technik bevorzugt sind, erkennt der Durchschnittsfachmann, dass ein oder mehrere Merkmale oder Eigenschaften zurückgenommen werden können, um erwünschte Gesamtsystemattribute zu erreichen, die von der konkreten Anwendung und Implementierung abhängen. Zu diesen Attributen können beispielsweise folgende gehören: Kosten, Festigkeit, Langlebigkeit, Lebenszykluskosten, Marktfähigkeit, Erscheinungsbild, Verpackung, Größe, Wartungsfreundlichkeit, Gewicht, Herstellbarkeit, Einfachheit der Montage usw. Das heißt, Ausführungsformen, die mit Bezug auf eine oder mehrere Eigenschaften als weniger wünschenswert als andere Ausführungsformen oder Implementierungen des Standes der Technik beschrieben wurden, liegen darum nicht außerhalb des Geltungsbereichs der Offenbarung und können für bestimmte Anwendungen durchaus wünschenswert sein.
-
Bezugszeichenliste
-
Fig. 1
- 61
- Netz
- 4
- Anzeige
- 51
- Eingangswähler
- 52
- BT-Paar
- 53
- NG
- 11
- Verstärker
- 71
- Drahtlosmodul
- 7
- Festplatte (HDD)
- 6
- Datenbus
- 67
- Zusatzgerät
- 58
- Persönliches Navigationsgerät
- 60
- Fahrzeugnavigationsgerät
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- US 6778073 [0003]
- US 2011/0014871 [0004]
- US 7251330 [0005]
-
Zitierte Nicht-Patentliteratur
-
- IEEE 802 [0023]
- IEEE 802 [0023]
- IEEE 802 [0023]
- IEEE 1394 [0027]
- IEEE 1284 [0027]
- IEEE 803.11 [0029]