DE202020005855U1 - Audioausgabesystem und Endgerät - Google Patents

Audioausgabesystem und Endgerät Download PDF

Info

Publication number
DE202020005855U1
DE202020005855U1 DE202020005855.6U DE202020005855U DE202020005855U1 DE 202020005855 U1 DE202020005855 U1 DE 202020005855U1 DE 202020005855 U DE202020005855 U DE 202020005855U DE 202020005855 U1 DE202020005855 U1 DE 202020005855U1
Authority
DE
Germany
Prior art keywords
electronic device
application
audio
audio output
call
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202020005855.6U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honor Device Co Ltd
Original Assignee
Honor Device Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honor Device Co Ltd filed Critical Honor Device Co Ltd
Publication of DE202020005855U1 publication Critical patent/DE202020005855U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72484User interfaces specially adapted for cordless or mobile telephones wherein functions are triggered by incoming communication events
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • H04M1/6033Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
    • H04M1/6041Portable telephones adapted for handsfree use
    • H04M1/6058Portable telephones adapted for handsfree use involving the use of a headset accessory device connected to the portable telephone
    • H04M1/6066Portable telephones adapted for handsfree use involving the use of a headset accessory device connected to the portable telephone including a wireless connection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72442User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for playing music files
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/006Call diverting means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/57Arrangements for indicating or recording the number of the calling subscriber at the called subscriber's set
    • H04M1/575Means for retrieving and displaying personal data about calling party
    • H04M1/578Means for retrieving and displaying personal data about calling party associated with a synthesized vocal announcement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/03Connection circuits to selectively connect loudspeakers or headphones to amplifiers

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Otolaryngology (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Computing Systems (AREA)
  • Telephone Function (AREA)
  • Input Circuits Of Receivers And Coupling Of Receivers And Audio Equipment (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

Ein System, aufweisend:
ein erstes elektronisches Gerät, welches unter Verwendung eines Systemauthentifizierungskontos mit einem Netzwerk verbunden ist, wobei auf dem ersten elektronischen Gerät eine erste Musikanwendung und eine erste Videoanrufanwendung installiert sind;
ein zweites elektronisches Gerät, welches unter Verwendung des Systemauthentifizierungskontos mit dem Netzwerk verbunden ist, wobei auf dem zweiten elektronischen Gerät eine zweite Musikanwendung, eine zweite Videoanrufanwendung und eine Sprachanrufanwendung installiert sind; und
eine Audioausgabevorrichtung,
wobei, wenn das erste elektronische Gerät mit der Audioausgabevorrichtung verbunden ist und die Audioausgabevorrichtung kein Audiosignal ausgibt, welches Audiodaten des ersten elektronischen Gerätes entspricht, als Reaktion auf eine erste Benutzeraktion, die von dem zweiten elektronischen Gerät für die zweite Musikanwendung empfangen wird, das zweite elektronische Gerät so ausgebildet ist, dass es die Audioausgabevorrichtung veranlasst, ein den Audiodaten der zweiten Musikanwendung entsprechendes Audiosignal auszugeben,
wobei, wenn die Audioausgabevorrichtung ein den Audiodaten der ersten Musikanwendung entsprechendes Audiosignal ausgibt, das zweite elektronische Gerät von der zweiten Videoanrufanwendung einen ersten Videoanruf empfängt, und das zweite elektronische Gerät so ausgebildet ist, dass es als Reaktion auf eine zweite Benutzeraktion den ersten Videoanruf durch die zweite Videoanrufanwendung beantwortet und die Audioausgabevorrichtung veranlasst, ein Audiosignal auszugeben, das den Audiodaten des ersten Videoanrufs entspricht,
wobei, wenn das erste elektronische Gerät sich in einem Videoanruf durch die erste Videoanrufanwendung befindet und die Audioausgabevorrichtung ein Audiosignal ausgibt, welches Audiodaten der ersten Videoanrufanwendung entspricht, das zweite elektronische Gerät einen ersten eingehenden Anruf von der Sprachanrufanwendung empfängt, und das zweite elektronische Gerät ausgebildet ist, als Reaktion auf eine dritte Benutzeraktion, den ersten eingehenden Anruf durch die Sprachanrufanwendung zu beantworten und die Audioausgabevorrichtung zu veranlassen, ein Audiosignal auszugeben, welches Audiodaten des ersten eingehenden Anrufs entspricht, wobei, wenn die Audioausgabevorrichtung ein den Audiodaten der ersten Musikanwendung entsprechendes Audiosignal ausgibt, das erste elektronische Gerät so ausgebildet ist, dass es, als Reaktion darauf, dass die zweite elektronische Vorrichtung einen zweiten eingehenden Anruf von der Sprachanrufanwendung empfängt, eine erste Aufforderung anzeigt, die dem zweiten eingehenden Anruf entspricht,
wobei, als Reaktion auf eine erste von dem ersten elektronischen Gerät empfangene Berührungsaktion, das erste elektronische Gerät ausgebildet ist, um eine Anzeige der Beantwortung des zweiten eingehenden Anrufs an das zweite elektronische Gerät zu senden,
wobei, als Reaktion auf den Empfang der Anzeige der Beantwortung des zweiten eingehenden Anrufs, das zweite elektronische Gerät so ausgebildet ist, dass es den zweiten eingehenden Anruf über die Sprachanrufanwendung beantwortet und Audiodaten des zweiten eingehenden Anrufs an das erste elektronische Gerät sendet,
wobei das erste elektronische Gerät so ausgebildet ist, dass es die Audioausgabevorrichtung veranlasst, ein Audiosignal auszugeben, das den Audiodaten des zweiten eingehenden Anrufs entspricht.

Description

  • TECHNISCHES GEBIET
  • Diese Anmeldung bezieht sich auf das Gebiet der Endgerätetechnologien und insbesondere auf ein Audioausgabesystem und ein Endgerät.
  • HINTERGRUND
  • Mit der Entwicklung intelligenter Endgeräte wird es zunehmend populärer, dass ein Benutzer mehrere Endgeräte besitzt, z. B. kann ein Benutzer drei Endgeräte gleichzeitig haben, nämlich ein Smartphone, einen Tablet-Computer und einen Notebook-Computer. Gegenwärtig kann ein Endgerät zusätzlich zu einem eigenständigen Kopfhörer auch mit einer anderen Audioausgabevorrichtung wie einem kabelgebundenen Kopfhörer, einem Bluetooth-Kopfhörer oder einem externen Lautsprecher verbunden sein.
  • Derzeit kann ein Benutzer, wenn er in einer öffentlichen Umgebung wie einem Büro einen Kopfhörer verwendet, um über eine Notebook-Computer-Verbindung Musik zu hören, einen eingehenden Anruf auf seinem Mobiltelefon verpassen, da er den Klingelton nicht hört. Selbst wenn der Benutzer den Klingelton hört, muss er, wenn er den Anruf über den Kopfhörer annehmen will, den Kopfhörer von dem Notebook trennen und in eine Kopfhörerbuchse des Mobiltelefons einstecken, damit der eingehende Anruf des Mobiltelefons über den Kopfhörer angenommen werden kann. Wenn der Benutzer einen Bluetooth-Kopfhörer verwendet, muss er die Verbindung zwischen dem Notebook und dem Bluetooth-Kopfhörer unterbrechen und das Mobiltelefon mit dem Bluetooth-Kopfhörer verbinden, so dass der eingehende Anruf des Mobiltelefons über den Bluetooth-Kopfhörer angenommen werden kann. Wie man sieht, ist dieser Vorgang relativ umständlich und beeinträchtigt die Benutzerfreundlichkeit.
  • ZUSAMMENFASSUNG
  • Diese Anmeldung sieht ein Audio-Ausgabesystem und ein Endgerät vor, welche dazu beitragen, die Komplexität der Benutzerbedienung zu reduzieren, ein gewisses Maß an Intelligenz des Endgeräts zu verbessern um letztendlich die Benutzerfreundlichkeit zu erhöhen.
  • Gemäß einem ersten Aspekt sieht eine Ausführungsform dieser Anmeldung ein Audioausgabesystem vor, das ein erstes elektronisches Gerät aufweist, welches unter Verwendung eines Systemauthentifizierungskontos mit einem Netzwerk verbunden ist, wobei auf dem ersten elektronischen Gerät eine erste Musikanwendung und eine erste Videoanrufanwendung installiert sind; ein zweites elektronisches Gerät, welches unter Verwendung des Systemauthentifizierungskontos mit dem Netzwerk verbunden ist, wobei auf dem zweiten elektronischen Gerät eine zweite Musikanwendung, eine zweite Videoanrufanwendung und eine Sprachanrufanwendung installiert sind; und eine Audioausgabevorrichtung, wobei, wenn das erste elektronische Gerät mit der Audioausgabevorrichtung verbunden ist und die Audioausgabevorrichtung kein Audiosignal ausgibt, welches Audiodaten von dem ersten elektronischen Gerät entspricht, in Reaktion auf eine erste von dem zweiten elektronischen Gerät für die zweite Musikanwendung empfangene Benutzeraktion, das zweite elektronische Gerät ausgebildet ist, um die Audioausgabevorrichtung zu veranlassen, ein Audiosignal auszugeben, welches Audiodaten der zweiten Musikanwendung entspricht, wobei, wenn die Audioausgabevorrichtung ein den Audiodaten der ersten Musikanwendung entsprechendes Audiosignal ausgibt, das zweite elektronische Gerät einen ersten Videoanruf von der zweiten Videoanrufanwendung empfängt, und wobei das zweite elektronische Gerät so ausgebildet ist, dass es in Reaktion auf eine zweite Benutzeraktion den ersten Videoanruf über die zweite Videoanrufanwendung beantwortet und die Audioausgabevorrichtung veranlasst, ein den Audiodaten des ersten Videoanrufs entsprechendes Audiosignal auszugeben, wobei, wenn das erste elektronische Gerät sich in einem Videoanruf über die erste Videoanrufanwendung befindet und die Audioausgabevorrichtung ein den Audiodaten der ersten Videoanrufanwendung entsprechendes Audiosignal ausgibt, das zweite elektronische Gerät einen ersten eingehenden Anruf von der Sprachanrufanwendung empfängt und das zweite elektronische Gerät so ausgebildet ist, dass es in Reaktion auf eine dritte Benutzeraktion den ersten eingehenden Anruf über die Sprachanrufanwendung beantwortet und die Audioausgabevorrichtung veranlasst, ein Audiosignal auszugeben, das den Audiodaten des ersten eingehenden Anrufs entspricht, wobei, wenn die Audioausgabevorrichtung ein den Audiodaten der ersten Musikanwendung entsprechendes Audiosignal ausgibt, in Reaktion darauf, dass das zweite elektronische Gerät einen zweiten eingehenden Anruf von der Sprachanrufanwendung empfängt, das erste elektronische Gerät so ausgebildet ist, dass es eine erste dem zweiten eingehenden Anruf entsprechende Aufforderung anzeigt, wobei das erste elektronische Gerät so ausgebildet ist, dass es in Reaktion auf eine erste von dem ersten elektronischen Gerät empfangene Berührungsaktion eine Anzeige des Entgegennehmens des zweiten eingehenden Anrufs an das zweite elektronische Gerät sendet, wobei in Reaktion auf den Empfang der Anzeige des Entgegennehmens des zweiten eingehenden Anrufs das zweite elektronische Gerät so ausgebildet ist, dass es den zweiten eingehenden Anruf über die Sprachanrufanwendung beantwortet und Audiodaten des zweiten eingehenden Anrufs an das erste elektronische Gerät sendet, wobei das erste elektronische Gerät so ausgebildet ist, dass es die Audioausgabevorrichtung veranlasst, ein den Audiodaten des zweiten eingehenden Anrufs entsprechendes Audiosignal auszugeben.
  • Mit Bezug auf den ersten Aspekt, wobei, wenn die Audioausgabevorrichtung ein Audiosignal ausgibt, das den Audiodaten der ersten Musikanwendung entspricht, in Reaktion auf das zweite elektronische Gerät, das eine dritte eingehende Anrufanfrage von der Sprachanrufanwendung empfängt, das zweite elektronische Gerät so ausgebildet ist, dass es eine zweite Eingabeaufforderung anzeigt, die dem dritten eingehenden Anruf entspricht, und wobei das zweite elektronische Gerät so ausgebildet ist, dass es, in Reaktion auf eine fünfte von dem zweiten elektronischen Gerät empfangene Benutzeraktion, den dritten eingehenden Anruf über die Sprachanrufanwendung entgegennimmt und die Audioausgabevorrichtung veranlasst, ein den Audiodaten des dritten eingehenden Anrufs entsprechendes Audiosignal auszugeben.
  • Figurenliste
    • 1 ist ein schematisches Diagramm eines Anwendungsszenarios gemäß einer Ausführungsform der vorliegenden Anmeldung;
    • 2 ist ein schematisches Strukturdiagramm eines Mobiltelefons gemäß einer Ausführungsform dieser Anmeldung;
    • 3 ist ein schematisches Strukturdiagramm eines Android-Betriebssystems gemäß einer Ausführungsform dieser Anmeldung;
    • 4 ist ein schematisches Diagramm eines Anwendungsszenarios gemäß einer Ausführungsform dieser Anmeldung;
    • 5A und 5B ist ein schematisches Diagramm einer Gerätekonto-Verifizierungsart gemäß einem Beispiel dieser Anmeldung;
    • 6 ist ein schematisches Diagramm einer Gruppe von Schnittstellen gemäß einer Ausführungsform dieser Anmeldung;
    • 7A ist ein schematisches Interaktionsdiagramm eines Audio-Ausgabeverfahrens, das einer kabelgebundenen Audioausgabevorrichtung gemäß einer Ausführungsform dieser Anmeldung entspricht;
    • 7B ist ein schematisches Diagramm eines Anwendungsszenarios gemäß einer Ausführungsform dieser Anmeldung;
    • 8 ist ein schematisches Flussdiagramm einer anderen Audioausgabe-Interaktion gemäß einem Beispiel dieser Anmeldung;
    • 9 ist ein schematisches Flussdiagramm einer anderen Audioausgabeinteraktion gemäß einem Beispiel dieser Anmeldung;
    • 10 ist ein schematisches Flussdiagramm einer anderen Audioausgabeinteraktion gemäß einem Beispiel dieser Anmeldung; und
    • 11 ist ein schematisches Flussdiagramm einer anderen Audioausgabeinteraktion gemäß einem Beispiel dieser Anmeldung.
  • BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Um die Ziele, die technischen Lösungen und die Vorteile der Ausführungsformen dieser Anmeldung zu verdeutlichen, werden im Folgenden die technischen Lösungen in den Ausführungsformen dieser Anmeldung unter Bezugnahme auf die beigefügten Zeichnungen und spezifischen Implementierungen dieser Beschreibung im Detail dargelegt.
  • Im Folgenden werden, zum leichteren Verständnis für den Fachmann, zunächst einige in den Ausführungsformen dieser Anmeldung gewählte Formulierungen erläutert.
  • (1) Eine Anwendung in den Ausführungsformen dieser Anmeldung, kurz als APP bezeichnet, ist ein Softwareprogramm, das eine oder mehrere spezifische Funktionen implementieren kann. Im Allgemeinen kann eine Mehrzahl an Anwendungen auf einem Endgerät installiert werden, z. B. eine Kameraanwendung, eine E-Mail-Anwendung und eine Smart-Home-Steuerungsanwendung. Bei der weiter unten erwähnten Anwendung kann es sich um eine bei der Auslieferung eines Endgeräts installierte Systemanwendung handeln, oder um eine Anwendung eines Drittanbieters, die von dem Benutzer eines Endgerätes aus einem Netzwerk heruntergeladen oder von anderen Endgeräten bezogen werden kann.
  • (2) Eine Audioausgabevorrichtung kann in zwei Arten, nämlich in kabellose Audiovorrichtungen und in kabelgebundene Audiovorrichtungen unterteilt werden. Die kabellose Audiovorrichtung ist zum Beispiel ein Bluetooth-Kopfhörer, und die kabelgebundene Audiovorrichtung ist zum Beispiel ein kabelgebundener Kopfhörer. Die Audioausgabevorrichtung ist über eine Kabelverbindung oder eine kabellose Netzwerkverbindung mit einem Endgerät verbunden, um Audiodaten des Endgeräts in Sprachinhalte umzuwandeln und die Sprachinhalte auszugeben. Bei den Audiodaten kann es sich beispielsweise um einen Sprachanruf handeln bzw. um einen Sprachanruf oder einen Videoanruf, der über eine Anwendung (z. B. WeChat oder Facebook) aufgebaut wurde, um Audiodaten, die ein Musikplayer über einen Musikdienst abspielt, oder um Audiodaten, die ein Videoplayer über einen Videodienst abspielt.
  • Im Stand der Technik kann ein Benutzer ein von der Audioausgabevorrichtung ausgegebenes Audiosignal lediglich durch manuelles Umschalten des mit der Audioausgabevorrichtung verbundenen Endgeräts umschalten. Zum Beispiel, wie in 1 gezeigt, spielt ein Tablet-Computer 101 derzeit ein Video ab, wobei der Tablet-Computer 101 den Audioinhalt des Videos über einen Kopfhörer 100 abspielt. Wenn in diesem Fall ein Mobiltelefon 102 eines Benutzers einen eingehenden Anruf erhält und der Benutzer den Anruf mit einem Bluetooth-Kopfhörer annehmen möchte, muss der Benutzer eine Verbindung zwischen dem Kopfhörer 100 und dem Tablet-Computer 101 unterbrechen. Im Falle, dass der Kopfhörer 100 also ein Bluetooth-Kopfhörer ist, muss der Benutzer zwischen dem Bluetooth-Kopfhörer 100 und dem Mobiltelefon 102 eine Bluetooth-Verbindung herstellen, um den Anruf erfolgreich annehmen zu können. Wenn der Kopfhörer 100 ein kabelgebundener Kopfhörer ist, muss der Benutzer den Kopfhörer 100 vom Tablet-Computer 101 manuell trennen und den Kopfhörer über eine Kopfhörerbuchse mit dem Mobiltelefon 102 verbinden. Es ist ersichtlich, dass der eben beschriebene Vorgang relativ umständlich ist und die Benutzerfreundlichkeit beeinträchtigt.
  • In Anbetracht dessen sieht ein für das Verstehen dieser Anmeldung notwendiges Beispiel ein Audioausgabeverfahren vor. Durch die Verwendung des Verfahrens kann ein von einer Audioausgabevorrichtung ausgegebenes Audiosignal automatisch umgeschaltet werden, so dass ein Endgerät die Audioausgabevorrichtung automatisch umschalten kann, um, wenn ein erstes Audiosignal unter Verwendung der Audioausgabevorrichtung ausgegeben wird, einen Anruf von einem zweiten Endgerät entgegennehmen zu können. Auf diese Weise wird die Bedienungskomplexität des Benutzers reduziert, ein Maß an Intelligenz des Endgeräts verbessert und schließlich die Benutzerfreundlichkeit verbessert.
  • Die Ausführungsformen dieser Anmeldung sind auf ein Endgerät anwendbar. In einigen Ausführungsformen kann es sich bei dem Endgerät um ein tragbares Endgerät mit Funktionen wie einem persönlichen digitalen Assistenten und/oder einem Musikabspielgerät handeln, z. B. um ein Mobiltelefon, einen Tablet-Computer, ein tragbares Gerät (z. B. eine Smartwatch) mit einer kabellosen Kommunikationsfunktion oder ein Gerät in einem Fahrzeug. Ein Beispiel für eine Ausführungsform des tragbaren Endgeräts besteht unter anderem in einem tragbaren Endgerät mit einem iOS®-, Android®, Microsoft®- oder einem anderen Betriebssystem. Bei dem tragbaren Endgerät kann es sich beispielsweise auch um einen Laptop-Computer (Laptop) mit einer berührungsempfindlichen Oberfläche (z. B. einem Touchpanel) handeln. In einigen anderen Ausführungsformen kann das Endgerät alternativ auch ein Desktop-Computer mit einer berührungsempfindlichen Oberfläche (z. B. einem Touchpanel) sein.
  • Es ist zu beachten, dass sich in den Ausführungsformen dieser Anmeldung „zumindest eines“ auf eines oder mehrere und „mehrere“ auf zwei oder mehrere bezieht. „Und/oder“ beschreibt eine Zuordnungsbeziehung für miteinander verbundene Objekte und bedeutet, dass drei Beziehungen bestehen können. Beispielsweise kann A und/oder B bedeuten: nur A existiert, sowohl A als auch B existieren und nur B existiert, wobei A und B in der Einzahl oder in der Mehrzahl stehen können. Das Zeichen „/“ zeigt im Allgemeinen eine „oder“-Beziehung zwischen den verbundenen Objekten an. „Mindestens eines der folgenden Objekte“ oder ein ähnlicher Ausdruck bedeutet eine beliebige Kombination dieser Objekte, einschließlich eines einzelnen Objekts oder einer Kombination aus mehreren Objekten. Zum Beispiel kann „mindestens eines von a, b oder c“ für „a, b, c, a und b, a und c, b und c“ oder für „a, b und c“ stehen, wobei a, b und c in der Einzahl oder in der Mehrzahl stehen können.
  • Im Folgenden wird ein Beispiel verwendet, bei dem das Endgerät ein Mobiltelefon darstellt. 2 ist ein schematisches Strukturdiagramm eines Mobiltelefons 200.
  • Das Mobiltelefon 200 kann einen Prozessor 210, eine externe Speicherschnittstelle 220, einen internen Speicher 221, eine USB-Schnittstelle 230, ein Lademanagement-Modul 240, ein Strommanagement-Modul 241, eine Batterie 242, eine Antenne 1, eine Antenne 2, ein Modul für mobile Kommunikation 251, ein kabelloses Kommunikationsmodul 252, ein Audiomodul 270, einen Lautsprecher 270A, einen Telefonhörer 270B, ein Mikrofon 270C, eine Kopfhörerbuchse 270D, ein Sensormodul 280, eine Taste 290, einen Motor 291, einen Indikator 292, eine Kamera 293, einen Bildschirm 294, eine SIM-Kartenschnittstelle 295 und dergleichen aufweisen. Das Sensormodul 280 kann einen Gyrosensor 280A, einen Beschleunigungssensor 280B, einen optischen Näherungssensor 280G, einen Fingerabdrucksensor 280H und einen Touchscreen 280K umfassen (natürlich kann das Mobiltelefon 200 auch andere Sensoren umfassen, z. B. einen Temperatursensor, einen Drucksensor, einen Abstandssensor, einen Magnetsensor, einen Umgebungslichtsensor, einen Luftdrucksensor und einen Knochenschallsensor, die jedoch in der Abbildung nicht dargestellt sind).
  • Es ist klar, dass ein beispielhafter Aufbau in dieser Ausführungsform der vorliegenden Erfindung keine spezifische Einschränkung des Mobiltelefons 200 darstellt. In einigen anderen Ausführungsformen dieser Anmeldung kann das Mobiltelefon 200 mehr oder weniger Komponenten als die in der Abbildung gezeigten aufweisen, oder einige Komponenten können kombiniert, aufgeteilt oder auf unterschiedliche Weise angeordnet werden. Die in der Abbildung gezeigten Komponenten können durch Hardware, Software oder eine Kombination aus Software und Hardware implementiert werden.
  • Der Prozessor 210 kann eine oder mehrere Verarbeitungseinheiten enthalten. Beispielsweise kann der Prozessor 210 einen Anwendungsprozessor (Application Processor, AP), einen Modemprozessor, eine Grafikverarbeitungseinheit (Graphics Processing Unit, GPU), einen Bildsignalprozessor (Image Signal Processor, ISP), einen Controller, einen Speicher, einen Videocodec, einen digitalen Signalprozessor (Digital Signal Processor, DSP), einen Basisbandprozessor und/oder eine Verarbeitungseinheit für neuronale Netze (Neural-Network Processing Unit, NPU) umfassen. Die verschiedenen Verarbeitungseinheiten können unabhängige Komponenten sein oder in einen oder mehrere Prozessoren integriert werden. Der Controller kann ein Kontrollzentrum und eine Schaltzentrale des Mobiltelefons 200 sein. Der Controller kann auf der Grundlage eines Anweisungsoperationscodes und eines Zeitsignals ein Betriebssteuersignal generieren, eine Anweisung lesen und die Ausführung der Anweisung steuern.
  • Weiterhin kann im Prozessor 210 ein Speicher ausgebildet sein, um eine Anweisung und Daten zu speichern. In einigen Ausführungsformen stellt der Speicher im Prozessor 210 einen Cache-Speicher dar. Der Speicher kann eine Anweisung oder Daten speichern, die gerade vom Prozessor 210 verwendet wurden oder zyklisch verwendet werden. Wenn der Prozessor 210 die Anweisung oder die Daten erneut verwenden muss, kann der Prozessor die Anweisung oder die Daten direkt aus dem Speicher abrufen, um einen wiederholten Zugriff zu vermeiden und um die Wartezeit des Prozessors 210 zu verkürzen, um so die Systemeffizienz zu verbessern.
  • Der Prozessor 210 kann das in dieser Ausführungsform dieser Anmeldung vorgesehene Audio-Ausgabeverfahren ausführen, um die Bedienungskomplexität des Benutzers zu reduzieren, ein Maß an Intelligenz des Endgeräts zu verbessern und die Benutzerfreundlichkeit zu verbessern. Der Prozessor 210 kann aus verschiedenen Komponenten bestehen. Wenn zum Beispiel die CPU und die GPU integriert sind, können die CPU und die GPU das in diesem Beispiel dieser Anmeldung vorgesehene Audioausgabeverfahren in Zusammenarbeit durchführen. Zum Beispiel wird ein Teil des Algorithmus des Audio-Ausgabeverfahrens von der CPU durchgeführt, während der andere Teil des Algorithmus des Audio-Ausgabeverfahrens von der GPU durchgeführt wird, um die verhältnismäßig hohe Effizienz der Verarbeitung zu erreichen.
  • Der Anzeigebildschirm 294 ist so ausgebildet, dass er ein Bild, ein Video oder Ähnliches anzeigt. Der Anzeigebildschirm 294 weist ein Anzeigefeld auf. Das Anzeigefeld kann einen Flüssigkristall-Touchscreen (Flüssigkristallanzeige, LCD), eine organische Leuchtdiode (organische Leuchtdiode, OLED), eine organische Aktiv-Matrix-Leuchtdiode (organische Aktiv-Matrix-Leuchtdiode, AMOLED), eine flexible Leuchtdiode (flex light-emitting diode, FLED), eine Mini-LED, eine Micro-LED, eine Micro-OLED, eine Quantenpunkt-Leuchtdiode (quantum dot light emitting diodes, OLED) und dergleichen verwenden. In einigen Ausführungsformen kann das Mobiltelefon 200 einen oder N Anzeigebildschirme 294 umfassen. N ist eine positive ganze Zahl größer als 1. Der Anzeigebildschirm 294 kann so ausgebildet sein, dass er vom Benutzer eingegebene oder dem Benutzer bereitgestellte Informationen sowie grafische Benutzeroberflächen (graphical user interface, GUI) anzeigt. So kann der Bildschirm 294 beispielsweise ein Bild, ein Video, eine Seite, eine Datei oder Ähnliches anzeigen. In einem anderen Beispiel kann der Anzeigebildschirm 294 eine in 1 dargestellte grafische Benutzeroberfläche anzeigen. In einem weiteren Beispiel umfasst die in 1 gezeigte grafische Benutzeroberfläche eine Statusleiste, eine ausblendbare Navigationsleiste, ein Zeit- und Wetter-Widget (Widget) und ein Anwendungssymbol wie ein Browser-Symbol. Die Statusleiste enthält einen Betreibernamen (z. B. China Mobile), ein Mobilfunknetz (z. B. 4G), eine Uhrzeit und den aktuellen Batteriestand. Die Navigationsleiste enthält ein Symbol für die Zurück-Taste, ein Symbol für die Home-Taste und ein Symbol für die Vorwärts-Taste. Darüber hinaus kann die Statusleiste in einigen Ausführungsformen auch ein Bluetooth-Symbol, ein Wi-Fi-Symbol, ein Symbol für ein externes Gerät und ähnliches enthalten. Es ist weiterhin klar, dass in einigen anderen Ausführungsformen die in 1 gezeigte grafische Benutzeroberfläche ferner eine Dockleiste enthalten kann, wobei die Dockleiste allgemeine Anwendungssymbole und ähnliches enthalten kann. Wenn ein Berührungsereignis eines Fingers (oder eines Stiftes oder dergleichen) eines Benutzers auf einem Anwendungssymbol erkannt wird, öffnet der Prozessor 210 in Reaktion auf das Berührungsereignis eine Benutzeroberfläche einer dem Anwendungssymbol entsprechenden Anwendung und zeigt die Benutzeroberfläche der Anwendung auf dem Anzeigebildschirm 294 an.
  • In dieser Ausführungsform dieser Anmeldung kann der Anzeigebildschirm 294 ein integrierter flexibler Anzeigebildschirm oder ein aus zwei starren Bildschirmen und einem zwischen den beiden starren Bildschirmen angeordneten flexiblen Bildschirm bestehenden zusammengesetzter Anzeigebildschirm sein. Wenn der Prozessor 210 das in dieser Ausführungsform dieser Anmeldung vorgesehene Audioausgabeverfahren ausführt, kann der Prozessor 210 eine externe Audioausgabevorrichtung steuern, um ein ausgegebenes Audiosignal zu schalten.
  • Die Kamera 293 (eine nach vorne gerichtete Kamera oder eine nach hinten gerichtete Kamera, oder eine Kamera, die als nach vorne gerichtete Kamera und als nach hinten gerichtete Kamera verwendet werden kann) ist so ausgebildet, dass sie ein statisches Bild oder ein Video aufnehmen kann. Im Allgemeinen kann die Kamera 293 ein lichtempfindliches Element wie eine Linsengruppe und einen Bildsensor aufweisen. Die Linsengruppe umfasst eine Mehrzahl an Linsen (konvexe Linsen oder konkave Linsen) und ist so ausgebildet, dass sie ein von einem zu fotografierenden Objekt reflektiertes optisches Signal erfasst und das erfasste optische Signal an den Bildsensor überträgt. Der Bildsensor erzeugt ein Originalbild des zu fotografierenden Objekts gemäß dem optischen Signal.
  • Der interne Speicher 221 kann so ausgebildet sein, dass er computerausführbaren Programmcode speichert, wobei der ausführbare Programmcode eine Anweisung enthält. Der Prozessor 210 führt die im internen Speicher 221 gespeicherte Anweisung aus, um verschiedene Funktionsanwendungen und eine entsprechende Datenverarbeitung des Mobiltelefons 200 durchzuführen. Der interne Speicher 221 kann einen Programmspeicherbereich und einen Datenspeicherbereich aufweisen. Der Programmspeicherbereich kann ein Betriebssystem, den Programmcode einer Anwendung (z. B. einer Kameraanwendung oder einer WeChat-Anwendung) und dergleichen speichern. Der Datenspeicherbereich kann während der Verwendung des Mobiltelefons 200 erstellte Daten (z. B. ein Bild und ein Video, das von der Kameraanwendung aufgenommen wurde) und Ähnliches speichern.
  • Der interne Speicher 221 kann ferner ein oder mehrere Computerprogramme 1310 speichern, die dem in dieser Ausführungsform dieser Anmeldung vorgesehenen Audioausgabealgorithmus entsprechen. Das eine oder die mehreren Computerprogramme 1304 werden im Speicher 221 gespeichert und sind so ausgebildet, dass sie von dem einen oder den mehreren Prozessoren 210 ausgeführt werden können. Das eine oder die mehreren Computerprogramme 1310 enthalten Anweisungen. Die Anweisungen können so beschaffen sein, dass sie die Schritte gemäß den entsprechenden Ausführungsformen der 7A sowie der 8 bis 11 ausführen. Die Computerprogramme 1310 können ein Kontoverifizierungsmodul 2211 und ein Prioritätsvergleichsmodul 2212 enthalten. Das Kontoverifizierungsmodul 2211 ist so ausgebildet, dass es in einem lokalen Netzwerk ein Systemauthentifizierungskonto eines anderen Endgeräts verifiziert. Das Prioritätsvergleichsmodul 2212 kann so ausgebildet sein, dass es eine Priorität eines Audioausgabe-Anfragedienstes mit einer Priorität eines aktuellen Ausgabedienstes einer Audioausgabevorrichtung vergleicht. Ein Statussynchronisationsmodul 2213 kann so ausgebildet sein, dass es einen Gerätestatus einer derzeit mit dem Endgerät verbundenen Audioausgabevorrichtung mit einem anderen Endgerät synchronisiert oder einen Gerätestatus einer derzeit mit einem anderen Gerät verbundenen Audioausgabevorrichtung mit einem lokalen Gerät synchronisiert. Wenn der im internen Speicher 221 gespeicherte Code eines Audioausgabealgorithmus vom Prozessor 210 ausgeführt wird, kann der Prozessor 210 die Audioausgabevorrichtung steuern, um ein ausgegebenes Audiosignal zu schalten.
  • Darüber hinaus kann der interne Speicher 221 einen Hochgeschwindigkeits-Direktzugriffsspeicher umfassen oder einen nichtflüchtigen Speicher wie zumindest einen Magnetplattenspeicher, einen Flash-Speicher oder einen Universal-Flash-Speicher (Universal Flash Storage, UFS).
  • Natürlich kann der Code des in dieser Ausführungsform vorgesehenen Audioausgabealgorithmus alternativ in einem externen Speicher gespeichert werden. In diesem Fall kann der Prozessor 210 den Code des im externen Speicher gespeicherten Audioausgabealgorithmus, unter Verwendung der externen Speicherschnittstelle 220 ausführen, wobei der Prozessor 210 die Audioausgabevorrichtung steuern kann, um das ausgegebene Audiosignal zu schalten.
  • Im Folgenden wird eine Funktion des Sensormoduls 280 beschrieben.
  • Der Gyrosensor 280A kann so ausgebildet sein, dass er eine Bewegungslage des Mobiltelefons 200 bestimmt. In einigen Ausführungsformen kann durch Verwendung des Gyrosensors 280A eine Winkelgeschwindigkeit des Mobiltelefons 200 um drei Achsen (d.h. x-, y- und z-Achse) bestimmt werden. Das heißt, der Gyrosensor 280A kann so ausgebildet sein, dass er einen aktuellen Bewegungszustand des Mobiltelefons 200 erkennt, zum Beispiel, ob es wackelt oder sich nicht bewegt.
  • Wenn der Bildschirm in dieser Ausführungsform dieser Anmeldung einen faltbaren Bildschirm darstellt, kann der Gyrosensor 280A so ausgebildet sein, dass er auf dem Bildschirm 294 einen Falt- oder Entfaltungsvorgang erkennt. Der Gyrosensor 280A kann den erkannten Falt- oder Entfaltungsvorgang als ein Ereignis dem Prozessor 210 melden, um einen gefalteten Zustand oder einen entfalteten Zustand des Anzeigebildschirms 294 zu bestimmen.
  • Der Beschleunigungssensor 280B kann in jeder Richtung einen Beschleunigungswert des Mobiltelefons 200 erfassen (im Allgemeinen drei Achsen). Das heißt, der Gyrosensor 280A kann so ausgebildet sein, dass er einen aktuellen Bewegungszustand des Mobiltelefons 200 erkennt, zum Beispiel ob es wackelt oder sich nicht bewegt. Wenn der Bildschirm in dieser Ausführungsform dieser Anmeldung einen faltbaren Bildschirm darstellt, kann der Beschleunigungssensor 280B so ausgebildet sein, dass er einen Falt- oder Entfaltungsvorgang des Bildschirms 294 erkennt. Der Beschleunigungssensor 280B kann den erkannten Faltvorgang oder Entfaltungsvorgang als ein Ereignis dem Prozessor 210 melden, um einen gefalteten Zustand oder einen entfalteten Zustand des Anzeigebildschirms 294 zu bestimmen.
  • Der optische Näherungssensor 280G kann beispielsweise eine lichtemittierende Diode (LED) und einen optischen Detektor wie eine Fotodiode enthalten. Bei der Leuchtdiode kann es sich um eine Infrarot-Elektronendiode handeln. Das Mobiltelefon kann mit Hilfe der Leuchtdiode Infrarotlicht aussenden. Das Mobiltelefon erfasst das von einem nahe gelegenen Objekt reflektierte Infrarotlicht mit Hilfe der Fotodiode. Wenn genügend reflektiertes Licht erfasst wird, kann festgestellt werden, dass sich ein Objekt in der Nähe des Mobiltelefons befindet. Wenn nicht genügend reflektiertes Licht erfasst wird, bestimmt das Mobiltelefon, dass sich kein Objekt in der Nähe des Mobiltelefons befindet. Wenn der Anzeigebildschirm in dieser Ausführungsform dieser Anmeldung einen faltbaren Bildschirm darstellt, kann der optische Näherungssensor 280G auf einem ersten Bildschirm des faltbaren Anzeigebildschirms 294 angeordnet sein, wobei der optische Näherungssensor 280G, entsprechend einer optischen Wegdifferenz eines Infrarotsignals, zwischen dem ersten Bildschirm und einem zweiten Bildschirm einen Faltwinkel oder einen Entfaltungswinkel erfassen kann.
  • Der Gyrosensor 280A (oder der Beschleunigungssensor 280B) kann bezüglich des Bewegungszustands erfasste Informationen (zum Beispiel eine Winkelgeschwindigkeit) an den Prozessor 210 senden. Der Prozessor 210 bestimmt auf der Grundlage der Bewegungszustandsinformationen, ob sich das Mobiltelefon derzeit in einem handgehaltenen Zustand oder in einem Foot-Stool-Zustand befindet (wenn die Winkelgeschwindigkeit beispielsweise nicht 0 ist, bedeutet dies, dass sich das Mobiltelefon 200 im handgehaltenen Zustand befindet).
  • Der Fingerabdrucksensor 280H ist so ausgebildet, dass er einen Fingerabdruck erfasst. Das Mobiltelefon 200 kann unter Verwendung eines Merkmals des erfassten Fingerabdrucks die Entsperrung per Fingerabdruck, den Zugriff auf die Anwendungssperre, das Fotografieren von Fingerabdrücken, einen auf Fingerabdrücken basierenden Anrufbeantworter und Ähnliches implementieren.
  • Der Berührungssensor 280K wird auch als „Touchpanel“ bezeichnet. Der Berührungssensor 280K kann auf dem Anzeigebildschirm 294 angeordnet sein. Der Berührungssensor 280K und der Anzeigebildschirm 294 bilden einen Touchscreen. Der Berührungssensor 280K ist so ausgebildet, dass er eine auf oder in der Nähe des Berührungssensors ausgeführte Berührung erkennt. Der Berührungssensor kann den erfassten Berührungsvorgang an den Anwendungsprozessor weiterleiten, um einen Berührungsereignistyp zu bestimmen. Der Berührungssensor kann über den Anzeigebildschirm 294 eine dem Berührungsvorgang entsprechende visuelle Ausgabe generieren. In einigen anderen Ausführungsformen kann der Berührungssensor 280K alternativ auf einer Oberfläche des Mobiltelefons 200 angeordnet sein, wobei er sich an einer anderen Position als an der des Anzeigebildschirms 294 befindetn.
  • Der Bildschirm 294 des Mobiltelefons 200 zeigt zum Beispiel einen Startbildschirm an. Der Startbildschirm enthält Symbole einer Mehrzahl an Anwendungen (zum Beispiel eine Kameraanwendung und eine WeChat-Anwendung). Ein Benutzer tippt/klickt auf ein auf dem Startbildschirm befindliches Symbol der Kameraanwendung, indem er den Touchscreen 280K verwendet, um den Prozessor 210 zu veranlassen, die Kameraanwendung zu starten, um so die Kamera 293 zu öffnen. Der Bildschirm 294 zeigt eine Schnittstelle der Kameraanwendung an, zum Beispiel eine Sucherschnittstelle.
  • Eine kabellose Kommunikationsfunktion des Mobiltelefons 200 kann durch die Verwendung der Antenne 1, der Antenne 2, des Moduls für mobile Kommunikation 251, des kabellosen Kommunikationsmoduls 252, des Modemprozessors, des Basisbandprozessors und dergleichen implementiert werden.
  • Die Antenne 1 und die Antenne 2 sind so ausgebildet, dass sie ein elektromagnetisches Wellensignal senden und empfangen. Jede Antenne des Mobiltelefons 200 kann so ausgebildet sein, dass sie ein oder mehrere Kommunikations-Frequenzbänder abdeckt. Verschiedene Antennen können auch gemultiplext werden, um die Auslastung der Antennen zu verbessern. Zum Beispiel kann die Antenne 1 als Diversitäts-Antenne eines kabellosen lokalen Netzwerks gemultiplext werden. In einigen anderen Ausführungsformen kann die Antenne in Kombination mit einem Abstimmschalterverwendet werden.
  • Das Modul für mobile Kommunikation 251 kann für kabellose Kommunikation wie 2G/3G/4G/5G für das Mobiltelefon 200 eine Lösung bereitstellen. Das Modul für mobile Kommunikation 251 kann zumindest einen Filter, einen Schalter, einen Leistungsverstärker, einen rauscharmen Verstärker (Low Noise Amplifier, LNA) und dergleichen enthalten. Das mobile Kommunikationsmodul 251 kann eine elektromagnetische Welle über die Antenne 1 empfangen, eine Verarbeitung wie Filterung und Verstärkung der empfangenen elektromagnetischen Welle durchführen und eine verarbeitete elektromagnetische Welle zur Demodulation an den Modemprozessor senden. Das Modul für mobile Kommunikation 251 kann ferner ein vom Modemprozessor moduliertes Signal verstärken und das Signal zur Abstrahlung über die Antenne 1 in eine elektromagnetische Welle umwandeln. In einigen Ausführungsformen können zumindest einige Funktionsmodule des Moduls für mobile Kommunikation 251 im Prozessor 210 angeordnet sein. In einigen Ausführungsformen können zumindest einige Funktionsmodule des Moduls für mobile Kommunikation 251 und zumindest einige Module des Prozessors 210 in ein und demselben Bauteil angeordnet sein. In dieser Ausführungsform dieser Anmeldung kann das Modul für mobile Kommunikation 251 ferner so ausgebildet sein, dass es einen Informationsaustausch mit einem anderen Endgerät durchführt, d. h. eine Audioausgabe-Anfrage an das andere Endgerät sendet, oder das Modul für mobile Kommunikation 251 kann so ausgebildet sein, dass es eine Audioausgabe-Anfrage empfängt und die empfangene Audioausgabe-Anfrage in eine Nachricht eines bestimmten Formats verpackt.
  • Der Modemprozessor kann einen Modulator und einen Demodulator aufweisen. Der Modulator ist so ausgebildet, dass er ein zu sendendes niederfrequentes Basisbandsignal in ein mittel-hochfrequentes Signal moduliert. Der Demodulator ist so ausgebildet, dass er ein empfangenes elektromagnetisches Wellensignal in ein niederfrequentes Basisbandsignal demoduliert. Anschließend überträgt der Demodulator das demodulierte niederfrequente Basisbandsignal zur Verarbeitung an den Basisbandprozessor. Das niederfrequente Basisbandsignal wird vom Basisbandprozessor verarbeitet und dann an einen Anwendungsprozessor übertragen. Der Anwendungsprozessor gibt über eine Audiovorrichtung ein Tonsignal aus (welches nicht auf den Lautsprecher 270A, den Telefonhörer 270B und dergleichen beschränkt ist) oder zeigt über den Bildschirm 294 ein Bild oder Video an. In einigen Ausführungsformen kann der Modemprozessor ein unabhängiges Gerät darstellen. In einigen anderen Ausführungsformen kann der Modemprozessor von dem Prozessor 210 unabhängig sein, wobei der Modemprozessor und das Modul für mobile Kommunikation 251 oder ein anderes Funktionsmodul in derselben Komponente angeordnet sein können.
  • Das kabellose Kommunikationsmodul 252 kann eine auf das Mobiltelefon 200 angewandte Lösung für die kabellose Kommunikation bereitstellen, zum Beispiel ein kabelloses lokales Netzwerk (Wireless Local Area Network, WLAN), zum Beispiel ein Wireless-Fidelity-Netzwerk (Wireless Fidelity, Wi-Fi)), Bluetooth (Bluetooth, BT), ein globales Navigationssatellitensystem (Global Navigation Satellite System, GNSS), Frequenzmodulation (Frequency Modulation, FM), eine Nahfeldkommunikationstechnologie (Near Field Communication, NFC) und eine Infrarottechnologie (Infrarot, IR). Das kabellose Kommunikationsmodul 252 kann aus einer oder mehreren Komponenten bestehen, in die zumindest ein Kommunikationsverarbeitungsmodul integriert ist. Das kabellose Kommunikationsmodul 252 empfängt über die Antenne 2 eine elektromagnetische Welle, führt eine Frequenzmodulation und Filterung eines elektromagnetischen Wellensignals durch und sendet ein verarbeitetes Signal an den Prozessor 210. Das kabellose Kommunikationsmodul 252 kann alternativ ein zu sendendes Signal vom Prozessor 210 empfangen, eine Frequenzmodulation und Verstärkung des zu sendenden Signals durchführen und das Signal zur Abstrahlung unter Verwendung der Antenne 2 in eine elektromagnetische Welle umwandeln. In dieser Ausführungsform dieser Anmeldung ist das kabellose Kommunikationsmodul 252 so ausgebildet, dass es eine Verbindung zu einer Audioausgabevorrichtung herstellt und unter Verwendung der Audioausgabevorrichtung ein Sprachsignal ausgibt. Alternativ kann das kabellose Kommunikationsmodul 252 so ausgebildet sein, dass es eine Verbindung zu einer Zugangspunktvorrichtung herstellt und eine einer Audioausgabe-Anfrage entsprechende Nachricht an ein anderes Endgerät sendet oder eine Nachricht empfängt, die einer von einem anderen Endgerät gesendeten Audioausgabe-Anfrage entspricht. Optional kann das kabellose Kommunikationsmodul 252 auch so ausgebildet sein, dass es Sprachdaten von einem anderen Endgerät empfängt.
  • Das Mobiltelefon 200 kann eine Audiofunktion wie z.B. Musikwiedergabe oder -aufzeichnung unter Verwendung des Audiomoduls 270, des Lautsprechers 270A, des Telefonhörers 270B, des Mikrofons 270C, der Kopfhörerbuchse 270D, des Anwendungsprozessors und dergleichen implementieren. Das Mobiltelefon 200 kann eine Eingabe über eine Taste 290 erfassen und eine Tastensignaleingabe generieren, die sich auf die Benutzereinstellung und die Funktionssteuerung des Mobiltelefons 200 bezieht. Das Mobiltelefon 200 kann eine Vibrationsaufforderung (z. B. eine Vibrationsaufforderung bei eingehenden Anrufen) unter Verwendung des Motors 291 generieren. Der Indikator 292 im Mobiltelefon 200 kann eine Leuchtanzeige sein, kann so ausgebildet sein, dass sie einen Ladezustand bzw. einen notwendigen Batteriewechsel anzeigt, und kann ferner so ausgebildet sein, dass sie eine Nachricht, einen verpassten Anruf, eine Benachrichtigung und dergleichen anzeigt. Die SIM-Karten-Schnittstelle 295 im Mobiltelefon 200 ist so ausgebildet, dass sie mit einer SIM-Karte verbunden werden kann. Die SIM-Karte kann in die SIM-Kartenschnittstelle 295 eingeführt oder aus der SIM-Kartenschnittstelle 295 herausgezogen werden, um mit dem Mobiltelefon 200 in Kontakt zu kommen oder von ihm getrennt zu werden.
  • Es ist zu beachten, dass das Mobiltelefon 200 in einer tatsächlichen Anwendung mehr oder weniger Komponenten als die in 2 gezeigten enthalten kann. Dies ist nicht auf diese Ausführungsform dieser Anmeldung beschränkt. Das in der Figur gezeigte Mobiltelefon 200 ist nur ein Beispiel und kann mehr oder weniger Komponenten als die in der Abbildung gezeigten enthalten, kann zwei oder mehr Komponenten kombinieren oder eine andere Komponentenkonfiguration aufweisen. Verschiedene in der Figur gezeigte Komponenten können in Hardware, einschließlich einer oder mehrerer Signalverarbeitungsschaltungen oder anwendungsspezifischer integrierter Schaltungen, in Software oder einer Kombination aus Hardware und Software implementiert sein.
  • Ein Softwaresystem des Endgeräts kann eine mehrschichtige Architektur, eine ereignisgesteuerte Architektur, eine Mikrokernel-Architektur, eine Mikrodienst-Architektur oder eine Cloud-Architektur verwenden. In dieser Ausführungsform der vorliegenden Erfindung wird ein Android-System mit einer mehrschichtigen Architektur als Beispiel verwendet, um eine Softwarestruktur des Endgeräts zu veranschaulichen. 3 ist ein strukturelles Blockdiagramm der Software eines Endgeräts gemäß einer Ausführungsform der vorliegenden Erfindung.
  • In der Schichtenarchitektur ist die Software in mehrere Schichten unterteilt, wobei jeder Schicht eine klare Rolle und Aufgabe zukommt. Die Schichten kommunizieren untereinander über eine Softwareschnittstelle. In einigen Ausführungsformen ist das Android-System in vier Schichten unterteilt, und zwar von oben nach unten in eine Anwendungsschicht, eine Anwendungsrahmenstrukturschicht, eine Android-Laufzeit-Umgebung (Android-Runtime) und Systembibliothek sowie eine Kernelschicht.
  • Die Anwendungsschicht kann eine Reihe von Anwendungspaketen aufweisen.
  • Wie in 3 dargestellt, können die Anwendungspakete Anwendungen wie Kamera, Fotos, Kalender, Telefon, Karten, Navigation, WLAN, Bluetooth, Musik, Videos und SMS-Nachrichten enthalten.
  • Die Anwendungsrahmenstrukturschicht bietet eine Anwendungsprogrammierschnittstelle (Application Programming Interface, API) und eine Programmierrahmenstruktur für Anwendungen in der Anwendungsschicht. Die Anwendungsrahmenstrukturschicht weist einige vordefinierte Funktionen auf.
  • Wie in 3 gezeigt, kann die Anwendungsrahmenstrukturschicht einen Fenstermanager, einen Inhalteanbieter, ein Ansichtssystem, einen Telefonmanager, einen Ressourcenmanager, einen Benachrichtigungsmanager und Ähnliches aufweisen.
  • Der Fenstermanager ist so ausgebildet, dass er eine Fensteranwendung verwaltet. Der Fenstermanager kann die Größe eines Bildschirms ermitteln, feststellen, ob eine Statusleiste vorhanden ist, den Bildschirm sperren, den Bildschirm aufnehmen und dergleichen.
  • Der Inhalteanbieter ist so ausgebildet, dass er Daten speichert und abruft, so dass eine Anwendung auf die Daten zugreifen kann. Die Daten können ein Video, ein Bild, ein Audioinhalt, getätigte und angenommene Anrufe, einen Browserverlauf und Lesezeichen, ein Adressbuch und Ähnliches umfassen.
  • Das Ansichtssystem weist eine visuelle Steuerung, wie z. B. eine Steuerung für die Textanzeige oder eine Steuerung für die Bildanzeige auf. Das Ansichtssystem kann so ausgebildet sein, dass es eine Anwendung erstellt. Eine Anzeigeschnittstelle kann durch eine oder mehrere Ansichten gebildet werden. Beispielsweise kann eine Anzeigeschnittstelle, die ein SMS-Benachrichtigungssymbol enthält, eine Ansicht für die Anzeige von Text und eine Ansicht für die Anzeige eines Bildes umfassen.
  • Der Telefonmanager ist so ausgebildet, dass er eine Kommunikationsfunktion des Endgeräts bereitstellt, z. B. das Managen des Anrufstatus (einschließlich Durchstellen, Auflegen und dergleichen).
  • Der Ressourcenmanager stellt für eine Anwendung verschiedene Ressourcen zur Verfügung, zum Beispiel eine lokalisierte Zeichenkette, ein Symbol, ein Bild, eine Layout-Datei und eine Videodatei.
  • Der Benachrichtigungsmanager ermöglicht es einer Anwendung, Benachrichtigungsinformationen in einer Statusleiste anzuzeigen. Bei der Benachrichtigungsinformation kann es sich um eine Nachricht handeln, die einen Benachrichtigungstyp angibt, und die nach kurzer Zeit ohne Interaktion mit einem Benutzer automatisch verschwindet. Der Benachrichtigungsmanager ist z. B. so ausgebildet, dass er den Abschluss eines Downloads, eine Nachrichtenaufforderung oder ähnliches anzeigt. Der Benachrichtigungsmanager kann alternativ eine Benachrichtigung sein, die in der oberen Statusleiste des Systems in Form einer Grafik oder eines Rollbalken-Textes erscheint, z. B. eine Benachrichtigung über eine im Hintergrund laufende Anwendung, oder eine Benachrichtigung, die auf dem Bildschirm in Form eines Dialogfensters erscheint. Zum Beispiel werden in einer Statusleiste Textinformationen angezeigt, es ertönt ein Aufforderungston, das Endgerät vibriert oder eine Kontrollleuchte blinkt.
  • Die Android-Laufzeit-Umgebung umfasst eine Kernel-Bibliothek und eine virtuelle Maschine. Die Android-Laufzeit-Umgebung ist für die Planung und das Managen des Android-Systems verantwortlich.
  • Die Kernel-Bibliothek besteht aus zwei Teilen: Ein Teil ist eine in der Java-Programmiersprache aufzurufende Leistungsfunktion und der andere Teil stellt eine Android-Kernelbibliothek dar.
  • Die Anwendungsschicht und die Anwendungsrahmenstrukturschicht laufen auf der virtuellen Maschine. Die virtuelle Maschine führt Java-Dateien der Anwendungsschicht und der Anwendungsrahmenstrukturschicht in Form von Binärdateien aus. Die virtuelle Maschine wird zur Ausführung von Funktionen wie Objektlebenszyklus-Management, Stapel-Management, Thread-Management, Sicherheits- und Ausnahme-Management und Garbage Collection verwendet.
  • Die Systembibliothek kann eine Mehrzahl an Funktionsmodulen enthalten, z. B. einen Oberflächenmanager (Oberflächenmanager), eine Medienbibliothek (Medienbibliotheken), eine dreidimensionale Grafikverarbeitungsbibliothek (z. B. OpenGL ES) und eine 2D-Grafikmaschine (z. B. SGL).
  • Der Oberflächenmanager ist so ausgebildet, dass er ein Anzeige-Subsystem verwaltet und 2D- und 3D-Schichten von einer Mehrzahl an Anwendungen zusammenführt.
  • Die Medienbibliothek unterstützt die Wiedergabe und Aufzeichnung einer Mehrzahl gängiger Audio- und Videoformate, einer statischen Bilddatei und dergleichen. Die Medienbibliothek kann eine Mehrzahl an Audio- und Videokodierformaten unterstützen, zum Beispiel MPEG 4, H.264 MP3, AAC, AMR, JPG und PNG.
  • Die dreidimensionale Grafikverarbeitungsbibliothek ist so ausgebildet, dass sie dreidimensionales Grafikzeichnen, Bildrendering, Komposition, Ebenenverarbeitung und ähnliches ermöglicht.
  • Die 2D-Grafik-Engine stellt eine Zeichnungs-Engine für 2D-Zeichnungen dar.
  • Die Kernelschicht ist eine Schicht zwischen Hardware und Software. Die Kernel-Schicht umfasst zumindest einen Anzeige-Treiber, einen Kamera-Treiber, einen Audio-Treiber und einen Sensor-Treiber.
  • 4 ist eine schematische Darstellung eines Anwendungsszenarios, das auf eine Ausführungsform dieser Anwendung anwendbar ist.
  • Wie in 4 gezeigt, weist das Anwendungsszenario einen Server 400, ein Endgerät 401, ein Endgerät 402 und ein Endgerät 403 auf.
  • Der Server 400 kann einen Informationsaustausch mit dem Endgerät 401, dem Endgerät 402 und dem Endgerät 403 durchführen. Zum Beispiel erhalten das Endgerät 401, das Endgerät 402 und das Endgerät 403 Informationen über ein Systemauthentifizierungskonto vom Server 400, so dass Endgerät 401, Endgerät 402 und Endgerät 403 überprüfen können, ob sich die Geräte bei demselben Systemauthentifizierungskonto anmelden. In einigen Szenarien kann der Server 400 mit dem Endgerät 201, dem Endgerät 402 und dem Endgerät 403 über ein Netzwerk verbunden sein. Der Server 400 kann auch einen Cloud-Server, einen Server-Cluster oder ähnliches darstellen, der sich auf einer Netzwerkseite befindet.
  • In 4 können das Endgerät 401, das Endgerät 402 und das Endgerät 403 verschiedene Endgeräte unterschiedlichen Typs darstellen, zum Beispiel ein Mobiltelefon, ein Notebook, ein Tablet-Computer, ein intelligentes Fernsehgerät und eine intelligente Uhr.
  • In 4 stellen das Endgerät 401, das Endgerät 402 und das Endgerät 403 auf kabelgebundene und/oder kabellose Weise eine Verbindung zueinander her. Das Endgerät 401, das Endgerät 402 und das Endgerät 403 können auf kabelgebundene und/oder kabellose Weise eine Verbindung mit dem Server 400 herstellen. Zum Beispiel kann das Endgerät 401 eine Verbindung mit dem Endgerät 402 über eine Datenleitung herstellen. In einem anderen Beispiel kann das Endgerät 401 mit dem Endgerät 402 über ein kabelloses Kommunikationsnetz verbunden werden. Bei dem kabellosen Kommunikationsnetz kann es sich um ein lokales Netz oder um ein weiträumiges Netz handeln, das über eine Relaiseinrichtung geschaltet wird. Handelt es sich bei dem Kommunikationsnetzwerk um ein lokales Netzwerk, so stellt dieses beispielsweise ein Nahfeld-Kommunikationsnetzwerk wie ein Wi-Fi-Hotspot-Netzwerk, ein Wi-Fi-P2P-Netzwerk, ein Bluetooth-Netzwerk, ein Zigbee-Netzwerk oder ein Nahfeld-Kommunikationsnetzwerk dar. Handelt es sich bei dem Kommunikationsnetzwerk um ein weiträumiges Netz, so stellt dieses beispielsweise ein kabelloses Telefonnetz der 3. Generation (kabellose Telefontechnologie der 3. Generation, 3G), ein Mobilfunknetz der 4. Generation (Mobilfunktechnologie der 4. Generation, 4G), ein Mobilfunknetz der 5. Generation (Mobilfunktechnologie der 5. Generation, 5G), ein künftiges entwickeltes öffentliches Mobilfunknetz (öffentliches Mobilfunknetz, PLMN), das Internet oder ähnliches dar. In dem in 4 dargestellten Szenario können unter Verwendung des Kommunikationsnetzes Daten zwischen verschiedenen Endgeräten gesendet werden, z. B. Bilder, Text, Videos oder Abfrageergebnisse der Endgeräte für Objekte wie Bilder, Text oder Videos.
  • Es ist zu beachten, dass das System auch mehr Endgeräte oder auch weniger als drei Endgeräte aufweisen kann. Dies ist nicht auf diese Ausführungsform dieser Anmeldung beschränkt.
  • In dieser Ausführungsform dieser Anmeldung muss ein Endgerät in 4, nachdem es mit derselben Zugangspunktvorrichtung verbunden wurde, im Voraus eine Authentifizierung bei den Systemauthentifizierungskonten anderer Endgeräte durchführen. Auf diese Weise kann, nach erfolgreicher Authentifizierung, das Endgerät Nachrichten empfangen, die von den anderen Endgeräten gesendet wurden. Insbesondere das Endgerät 401 (auch als erstes Endgerät bezeichnet), das Endgerät 402 (auch als zweites Endgerät bezeichnet), das Endgerät 403 (auch als drittes Endgerät bezeichnet) in 4 werden weiterhin als Beispiel verwendet. Zur Vereinfachung einer einheitlichen Beschreibung werden im Folgenden nur das erste Endgerät, das zweite Endgerät und das dritte Endgerät verwendet. Das erste Endgerät, das zweite Endgerät und das dritte Endgerät können alle mit demselben Zugangspunkt (AP) verbunden sein. Zum Beispiel sind das erste Endgerät, das zweite Endgerät und das dritte Endgerät alle mit demselben Router verbunden, oder mit demselben Wi-Fi-Hotspot. Bei dem System stellt ein weiteres mit dem Zugangspunkt verbundenes Gerät außerdem ein viertes Endgerät dar, so dass das erste Endgerät, das zweite Endgerät, das dritte Endgerät und das vierte Endgerät die Vernetzung vervollständigen können, d. h. sich in dem gleichen Netzwerk befinden.
  • Nachdem zwischen den Endgeräten eine Netzwerkverbindung hergestellt wurde, kann das erste Endgerät zunächst eine Authentifizierung an anderen, mit demselben Zugangspunkt verbundenen Geräten durchführen, d. h. es kann feststellen, ob die anderen Geräte dasselbe Systemauthentifizierungskonto wie das erste Endgerät besitzen. Das erste Endgerät bestimmt einen Satz von Zielgeräten die dasselbe Systemauthentifizierungskonto aufweisen, wobei das erste Endgerät und die Endgeräte in dem Satz von Zielgeräten die Authentifizierung abschließen. Wie in 5A dargestellt, weist das Authentifizierungsverfahren die folgenden Schritte auf.
  • Schritt 501. Ein erstes Endgerät sendet unter Verwendung eines kabellosen Kommunikationsmoduls 252 eine Broadcast-Nachricht, wobei die Broadcast-Nachricht einen Chiffretext enthält und der Chiffretext durch das erste Endgerät erhalten wird, welches ein Systemauthentifizierungskonto des ersten Endgeräts unter Verwendung eines öffentlichen Schlüssels verschlüsselt, der dem Systemauthentifizierungskonto des ersten Endgeräts entspricht.
  • Das erste Endgerät kann einen einem Systemauthentifizierungskonto des ersten Endgeräts entsprechenden öffentlichen Schlüssel im Voraus von einem Server erhalten. Ein Konto des ersten Endgeräts kann beispielsweise ein Huawei-Konto sein. Das erste Endgerät kann einen dem Huawei-Konto entsprechenden öffentlichen Schlüssel von einem Huawei-Cloud-Server erhalten, das Huawei-Konto unter Verwendung des öffentlichen Schlüssels verschlüsseln und dann eine Broadcast-Nachricht generieren.
  • Schritt 502. Nachdem ein zweites Endgerät, ein drittes Endgerät und ein viertes Endgerät unter Verwendung des kabellosen Kommunikationsmoduls 252 diese Broadcast-Nachricht empfangen haben, lesen Prozessoren 210 des zweiten Endgeräts, des dritten Endgeräts und des vierten Endgeräts private Schlüssel, die Systemauthentifizierungskonten des zweiten Endgeräts, des dritten Endgeräts und des vierten Endgeräts entsprechen, aus einem authentischen Speicherbereich eines Speichers 221 aus, wobei die Prozessoren 210 des zweiten Endgeräts, des dritten Endgeräts und des vierten Endgeräts die Broadcast-Nachricht dann unter Verwendung dieser privaten Schlüssel entschlüsseln.
  • Das zweite Endgerät, das dritte Endgerät und das vierte Endgerät können private Schlüssel, die den Systemauthentifizierungskonten des zweiten Endgeräts, des dritten Endgeräts und des vierten Endgeräts entsprechen, im Voraus vom Server erhalten. Wenn beispielsweise die Konten des zweiten Endgeräts, des dritten Endgeräts und des vierten Endgeräts alle Huawei-Konten sind, können das zweite Endgerät, das dritte Endgerät und das vierte Endgerät im Voraus private Schlüssel, die den Huawei-Konten des zweiten Endgeräts, des dritten Endgeräts und des vierten Endgeräts entsprechen, vom Huawei-Cloud-Server erhalten und die privaten Schlüssel in dem authentischen Speicherbereich speichern.
  • Schritt 503. Wenn das zweite Endgerät die Entschlüsselung erfolgreich durchgeführt hat, sendet das zweite Endgerät unter Verwendung des kabellosen Kommunikationsmoduls 252 eine Bestätigungsrückmeldung an das erste Endgerät, wobei die Bestätigungsrückmeldung anzeigt, dass das zweite Endgerät den Chiffretext erfolgreich entschlüsselt hat.
  • Schritt 504. Wenn das dritte Endgerät die Entschlüsselung erfolgreich durchgeführt hat, sendet das dritte Endgerät unter Verwendung des kabellosen Kommunikationsmoduls 252 eine Bestätigungsrückmeldung an das erste Endgerät, wobei die Bestätigungsrückmeldung anzeigt, dass das dritte Endgerät den Chiffretext erfolgreich entschlüsselt hat.
  • Schritt 505. Wenn das vierte Endgerät die Entschlüsselung nicht erfolgreich durchführen kann, sendet das vierte Endgerät unter Verwendung des kabellosen Kommunikationsmoduls 252 eine negative Bestätigungsrückmeldung an das erste Endgerät, wobei die negative Bestätigungsrückmeldung anzeigt, dass das vierte Endgerät den verschlüsselten Text nicht entschlüsseln kann.
  • Schritt 506. Ein Prozessor 210 des ersten Endgeräts kann ein Verfahren durchführen, das durch ein Kontoverifizierungsmodul 2211 definiert ist, wobei der Prozessor 210 bestimmt, dass die Systemauthentifizierungskonten des zweiten Endgeräts und des dritten Endgeräts mit denen des ersten Endgeräts gemäß den Bestätigungsrückmeldungen des zweiten Endgeräts und dem dritten Endgerät übereinstimmen, so dass eine Netzwerkverbindung zwischen dem ersten Endgerät, dem zweiten Endgerät und dem dritten Endgerät hergestellt wird, um die Vernetzung abzuschließen.
  • In einer möglichen Ausführungsform kann das erste Endgerät beim Senden einer Broadcast-Nachricht einen Zeitgeber starten. Wenn eine Zeitdauer abläuft, ermittelt das erste Endgerät eine innerhalb der Zeitdauer (z.B. 3s) empfangene Bestätigungsrückmeldung. Es wird davon ausgegangen, dass das erste Endgerät innerhalb der Zeitdauer Bestätigungsrückmeldungen vom zweiten Endgerät und vom dritten Endgerät empfängt und das erste Endgerät, das zweite Endgerät und das dritte Endgerät die Vernetzung abschließen.
  • Daraus erschließt sich, dass ein anderes Endgerät eine Broadcast-Nachricht entschlüsselt, indem ein privater Schlüssel verwendet wird, der einem Konto des anderen Endgeräts entspricht, wobei die erfolgreiche Entschlüsselung anzeigt, dass das andere Gerät und ein Endgerät, das die Broadcast-Nachricht sendet, bei einem gleichen Systemauthentifizierungskonto angemeldet sind. Die Ausführungsform kann die Sicherheit des Datenzugriffs zwischen Geräten gewährleisten und einen illegalen Zugriff auf die Daten verhindern.
  • In einer möglichen Ausführungsform dieser Anmeldung kann das erste Endgerät, das mit einer Audioausgabevorrichtung verbunden ist, nach Abschluss der Authentifizierung des zweiten Endgeräts und des dritten Endgeräts durch das erste Endgerät alle oder nur einige der Endgeräte auswählen, um eine Synchronisierung des Gerätestatus durchzuführen. Damit das erste Endgerät einen Gerätestatus mit dem zweiten Endgerät und dem dritten Endgerät synchronisieren kann, kann das in 5B gezeigte Verfahren außerdem die folgenden Schritte aufweisen.
  • Schritt 507. Der Prozessor 210 des ersten Endgeräts kann durch ein Gerätesynchronisationsmodul 2213 definierte Schritte durchführen, wobei der Prozessor 210 erkennt, wenn eine Audioausgabevorrichtung angeschlossen ist, und wobei das erste Endgerät einen Typ der Audioausgabevorrichtung bestimmt, sowie einen Anwendungstyp, der einem Sprachdienst entspricht, welcher derzeit von der Audioausgabevorrichtung ausgegeben wird, und in Bezug auf die Audioausgabevorrichtung einen Gerätestatus erzeugt, wobei der Gerätestatus beinhalten kann, dass das erste Endgerät mit der Audioausgabevorrichtung verbunden ist, sowie den Typ (kabelgebunden oder kabellos) der Audioausgabevorrichtung und den Anwendungstyp, der dem Sprachdienst entspricht, welcher derzeit von der Audioausgabevorrichtung ausgegeben wird.
  • Es wird zum Beispiel angenommen, dass das erste Endgerät ein Tablet-Gerät ist, das Tablet-Gerät derzeit mit einem Bluetooth-Kopfhörer verbunden ist und das Tablet-Gerät derzeit ein Audiosignal eines Videodienstes von einer Videoanwendung unter Verwendung des Bluetooth-Kopfhörers ausgibt. Daher beinhaltet ein sich auf den Bluetooth-Kopfhörer beziehender Gerätestatus, dass das Tablet-Gerät mit einem Kopfhörer verbunden ist, dass der Kopfhörer ein kabelloser Kopfhörer ist, und dass der Anwendungstyp, der einem Sprachdienst entspricht, welcher derzeit durch den kabellosen Kopfhörer ausgegeben wird, eine Videoanwendung ist.
  • Schritt 508. Das erste Endgerät sendet den Gerätestatus über das kabellose Kommunikationsmodul 252 an das zweite Endgerät und das dritte Endgerät.
  • Gemäß dem obigen Beispiel wird angenommen, dass das zweite Endgerät ein Notebook und das dritte Endgerät ein Mobiltelefon ist. Das Tablet-Gerät kann den Gerätestatus in eine Meldung einbetten und dann eine die Meldung enthaltende Multicast-Nachricht über Wi-Fi an das Notebook und das Mobiltelefon senden. Nach dem Empfang der Multicast-Nachricht können der Notebook-Computer und das Mobiltelefon die Multicast-Nachricht auswerten, um den Gerätestatus zu erhalten.
  • Schritt 509. Nach dem Empfang des Gerätestatus durch das kabellose Kommunikationsmodul 252 speichern das zweite Endgerät und das dritte Endgerät den Gerätestatus.
  • Es wird beispielsweise angenommen, dass das Tablet-Gerät 101 derzeit mit dem Bluetooth-Kopfhörer verbunden ist und das Tablet-Gerät 101 Sprachinhalte in der Videoanwendung über den Bluetooth-Kopfhörers wiedergibt, wie in 1 gezeigt. Nach der Durchführung der Authentifizierung an Geräten im lokalen Netzwerk gemäß der obigen Ausführungsform stellt das Tablet-Gerät 101 fest, dass zu den Endgeräten mit demselben Systemauthentifizierungskonto auch ein Mobiltelefon 102, ein PC (Notebook-Computer) und ein intelligentes Fernsehgerät gehören. Das Tablet-Gerät 101 kann ein Pop-up-Fenster 610 anzeigen. Wie in 6(a) gezeigt, zeigt das Pop-up-Fenster 610 Aufforderungsinformationen an, wobei die Aufforderungsinformationen verwendet werden, um einen Benutzer aufzufordern, ein Gerät auszuwählen, das eine Statussynchronisierung durchführen soll. Wie in 6(b) gezeigt, empfängt das Tablet-Gerät 101 einen Auswahlvorgang 621 eines Benutzers auf einem Mobiltelefon-Symbol 102 sowie eine Benutzeraktion auf einem Bestätigungssteuerelement 622, so dass das Tablet-Gerät 101 entscheidet, den Gerätestatus an das Mobiltelefon 102 zu senden. Daher kann das Mobiltelefon 102 den aktuellen Zustand der Audioausgabevorrichtung vom Tablet-Gerät 101 erfassen, wobei der Zustand darin besteht, dass die Audioausgabevorrichtung mit dem Tablet-Gerät 101 verbunden ist, die Audioausgabevorrichtung einen Bluetooth-Kopfhörer darstellt und die Audioausgabevorrichtung derzeit einen Sprachinhalt ausgibt, der Teil eines Videodienstes einer Videoanwendung ist.
  • In Anbetracht der Tatsache, dass die Audioausgabevorrichtung in zwei Arten von Audioausgabevorrichtungen klassifiziert ist, nämlich in kabelgebundene und kabellose, wird das Audio-Ausgabeverfahren, welches in diesem Beispiel dieser Anmeldung vorgesehen ist, im Folgenden in Form zweier Szenarien erläutert.
  • Szenario 1: Die Audioausgabevorrichtung ist eine kabelgebundene Audioausgabevorrichtung.
  • Wie in 7A gezeigt, sieht ein Beispiel dieser Anmeldung ein Audio-Ausgabeverfahren vor. Das Verfahren kann durch mindestens zwei Endgeräte eines Benutzers implementiert werden, wobei die mindestens zwei Endgeräte des Benutzers unter Verwendung desselben Systemauthentifizierungskontos mit einem Netzwerk verbunden sind. Beispielhaft werden ein erstes Endgerät und ein zweites Endgerät des Benutzers verwendet, wobei das erste Endgerät derzeit mit der kabelgebundenen Audioausgabevorrichtung verbunden ist. Im Einzelnen weist das Verfahren die folgenden Schritte auf.
  • Schritt 701. Ein Modul für mobile Kommunikation 251 eines zweiten Endgeräts empfängt eine Audioausgabe-Anfrage.
  • In einer möglichen Implementierung verpackt das zweite Endgerät die Audioausgabe-Anfrage in eine Meldung festgelegten Formats.
  • Die Audioausgabe-Anfrage kann eine Videodienstwiedergabe-Anfrage einer Videoanwendung, eine Musikwiedergabe-Anfrage einer Musikanwendung, eine Radiowiedergabe-Anfrage einer Radiosenderanwendung oder eine Anrufanfrage sein. Die Anrufanfrage kann eine empfangene Sprachanrufanfrage des zweiten Endgeräts sein, oder aber eine Sprachanrufanfrage oder eine Videoanrufanfrage, welche unter Verwendung einer Drittanbieteranwendung (z. B. WeChat oder Facebook) durch das zweite Endgerät empfangen wird.
  • Wie in 7B gezeigt, wird zum Beispiel angenommen, dass das zweite Endgerät ein Mobiltelefon 102 ist, wobei die Audioausgabe-Anfrage eine vom Mobiltelefon 102 empfangene Anrufanfrage sein kann. Zum Beispiel zeigt das Mobiltelefon 102 in 7B eine eingehende Anrufanfrage von Georg an.
  • Schritt 702. Das Modul für mobile Kommunikation 251 des zweiten Endgeräts sendet eine verpackte Meldung an ein kabelloses Kommunikationsmodul 252.
  • Optional kann weiterhin, nach Schritt 702 oder wenn der Schritt 702 durchgeführt wird, der Schritt 703 durchgeführt werden: das Modul für mobile Kommunikation 251 des zweiten Endgeräts sendet die verpackte Meldung an ein Prioritätsvergleichsmodul 2212, wobei das Prioritätsvergleichsmodul 2212 des zweiten Endgeräts von einem Statussynchronisationsmodul 2213 einen Gerätestatus einer kabellosen Audioausgabevorrichtung eines ersten Endgeräts erhält, und bestimmt, dass eine Priorität eines der Meldung entsprechenden Sprachdienstes höher ist als eine Priorität eines Sprachdienstes in einem gespeicherten Gerätestatus. Zum Beispiel wird, wie in 7B gezeigt, angenommen, dass das zweite Endgerät das Tablet-Gerät 101 ist, ein in einem Statussynchronisationsmodul 2213 gespeicherter Gerätestatus darin besteht, dass die Audioausgabevorrichtung ein kabelgebundener Kopfhörer ist und das Tablet-Gerät 101 unter Verwendung des kabelgebundenen Kopfhörers derzeit ein Audiosignal eines Videodienstes ausgibt. Aufgrund dessen bestimmt ein Prioritätsvergleichsmodul 2212, dass die Priorität eines der Anrufanfrage entsprechenden Sprachdienstes höher ist als die des Videodienstes.
  • Es ist zu beachten, dass in Schritt 703 der in dem Statussynchronisationsmodul 2213 gespeicherte Gerätestatus entweder keinen Sprachdienst enthält oder dass die kabelgebundene Audioausgabevorrichtung mit dem ersten Endgerät verbunden ist und die kabelgebundene Audioausgabevorrichtung kein Audiosignal ausgibt. In 7B ist beispielsweise der kabelgebundene Kopfhörer mit dem Tablet-Gerät 101 über ein Kabel verbunden, wenn aber das Tablet-Gerät 101 die Wiedergabe eines Videos unterbricht, enthält der Gerätestatus keinen Sprachdienst. In diesem Fall kann das Prioritätsvergleichsmodul 2212 des zweiten Endgeräts dennoch eine Priorität eines der Meldung entsprechenden Sprachdienstes bestimmen.
  • Schritt 704. Das kabellose Kommunikationsmodul 252 des zweiten Endgeräts sendet die der Audioausgabe-Anfrage entsprechende Meldung an das erste Endgerät.
  • Es wird beispielsweise angenommen, dass in 7B das Tablet-Gerät 101 und das Mobiltelefon 102 mit demselben Wi-Fi-Hotspot verbunden sind, und das Mobiltelefon 102 in der Lage ist, die der Anrufanfrage entsprechende Meldung über ein WLAN-Netzwerk an das Tablet-Gerät zu senden.
  • Schritt 705. Ein Prozessor 210 des ersten Endgerätes wandelt die Meldung in ein zweites Audiosignal um.
  • Mit Bezug auf 7B kann das Tablet-Gerät 101 zum Beispiel die Meldung in einen Sprachinhalt umwandeln, ähnlich wie „Georg ruft an, gehst du dran?“.
  • In einer möglichen Implementierung kann Schritt 705 ferner darin bestehen, dass nach der Umwandlung der Meldung in das zweite Audiosignal der Prozessor 210 des ersten Endgeräts das zweite Audiosignal mit einem aktuell ausgegebenen dritten Audiosignal mischt, wobei das dritte Audiosignal ein Audiosignal vom ersten Endgerät ist. Unter Bezugnahme auf 7B kann das dritte Audiosignal der Sprachinhalt des Videodienstes der Videoanwendung sein, der aktuell von der Tablet-Vorrichtung 101 ausgegeben wird. Das Tablet-Gerät 101 mischt den Sprachinhalt und das zweite Audiosignal, z. B. wandelt das Tablet-Gerät 101 die Meldung in ein zweites Audiosignal um, z.B. in „Georg ruft an, gehst du dran?“, und mischt dann das zweite Audiosignal in das Audiosignal des aktuell ausgegebenen Videodienstes.
  • Schritt 706. Das erste Endgerät gibt das zweite Audiosignal über eine kabelgebundene Audiovorrichtung aus.
  • Mit Bezug auf 7B unterbricht das Tablet-Gerät 101 beispielsweise die Wiedergabe des Sprachinhalts der Videoanwendung und spielt das zweite Audiosignal ab, z. B. „Georg ruft an, und gehst du dran?“.
  • In einer möglichen Implementierung kann der Schritt 705 alternativ darin bestehen, dass das erste Endgerät über die kabelgebundene Audiovorrichtung ein gemischtes Audiosignal ausgibt, welches das zweite Audiosignal und das dritte Audiosignal enthält. Mit Bezug auf 7B steuert das Tablet-Gerät 101 beispielsweise den linken Kanal des kabelgebundenen Kopfhörers, um den Sprachinhalt „Georg ruft an, und gehst du dran?“ in hoher Lautstärke abzuspielen, während gleichzeitig auf dem rechten Kanal das Audiosignal des Videodienstes in niedriger Lautstärke weiterläuft.
  • Es ist zu beachten, dass Schritt 705 und Schritt 706 optionale Schritte sein können. In einem möglichen Fall, wenn das erste Endgerät ein Gerät wie z.B. ein intelligentes Fernsehgerät darstellt, kann ein Benutzer auf eine Audioausgabe-Anfrage (z.B. Entgegennehmen eines Anrufs oder Beenden eines Anrufs) nicht dadurch reagieren, dass er z.B. auf dem ersten Endgerät einen Berührungsvorgang ausführt, so dass dieses Schritt 705 und Schritt 706 ausführen kann, um es für den Benutzer einfacher zu machen, zu bestimmen, ob ein Anruf entgegengenommen oder beendet werden soll, indem er nämlich die Audioausgabevorrichtung bedient. Zum Beispiel nimmt der Benutzer einen Anruf entgegen oder beendet einen Anruf, indem er eine Taste an dem Kopfhörer betätigt, oder er sendet, um einen Anruf entgegenzunehmen oder zu beenden, eine Sprachanweisung an den Kopfhörer.
  • In einem anderen möglichen Fall, wenn das erste Endgerät ein Tablet-Computer, ein Notebook-Computer oder dergleichen ist, kann der Benutzer einen Anruf entgegennehmen oder beenden, indem er das erste Endgerät bedient, wobei Schritt 705 und Schritt 706 nicht ausgeführt werden können. Schritt 705 und Schritt 706 können dadurch ersetzt werden, dass das erste Endgerät Aufforderungsinformationen anzeigt, wobei die Aufforderungsinformationen verwendet werden, um den Benutzer darauf hinzuweisen, dass eine Audioausgabe-Anfrage vom zweiten Endgerät vorliegt. Wenn es sich bei der Audioausgabe-Anfrage beispielsweise um eine Anrufanfrage des Mobiltelefons 102 handelt, kann das Tablet-Gerät 101 eine Aufforderungsinformation enthaltende Schnittstelle anzeigen, um einem Benutzer mitzuteilen, dass auf dem Mobiltelefon ein Anruf eingeht und ob er diesen entgegennehmen will.
  • Schritt 707. Ein Benutzer sendet eine Betriebsanweisung, um das erste Endgerät zu veranlassen, eine Antwort auf eine Audioausgabe-Anfrage zu generieren.
  • In einem möglichen Beispiel kann ein Benutzer das erste mit der kabelgebundenen Audioausgabevorrichtung verbundene Endgerät, dazu veranlassen, eine Audioausgabe-Anfrageantwort zu generieren (z. B. einen Anruf entgegenzunehmen oder zu beenden), indem er an der kabelgebundenen Audiovorrichtung (z. B. einen kabelgebundenen Kopfhörer) eine mechanische Taste betätigt.
  • In einem anderen möglichen Beispiel kann der Benutzer eine Audioausgabe-Anfrageantwort generieren, indem er das erste Endgerät entsprechend bedient. Zum Beispiel kann das Tablet-Gerät ein Eingabeaufforderungsfeld anzeigen, wobei das Eingabeaufforderungsfeld dem Benutzer anzeigt, dass das Mobiltelefon 102 einen eingehenden Anruf erhält, wobei das Tablet-Gerät 101 eine auf dem Tablet-Gerät 101 erfolgte Berührungsaktion des Benutzers erfassen kann, um eine Audioausgabe-Anfrageantwort zu generieren (z. B. Beantworten oder Beenden eines Anrufs).
  • In einem weiteren möglichen Beispiel kann der Benutzer über die kabelgebundene Audiovorrichtung an das erste Endgerät eine Sprachanweisung senden und das erste Endgerät dazu veranlassen, eine Antwort auf eine Audioausgabe-Anfrage zu generieren. Zum Beispiel kann ein Benutzer die Sprachanweisung „Nimm den Anruf an“ senden, um das Tablet-Gerät 101 zu veranlassen, eine Audioausgabe-Anfrageantwort zum Entgegennehmen eines Anrufs zu generieren; oder der Benutzer kann die Sprachanweisung „Leg auf“ senden, um das Tablet-Gerät 101 zu veranlassen, eine Audioausgabe-Anfrageantwort zum Beenden des Anrufs zu generieren.
  • Schritt 708. Das erste Endgerät sendet die Audioausgabe-Anfrageantwort an das zweite Endgerät.
  • Unter Bezugnahme auf 7B sendet das Tablet-Gerät 101 eine Anrufanfrageantwort an das Mobiltelefon 102. Die Anrufanfrageantwort kann eine positive Rückmeldung sein, wie z.B. das Entgegennehmen eines eingehenden Anrufs, oder sie kann eine negative Rückmeldung sein, wie z. B. das Ablehnen des eingehenden Anrufs.
  • Schritt 709. Wenn die Audioausgabe-Anfrageantwort eine positive Rückmeldung ist, erhält das zweite Endgerät der Audioausgabe-Anfrage entsprechende Audiodaten.
  • Wenn die Rückmeldung beispielsweise bestätigen soll, dass ein eingehender Anruf angenommen wird, nimmt das zweite Endgerät den Anruf entgegen, wobei das Modul für mobile Kommunikation 251 des zweiten Endgeräts Anrufdaten von einem Netzwerkgerät empfängt, wodurch die Anrufdaten erhalten werden. Beispielsweise nimmt das Mobiltelefon 102 in 7B einen Anruf entgegen, wobei das Mobiltelefon 102 Anrufdaten von einem Netzwerkgerät empfängt.
  • Schritt 710. Das zweite Endgerät sendet die Audiodaten mit Hilfe des kabellosen Kommunikationsmoduls 252 an das erste Endgerät.
  • Zum Beispiel sendet das Mobiltelefon 102 in 7B die Anrufdaten an das Tablet-Gerät 101.
  • Schritt 711. Das erste Endgerät gibt die Audiodaten über eine kabelgebundene Audioausgabevorrichtung aus.
  • Schritt 712. Die kabelgebundene Audioausgabevorrichtung gibt ein erstes den Audiodaten entsprechendes Audiosignal aus.
  • In einer möglichen Implementierung, wenn das erste Endgerät derzeit kein Audiosignal über die Audioausgabevorrichtung ausgibt, kann das erste Endgerät ein erstes den Audiodaten entsprechendes Audiosignal direkt ausgeben, indem es die kabelgebundene Audiovorrichtung verwendet.
  • In einer möglichen Implementierung, wenn das erste Endgerät die Audioausgabevorrichtung steuert, um vor dem Empfang der Audiodaten ein drittes Audiosignal auszugeben, steuert das erste Endgerät die kabelgebundene Audiovorrichtung so, dass die Ausgabe des dritten Audiosignals gestoppt wird, und gibt dann das erste Audiosignal aus, das den Audiodaten unter Verwendung der kabelgebundenen Audiovorrichtung entspricht. Es wird beispielsweise angenommen, dass in 7B vor dem Empfang der Anrufdaten vom Mobiltelefon 102 die Tablet-Vorrichtung 101 den Sprachinhalt des Videodienstes über den kabelgebundenen Kopfhörer ausgibt, so dass nach dem Empfang der Anrufdaten die Tablet-Vorrichtung 101 den kabelgebundenen Kopfhörer so steuert, dass die Ausgabe des Sprachinhalts des Videodienstes gestoppt wird, und den kabelgebundenen Kopfhörer so steuert, dass die Ausgabe des den Anrufdaten entsprechenden Sprachinhalts startet.
  • Es ist zu beachten, dass in dem Verfahren in einer möglichen Implementierung, nachdem ein zweites Endgerät eine Audioausgabe-Anfrage empfängt, ein Modul für mobile Kommunikation 251 des zweiten Endgeräts eine verpackte Meldung an ein kabelloses Kommunikationsmodul 252 sendet, wobei das zweite Endgerät durch ein kabelloses Kommunikationsmodul 252 die der Anrufanfrage entsprechende verpackte Meldung direkt an ein erstes Endgerät senden kann. Das erste Endgerät kann unter Verwendung eines Prioritätsvergleichsmoduls 2212 im ersten Endgerät feststellen, ob eine Priorität eines der Audioausgabe-Anfrage entsprechenden Sprachdienstes höher ist als eine Priorität eines Sprachdienstes in einem Gerätestatus, wobei das erste Endgerät dann fortfährt, die nachfolgenden Schritte 705 bis 711 auszuführen.
  • Darüber hinaus sollte beachtet werden, dass in dieser Ausführungsform dieser Anmeldung die Prioritäten verschiedener Sprachdienste in absteigender Reihenfolge vordefiniert sein können, oder ein Benutzer die Prioritäten verschiedener Sprachdienste in absteigender Reihenfolge anpassen kann (zum Beispiel soll folgende Reihenfolge gelten: ein Sprachanruf, der von einer Telefonanwendung (einer Systemanwendung) initiiert wird, ein Sprachanruf oder ein Videoanruf, der von einer Drittanbieteranwendung initiiert wird, ein Audiosignal, das von einer Videoanwendung ausgegeben wird, und ein Audiosignal, das von einer Musikanwendung ausgegeben wird). Wenn festgestellt wird, dass die Priorität eines Sprachdienstes des zweiten Endgeräts höher ist als die Priorität eines Sprachdienstes, der in einem Statussynchronisationsmodul 2213 gespeichert ist, wird der Audiosignalumschaltvorgang durchgeführt, andernfalls wird ein von der Audioausgabevorrichtung ausgegebenes Sprachsignal nicht umgeschaltet. Zum Beispiel kann das Tablet-Gerät 101 einen Sprachdienst eines Videoanrufs einer WeChat-Anwendung über einen kabelgebundenen Kopfhörer ausgeben. In diesem Fall, wenn eine Telefonanwendung des Mobiltelefons 102 einen eingehenden Anruf anzeigt, bestimmt das Mobiltelefon 102, dass eine Priorität eines Sprachdienstes des Mobiltelefons 102 höher ist als eine Priorität eines in dem Statussynchronisationsmodul 2213 gespeicherten Sprachdienstes des Videoanrufs, so dass das Tablet-Gerät 101 den kabelgebundenen Kopfhörer so steuert, dass Anrufdaten von dem Mobiltelefon 102 ausgegeben werden. In dieser Ausführungsform dieser Anmeldung sind die Arten der Audiosignale, die vor und nach dem Umschalten der Audioausgabevorrichtung in dem Audioausgabeverfahren ausgegeben werden, nicht beschränkt, wobei eine bestimmte Art des Audiosignals auf einem bestimmten Anwendungsszenario basieren kann. Einzelheiten werden hier nicht noch einmal beschrieben.
  • Daraus ist abzuleiten, dass in dieser Ausführungsform dieser Anmeldung der Benutzer auf die Ausgabe von Audiosignalen verschiedener Geräte über die kabelgebundene Audioausgabevorrichtung umschalten kann, so dass das zweite Endgerät weder in der Hand gehalten noch die kabelgebundene Audioausgabevorrichtung ein- oder ausgesteckt werden muss. Wenn zum Beispiel ein Mobiltelefon sich nicht in der Nähe des Benutzers befindet, kann gemäß dem Verfahren auf die Ausgabe von Anrufdaten über die kabelgebundene Audioausgabevorrichtung umgeschaltet werden, weshalb ein Anruf nur schwer verpasst werden kann, was eine bessere Benutzerfreundlichkeit darstellt.
  • Szenario 2: Die Audioausgabevorrichtung ist eine kabellose Audioausgabevorrichtung
  • Wie in 8 gezeigt, sieht ein Beispiel dieser Anmeldung ein Audioausgabeverfahren vor. Das Verfahren kann von mindestens zwei Endgeräten eines Benutzers implementiert werden, wobei die mindestens zwei Endgeräte des Benutzers mit einem Netzwerk verbunden sind, indem sie dasselbe Systemauthentifizierungskonto verwenden. Als Beispiel werden ein erstes Endgerät und ein zweites Endgerät des Benutzers verwendet, wobei das erste Endgerät derzeit mit der kabellosen Audioausgabevorrichtung verbunden ist. Im Einzelnen weist das Verfahren die folgenden Schritte auf.
  • In 8 sind die Schritte 801 bis 809 die gleichen wie die Schritte 701 bis 709, weshalb Einzelheiten hier nicht noch einmal beschrieben werden.
  • Schritt 810. Wenn die Audioausgabe-Anfrageantwort eine positive Rückmeldung ist, trennt das erste Endgerät eine erste Kommunikationsverbindung zwischen der kabellosen Audioausgabevorrichtung und dem ersten Endgerät.
  • In 1 beispielsweise bestimmt das Tablet-Gerät 101, nach dem Empfang einer Betriebsanweisung eines Benutzers, eine Audioausgabe-Anfrageantwort, wonach der eingehende Anruf beantwortet werden soll, wobei das Tablet-Gerät 101 eine Bluetooth-Kommunikationsverbindung mit einem Bluetooth-Kopfhörer trennt.
  • Schritt 811. Wenn die Audioausgabe-Anfrageantwort eine positive Rückmeldung ist, wird eine zweite Kommunikationsverbindung zwischen dem zweiten Endgerät und der Audioausgabevorrichtung hergestellt, wobei das zweite Endgerät die Audiodaten über die Audioausgabevorrichtung ausgibt.
  • In 1 beispielsweise bestimmt das Mobiltelefon 102 nach dem Empfang einer entsprechenden Betriebsanweisung eines Benutzers, dass die Audioausgabe-Anfrageantwort die Beantwortung eines eingehenden Anrufs melden soll, und baut eine Bluetooth-Kommunikationsverbindung zu dem Bluetooth-Kopfhörer auf. Zum Beispiel stellt das Mobiltelefon 102 eine Bluetooth-Kommunikationsverbindung mit dem Bluetooth-Kopfhörer besonders schnell her, indem es einen Google Fast Pair Service (Google Fast Pair Service, GFPS) verwendet.
  • Schritt 812. Die kabellose Audioausgabevorrichtung gibt ein erstes den Audiodaten entsprechendes Audiosignal aus.
  • In 1 beispielsweise steuert das Mobiltelefon 102 nach dem Empfang von Anrufdaten den Bluetooth-Kopfhörer so, dass mit der Ausgabe von den Anrufdaten entsprechenden Sprachinhalten begonnen wird.
  • Es ist zu beachten, dass im Szenario 2, in einer möglichen Implementierung, nachdem ein zweites Endgerät eine Audioausgabe-Anfrage empfängt, ein Modul für mobile Kommunikation 251 des zweiten Endgeräts eine verpackte Meldung an ein kabelloses Kommunikationsmodul 252 sendet, wobei das zweite Endgerät die der Audioausgabe-Anfrage entsprechende verpackte Meldung direkt an ein erstes Endgerät senden kann, indem es das kabellose Kommunikationsmodul 252 verwendet. Das erste Endgerät kann bestimmen, dass eine Priorität eines der Anrufanfrage entsprechenden Sprachdienstes höher ist als eine Priorität eines Sprachdienstes in einem Gerätestatus, indem ein im ersten Endgerät befindliches Prioritätsvergleichsmodul 2212 verwendet wird, wobei dann das erste Endgerät fortfährt, die nachfolgenden Schritte 805 bis 813 auszuführen.
  • Darüber hinaus sollte beachtet werden, dass in dieser Ausführungsform dieser Anmeldung die Prioritäten verschiedener Sprachdienste in absteigender Reihenfolge vordefiniert sein können, oder ein Benutzer die Prioritäten verschiedener Sprachdienste in absteigender Reihenfolge anpassen kann (zum Beispiel gilt folgende Reihenfolge: ein Sprachanruf, der von einer Telefonanwendung (einer Systemanwendung) initiiert wird, ein Sprachanruf oder ein Videoanruf, der von einer Drittanbieteranwendung initiiert wird, ein Audiosignal, das von einer Videoanwendung ausgegeben wird, und ein Audiosignal, das von einer Musikanwendung ausgegeben wird). Wenn festgestellt wird, dass die Priorität eines Sprachdienstes des zweiten Endgeräts höher ist als die Priorität eines Sprachdienstes, der in einem Statussynchronisationsmodul 2213 gespeichert ist, wird der Audiosignalumschaltvorgang durchgeführt, andernfalls wird ein von der Audioausgabevorrichtung ausgegebenes Sprachsignal nicht umgeschaltet. Zum Beispiel kann das Tablet-Gerät 101 einen Sprachdienst eines Videoanrufs einer WeChat-Anwendung über einen Bluetooth-Kopfhörer ausgeben. In diesem Fall, wenn eine Telefonanwendung des Mobiltelefons 102 einen eingehenden Anruf anzeigt, bestimmt das Mobiltelefon 102, dass eine Priorität eines Sprachdienstes des Mobiltelefons 102 höher ist als eine Priorität eines Sprachdienstes des Videoanrufs, der in einem Statussynchronisationsmodul 2213 gespeichert ist, so dass das Tablet-Gerät 101 von dem Bluetooth-Kopfhörer getrennt wird, wobei der Bluetooth-Kopfhörer eine Verbindung zu dem Mobiltelefon 102 herstellt und Anrufdaten des Mobiltelefons 102 ausgibt. In dieser Ausführungsform dieser Anmeldung sind die Typen der Audiosignale, die vor und nach dem Umschalten der Audioausgabevorrichtung in dem Audioausgabeverfahren ausgegeben werden, nicht beschränkt, wobei ein bestimmter Audiosignal-Typ auf einem bestimmten Anwendungsszenario basieren kann. Einzelheiten werden hier nicht noch einmal beschrieben.
  • Daraus kann abgeleitet werden, dass in dieser Ausführungsform dieser Anmeldung der Benutzer auf die Ausgabe von Audiosignalen verschiedener Geräte über die kabellose Audioausgabevorrichtung umschalten kann, ohne das zweite Endgerät bedienen oder die kabellose Audioausgabevorrichtung manuell trennen und wieder anzuschließen zu müssen. Zum Beispiel, wenn sich ein Mobiltelefon nicht in der Nähe des Benutzers befindet, kann auf die Ausgabe von Anrufdaten über die kabellose Audioausgabevorrichtung gemäß dem Verfahren umgeschaltet werden, weshalb ein Anruf nur schwer verpasst werden kann, was eine bessere Benutzerfreundlichkeit darstellt.
  • Basierend auf dem Szenario 1 sieht ein Beispiel dieser Anmeldung außerdem ein Audioausgabeverfahren vor. Das Verfahren kann von einem ersten Endgerät durchgeführt werden, wie in 9 gezeigt. Das Verfahren weist insbesondere die folgenden Schritte auf.
  • Schritt 901. Ein erstes Endgerät empfängt eine Audioausgabe-Anfrage von einem zweiten Endgerät.
  • Das zweite Endgerät und das erste Endgerät sind über dasselbe Systemauthentifizierungskonto mit einem Netzwerk verbunden, wobei das erste Endgerät derzeit mit einer kabelgebundenen Audioausgabevorrichtung verbunden ist. Bezüglich des möglichen Inhalts der Audioausgabe-Anfrage kann auf Schritt 701 verwiesen werden. Einzelheiten werden hier nicht noch einmal beschrieben.
  • Schritt 902. Das erste Endgerät empfängt eine Benutzeraktion.
  • Es ist zu beachten, dass optional, in einer möglichen Implementierung, bevor das erste Endgerät eine Benutzeraktion empfängt, das erste Endgerät eine Aufforderungsinformation anzeigen kann, wobei die Aufforderungsinformation dazu verwendet wird, den Benutzer darauf hinzuweisen, dass die Audioausgabe-Anfrage vom zweiten Endgerät vorliegt. Ein spezifisches Beispiel stellt Schritt 706 dar. In einer anderen möglichen Implementierung kann das erste Endgerät, bevor das erste Endgerät die Benutzeraktion empfängt, die Audioausgabe-Anfrage in ein zweites Audiosignal umwandeln und das zweite Audiosignal unter Verwendung der kabelgebundenen Audioausgabevorrichtung ausgeben, wenn die kabelgebundene Audioausgabevorrichtung ein drittes Audiosignal des ersten Endgeräts ausgibt. Als spezifisches Beispiel kann Schritt 705 gelten, weshalb Einzelheiten hier nicht noch einmal beschrieben werden.
  • Schritt 903. Das erste Endgerät sendet in Reaktion auf die Benutzeraktion eine Audioausgabe-Anfrage-Antwort an das zweite Endgerät.
  • Die Audioausgabe-Anfrageantwort wird verwendet, um das zweite Endgerät zu veranlassen, der Audioausgabe-Anfrage entsprechende Audiodaten zu erhalten. Für eine ausführlichere Beschreibung kann auf Schritt 707 und Schritt 708 verwiesen werden. Einzelheiten werden hier nicht noch einmal beschrieben.
  • Schritt 904. Das erste Endgerät empfängt Audiodaten des zweiten Endgeräts.
  • Das heißt, wenn die Audioausgabe-Anfrageantwort eine positive Rückmeldung darstellt, erhält das zweite Endgerät der Audioausgabe-Anfrage entsprechende Audiodaten und sendet diese dann an das erste Endgerät. Wenn es sich bei der Rückmeldung beispielsweise um die Bestätigung handelt, einen eingehenden Anruf anzunehmen, nimmt das zweite Endgerät den Anruf entgegen, wobei das Modul für mobile Kommunikation 251 des zweiten Endgeräts Anrufdaten von einem Netzwerkgerät empfängt, wodurch die Anrufdaten erhalten werden. In einem anderen Beispiel, wenn die Rückmeldung bestätigt, dass Musik abgespielt wird, erhält das zweite Endgerät Audiodaten, die einer Musikdatei entsprechen.
  • Schritt 905. Das erste Endgerät gibt die Audiodaten an eine kabelgebundene Audioausgabevorrichtung aus, so dass die kabelgebundene Audioausgabevorrichtung ein den Audiodaten entsprechendes erstes Audiosignal ausgibt.
  • Das heißt, das erste Endgerät gibt ein Audiosignal von einem anderen Endgerät unter Verwendung einer kabelgebundenen Audioausgabevorrichtung aus. Wenn die kabelgebundene Audioausgabevorrichtung das Audiosignal umschaltet, kann der Benutzer auf die Ausgabe von Audiosignalen verschiedener Geräte über die kabelgebundene Audioausgabevorrichtung umschalten, ohne das zweite Endgerät halten oder die kabelgebundene Audioausgabevorrichtung ein- oder ausstecken zu müssen. Wenn sich beispielsweise ein Mobiltelefon nicht in der Nähe des Benutzers befindet, kann gemäß dem Verfahren auf die Ausgabe von Anrufdaten über die kabelgebundene Audioausgabevorrichtung umgeschaltet werden, wodurch ein Anruf nur schwer verpasst werden kann, was eine bessere Benutzerfreundlichkeit darstellt.
  • Basierend auf dem Szenario 2 sieht ein Beispiel dieser Anmeldung außerdem ein Audioausgabeverfahren vor. Das Verfahren kann von einem ersten Endgerät durchgeführt werden, wie in 10 dargestellt. Das Verfahren weist insbesondere die folgenden Schritte auf.
  • Schritt 1001. Ein erstes Endgerät empfängt eine Audioausgabe-Anfrage von einem zweiten Endgerät.
  • Das zweite Endgerät und das erste Endgerät sind über dasselbe Systemauthentifizierungskonto mit einem Netzwerk verbunden, wobei das erste Endgerät derzeit mit einer Audioausgabevorrichtung verbunden ist. Zum möglichen Inhalt der Audioausgabe-Anfrage kann auf Schritt 701 verwiesen werden. Einzelheiten werden hier nicht noch einmal beschrieben.
  • Schritt 1002. Das erste Endgerät empfängt eine Benutzeraktion.
  • Es ist zu beachten, dass optional, in einer möglichen Implementierung, bevor das erste Endgerät eine Benutzeraktion empfängt, das erste Endgerät eine Aufforderungsinformation anzeigen kann, wobei die Aufforderungsinformation dazu verwendet wird, den Benutzer darauf hinzuweisen, dass eine Audioausgabe-Anfrage vom zweiten Endgerät vorliegt. Ein spezifisches Beispiel stellt Schritt 706 dar. In einer anderen möglichen Implementierung kann das erste Endgerät, bevor es die Benutzeraktion empfängt, die Audioausgabe-Anfrage in ein zweites Audiosignal umwandeln und das zweite Audiosignal über die kabellose Audioausgabevorrichtung ausgeben, während die kabellose Audioausgabevorrichtung ein drittes Audiosignal des ersten Endgeräts ausgibt. Als spezifisches Beispiel kann Schritt 705 gelten. Einzelheiten werden hier nicht noch einmal beschrieben.
  • Schritt 1003. Das erste Endgerät sendet in Reaktion auf die Benutzeraktion eine Audioausgabe-Anfrageantwort an das zweite Endgerät.
  • Die Audioausgabe-Anfrageantwort wird verwendet, um das zweite Endgerät zu veranlassen, der Audioausgabe-Anfrage entsprechende Audiodaten zu erhalten. Für eine ausführlichere Beschreibung kann auf Schritt 707 und Schritt 708 verwiesen werden. Einzelheiten werden hier nicht noch einmal beschrieben.
  • Schritt 1004. Das erste Endgerät trennt eine erste Kommunikationsverbindung mit einer kabellosen Audioausgabevorrichtung, so dass die kabellose Audioausgabevorrichtung eine zweite Kommunikationsverbindung mit dem zweiten Endgerät aufbaut, wobei die zweite Kommunikationsverbindung zur Übertragung eines ersten den Audiodaten entsprechenden Audiosignals verwendet wird.
  • Das heißt, wenn die Audioausgabe-Anfrageantwort eine positive Rückmeldung darstellt, trennt das erste Endgerät eine erste Kommunikationsverbindung zwischen der kabellosen Audioausgabevorrichtung und dem ersten Endgerät. Auf diese Weise kann das zweite Endgerät eine zweite Kommunikationsverbindung mit der kabellosen Audioausgabevorrichtung herstellen, so dass das zweite Endgerät ein den Audiodaten entsprechendes Audiosignal ausgibt, indem es die kabellose Audioausgabevorrichtung verwendet. Beispielhaft kann auf Schritt 811 und Schritt 812 verwiesen werden. Einzelheiten werden hier nicht noch einmal beschrieben.
  • Daraus ist abzuleiten, dass in dieser Ausführungsform dieser Anmeldung der Benutzer auf die Ausgabe von Audiosignalen verschiedener Geräte über die kabellose Audioausgabevorrichtung umschalten kann, ohne das zweite Endgerät bedienen zu müssen bzw. ohne die kabellose Audioausgabevorrichtung manuell trennen und wieder anschließen zu müssen. Wenn sich beispielsweise ein Mobiltelefon nicht in der Nähe des Benutzers befindet, kann gemäß dem Verfahren auf die Ausgabe von Anrufdaten über die kabellose Audioausgabevorrichtung umgeschaltet werden, wodurch ein Anruf nur schwer verpasst werden kann, was eine bessere Benutzerfreundlichkeit darstellt.
  • Basierend auf dem Szenario 2 sieht ein Beispiel dieser Anmeldung außerdem ein Audioausgabeverfahren vor. Das Verfahren kann von einem zweiten Endgerät durchgeführt werden, wie in 11 dargestellt. Das Verfahren weist insbesondere die folgenden Schritte auf.
  • Schritt 1101. Ein zweites Endgerät empfängt eine Audioausgabe-Anfrage.
  • Zum möglichen Inhalt der Audioausgabe-Anfrage kann auf Schritt 701 verwiesen werden. Einzelheiten werden hier nicht noch einmal beschrieben.
  • Schritt 1102. Das zweite Endgerät sendet die Audioausgabe-Anfrage an ein erstes Endgerät.
  • Das zweite Endgerät und das erste Endgerät sind unter Verwendung desselben Systemauthentifizierungskonto mit einem Netzwerk verbunden, wobei das erste Endgerät derzeit mit einer kabellosen Audioausgabevorrichtung verbunden ist.
  • Schritt 1103. Das zweite Endgerät empfängt eine Audioausgabe-Anfrageantwort vom ersten Endgerät.
  • Die Audioausgabe-Anfrageantwort wird verwendet, um das zweite Endgerät zu veranlassen, der Audioausgabe-Anfrage entsprechende Audiodaten zu erhalten, die. Für eine ausführlichere Beschreibung kann auf Schritt 707 und Schritt 708 verwiesen werden. Einzelheiten werden hier nicht noch einmal beschrieben.
  • Schritt 1104. Das zweite Endgerät erhält Audiodaten.
  • Wenn die Rückmeldung beispielsweise bestätigen soll, dass ein eingehender Anruf angenommen werden soll, nimmt das zweite Endgerät den Anruf entgegen, wobei das Modul für mobile Kommunikation 251 des zweiten Endgeräts Anrufdaten von einem Netzwerkgerät empfängt, wodurch die Anrufdaten erhalten werden. Zum Beispiel nimmt das Mobiltelefon 102 in 7B einen Anruf entgegen, wobei das Mobiltelefon 102 Anrufdaten von einem Netzwerkgerät empfängt. In einem anderen Beispiel, wenn mit der Rückmeldung bestätigt werden soll, dass Musik abgespielt werden soll, erhält das zweite Endgerät Audiodaten, die einer Musikdatei entsprechen.
  • Schritt 1105. Das zweite Endgerät baut eine erste Kommunikationsverbindung zu einer Audioausgabevorrichtung auf.
  • Für eine ausführliche Beschreibung kann auf Schritt 811 verwiesen werden. Einzelheiten werden hier nicht noch einmal beschrieben.
  • Schritt 1106. Das zweite Endgerät übergibt die Audiodaten einer kabelgebundenen Audioausgabevorrichtung, worauf die kabelgebundene Audioausgabevorrichtung ein den Audiodaten entsprechendes erstes Audiosignal ausgibt.
  • Nachdem beispielsweise, gemäß 1, das Mobiltelefon 102 Anrufdaten empfängt, beginnt das Mobiltelefon 102 mit der Ausgabe von den Anrufdaten entsprechenden Sprachinhalten über einen Bluetooth-Kopfhörer.
  • Daraus wird ersichtlich, dass in dieser Ausführungsform dieser Anmeldung der Benutzer auf die Ausgabe von Audiosignalen verschiedener Geräte über die kabellose Audioausgabevorrichtung umschalten kann, ohne das zweite Endgerät bedienen oder die kabellose Audioausgabevorrichtung manuell trennen und wieder anzuschließen zu müssen. Wenn sich beispielsweise ein Mobiltelefon nicht in der Nähe des Benutzers befindet, kann gemäß dem Verfahren auf die Ausgabe von Anrufdaten über die kabellose Audioausgabevorrichtung umgeschaltet werden, weshalb ein Anruf nur schwer verpasst werden kann, was eine bessere Benutzerfreundlichkeit darstellt.
  • Eine Ausführungsform dieser Anmeldung sieht ferner ein computerlesbares Speichermedium vor. Das computerlesbare Speichermedium speichert Computeranweisungen, wobei die Computeranweisungen, wenn sie auf einem Endgerät ausgeführt werden, das Endgerät dazu veranlassen, die zugehörigen Verfahrensschritte auszuführen, um das Verfahren gemäß den vorangehenden Beispielen zu implementieren.
  • Eine Ausführungsform dieser Anmeldung sieht ferner ein Computerprogrammprodukt vor. Wenn das Computerprogrammprodukt auf einem Computer läuft, wird ein Computer in die Lage versetzt, die zugehörigen Schritte auszuführen, um das Verfahren gemäß den vorangehenden Beispielen zu implementieren.
  • Darüber hinaus sieht eine Ausführungsform dieser Anwendung einen Apparat vor. Der Apparat kann insbesondere ein Chip, eine Komponente oder ein Modul sein. Der Apparat kann einen Prozessor und einen Speicher aufweisen, die miteinander verbunden sind. Der Speicher ist so ausgebildet, dass er computerausführbare Anweisungen speichert. Wenn der Apparat betrieben wird, kann der Prozessor die im Speicher gespeicherten computerausführbaren Anweisungen ausführen, um den Chip zu veranlassen, die Schritte gemäß den vorstehenden Ausführungsformen durchzuführen.
  • Das Endgerät, das Computerspeichermedium, das Computerprogrammprodukt oder der Chip, die gemäß den Ausführungsformen dieser Anmeldung vorgesehen sind, können so ausgebildet sein, dass sie das entsprechende oben beschriebene Verfahren durchführen. Daher wird hinsichtlich der zu erreichenden vorteilhaften Effekte, auf die vorteilhaften Effekte des entsprechenden oben beschriebenen Verfahrens verwiesen. Einzelheiten werden hier nicht noch einmal beschrieben.
  • Auf der Grundlage der vorstehenden Beschreibungen der Implementierungen ist es einem Fachmann klar, dass die Aufteilung der vorstehenden Funktionsmodule im Sinne einer einfachen und kurzen Beschreibung beispielhaft der Veranschaulichung dient. In der tatsächlichen Anwendung können die oben genannten Funktionen verschiedenen Funktionsmodulen zugewiesen und je nach Anforderung implementiert werden, d. h. eine innere Struktur eines Apparates wird in verschiedene Funktionsmodule unterteilt, um alle oder einige der oben beschriebenen Funktionen zu implementieren.
  • In den verschiedenen in dieser Anmeldung beschriebenen Ausführungsformen, können der offenbarte Apparat und das Verfahren auch auf andere Art und Weise implementiert werden. Zum Beispiel ist die beschriebene Ausführungsform des Apparates nur beispielhaft. Beispielsweise ist die Unterteilung in Module oder Einheiten lediglich eine logische Funktionsteilung und kann in der tatsächlichen Implementierung eine andere Unterteilung darstellen. Zum Beispiel kann eine Mehrzahl an Einheiten oder Komponenten kombiniert oder in einen anderen Apparat integriert werden, oder einige Funktionen können ignoriert oder gar nicht ausgeführt werden. Darüber hinaus können die dargestellten oder diskutierten gegenseitigen Kopplungen oder direkten Kopplungen oder Kommunikationsverbindungen durch bestimmte Schnittstellen implementiert werden. Die indirekten Kopplungen oder Kommunikationsverbindungen zwischen den Apparaten oder Einheiten können in elektronischer, mechanischer oder anderer Form realisiert werden.
  • Die als separate Teile beschriebenen Einheiten können, können aber auch nicht, physikalisch getrennt sein, wobei die als Einheiten dargestellten Teile eine oder mehrere physikalische Einheiten darstellen können, welche sich an einem Ort befinden oder über mehrere verschiedene Orte verteilt sein können. Einige oder alle Einheiten können entsprechend den tatsächlichen Bedürfnissen ausgewählt werden, um die Lösungsziele der Ausführungsformen zu erreichen.
  • Darüber hinaus können die Funktionseinheiten in den Ausführungsformen dieser Anmeldung in eine Verarbeitungseinheit integriert sein, oder jede der Einheiten kann physikalisch für sich allein bestehen, oder aber zwei oder mehr Einheiten können in eine Einheit integriert sein. Die integrierte Einheit kann in Form von Hardware oder in Form einer Software-Funktionseinheit implementiert sein.
  • Wenn die integrierte Einheit in Form einer Software-Funktionseinheit implementiert ist und als eigenständiges Produkt verkauft oder verwendet wird, kann die integrierte Einheit in einem lesbaren Speichermedium gespeichert sein. Vor diesem Hintergrund können die technischen Lösungen in den Ausführungsformen dieser Anmeldung oder der Teil, der zum Stand der Technik beiträgt, oder alle oder einige der technischen Lösungen im Wesentlichen in Form eines Softwareprodukts implementiert sein. Das Softwareprodukt ist in einem Speichermedium gespeichert und enthält mehrere Anweisungen, um eine Vorrichtung (in Form eines Ein-Chip-Mikrocomputers, eines Chips oder dergleichen) oder einen Prozessor (Prozessor) anzuweisen, alle oder einige der Schritte der in den Beispielen der vorliegenden Anmeldung beschriebenen Verfahren durchzuführen. Das vorgenannte Speichermedium umfasst jedes Medium, das Programmcode speichern kann, wie z. B. ein USB-Flash-Laufwerk, eine austauschbare Festplatte, einen Festwertspeicher (ROM), einen Direktzugriffsspeicher (RAM), eine Magnetplatte oder eine Compact Disc.
  • Bei den vorstehenden Beschreibungen handelt es sich lediglich um spezifische Ausführungsformen dieser Anmeldung, die jedoch den Schutzbereich dieser Anmeldung nicht einschränken sollen. Jede Abwandlung oder jeder Ersatz, die bzw. der von einem Fachmann innerhalb des in dieser Anmeldung offenbarten technischen Umfangs ohne weiteres erdacht werden kann, fällt in den Schutzbereich dieser Anmeldung. Daher unterliegt der Schutzbereich dieser Anmeldung dem Schutzbereich der Ansprüche.

Claims (20)

  1. Ein System, aufweisend: ein erstes elektronisches Gerät, welches unter Verwendung eines Systemauthentifizierungskontos mit einem Netzwerk verbunden ist, wobei auf dem ersten elektronischen Gerät eine erste Musikanwendung und eine erste Videoanrufanwendung installiert sind; ein zweites elektronisches Gerät, welches unter Verwendung des Systemauthentifizierungskontos mit dem Netzwerk verbunden ist, wobei auf dem zweiten elektronischen Gerät eine zweite Musikanwendung, eine zweite Videoanrufanwendung und eine Sprachanrufanwendung installiert sind; und eine Audioausgabevorrichtung, wobei, wenn das erste elektronische Gerät mit der Audioausgabevorrichtung verbunden ist und die Audioausgabevorrichtung kein Audiosignal ausgibt, welches Audiodaten des ersten elektronischen Gerätes entspricht, als Reaktion auf eine erste Benutzeraktion, die von dem zweiten elektronischen Gerät für die zweite Musikanwendung empfangen wird, das zweite elektronische Gerät so ausgebildet ist, dass es die Audioausgabevorrichtung veranlasst, ein den Audiodaten der zweiten Musikanwendung entsprechendes Audiosignal auszugeben, wobei, wenn die Audioausgabevorrichtung ein den Audiodaten der ersten Musikanwendung entsprechendes Audiosignal ausgibt, das zweite elektronische Gerät von der zweiten Videoanrufanwendung einen ersten Videoanruf empfängt, und das zweite elektronische Gerät so ausgebildet ist, dass es als Reaktion auf eine zweite Benutzeraktion den ersten Videoanruf durch die zweite Videoanrufanwendung beantwortet und die Audioausgabevorrichtung veranlasst, ein Audiosignal auszugeben, das den Audiodaten des ersten Videoanrufs entspricht, wobei, wenn das erste elektronische Gerät sich in einem Videoanruf durch die erste Videoanrufanwendung befindet und die Audioausgabevorrichtung ein Audiosignal ausgibt, welches Audiodaten der ersten Videoanrufanwendung entspricht, das zweite elektronische Gerät einen ersten eingehenden Anruf von der Sprachanrufanwendung empfängt, und das zweite elektronische Gerät ausgebildet ist, als Reaktion auf eine dritte Benutzeraktion, den ersten eingehenden Anruf durch die Sprachanrufanwendung zu beantworten und die Audioausgabevorrichtung zu veranlassen, ein Audiosignal auszugeben, welches Audiodaten des ersten eingehenden Anrufs entspricht, wobei, wenn die Audioausgabevorrichtung ein den Audiodaten der ersten Musikanwendung entsprechendes Audiosignal ausgibt, das erste elektronische Gerät so ausgebildet ist, dass es, als Reaktion darauf, dass die zweite elektronische Vorrichtung einen zweiten eingehenden Anruf von der Sprachanrufanwendung empfängt, eine erste Aufforderung anzeigt, die dem zweiten eingehenden Anruf entspricht, wobei, als Reaktion auf eine erste von dem ersten elektronischen Gerät empfangene Berührungsaktion, das erste elektronische Gerät ausgebildet ist, um eine Anzeige der Beantwortung des zweiten eingehenden Anrufs an das zweite elektronische Gerät zu senden, wobei, als Reaktion auf den Empfang der Anzeige der Beantwortung des zweiten eingehenden Anrufs, das zweite elektronische Gerät so ausgebildet ist, dass es den zweiten eingehenden Anruf über die Sprachanrufanwendung beantwortet und Audiodaten des zweiten eingehenden Anrufs an das erste elektronische Gerät sendet, wobei das erste elektronische Gerät so ausgebildet ist, dass es die Audioausgabevorrichtung veranlasst, ein Audiosignal auszugeben, das den Audiodaten des zweiten eingehenden Anrufs entspricht.
  2. Das System nach Anspruch 1, wobei, wenn die Audioausgabevorrichtung ein den Audiodaten der ersten Musikanwendung entsprechendes Audiosignal ausgibt, als Reaktion auf das zweite elektronische Gerät, welches eine dritte eingehende Anrufanfrage von der Sprachanrufanwendung empfängt, das zweite elektronische Gerät so ausgebildet ist, dass es eine zweite dem dritten eingehenden Anruf entsprechende Aufforderung anzeigt, und wobei, als Reaktion auf eine fünfte von dem zweiten elektronischen Gerät empfangene Benutzeraktion, das zweite elektronische Gerät so ausgebildet ist, dass es den dritten eingehenden Anruf über die Sprachanrufanwendung beantwortet und die Audioausgabevorrichtung veranlasst, ein den Audiodaten des dritten eingehenden Anrufs entsprechenden Audiosignal auszugeben.
  3. Das System nach Anspruch 1, wobei, wenn die Audioausgabevorrichtung ein den Audiodaten der ersten Musikanwendung entsprechendes Audiosignal ausgibt, als Reaktion darauf, dass das zweite elektronische Gerät einen vierten eingehenden Anruf von der Sprachanrufanwendung empfängt, die Audioausgabevorrichtung so ausgebildet ist, dass sie eine erste Sprachansage ausgibt, die dem vierten eingehenden Anruf entspricht.
  4. Das System nach Anspruch 3, wobei das zweite elektronische Gerät so ausgebildet ist, dass es, als Reaktion auf eine erste Sprachanweisung von einem Benutzer oder eine Benutzerbedienung der Audioausgabevorrichtung, den vierten eingehenden Anruf über die Sprachanrufanwendung beantwortet und Audiodaten des vierten eingehenden Anrufs an das erste elektronische Gerät sendet, wobei das erste elektronische Gerät so ausgebildet ist, dass es die Audioausgabevorrichtung veranlasst, ein Audiosignal auszugeben, das den Audiodaten des vierten eingehenden Anrufs entspricht.
  5. Das System nach Anspruch 3, wobei das erste elektronische Gerät so ausgebildet ist, dass es die Audioausgabevorrichtung veranlasst, die erste Sprachansage auszugeben.
  6. Das System nach Anspruch 5, wobei, als Reaktion auf den Empfang der vierten Anfrage für einen eingehenden Anruf, das zweite elektronische Gerät so ausgebildet ist, dass es eine dem vierten eingehenden Anruf entsprechende Meldung an das erste elektronische Gerät sendet, und wobei das erste elektronische Gerät so ausgebildet ist, dass es die Meldung in die erste Sprachansage umwandelt.
  7. Das System nach Anspruch 3, wobei der Inhalt der ersten Sprachansage eine Benutzer-ID des vierten eingehenden Anrufs aufweist.
  8. Das System nach Anspruch 4, wobei die Benutzerbedienung der Audioausgabevorrichtung einen physischen Kontakt zwischen dem Benutzer und der Audioausgabevorrichtung umfasst.
  9. Das System nach Anspruch 1, wobei, wenn die Audioausgabevorrichtung ein den Audiodaten der ersten Musikanwendung entsprechendes Audiosignal ausgibt, als Reaktion darauf, dass das zweite elektronische Gerät einen eingehenden Anruf von der Sprachanrufanwendung empfängt, das erste elektronische Gerät so ausgebildet ist, dass es die Wiedergabe der Audiodaten der ersten Musikanwendung unterbricht.
  10. Das System nach Anspruch 3, wobei, wenn die Audioausgabevorrichtung ein den Audiodaten der ersten Musikanwendung entsprechendes Audiosignal ausgibt, nachdem das zweite elektronische Gerät die vierte eingehende Anrufanfrage von der Sprachanrufanwendung empfängt, das erste elektronische Gerät so ausgebildet ist, dass es die Audiodaten der ersten Musikanwendung weiter abspielt, und die Audioausgabevorrichtung so ausgebildet ist, dass sie gleichzeitig Audiosignale ausgibt, die den Audiodaten der ersten Musikanwendung und der ersten Sprachansage entsprechen.
  11. Das System nach Anspruch 4, wobei die erste Sprachanweisung den Sprachbefehl „Beantworten“ umfasst.
  12. Das System nach Anspruch 4, wobei das zweite elektronische Gerät als Reaktion auf eine zweite Sprachanweisung des Benutzers so ausgebildet ist, dass es den vierten eingehenden Anruf abweist.
  13. Das System nach Anspruch 12, wobei die zweite Sprachanweisung den Sprachbefehl „Auflegen“ umfasst.
  14. Das System nach Anspruch 1, wobei, wenn die Audioausgabevorrichtung ein den Audiodaten der ersten Musikanwendung entsprechendes Audiosignal ausgibt, das zweite elektronische Gerät als Reaktion auf den Empfang des zweiten eingehenden Anrufs von der Sprachanrufanwendung so ausgebildet ist, dass es die erste dem zweiten eingehenden Anruf entsprechende Aufforderung anzeigt, wobei das erste elektronische Gerät so ausgebildet ist, dass es, als Reaktion auf eine von dem ersten elektronischen Gerät empfangene zweite Berührungsaktion, eine Anzeige der Abweisung des zweiten eingehenden Anrufs an das zweite elektronische Gerät sendet, und wobei das zweite elektronische Gerät so ausgebildet ist, dass es, als Reaktion auf den Empfang der Anzeige der Abweisung des zweiten eingehenden Anrufs, den zweiten eingehenden Anruf abweist.
  15. Das System nach Anspruch 2, wobei das zweite elektronische Gerät so ausgebildet ist, dass es, als Reaktion auf eine neunte von dem zweiten elektronischen Gerät empfangene Benutzeraktion, den dritten eingehenden Anruf abweist.
  16. Das System nach Anspruch 1, wobei, wenn sich das erste elektronische Gerät in einem Videogespräch über die erste Videogesprächsanwendung befindet, und die Audioausgabevorrichtung ein Audiosignal ausgibt, das den Audiodaten der ersten Videogesprächsanwendung entspricht, das zweite elektronische Gerät eine zehnte Benutzeraktion empfängt, um das zweite elektronische Gerät zum Abspielen der Audiodaten der zweiten Musikanwendung zu veranlassen, und wobei, nachdem das zweite elektronische Gerät die zehnte Benutzeraktion empfängt, die Audioausgabevorrichtung so ausgebildet ist, dass sie fortfährt, das den Audiodaten der ersten Videoanrufanwendung entsprechende Audiosignal auszugeben.
  17. Das System nach Anspruch 1, wobei, wenn das zweite elektronische Gerät sich über die Sprachanrufanwendung in einem Gespräch befindet, und die Audioausgabevorrichtung ein den Audiodaten der Sprachanrufanwendung entsprechendes Audiosignal ausgibt, das erste elektronische Gerät einen zweiten Videoanruf der ersten Videoanrufanwendung empfängt, und wobei, wenn das erste elektronische Gerät eine elfte Benutzeraktion empfängt, das erste elektronische Gerät so ausgebildet ist, dass es den zweiten Videoanruf über die erste Videoanrufanwendung beantwortet, und die Audioausgabevorrichtung so ausgebildet ist, dass sie weiterhin das den Audiodaten der Sprachanrufanwendung entsprechende Audiosignal ausgibt.
  18. Das System nach Anspruch 1, wobei, wenn die Audioausgabevorrichtung ein den Audiodaten der ersten Musikanwendung entsprechendes Audiosignal ausgibt, das zweite elektronische Gerät so ausgebildet ist, dass es, als Reaktion auf den Eingang eines dritten Videoanrufs von der zweiten Videoanrufanwendung, eine dritte Aufforderung anzeigt, die dem dritten Videoanruf entspricht, und Wobei, als Reaktion auf eine zwölfte von dem zweiten elektronischen Gerät empfangene Benutzeraktion, das zweite elektronische Gerät ausgebildet ist, den dritten Videoanruf durch die zweite Videoanrufanwendung zu beantworten und die Audioausgabevorrichtung zu veranlassen, ein den Audiodaten des dritten Videoanrufs entsprechendes Audiosignal auszugeben.
  19. Das System nach Anspruch 1, wobei das erste elektronische Gerät einen Tablet-Computer, das zweite elektronische Gerät ein Mobiltelefon und die Audioausgabevorrichtung ein drahtloses Headset darstellt.
  20. Das System nach Anspruch 1, wobei eine Priorität der Sprachanrufanwendung höher ist als eine Priorität der ersten Videoanrufanwendung, die Priorität der ersten Videoanrufanwendung höher ist als eine Priorität der zweiten Musikanwendung, und eine Priorität der zweiten Videoanrufanwendung höher ist als eine Priorität der ersten Musikanwendung.
DE202020005855.6U 2020-01-22 2020-10-22 Audioausgabesystem und Endgerät Active DE202020005855U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010075562.8 2020-01-22
CN202010075562.8A CN111464689A (zh) 2020-01-22 2020-01-22 一种音频输出方法及终端设备

Publications (1)

Publication Number Publication Date
DE202020005855U1 true DE202020005855U1 (de) 2022-11-16

Family

ID=71680897

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202020005855.6U Active DE202020005855U1 (de) 2020-01-22 2020-10-22 Audioausgabesystem und Endgerät

Country Status (7)

Country Link
US (2) US11979516B2 (de)
EP (1) EP4072114A4 (de)
JP (1) JP7450734B2 (de)
CN (3) CN111464689A (de)
AU (1) AU2020423946B2 (de)
DE (1) DE202020005855U1 (de)
WO (1) WO2021147406A1 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111464689A (zh) * 2020-01-22 2020-07-28 华为技术有限公司 一种音频输出方法及终端设备
CN111641753B (zh) * 2020-05-27 2021-07-06 维沃移动通信有限公司 音频输出控制方法、装置、电子设备及可读存储介质
CN114125791B (zh) * 2020-08-31 2022-12-23 荣耀终端有限公司 一种音频推送方法及音频推送系统
US11743958B2 (en) * 2020-10-29 2023-08-29 Vocollect, Inc. Enabling workers to use a personal mobile device with a wearable electronic device
CN114979352A (zh) * 2021-02-22 2022-08-30 华为技术有限公司 事件通知方法、蓝牙设备以及蓝牙系统
CN116137639A (zh) * 2021-11-16 2023-05-19 华为终端有限公司 一种跨设备音频数据传输的方法和电子设备
CN117729279A (zh) * 2022-08-19 2024-03-19 荣耀终端有限公司 音频播放方法、电子设备以及介质
CN118276808A (zh) * 2022-12-29 2024-07-02 华为技术有限公司 一种音频播放方法及电子设备
CN116455496A (zh) * 2023-02-17 2023-07-18 广州市迪士普音响科技有限公司 一种多功能音量控制器、网络广播系统及音量控制方法

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003125478A (ja) 2001-10-12 2003-04-25 Japan Total Design Communication Co Ltd オーディオ送受信装置
JP2004072498A (ja) 2002-08-07 2004-03-04 Matsushita Electric Ind Co Ltd イヤホンマイク
TWI228363B (en) * 2003-08-01 2005-02-21 Partner Tech Corp MP3 audio player capable of being paused to answer a mobile phone call
US20050027385A1 (en) * 2003-08-01 2005-02-03 Wen-Hsiang Yueh MP3 player having a wireless earphone communication with a mobile
JP2006186904A (ja) 2004-12-28 2006-07-13 Mitsumi Electric Co Ltd ヘッドセット装置
JP2007259276A (ja) 2006-03-24 2007-10-04 Alps Electric Co Ltd 無線通信通話ユニット
US8295766B2 (en) 2007-08-31 2012-10-23 Motorola Mobility Llc Methods and devices for automatic multiple pairing of Bluetooth devices
US8265557B2 (en) * 2009-10-06 2012-09-11 Lg Electronics Inc. Mobile terminal capable of being connected to audio output device using short-range communication and method of controlling the operation of the mobile terminal
US8892088B2 (en) * 2011-12-16 2014-11-18 Htc Corporation Systems and methods for handling incoming calls on a media device
US20130232282A1 (en) * 2012-03-05 2013-09-05 Jihwan Kim Electronic device and method of controlling the same
CN103780751B (zh) 2012-10-25 2015-07-08 三星电子(中国)研发中心 将手机来电通话进行共享的系统和方法
US9510083B2 (en) 2014-03-14 2016-11-29 Apple Inc. Managing connections of a user device
US9967401B2 (en) 2014-05-30 2018-05-08 Apple Inc. User interface for phone call routing among devices
US10209947B2 (en) * 2014-07-23 2019-02-19 Sonos, Inc. Device grouping
CN104702762A (zh) 2015-03-13 2015-06-10 小米科技有限责任公司 来电提醒方法和装置
US9924010B2 (en) 2015-06-05 2018-03-20 Apple Inc. Audio data routing between multiple wirelessly connected devices
CN104954853B (zh) * 2015-06-09 2017-10-17 广东欧珀移动通信有限公司 一种播放信息保存方法、系统、播放终端及控制终端
US9716969B2 (en) * 2015-07-01 2017-07-25 Lg Electronics Inc. Method and apparatus for controlling device in wireless communication system
CN105045555A (zh) * 2015-07-22 2015-11-11 北京元心科技有限公司 一种基于配置文件实现音频冲突解决的方法及装置
CN105228118B (zh) * 2015-09-28 2019-01-04 小米科技有限责任公司 呼叫转移方法、装置和终端设备
US9774979B1 (en) * 2016-03-03 2017-09-26 Google Inc. Systems and methods for spatial audio adjustment
CN105791064A (zh) * 2016-03-31 2016-07-20 青岛海信宽带多媒体技术有限公司 一种局域网内消息的协同处理方法及装置
CN106445448B (zh) * 2016-08-29 2020-10-09 北京元心科技有限公司 终端的音频设备控制方法、系统及移动终端
CN108064445A (zh) * 2016-12-30 2018-05-22 深圳市柔宇科技有限公司 虚拟现实设备及其来电管理方法
CN109392103B (zh) * 2017-08-04 2020-08-28 大唐移动通信设备有限公司 一种资源分配方法及装置
CN107995369B (zh) * 2017-12-19 2021-01-29 广州市千钧网络科技有限公司 一种解决音频冲突的方法、装置和设备
JP7240104B2 (ja) 2018-05-18 2023-03-15 ヤフー株式会社 認証装置、認証方法、認証プログラム及び認証システム
CN113504851A (zh) * 2018-11-14 2021-10-15 华为技术有限公司 一种播放多媒体数据的方法及电子设备
CN113382397B (zh) 2019-04-18 2023-12-08 华为技术有限公司 一种蓝牙连接方法、设备及系统
CN110138937B (zh) * 2019-05-07 2021-06-15 华为技术有限公司 一种通话方法、设备及系统
CN110191241B (zh) 2019-06-14 2021-06-29 华为技术有限公司 一种语音通信方法及相关装置
CN110602312B (zh) * 2019-08-21 2021-05-11 华为技术有限公司 通话方法、电子设备及计算机可读存储介质
CN112822663B (zh) 2019-10-31 2022-06-14 华为技术有限公司 蓝牙连接方法及相关装置
CN112887926B (zh) 2019-11-30 2022-08-09 华为技术有限公司 一种呼叫方法及装置
CN111464689A (zh) * 2020-01-22 2020-07-28 华为技术有限公司 一种音频输出方法及终端设备
US12075220B2 (en) 2020-06-22 2024-08-27 Apple Inc. Smart routing for audio output devices

Also Published As

Publication number Publication date
CN111464689A (zh) 2020-07-28
US11979516B2 (en) 2024-05-07
US20240236228A1 (en) 2024-07-11
CN115297405A (zh) 2022-11-04
AU2020423946A1 (en) 2022-08-18
CN115039378A (zh) 2022-09-09
JP7450734B2 (ja) 2024-03-15
AU2020423946B2 (en) 2023-06-29
EP4072114A1 (de) 2022-10-12
JP2023511914A (ja) 2023-03-23
WO2021147406A1 (zh) 2021-07-29
US20230049548A1 (en) 2023-02-16
EP4072114A4 (de) 2023-01-25

Similar Documents

Publication Publication Date Title
DE202020005855U1 (de) Audioausgabesystem und Endgerät
CN112703478B (zh) 数据分享的方法、图形用户界面、电子设备及系统
WO2020244492A1 (zh) 一种投屏显示方法及电子设备
DE112014002697B4 (de) Kommunikation zwischen Host und Zubehörvorrichtungen unter Verwendung von Zubehörprotokollen über drahtlosen Transport
DE202008018005U1 (de) Anwendungsmenü-Benutzerschnittstelle
CN104303146B (zh) 移动设备中的图像相关应用的入口点
DE202020005847U1 (de) Ein elektronisches Gerät, ein Computerspeichermedium und ein Computerprogrammprodukt
CN105991682B (zh) 一种数据分享方法及装置
DE202009019125U1 (de) Bewegungsgesteuerte Ansichten auf mobilen Computergeräten
CN111221845A (zh) 一种跨设备信息搜索方法及终端设备
DE102013004214A1 (de) Alternative Entsperrungsmuster
DE202014011426U1 (de) Elektronisches Gerät zur Übertragung von Inhalten in tragbarem Endgerät
CN114741008B (zh) 分布式跨设备协同方法、电子设备及通信系统
CN114647350B (zh) 应用共享方法、电子设备和存储介质
WO2021180089A1 (zh) 界面切换方法、装置和电子设备
CN105915978A (zh) 一种车载显示控制方法及其装置
CN105631970B (zh) 基于行车记录仪的一键式信息分享方法以及系统
US20170034551A1 (en) Dynamic screen replication and real-time display rendering based on media-application characteristics
WO2021238967A1 (zh) 一种内容分享的方法、装置及系统
CN104461283A (zh) 网络视图的截图方法及装置、电子设备
CN108924647A (zh) 视频编辑方法、视频编辑装置、终端
CN104579908A (zh) 图像显示的方法及装置
CN114466131A (zh) 一种跨设备的拍摄方法及相关设备
CN116301541A (zh) 共享文件的方法、电子设备及计算机可读存储介质
CN109900286A (zh) 导航方法、服务器及导航系统

Legal Events

Date Code Title Description
R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years