WO2024029688A1 - 무선 환경 내에서의 오디오 스트리밍을 위한 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체 - Google Patents

무선 환경 내에서의 오디오 스트리밍을 위한 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체 Download PDF

Info

Publication number
WO2024029688A1
WO2024029688A1 PCT/KR2023/006078 KR2023006078W WO2024029688A1 WO 2024029688 A1 WO2024029688 A1 WO 2024029688A1 KR 2023006078 W KR2023006078 W KR 2023006078W WO 2024029688 A1 WO2024029688 A1 WO 2024029688A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
external electronic
audio streaming
state
signal
Prior art date
Application number
PCT/KR2023/006078
Other languages
English (en)
French (fr)
Inventor
문영신
정구필
강두석
유규상
장원경
최성준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US18/205,880 priority Critical patent/US20240049317A1/en
Publication of WO2024029688A1 publication Critical patent/WO2024029688A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W76/00Connection management
    • H04W76/10Connection setup
    • H04W76/14Direct-mode setup

Definitions

  • This disclosure relates to electronic devices, methods, and non-transitory computer-readable storage media for audio streaming within a wireless environment.
  • BLE Bluetooth® low energy
  • legacy Bluetooth® or classic Bluetooth
  • BLE offers reduced power consumption and connects at least a similar or often greater number of connected devices. It can provide a communication range between them.
  • BLE can be provided on the ISM (industrial, scientific, and medical) radio band.
  • the electronic device may include a communication circuit for BLE (Bluetooth low energy).
  • the electronic device may include a processor operatively coupled to the communication circuit.
  • the processor establishes a first communication link with a first external electronic device operating as a first peripheral device and a second communication link with a second external electronic device operating as a second peripheral device through the communication circuit. It can be configured to establish
  • the processor may be configured to receive input indicating to initiate audio streaming over the first communication link and the second communication link.
  • the processor may be configured to, in response to the input, identify a label indicating information for codec configuration of the audio streaming and information for quality of service (QoS) configuration of the audio streaming. there is.
  • QoS quality of service
  • the processor may be configured to transmit a signal representing the identified label to the first external electronic device via the first communication link and to transmit the signal to the second external electronic device via the second communication link. You can.
  • the processor sets the state of the electronic device for audio streaming to an idle state based on the transmission of the signal to the first external electronic device and the transmission of the signal to the second external electronic device. It can be configured to transition from a state to an enabling state.
  • a method is provided that is implemented within an electronic device operating as a central device within a wireless environment.
  • the method includes establishing a first communication link with a first external electronic device operating as a first peripheral device and a second communication link with a second external electronic device operating as a second peripheral device. can do.
  • the method may include receiving input indicating to initiate audio streaming over the first communication link and the second communication link.
  • the method includes, in response to the input, identifying a label indicating information for codec configuration of the audio streaming and information for quality of service (QoS) configuration of the audio streaming. can do.
  • the method includes transmitting a signal representing the identified label to the first external electronic device through the first communication link and transmitting the signal to the second external electronic device through the second communication link. It can be included.
  • the method sets the state of the electronic device for audio streaming to an idle state based on the transmission of the signal to the first external electronic device and the transmission of the signal to the second external electronic device. It may include an operation of switching from a state to an enabling state
  • a non-transitory computer-readable storage medium storing one or more programs is provided.
  • the one or more programs are executed by a processor of an electronic device that operates as a central device in a wireless environment and includes a communication circuit for Bluetooth low energy (BLE), Establishing, through the communication circuit, a first communication link with a first external electronic device operating as a first peripheral device and a second communication link with a second external electronic device operating as a second peripheral device. It may contain instructions that trigger an electronic device.
  • the one or more programs may include instructions that, when executed by the processor, cause the electronic device to receive input indicating to initiate audio streaming over the first communication link and the second communication link. .
  • a label indicating information for codec configuration of the audio streaming and information for quality of service (QoS) configuration of the audio streaming may include instructions that cause the electronic device to identify the label.
  • the one or more programs transmit a signal representing the identified label to the first external electronic device through the first communication link, and transmit the signal to the first external electronic device through the second communication link. 2 may include instructions that cause the electronic device to transmit to an external electronic device.
  • the one or more programs when executed by the processor, based on the transmission of the signal to the first external electronic device and the transmission of the signal to the second external electronic device, It may include instructions that cause the electronic device to change the state of the electronic device from an idle state to an enabling state.
  • FIG. 1 is a block diagram of an electronic device in a network environment according to various embodiments.
  • Figure 2 shows an example of a wireless environment including electronic devices.
  • FIG. 3 is a flowchart illustrating a method for generating a connected isochronous group (CIG) event including connected isochronous stream (CIS) events for audio streaming.
  • CCG connected isochronous group
  • CIS connected isochronous stream
  • FIG. 4 is a flow diagram illustrating an example method of transmitting a signal representing a label for audio streaming.
  • Figure 5 shows an example of an input indicating initiating audio streaming.
  • Figure 6 shows an example of a direct transition from an idle state to an active state.
  • FIG. 7 is a flow diagram illustrating an example method of identifying a label corresponding to a type of service.
  • FIG. 8 is a flow chart illustrating an example method of obtaining a plurality of labels.
  • FIG. 9 illustrates an example method of transmitting a signal indicating a label for another audio stream in response to a request for another audio stream identified while the service of the audio stream is provided.
  • FIG. 10 is a flow diagram illustrating an example method of transmitting a message for creation of a CIG event containing CIS events.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100, according to various embodiments.
  • the electronic device 101 communicates with the electronic device 102 through a first network 198 (e.g., a short-range wireless communication network) or a second network 199. It is possible to communicate with at least one of the electronic device 104 or the server 108 through (e.g., a long-distance wireless communication network). According to one embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • a first network 198 e.g., a short-range wireless communication network
  • a second network 199 e.g., a long-distance wireless communication network.
  • the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or may include an antenna module 197.
  • at least one of these components eg, the connection terminal 178) may be omitted or one or more other components may be added to the electronic device 101.
  • some of these components e.g., sensor module 176, camera module 180, or antenna module 197) are integrated into one component (e.g., display module 160). It can be.
  • the processor 120 for example, executes software (e.g., program 140) to operate at least one other component (e.g., hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and various data processing or calculations can be performed. According to one embodiment, as at least part of data processing or computation, the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • software e.g., program 140
  • the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132.
  • the commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • the processor 120 includes a main processor 121 (e.g., a central processing unit or an application processor) or an auxiliary processor 123 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • a main processor 121 e.g., a central processing unit or an application processor
  • auxiliary processor 123 e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor.
  • the electronic device 101 includes a main processor 121 and a secondary processor 123
  • the secondary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can.
  • the auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.
  • the auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the electronic device 101 (e.g., the display module 160, the sensor module 176, or the communication module 190) At least some of the functions or states related to can be controlled.
  • co-processor 123 e.g., image signal processor or communication processor
  • may be implemented as part of another functionally related component e.g., camera module 180 or communication module 190. there is.
  • the auxiliary processor 123 may include a hardware structure specialized for processing artificial intelligence models.
  • Artificial intelligence models can be created through machine learning. For example, such learning may be performed in the electronic device 101 itself on which the artificial intelligence model is performed, or may be performed through a separate server (e.g., server 108).
  • Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited.
  • An artificial intelligence model may include multiple artificial neural network layers.
  • Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above.
  • artificial intelligence models may additionally or alternatively include software structures.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto.
  • Memory 130 may include volatile memory 132 or non-volatile memory 134.
  • the program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.
  • the input module 150 may receive commands or data to be used in a component of the electronic device 101 (e.g., the processor 120) from outside the electronic device 101 (e.g., a user).
  • the input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).
  • the sound output module 155 may output sound signals to the outside of the electronic device 101.
  • the sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback.
  • the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
  • the display module 160 can visually provide information to the outside of the electronic device 101 (eg, a user).
  • the display module 160 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device.
  • the display module 160 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.
  • the audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device (e.g., directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102 (e.g., speaker or headphone).
  • the electronic device 102 e.g., speaker or headphone
  • the sensor module 176 detects the operating state (e.g., power or temperature) of the electronic device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.
  • the interface 177 may support one or more designated protocols that can be used to connect the electronic device 101 directly or wirelessly with an external electronic device (eg, the electronic device 102).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card interface
  • audio interface audio interface
  • connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 can capture still images and moving images.
  • the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 can manage power supplied to the electronic device 101.
  • the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101.
  • the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
  • Communication module 190 is configured to provide a direct (e.g., wired) communication channel or wireless communication channel between electronic device 101 and an external electronic device (e.g., electronic device 102, electronic device 104, or server 108). It can support establishment and communication through established communication channels. Communication module 190 operates independently of processor 120 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
  • processor 120 e.g., an application processor
  • the communication module 190 is a wireless communication module 192 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (e.g., : LAN (local area network) communication module, or power line communication module) may be included.
  • a wireless communication module 192 e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 e.g., : LAN (local area network) communication module, or power line communication module
  • the corresponding communication module is a first network 198 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (e.g., legacy It may communicate with an external electronic device 104 through a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network
  • the wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 to communicate within a communication network such as the first network 198 or the second network 199.
  • subscriber information e.g., International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the wireless communication module 192 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology).
  • NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency). -latency communications)) can be supported.
  • the wireless communication module 192 may support high frequency bands (eg, mmWave bands), for example, to achieve high data rates.
  • the wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. It can support technologies such as input/output (FD-MIMO (full dimensional MIMO)), array antenna, analog beam-forming, or large scale antenna.
  • the wireless communication module 192 may support various requirements specified in the electronic device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199).
  • the wireless communication module 192 supports Peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC.
  • Peak data rate e.g., 20 Gbps or more
  • loss coverage e.g., 164 dB or less
  • U-plane latency e.g., 164 dB or less
  • the antenna module 197 may transmit or receive signals or power to or from the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB).
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for the communication method used in the communication network, such as the first network 198 or the second network 199, is connected to the plurality of antennas by, for example, the communication module 190. can be selected Signals or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna.
  • other components eg, radio frequency integrated circuit (RFIC) may be additionally formed as part of the antenna module 197.
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.
  • a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the
  • peripheral devices e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • signal e.g. commands or data
  • commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
  • Each of the external electronic devices 102 or 104 may be of the same or different type as the electronic device 101.
  • all or part of the operations performed in the electronic device 101 may be executed in one or more of the external electronic devices 102, 104, or 108.
  • the electronic device 101 may perform the function or service instead of executing the function or service on its own.
  • one or more external electronic devices may be requested to perform at least part of the function or service.
  • One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device 101.
  • the electronic device 101 may process the result as is or additionally and provide it as at least part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology can be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of Things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or server 108 may be included in the second network 199.
  • the electronic device 101 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
  • Figure 2 shows an example of a wireless environment including electronic devices.
  • the wireless environment 200 may include an electronic device 101, a first external electronic device 201, and a second external electronic device 202.
  • the electronic device 101 in the wireless environment 200 may be an audio source device, such as a smartphone, laptop computer, desktop computer, or tablet PC.
  • the electronic device 101 may transmit data about audio being played within the electronic device 101 to each of the first external electronic device 201 and the second external electronic device 202.
  • the data is transmitted to the first external electronic device 201 and the second external electronic device 202 to output the audio from the first external electronic device 201 and the second external electronic device 202, respectively. It may be usable within.
  • the electronic device 101 may be referred to as an audio streaming endpoint (ASE), a client device, a central device, a primary device, or a main device.
  • ASE audio streaming endpoint
  • the first external electronic device 201 and the second external electronic device 202 in the wireless environment 200 may be audio sink devices, such as earbuds or earphones.
  • the first external electronic device 201 and the second external electronic device 202 may be configured as a pair. However, it is not limited to this.
  • the first external electronic device 201 and the second external electronic device 202 each receive data about audio from the electronic device 101, and based on the data, the first external electronic device 201 ) and the second external electronic device 202 may output the audio through each speaker.
  • the first external electronic device 201 and the second external electronic device 202 each receive a request from the electronic device 101, and in response to the request, the first external electronic device 201 Data about the acquired audio can be transmitted to the electronic device 101 through the microphone of and the microphone of the second external electronic device 202, respectively.
  • the data may be usable to reproduce the audio within electronic device 101.
  • each of the first external electronic device 201 and the second external electronic device 202 is a sink ASE, a server device, a peripheral device, a secondary device, or It may be referred to as a sub device.
  • the electronic device 101 may establish a first asynchronous connection-less (ACL) connection 251 with the first external electronic device 201.
  • ACL asynchronous connection-less
  • the first ACL connection 251 may be used to control ASE occurring between the electronic device 101 and the first external electronic device 201.
  • the first ACL connection 251 may be used for operations that will be illustrated through the description of FIG. 4.
  • the electronic device 101 may establish a second ACL connection 252 with the second external electronic device 202.
  • the second ACL connection 252 may be used to control ASE occurring between the electronic device 101 and the second external electronic device 202.
  • the electronic device 101, the first external electronic device 201, and the second external electronic device 202 may support multistream audio.
  • synchronized, independent, multiple audio streams may be transmitted between the electronic device 101 and the first external electronic device 201 and/or between the electronic device 101 and the first external electronic device 201.
  • a connected isochronous group (CIG) 203 including connected isochronous streams (CIS) e.g., a first CIS 204 and a second CIS 205. It can be used.
  • CIG 203 may consist of two or more CISs with the same isochronous (ISO) interval.
  • CIG 203 may include a first CIS 204 and a second CIS 205.
  • the first CIS 204 and the second CIS 205 each communicate with the electronic device 101 to transfer isochronous data unidirectionally or bidirectionally. It may be a logical transport between 1 external electronic device 201 and between the electronic device 101 and the second external electronic device 202.
  • each of the first CIS 204 and the second CIS 205 may be associated with an asynchronous connection (ACL).
  • ACL asynchronous connection
  • the first CIS 204 and the second CIS 205 each support packets of variable sizes and may support transmitting one or more packets within an isochronous event.
  • the first CIS 204 may be used to transmit at least one packet from the electronic device 101 to the first external electronic device 201.
  • the at least one packet may be used to output audio being played within the electronic device 101 through a speaker of the first external electronic device 201.
  • the first CIS 204 sends an acknowledgment signal for the at least one packet or a non-acknowledgement signal for the at least one packet to the first external electronic device 201. It can be used to transmit from to the electronic device 101.
  • the confirmation signal transmits the first CIS 204 from the first external electronic device 201 to indicate that the first external electronic device 201 has successfully received the at least one packet.
  • the unidentified signal is transmitted to the electronic device 101 through, and the unidentified signal is transmitted from the first external electronic device 201 to the first external electronic device 201 to indicate that the first external electronic device 201 fails to receive the at least one packet. It may be transmitted to the electronic device 101 through the CIS 204.
  • the second CIS 205 may be used to transmit at least one packet from the electronic device 101 to the second external electronic device 202.
  • the at least one packet may be used to output audio being played in the electronic device 101 through a speaker of the second external electronic device 202.
  • the audio output through the speaker of the first external electronic device 201 and the audio output through the speaker of the second external electronic device 202 may provide stereophonic sound.
  • the second CIS 205 sends an acknowledgment signal for the at least one packet or a non-acknowledgement signal for the at least one packet to the second external electronic device 202. It can be used to transmit from to the electronic device 101.
  • FIG. 3 is a flowchart illustrating a method for generating a connected isochronous group (CIG) event including connected isochronous stream (CIS) events for audio streaming.
  • CCG connected isochronous group
  • CIS connected isochronous stream
  • the central device may configure a codec in response to a request for audio streaming.
  • the central device may transmit a message indicating the configuration of a codec to one or more peripheral devices.
  • the message may include data indicating the number of devices involved in the audio streaming (e.g., the number of the central device and the one or more peripheral devices) (e.g., Number_of_ASEs), an identifier of the central device (e.g., : Data representing ASE_ID[i]), data representing the target latency of the audio streaming (e.g. Target_Latency[i]), target transmission rate for the target latency of the audio streaming (e.g.
  • the one or more peripheral devices may transmit a response message indicating receipt of the message and a message indicating completion of the configuration of the codec based on the message to the central device.
  • the one or more peripheral devices may be in a codec configured state transitioned from an idle state by transmitting the message indicating completion of the configuration of the codec.
  • the central device may complete the configuration of the codec based on receipt of the response message and the message indicating completion of the configuration of the codec.
  • the central device may be in a codec configuration state transitioned from an idle state by completing the configuration of the codec.
  • the central device in the codec configuration state may configure quality of service (QoS).
  • the central device may transmit a message indicating QoS configuration to the one or more peripheral devices.
  • the message may include data indicating the number of devices involved in the audio streaming (e.g., the number of the central device and the one or more peripheral devices) (e.g., Number_of_ASEs), an identifier of the central device (e.g., : Data representing ASE_ID[i]), data representing the identifier of the CIG for the audio streaming (e.g., CIG_ID[i]), data representing the identifier of the CIS for the audio streaming (e.g., CIS_ID[i]), Data indicating a period for the audio streaming (e.g., SDU (service data unit)_Interval[i]), and whether data packets for the audio streaming can be framed (e.g., Framing[i]).
  • SDU service data unit
  • Data indicating the maximum transport latency of the audio streaming (e.g. Max_Transport_Latency[i]), data indicating the transmission speed for the maximum transport latency of the audio streaming (e.g. PHY[i])
  • Data data indicating the maximum size of the data packet for the audio streaming (e.g., Max_SDU[i])
  • data indicating the number of retransmissions of the data packet for the audio streaming (e.g., Retransmission_Number[i])
  • It may include data representing the presentation delay of audio streaming (e.g., Presentation_Delay[i]).
  • the one or more peripheral devices may transmit a response message indicating receipt of the message and a message indicating completion of the configuration of the QoS based on the message to the central device.
  • the one or more peripheral devices may be in a QoS configured state transitioned from the codec configuration state by transmitting the message indicating completion of the configuration of the QoS.
  • the central device may complete the configuration of the QoS based on receipt of the response message and the message indicating completion of the configuration of the QoS.
  • the central device may be in a QoS configuration state transitioned from a codec configuration state by completing the configuration of the QoS.
  • Each of the central device and the one or more peripheral devices may change the QoS configuration state to an enabling state.
  • the central device in the active state may generate a CIG event including one or more CIS events for the one or more peripheral devices.
  • the central device may transmit one or more messages indicating a request for the one or more CIS events to the one or more peripheral devices.
  • the one or more peripheral devices may receive the one or more messages from the central device.
  • the one or more peripheral devices may switch the active state to a streaming state based at least in part on the reception of the one or more messages.
  • the one or more peripheral devices may transmit a response message to the message to the central device.
  • the central device may generate, establish, or obtain the CIG event including the one or more CIS events based on the response message received from the one or more peripheral devices.
  • the central device may transition the active state to a streaming state based at least in part on the response message or the generation of the CIG event.
  • the central device in the streaming state may provide the service of audio streaming through the CIG event.
  • the central device may perform the audio streaming with each of the one or more peripheral devices using each of the one or more CIS events.
  • the time for the central device and the one or more peripheral devices to execute signaling between the central device and the one or more peripheral devices, indicated through operations 301 and 305, may generally be about 1.5 seconds. . Users who use the audio streaming service may feel inconvenienced by the execution time of the signaling.
  • the electronic device 101, the first external electronic device 201, and the second external electronic device 202 may perform operations to reduce the execution time of the signaling.
  • the operations performed by the electronic device 101, the first external electronic device 201, and the second external electronic device 202 are operations for reducing the time to execute operations 301 and 303.
  • the operations performed by the electronic device 101, the first external electronic device 201, and the second external electronic device 202 may include operations for reducing the time to execute operation 305. You can.
  • the descriptions below show an example in which the electronic device 101 provides audio streaming with two external electronic devices (e.g., the first external electronic device 201 and the second external electronic device 202). This is for convenience of explanation. For example, the descriptions below can be applied even when the electronic device 101 provides audio streaming with a single external electronic device. For example, the descriptions below may be applied when the electronic device 101 provides audio streaming with three or more external electronic devices.
  • FIG. 4 is a flow diagram illustrating an example method of transmitting a signal representing a label for audio streaming.
  • This method includes the electronic device 101 in FIG. 1, the electronic device 101 in FIG. 2, the first external electronic device 201 in FIG. 2, the second external electronic device 202 in FIG. 2, and the processor in FIG. 1. (120), may be executed by the processor of the first external electronic device 201 in FIG. 2 and/or the processor of the second external electronic device 202 in FIG. 2.
  • the processor 120 of the electronic device 101 operating as a central device establishes a first communication link and a second communication link with the first external electronic device 201 operating as the first peripheral device.
  • a second communication link may be established with a second external electronic device 202 operating as a peripheral device.
  • each of the first communication link and the second communication link may be established based at least in part on an advertising signal.
  • the first external electronic device 201 and/or the second external electronic device 202 may broadcast the advertising signal.
  • the electronic device 101 may transmit a connection request signal to the first external electronic device 201 and/or the second external electronic device 202 in response to receiving the advertising signal.
  • the electronic device 101 may establish the first communication link and the second communication link based at least in part on the connection request signal.
  • processor 120 may receive an input indicating initiation of an audio service through the first communication link and the second communication link.
  • the input may include an input indicating starting audio streaming.
  • the input may be received through a display (eg, display module 160 in FIG. 1) of the electronic device 101.
  • the input may be a user input received through the display indicating playback of audio. The user input can be illustrated through FIG. 5.
  • Figure 5 shows an example of an input indicating initiating audio streaming.
  • the processor 120 may display a user interface 500 for playing audio through the display.
  • user interface 500 may include an executable object 510 for playing music.
  • the processor 120 may receive a user input 520 for (on) the executable object 510 as the input.
  • Figure 5 shows an example where the input is a user input 520 on an executable object 510, but this is for convenience of explanation.
  • the input may be defined within the electronic device 101 in various ways.
  • the input may be a user input for displaying the user interface 500.
  • the user input may include a user input for an executable object for executing a software application that provides the user interface 500.
  • the input may include changing the state of the software application from a background state to a foreground state. However, it is not limited to this.
  • the input indicating starting the audio service is illustrated as being received through the display of the electronic device 101 (e.g., the display module 160 in FIG. 1), but is not limited thereto.
  • the input may include receiving a predetermined signal from an external electronic device.
  • the input may include receiving the predetermined signal from at least a portion of the first external electronic device 201 and the second external electronic device 202.
  • the predetermined signal may be transmitted to the electronic device 101 in response to a user input caused to at least a portion of the first external electronic device 201 and the second external electronic device 202.
  • the input may include the occurrence of a predetermined event occurring within the electronic device 101.
  • the input may include a user's voice command through the input module 150 (eg, microphone) of the electronic device 101.
  • the processor 120 creates a label (label) indicating information for codec configuration of the audio streaming and/or information for QoS configuration of the audio streaming.
  • label can be identified.
  • the label is used to simplify operations for configuring the codec and configuring the QoS with the first external electronic device 201 and the second external electronic device 202. 101, the first external electronic device 201, and the second external electronic device 202.
  • the label may include at least some of the data instantiated in operation 301 (e.g., the information for configuring the codec of the audio streaming) and at least some of the data instantiated in operation 303 (e.g., the information for configuring the codec of the audio streaming).
  • the label indicates the status for the codec configuration of the electronic device 101, the status for the codec configuration of the first external electronic device 201, and the codec configuration of the second external electronic device 202. bypassing the state for, the state for the QoS configuration of the electronic device 101, the state for the QoS configuration of the first external electronic device 201, and the state for the QoS configuration of the second external electronic device 202.
  • the label may be obtained before the input is received.
  • the label may be stored in the electronic device 101, the first external electronic device 201, and the second external electronic device 202 before the input is received.
  • the label may be identified among a plurality of labels defined within the electronic device 101, the first external electronic device 201, and the second external electronic device 202. Identifying the label among the plurality of labels will be illustrated through FIG. 7.
  • the information for configuring the codec includes data indicating the codec identifier of the audio streaming, data indicating the target latency of the audio streaming, and/or the target latency of the audio streaming. It may include data indicating the target transmission speed for. However, it is not limited to this.
  • the information for configuring the QoS includes data indicating the maximum transport latency of the audio streaming, data indicating the transmission speed for the maximum transport latency of the audio streaming, and data indicating the maximum transport latency of the audio streaming. It may include data indicating a period for and/or data indicating whether it is possible to frame a data packet for the audio streaming. However, it is not limited to this.
  • the information indicated by the label may be expressed as Table 1 below.
  • the label can be simplified, as shown in Table 2 below. However, it is not limited to this.
  • the format of the label may vary.
  • the label includes the information for configuring the codec of the audio streaming and the information for configuring the QoS of the audio streaming, thereby comprising the information for configuring the codec of the audio streaming and the information for configuring the QoS of the audio streaming.
  • the information for the QoS configuration may be indicated.
  • the label includes an identifier indicating the information for configuring the codec of the audio streaming and an identifier indicating the information for configuring the QoS of the audio streaming, thereby providing information for configuring the codec of the audio streaming.
  • the information and the information for configuring the QoS of the audio streaming may be indicated.
  • the label may indicate the information for configuring the codec of the audio streaming and the information for configuring the QoS of the audio streaming through an identifier indicating the label. However, it is not limited to this.
  • the label may, after the first communication link and the second communication link are established, represent a first external information about the audio streaming received via the first communication link from a first external electronic device 201.
  • a signal indicating an idle state of the electronic device 201 and a signal indicating an idle state of the second external electronic device 202 for the audio streaming received via the second communication link from the second external electronic device 202 Based on this, it can be identified.
  • the signal from the first external electronic device 201 and the signal from the second external electronic device 202 may be received before the input is received in operation 403. However, it is not limited to this.
  • the processor 120 transmits a signal representing the label to a first external electronic device 201 through the first communication link, and transmits the signal to a second external electronic device 201 through the second communication link. It can be sent to (202).
  • the signal is transmitted to switch, transition or change an idle state of the first external electronic device 201 for audio streaming to an active state of the first external electronic device 201 for audio streaming. It can be.
  • the signal transmitted to the first external electronic device 201 includes a state for configuring the codec of the first external electronic device 201 and a state for configuring the QoS of the first external electronic device 201.
  • the signal is transmitted to switch, transition or change an idle state of the second external electronic device 202 for audio streaming to an active state of the second external electronic device 202 for audio streaming. It can be.
  • the signal transmitted to the second external electronic device 202 includes a state for configuring the codec of the second external electronic device 202 and a state for configuring the QoS of the second external electronic device 202.
  • the second external electronic device to directly transition from an idle state of the second external electronic device 202 for audio streaming to an active state of the second external electronic device 202 for audio streaming. (202) can cause (e.g. command or inform).
  • the format of the signal may vary.
  • the signal may indicate the label by including an identifier indicating the label.
  • the signal may indicate the label by including information about the label. However, it is not limited to this.
  • the processor 120 determines, based at least in part on the transmission of the signal to the first external electronic device 201 and the transmission of the signal to the second external electronic device 202,
  • the state of the electronic device 101 may be switched from an idle state to an active state.
  • the processor 120 in response to transmitting the signal to the first external electronic device 201 and transmitting the signal to the second external electronic device 202 in operation 407, sets the state to the idle state. You can switch from this state to the active state.
  • the processor 120 in response to receiving a response signal to the signal from the first external electronic device 201 and receiving a response signal to the signal from the second external electronic device 202, The state may be switched from the idle state to the active state.
  • the state can be transitioned directly from the idle state to the active state by bypassing the state for configuring the codec and the state for configuring QoS. Directly switching the state can be illustrated through FIG. 6.
  • Figure 6 shows an example of a direct transition from an idle state to an active state.
  • the states of each of the electronic device 101, the first external electronic device 201, and the second external electronic device 202 are an idle state 600 and a codec configured state 610. ), QoS configured state 620, active state 630, and streaming state 640.
  • the states of each of the electronic device 101, the first external electronic device 201, and the second external electronic device 202 include a codec configured state 610 and a QoS configuration. It may further include a release state that can be switched from the (QoS configured) state 620, the active state 630, and the streaming state 640.
  • each of the electronic device 101, the first external electronic device 201, and the second external electronic device 202 may be in an idle state 600 before identifying that the audio streaming has begun. there is.
  • the idle state 600 can be converted to the codec configuration state 610 through the operations illustrated in operation 301 of .
  • the electronic device 101, the first external electronic device 201, and the second external electronic device 202 are, respectively, the electronic device 101, the first external electronic device 201, and the second external electronic device 202.
  • the codec configuration state 610 can be converted to the QoS configuration state 620 through the operations illustrated through operation 303 of FIG. 3.
  • the electronic device 101, the first external electronic device 201, and the second external electronic device 202 include the electronic device 101, the first external electronic device 201, and the second external electronic device 202, respectively.
  • the QoS configuration state 620 can be switched to the active state 630.
  • the electronic device 101, the first external electronic device 201, and the second external electronic device 202 each change the active state 630 to the streaming state 640 based at least in part on generating a CIG event. You can switch.
  • the transition from the idle state 600 to the active state 630 includes the transition from the idle state 600 to the codec configuration state 610, and the QoS from the codec configuration state 610.
  • Transitioning from an idle state 600 to an active state 630 when the label is not used is This may cause delays in generating CIG events containing CIS events. For example, transition from idle state 600 to codec configuration state 610, transition from codec configuration state 610 to QoS configuration state 620, and transition from QoS configuration state 620 to active state 630. Reducing the length of the connection event for each may be limiting in terms of power consumption. Transitioning the idle state 600 to the active state 630 when the label is not used may cause a delay in generating CIG events containing CIS events.
  • the electronic device 101 when the label is used, the electronic device 101, in response to the initiation of the audio streaming, transmits the signal indicating the label to the first external electronic device 201, and sends the signal to the first external electronic device 201. It can be transmitted to the second external electronic device 202.
  • the electronic device 101 is in an idle state 600 based on transmitting the signal to the first external electronic device 201 and transmitting the signal to the second external electronic device 202. can be directly switched to the active state (630).
  • the label represents information for transitioning to the codec configuration state 610, information for transitioning to the QoS configuration state 620, and information for transitioning to the active state 630, so that the electronic device 101 may transition the idle state 600 to the active state 630 by bypassing the transition to the codec configuration state 610 and the transition to the QoS configuration state 620.
  • the first external electronic device 201 and the second external electronic device 202 change the idle state 600 to the active state 630 based on each receiving the signal from the electronic device 101. can be converted directly to .
  • the first The external electronic device 201 and the second external electronic device 202 change the idle state 600 to the active state 630 by bypassing the transition to the codec configuration state 610 and the transition to the QoS configuration state 620.
  • the electronic device 101, the first external electronic device 201, and the second external electronic device 202 each have an active state 630 streaming state based at least in part on generating a CIG event. It can be converted to (640).
  • the transition from the idle state 600 to the active state 630 through the label includes the transition from the idle state 600 to the codec configuration state 610 and the transition from the codec configuration state 610 to the QoS configuration state ( Because the transition to 620 is bypassed, transitioning the idle state 600 to the active state 630 using the label reduces the time spent transitioning the state before generating a CIG event containing CIS events. can be reduced. For example, the transition from idle state 600 to active state 630 via the label is not effected by decreasing the length of the connection event. Switching can provide fast response speeds as well as reduced power consumption.
  • FIG. 7 is a flow diagram illustrating an example method of identifying a label corresponding to a type of service.
  • This method includes the electronic device 101 in FIG. 1, the electronic device 101 in FIG. 2, the first external electronic device 201 in FIG. 2, the second external electronic device 202 in FIG. 2, and the processor in FIG. 1. (120), may be executed by the processor of the first external electronic device 201 in FIG. 2 and/or the processor of the second external electronic device 202 in FIG. 2.
  • Operations 701 and 703 of FIG. 7 may be included within operation 405 of FIG. 4 .
  • the processor 120 may identify the service type of the audio streaming in response to the input received in operation 403.
  • the service type may include a game mode type, music play type, and/or conversational type.
  • processor 120 may identify the service type of the audio streaming by identifying the service type indicated by the input.
  • the processor 120 may identify one (a) service type corresponding to the input among a plurality of service types defined in the electronic device 101 as the service type of audio streaming.
  • the processor 120 may identify a label corresponding to the identified service type (eg, the label identified through operation 405) from among the plurality of labels.
  • each of the plurality of labels may indicate audio streaming of each of a plurality of service types defined within the electronic device 101, the first external electronic device 201, and/or the second external electronic device 202.
  • Information for configuring the codec and information for configuring QoS may be indicated.
  • information about each of the plurality of labels may be stored in the electronic device 101, the first external electronic device 201, and/or the second external electronic device 202 before the input is received in operation 403. ) may be stored in a memory (e.g., memory 130 in FIG. 1). However, it is not limited to this.
  • the electronic device 101 can directly transition the idle state to the active state by identifying the label corresponding to the service type of the audio streaming. For example, through this transition, the electronic device 101 can reduce the time from the request for audio streaming to the generation of the CIG event.
  • FIG. 8 is a flow chart illustrating an example method of obtaining a plurality of labels.
  • This method includes the electronic device 101 in FIG. 1, the electronic device 101 in FIG. 2, the first external electronic device 201 in FIG. 2, the second external electronic device 202 in FIG. 2, and the processor in FIG. 1. (120), the processor of the first external electronic device 201 in FIG. 2, the processor of the second external electronic device 202 in FIG. 2, and/or the electronic device 101, the first external electronic device 201, and other devices associated with the second external electronic device 202.
  • the processor 120 may obtain data about the characteristics of the first external electronic device 201 and the characteristics of the second external electronic device 202.
  • the electronic device 101 may select the characteristics and the first external electronic device 201 related to services (e.g., published audio capabilities service (PACS) and/or audio stream control service (ASCS)). 2
  • the data on the characteristics of the external electronic device 202 can be obtained.
  • PCS published audio capabilities service
  • ASCS audio stream control service
  • the characteristics of the first external electronic device 201 and the characteristics of the second external electronic device 202 may be applied to the first external electronic device 201 and the second external electronic device 202 for a plurality of service types of audio streaming. It may include capability information of the external electronic device 202.
  • the data may indicate that the first external electronic device 201 operates as a sink device for the front right channel.
  • the data may indicate that the second external electronic device 202 operates as a sink device for the front left channel.
  • the data may indicate that the state of the first external electronic device 201 for audio streaming is in an idle state.
  • the data may indicate that the state of the second external electronic device 202 for audio streaming is in an idle state.
  • the data may be stored in each of the electronic device 101, the first external electronic device 201, and/or the second external electronic device 202.
  • the data may be obtained through a software application installed in the electronic device 101 for managing the first external electronic device 201 and/or the second external electronic device 202.
  • the data may be obtained from a server for a service provided through the software application.
  • it is not limited to this.
  • the timing at which the data is acquired may vary.
  • at least some of the data may be transmitted from the first external electronic device 201 and the second external electronic device 202 in response to establishing the first communication link and the second communication link in operation 401. can be received.
  • at least part of the data may be obtained after completion of service discovery. However, it is not limited to this.
  • the processor 120 generates a plurality of labels based on the characteristics of the electronic device 101, the characteristics of the first external electronic device 201, and the characteristics of the second external electronic device 202. can be obtained.
  • each of the plurality of labels may correspond to each of a plurality of service types of audio streaming.
  • each of the plurality of labels is associated with an identifier representing each of the plurality of labels, and is connected to the electronic device 101, the first external electronic device 201, and/or the second external electronic device 202. ) can be stored in memory.
  • FIG. 8 shows that the electronic device 101 operates the plurality of devices based on the characteristics of the electronic device 101, the characteristics of the first external electronic device 201, and the characteristics of the second external electronic device 202.
  • An example of obtaining labels is shown, but this is for convenience of explanation.
  • the plurality of labels may be obtained through a server associated with the electronic device 101.
  • the server may transmit the characteristics of the electronic device 101, the characteristics of the first external electronic device 201, and the characteristics of the second external electronic device 202 to the electronic device 101, the first external electronic device 202, and the second external electronic device 202.
  • the electronic device 101 may be configured to obtain the characteristics of the first external electronic device 201 and the second external electronic device 202 from each of the first external electronic device 201 and the second external electronic device 202. ) can obtain data for each of the above characteristics. Based on obtaining the data, the electronic device 101 sends the server the characteristics of the electronic device 101, the characteristics of the first external electronic device 201, and the characteristics of the second external electronic device 202. Can provide data on characteristics.
  • the server may provide information about the plurality of acquired labels to the electronic device 101, the first external electronic device 201, and/or the second external electronic device 202. .
  • the electronic device 101 may provide the above information to each of the first external electronic device 201 and the second external electronic device 202.
  • FIG. 9 illustrates an example method of transmitting a signal indicating a label for another audio stream in response to a request for another audio stream identified while the service of the audio stream is provided.
  • This method includes the electronic device 101 in FIG. 1, the electronic device 101 in FIG. 2, the first external electronic device 201 in FIG. 2, the second external electronic device 202 in FIG. 2, and the processor in FIG. 1. (120), may be executed by the processor of the first external electronic device 201 in FIG. 2 and/or the processor of the second external electronic device 202 in FIG. 2.
  • the processor 120 may change the state of the electronic device 101 for audio streaming from an idle state to an active state.
  • the transition may be performed based at least in part on the signal transmitted in operation 407 of FIG. 4 .
  • operation 901 may correspond to operation 409 of FIG. 4 .
  • the processor 120 may provide the audio streaming service to the first external electronic device 201 and the second external electronic device 202 based at least in part on the active state. For example, the processor 120 uses CIS events with each of the first external electronic device 201 and the second external electronic device 202 switched to the streaming state within the streaming state switched from the active state. By executing the audio streaming, the service can be provided.
  • the processor 120 based at least in part on the active state, performs the audio streaming while providing a service of the audio streaming with the first external electronic device 201 and the second external electronic device 202. It can be identified that another audio streaming of another service type, which is distinct from the service type of, is requested.
  • the request for the different audio streaming may be triggered in various ways.
  • the other audio streaming may be requested based on an incoming call from another electronic device.
  • the other audio streaming may be requested based on the execution of a different software application that is distinct from the software application associated with the audio streaming.
  • processor 120 may identify another label, in response to the identification at operation 905, indicating information for configuring the codec of the other audio stream and information for configuring the QoS of the other audio stream.
  • the different label can be distinguished from the label used for the service provided in operation 903.
  • the different label may be identified among the plurality of labels illustrated in FIGS. 7 and/or 8.
  • the different label may be a label corresponding to the different service type of the different audio streaming among the plurality of labels.
  • the processor 120 transmits another signal representing the different label (e.g., a signal distinct from the signal transmitted in operation 407) to the first external electronic device 201 over the first communication link. And, the other signal may be transmitted to the second external electronic device 202 through the second communication link.
  • another signal representing the different label e.g., a signal distinct from the signal transmitted in operation 407
  • the other signal switches, transitions, or changes an idle state of the first external electronic device 201 for the other audio streaming to an active state of the first external electronic device 201 for the other audio streaming.
  • the other signal transmitted to the first external electronic device 201 may include a state for configuring the codec of the first external electronic device 201 for the other audio streaming and a first signal for the other audio streaming.
  • the idle state of the first external electronic device 201 for the other audio streaming is changed to the state of the first external electronic device 201 for the other audio streaming. It is possible to cause (e.g., command or inform) the first external electronic device 201 to directly transition to an active state.
  • the other signal switches, transitions, or changes an idle state of the second external electronic device 202 for the other audio streaming to an active state of the second external electronic device 202 for the other audio streaming.
  • the other signal transmitted to the second external electronic device 202 may include a status for configuring the codec of the second external electronic device 202 for the other audio streaming and a second signal for the other audio streaming.
  • the idle state of the second external electronic device 202 for the other audio streaming is changed to the state of the second external electronic device 202 for the other audio streaming. May cause (e.g., command or inform) the second external electronic device 202 to transition directly to an active state.
  • the format of the different signals may vary.
  • the different signal may indicate the different label by including an identifier indicating the different label.
  • the other signal may indicate the other label by including information about the other label. However, it is not limited to this.
  • processor 120 based on the transmission of the other signal to the first external electronic device 201 and the transmission of the other signal to the second external electronic device 202, configures the other audio streaming.
  • the state of the electronic device 101 may be switched from an idle state to an active state.
  • the processor 120 may, in response to transmitting the other signal to the first external electronic device 201 and transmitting the other signal to the second external electronic device 202, transmit the other audio signal to the first external electronic device 201.
  • the state of the electronic device 101 for streaming may be switched from the idle state to the active state.
  • the processor 120 responds to receiving a response signal to the other signal from the first external electronic device 201 and to receiving a response signal to the other signal from the second external electronic device 202.
  • the state for the other audio streaming can be switched from the idle state to the active state.
  • the state for the other audio streaming can be transitioned directly from the idle state to the active state, by bypassing the state for the codec configuration and the state for the QoS configuration.
  • the electronic device 101 when a request for second audio streaming is obtained while the service of the first audio streaming is provided based on the first label, the electronic device 101 provides a service type corresponding to the service type of the second audio streaming.
  • the second label can be identified.
  • the electronic device 101 sets the state for the second audio streaming to an idle state based on transmitting a signal indicating the second label to the first external electronic device 201 and the second external electronic device 202. You can transition directly to the active state from . Through this conversion, the electronic device 101 can not only execute the second audio streaming with a fast response speed but also reduce power consumption due to executing the second audio streaming.
  • FIG. 10 is a flow diagram illustrating an example method of transmitting a message for creation of a CIG event containing CIS events.
  • This method includes the electronic device 101 in FIG. 1, the electronic device 101 in FIG. 2, the first external electronic device 201 in FIG. 2, the second external electronic device 202 in FIG. 2, and the processor in FIG. 1. (120), may be executed by the processor of the first external electronic device 201 in FIG. 2 and/or the processor of the second external electronic device 202 in FIG. 2.
  • the processor 120 may change the state of the electronic device 101 for audio streaming from an idle state to an active state.
  • the transition may be performed based at least in part on the signal transmitted in operation 407 of FIG. 4 .
  • operation 1001 may correspond to operation 409 of FIG. 4 .
  • processor 120 in response to the transition to the active state, transmits a message indicating a request for a first CIS event to a first external electronic device 201 over the first communication link, A message indicating a request for a second CIS event may be transmitted to the second external electronic device 202 through the second communication link.
  • the first CIS event and the second CIS event may be included in a CIG event.
  • the first CIS event may be a CIS event for the first external electronic device 201
  • the second CIS event may be a CIS event for the second external electronic device 202.
  • the message transmitted to the first external electronic device 201 is data indicating that the length of the connection event with the first external electronic device 201 used to transmit the message is extended.
  • the message may be a link layer (LL) CIS REQ (request).
  • the message may include an MD (more data) field within the header.
  • the data in the message may indicate extending the length of the connection event with the first external electronic device 201 through the MD field.
  • processor 120 transmits the message indicating extending the length of the connection event to reduce the time to complete generation of the CIG event (or the first CIS event). can do.
  • the message may indicate extending the length of the connection event to complete signaling for generating the CIG event (or the first CIS event) within a single connection event.
  • the message may be a response message to be illustrated through operation 1005 (e.g., an acknowledgment message for an LL CIS RES (response) and/or an LL CIS IND (indication) transmitted from the electronic device 101).
  • a response message to be illustrated through operation 1005 (e.g., an acknowledgment message for an LL CIS RES (response) and/or an LL CIS IND (indication) transmitted from the electronic device 101).
  • it may indicate extending the length of the connection event.
  • the message sent to the second external electronic device 202 may include data indicating extending the length of the connection event with the second external electronic device 202 used to transmit the message.
  • the message may be LL CIS REQ.
  • the message may include an MD (more data) field within the header.
  • the data in the message may indicate extending the length of the connection event with the second external electronic device 202 through the MD field.
  • processor 120 transmits the message indicating extending the length of the connection event to reduce the time to complete generation of the CIG event (or the second CIS event). can do.
  • the message may indicate extending the length of the connection event to complete signaling for generating the CIG event (or the second CIS event) within a single connection event.
  • the message may include receipt of a response message (e.g., a confirmation message for LL CIS RES and/or LL CIS IND transmitted from electronic device 101), as illustrated through operation 1005, and transmission of the message in a single To execute within a connection event, it can indicate extending the length of the connection event.
  • the processor 120 receives the response message to the message from the first external electronic device 201 through the first communication link and transmits the second communication link from the second external electronic device 202.
  • the response message to the message can be received through the link.
  • the first external electronic device 201 and the second external electronic device 202 transmit the response message and another message (e.g., LL CIS) transmitted from the electronic device 101 in response to the response message.
  • IND or in response to sending an acknowledgment message for the other message, the active state can be transitioned to the streaming state.
  • the processor 120 receives the response message from the first external electronic device 201 through the first communication link and sends the response from the second external electronic device 202 through the second communication link. Based on receiving the message, the CIG event may be generated including the first CIS event and the second CIS event.
  • processor 120 in response to generating the CIG event, may transition the state of electronic device 101 for audio streaming from the active state to a streaming state. For example, the processor 120 may switch the state to the streaming state to provide the audio streaming service using the CIG event.
  • the processor 120 may perform audio streaming with the first external electronic device 201 and the second external electronic device 202.
  • the processor 120 uses the first CIS event in the CIG event to execute the audio streaming with the first external electronic device 201 switched to a streaming state, and uses the first CIS event in the CIG event to perform the audio streaming with the first external electronic device 201 in the streaming state. 2
  • the audio streaming with the second external electronic device 202 that has been switched to the streaming state can be performed.
  • the audio streaming is based on data about audio transmitted from the electronic device 101 to each of the first external electronic device 201 and the second external electronic device 202 through the CIG event,
  • Each of the first external electronic device 201 and the second external electronic device 202 may output the audio.
  • the audio streaming is performed by the first external electronic device 201 and the second external electronic device 202 in response to a request from the electronic device 101 to the first external electronic device 201 and the second external electronic device 202, respectively. This may include the electronic device 101 outputting the audio based on audio data acquired by each of the external electronic devices 202. However, it is not limited to this.
  • the electronic device 101 may extend the length of the connection event through the message transmitted in operation 1003. Through this extension, the electronic device 101 can complete signaling for generating the first CIS event within a single connection event and signaling for generating the second CIS event within a single connection event. there is. For example, because the generation of the first CIS event and the generation of the second CIS event are completed within a single connection event, the electronic device 101 can reduce the time consumed for generation of the CIG event. there is. For example, the electronic device 101 can provide an audio streaming service with a fast response speed through this reduction in time.
  • the above descriptions describe an electronic device 101 operating as a central device and two external electronic devices operating as peripheral devices (e.g., a first external electronic device 201 and a second external electronic device 202).
  • the operations for providing audio services are described.
  • the above operations may be used to provide audio services through a central device and a single external electronic device (or a single peripheral device).
  • the processor 120 of the electronic device 101 operating as the central device may establish a communication link with an external electronic device operating as a peripheral device.
  • processor 120 may receive input indicating initiation of an audio service over the communication link.
  • the processor 120 may identify a label indicating information for configuring the codec of the audio streaming of the audio service and information for configuring the QoS of the audio streaming.
  • the processor 120 may transmit a signal representing the label to the external electronic device through the communication link.
  • the processor 120 may switch the state of the electronic device 101 for audio streaming from the idle state to the active state based on the transmission of the signal.
  • the state may be changed directly from the idle state to the active state, by bypassing the state for the codec configuration and the state for the QoS configuration, based on the transmission of the signal to the external electronic device.
  • the signal may be used to bypass the state for configuring the codec of the external electronic device and the state for configuring the QoS of the external electronic device.
  • the signal can be used to directly switch the state of the external electronic device for audio streaming from an idle state to an active state.
  • the information for configuring the codec indicated by the signal may include data indicating a codec identifier of the audio streaming, data indicating a target latency of the audio streaming, and the target of the audio streaming. It may include data indicating the target transmission speed for delay time.
  • the information for the QoS configuration indicated by the signal includes data indicating the maximum transport latency of the audio streaming, and a transmission rate for the maximum transport latency of the audio streaming. It may include data indicating data, data indicating a cycle for the audio streaming, and data indicating whether a data packet for the audio streaming can be framed.
  • the processor 120 may generate a CIS event for the external electronic device based at least in part on the transition of the state. For example, in response to the switch, the processor 120 may transmit a message indicating a request for the CIS event to the external electronic device.
  • the message may include data indicating extending the length of the connection event with the external electronic device (eg, data in the MD field in the header of the message).
  • the processor 120 may receive a response message to the message from the external electronic device.
  • the processor 120 may generate the CIS event based at least in part on the response message.
  • processor 120 may transition the active state to a streaming state based on the generation of the CIS event.
  • the processor 120 may use the CIS event to perform audio streaming with the external electronic device that has been switched to a streaming state.
  • the electronic device 101 operating as a central device within the wireless environment 200 includes a communication circuit 192 for bluetooth low energy (BLE). can do.
  • the electronic device 101 may include a processor 120 operatively coupled to the communication circuit 192.
  • the processor 120 has a first communication link with a first external electronic device 201 operating as a first peripheral device and a second external electronic device operating as a second peripheral device ( It may be configured to establish a second communication link with 202 through the communication circuit 192.
  • the processor 120 may be configured to identify an input indicating initiation of audio streaming over the first communication link and the second communication link.
  • the processor 120 in response to the input, the processor 120 generates a label indicating information for codec configuration of the audio streaming and information for QoS (quality of service) configuration of the audio streaming. It can be configured to obtain a (label).
  • the processor 120 transmits a signal representing the obtained label to the first external electronic device 201 through the first communication link, and sends the signal to the second communication link. It may be configured to transmit to the second external electronic device 202 through.
  • the processor 120 based on the transmission of the signal to the first external electronic device 201 and the transmission of the signal to the second external electronic device 202, determines the audio It may be configured to change the state of the electronic device 101 for streaming from an idle state 600 to an enabling state 630.
  • the state is, based on the transmission of the signal to the first external electronic device 201 and the transmission of the signal to the second external electronic device 202, for configuring the codec. It can be changed directly from the idle state 600 to the active state 630 by skipping the state and the state for configuring the QoS.
  • the signal transmitted to the first external electronic device 201 includes the status for configuring the codec of the first external electronic device 201 and the By omitting the state for QoS configuration, the idle state 600 of the first external electronic device 201 for audio streaming is changed to an active state 630 of the first external electronic device 201 for audio streaming. This may cause the first external electronic device 201 to directly change to .
  • the signal transmitted to the second external electronic device 202 includes the status for configuring the codec of the second external electronic device 202 and the By omitting the state for QoS configuration, the idle state 600 of the second external electronic device 202 for audio streaming is changed to the active state 630 of the second external electronic device 202 for audio streaming. This may cause the second external electronic device 202 to change directly to .
  • the processor 120 based on the transition to the active state 630, generates a first connected isochronous stream (CIS) event for the first external electronic device 201 and the second Can be configured to generate a connected isochronous group (CIG) event including a second CIS event for the external electronic device 202.
  • CIS connected isochronous stream
  • CCG connected isochronous group
  • the processor 120 in response to the transition to the active state 630, sends a request for the first CIS event to the first external electronic device 201 through the first communication link. and may be configured to transmit a message indicating a request for the second CIS event to the second external electronic device 202 through the second communication link.
  • the processor 120 receives a response message to the message from the first external electronic device 201 through the first communication link and receives the response message from the second external electronic device 202. and may be configured to establish the CIG event based on receiving a response message to the message via a second communication link.
  • the message transmitted to the first external electronic device 201 extends the length of a connection event with the first external electronic device 201 used to transmit the message. It may contain data indicating that
  • the message transmitted to the second external electronic device 202 is data indicating that the length of the connection event with the second external electronic device 202 used to transmit the message is extended. may include.
  • the data in the message transmitted to the first external electronic device 201 is transmitted through an MD (more data) field in the header of the message transmitted to the first external electronic device 201. , may indicate extending the length of the connection event with the first external electronic device 201.
  • the data in the message transmitted to the second external electronic device 202 is transmitted to the second external electronic device 202 through an MD field in the header of the message transmitted to the second external electronic device 202. This may indicate extending the length of the connection event with the external electronic device 202.
  • the processor 120 in response to generating the CIG event, transfers the state of the electronic device 101 with respect to the audio streaming from the active state 630 to a streaming state. It can be configured to change to (640). According to one embodiment, the processor 120 is configured to perform audio streaming with the first external electronic device 201 changed to the streaming state 640 using the first CIS event in the CIG event. It can be. According to one embodiment, the processor 120 is configured to perform the audio streaming with the second external electronic device 202 changed to the streaming state 640 using the second CIS event in the CIG event. It can be.
  • the information for configuring the codec includes data indicating the codec identifier of the audio streaming, data indicating the target latency of the audio streaming, and the target latency of the audio streaming. It may include data indicating the target transmission speed for.
  • the information for configuring the QoS includes data indicating the maximum transport latency of the audio streaming, data indicating the transmission speed for the maximum transport latency of the audio streaming, and It may include data indicating a cycle for audio streaming, and data indicating whether data packets for audio streaming can be framed.
  • the processor 120 may be configured to, in response to the input, obtain the label corresponding to the service type of the audio streaming from among multiple labels.
  • each of the plurality of labels may indicate information for configuring a codec for audio streaming and information for configuring QoS for each of a plurality of service types.
  • each of the plurality of labels includes characteristics of the electronic device, associated with audio streaming of each of the plurality of service types, and associated with audio streaming of each of the plurality of service types.
  • the identification may be based at least in part on the characteristics of the first external electronic device 201 and the characteristics of the second external electronic device 202 related to audio streaming of each of the plurality of service types.
  • the processor 120 controls the first external electronic device 201 for streaming audio via the first communication link from the first external electronic device 201 before the input is identified. ), and receiving a signal indicating an idle state (600) of the second external electronic device (202) for audio streaming via the second communication link from the second external electronic device (202). ) may be configured to receive a signal representing.
  • the signal may indicate that the idle state 600 is directly changed to the active state 630.
  • the signal may include an identifier indicating the label.
  • the processor 120 provides the audio streaming service with the first external electronic device 201 and the second external electronic device 202 based at least in part on the active state 630. During provisioning, it may be configured to detect that another audio streaming of a different service type that is distinct from the service type of the audio streaming is requested. According to one embodiment, the processor 120 may be configured to obtain, in response to the detection, another label indicating information for configuring the codec of the other audio streaming and information for configuring the QoS of the other audio streaming. You can. According to one embodiment, the processor 120 transmits another signal indicating the different label to the first external electronic device 201 through the first communication link, and sends the other signal to the second communication link. It may be configured to transmit to the second external electronic device 202 through .
  • the processor 120 based on the transmission of the other signal to the first external electronic device 201 and the transmission of the other signal to the second external electronic device 202,
  • the electronic device may be configured to change the state of the electronic device from an idle state (600) to an active state (630) for the other audio streaming.
  • the method which is executed within an electronic device 101 operating as a central device within a wireless environment 200, includes a first external electronic device operating as a first peripheral device. It may include establishing a first communication link with the device 201 and a second communication link with a second external electronic device 202 operating as a second peripheral device. According to one embodiment, the method may include receiving an input indicating to initiate audio streaming over the first communication link and the second communication link. According to one embodiment, the method, in response to the input, displays a label indicating information for codec configuration of the audio streaming and information for quality of service (QoS) configuration of the audio streaming. It may include an operation to identify .
  • QoS quality of service
  • the method transmits a signal representing the identified label to the first external electronic device 201 through the first communication link, and transmits the signal to the first external electronic device 201 through the second communication link. 2 May include an operation of transmitting to the external electronic device 202.
  • the method comprises, based on the transmission of the signal to the first external electronic device 201 and the transmission of the signal to the second external electronic device 202, This may include switching the state of the electronic device from an idle state 600 to an enabling state 630.
  • the state is, based on the transmission of the signal to the first external electronic device 201 and the transmission of the signal to the second external electronic device 202, for configuring the codec. It can be transitioned directly from the idle state 600 to the active state 630 by bypassing the state and the state for the QoS configuration.
  • the signal transmitted to the first external electronic device 201 includes the status for the codec configuration of the first external electronic device 201 and the QoS configuration of the first external electronic device.
  • the idle state 600 of the first external electronic device 201 for audio streaming is directly changed to the active state 630 for the first external electronic device 201 for audio streaming.
  • the signal transmitted to the second external electronic device 202 includes the status for configuring the codec of the second external electronic device 202 and the By bypassing the state for QoS configuration, the idle state 600 of the second external electronic device 202 for audio streaming is changed to the active state 630 of the second external electronic device 202 for audio streaming. It can be used to directly convert to .
  • the method includes, based on the transition to the active state 630, a first connected isochronous stream (CIS) event for the first external electronic device 201 and a first connected isochronous stream (CIS) event for the second external electronic device 201.
  • An operation of generating a connected isochronous group (CIG) event including a second CIS event for (202) may be included.
  • the operation of generating the CIG event includes, in response to the transition to the active state 630, sending the first CIS event to the first external electronic device 201 via the first communication link. It may include transmitting a message indicating a request for and transmitting a message indicating a request for the second CIS event to the second external electronic device 202 through the second communication link.
  • the operation of generating the CIG event includes receiving a response message to the message from the first external electronic device 201 through the first communication link, and receiving a response message to the message from the first external electronic device 201 through the first communication link. and generating the CIG event based on receiving a response message to the message through the second communication link from.
  • Electronic devices may be of various types.
  • Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances.
  • Electronic devices according to embodiments of this document are not limited to the above-described devices.
  • first, second, or first or second may be used simply to distinguish one element from another, and may be used to distinguish such elements in other respects, such as importance or order) is not limited.
  • One (e.g. first) component is said to be “coupled” or “connected” to another (e.g. second) component, with or without the terms “functionally” or “communicatively”.
  • any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. It can be used as A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document are one or more instructions stored in a storage medium (e.g., built-in memory 136 or external memory 138) that can be read by a machine (e.g., electronic device 101). It may be implemented as software (e.g., program 140) including these.
  • a processor e.g., processor 120
  • the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term refers to cases where data is semi-permanently stored in the storage medium. There is no distinction between temporary storage cases.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • a computer program product may be distributed in the form of a machine-readable storage medium (e.g., compact disc read only memory (CD-ROM)), through an application store (e.g., Play Store), or on two user devices (e.g., It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
  • a machine-readable storage medium e.g., compact disc read only memory (CD-ROM)
  • an application store e.g., Play Store
  • It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
  • at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
  • each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components. there is.
  • one or more of the components or operations described above may be omitted, or one or more other components or operations may be added.
  • multiple components eg, modules or programs
  • the integrated component may perform one or more functions of each component of the plurality of components in the same or similar manner as those performed by the corresponding component of the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, or omitted. Alternatively, one or more other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

전자 장치는, 무선 통신 회로와, 상기 무선 통신 회로와 결합되고, 제1 외부 장치와의 제1 링크를 수립하고, 제2 외부 장치와의 제2 링크를 수립하고, 상기 제1 링크 및 상기 제2 링크를 통해 오디오 스트리밍을 시작하는 입력을 수신하고, 상기 입력에 응답하여, 코덱 구성(codec configuration) 및 QoS(quality of service) 구성을 위한 정보를 나타내는 라벨(label)을 식별하고, 상기 제1 링크를 통해 상기 제1 장치에게 신호(상기 식별된 라벨을 나타냄)를 송신하고 상기 제2 링크를 통해 상기 제2 외부 장치에게 상기 신호를 송신하고, 상기 제1 외부 장치에게 송신되고 상기 제2 외부 장치에게 송신된 상기 신호에 기반하여, 상기 전자 장치의 제1 상태를 상기 전자 장치의 제2 상태로 전환하는 프로세서를 포함한다.

Description

무선 환경 내에서의 오디오 스트리밍을 위한 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
본 개시는, 무선 환경(wireless environment) 내에서의 오디오 스트리밍(audio streaming)을 위한 전자 장치(electronic device), 방법, 및 비일시적 컴퓨터 판독가능 저장 매체에 관한 것이다.
BLE(Bluetooth® low energy)는, 레거시 블루투스(legacy Bluetooth®)(또는 클래식 블루투스)와 비교하여, 감소된 전력 소비를 제공하고, 적어도 유사하거나(at least a similar) 종종 큰(often greater) 연결된 장치들 사이의 통신 범위(communication range)를 제공할 수 있다. BLE는 ISM(industrial, scientific, and medical) 라디오(radio) 대역(band) 상에서 제공될 수 있다.
무선 환경(wireless environment) 내에서 중심(central) 장치로 동작하는 전자 장치(electronic device)가 제공된다. 상기 전자 장치는, BLE(Bluetooth low energy)를 위한 통신 회로를 포함할 수 있다. 상기 전자 장치는, 상기 통신 회로와 작동적으로 결합된, 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 통신 회로를 통해 제1 주변(peripheral) 장치로 동작하는 제1 외부 전자 장치와의 제1 통신 링크 및 제2 주변 장치로 동작하는 제2 외부 전자 장치와의 제2 통신 링크를 수립하도록 구성될 수 있다. 상기 프로세서는, 상기 제1 통신 링크 및 상기 제2 통신 링크를 통해 오디오 스트리밍을 개시함을 나타내는 입력을 수신하도록 구성될 수 있다. 상기 프로세서는, 상기 입력에 응답하여, 상기 오디오 스트리밍의 코덱 구성(codec configuration)을 위한 정보 및 상기 오디오 스트리밍의 QoS(quality of service) 구성을 위한 정보를 나타내는 라벨(label)을 식별하도록 구성될 수 있다. 상기 프로세서는, 상기 식별된 라벨을 나타내는 신호를 상기 제1 통신 링크를 통해 상기 제1 외부 전자 장치에게 송신하고, 상기 신호를 상기 제2 통신 링크를 통해 상기 제2 외부 전자 장치에게 송신하도록 구성될 수 있다. 상기 프로세서는, 상기 제1 외부 전자 장치로의 상기 신호의 상기 송신 및 상기 제2 외부 전자 장치로의 상기 신호의 상기 송신에 기반하여, 상기 오디오 스트리밍에 대한 상기 전자 장치의 상태를 유휴 상태(idle state)로부터 활성(enabling) 상태로 전환하도록, 구성될 수 있다.
무선 환경(wireless environment) 내에서 중심(central) 장치로 동작하는 전자 장치(electronic device) 내에서 실행되는 방법이 제공된다. 상기 방법은, 제1 주변(peripheral) 장치로 동작하는 제1 외부 전자 장치와의 제1 통신 링크 및 제2 주변 장치로 동작하는 제2 외부 전자 장치와의 제2 통신 링크를 수립하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 통신 링크 및 상기 제2 통신 링크를 통해 오디오 스트리밍을 개시함을 나타내는 입력을 수신하는 동작을 포함할 수 있다. 상기 방법은, 상기 입력에 응답하여, 상기 오디오 스트리밍의 코덱 구성(codec configuration)을 위한 정보 및 상기 오디오 스트리밍의 QoS(quality of service) 구성을 위한 정보를 나타내는 라벨(label)을 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 식별된 라벨을 나타내는 신호를 상기 제1 통신 링크를 통해 상기 제1 외부 전자 장치에게 송신하고, 상기 신호를 상기 제2 통신 링크를 통해 상기 제2 외부 전자 장치에게 송신하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 외부 전자 장치로의 상기 신호의 상기 송신 및 상기 제2 외부 전자 장치로의 상기 신호의 상기 송신에 기반하여, 상기 오디오 스트리밍에 대한 상기 전자 장치의 상태를 유휴 상태(idle state)로부터 활성(enabling) 상태로 전환하는 동작을 포함할 수 있다.
하나 이상의 프로그램들을 저장하는 비일시적 컴퓨터 판독가능 저장 매체가 제공된다. 상기 하나 이상의 프로그램들은, 무선 환경(wireless environment) 내에서 중심(central) 장치로 동작하고, BLE(bluetooth low energy)를 위한 통신 회로를 포함하는, 전자 장치(electronic device)의 프로세서에 의해 실행될 시, 제1 주변(peripheral) 장치로 동작하는 제1 외부 전자 장치와의 제1 통신 링크 및 제2 주변 장치로 동작하는 제2 외부 전자 장치와의 제2 통신 링크를 상기 통신 회로를 통해 수립하도록, 상기 전자 장치를 야기하는 인스트럭션들을 포함할 수 있다. 상기 하나 이상의 프로그램들은, 상기 프로세서에 의해 실행될 시, 상기 제1 통신 링크 및 상기 제2 통신 링크를 통해 오디오 스트리밍을 개시함을 나타내는 입력을 수신하도록, 상기 전자 장치를 야기하는 인스트럭션들을 포함할 수 있다. 상기 하나 이상의 프로그램들은, 상기 프로세서에 의해 실행될 시, 상기 입력에 응답하여, 상기 오디오 스트리밍의 코덱 구성(codec configuration)을 위한 정보 및 상기 오디오 스트리밍의 QoS(quality of service) 구성을 위한 정보를 나타내는 라벨(label)을 식별하도록, 상기 전자 장치를 야기하는 인스트럭션들을 포함할 수 있다. 상기 하나 이상의 프로그램들은, 상기 프로세서에 의해 실행될 시, 상기 식별된 라벨을 나타내는 신호를 상기 제1 통신 링크를 통해 상기 제1 외부 전자 장치에게 송신하고, 상기 신호를 상기 제2 통신 링크를 통해 상기 제2 외부 전자 장치에게 송신하도록, 상기 전자 장치를 야기하는 인스트럭션들을 포함할 수 있다. 상기 하나 이상의 프로그램들은, 상기 프로세서에 의해 실행될 시, 상기 제1 외부 전자 장치로의 상기 신호의 상기 송신 및 상기 제2 외부 전자 장치로의 상기 신호의 상기 송신에 기반하여, 상기 오디오 스트리밍에 대한 상기 전자 장치의 상태를 유휴 상태(idle state)로부터 활성(enabling) 상태로 전환하도록, 상기 전자 장치를 야기하는 인스트럭션들을 포함할 수 있다.
본 개시의 어떤 실시예들의 상기 및 다른 측면들, 특징들, 및 이점들은, 첨부 도면들과 함께 취해진 아래의 설명들로부터 더욱 명백해질 것이다.
도 1은 다양한 실시예들에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 전자 장치를 포함하는 무선 환경의 예를 도시한다.
도 3은 오디오 스트리밍을 위한 CIS(connected isochronous stream) 이벤트들을 포함하는 CIG(connected isochronous group) 이벤트를 생성하는 방법을 도시하는 흐름도이다.
도 4는 오디오 스트리밍을 위한 라벨을 나타내는 신호를 송신하는 예시적인 방법을 도시하는 흐름도이다.
도 5는 오디오 스트리밍을 개시함을 나타내는 입력의 예를 도시한다.
도 6은 유휴 상태로부터 활성 상태로의 직접적 전환의 예를 도시한다.
도 7은 서비스의 유형에 대응하는 라벨을 식별하는 예시적인 방법을 도시하는 흐름도이다.
도 8은 복수의 라벨들을 획득하는 예시적인 방법을 도시하는 흐름도이다.
도 9는 오디오 스트리밍의 서비스가 제공되는 동안 식별된 다른 오디오 스트리밍의 요청에 응답하여 다른 오디오 스트리밍을 위한 라벨을 나타내는 신호를 송신하는 예시적인 방법을 도시한다.
도 10은 CIS 이벤트들을 포함하는 CIG 이벤트의 생성을 위해 메시지를 송신하는 예시적인 방법을 도시하는 흐름도이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다.
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))과 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO(full dimensional MIMO)), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 2는 전자 장치를 포함하는 무선 환경의 예를 도시한다.
도 2를 참조하면, 무선 환경(200)은, 전자 장치(101), 제1 외부 전자 장치(201), 및 제2 외부 전자 장치(202)를 포함할 수 있다.
무선 환경(200) 내의 전자 장치(101)는, 스마트폰, 랩탑 컴퓨터, 데스크탑 컴퓨터, 또는 테블릿 PC와 같은 오디오 소스(source) 장치일 수 있다. 예를 들면, 전자 장치(101)는, 전자 장치(101) 내에서 재생되고 있는 오디오에 대한 데이터를 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202) 각각에게 송신할 수 있다. 예를 들면, 상기 데이터는 상기 오디오를 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202) 각각으로부터 출력하기 위해 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202) 각각 내에서 이용가능할(usable) 수 있다. 일 실시예에서, 전자 장치(101)는, ASE(audio streaming endpoint), 클라이언트(client) 장치, 센트럴(central) 장치, 프라이머리(primary) 장치, 또는 메인(main) 장치로 참조될 수 있다.
무선 환경(200) 내의 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202)는, 이어버드(earbuds) 또는 이어폰(earphones)과 같은, 오디오 싱크(sink) 장치들일 수 있다. 예를 들면, 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202)는 하나의 쌍(pair)으로 구성될 수 있다. 하지만, 이에 제한되지 않는다. 예를 들면, 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202) 각각은, 오디오에 대한 데이터를 전자 장치(101)로부터 수신하고, 상기 데이터에 기반하여 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202) 각각의 스피커를 통해 상기 오디오를 출력할 수 있다. 예를 들면, 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202)는, 전자 장치(101)로부터 요청을 각각 수신하고, 상기 요청에 대한 응답으로, 제1 외부 전자 장치(201)의 마이크로폰 및 제2 외부 전자 장치(202)의 마이크로폰을 통해 각각 획득된 오디오에 대한 데이터를 전자 장치(101)에게 각각 송신할 수 있다. 예를 들면, 상기 데이터는, 상기 오디오를 전자 장치(101) 내에서 재생하기 위해 이용가능할(usable) 수 있다. 일 실시예에서, 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202) 각각은, 싱크(sink) ASE, 서버(server) 장치, 주변(peripheral) 장치, 세컨더리(secondary) 장치, 또는 서브(sub) 장치로 참조될 수 있다.
전자 장치(101)는 제1 외부 전자 장치(201)와 제1 ACL(asynchronous connection-less) 연결(251)을 수립할 수 있다. 예를 들면, 제1 ACL 연결(251)은, 전자 장치(101) 및 제1 외부 전자 장치(201) 사이에서 야기되는 ASE의 제어를 위해 이용될 수 있다. 예를 들면, 제1 ACL 연결(251)은, 도 4의 설명을 통해 예시될 동작들을 위해 이용될 수 있다.
전자 장치(101)는, 제2 외부 전자 장치(202)와 제2 ACL 연결(252)을 수립할 수 있다. 예를 들면, 제2 ACL 연결(252)은, 전자 장치(101) 및 제2 외부 전자 장치(202) 사이에서 야기되는 ASE의 제어를 위해 이용될 수 있다.
전자 장치(101), 제1 외부 전자 장치(201), 및 제2 외부 전자 장치(202)는 멀티스트림(multistream) 오디오를 지원할 수 있다. 예를 들면, 동기화되고(synchronized), 독립적인(independent), 다중(multiple) 오디오 스트림들이, 전자 장치(101)와 제1 외부 전자 장치(201) 사이에서 및/또는 전자 장치(101)와 제2 외부 전자 장치(202) 사이에서 송신될 수 있다. 예를 들면, 상기 멀티스트림 오디오를 지원하기 위해, CIS(connected isochronous stream)들(예: 제1 CIS(204), 제2 CIS(205))을 포함하는 CIG(connected isochronous group)(203)가 이용될 수 있다.
예를 들면, CIG(203)는, 동일한 ISO(isochronous) 간격(interval)을 가지는 2개 이상의 CIS들로 구성될(consist of) 수 있다. 예를 들면, CIG(203)는, 제1 CIS(204) 및 제2 CIS(205)를 포함할 수 있다. 예를 들면, 제1 CIS(204) 및 제2 CIS(205) 각각은, 단방향으로(unidirectionally) 또는 양방향으로(bidirectionally), 등시성(isochronous) 데이터를 전달하도록(transfer) 전자 장치(101)와 제1 외부 전자 장치(201) 사이, 및 전자 장치(101)와 제2 외부 전자 장치(202)사이의 논리적 트랜스포트(transport)일 수 있다. 예를 들면, 제1 CIS(204) 및 제2 CIS(205) 각각은, ACL(asynchronous connection)과 관련될 수 있다. 예를 들면, 제1 CIS(204) 및 제2 CIS(205) 각각은, 가변적인 사이즈의 패킷들을 지원하고, 등시성 이벤트 내에서 하나 이상의 패킷들을 송신하는 것을 지원할 수 있다.
예를 들면, 제1 CIS(204)는 적어도 하나의 패킷을 전자 장치(101)로부터 제1 외부 전자 장치(201)에게 송신하기 위해 이용될 수 있다. 예를 들면, 상기 적어도 하나의 패킷은, 전자 장치(101) 내에서 재생되고 있는 오디오를 제1 외부 전자 장치(201)의 스피커를 통해 출력하기 위해 이용될 수 있다. 예를 들면, 제1 CIS(204)는, 상기 적어도 하나의 패킷에 대한 확인 신호(acknowledgement signal) 또는 상기 적어도 하나의 패킷에 대한 미확인 신호(non-acknowledgement) 신호를 제1 외부 전자 장치(201)로부터 전자 장치(101)에게 송신하기 위해 이용될 수 있다. 예를 들면, 상기 확인 신호는, 제1 외부 전자 장치(201)가 상기 적어도 하나의 패킷을 성공적으로 수신함을 지시하기(indicate) 위해 제1 외부 전자 장치(201)로부터 제1 CIS(204)를 통해 전자 장치(101)에게 송신되고, 상기 미확인 신호는, 제1 외부 전자 장치(201)가 상기 적어도 하나의 패킷을 수신하는 것을 실패함을 지시하기 위해 제1 외부 전자 장치(201)로부터 제1 CIS(204)를 통해 전자 장치(101)에게 송신될 수 있다.
예를 들면, 제2 CIS(205)는 적어도 하나의 패킷을 전자 장치(101)로부터 제2 외부 전자 장치(202)에게 송신하기 위해 이용될 수 있다. 예를 들면, 상기 적어도 하나의 패킷은, 전자 장치(101) 내에서 재생되고 있는 오디오를 제2 외부 전자 장치(202)의 스피커를 통해 출력하기 위해 이용될 수 있다. 예를 들면, 제1 외부 전자 장치(201)의 스피커를 통해 출력되는 상기 오디오 및 제2 외부 전자 장치(202)의 스피커를 통해 출력되는 상기 오디오는 입체 음향(stereophonic sound)를 제공할 수 있다. 하지만, 이에 제한되지 않는다. 예를 들면, 제2 CIS(205)는, 상기 적어도 하나의 패킷에 대한 확인 신호(acknowledgement signal) 또는 상기 적어도 하나의 패킷에 대한 미확인 신호(non-acknowledgement) 신호를 제2 외부 전자 장치(202)로부터 전자 장치(101)에게 송신하기 위해 이용될 수 있다.
도 3은 오디오 스트리밍을 위한 CIS(connected isochronous stream) 이벤트들을 포함하는 CIG(connected isochronous group) 이벤트를 생성하는 방법을 도시하는 흐름도이다.
도 3을 참조하면, 동작 301에서, 중심(central) 장치는, 오디오 스트리밍의 요청에 응답하여, 코덱(codec)을 구성할(configure) 수 있다. 상기 중심 장치는, 하나 이상의 주변(peripheral) 장치들에게, 코덱을 구성함을 나타내는 메시지를 송신할 수 있다. 예를 들면, 상기 메시지는, 상기 오디오 스트리밍과 관련된 장치들의 수(예: 상기 중심 장치 및 상기 하나 이상의 주변 장치들의 수)(예: Number_of_ASEs)를 나타내는 데이터, 상기 중심 장치의 식별자(identifier)(예: ASE_ID[i])를 나타내는 데이터, 상기 오디오 스트리밍의 타겟 지연시간(target latency)(예: Target_Latency[i])을 나타내는 데이터, 상기 오디오 스트리밍의 상기 타겟 지연시간을 위한 타겟 송신 속도(예: Target_PHY[i])를 나타내는 데이터, 상기 오디오 스트리밍의 코덱 식별자(예: Codec_ID[i])를 나타내는 데이터, 코덱 특정 구성(예: Codec_Specific_Configuration)를 나타내는 데이터, 및 상기 코덱 특정 구성의 길이(예:Codec_Specific_Configuration_Length[i])를 나타내는 데이터를 포함할 수 있다. 상기 하나 이상의 주변 장치들은, 상기 메시지의 수신을 나타내는 응답 메시지 및 상기 메시지에 기반하여 상기 코덱의 상기 구성을 완료함을 나타내는 메시지를 상기 중심 장치에게 송신할 수 있다. 상기 하나 이상의 주변 장치들은, 상기 코덱의 상기 구성을 완료함을 나타내는 상기 메시지를 송신함으로써, 유휴 상태(idle state)로부터 전환된 코덱 구성 상태(codec configured state) 내에서 있을 수 있다. 상기 중심 장치는, 상기 응답 메시지 및 상기 코덱의 상기 구성을 완료함을 나타내는 상기 메시지의 수신에 기반하여, 상기 코덱의 상기 구성을 완료할 수 있다. 상기 중심 장치는, 상기 코덱의 상기 구성을 완료함으로써, 유휴 상태로부터 전환된 코덱 구성 상태 내에서 있을 수 있다.
동작 303에서, 상기 코덱 구성 상태 내의 상기 중심 장치는, QoS(quality of service)를 구성할 수 있다. 상기 중심 장치는, 상기 하나 이상의 주변 장치들에게, QoS를 구성함을 나타내는 메시지를 송신할 수 있다. 예를 들면, 상기 메시지는, 상기 오디오 스트리밍과 관련된 장치들의 수(예: 상기 중심 장치 및 상기 하나 이상의 주변 장치들의 수)(예: Number_of_ASEs)를 나타내는 데이터, 상기 중심 장치의 식별자(identifier)(예: ASE_ID[i])를 나타내는 데이터, 상기 오디오 스트리밍을 위한 CIG의 식별자(예: CIG_ID[i])를 나타내는 데이터, 상기 오디오 스트리밍을 위한 CIS의 식별자(예: CIS_ID[i])를 나타내는 데이터, 상기 오디오 스트리밍을 위한 주기(예: SDU(service data unit)_Interval[i])를 나타내는 데이터, 상기 오디오 스트리밍을 위한 데이터 패킷을 프레이밍(framing)할 수 있는지 여부(예: Framing[i])를 나타내는 데이터, 상기 오디오 스트리밍의 최대 전송 지연시간(max transport latency)(예: Max_Transport_Latency[i])을 나타내는 데이터, 상기 오디오 스트리밍의 상기 최대 전송 지연 시간을 위한 송신 속도(예: PHY[i])를 나타내는 데이터, 상기 오디오 스트리밍을 위한 데이터 패킷의 최대 사이즈(예: Max_SDU[i])를 나타내는 데이터, 상기 오디오 스트리밍을 위한 상기 데이터 패킷의 재송신의 수(예: Retransmission_Number[i])를 나타내는 데이터, 및 상기 오디오 스트리밍의 프리젠테이션 딜레이(presentation delay)(예: Presentation_Delay[i])를 나타내는 데이터를 포함할 수 있다. 상기 하나 이상의 주변 장치들은, 상기 메시지의 수신을 나타내는 응답 메시지 및 상기 메시지에 기반하여 상기 QoS의 상기 구성을 완료함을 나타내는 메시지를 상기 중심 장치에게 송신할 수 있다. 상기 하나 이상의 주변 장치들은, 상기 QoS의 상기 구성을 완료함을 나타내는 상기 메시지를 송신함으로써, 코덱 구성 상태로부터 전환된 QoS 구성 상태(QoS configured state) 내에서 있을 수 있다. 상기 중심 장치는, 상기 응답 메시지 및 상기 QoS의 상기 구성을 완료함을 나타내는 상기 메시지의 수신에 기반하여, 상기 QoS의 상기 구성을 완료할 수 있다. 상기 중심 장치는, 상기 QoS의 상기 구성을 완료함으로써, 코덱 구성 상태로부터 전환된 QoS 구성 상태 내에서 있을 수 있다. 상기 중심 장치 및 상기 하나 이상의 주변 장치들 각각은, 상기 QoS 구성 상태를 활성 상태(enabling state)로 전환할 수 있다.
동작 305에서, 상기 활성 상태 내의 상기 중심 장치는, 상기 하나 이상의 주변 장치들을 위한 하나 이상의 CIS 이벤트들을 포함하는 CIG 이벤트를 생성할 수 있다. 상기 중심 장치는, 상기 하나 이상의 주변 장치들에게, 상기 하나 이상의 CIS 이벤트들의 요청을 나타내는 하나 이상의 메시지들을 송신할 수 있다. 상기 하나 이상의 주변 장치들은, 상기 중심 장치로부터 상기 하나 이상의 메시지들을 수신할 수 있다. 상기 하나 이상의 주변 장치들은, 상기 하나 이상의 메시지들의 상기 수신에 적어도 일부 기반하여, 상기 활성 상태를 스트리밍(streaming) 상태로 전환할 수 있다. 상기 하나 이상의 주변 장치들은, 상기 중심 장치에게, 상기 메시지에 대한 응답 메시지를 송신할 수 있다. 상기 중심 장치는, 상기 하나 이상의 주변 장치들로부터 수신된 상기 응답 메시지에 기반하여, 상기 하나 이상의 CIS 이벤트들을 포함하는 상기 CIG 이벤트를 생성하거나, 수립하거나, 획득할 수 있다. 상기 중심 장치는, 상기 응답 메시지 또는 상기 CIG 이벤트의 상기 생성에 적어도 일부 기반하여, 상기 활성 상태를 스트리밍 상태로 전환할 수 있다.
동작 307에서, 상기 스트리밍 상태 내의 상기 중심 장치는, 상기 CIG 이벤트를 통해 상기 오디오 스트리밍의 서비스를 제공할 수 있다. 예를 들면, 상기 중심 장치는, 상기 하나 이상의 CIS 이벤트들 각각을 이용하여 상기 하나 이상의 주변 장치들 각각과의 상기 오디오 스트리밍을 실행할 수 있다.
상기 중심 장치와 상기 하나 이상의 주변 장치들이 동작 301 및 동작 305을 통해 나타내어진, 상기 중심 장치와 상기 하나 이상의 주변 장치들 사이의 시그널링을 실행하는 시간은, 일반적으로 약 1.5 초(second)일 수 있다. 상기 오디오 스트리밍의 상기 서비스를 이용하는 사용자는, 이러한 상기 시그널링의 실행 시간에 대하여 불편함을 느낄 수 있다.
아래의 설명들을 통해 예시되는, 전자 장치(101), 제1 외부 전자 장치(201), 및 제2 외부 전자 장치(202)는, 상기 시그널링의 상기 실행 시간을 감소시키기 위한 동작들을 실행할 수 있다. 예를 들면, 전자 장치(101), 제1 외부 전자 장치(201), 및 제2 외부 전자 장치(202)에 의해 실행되는 상기 동작들은, 동작 301 및 동작 303을 실행하는 시간을 감소시키기 위한 동작들을 포함할 수 있다. 예를 들면, 전자 장치(101), 제1 외부 전자 장치(201), 및 제2 외부 전자 장치(202)에 의해 실행되는 상기 동작들은, 동작 305를 실행하는 시간을 감소시키기 위한 동작들을 포함할 수 있다.
아래의 설명들은, 전자 장치(101)가 2개의 외부 전자 장치들(예: 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202))과 오디오 스트리밍을 제공하는 예를 도시하고 있으나, 이는 설명의 편의를 위한 것이다. 예를 들면, 아래의 설명들은, 전자 장치(101)가 단일 외부 전자 장치와 오디오 스트리밍을 제공할 시에도 적용될 수 있다. 예를 들면, 아래의 설명들은, 전자 장치(101)가 셋 이상의(three or more) 외부 전자 장치들과 오디오 스트리밍을 제공할 시에도 적용될 수 있다.
도 4는 오디오 스트리밍을 위한 라벨을 나타내는 신호를 송신하는 예시적인 방법을 도시하는 흐름도이다. 이러한 방법은, 도 1 내의 전자 장치(101), 도 2 내의 전자 장치(101), 도 2 내의 제1 외부 전자 장치(201), 도 2 내의 제2 외부 전자 장치(202), 도 1 내의 프로세서(120), 도 2 내의 제1 외부 전자 장치(201)의 프로세서, 및/또는 도 2 내의 제2 외부 전자 장치(202)의 프로세서에 의해 실행될 수 있다.
도 4를 참조하면, 동작 401에서, 중심 장치로 동작하는 전자 장치(101)의 프로세서(120)는, 제1 주변 장치로 동작하는 제1 외부 전자 장치(201)와의 제1 통신 링크 및 제2 주변 장치로 동작하는 제2 외부 전자 장치(202)와의 제2 통신 링크를 수립할 수 있다. 예를 들면, 상기 제1 통신 링크 및 상기 제2 통신 링크 각각은, 어드버타이징(advertising) 신호에 적어도 일부 기반하여, 수립될 수 있다. 예를 들면, 제1 외부 전자 장치(201) 및/또는 제2 외부 전자 장치(202)는 상기 어드버타이징 신호를 방송할 수 있다. 전자 장치(101)는, 상기 어드버타이징 신호의 수신에 응답하여, 연결 요청 신호를 제1 외부 전자 장치(201) 및/또는 제2 외부 전자 장치(202)에게 송신할 수 있다. 예를 들면, 전자 장치(101)는, 상기 연결 요청 신호에 적어도 일부 기반하여, 상기 제1 통신 링크 및 상기 제2 통신 링크를 수립할 수 있다.
동작 403에서, 프로세서(120)는, 상기 제1 통신 링크 및 상기 제2 통신 링크를 통해, 오디오 서비스를 개시함을 나타내는 입력을 수신할 수 있다. 예를 들면, 상기 입력은, 오디오 스트리밍을 개시함을 나타내는 입력을 포함할 수 있다. 예를 들면, 상기 입력은, 전자 장치(101)의 디스플레이(예: 도 1 내의 디스플레이 모듈(160))를 통해, 수신될 수 있다. 예를 들면, 상기 입력은, 상기 디스플레이를 통해 수신되는, 오디오를 재생함을 나타내는, 사용자 입력일 수 있다. 상기 사용자 입력은, 도 5를 통해 예시될 수 있다.
도 5는 오디오 스트리밍을 개시함을 나타내는 입력의 예를 도시한다.
도 5를 참조하면, 프로세서(120)는, 상기 디스플레이를 통해, 오디오의 재생을 위한 사용자 인터페이스(500)를 표시할 수 있다. 예를 들면, 사용자 인터페이스(500)는, 음악을 재생하기 위한 실행가능한 객체(510)를 포함할 수 있다. 예를 들면, 프로세서(120)는, 실행가능한 객체(510)에 대한(on) 사용자 입력(520)을, 상기 입력으로 수신할 수 있다. 도 5는 상기 입력이 실행가능한 객체(510) 상의 사용자 입력(520)인 예를 도시하고 있으나, 이는 설명의 편의를 위한 것이다. 상기 입력은 다양하게 전자 장치(101) 내에서 정의될 수 있다. 예를 들면, 상기 입력은, 사용자 인터페이스(500)를 표시하기 위한 사용자 입력일 수 있다. 예를 들면, 상기 사용자 입력은, 사용자 인터페이스(500)를 제공하는 소프트웨어 어플리케이션을 실행하기 위한 실행가능한 객체에 대한 사용자 입력을 포함할 수 있다. 예를 들면, 상기 입력은, 상기 소프트웨어 어플리케이션의 상태가 백그라운드(background) 상태로부터 포어그라운드(foreground) 상태로 변경되는 것을 포함할 수 있다. 하지만, 이에 제한되지 않는다.
상기 오디오 서비스를 개시함을 나타내는 상기 입력은, 전자 장치(101)의 디스플레이(예: 도 1 내의 디스플레이 모듈(160))를 통해, 수신되는 것으로 예시되었으나 이에 제한되지 않는다. 예를 들면, 상기 입력은, 외부 전자 장치로부터 미리 결정된 신호를 수신하는 것을 포함할 수 있다. 예를 들면, 상기 입력은, 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202)의 적어도 일부로부터 상기 미리 결정된 신호를 수신하는 것을 포함할 수 있다. 예를 들면, 상기 미리 결정된 신호는, 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202)의 적어도 일부에 대하여 야기된 사용자 입력에 응답하여, 전자 장치(101)에게 송신될 수 있다. 예를 들면, 상기 입력은, 전자 장치(101) 내에서 야기된 미리 결정된 이벤트의 발생을 포함할 수 있다. 예를 들면, 상기 입력은, 전자 장치(101)의 입력 모듈(150)(예: 마이크)을 통해 사용자의 음성 명령을 포함할 수 있다.
다시 도 4를 참조하면, 동작 405에서, 프로세서(120)는, 상기 오디오 스트리밍의 코덱 구성(codec configuration)을 위한 정보 및/또는 상기 오디오 스트리밍의 QoS 구성(QoS configuration)을 위한 정보를 나타내는 라벨(label)을 식별할 수 있다. 예를 들면, 상기 라벨은, 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202)와의 상기 코덱 구성을 위한 동작들 및 상기 QoS 구성을 위한 동작들을 간소화하기(simplify) 위해, 전자 장치(101), 제1 외부 전자 장치(201), 및 제2 외부 전자 장치(202) 내에서 정의될 수 있다. 예를 들면, 상기 라벨은, 동작 301에서 예시된 데이터의 적어도 일부(예: 상기 오디오 스트리밍의 상기 코덱 구성을 위한 상기 정보) 및 동작 303에서 예시된 데이터의 적어도 일부(예: 상기 오디오 스트리밍의 상기 QoS 구성을 위한 상기 정보)를 나타낼 수 있다. 예를 들면, 상기 라벨은, 전자 장치(101)의 상기 코덱 구성을 위한 상태, 제1 외부 전자 장치(201)의 상기 코덱 구성을 위한 상태, 제2 외부 전자 장치(202)의 상기 코덱 구성을 위한 상태, 전자 장치(101)의 상기 QoS 구성을 위한 상태, 제1 외부 전자 장치(201)의 상기 QoS 구성을 위한 상태, 및 제2 외부 전자 장치(202)의 상기 QoS 구성을 위한 상태를 우회하기 위해 정의될 수 있다. 예를 들면, 상기 라벨은, 상기 입력이 수신되기 전, 획득될 수 있다. 예를 들면, 상기 라벨은, 상기 입력이 수신되기 전, 전자 장치(101), 제1 외부 전자 장치(201), 및 제2 외부 전자 장치(202) 내에 저장될 수 있다. 예를 들면, 상기 라벨은, 전자 장치(101), 제1 외부 전자 장치(201), 및 제2 외부 전자 장치(202) 내에서 정의된 복수의 라벨들 중에서 식별될 수 있다. 상기 복수의 라벨들 중 상기 라벨을 식별하는 것은, 도 7을 통해 예시될 것이다.
예를 들면, 상기 코덱 구성을 위한 상기 정보는, 상기 오디오 스트리밍의 코덱 식별자를 나타내는 데이터, 상기 오디오 스트리밍의 타겟 지연시간(target latency)을 나타내는 데이터, 및/또는 상기 오디오 스트리밍의 상기 타겟 지연시간을 위한 타겟 송신 속도를 나타내는 데이터를 포함할 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 상기 QoS 구성을 위한 상기 정보는, 상기 오디오 스트리밍의 최대 전송 지연시간(max transport latency)을 나타내는 데이터, 상기 오디오 스트리밍의 상기 최대 전송 지연시간을 위한 송신 속도를 나타내는 데이터, 상기 오디오 스트리밍을 위한 주기를 나타내는 데이터, 및/또는 상기 오디오 스트리밍을 위한 데이터 패킷을 프레이밍(framing)할 수 있는지 여부를 나타내는 데이터를 포함할 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 상기 라벨에 의해 나타내어지는 상기 정보는, 아래의 표 1과 같이 나타내어질 수 있다.
Figure PCTKR2023006078-appb-img-000001
상기 라벨은, 아래의 표 2와 같이, 간소화될 수 있다. 하지만, 이에 제한되지 않는다.
Figure PCTKR2023006078-appb-img-000002
예를 들면, 상기 라벨의 포맷은, 다양할 수 있다. 예를 들면, 상기 라벨은, 상기 오디오 스트리밍의 상기 코덱 구성을 위한 상기 정보 및 상기 오디오 스트리밍의 상기 QoS 구성을 위한 상기 정보를 포함함으로써, 상기 오디오 스트리밍의 상기 코덱 구성을 위한 상기 정보 및 상기 오디오 스트리밍의 상기 QoS 구성을 위한 상기 정보를 나타낼 수 있다. 예를 들면, 상기 라벨은, 상기 오디오 스트리밍의 상기 코덱 구성을 위한 상기 정보를 나타내는 식별자 및 상기 오디오 스트리밍의 상기 QoS 구성을 위한 상기 정보를 나타내는 식별자를 포함함으로써, 상기 오디오 스트리밍의 상기 코덱 구성을 위한 상기 정보 및 상기 오디오 스트리밍의 상기 QoS 구성을 위한 상기 정보를 나타낼 수 있다. 예를 들면, 상기 라벨은, 상기 라벨을 나타내는 식별자를 통해, 상기 오디오 스트리밍의 상기 코덱 구성을 위한 상기 정보 및 상기 오디오 스트리밍의 상기 QoS 구성을 위한 상기 정보를 나타낼 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 상기 라벨은, 상기 제1 통신 링크 및 상기 제2 통신 링크가 수립된 후, 제1 외부 전자 장치(201)로부터 상기 제1 통신 링크를 통해 수신되는 상기 오디오 스트리밍에 대한 제1 외부 전자 장치(201)의 유휴 상태를 나타내는 신호 및 제2 외부 전자 장치(202)로부터 상기 제2 통신 링크를 통해 수신되는 상기 오디오 스트리밍에 대한 제2 외부 전자 장치(202)의 유휴 상태를 나타내는 신호에 기반하여, 식별될 수 있다. 예를 들면, 제1 외부 전자 장치(201)로부터의 상기 신호 및 제2 외부 전자 장치(202)로부터의 상기 신호는, 동작 403에서 상기 입력이 수신되기 전, 수신될 수 있다. 하지만, 이에 제한되지 않는다.
동작 407에서, 프로세서(120)는, 상기 라벨을 나타내는 신호를 상기 제1 통신 링크를 통해 제1 외부 전자 장치(201)에게 송신하고, 상기 신호를 상기 제2 통신 링크를 통해 제2 외부 전자 장치(202)에게 송신할 수 있다.
예를 들면, 상기 신호는, 상기 오디오 스트리밍에 대한 제1 외부 전자 장치(201)의 유휴 상태를 상기 오디오 스트리밍에 대한 제1 외부 전자 장치(201)의 활성 상태로 전환하거나 천이하거나 변경하기 위해 송신될 수 있다. 예를 들면, 제1 외부 전자 장치(201)에게 송신된 상기 신호는, 제1 외부 전자 장치(201)의 상기 코덱 구성을 위한 상태 및 제1 외부 전자 장치(201)의 상기 QoS 구성을 위한 상태를 우회함으로써, 상기 오디오 스트리밍에 대한 제1 외부 전자 장치(201)의 유휴 상태를 상기 오디오 스트리밍에 대한 제1 외부 전자 장치(201)의 활성 상태로 직접적으로(directly) 전환하도록 제1 외부 전자 장치(201)를 야기할(예: 명령하거나 알릴) 수 있다.
예를 들면, 상기 신호는, 상기 오디오 스트리밍에 대한 제2 외부 전자 장치(202)의 유휴 상태를 상기 오디오 스트리밍에 대한 제2 외부 전자 장치(202)의 활성 상태로 전환하거나 천이하거나 변경하기 위해 송신될 수 있다. 예를 들면, 제2 외부 전자 장치(202)에게 송신된 상기 신호는, 제2 외부 전자 장치(202)의 상기 코덱 구성을 위한 상태 및 제2 외부 전자 장치(202)의 상기 QoS 구성을 위한 상태를 우회함으로써, 상기 오디오 스트리밍에 대한 제2 외부 전자 장치(202)의 유휴 상태를 상기 오디오 스트리밍에 대한 제2 외부 전자 장치(202)의 활성 상태로 직접적으로(directly) 전환하도록 제2 외부 전자 장치(202)를 야기할(예: 명령하거나 알릴) 수 있다.
예를 들면, 상기 신호의 포맷은 다양할 수 있다. 예를 들면, 상기 신호는, 상기 라벨을 나타내는 식별자를 포함함으로써, 상기 라벨을 나타낼 수 있다. 예를 들면, 상기 신호는, 상기 라벨에 대한 정보를 포함함으로써, 상기 라벨을 나타낼 수 있다. 하지만, 이에 제한되지 않는다.
동작 409에서, 프로세서(120)는, 제1 외부 전자 장치(201)로의 상기 신호의 상기 송신 및 제2 외부 전자 장치(202)로의 상기 신호의 상기 송신에 적어도 일부 기반하여, 상기 오디오 스트리밍에 대한 전자 장치(101)의 상태를 유휴 상태로부터 활성 상태로 전환할 수 있다.
예를 들면, 프로세서(120)는, 동작 407에서 제1 외부 전자 장치(201)에게 상기 신호를 송신하고 제2 외부 전자 장치(202)에게 상기 신호를 송신하는 것에 응답하여, 상기 상태를 상기 유휴 상태로부터 상기 활성 상태로 전환할 수 있다. 예를 들면, 프로세서(120)는, 제1 외부 전자 장치(201)로부터 상기 신호에 대한 응답 신호를 수신하고 제2 외부 전자 장치(202)로부터 상기 신호에 대한 응답 신호를 수신하는 것에 응답하여, 상기 상태를 상기 유휴 상태로부터 상기 활성 상태로 전환할 수 있다. 예를 들면, 상기 상태는, 상기 코덱 구성을 위한 상태 및 상기 QoS 구성을 위한 상태를 우회함으로써, 상기 유휴 상태로부터 상기 활성 상태로 직접적으로 전환될 수 있다. 상기 상태를 직접적으로 전환하는 것은, 도 6을 통해 예시될 수 있다.
도 6은 유휴 상태로부터 활성 상태로의 직접적 전환의 예를 도시한다.
도 6을 참조하면, 전자 장치(101), 제1 외부 전자 장치(201), 및 제2 외부 전자 장치(202) 각각의 상태는, 유휴 상태(600), 코덱 구성(codec configured) 상태(610), QoS 구성(QoS configured) 상태(620), 활성 상태(630), 및 스트리밍 상태(640)를 포함할 수 있다. 도 6 내에서 도시되지 않았으나, 전자 장치(101), 제1 외부 전자 장치(201), 및 제2 외부 전자 장치(202) 각각의 상태는, 코덱 구성(codec configured) 상태(610), QoS 구성(QoS configured) 상태(620), 활성 상태(630), 및 스트리밍 상태(640)로부터 전환될 수 있는 해제(release) 상태를 더 포함할 수 있다.
예를 들면, 전자 장치(101), 제1 외부 전자 장치(201), 및 제2 외부 전자 장치(202) 각각은, 상기 오디오 스트리밍이 개시됨을 식별하기 전, 유휴 상태(600) 내에서 있을 수 있다.
예를 들어, 상기 라벨이 이용되지 않는 경우, 전자 장치(101), 제1 외부 전자 장치(201), 및 제2 외부 전자 장치(202) 각각은, 상기 오디오 스트리밍의 개시에 응답하여, 도 3의 동작 301을 통해 예시된 동작들을 통해 유휴 상태(600)를 코덱 구성 상태(610)로 전환할 수 있다. 전자 장치(101), 제1 외부 전자 장치(201), 및 제2 외부 전자 장치(202) 각각은, 전자 장치(101), 제1 외부 전자 장치(201), 및 제2 외부 전자 장치(202) 모두가 코덱 구성 상태(610)로 전환될 시, 도 3의 동작 303을 통해 예시된 동작들을 통해 코덱 구성 상태(610)를 QoS 구성 상태(620)로 전환할 수 있다. 전자 장치(101), 제1 외부 전자 장치(201), 및 제2 외부 전자 장치(202) 각각은, 전자 장치(101), 제1 외부 전자 장치(201), 및 제2 외주 전자 장치(202) 모두가 QoS 구성 상태(620)로 전환될 시, QoS 구성 상태(620)를 활성 상태(630)로 전환할 수 있다. 전자 장치(101), 제1 외부 전자 장치(201), 및 제2 외부 전자 장치(202) 각각은, CIG 이벤트를 생성하는 것에 적어도 일부 기반하여, 활성 상태(630)를 스트리밍 상태(640)로 전환할 수 있다. 상술한 바와 같이, 상기 라벨이 이용되지 않을 시 유휴 상태(600)로부터 활성 상태(630)로의 전환은, 유휴 상태(600)로부터 코덱 구성 상태(610)로의 전환, 코덱 구성 상태(610)로부터 QoS 구성 상태(620)로의 전환, 및 QoS 구성 상태(620)로부터 활성 상태(630)로의 전환을 포함하기 때문에, 상기 라벨이 이용되지 않을 시 유휴 상태(600)를 활성 상태(630)로 전환하는 것은 CIS 이벤트들을 포함하는 CIG 이벤트를 생성하는 것의 지연을 야기할 수 있다. 예를 들면, 유휴 상태(600)로부터 코덱 구성 상태(610)로의 전환, 코덱 구성 상태(610)로부터 QoS 구성 상태(620)로의 전환, 및 QoS 구성 상태(620)로부터 활성 상태(630)로의 전환 각각을 위한 연결 이벤트(connection event)의 길이를 감소시키는 것은, 전력 소비 측면에서 제한될 수 있다. 상기 라벨이 이용되지 않을 시 유휴 상태(600)를 활성 상태(630)로 전환하는 것은 CIS 이벤트들을 포함하는 CIG 이벤트를 생성하는 것의 지연을 야기할 수 있다.
예를 들어, 상기 라벨이 이용되는 경우, 전자 장치(101)는, 상기 오디오 스트리밍의 상기 개시에 응답하여, 상기 라벨을 나타내는 상기 신호를 제1 외부 전자 장치(201)에게 송신하고, 상기 신호를 제2 외부 전자 장치(202)에게 송신할 수 있다. 예를 들면, 전자 장치(101)는, 제1 외부 전자 장치(201)에게 상기 신호를 송신하는 것 및 제2 외부 전자 장치(202)에게 상기 신호를 송신하는 것에 기반하여, 유휴 상태(600)를 활성 상태(630)로 직접적으로 전환할 수 있다. 예를 들면, 상기 라벨은, 코덱 구성 상태(610)로의 전환을 위한 정보, QoS 구성 상태(620)로의 전환을 위한 정보, 및 활성 상태(630)로의 전환을 위한 정보를 나타내기 때문에, 전자 장치(101)는, 코덱 구성 상태(610)로의 전환 및 QoS 구성 상태(620)로의 전환을 우회함으로써, 유휴 상태(600)를 활성 상태(630)로 전환할 수 있다. 예를 들면, 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202)는, 상기 신호를 전자 장치(101)로부터 각각 수신하는 것에 기반하여, 유휴 상태(600)를 활성 상태(630)로 직접적으로 전환할 수 있다. 예를 들면, 상기 라벨은, 코덱 구성 상태(610)로의 전환을 위한 정보, QoS 구성 상태(620)로의 전환을 위한 정보, 및 활성 상태(630)로의 전환을 위한 정보를 나타내기 때문에, 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202)는, 코덱 구성 상태(610)로의 전환 및 QoS 구성 상태(620)로의 전환을 우회함으로써, 유휴 상태(600)를 활성 상태(630)로 전환할 수 있다. 예를 들면, 전자 장치(101), 제1 외부 전자 장치(201), 및 제2 외부 전자 장치(202) 각각은, CIG 이벤트를 생성하는 것에 적어도 일부 기반하여, 활성 상태(630)를 스트리밍 상태(640)로 전환할 수 있다.
상술한 바와 같이, 상기 라벨을 통한 유휴 상태(600)로부터 활성 상태(630)로의 전환은, 유휴 상태(600)로부터 코덱 구성 상태(610)로의 전환 및 코덱 구성 상태(610)로부터 QoS 구성 상태(620)로의 전환을 우회하기 때문에, 상기 라벨을 이용하여 유휴 상태(600)를 활성 상태(630)로 전환하는 것은, CIS 이벤트들을 포함하는 CIG 이벤트를 생성하기 전 상태를 전환하기 위해 소비되는 시간을 감소시킬 수 있다. 예를 들면, 상기 라벨을 통한 유휴 상태(600)로부터 활성 상태(630)로의 전환은, 연결 이벤트의 길이를 감소시키는 것에 의해 실행되는 것이 아니기 때문에, 유휴 상태(600)로부터 활성 상태(630)로의 전환은, 빠른 응답 속도를 제공할 뿐 아니라 전력 소비의 감소를 제공할 수 있다.
도 7은 서비스의 유형에 대응하는 라벨을 식별하는 예시적인 방법을 도시하는 흐름도이다. 이러한 방법은, 도 1 내의 전자 장치(101), 도 2 내의 전자 장치(101), 도 2 내의 제1 외부 전자 장치(201), 도 2 내의 제2 외부 전자 장치(202), 도 1 내의 프로세서(120), 도 2 내의 제1 외부 전자 장치(201)의 프로세서, 및/또는 도 2 내의 제2 외부 전자 장치(202)의 프로세서에 의해 실행될 수 있다.
도 7의 동작 701 및 동작 703은 도 4의 동작 405 내에 포함될 수 있다.
도 7을 참조하면, 동작 701에서, 프로세서(120)는, 동작 403에서 수신된 입력에 응답하여, 상기 오디오 스트리밍의 서비스 유형을 식별할 수 있다. 예를 들면, 상기 서비스 유형은, 게임 모드 유형(game mode type), 음악 재생 유형(music play type), 및/또는 대화 유형(conversational type)을 포함할 수 있다. 하지만, 이에 제한되지 않는다. 예를 들면, 프로세서(120)는, 상기 입력에 의해 나타내어지는 서비스 유형을 식별함으로써, 상기 오디오 스트리밍의 상기 서비스 유형을 식별할 수 있다. 예를 들면, 프로세서(120)는, 전자 장치(101) 내에 정의된 복수의 서비스 유형들 중 상기 입력에 대응하는 하나의(a) 서비스 유형을 상기 오디오 스트리밍의 상기 서비스 유형으로 식별할 수 있다. 하지만, 이에 제한되지 않는다.
동작 703에서, 프로세서(120)는, 복수의 라벨들 중에서, 상기 식별된 서비스 유형에 대응하는 라벨(예: 동작 405를 통해 식별된 상기 라벨)을 식별할 수 있다. 예를 들면, 상기 복수의 라벨들 각각은, 전자 장치(101), 제1 외부 전자 장치(201), 및/또는 제2 외부 전자 장치(202) 내에 정의된 복수의 서비스 유형들 각각의 오디오 스트리밍의 코덱 구성을 위한 정보 및 QoS 구성을 위한 정보를 나타낼 수 있다. 예를 들면, 상기 복수의 라벨들 각각에 대한 정보는, 동작 403에서 상기 입력이 수신되기 전, 전자 장치(101), 제1 외부 전자 장치(201), 및/또는 제2 외부 전자 장치(202)의 메모리(예: 도 1의 메모리(130)) 내에 저장될 수 있다. 하지만, 이에 제한되지 않는다.
상기 복수의 라벨들을 식별하거나 획득하는 것은, 도 8을 통해 예시될 것이다.
상술한 바와 같이, 전자 장치(101)는, 상기 오디오 스트리밍의 상기 서비스 유형에 대응하는 상기 라벨을 식별함으로써, 상기 유휴 상태를 상기 활성 상태로 직접적으로 전환할 수 있다. 예를 들면, 전자 장치(101)는, 이러한 전환을 통해, 상기 오디오 스트리밍의 요청으로부터 상기 CIG 이벤트의 생성까지의 시간을 감소시킬 수 있다.
도 8은 복수의 라벨들을 획득하는 예시적인 방법을 도시하는 흐름도이다. 이러한 방법은, 도 1 내의 전자 장치(101), 도 2 내의 전자 장치(101), 도 2 내의 제1 외부 전자 장치(201), 도 2 내의 제2 외부 전자 장치(202), 도 1 내의 프로세서(120), 도 2 내의 제1 외부 전자 장치(201)의 프로세서, 도 2 내의 제2 외부 전자 장치(202)의 프로세서, 및/또는 전자 장치(101), 제1 외부 전자 장치(201), 및 제2 외부 전자 장치(202)와 관련된 다른 장치에 의해 실행될 수 있다.
도 8을 참조하면, 동작 801에서, 프로세서(120)는, 제1 외부 전자 장치(201)의 특성들(characteristics) 및 제2 외부 전자 장치(202)의 특성들에 대한 데이터를 획득할 수 있다. 예를 들면, 전자 장치(101)는, 서비스(예: PACS(published audio capabilities service) 및/또는 ASCS(audio stream control service))들과 관련된 제1 외부 전자 장치(201)의 상기 특성들 및 제2 외부 전자 장치(202)의 상기 특성들에 대한 상기 데이터를 획득할 수 있다.
예를 들면, 제1 외부 전자 장치(201)의 상기 특성들 및 제2 외부 전자 장치(202)의 상기 특성들은 오디오 스트리밍의 복수의 서비스 유형들에 대한 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202)의 능력 정보를 포함할 수 있다.
예를 들면, 상기 데이터는, 제1 외부 전자 장치(201)가 프론트 우측 채널(front right channel)의 싱크 장치로 동작함을 나타낼 수 있다. 예를 들면, 상기 데이터는, 제2 외부 전자 장치(202)가 프론트 좌측 채널(front left channel)의 싱크 장치로 동작함을 나타낼 수 있다. 예를 들면, 상기 데이터는, 상기 오디오 스트리밍에 대한 제1 외부 전자 장치(201)의 상태가 유휴 상태임을 나타낼 수 있다. 예를 들면, 상기 데이터는, 상기 오디오 스트리밍에 대한 제2 외부 전자 장치(202)의 상태가 유휴 상태임을 나타낼 수 있다.
예를 들면, 상기 데이터는, 전자 장치(101), 제1 외부 전자 장치(201), 및/또는 제2 외부 전자 장치(202) 각각 내에 저장될 수 있다. 예를 들면, 상기 데이터는, 제1 외부 전자 장치(201) 및/또는 제2 외부 전자 장치(202)를 관리하기 위한, 전자 장치(101) 내에 설치된, 소프트웨어 어플리케이션을 통해, 획득될 수 있다. 예를 들면, 상기 데이터는, 상기 소프트웨어 어플리케이션을 통해 제공되는 서비스를 위한 서버로부터 획득될 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 상기 데이터가 획득되는 타이밍은 다양할 수 있다. 예를 들면, 상기 데이터의 적어도 일부는, 동작 401에서 상기 제1 통신 링크 및 상기 제2 통신 링크를 수립하는 것에 응답하여, 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202)로부터 수신될 수 있다. 예를 들면, 상기 데이터의 상기 적어도 일부는, 서비스 디스커버리(service discovery)의 완료 후 획득될 수 있다. 하지만, 이에 제한되지 않는다.
동자 803에서, 프로세서(120)는, 전자 장치(101)의 특성들, 제1 외부 전자 장치(201)의 특성들, 및 제2 외부 전자 장치(202)의 특성들에 기반하여, 복수의 라벨들을 획득할 수 있다. 예를 들면, 상기 복수의 라벨들 각각은, 오디오 스트리밍의 복수의 서비스 유형들 각각과 대응할 수 있다. 예를 들면, 상기 복수의 라벨들 각각은, 상기 복수의 라벨들 각각을 나타내는 식별자와 연계로, 전자 장치(101), 제1 외부 전자 장치(201), 및/또는 제2 외부 전자 장치(202)의 메모리 내에 저장될 수 있다.
도 8은, 전자 장치(101)가 전자 장치(101)의 특성들, 제1 외부 전자 장치(201)의 특성들, 및 제2 외부 전자 장치(202)의 특성들에 기반하여, 상기 복수의 라벨들을 획득하는 예를 도시하고 있으나, 이는 설명의 편의를 위한 것이다. 예를 들면, 상기 복수의 라벨들은, 전자 장치(101)와 관련된 서버를 통해 획득될 수도 있다. 예를 들면, 상기 서버는, 전자 장치(101)의 특성들, 제1 외부 전자 장치(201)의 특성들, 및 제2 외부 전자 장치(202)의 특성들을 전자 장치(101), 제1 외부 전자 장치(201), 및 제2 외부 전자 장치(202)로부터 각각 획득하고, 전자 장치(101)의 특성들, 제1 외부 전자 장치(201)의 특성들, 및 제2 외부 전자 장치(202)의 특성들에 기반하여 상기 복수의 라벨들을 획득할 수 있다. 하지만, 이에 제한되지 않는다. 예를 들면, 전자 장치(101)는, 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202) 각각으로부터 제1 외부 전자 장치(201)의 상기 특성들 및 제2 외부 전자 장치(202)의 상기 특성들 각각에 대한 데이터를 획득할 수 있다. 전자 장치(101)는, 상기 데이터를 획득하는 것에 기반하여, 상기 서버에게 전자 장치(101)의 특성들, 제1 외부 전자 장치(201)의 특성들, 및 제2 외부 전자 장치(202)의 특성들에 대한 데이터를 제공할 수 있다.
예를 들면, 상기 서버는, 상기 획득된 복수의 라벨들에 대한 정보를 전자 장치(101), 제1 외부 전자 장치(201), 및/또는 제2 외부 전자 장치(202)에게 제공할 수 있다. 하지만, 이에 제한되지 않는다. 예를 들면, 상기 정보가 상기 서버로부터 전자 장치(101), 제1 외부 전자 장치(201), 및 제2 외부 전자 장치(202) 중 전자 장치(101)에게 제공되는 경우, 전자 장치(101)는, 상기 정보를 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202) 각각에게 제공할 수 있다.
도 9는 오디오 스트리밍의 서비스가 제공되는 동안 식별된 다른 오디오 스트리밍의 요청에 응답하여 다른 오디오 스트리밍을 위한 라벨을 나타내는 신호를 송신하는 예시적인 방법을 도시한다. 이러한 방법은, 도 1 내의 전자 장치(101), 도 2 내의 전자 장치(101), 도 2 내의 제1 외부 전자 장치(201), 도 2 내의 제2 외부 전자 장치(202), 도 1 내의 프로세서(120), 도 2 내의 제1 외부 전자 장치(201)의 프로세서, 및/또는 도 2 내의 제2 외부 전자 장치(202)의 프로세서에 의해 실행될 수 있다.
도 9를 참조하면, 동작 901에서, 프로세서(120)는, 상기 오디오 스트리밍에 대한 전자 장치(101)의 상태를 유휴 상태로부터 활성 상태로 전환할 수 있다. 예를 들면, 상기 전환은, 도 4의 동작 407에서 송신된 상기 신호에 적어도 일부 기반하여, 실행될 수 있다. 예를 들면, 동작 901은 도 4의 동작 409에 대응할 수 있다.
동작 903에서, 프로세서(120)는, 상기 활성 상태에 적어도 일부 기반하여, 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202)와 상기 오디오 스트리밍의 서비스를 제공할 수 있다. 예를 들면, 프로세서(120)는, 상기 활성 상태로부터 전환된 스트리밍 상태 내에서, 스트리밍 상태로 전환된 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202) 각각과, CIS 이벤트들을 이용하여 상기 오디오 스트리밍을 실행함으로써, 상기 서비스를 제공할 수 있다.
동작 905에서, 프로세서(120)는, 상기 활성 상태에 적어도 일부 기반하여, 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202)와 상기 오디오 스트리밍의 서비스를 제공하는 동안, 상기 오디오 스트리밍의 서비스 유형과 구별되는, 다른(another) 서비스 유형의 다른 오디오 스트리밍이 요청됨을 식별할 수 있다.
예를 들면, 상기 다른 오디오 스트리밍의 요청은 다양하게 트리거될 수 있다. 예를 들면, 상기 다른 오디오 스트리밍은, 다른 전자 장치로부터의 수신 전화에 기반하여 요청될 수 있다. 예를 들면, 상기 다른 오디오 스트리밍은, 상기 오디오 스트리밍과 관련된 소프트웨어 어플리케이션과 구별되는 다른 소프트웨어 어플리케이션의 실행에 기반하여 요청될 수 있다. 하지만, 이에 제한되지 않는다.
동작 907에서, 프로세서(120)는, 동작 905에서의 상기 식별에 응답하여, 상기 다른 오디오 스트리밍의 코덱 구성을 위한 정보 및 상기 다른 오디오 스트리밍의 QoS 구성을 위한 정보를 나타내는, 다른 라벨을 식별할 수 있다. 예를 들면, 상기 다른 라벨은, 동작 903에서 제공되는 상기 서비스를 위해 이용된 상기 라벨과 구별될 수 있다. 예를 들면, 상기 다른 라벨은, 도 7 및/또는 8을 통해 예시된 상기 복수의 라벨들 중에서 식별될 수 있다. 예를 들면, 상기 다른 라벨은, 상기 복수의 라벨들 중에서 상기 다른 오디오 스트리밍의 상기 다른 서비스 유형에 대응하는 라벨일 수 있다.
동작 909에서, 프로세서(120)는, 상기 다른 라벨을 나타내는 다른 신호(예: 동작 407에서 송신되는 상기 신호와 구별되는 신호)를 상기 제1 통신 링크를 통해 제1 외부 전자 장치(201)에게 송신하고, 상기 다른 신호를 상기 제2 통신 링크를 통해 제2 외부 전자 장치(202)에게 송신할 수 있다.
예를 들면, 상기 다른 신호는, 상기 다른 오디오 스트리밍에 대한 제1 외부 전자 장치(201)의 유휴 상태를 상기 다른 오디오 스트리밍에 대한 제1 외부 전자 장치(201)의 활성 상태로 전환하거나 천이하거나 변경하기 위해 송신될 수 있다. 예를 들면, 제1 외부 전자 장치(201)에게 송신된 상기 다른 신호는, 상기 다른 오디오 스트리밍에 대한 제1 외부 전자 장치(201)의 상기 코덱 구성을 위한 상태 및 상기 다른 오디오 스트리밍에 대한 제1 외부 전자 장치(201)의 상기 QoS 구성을 위한 상태를 우회함으로써, 상기 다른 오디오 스트리밍에 대한 제1 외부 전자 장치(201)의 유휴 상태를 상기 다른 오디오 스트리밍에 대한 제1 외부 전자 장치(201)의 활성 상태로 직접적으로 전환하도록 제1 외부 전자 장치(201)를 야기할(예: 명령하거나 알릴) 수 있다.
예를 들면, 상기 다른 신호는, 상기 다른 오디오 스트리밍에 대한 제2 외부 전자 장치(202)의 유휴 상태를 상기 다른 오디오 스트리밍에 대한 제2 외부 전자 장치(202)의 활성 상태로 전환하거나 천이하거나 변경하기 위해 송신될 수 있다. 예를 들면, 제2 외부 전자 장치(202)에게 송신된 상기 다른 신호는, 상기 다른 오디오 스트리밍에 대한 제2 외부 전자 장치(202)의 상기 코덱 구성을 위한 상태 및 상기 다른 오디오 스트리밍에 대한 제2 외부 전자 장치(202)의 상기 QoS 구성을 위한 상태를 우회함으로써, 상기 다른 오디오 스트리밍에 대한 제2 외부 전자 장치(202)의 유휴 상태를 상기 다른 오디오 스트리밍에 대한 제2 외부 전자 장치(202)의 활성 상태로 직접적으로(directly) 전환하도록 제2 외부 전자 장치(202)를 야기할(예: 명령하거나 알릴) 수 있다.
예를 들면, 상기 다른 신호의 포맷은 다양할 수 있다. 예를 들면, 상기 다른 신호는, 상기 다른 라벨을 나타내는 식별자를 포함함으로써, 상기 다른 라벨을 나타낼 수 있다. 예를 들면, 상기 다른 신호는, 상기 다른 라벨에 대한 정보를 포함함으로써, 상기 다른 라벨을 나타낼 수 있다. 하지만, 이에 제한되지 않는다.
동작 911에서, 프로세서(120)는, 제1 외부 전자 장치(201)로의 상기 다른 신호의 상기 송신 및 제2 외부 전자 장치(202)로의 상기 다른 신호의 상기 송신에 기반하여, 상기 다른 오디오 스트리밍에 대한 전자 장치(101)의 상태를 유휴 상태로부터 활성 상태로 전환할 수 있다.
예를 들면, 프로세서(120)는, 동작 909에서 제1 외부 전자 장치(201)에게 상기 다른 신호를 송신하고 제2 외부 전자 장치(202)에게 상기 다른 신호를 송신하는 것에 응답하여, 상기 다른 오디오 스트리밍에 대한 전자 장치(101)의 상기 상태를 상기 유휴 상태로부터 상기 활성 상태로 전환할 수 있다. 예를 들면, 프로세서(120)는, 제1 외부 전자 장치(201)로부터 상기 다른 신호에 대한 응답 신호를 수신하고 제2 외부 전자 장치(202)로부터 상기 다른 신호에 대한 응답 신호를 수신하는 것에 응답하여, 상기 다른 오디오 스트리밍에 대한 상기 상태를 상기 유휴 상태로부터 상기 활성 상태로 전환할 수 있다. 예를 들면, 상기 다른 오디오 스트리밍에 대한 상기 상태는, 상기 코덱 구성을 위한 상태 및 상기 QoS 구성을 위한 상태를 우회함으로써, 상기 유휴 상태로부터 상기 활성 상태로 직접적으로 전환될 수 있다.
상술한 바와 같이, 전자 장치(101)는, 제1 라벨에 기반하여 제1 오디오 스트리밍의 서비스가 제공되는 동안 제2 오디오 스트리밍의 요청이 획득될 시, 상기 제2 오디오 스트리밍의 서비스 유형에 대응하는 제2 라벨을 식별할 수 있다. 전자 장치(101)는, 상기 제2 라벨을 나타내는 신호를 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202)에게 송신하는 것에 기반하여, 상기 제2 오디오 스트리밍에 대한 상태를 유휴 상태로부터 활성 상태로 직접적으로 전환할 수 있다. 전자 장치(101)는, 이러한 전환을 통해, 상기 제2 오디오 스트리밍을 빠른 응답 속도로 실행할 뿐 아니라 상기 제2 오디오 스트리밍의 실행에 따른 전력 소비를 감소시킬 수 있다.
도 10은 CIS 이벤트들을 포함하는 CIG 이벤트의 생성을 위해 메시지를 송신하는 예시적인 방법을 도시하는 흐름도이다. 이러한 방법은, 도 1 내의 전자 장치(101), 도 2 내의 전자 장치(101), 도 2 내의 제1 외부 전자 장치(201), 도 2 내의 제2 외부 전자 장치(202), 도 1 내의 프로세서(120), 도 2 내의 제1 외부 전자 장치(201)의 프로세서, 및/또는 도 2 내의 제2 외부 전자 장치(202)의 프로세서에 의해 실행될 수 있다.
도 10을 참조하면, 동작 1001에서, 프로세서(120)는, 상기 오디오 스트리밍에 대한 전자 장치(101)의 상태를 유휴 상태로부터 활성 상태로 전환할 수 있다. 예를 들면, 상기 전환은, 도 4의 동작 407에서 송신된 상기 신호에 적어도 일부 기반하여, 실행될 수 있다. 예를 들면, 동작 1001은 도 4의 동작 409에 대응할 수 있다.
동작 1003에서, 프로세서(120)는, 상기 활성 상태로의 상기 전환에 응답하여, 상기 제1 통신 링크를 통해 제1 외부 전자 장치(201)에게 제1 CIS 이벤트의 요청을 나타내는 메시지를 송신하고, 상기 제2 통신 링크를 통해 제2 외부 전자 장치(202)에게 제2 CIS 이벤트의 요청을 나타내는 메시지를 송신할 수 있다. 예를 들면, 상기 제1 CIS 이벤트 및 상기 제2 CIS 이벤트는 CIG 이벤트 내에 포함될 수 있다. 예를 들면, 상기 제1 CIS 이벤트는, 제1 외부 전자 장치(201)를 위한 CIS 이벤트이고, 상기 제2 CIS 이벤트는, 제2 외부 전자 장치(202)를 위한 CIS 이벤트일 수 있다.
예를 들면, 제1 외부 전자 장치(201)에게 송신된 상기 메시지는, 상기 메시지를 송신하기 위해 이용되는 제1 외부 전자 장치(201)와의 연결 이벤트(connection event)의 길이를 연장함을 나타내는 데이터를 포함할 수 있다. 예를 들면, 상기 메시지는, LL(link layer) CIS REQ(request)일 수 있다. 예를 들면, 상기 메시지는, 헤더 내에서 MD(more data) 필드를 포함할 수 있다. 예를 들면, 상기 메시지 내의 상기 데이터는, 상기 MD 필드를 통해 제1 외부 전자 장치(201)와의 상기 연결 이벤트의 상기 길이를 연장함을 나타낼 수 있다.
예를 들면, 프로세서(120)는, 상기 CIG 이벤트(또는 상기 제1 CIS 이벤트)의 생성을 완료할 때까지의 시간을 감소시키기 위해, 상기 연결 이벤트의 상기 길이를 연장함을 나타내는 상기 메시지를 송신할 수 있다. 예를 들면, 상기 메시지는, 단일 연결 이벤트 내에서 상기 CIG 이벤트(또는 상기 제1 CIS 이벤트)를 생성하기 위한 시그널링을 완료하기 위해, 상기 연결 이벤트의 상기 길이를 연장함을 나타낼 수 있다. 예를 들면, 상기 메시지는, 동작 1005을 통해 예시될 응답 메시지(예: LL CIS RES(response) 및/또는 전자 장치(101)로부터 송신되는 LL CIS IND(indication)에 대한 확인(acknowledgement) 메시지)의 수신 및 상기 메시지의 송신을 단일 연결 이벤트 내에서 실행하기 위해, 상기 연결 이벤트의 상기 길이를 연장함을 나타낼 수 있다.
예를 들면, 제2 외부 전자 장치(202)에게 송신된 상기 메시지는, 상기 메시지를 송신하기 위해 이용되는 제2 외부 전자 장치(202)와의 연결 이벤트의 길이를 연장함을 나타내는 데이터를 포함할 수 있다. 예를 들면, 상기 메시지는, LL CIS REQ일 수 있다. 예를 들면, 상기 메시지는, 헤더 내에서 MD(more data) 필드를 포함할 수 있다. 예를 들면, 상기 메시지 내의 상기 데이터는, 상기 MD 필드를 통해 제2 외부 전자 장치(202)와의 상기 연결 이벤트의 상기 길이를 연장함을 나타낼 수 있다.
예를 들면, 프로세서(120)는, 상기 CIG 이벤트(또는 상기 제2 CIS 이벤트)의 생성을 완료할 때까지의 시간을 감소시키기 위해, 상기 연결 이벤트의 상기 길이를 연장함을 나타내는 상기 메시지를 송신할 수 있다. 예를 들면, 상기 메시지는, 단일 연결 이벤트 내에서 상기 CIG 이벤트(또는 상기 제2 CIS 이벤트)를 생성하기 위한 시그널링을 완료하기 위해, 상기 연결 이벤트의 상기 길이를 연장함을 나타낼 수 있다. 예를 들면, 상기 메시지는, 동작 1005을 통해 예시될 응답 메시지(예: LL CIS RES 및/또는 전자 장치(101)로부터 송신되는 LL CIS IND에 대한 확인 메시지)의 수신 및 상기 메시지의 송신을 단일 연결 이벤트 내에서 실행하기 위해, 상기 연결 이벤트의 상기 길이를 연장함을 나타낼 수 있다.
동작 1005에서, 프로세서(120)는, 제1 외부 전자 장치(201)로부터 상기 제1 통신 링크를 통해 상기 메시지에 대한 상기 응답 메시지를 수신하고, 제2 외부 전자 장치(202)로부터 상기 제2 통신 링크를 통해 상기 메시지에 대한 상기 응답 메시지를 수신할 수 있다. 예를 들면, 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202)는, 상기 응답 메시지의 송신, 상기 응답 메시지에 응답하여 전자 장치(101)로부터 송신되는 다른 메시지(예: LL CIS IND)의 수신, 또는 상기 다른 메시지에 대한 확인 메시지의 송신에 응답하여, 활성 상태를 스트리밍 상태로 전환할 수 있다.
동작 1007에서, 프로세서(120)는, 제1 외부 전자 장치(201)로부터 상기 제1 통신 링크를 통해 상기 응답 메시지를 수신하고 제2 외부 전자 장치(202)로부터 상기 제2 통신 링크를 통해 상기 응답 메시지를 수신하는 것에 기반하여, 상기 제1 CIS 이벤트 및 상기 제2 CIS 이벤트를 포함하는 상기 CIG 이벤트를 생성할 수 있다.
동작 1009에서, 프로세서(120)는, 상기 CIG 이벤트를 생성하는 것에 응답하여, 상기 오디오 스트리밍에 대한 전자 장치(101)의 상기 상태를 상기 활성 상태로부터 스트리밍 상태로 전환할 수 있다. 예를 들면, 프로세서(120)는, 상기 CIG 이벤트를 이용하여 상기 오디오 스트리밍의 서비스를 제공하기 위해, 상기 상태를 상기 스트리밍 상태로 전환할 수 있다.
동작 1011에서, 프로세서(120)는, 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202)와의 상기 오디오 스트리밍을 실행할 수 있다. 예를 들면, 프로세서(120)는, 상기 CIG 이벤트 내의 상기 제1 CIS 이벤트를 이용하여, 스트리밍 상태로 전환된 제1 외부 전자 장치(201)와의 상기 오디오 스트리밍을 실행하고, 상기 CIG 이벤트 내의 상기 제2 CIS 이벤트를 이용하여, 스트리밍 상태로 전환된 제2 외부 전자 장치(202)와의 상기 오디오 스트리밍을 실행할 수 있다.
예를 들면, 상기 오디오 스트리밍은, 전자 장치(101)로부터 상기 CIG 이벤트를 통해 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202) 각각에게 송신되는 오디오에 대한 데이터에 기반하여, 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202) 각각이 상기 오디오를 출력하는 것을 포함할 수 있다. 예를 들면, 상기 오디오 스트리밍은, 전자 장치(101)로부터 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202) 각각으로의 요청에 응답하여 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202) 각각에 의해 획득된, 오디오에 대한 데이터에 기반하여, 전자 장치(101)가 상기 오디오를 출력하는 것을 포함할 수 있다. 하지만, 이에 제한되지 않는다.
상술한 바와 같이, 전자 장치(101)는, 동작 1003에서 송신된 메시지를 통해 연결 이벤트의 길이를 연장할 수 있다. 이러한 연장을 통해, 전자 장치(101)는, 상기 제1 CIS 이벤트를 생성하기 위한 시그널링을 단일 연결 이벤트 내에서 완료하고, 상기 제2 CIS 이벤트를 생성하기 위한 시그널링을 단일 연결 이벤트 내에서 완료할 수 있다. 예를 들면, 상기 제1 CIS 이벤트의 생성 및 상기 제2 CIS 이벤트의 생성은 단일 연결 이벤트 내에서 완료되기 때문에, 전자 장치(101)는, 상기 CIG 이벤트의 생성을 위해 소비되는 시간을 감소시킬 수 있다. 예를 들면, 전자 장치(101)는, 이러한 시간의 감소를 통해, 빠른 응답 속도로, 오디오 스트리밍의 서비스를 제공할 수 있다.
상술한 설명들은, 중심 장치로 동작하는 전자 장치(101)와 주변 장치들로 각각 동작하는 2개의 외부 전자 장치들(예: 제1 외부 전자 장치(201) 및 제2 외부 전자 장치(202))을 통해 오디오 서비스를 제공하기 위한 동작들을 기재하고 있다. 상기 동작들은, 중심 장치 및 단일 외부 전자 장치(또는 단일 주변 장치)를 통해 오디오 서비스를 제공하기 위해, 이용될 수 있다.
예를 들면, 상기 중심 장치로 동작하는 전자 장치(101)의 프로세서(120)는, 주변 장치로 동작하는 외부 전자 장치(an external electronic device)와의 통신 링크를 수립할 수 있다. 예를 들면, 프로세서(120)는, 상기 통신 링크를 통해 오디오 서비스를 개시함을 나타내는 입력을 수신할 수 있다. 예를 들면, 프로세서(120)는, 상기 입력에 응답하여, 상기 오디오 서비스의 오디오 스트리밍의 코덱 구성을 위한 정보 및 상기 오디오 스트리밍의 QoS 구성을 위한 정보를 나타내는 라벨을 식별할 수 있다. 예를 들면, 프로세서(120)는, 상기 라벨을 나타내는 신호를 상기 통신 링크를 통해 상기 외부 전자 장치에게 송신할 수 있다. 예를 들면, 프로세서(120)는, 상기 신호의 상기 송신에 기반하여, 상기 오디오 스트리밍에 대한 전자 장치(101)의 상태를 상기 유휴 상태로부터 상기 활성 상태로 전환할 수 있다.
예를 들면, 상기 상태는, 상기 외부 전자 장치로의 상기 신호의 상기 송신에 기반하여, 상기 코덱 구성을 위한 상태 및 상기 QoS 구성을 위한 상태를 우회함으로써, 상기 유휴 상태로부터 상기 활성 상태로 직접적으로 전환될 수 있다. 예를 들면, 상기 신호는, 상기 외부 전자 장치의 상기 코덱 구성을 위한 상태 및 상기 외부 전자 장치의 상기 QoS 구성을 위한 상태를 우회하기 위해 이용될 수 있다. 예를 들면, 상기 신호는, 상기 오디오 스트리밍에 대한 상기 외부 전자 장치의 상태를 유휴 상태로부터 활성 상태로 직접적으로 전환하기 위해 이용될 수 있다.
예를 들면, 상기 신호에 의해 나타내어지는 상기 코덱 구성을 위한 상기 정보는 상기 오디오 스트리밍의 코덱 식별자를 나타내는 데이터, 상기 오디오 스트리밍의 타겟 지연시간(target latency)을 나타내는 데이터, 및 상기 오디오 스트리밍의 상기 타겟 지연시간을 위한 타겟 송신 속도를 나타내는 데이터를 포함할 수 있다. 예를 들면, 상기 신호에 의해 나타내어지는 상기 QoS 구성을 위한 상기 정보는, 상기 오디오 스트리밍의 최대 전송 지연시간(max transport latency)을 나타내는 데이터, 상기 오디오 스트리밍의 상기 최대 전송 지연시간을 위한 송신 속도를 나타내는 데이터, 상기 오디오 스트리밍을 위한 주기를 나타내는 데이터, 및 상기 오디오 스트리밍을 위한 데이터 패킷을 프레이밍(framing)할 수 있는지 여부를 나타내는 데이터를 포함할 수 있다.
예를 들면, 프로세서(120)는, 상기 상태의 상기 전환에 적어도 일부 기반하여, 상기 외부 전자 장치를 위한 CIS 이벤트를 생성할 수 있다. 예를 들면, 프로세서(120)는, 상기 전환에 응답하여, 상기 CIS 이벤트의 요청을 나타내는 메시지를 상기 외부 전자 장치에게 송신할 수 있다. 예를 들면, 상기 메시지는, 상기 외부 전자 장치와의 연결 이벤트의 길이를 연장함을 나타내는 데이터(예: 상기 메시지의 헤더 내의 MD 필드 내의 데이터)를 포함할 수 있다. 예를 들면, 프로세서(120)는, 상기 메시지에 대한 응답 메시지를 상기 외부 전자 장치로부터 수신할 수 있다. 예를 들면, 프로세서(120)는, 상기 응답 메시지에 적어도 일부 기반하여, 상기 CIS 이벤트를 생성할 수 있다.
예를 들면, 프로세서(120)는, 상기 CIS 이벤트의 상기 생성에 기반하여, 상기 활성 상태를 스트리밍 상태로 전환할 수 있다. 예를 들면, 프로세서(120)는, 상기 CIS 이벤트를 이용하여, 스트리밍 상태로 전환된 상기 외부 전자 장치와의 오디오 스트리밍을 실행할 수 있다.
상술한 바와 같은, 무선 환경(wireless environment)(200) 내에서 중심(central) 장치로 동작하는 전자 장치(electronic device)(101)는, BLE(bluetooth low energy)를 위한 통신 회로(192)를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(101)는, 상기 통신 회로(192)와 작동적으로 결합된, 프로세서(120)를 포함할 수 있다. 일 실시예에 따르면, 상기 프로세서(120)는, 제1 주변(peripheral) 장치로 동작하는 제1 외부 전자 장치(201)와의 제1 통신 링크 및 제2 주변 장치로 동작하는 제2 외부 전자 장치(202)와의 제2 통신 링크를 상기 통신 회로(192)를 통해 수립하도록 구성될 수 있다. 일 실시예에 따르면, 상기 프로세서(120)는, 상기 제1 통신 링크 및 상기 제2 통신 링크를 통해 오디오 스트리밍을 개시함을 나타내는 입력을 식별하도록 구성될 수 있다. 일 실시예에 따르면, 상기 프로세서(120)는, 상기 입력에 응답하여, 상기 오디오 스트리밍의 코덱 구성(codec configuration)을 위한 정보 및 상기 오디오 스트리밍의 QoS(quality of service) 구성을 위한 정보를 나타내는 라벨(label)을 획득하도록 구성될 수 있다. 일 실시예에 따르면, 상기 프로세서(120)는, 상기 획득된 라벨을 나타내는 신호를 상기 제1 통신 링크를 통해 상기 제1 외부 전자 장치(201)에게 송신하고, 상기 신호를 상기 제2 통신 링크를 통해 상기 제2 외부 전자 장치(202)에게 송신하도록 구성될 수 있다. 일 실시예에 따르면, 상기 프로세서(120)는, 상기 제1 외부 전자 장치(201)로의 상기 신호의 상기 송신 및 상기 제2 외부 전자 장치(202)로의 상기 신호의 상기 송신에 기반하여, 상기 오디오 스트리밍에 대한 상기 전자 장치(101)의 상태를 유휴 상태(idle state)(600)로부터 활성(enabling) 상태(630)로 변경하도록, 구성될 수 있다.
일 실시예에 따르면, 상기 상태는, 상기 제1 외부 전자 장치(201)로의 상기 신호의 상기 송신 및 상기 제2 외부 전자 장치(202)로의 상기 신호의 상기 송신에 기반하여, 상기 코덱 구성을 위한 상태 및 상기 QoS 구성을 위한 상태를 생략(skip)함으로써 상기 유휴 상태(600)로부터 상기 활성 상태(630)로 직접적으로(directly) 변경될 수 있다.
일 실시예에 따르면, 상기 제1 외부 전자 장치(201)에게 송신된 상기 신호는, 상기 제1 외부 전자 장치(201)의 상기 코덱 구성을 위한 상태 및 상기 제1 외부 전자 장치(201)의 상기 QoS 구성을 위한 상태를 생략함으로써, 상기 오디오 스트리밍에 대한 상기 제1 외부 전자 장치(201)의 유휴 상태(600)를 상기 오디오 스트리밍에 대한 상기 제1 외부 전자 장치(201)의 활성 상태(630)로 직접적으로 변경하도록 상기 제1 외부 전자 장치(201)를 야기할 수 있다.
일 실시예에 따르면, 상기 제2 외부 전자 장치(202)에게 송신된 상기 신호는, 상기 제2 외부 전자 장치(202)의 상기 코덱 구성을 위한 상태 및 상기 제2 외부 전자 장치(202)의 상기 QoS 구성을 위한 상태를 생략함으로써, 상기 오디오 스트리밍에 대한 상기 제2 외부 전자 장치(202)의 유휴 상태(600)를 상기 오디오 스트리밍에 대한 상기 제2 외부 전자 장치(202)의 활성 상태(630)로 직접적으로 변경하도록 상기 제2 외부 전자 장치(202)를 야기할 수 있다.
일 실시예에 따르면, 상기 프로세서(120)는, 상기 활성 상태(630)로의 상기 전환에 기반하여, 상기 제1 외부 전자 장치(201)를 위한 제1 CIS(connected isochronous stream) 이벤트 및 상기 제2 외부 전자 장치(202)를 위한 제2 CIS 이벤트를 포함하는 CIG(connected isochronous group) 이벤트를 생성하도록, 구성될 수 있다.
일 실시예에 따르면, 상기 프로세서(120)는, 상기 활성 상태(630)로의 상기 전환에 응답하여, 상기 제1 통신 링크를 통해 상기 제1 외부 전자 장치(201)에게 상기 제1 CIS 이벤트의 요청을 나타내는 메시지를 송신하고, 상기 제2 통신 링크를 통해 상기 제2 외부 전자 장치(202)에게 상기 제2 CIS 이벤트의 요청을 나타내는 메시지를 송신하도록 구성될 수 있다. 일 실시예에 따르면, 상기 프로세서(120)는, 상기 제1 외부 전자 장치(201)로부터 상기 제1 통신 링크를 통해 상기 메시지에 대한 응답 메시지를 수신하고 상기 제2 외부 전자 장치(202)로부터 상기 제2 통신 링크를 통해 상기 메시지에 대한 응답 메시지를 수신하는 것에 기반하여, 상기 CIG 이벤트를 수립하도록 구성될 수 있다. 일 실시예에 따르면, 상기 제1 외부 전자 장치(201)에게 송신된 상기 메시지는, 상기 메시지를 송신하기 위해 이용되는 상기 제1 외부 전자 장치(201)와의 연결 이벤트(connection event)의 길이를 연장함을 나타내는 데이터를 포함할 수 있다. 일 실시예에 따르면, 상기 제2 외부 전자 장치(202)에게 송신된 상기 메시지는, 상기 메시지를 송신하기 위해 이용되는 상기 제2 외부 전자 장치(202)와의 연결 이벤트의 길이를 연장함을 나타내는 데이터를 포함할 수 있다.
일 실시예에 따르면, 상기 제1 외부 전자 장치(201)에게 송신된 상기 메시지 내의 상기 데이터는, 상기 제1 외부 전자 장치(201)에게 송신된 상기 메시지의 헤더 내의 MD(more data) 필드를 통해, 상기 제1 외부 전자 장치(201)와의 상기 연결 이벤트의 상기 길이를 연장함을 나타낼 수 있다. 일 실시예에 따르면, 상기 제2 외부 전자 장치(202)에게 송신된 상기 메시지 내의 상기 데이터는, 상기 제2 외부 전자 장치(202)에게 송신된 상기 메시지의 헤더 내의 MD 필드를 통해, 상기 제2 외부 전자 장치(202)와의 상기 연결 이벤트의 상기 길이를 연장함을 나타낼 수 있다.
일 실시예에 따르면, 상기 프로세서(120)는, 상기 CIG 이벤트를 생성하는 것에 응답하여, 상기 오디오 스트리밍에 대한 상기 전자 장치(101)의 상기 상태를 상기 활성 상태(630)로부터 스트리밍(streaming) 상태(640)로 변경하도록 구성될 수 있다. 일 실시예에 따르면, 상기 프로세서(120)는, 상기 CIG 이벤트 내의 상기 제1 CIS 이벤트를 이용하여, 스트리밍 상태(640)로 변경된 상기 제1 외부 전자 장치(201)와의 상기 오디오 스트리밍을 수행하도록 구성될 수 있다. 일 실시예에 따르면, 상기 프로세서(120)는, 상기 CIG 이벤트 내의 상기 제2 CIS 이벤트를 이용하여, 스트리밍 상태(640)로 변경된 상기 제2 외부 전자 장치(202)와의 상기 오디오 스트리밍을 수행하도록 구성될 수 있다.
일 실시예에 따르면, 상기 코덱 구성을 위한 상기 정보는, 상기 오디오 스트리밍의 코덱 식별자를 나타내는 데이터, 상기 오디오 스트리밍의 타겟 지연시간(target latency)을 나타내는 데이터, 및 상기 오디오 스트리밍의 상기 타겟 지연시간을 위한 타겟 송신 속도를 나타내는 데이터를 포함할 수 있다.
일 실시예에 따르면, 상기 QoS 구성을 위한 상기 정보는, 상기 오디오 스트리밍의 최대 전송 지연시간(max transport latency)을 나타내는 데이터, 상기 오디오 스트리밍의 상기 최대 전송 지연시간을 위한 송신 속도를 나타내는 데이터, 상기 오디오 스트리밍을 위한 주기를 나타내는 데이터, 및 상기 오디오 스트리밍을 위한 데이터 패킷을 프레이밍(framing)할 수 있는지 여부를 나타내는 데이터를 포함할 수 있다.
일 실시예에 따르면, 상기 프로세서(120)는, 상기 입력에 응답하여, 복수의 라벨들(multiple labels) 중에서, 상기 오디오 스트리밍의 서비스 유형에 대응하는 상기 라벨을 획득하도록, 구성될 수 있다. 일 실시예에 따르면, 상기 복수의 라벨들 각각은, 복수의 서비스 유형들 각각의 오디오 스트리밍의 코덱 구성을 위한 정보 및 QoS 구성을 위한 정보를 나타낼 수 있다.
일 실시예에 따르면, 상기 복수의 라벨들 각각은, 상기 복수의 서비스 유형들 각각의 오디오 스트리밍과 관련된, 상기 전자 장치의 특성들(characteristics), 상기 복수의 서비스 유형들 각각의 오디오 스트리밍과 관련된, 상기 제1 외부 전자 장치(201)의 특성들, 및 상기 복수의 서비스 유형들 각각의 오디오 스트리밍과 관련된, 상기 제2 외부 전자 장치(202)의 특성들에 적어도 일부 기반하여, 식별될 수 있다.
일 실시예에 따르면, 상기 프로세서(120)는, 상기 입력이 식별되기 전, 상기 제1 외부 전자 장치(201)로부터 상기 제1 통신 링크를 통해 상기 오디오 스트리밍에 대한 상기 제1 외부 전자 장치(201)의 유휴 상태(600)를 나타내는 신호를 수신하고, 상기 제2 외부 전자 장치(202)로부터 상기 제2 통신 링크를 통해 상기 오디오 스트리밍에 대한 상기 제2 외부 전자 장치(202)의 유휴 상태(600)를 나타내는 신호를 수신하도록, 구성될 수 있다.
일 실시예에 따르면, 상기 신호는, 상기 유휴 상태(600)를 상기 활성 상태(630)로 직접적으로 변경함을 나타낼 수 있다.
일 실시예에 따르면, 상기 신호는, 상기 라벨을 나타내는 식별자를 포함할 수 있다.
일 실시예에 따르면, 상기 프로세서(120)는, 상기 활성 상태(630)에 적어도 일부 기반하여 상기 제1 외부 전자 장치(201) 및 상기 제2 외부 전자 장치(202)와 상기 오디오 스트리밍의 서비스를 제공하는 동안, 상기 오디오 스트리밍의 서비스 유형과 구별되는 다른(another) 서비스 유형의 다른 오디오 스트리밍이 요청됨을 검출하도록 구성될 수 있다. 일 실시예에 따르면, 상기 프로세서(120)는, 상기 검출에 응답하여, 상기 다른 오디오 스트리밍의 코덱 구성을 위한 정보 및 상기 다른 오디오 스트리밍의 QoS 구성을 위한 정보를 나타내는, 다른 라벨을 획득하도록 구성될 수 있다. 일 실시예에 따르면, 상기 프로세서(120)는, 상기 다른 라벨을 나타내는 다른 신호를 상기 제1 통신 링크를 통해 상기 제1 외부 전자 장치(201)에게 송신하고, 상기 다른 신호를 상기 제2 통신 링크를 통해 상기 제2 외부 전자 장치(202)에게 송신하도록 구성될 수 있다. 일 실시예에 따르면, 상기 프로세서(120)는, 상기 제1 외부 전자 장치(201)로의 상기 다른 신호의 상기 송신 및 상기 제2 외부 전자 장치(202)로의 상기 다른 신호의 상기 송신에 기반하여, 상기 다른 오디오 스트리밍에 대한 상기 전자 장치의 상태를 유휴 상태(600)로부터 활성 상태(630)로 변경하도록, 구성될 수 있다.
무선 환경(wireless environment)(200) 내에서 중심(central) 장치로 동작하는 전자 장치(electronic device)(101) 내에서 실행되는 방법은, 제1 주변(peripheral) 장치로 동작하는 제1 외부 전자 장치(201)와의 제1 통신 링크 및 제2 주변 장치로 동작하는 제2 외부 전자 장치(202)와의 제2 통신 링크를 수립하는 동작을 포함할 수 있다. 일 실시예에 따르면, 상기 방법은, 상기 제1 통신 링크 및 상기 제2 통신 링크를 통해 오디오 스트리밍을 개시함을 나타내는 입력을 수신하는 동작을 포함할 수 있다. 일 실시예에 따르면, 상기 방법은, 상기 입력에 응답하여, 상기 오디오 스트리밍의 코덱 구성(codec configuration)을 위한 정보 및 상기 오디오 스트리밍의 QoS(quality of service) 구성을 위한 정보를 나타내는 라벨(label)을 식별하는 동작을 포함할 수 있다. 일 실시예에 따르면, 상기 방법은, 상기 식별된 라벨을 나타내는 신호를 상기 제1 통신 링크를 통해 상기 제1 외부 전자 장치(201)에게 송신하고, 상기 신호를 상기 제2 통신 링크를 통해 상기 제2 외부 전자 장치(202)에게 송신하는 동작을 포함할 수 있다. 일 실시예에 따르면, 상기 방법은, 상기 제1 외부 전자 장치(201)로의 상기 신호의 상기 송신 및 상기 제2 외부 전자 장치(202)로의 상기 신호의 상기 송신에 기반하여, 상기 오디오 스트리밍에 대한 상기 전자 장치의 상태를 유휴 상태(idle state)(600)로부터 활성(enabling) 상태(630)로 전환하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 상태는, 상기 제1 외부 전자 장치(201)로의 상기 신호의 상기 송신 및 상기 제2 외부 전자 장치(202)로의 상기 신호의 상기 송신에 기반하여, 상기 코덱 구성을 위한 상태 및 상기 QoS 구성을 위한 상태를 우회(bypass)함으로써 상기 유휴 상태(600)로부터 상기 활성 상태(630)로 직접적으로(directly) 전환될 수 있다.
일 실시예에 따르면, 상기 제1 외부 전자 장치(201)에게 송신된 상기 신호는, 상기 제1 외부 전자 장치(201)의 상기 코덱 구성을 위한 상태 및 상기 제1 외부 전자 장치의 상기 QoS 구성을 위한 상태를 우회함으로써, 상기 오디오 스트리밍에 대한 상기 제1 외부 전자 장치(201)의 유휴 상태(600)를 상기 오디오 스트리밍에 대한 상기 제1 외부 전자 장치(201)의 활성 상태(630)로 직접적으로 전환하기 위해 이용될 수 있다. 일 실시예에 따르면, 상기 제2 외부 전자 장치(202)에게 송신된 상기 신호는, 상기 제2 외부 전자 장치(202)의 상기 코덱 구성을 위한 상태 및 상기 제2 외부 전자 장치(202)의 상기 QoS 구성을 위한 상태를 우회함으로써, 상기 오디오 스트리밍에 대한 상기 제2 외부 전자 장치(202)의 유휴 상태(600)를 상기 오디오 스트리밍에 대한 상기 제2 외부 전자 장치(202)의 활성 상태(630)로 직접적으로 전환하기 위해 이용될 수 있다.
일 실시예에 따르면, 상기 방법은, 상기 활성 상태(630)로의 상기 전환에 기반하여, 상기 제1 외부 전자 장치(201)를 위한 제1 CIS(connected isochronous stream) 이벤트 및 상기 제2 외부 전자 장치(202)를 위한 제2 CIS 이벤트를 포함하는 CIG(connected isochronous group) 이벤트를 생성하는 동작을, 포함할 수 있다.
일 실시예에 따르면, 상기 CIG 이벤트를 생성하는 동작은, 상기 활성 상태(630)로의 상기 전환에 응답하여, 상기 제1 통신 링크를 통해 상기 제1 외부 전자 장치(201)에게 상기 제1 CIS 이벤트의 요청을 나타내는 메시지를 송신하고, 상기 제2 통신 링크를 통해 상기 제2 외부 전자 장치(202)에게 상기 제2 CIS 이벤트의 요청을 나타내는 메시지를 송신하는 동작을 포함할 수 있다. 일 실시예에 따르면, 상기 CIG 이벤트를 생성하는 동작은, 상기 제1 외부 전자 장치(201)로부터 상기 제1 통신 링크를 통해 상기 메시지에 대한 응답 메시지를 수신하고 상기 제2 외부 전자 장치(202)로부터 상기 제2 통신 링크를 통해 상기 메시지에 대한 응답 메시지를 수신하는 것에 기반하여, 상기 CIG 이벤트를 생성하는 동작을 포함할 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: CD-ROM(compact disc read only memory))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어쪠)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 무선 환경(wireless environment)(200) 내에서 중심(central) 장치로 동작하는 전자 장치(electronic device)(101)에 있어서,
    BLE(Bluetooth low energy)를 위한 통신 회로(192); 및 상기 통신 회로(192)와 작동적으로 결합된, 프로세서(120)를 포함하고,
    상기 프로세서(120)는,
    상기 통신 회로(192)를 통해, 제1 주변(peripheral) 장치로 동작하는 제1 외부 전자 장치(201)와의 제1 통신 링크 및 제2 주변 장치로 동작하는 제2 외부 전자 장치(202)와의 제2 통신 링크를 수립하고,
    상기 제1 통신 링크 및 상기 제2 통신 링크를 통해 오디오 스트리밍을 개시함을 나타내는 입력을 수신하고,
    상기 입력에 응답하여, 상기 오디오 스트리밍의 코덱 구성(codec configuration)을 위한 정보 및 상기 오디오 스트리밍의 QoS(quality of service) 구성을 위한 정보를 나타내는 라벨(label)을 식별하고,
    상기 식별된 라벨을 나타내는 신호를 상기 제1 통신 링크를 통해 상기 제1 외부 전자 장치(201)에게 송신하고, 상기 신호를 상기 제2 통신 링크를 통해 상기 제2 외부 전자 장치(202)에게 송신하고,
    상기 제1 외부 전자 장치(201)로의 상기 신호의 상기 송신 및 상기 제2 외부 전자 장치(202)로의 상기 신호의 상기 송신에 기반하여, 상기 오디오 스트리밍에 대한 상기 전자 장치(101)의 상태를 유휴 상태(idle state)(600)로부터 활성(enabling) 상태(630)로 전환하도록, 구성되는,
    전자 장치.
  2. 청구항 1에 있어서, 상기 상태는,
    상기 제1 외부 전자 장치(201)로의 상기 신호의 상기 송신 및 상기 제2 외부 전자 장치(202)로의 상기 신호의 상기 송신에 기반하여, 상기 코덱 구성을 위한 상태 및 상기 QoS 구성을 위한 상태를 우회(bypass)함으로써 상기 유휴 상태(600)로부터 상기 활성 상태(630)로 직접적으로(directly) 전환되는,
    전자 장치.
  3. 청구항 2에 있어서, 상기 제1 외부 전자 장치(201)에게 송신된 상기 신호는,
    상기 제1 외부 전자 장치(201)의 상기 코덱 구성을 위한 상태 및 상기 제1 외부 전자 장치(201)의 상기 QoS 구성을 위한 상태를 우회함으로써, 상기 오디오 스트리밍에 대한 상기 제1 외부 전자 장치(201)의 유휴 상태(600)를 상기 오디오 스트리밍에 대한 상기 제1 외부 전자 장치(201)의 활성 상태(630)로 직접적으로 전환하도록 상기 제1 외부 전자 장치(201)를 야기하고,
    상기 제2 외부 전자 장치(202)에게 송신된 상기 신호는,
    상기 제2 외부 전자 장치(202)의 상기 코덱 구성을 위한 상태 및 상기 제2 외부 전자 장치(202)의 상기 QoS 구성을 위한 상태를 우회함으로써, 상기 오디오 스트리밍에 대한 상기 제2 외부 전자 장치(202)의 유휴 상태(600)를 상기 오디오 스트리밍에 대한 상기 제2 외부 전자 장치(202)의 활성 상태(630)로 직접적으로 전환하도록 상기 제2 외부 전자 장치(202)를 야기하는,
    전자 장치.
  4. 청구항 1에 있어서, 상기 프로세서(120)는,
    상기 활성 상태(630)로의 상기 전환에 기반하여, 상기 제1 외부 전자 장치(201)를 위한 제1 CIS(connected isochronous stream) 이벤트 및 상기 제2 외부 전자 장치(202)를 위한 제2 CIS 이벤트를 포함하는 CIG(connected isochronous group) 이벤트를 생성하도록, 더 구성되는,
    전자 장치.
  5. 청구항 4에 있어서, 상기 프로세서(120)는,
    상기 활성 상태(630)로의 상기 전환에 응답하여, 상기 제1 통신 링크를 통해 상기 제1 외부 전자 장치(201)에게 상기 제1 CIS 이벤트의 요청을 나타내는 메시지를 송신하고, 상기 제2 통신 링크를 통해 상기 제2 외부 전자 장치(202)에게 상기 제2 CIS 이벤트의 요청을 나타내는 메시지를 송신하고,
    상기 제1 외부 전자 장치(201)로부터 상기 제1 통신 링크를 통해 상기 메시지에 대한 응답 메시지를 수신하고 상기 제2 외부 전자 장치(202)로부터 상기 제2 통신 링크를 통해 상기 메시지에 대한 응답 메시지를 수신하는 것에 기반하여, 상기 CIG 이벤트를 생성하도록, 구성되고,
    상기 제1 외부 전자 장치(201)에게 송신된 상기 메시지는,
    상기 메시지를 송신하기 위해 이용되는 상기 제1 외부 전자 장치(201)와의 연결 이벤트(connection event)의 길이를 연장함을 나타내는 데이터를 포함하고,
    상기 제2 외부 전자 장치(202)에게 송신된 상기 메시지는,
    상기 메시지를 송신하기 위해 이용되는 상기 제2 외부 전자 장치(202)와의 연결 이벤트의 길이를 연장함을 나타내는 데이터를 포함하는,
    전자 장치.
  6. 청구항 5에 있어서, 상기 제1 외부 전자 장치(201)에게 송신된 상기 메시지 내의 상기 데이터는,
    상기 제1 외부 전자 장치(201)에게 송신된 상기 메시지의 헤더 내의 MD(more data) 필드를 통해, 상기 제1 외부 전자 장치(201)와의 상기 연결 이벤트의 상기 길이를 연장함을 나타내고,
    상기 제2 외부 전자 장치(202)에게 송신된 상기 메시지 내의 상기 데이터는,
    상기 제2 외부 전자 장치(202)에게 송신된 상기 메시지의 헤더 내의 MD 필드를 통해, 상기 제2 외부 전자 장치(202)와의 상기 연결 이벤트의 상기 길이를 연장함을 나타내는,
    전자 장치.
  7. 청구항 4에 있어서, 상기 프로세서(120)는,
    상기 CIG 이벤트를 생성하는 것에 응답하여, 상기 전자 장치(101)의 상기 상태를 상기 활성 상태(630)로부터 스트리밍(streaming) 상태(640)로 전환하고,
    상기 CIG 이벤트 내의 상기 제1 CIS 이벤트를 이용하여, 스트리밍 상태(640)로 전환된 상기 제1 외부 전자 장치(201)와의 상기 오디오 스트리밍을 실행하고,
    상기 CIG 이벤트 내의 상기 제2 CIS 이벤트를 이용하여, 스트리밍 상태(640)로 전환된 상기 제2 외부 전자 장치(202)와의 상기 오디오 스트리밍을 실행하도록, 더(further) 구성되는,
    전자 장치.
  8. 청구항 1에 있어서, 상기 코덱 구성을 위한 상기 정보는,
    상기 오디오 스트리밍의 코덱 식별자를 나타내는 데이터, 상기 오디오 스트리밍의 타겟 지연시간(target latency)을 나타내는 데이터, 및 상기 오디오 스트리밍의 상기 타겟 지연시간을 위한 타겟 송신 속도를 나타내는 데이터를 포함하는,
    전자 장치.
  9. 청구항 1에 있어서, 상기 QoS 구성을 위한 상기 정보는,
    상기 오디오 스트리밍의 최대 전송 지연시간(max transport latency)을 나타내는 데이터, 상기 오디오 스트리밍의 상기 최대 전송 지연시간을 위한 송신 속도를 나타내는 데이터, 상기 오디오 스트리밍을 위한 주기를 나타내는 데이터, 및 상기 오디오 스트리밍을 위한 데이터 패킷을 프레이밍(framing)할 수 있는지 여부를 나타내는 데이터를 포함하는,
    전자 장치.
  10. 청구항 1에 있어서, 상기 프로세서(120)는,
    상기 입력에 응답하여, 복수의 라벨들(multiple labels) 중에서, 상기 오디오 스트리밍의 서비스 유형에 대응하는 상기 라벨을 식별하도록, 구성되고,
    상기 복수의 라벨들 각각은,
    복수의 서비스 유형들 각각의 오디오 스트리밍의 코덱 구성을 위한 정보 및 QoS 구성을 위한 정보를 나타내는,
    전자 장치.
  11. 청구항 10에 있어서, 상기 복수의 라벨들 각각은,
    상기 복수의 서비스 유형들 각각의 오디오 스트리밍과 관련된, 상기 전자 장치의 특성들(characteristics), 상기 복수의 서비스 유형들 각각의 오디오 스트리밍과 관련된, 상기 제1 외부 전자 장치(201)의 특성들, 및 상기 복수의 서비스 유형들 각각의 오디오 스트리밍과 관련된, 상기 제2 외부 전자 장치(202)의 특성들에 적어도 일부 기반하여, 식별되는,
    전자 장치.
  12. 청구항 1에 있어서, 상기 프로세서(120)는,
    상기 입력이 수신되기 전, 상기 제1 외부 전자 장치(201)로부터 상기 제1 통신 링크를 통해 상기 오디오 스트리밍에 대한 상기 제1 외부 전자 장치(201)의 유휴 상태(600)를 나타내는 신호를 수신하고, 상기 제2 외부 전자 장치(202)로부터 상기 제2 통신 링크를 통해 상기 오디오 스트리밍에 대한 상기 제2 외부 전자 장치(202)의 유휴 상태(600)를 나타내는 신호를 수신하도록, 더 구성되는,
    전자 장치.
  13. 청구항 1에 있어서, 상기 신호는,
    상기 유휴 상태(600)를 상기 활성 상태(630)로 직접적으로 전환함을 나타내는,
    전자 장치.
  14. 청구항 1에 있어서, 상기 신호는,
    상기 라벨을 나타내는 식별자를 포함하는,
    전자 장치.
  15. 청구항 1에 있어서, 상기 프로세서(120)는,
    상기 활성 상태(630)에 적어도 일부 기반하여 상기 제1 외부 전자 장치(201) 및 상기 제2 외부 전자 장치(202)와 상기 오디오 스트리밍의 서비스를 제공하는 동안, 상기 오디오 스트리밍의 서비스 유형과 구별되는 다른(another) 서비스 유형의 다른 오디오 스트리밍이 요청됨을 식별하고,
    상기 다른 오디오 스트리밍이 요청됨을 식별하는 것에 응답하여, 상기 다른 오디오 스트리밍의 코덱 구성을 위한 정보 및 상기 다른 오디오 스트리밍의 QoS 구성을 위한 정보를 나타내는, 다른 라벨을 식별하고,
    상기 다른 라벨을 나타내는 다른 신호를 상기 제1 통신 링크를 통해 상기 제1 외부 전자 장치(201)에게 송신하고, 상기 다른 신호를 상기 제2 통신 링크를 통해 상기 제2 외부 전자 장치(202)에게 송신하고,
    상기 제1 외부 전자 장치(201)로의 상기 다른 신호의 상기 송신 및 상기 제2 외부 전자 장치(202)로의 상기 다른 신호의 상기 송신에 기반하여, 상기 다른 오디오 스트리밍에 대한 상기 전자 장치의 상태를 유휴 상태(600)로부터 활성 상태(630)로 전환하도록, 구성되는,
    전자 장치.
PCT/KR2023/006078 2022-08-04 2023-05-03 무선 환경 내에서의 오디오 스트리밍을 위한 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체 WO2024029688A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/205,880 US20240049317A1 (en) 2022-08-04 2023-06-05 Electronic device, method, and non-transitory computer readable storage medium for audio streaming in wireless environment

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220097170A KR20240019486A (ko) 2022-08-04 2022-08-04 무선 환경 내에서의 오디오 스트리밍을 위한 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
KR10-2022-0097170 2022-08-04

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/205,880 Continuation US20240049317A1 (en) 2022-08-04 2023-06-05 Electronic device, method, and non-transitory computer readable storage medium for audio streaming in wireless environment

Publications (1)

Publication Number Publication Date
WO2024029688A1 true WO2024029688A1 (ko) 2024-02-08

Family

ID=89849133

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/006078 WO2024029688A1 (ko) 2022-08-04 2023-05-03 무선 환경 내에서의 오디오 스트리밍을 위한 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체

Country Status (2)

Country Link
KR (1) KR20240019486A (ko)
WO (1) WO2024029688A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180108310A (ko) * 2017-03-24 2018-10-04 삼성전자주식회사 복수의 외부 장치들로 오디오 데이터를 전송하는 방법 및 전자 장치
KR20190043017A (ko) * 2017-10-17 2019-04-25 삼성전자주식회사 외부 전자 장치에 대한 데이터 통신을 제어하는 전자 장치 및 통신 시스템
CN113039822A (zh) * 2018-12-18 2021-06-25 华为技术有限公司 一种数据信道的建立方法及设备
US20220039041A1 (en) * 2018-12-07 2022-02-03 Huawei Technologies Co., Ltd. Point-to-Multipoint Data Transmission Method and Electronic Device
KR20220035133A (ko) * 2019-07-19 2022-03-21 인텔렉추얼디스커버리 주식회사 무선 통신 시스템에서 적응적인 오디오 처리 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180108310A (ko) * 2017-03-24 2018-10-04 삼성전자주식회사 복수의 외부 장치들로 오디오 데이터를 전송하는 방법 및 전자 장치
KR20190043017A (ko) * 2017-10-17 2019-04-25 삼성전자주식회사 외부 전자 장치에 대한 데이터 통신을 제어하는 전자 장치 및 통신 시스템
US20220039041A1 (en) * 2018-12-07 2022-02-03 Huawei Technologies Co., Ltd. Point-to-Multipoint Data Transmission Method and Electronic Device
CN113039822A (zh) * 2018-12-18 2021-06-25 华为技术有限公司 一种数据信道的建立方法及设备
KR20220035133A (ko) * 2019-07-19 2022-03-21 인텔렉추얼디스커버리 주식회사 무선 통신 시스템에서 적응적인 오디오 처리 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체

Also Published As

Publication number Publication date
KR20240019486A (ko) 2024-02-14

Similar Documents

Publication Publication Date Title
WO2022154363A1 (ko) 오디오 데이터를 처리하기 위한 오디오 장치 및 그의 동작 방법
WO2022030882A1 (ko) 오디오 데이터를 처리하는 전자 장치와 이의 동작 방법
WO2023132610A1 (ko) 디스플레이 모듈 제어 방법 및 상기 방법을 수행하는 전자 장치
WO2022265190A1 (ko) 전자 장치 및 이의 동작 방법
WO2022231135A1 (ko) 오디오 신호를 출력하는 방법 및 이를 수행하는 전자 장치
WO2022065707A1 (ko) 외부 전자 장치와의 직접 통신을 위한 전자 장치 및 그의 동작 방법
WO2024029688A1 (ko) 무선 환경 내에서의 오디오 스트리밍을 위한 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
WO2022080683A1 (ko) 무선 오디오 출력 장치의 연결 제어 방법 및 장치
WO2022191438A1 (ko) 전자 장치의 오디오 데이터 전송 방법
WO2022158735A1 (ko) 오디오 데이터를 처리하는 전자 장치와 이의 동작 방법
WO2022030750A1 (ko) 음성 데이터 처리 방법 및 이를 지원하는 전자 장치
WO2024034784A1 (ko) 다른 전자 장치의 어드버타이징 프로세스와 동기화된 어드버타이징 프로세스를 수행하는 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
WO2023096077A1 (ko) 무선 환경 내에서 외부 전자 장치로부터의 수신 타이밍을 변경하기 위한 전자 장치, 방법, 및 컴퓨터 판독가능 저장 매체
WO2024085664A1 (ko) 전자 장치 및 전자 장치에서 설정 변경에 따라 데이터를 송신 및/또는 수신하는 방법
WO2023038303A1 (ko) 무선 환경 내에서 외부 전자 장치들로의 송신을 관리하기 위한 전자 장치, 방법, 및 컴퓨터 판독가능 저장 매체
WO2023219286A1 (ko) 데이터 전송 순서 조정 방법 및 이를 수행하는 장치
WO2022086057A1 (ko) 전자 장치 및 통화 녹음 방법
WO2023068904A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2024085424A1 (ko) 블루투스 연결을 통해 통신하는 전자 장치 및 그 동작 방법
WO2022065952A2 (ko) 비디오 데이터와 오디오 데이터의 동기화를 수행하는 전자 장치 및 그 제어 방법
WO2022025692A1 (ko) 입력 기반 스트리밍 제어 방법 및 이를 위한 전자 장치
WO2023003167A1 (ko) 링크의 매체 동기화를 수행하는 전자 장치 및 전자 장치의 동작 방법
WO2024111872A1 (ko) 무선 환경 내에서 키를 획득하는 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
WO2023068507A1 (ko) Rcs 기능을 제공하기 위한 전자 장치 및 그의 동작 방법
WO2022145767A1 (ko) 오디오 데이터 처리 방법 및 이를 지원하는 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23850200

Country of ref document: EP

Kind code of ref document: A1