WO2022154349A1 - 배터리 잔여량에 기초하여 전자 장치를 제어하는 방법 및 그 전자 장치 - Google Patents

배터리 잔여량에 기초하여 전자 장치를 제어하는 방법 및 그 전자 장치 Download PDF

Info

Publication number
WO2022154349A1
WO2022154349A1 PCT/KR2022/000066 KR2022000066W WO2022154349A1 WO 2022154349 A1 WO2022154349 A1 WO 2022154349A1 KR 2022000066 W KR2022000066 W KR 2022000066W WO 2022154349 A1 WO2022154349 A1 WO 2022154349A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
sound source
processor
communication link
role
Prior art date
Application number
PCT/KR2022/000066
Other languages
English (en)
French (fr)
Inventor
박남준
김진익
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to CN202280009191.0A priority Critical patent/CN116746164A/zh
Priority to EP22739547.2A priority patent/EP4199536A4/en
Priority to US17/585,859 priority patent/US12003912B2/en
Publication of WO2022154349A1 publication Critical patent/WO2022154349A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3212Monitoring battery levels, e.g. power saving mode being initiated when battery voltage goes below a certain level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1016Earpieces of the intra-aural type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels

Definitions

  • Various embodiments disclosed in this document relate to a method of controlling an electronic device based on a remaining amount of a battery, and to the electronic device.
  • an electronic device such as an earphone includes a speaker and a microphone
  • audio data such as music or voice may be output through the speaker, and audio data may be obtained through the microphone.
  • earphones have been developed to include various sensors, communication modules, and processors in addition to speakers and microphones. These earphones use a short-range wireless technology such as Bluetooth to provide various types of mobile communication terminals, personal digital assistants (PDAs), electronic organizers, smart phones, tablet PCs (personal computers), and wearable devices. It may be connected to an external electronic device (or a sound source electronic device) to transmit/receive various data or may receive and output audio data.
  • PDAs personal digital assistants
  • smart phones smart phones
  • tablet PCs personal computers
  • wearable devices wearable devices. It may be connected to an external electronic device (or a sound source electronic device) to transmit/receive various data or may receive and output audio data.
  • the earphone may detect the user's posture/body position for audio data rendering, and calculate a posture value based thereon.
  • the earphone may calculate a posture value based on a sensor value received through the sensor module according to movement worn by the user.
  • the earphone may output rendered audio data based on the calculated posture value.
  • an electronic device that calculates a posture value and transmits it to the sound source electronic device consumes a large amount of battery, so that even when a battery is left in another electronic device, there is a problem in that it cannot perform a function any longer.
  • An electronic device includes a memory, a battery, a speaker, a sensor module, a communication module, and a processor electrically connected to the memory, the battery, the speaker, the sensor module, and the communication module,
  • the processor controls the communication module to form a first communication link with the sound source electronic device, performs a primary role, transmits an attitude value calculated based on the sensor value obtained from the sensor module, and the sound source electronic device Receives audio data rendered based on the posture value from It may be configured to transmit a role change message and notify the sound source electronic device of the role change with the external electronic device.
  • the method of an electronic device having a sensor module forms a first communication link with a sound source electronic device, performs a primary role, and calculates based on a sensor value obtained from the sensor module
  • An operation of transmitting the obtained posture value to the sound source electronic device, an operation of receiving audio data rendered based on the posture value from the sound source electronic device, and an external electronic device performing a secondary role based on device state information 2 may include an operation of requesting preparation for role switching by communicating through a communication link, an operation of transmitting a role switching message to the external electronic device, and an operation of notifying the sound source electronic device of the role switching with the external electronic device.
  • An electronic device includes a memory, a communication module, and a processor electrically connected to the memory and the communication module, wherein the processor controls the communication module to perform first communication with a first electronic device Receives a posture value of the first electronic device that forms a link and performs a primary role, transmits audio data rendered based on the posture value to the first electronic device, from the first electronic device, When the first electronic device and the second electronic device connected through the second communication link are notified of role switching, the second electronic device receives the posture value, and audio rendered based on the posture value of the second electronic device It may be configured to transmit data to at least one of the first electronic device and the second electronic device.
  • Various embodiments disclosed in this document are provided to provide a method and an electronic device for controlling an electronic device based on a remaining battery amount.
  • operations of a plurality of electronic devices may be controlled based on the remaining battery amount information.
  • the role of the electronic device that calculates a posture value among a plurality of electronic devices and transmits it to the sound source electronic device may be switched based on the remaining battery amount information.
  • the battery efficiency of the plurality of electronic devices may be increased by controlling the roles of the plurality of electronic devices based on the remaining battery amount information.
  • FIG. 1 is a block diagram of an electronic device in a network environment, according to various embodiments of the present disclosure
  • FIG. 2 is a configuration diagram of an electronic device and a sound source electronic device according to various embodiments of the present disclosure
  • FIG. 3 is a block diagram of an electronic device according to various embodiments of the present disclosure.
  • FIG. 4 is a view for explaining an operation of calculating an attitude value according to various embodiments of the present disclosure
  • FIG. 5 is a diagram for describing an audio rendering operation based on a posture value according to various embodiments of the present disclosure
  • 6A and 6B are configuration diagrams of an electronic device and a sound source electronic device according to various embodiments of the present disclosure
  • FIG. 7 is a flowchart illustrating a method for switching roles of a first electronic device according to various embodiments of the present disclosure
  • FIG. 8 is a flowchart illustrating a method of switching roles of a second electronic device according to various embodiments of the present disclosure
  • earphones can provide sound to the left and right ears, simulating the sound a person would actually hear when the audio was recorded. For example, if the user rotates 180 degrees, the left ear will be almost in the previous position of the right ear, and the right ear will be in the opposite position. In a 360 degree audio system, sounds previously heard in the right ear will now be heard in the left ear, and vice versa. This will be described in more detail with reference to FIG. 4 .
  • earphone may be understood to collectively refer to earbuds, headphones, and earphones.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100, according to various embodiments.
  • the electronic device 101 communicates with the electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or a second network 199 . It may communicate with at least one of the electronic device 104 and the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • the electronic device 101 includes a processor 120 , a memory 130 , an input module 150 , a sound output module 155 , a display module 160 , an audio module 170 , and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or an antenna module 197 .
  • at least one of these components eg, the connection terminal 178
  • some of these components are integrated into one component (eg, display module 160 ). can be
  • the processor 120 for example, executes software (eg, a program 140) to execute at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120. It can control and perform various data processing or operations. According to one embodiment, as at least part of data processing or operation, the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 . may be stored in , process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • software eg, a program 140
  • the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 .
  • the volatile memory 132 may be stored in , process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • the processor 120 is the main processor 121 (eg, a central processing unit or an application processor) or a secondary processor 123 (eg, a graphic processing unit, a neural network processing unit (eg, a graphic processing unit, a neural network processing unit) a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • the main processor 121 eg, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit (eg, a graphic processing unit, a neural network processing unit) a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor.
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit (eg, a graphic processing unit, a neural network processing unit) a neural processing unit (NPU), an image signal processor, a
  • the secondary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or when the main processor 121 is active (eg, executing an application). ), together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display module 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
  • the coprocessor 123 eg, an image signal processor or a communication processor
  • may be implemented as part of another functionally related component eg, the camera module 180 or the communication module 190 ). have.
  • the auxiliary processor 123 may include a hardware structure specialized for processing an artificial intelligence model.
  • Artificial intelligence models can be created through machine learning. Such learning may be performed, for example, in the electronic device 101 itself on which the artificial intelligence model is performed, or may be performed through a separate server (eg, the server 108).
  • the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but in the above example not limited
  • the artificial intelligence model may include a plurality of artificial neural network layers.
  • Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the above example.
  • the artificial intelligence model may include, in addition to, or alternatively, a software structure in addition to the hardware structure.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176 ) of the electronic device 101 .
  • the data may include, for example, input data or output data for software (eg, the program 140 ) and instructions related thereto.
  • the memory 130 may include a volatile memory 132 or a non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130 , and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
  • the input module 150 may receive a command or data to be used by a component (eg, the processor 120 ) of the electronic device 101 from the outside (eg, a user) of the electronic device 101 .
  • the input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
  • the sound output module 155 may output a sound signal to the outside of the electronic device 101 .
  • the sound output module 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from or as part of the speaker.
  • the display module 160 may visually provide information to the outside (eg, a user) of the electronic device 101 .
  • the display module 160 may include, for example, a control circuit for controlling a display, a hologram device, or a projector and a corresponding device.
  • the display module 160 may include a touch sensor configured to sense a touch or a pressure sensor configured to measure the intensity of a force generated by the touch.
  • the audio module 170 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 acquires a sound through the input module 150 , or an external electronic device (eg, a sound output module 155 ) connected directly or wirelessly with the electronic device 101 .
  • the electronic device 102) eg, a speaker or headphones
  • the electronic device 102 may output a sound.
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, a user state), and generates an electrical signal or data value corresponding to the sensed state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more specified protocols that may be used by the electronic device 101 to directly or wirelessly connect with an external electronic device (eg, the electronic device 102 ).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • the connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and moving images. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • the power management module 188 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishment and communication performance through the established communication channel.
  • the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : It may include a local area network (LAN) communication module, or a power line communication module).
  • a wireless communication module 192 eg, a cellular communication module, a short-range communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 eg, : It may include a local area network (LAN) communication module, or a power line communication module.
  • a corresponding communication module among these communication modules is a first network 198 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
  • a first network 198 eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)
  • a second network 199 eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
  • a telecommunication network
  • the wireless communication module 192 uses subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199 .
  • subscriber information eg, International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the electronic device 101 may be identified or authenticated.
  • the wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, a new radio access technology (NR).
  • NR access technology includes high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency) -latency communications)).
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low-latency
  • the wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example.
  • a high frequency band eg, mmWave band
  • the wireless communication module 192 uses various techniques for securing performance in a high-frequency band, for example, beamforming, massive multiple-input and multiple-output (MIMO), all-dimensional multiplexing. It may support technologies such as full dimensional MIMO (FD-MIMO), an array antenna, analog beam-forming, or a large scale antenna.
  • the wireless communication module 192 may support various requirements defined in the electronic device 101 , an external electronic device (eg, the electronic device 104 ), or a network system (eg, the second network 199 ).
  • the wireless communication module 192 may include a peak data rate (eg, 20 Gbps or more) for realizing eMBB, loss coverage (eg, 164 dB or less) for realizing mMTC, or U-plane latency for realizing URLLC ( Example: Downlink (DL) and uplink (UL) each 0.5 ms or less, or round trip 1 ms or less) can be supported.
  • a peak data rate eg, 20 Gbps or more
  • loss coverage eg, 164 dB or less
  • U-plane latency for realizing URLLC
  • the antenna module 197 may transmit or receive a signal or power to the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected from the plurality of antennas by, for example, the communication module 190 . can be selected. A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, a radio frequency integrated circuit (RFIC)
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • the mmWave antenna module comprises a printed circuit board, an RFIC disposed on or adjacent to a first side (eg, bottom side) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, an array antenna) disposed on or adjacent to a second side (eg, top or side) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 .
  • all or a part of operations executed in the electronic device 101 may be executed in one or more external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 may perform the function or service itself instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101 .
  • the electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request.
  • cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology may be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of things (IoT) device.
  • the server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or the server 108 may be included in the second network 199 .
  • the electronic device 101 may be applied to an intelligent service (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology. .
  • the electronic device may have various types of devices.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a wearable device e.g., a smart bracelet
  • a home appliance device e.g., a home appliance
  • first, second, or first or second may simply be used to distinguish an element from other elements in question, and may refer elements to other aspects (e.g., importance or order) is not limited. It is said that one (eg, first) component is “coupled” or “connected” to another (eg, second) component, with or without the terms “functionally” or “communicatively”. When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logic block, component, or circuit.
  • a module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document include one or more instructions stored in a storage medium (eg, internal memory 136 or external memory 138) readable by a machine (eg, electronic device 101).
  • a storage medium eg, internal memory 136 or external memory 138
  • the processor eg, the processor 120
  • the device eg, the electronic device 101
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain a signal (eg, electromagnetic wave), and this term is used in cases where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.
  • a signal eg, electromagnetic wave
  • the method according to various embodiments disclosed in this document may be provided in a computer program product (computer program product).
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play StoreTM) or on two user devices ( It can be distributed (eg downloaded or uploaded) directly, online between smartphones (eg: smartphones).
  • a portion of the computer program product may be temporarily stored or temporarily generated in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a memory of a relay server.
  • each component eg, a module or a program of the above-described components may include a singular or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. have.
  • one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, or omitted. , or one or more other operations may be added.
  • the 360-degree audio system may include two or more earphones 210 and 220 , which may be the electronic device 101 , and the external electronic device 230 .
  • some functions or configurations of the electronic device 101 may be omitted (eg, the display module 160 ).
  • the description of the external electronic device 230 may also omit some functions or configurations.
  • FIG. 2 illustrates a configuration of an electronic device 210 and/or 220 (eg, the electronic device 102 of FIG. 1 ) and a sound source electronic device 230 (eg, the electronic device 101 of FIG. 1 ) according to various embodiments.
  • Figure 200 illustrates a configuration of an electronic device 210 and/or 220 (eg, the electronic device 102 of FIG. 1 ) and a sound source electronic device 230 (eg, the electronic device 101 of FIG. 1 ) according to various embodiments.
  • Figure 200 illustrates a configuration of an electronic device 210 and/or 220 (eg, the electronic device 102 of FIG. 1 ) and a sound source electronic device 230 (eg, the electronic device 101 of FIG. 1 ) according to various embodiments.
  • Figure 200 illustrates a configuration of an electronic device 210 and/or 220 (eg, the electronic device 102 of FIG. 1 ) and a sound source electronic device 230 (eg, the electronic device 101 of FIG. 1 ) according to various embodiments
  • an electronic device 210 and/or 220 may include a first electronic device 210 and/or a second electronic device 220 .
  • the electronic device 210 and/or 220 may be worn by the user, and may provide a sound to the user based on audio data received from the sound source electronic device 230 through a communication function. , earphones, and/or ear buds.
  • earphones and/or ear buds.
  • an example in which the first electronic device 210 and the second electronic device 220 included in the electronic device 210 and/or 220 are implemented as earbuds will be described, but various embodiments may not be limited thereto.
  • the electronic devices 210 and 220 may also be referred to as earbuds hereinafter, but the present disclosure is not limited to the earbuds, and the earbuds are only one type of electronic device.
  • the sound source electronic device 230 is a portable and/or portable electronic device such as a smart phone, a tablet PC, a portable multimedia player (PMP), a personal digital assistant (PDA), a laptop PC, and a wearable device. It may be a device.
  • a portable and/or portable electronic device such as a smart phone, a tablet PC, a portable multimedia player (PMP), a personal digital assistant (PDA), a laptop PC, and a wearable device. It may be a device.
  • the sound source electronic device 230 may be an electronic device capable of reproducing music or an image, and may provide audio data accordingly to the electronic device 210 and/or 220 .
  • the electronic device 210 and/or 220 may be wirelessly connected to the sound source electronic device 230 .
  • the sound source electronic device 230 includes a first communication link 201 or a third communication link 203 including a short-range communication network such as Bluetooth (or BLE), WiFi direct, or IrDA (infrared data association) (eg : Can communicate with the first electronic device 210 or the second electronic device 220 using the first network 198 of FIG. 1 .
  • the first electronic device 210 and the second electronic device 220 may communicate with each other using the second communication link 202 (eg, a short-range wireless communication network).
  • the second communication link 202 eg, a short-range wireless communication network
  • one of the electronic devices 210 and/or 220 serves as a primary (eg, the first electronic device 210 ) to communicate with the sound source electronic device 230 and electronically Another one of the devices 210 and/or 220 (eg, the second electronic device 220 ) may perform a secondary role and communicate with the primary first electronic device 210 .
  • the first electronic device 210 and the second electronic device 220 are implemented as earbuds, the first electronic device 210 is a primary earbud, or primary equipment (PE), and the second electronic device 220 is an SE (secondary earbud, or secondary equipment).
  • PE primary equipment
  • SE secondary earbud, or secondary equipment
  • the first electronic device 210 communicates with the sound source electronic device 230 through the first communication link 201 as a primary, and the second electronic device 220 serves as a second communication link 202 through the second communication link 202 may communicate with the first electronic device 220 through .
  • the third communication link 203 between the second electronic device 220 and the sound source electronic device 230 may be in an idle state and/or in an unconnected state.
  • the second electronic device 220 sniffs the first communication link 201 between the first electronic device 210 and the sound source electronic device 230, and the sound source electronic device 230 Data transmitted to the first electronic device 210 may be obtained from
  • the first electronic device 210 among the electronic devices 210 and/or 220 transmits and receives data by communicating with the sound source electronic device 230 through the first communication link 201 as a primary in the initial operation
  • a case in which the second electronic device 220 acquires data by sniffing the first communication link 201 as a secondary may be described as an example.
  • the third communication link 203 with the sound source electronic device 230 may be in an idle state and/or in a non-connected state.
  • the primary device uses more power than the secondary device. Accordingly, over time, the primary device may have significantly less battery power than the secondary device.
  • the first electronic device 210 serving as the primary may perform role switch with the second electronic device 220 serving as the secondary. Accordingly, the earbuds may operate as a primary electronic device by sufficiently using the battery capacity. Accordingly, the earbuds 210 and 220 may operate for a longer period of time.
  • the first electronic device 210 may allow the second electronic device 220 to operate as a primary through role switching to connect and communicate with the sound source electronic device 230 through the third communication link 203 .
  • the first electronic device 210 switches its role to the secondary, communicates with the primary second electronic device 220 through the second communication link 202 , and sniffs the third communication link 203 .
  • Data transmitted from the sound source electronic device 230 to the second electronic device 220 may be acquired through (sniffing).
  • the second electronic device 220 that has switched to the secondary role may switch the first communication link 201 with the sound source electronic device 230 into an idle state and/or a non-connected state.
  • the first electronic device 210 performs role switching with the second electronic device 220 to obtain a sensor value and to calculate an attitude value based thereon according to various embodiments to be described later.
  • 220 performs the posture value calculation operation, in communication, it may operate as a primary device that maintains the first communication link 201 in a connected state and communicates with the sound source electronic device 230 .
  • the second electronic device 220 may perform the operation of acquiring the sensor value and calculating the posture value based thereon.
  • FIG. 3 is a block diagram of an electronic device (eg, the first electronic device 210 , the second electronic device 220 , and the sound source electronic device 230 of FIG. 2 ) according to various embodiments of the present disclosure.
  • an electronic device eg, the first electronic device 210 , the second electronic device 220 , and the sound source electronic device 230 of FIG. 2 .
  • each of the first electronic device 210 or the second electronic device 220 includes a sensor module 310 or 320 , a processor 311 or 321 , a memory 312 or 322 , and a communication circuit 313 or 323 . ), a microphone 314 or 324 , a speaker 315 or 325 , power management circuitry 316 or 326 , and/or a battery 317 or 327 .
  • the processor 311 or 321 executes software (eg, a program) to execute at least one other component of the first electronic device 210 or the second electronic device 220 connected to the processor 311 or 321 , for example. It can control elements (eg, hardware or software components) and can perform various data processing or operations.
  • software eg, a program
  • the processor 311 or 321 executes software (eg, a program) to execute at least one other component of the first electronic device 210 or the second electronic device 220 connected to the processor 311 or 321 , for example. It can control elements (eg, hardware or software components) and can perform various data processing or operations.
  • the memory 312 or 322 is used by at least one component of the first electronic device 210 or the second electronic device 220 (eg, the processor 311 or 321 or the sensor module 310 or 320 ).
  • Various data can be stored.
  • the data may include, for example, input data or output data for software (eg, a program) and instructions related thereto.
  • Memory 312 or 322 may include volatile memory or non-volatile memory.
  • memory 312 or 322 may be coupled with processor 311 or 321 and/or communication circuitry 313 or 323 .
  • the processor 311 or 321 may be a command or data received from another component (eg, the sensor module 310 or 320 or the communication circuit 313 or 323 ). can be loaded into the volatile memory, process commands or data loaded into the volatile memory, and store the resulting data in the non-volatile memory.
  • another component eg, the sensor module 310 or 320 or the communication circuit 313 or 323 .
  • the communication circuit 313 or 323 is connected to each of the first electronic device 210 or the second electronic device 220 and the sound source electronic device 230 and/or another electronic device (eg, the second electronic device 220 or the first electronic device 220 ). Establishment of a communication channel through a communication link (eg, the first communication link 301 , the second communication link 302 , or the third communication link 303 ) with the electronic device 210 and/or the established communication channel It can support performing communication through a communication link (eg, the first communication link 301 , the second communication link 302 , or the third communication link 303 ) with the electronic device 210 and/or the established communication channel It can support performing communication through a communication link (eg, the first communication link 301 , the second communication link 302 , or the third communication link 303 ) with the electronic device 210 and/or the established communication channel It can support performing communication through
  • the communication circuit 313 or 323 may include a wireless communication module (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module.
  • a wireless communication module eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • the communication circuitry 313 or 323 is a first communication link 301 or a third communication link 303 (eg, a short-range wireless communication network such as Bluetooth, WiFi direct or IrDA (infrared data association)) It can communicate with the sound source electronic device 230 through the
  • the communication circuit 313 or 323 is the second electronic device 220 via a second communication link 302 (eg, a short-range wireless communication network such as Bluetooth, WiFi direct, or infrared data association (IrDA)). Alternatively, it may communicate with the first electronic device 210 .
  • a second communication link 302 eg, a short-range wireless communication network such as Bluetooth, WiFi direct, or infrared data association (IrDA)
  • it may communicate with the first electronic device 210 .
  • the communication circuit 313 or 323 may include an antenna module.
  • the antenna module of the communication circuit 313 or 323 may transmit a signal and/or power to the outside (eg, the sound source electronic device 230 ) or receive it from the outside.
  • the antenna module of the communication circuit 313 or 323 may include one antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module may include a plurality of antennas.
  • at least one antenna suitable for a communication method used in a wireless communication network such as the first communication link 301 , the second communication link 302 and/or the third communication link 303 .
  • a signal or power may be transmitted or received between the communication circuit 313 or 323 and an external electronic device (eg, the sound source electronic device 230 ) through at least one selected antenna.
  • other components eg, RFIC
  • the radiator may be additionally formed as a part of the antenna module.
  • the sensor module 310 or 320 may include an acceleration sensor 318 or 328 and a gyro sensor 319 or 329 .
  • the acceleration sensor 318 or 328 and/or the gyro sensor 319 or 329 may detect motion and/or inertia of the first electronic device 210 or the second electronic device 220 .
  • the acceleration sensor 318 or 328 and/or the gyro sensor 319 or 329 includes a circuit (e.g., an integrated circuit, IC) that controls the operation of the acceleration sensor 318 or 328 and/or the gyro sensor 319 or 329 may include
  • a circuit e.g, an integrated circuit, IC
  • IC that controls the operation of the acceleration sensor 318 or 328 and/or the gyro sensor 319 or 329 is the first electronic device 210 or the second electronic device 220 .
  • the processor 311 or 321 calculates an attitude value based on the sensor value obtained from the acceleration sensor 318 or 328 and/or the gyro sensor 319 or 329 of the sensor module 310 or 320 .
  • the posture value may be expressed based on yaw, pitch, and roll values.
  • the speaker 315 or 325 may output an audio signal to the outside of the first electronic device 210 or the second electronic device 220 .
  • the microphone 314 or 324 may convert the acquired sound into an electrical signal.
  • the processor 311 or 321 may output an electrical signal processed by the processor 311 or 312 as sound based on audio data received from the wirelessly connected sound source electronic device 230 .
  • the power management circuit 316 or 326 may manage power supplied to the first electronic device 210 or the second electronic device 210 .
  • the power management circuit 316 or 326 may control the battery 317 or 327 to supply power required to each component of the first electronic device 210 or the second electronic device 220 .
  • the power management circuitry 316 or 326 may control the state of charge of the battery 317 or 327 .
  • the power management circuit 316 or 326 may charge the battery 317 or 327 using power supplied from an external power source.
  • the power management circuitry 316 or 326 may include a type of external power source (eg, a power adapter, USB or wireless charging), an amount of power that can be supplied from the external power source, and/or a property of the battery 317 or 327 .
  • a charging method eg, normal charging or fast charging
  • the external power may be connected to the first electronic device 210 or the second electronic device 220 by wire, for example, through a connector pin, or wirelessly through an antenna included in the communication circuit 313 or 323. have.
  • the power management circuitry 316 or 326 provides charge state information related to the charging of the battery 317 or 327 (eg, age, overvoltage, undervoltage, overcurrent, overcharge, overdischarge, overheating, short circuit, or swelling). )), and control the charging operation of the battery 317 or 327 based on the determined state of charge information.
  • charge state information related to the charging of the battery 317 or 327 (eg, age, overvoltage, undervoltage, overcurrent, overcharge, overdischarge, overheating, short circuit, or swelling).
  • the processor 311 or 321 may check a battery residual capacity level of the battery 317 or 327 through the power management circuit 316 or 326 .
  • the battery 317 or 327 may supply power to at least one component of the first electronic device 210 or the second electronic device 220 .
  • battery 317 or 327 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, and/or a fuel cell.
  • the sound source electronic device 230 is a portable and/or portable device such as a smart phone, a tablet PC, a Portable Multimedia Player (PMP), a Personal Digital Assistant (PDA), a laptop PC, and a wearable device. It may be an electronic device.
  • PMP Portable Multimedia Player
  • PDA Personal Digital Assistant
  • the sound source electronic device 230 may be an electronic device capable of reproducing music or an image, and accordingly provides audio data to the first electronic device 210 and/or the second electronic device 220 . can do.
  • the sound source electronic device 230 may include the same or similar components to at least some of the components of the electronic device 101 of FIG. 1 .
  • the sound source electronic device 230 may include a processor 331 , a memory 332 , a communication circuit 333 , and a sensor module 330 .
  • the processor 33 for example, executes software (eg, a program) to execute at least one other component (eg, a hardware or software component) of the sound source electronic device 230 connected to the processor 311 or 321 . It can control and perform various data processing or operations.
  • software eg, a program
  • at least one other component eg, a hardware or software component
  • the memory 332 may store various data used by at least one component (eg, the processor 331 or the communication circuit 333 ) of the sound source electronic device 230 .
  • the data may include, for example, input data or output data for software (eg, a program) and instructions related thereto.
  • Memory 332 may include volatile memory or non-volatile memory.
  • the memory 332 may store instructions for executing a coordinate calculation app and/or a head tracking audio solution.
  • memory 332 may be coupled with processor 331 and/or communication circuitry 333 .
  • the processor 331 loads a command or data received from another component (eg, the memory 332 or the communication circuit 323) into the volatile memory;
  • the command or data loaded into the volatile memory may be processed, and the resultant data may be stored in the non-volatile memory.
  • the communication circuit 333 is a communication link between the sound source electronic device 230 and the first electronic device 210 or the second electronic device 220 (eg, the first communication link 301 or the third communication link 303). It may support establishment of a communication channel through and/or communication performance through the established communication channel.
  • the communication circuit 333 may include a wireless communication module (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module.
  • a wireless communication module eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • the communication circuit 333 may be configured through a first communication link 301 or a third communication link 303 (eg, a short-range wireless communication network such as Bluetooth, WiFi direct, or IrDA (infrared data association)). It may communicate with the first electronic device 210 or the second electronic device 220 .
  • a third communication link 303 eg, a short-range wireless communication network such as Bluetooth, WiFi direct, or IrDA (infrared data association)
  • the processor 331 is configured to be configured based on the posture value received from the first electronic device 210 or the second electronic device 220 through the first communication link 301 or the third communication link 303 . to render audio data, and transmit the rendered audio data to the first electronic device 210 or the second electronic device 220 through the first communication link 301 or the third communication link 303 .
  • the processor 331 loads instructions for executing the coordinate calculation app stored in the memory 332 to execute the coordinate calculation app, and from the first electronic device 210 or the second electronic device 220 .
  • the posture value of the user's head eg, the head of the user wearing the first electronic device 210 and/or the second electronic device 220
  • the posture value received from the first electronic device 210 or the second electronic device 220 may be expressed based on yaw, pitch, and roll values.
  • the posture value received from the first electronic device 210 or the second electronic device 220 may indicate posture information of the first electronic device 210 or the second electronic device 220 inserted into the user's ear.
  • FIG. 4 is a view for explaining an operation of calculating an attitude value according to various embodiments of the present disclosure
  • the posture value may be expressed as an azimuth change amount such as, for example, a yaw, a pitch, and a roll value.
  • the roll 410 may be a value expressing the amount of rotation of the user's head based on the x-axis
  • the pitch 420 is the amount of rotation of the user's head about the y-axis.
  • It may be a value
  • the yaw 430 may be a value expressing the amount of rotation of the user's head based on the z-axis.
  • the processor 331 executes a coordinate calculation app, and for a posture value that may correspond to a posture according to the movement of the first electronic device 210 or the second electronic device 220 , for example, Through the coordinate system transformation, it is possible to calculate a posture value representing posture information according to the user's head movement.
  • the posture value of the first electronic device 210 or the second electronic device 220 may be expressed using the Euler angle, the rotation matrix, or the quaternion method, and the posture value of the user's head may be calculated through coordinate system transformation.
  • an operation of calculating an attitude value according to a coordinate system transformation method according to the quaternion method will be described, but the present embodiment is not limited thereto.
  • the amount of rotation (or the A coordinate system expressed based on the B coordinate system) for converting the A coordinate system to the B coordinate system can be expressed as a quaternion expression as in Equation 1 below.
  • the processor 331 may render audio based on the user's head movement or may render based on both the user's head movement and the movement of the sound source electronic device 230 .
  • a posture value of the user's head expressed in a navigation frame based on a quaternion method can be calculated.
  • the relative posture value may be a constant value.
  • the relative posture value is a value determined according to the mechanical characteristics of the first electronic device 210 and/or the second electronic device 220 , and is a relative posture value determined by pre-measurement based on a general wearing state. may be stored in advance in the memory 332 as
  • the processor 331 transmits the posture value transmitted from the first electronic device 210 or the second electronic device 220 .
  • a posture value of the first electronic device 210 or the second electronic device 220 expressed in the earth local coordinate system the user's head and the first electronic device 210 or the second electronic device 220 are worn It can be calculated by applying the relative posture value, which is a constant value determined according to the relative posture according to the state.
  • the processor 331 is the attitude value of the first electronic device 210 or the second electronic device 220 expressed in the earth local coordinate system. and the relative posture value stored in the memory 332
  • the user's head posture value using can be calculated according to the following quaternion Equation (2).
  • the processor 331 when the processor 331 performs audio rendering based on the movement of the user's head and the movement of the sound source electronic device 230, the user expressed in the coordinate system of the sound source electronic device 230 according to the quaternion method head posture value can be calculated. In this case, even if the user's head moves, the sound image may change, and even if the sound source electronic device 230 moves, the sound image may change.
  • the processor 331 obtains a sensor value through an acceleration sensor and/or a gyro sensor of a sensor module (eg, the sensor module 176 of FIG. 1 ) of the sound source electronic device 230 , and based on this, obtains the sound source electronic device Attitude value of the device 230 (attitude value of the sound source electronic device 230 expressed in the earth local coordinate system) can be calculated.
  • the processor 331 is an attitude value of the sound source electronic device 230 . and an attitude value of the first electronic device 210 or the second electronic device 220 .
  • the posture value of the user's head expressed in the coordinate system of the sound source electronic device 230 using can be calculated according to the following quaternion Equation (3).
  • Is It corresponds to the conjugate quaternion of .
  • a conjugate quaternion is a quaternion with the opposite rotation of the quaternion, e.g. When expressed as (w, i, j, k), can be expressed as (w, -i, -j, -k).
  • the processor 331 loads instructions for executing the head tracking sound solution stored in the memory 332, and uses the estimated posture value to give a sense of space to the sound to be reproduced, for example. Rendering that adjusts left-right balance can be performed.
  • the processor 331 outputs the rendered audio data through the first electronic device 210 and/or the second electronic device 220 to provide the user with a spatial sense of sound so that the user is a sound source in the real space. It can provide the experience of hearing the sound directly from This will be described in detail later with reference to FIG. 5 .
  • the sensor module 330 may include an acceleration sensor 338 and a gyro sensor 339 .
  • the acceleration sensor 338 and/or the gyro sensor 339 may detect motion and/or inertia of the sound source electronic device 230 .
  • the acceleration sensor 338 and/or the gyro sensor 339 may include a circuit (eg, an integrated circuit, IC) for controlling the operation of the acceleration sensor 338 and/or the gyro sensor 339 .
  • a circuit eg, an integrated circuit, IC
  • a circuit for controlling the operation of the acceleration sensor 338 and/or the gyro sensor 339 may be included in the sound source electronic device 230 and implemented as the processor 331 . have.
  • the processor 331 may calculate an attitude value based on a sensor value obtained from the acceleration sensor 338 and/or the gyro sensor 339 of the sensor module 330 .
  • the posture value may be expressed based on yaw, pitch, and roll values.
  • the processor 331 receives the attitude value and the sensor received from the first electronic device 210 or the second electronic device 220 through the first communication link 301 or the third communication link 303 . Based on the attitude value calculated based on the sensor value obtained from the acceleration sensor 338 and/or the gyro sensor 339 of the module 330 , the audio data is rendered, and the rendered audio data is transferred to the first communication link 301 . ) or the third communication link 303 to the first electronic device 210 or the second electronic device 220 .
  • the primary electronic device uses more power, and a difference in remaining battery power occurs over time.
  • roles of the first electronic device 210 and the second electronic device 220 may be switched.
  • FIG. 5 is a diagram for explaining an audio rendering operation based on an attitude value according to various embodiments of the present disclosure, and illustrates the flow of functional components and information of a sound source electronic device (eg, the sound source electronic device 230 of FIG. 2 or FIG. 3 ). indicates.
  • a sound source electronic device eg, the sound source electronic device 230 of FIG. 2 or FIG. 3 . indicates.
  • the sound source electronic device 230 uses a Bluetooth communication module 550 (eg, the communication circuit 333 of FIG. 3 ) to use a first electronic device (eg, the first electronic device of FIG. 2 or 3 ). device 210) or a second electronic device (eg, the second electronic device 220 of FIG. 2 or 3 ); ) can be received.
  • the received posture value 510 may be transmitted to the application 560 via the service module 565 .
  • the sensor module 570 may include a second posture value 530 ( ) of the sound source electronic device 230 . ) may be generated, and the second posture value 530 generated by the sensor module 570 may be transmitted to the application 560 via the service module 565 .
  • the application 560 may be, for example, an application providing a 3D sound service.
  • the application 560 may generate and transmit a control signal 520 for the sensor module 570 to the service module 565 .
  • the service module 565 may control the sensor module 570 based on the control signal 520 received from the application 560 .
  • the application 560 may use the third posture value ( 540)( ) or using Equation 3, the third posture value 540 ( ) can be created.
  • the application 560 may transmit the generated third posture value 540 to the 3D sound module 590 .
  • the application 560 may transmit an activation control signal 545 to the 3D sound module 590 to control the activation of the 3D sound service.
  • the activated 3D sound module 590 may render audio data received from the media playback module 580 based on the received third posture value 540 and transmit it to the Bluetooth communication module 550 .
  • the Bluetooth communication module 550 may transmit the rendered audio data 595 to the first electronic device 210 and/or the second electronic device 220 .
  • FIGS. 6A and 6B show an electronic device (eg, the first electronic device 210 and the second electronic device 220 of FIGS. 2 or 3 ) and a sound source electronic device (eg, the electronic device of FIGS. 2 or 3 ) according to various embodiments. It is a configuration diagram of the sound source electronic device 230.
  • the first electronic device 210 performs a primary role, so that the first electronic device 210 has the remaining battery capacity of the second electronic device 220.
  • the remaining battery capacity of the first electronic device 210 and the second electronic device 220 when the remaining battery capacity of the second electronic device 220 exceeds the remaining battery capacity of the first electronic device 210 may perform role switching so that the second electronic device 220 operates as a primary as shown in FIG. 6B .
  • the first electronic device 210 and the second electronic device 220 may be worn by a user, and based on audio data received from the sound source electronic device 230 through a communication function, may include headphones, earphones, and/or ear buds capable of providing sound to the user.
  • the first electronic device 210 and the second electronic device 220 are implemented as earbuds will be described, but various embodiments may not be limited thereto.
  • the sound source electronic device 230 is a portable and/or portable electronic device such as a smart phone, a tablet PC, a portable multimedia player (PMP), a personal digital assistant (PDA), a laptop PC, and a wearable device. It may be a device.
  • a portable and/or portable electronic device such as a smart phone, a tablet PC, a portable multimedia player (PMP), a personal digital assistant (PDA), a laptop PC, and a wearable device. It may be a device.
  • the sound source electronic device 230 may be an electronic device capable of reproducing music or an image, and may provide audio data accordingly to the first electronic device 210 and/or the second electronic device 220 .
  • the first electronic device 210 performs a primary role and communicates with the sound source electronic device 230
  • the second electronic device 220 performs a secondary role, thereby serving as a primary first electronic device. It can communicate with the device 210 .
  • the first electronic device 210 may perform a primary role and be wirelessly connected to the sound source electronic device 230 through the first communication link 601 .
  • the first electronic device 210 the first communication link 601 (eg, the first network ( 198)) to communicate with the sound source electronic device 230 .
  • the first electronic device 210 may communicate with the second electronic device 220 using a second communication link 602 (eg, a short-range wireless communication network).
  • a second communication link 602 eg, a short-range wireless communication network
  • the first electronic device 210 includes an acceleration sensor (eg, the acceleration sensor 318 of FIG. 3 ) of a sensor module (eg, the sensor module 310 of FIG. 3 ) and/or a gyro sensor (eg:
  • the posture value may be calculated based on the sensor value obtained by the gyro sensor 319 of FIG. 3 .
  • the posture value may be expressed based on yaw, pitch, and roll values.
  • the sound source electronic device 230 may render audio data based on the posture value received from the first electronic device 210 and transmit the rendered audio data to the first electronic device 210 . Based on the posture value received from the first electronic device 210 , the sound source electronic device 230 calculates the user's head posture value or the user's head posture value with respect to the posture value of the sound source electronic device 230 , and accordingly The operation of rendering the audio data has been described in detail with reference to FIG. 3 and will be omitted herein.
  • the first electronic device 210 communicates with the second electronic device 220 through the second communication link 602 , and the second electronic device 220 receives the sound source electronic device 230 from the electronic device 230 .
  • the audio data may be obtained by sniffing the first communication link 601 .
  • the first electronic device 210 may control the second electronic device 220 through the second communication link 602 to output the received audio data together.
  • the first electronic device 210 may check the remaining battery amount (eg, the remaining power level) of the battery (eg, the battery 317 of FIG. 3 ). For example, the first electronic device 210 may check the remaining amount of the battery 317 through a power management circuit (eg, the power management circuit 316 of FIG. 3 ).
  • a power management circuit eg, the power management circuit 316 of FIG. 3
  • the first electronic device 210 may receive the remaining battery amount information of the second electronic device 220 from the second electronic device 220 through the second communication link 602 .
  • the first electronic device 210 may determine to switch primary and secondary roles based on its own device state information. For example, the first electronic device 210 may determine to switch primary and secondary roles based on the state of the battery 317 or the state of the sensor module 310 .
  • the first electronic device 210 may determine the primary and secondary role switching based on its own device state information and additionally the device state information of the second electronic device 220 . For example, the first electronic device 210 may determine to switch primary and secondary roles based on the state of its own battery 317 and the state of the battery 327 of the second electronic device 220 .
  • the first electronic device 210 may compare the remaining amount of its own battery with that of the second electronic device 220 , and if the difference is equal to or greater than a threshold value, it may determine to switch the primary and secondary roles.
  • the first electronic device 210 may determine to switch primary and secondary roles. For example, when the sensor values of the acceleration sensor 318 and/or the gyro sensor 319 are the same for a certain period of time or more, or the sensor value is not output, the first electronic device 210 may determine that a sensor abnormality has occurred.
  • the first electronic device 210 may request the second electronic device 220 to prepare for the role change through the second communication link 602 .
  • the second electronic device 220 may perform related operations for performing a primary role rather than a secondary role.
  • the second electronic device 220 may include an acceleration sensor (eg, the acceleration sensor 328 of FIG. 3 ) and/or a gyro sensor (eg, FIG. 3 ) of a sensor module (eg, the sensor module 320 of FIG. 3 ).
  • a sensor value may be obtained by activating the gyro sensor 329).
  • the second electronic device 220 may calculate a posture value based on a sensor value obtained through the sensor module 320 .
  • the second electronic device 220 may start performing the primary role after a specified time elapses or when a role change message is received from the first electronic device 210 after starting the posture value calculation operation.
  • the first electronic device 210 may notify the sound source electronic device 230 that the role change is performed after a specified time elapses or when the second electronic device 220 prepares to perform the role. According to an embodiment, the first electronic device 210 may transmit a role change message to the second electronic device 220 to perform the role change, and the first electronic device 210 may switch the role to the secondary.
  • the second electronic device 220 establishes or establishes a third communication link 603 (eg, the first network 198 of FIG. 1 ) with the sound source electronic device 230 as the role is switched. You can connect and communicate.
  • the third communication link 603 may be switched from an idle state to a connected state or newly established.
  • the second electronic device 220 communicates with the sound source electronic device 230 through the third communication link 603 as a primary and transmits the calculated posture value, and audio data rendered based on the posture value. may be received from the sound source electronic device 230 .
  • the sound source electronic device 230 communicates with the second electronic device 220 through the third communication link 603 to receive the posture value of the second electronic device 220, and based on this, audio data can be rendered.
  • the posture value calculation method may be different.
  • the user's head posture value based on the posture value of the left or right unit of the earbuds Equation for calculating referring to Equation 2, the posture value of the left unit according to the following quaternion Equation 4 Relative posture values of the left unit and the user's head for Calculated by applying , or the posture value of the right unit Relative posture values of the right unit and the user's head for It can be calculated by applying
  • Relative posture values of the left unit and the user's head and the relative posture values of the right unit and the user's head is a value determined according to the mechanical characteristics of the first electronic device 210 and/or the second electronic device 220 , which is measured in advance based on a general wearing state and is a memory (eg, the memory 332 of FIG. 3 ). ) can be stored in advance.
  • Equation 4 according to the primary role switching from the left unit to the right unit or from the right unit to the left unit, different relative posture values may be applied to calculate the user's head posture value. have.
  • the absolute azimuth angles may not coincide with each other as reference coordinates for calculating the azimuth angles of the left unit and the right unit are different.
  • the processor 331 of the sound source electronic device 230 may perform the following operation in order to smoothly connect the rendered sound image without being distorted as the applied relative posture value changes at a specific point in time.
  • the processor 331 of the sound source electronic device 230 calculates the amount of change in the azimuth of the converted unit when the role switching of the left unit and the right unit of the earbud occurs, for example, and adds it to the output azimuth.
  • the current posture value can be calculated.
  • the processor 331 may calculate the azimuth value Yaw output for audio rendering according to Equation 5 below. can be calculated.
  • the amount of change in the azimuth at the time relative to the previous azimuth output value is reflected in the azimuth output value. It may be a value indicating the amount of change, and if audio rendering is performed based on this value, the rendered sound image may be seamlessly connected without being distorted despite the role change.
  • the first electronic device 210 may switch the first communication link 601 with the sound source electronic device 230 into an idle state or disconnect the connection.
  • the first electronic device 210 that has switched to the secondary role may switch the first communication link 201 with the sound source electronic device 230 into an idle state and/or a non-connected state.
  • the first electronic device 210 communicates with the second electronic device 220 through the second communication link 602 as a secondary, and between the second electronic device 220 and the sound source electronic device 230 .
  • Audio data transmitted from the sound source electronic device 230 to the second electronic device 220 may be acquired by sniffing the third communication link 603 .
  • the first electronic device 210 may switch at least a portion of the sensor module 310 to a deactivation or power saving mode.
  • the first electronic device 210 may deactivate the gyro sensor 319 or switch it to a power saving mode.
  • the second electronic device 220 calculates an attitude value by switching roles with the second electronic device 220 .
  • the first communication link 601 may be maintained in a connected state and may operate as a primary device performing communication with the sound source electronic device 230 .
  • the second electronic device 220 may perform the operation of acquiring the sensor value and calculating the posture value based thereon.
  • the electronic device (eg, the first electronic device 210 of FIG. 3 ) according to an embodiment includes a memory (eg, the memory 312 of FIG. 3 ), a battery (eg, the battery 317 of FIG. 3 ), and a speaker (
  • the speaker 315 of FIG. 3 a sensor module (eg, the sensor module 310 of FIG. 3 ), a communication module (eg, the communication circuit 313 of FIG. 3 ), and the memory 312 , the battery 317 , the speaker 315, the sensor module 310, and a processor electrically connected to the communication module 313 (eg, the processor 311 in FIG.
  • the processor 311 includes the Control the communication module 313 to control the sound source electronic device (eg, the sound source electronic device 230 of FIG. 3) and the first communication link (eg, the first communication link 201, 301 or 601), transmits a posture value calculated based on the sensor value obtained from the sensor module 310, and receives audio data rendered based on the posture value from the sound source electronic device 230, Based on the device state information of the electronic device 210, an external electronic device (eg, the second electronic device 220 of FIG. 3) and a second communication link (eg, FIG. 2, FIG. 3, FIG. 6A, or FIG.
  • the processor 311 receives the remaining battery amount information of the external electronic device 220 through the second communication link 202 , 302 , or 602 , and the remaining amount of the battery 317 . and, if the difference is greater than or equal to a specified threshold, it may be set to determine the role switching.
  • the processor 311 may be configured to transmit a role change message from the external electronic device 220 when a specified time elapses after the role change preparation request.
  • the processor 311 receives the posture value from the external electronic device and monitors the amount of change, and when the difference between the amount of change in the posture value calculated by the processor 311 is less than or equal to a specified threshold, It may be configured to transmit the role change message.
  • the processor 311 after notifying the role change to the sound source electronic device 230 , controls the communication module to control the first communication link 201 with the sound source electronic device 230 . , 301 or 601) may be set to release.
  • the processor 311 may be configured to at least partially deactivate the sensor module 313 after notifying the role change to the sound source electronic device 230 .
  • the processor 311 transmits a second posture value received from the external electronic device 220 through a second communication link through the first communication link. It may be configured to receive audio data transmitted to the device 230 and rendered based on the posture value of the external electronic device 220 .
  • the processor 311 transmits the role change message to the external electronic device after receiving a response indicating that role change is possible as the posture value calculation operation starts from the external electronic device 220 .
  • the electronic device eg, the sound source electronic device 230 of FIG. 2 or FIG. 3
  • the electronic device includes a memory (eg, the memory 332 of FIG. 3 ), a communication module (eg, the communication circuit of FIG. 3 ) 333)) and a processor electrically connected to the memory 332 and the communication module 333 (eg, the processor 331 of FIG. 3 ), wherein the processor 331 controls the communication module 333 .
  • a first electronic device eg, the first electronic device 210 of FIG. 2 or FIG. 3
  • a first communication link eg, the first communication link 201 , 301 or 601 of FIG.
  • the posture value of the first electronic device 210 serving as a primary, transmits audio data rendered based on the posture value to the first electronic device 210, and from the first electronic device 210 through the first electronic device 210 and a second communication link (eg, the second communication link 202 , 302 or 602 of FIG. 2 , FIG. 3 , FIG. 6A or FIG. 6B )
  • the posture value of the second electronic device 220 is received, and audio data rendered based on the posture value of the second electronic device 220 is displayed. It may be set to transmit to at least one of the first electronic device 210 and the second electronic device 220 .
  • the processor 331 accumulates and sums the amount of azimuth change in the posture value of the second electronic device 220 with respect to the amount of change in the azimuth of the posture value of the first electronic device 210 and is output. It may be configured to render the audio data based on the posture value and transmit the rendered audio data to at least one of the first electronic device and the second electronic device.
  • each of the first electronic device 210 and the second electronic device 220 includes a left or right earbud
  • the processor 331 is configured to provide a posture value of the left earbud or It may be configured to calculate a user's head posture value based on the posture value of the right earbud and render the audio data based on the user's head posture value.
  • the electronic device 230 may further include a sensor module (eg, the sensor module 330 of FIG. 3 ), wherein the processor 331 is configured according to a sensor value received from the sensor module 330 . ), and based on the posture value of the electronic device 230 , the posture value received from the first electronic device 210 or the second electronic device 220 is used as the head posture value of the user. It may be set to render the audio data by converting it.
  • a sensor module eg, the sensor module 330 of FIG. 3
  • the processor 331 is configured according to a sensor value received from the sensor module 330 .
  • the posture value received from the first electronic device 210 or the second electronic device 220 is used as the head posture value of the user. It may be set to render the audio data by converting it.
  • FIG. 7 is a flowchart illustrating a method for switching roles of a first electronic device (eg, the first electronic device 210 of FIG. 2 or 3 ) according to various embodiments of the present disclosure.
  • a first electronic device eg, the first electronic device 210 of FIG. 2 or 3
  • the first electronic device 210 and the second electronic device may be worn by the user, and the sound source electronic device through a communication function Headphones, earphones, and/or ear buds capable of providing sound to a user based on audio data received from (eg, the sound source electronic device 230 of FIG. 2 or FIG. 3 ) ) may be included.
  • the sound source electronic device through a communication function Headphones, earphones, and/or ear buds capable of providing sound to a user based on audio data received from (eg, the sound source electronic device 230 of FIG. 2 or FIG. 3 )
  • the first electronic device 210 and the second electronic device 220 are implemented as earbuds will be described, but various embodiments may not be limited thereto.
  • the first electronic device 210 may operate as a primary and the second electronic device 220 may operate as a secondary, and when a role change is determined, the first electronic device 210 serves as a secondary After switching, the second electronic device 220 may switch the role to the primary.
  • the sound source electronic device 230 is a portable and/or portable electronic device such as a smart phone, a tablet PC, a portable multimedia player (PMP), a personal digital assistant (PDA), a laptop PC, and a wearable device. It may be a device.
  • a portable and/or portable electronic device such as a smart phone, a tablet PC, a portable multimedia player (PMP), a personal digital assistant (PDA), a laptop PC, and a wearable device. It may be a device.
  • the sound source electronic device 230 may be an electronic device capable of reproducing music or an image, and may provide audio data accordingly to the first electronic device 210 and/or the second electronic device 220 .
  • the processor (eg, the processor 311 of FIG. 3 ) of the first electronic device 210 performs a communication circuit (eg, the communication of FIG. 3 ) so that the first electronic device 201 performs a primary role.
  • the circuit 313) may be communicatively connected to the sound source electronic device 230 .
  • the processor 311 of the first electronic device 210 performs an acceleration sensor (eg, the acceleration sensor 318 of FIG. 3 ) of a sensor module (eg, the sensor module 310 of FIG. 3 ). )) and/or the gyro sensor (eg, the gyro sensor 319 of FIG. 3 ) may calculate the posture value of the first electronic device 210 based on the sensor value obtained and transmit it to the sound source electronic device 230 . have.
  • an acceleration sensor eg, the acceleration sensor 318 of FIG. 3
  • a sensor module eg, the sensor module 310 of FIG. 3
  • the gyro sensor eg, the gyro sensor 319 of FIG. 3
  • the first electronic device 210 may calculate a posture value based on a sensor value obtained by the acceleration sensor 318 and/or the gyro sensor 319 of the sensor module 310 .
  • the posture value may be expressed based on yaw, pitch, and roll values.
  • the first electronic device 210 performs a primary role to perform a primary role with the sound source electronic device 230 and a first communication link (eg, the first communication link 201 of FIGS. 2, 3 or 6A ). 301 or 601))).
  • a first communication link eg, the first communication link 201 of FIGS. 2, 3 or 6A ). 301 or 601)
  • the first communication link 201 , 301 or 601 may include a short-range communication network such as Bluetooth (or BLE), WiFi direct, or infrared data association (IrDA).
  • the processor 311 of the first electronic device 210 receives the rendered audio data based on the posture value received from the first electronic device 210 from the sound source electronic device 230 . Render and receive rendered audio data.
  • the first electronic device 210 and the second electronic device 220 and a second communication link (eg, the second communication link 202, 302, or 602 of FIGS. 2, 3, 6A, or 6B) )) (eg, short-range wireless communication network).
  • the second electronic device 220 may perform a secondary role and communicate with the primary first electronic device 210 through the second communication link 202 , 302 , or 302 .
  • the processor 311 of the first electronic device 210 communicates with the second electronic device 220 through the second communication link 602 and receives audio data received from the sound source electronic device 230 .
  • the second electronic device 220 may sniff to obtain it.
  • the first electronic device 210 may control the second electronic device 220 through the second communication link 202 , 302 , or 602 to output the received audio data together.
  • the processor 311 of the first electronic device 210 may determine role switching according to device state information and request the second electronic device 220 to prepare for role switching.
  • the processor 311 may determine the remaining amount of the battery (eg, the battery 317 of FIG. 3 ) and determine role switching based thereon. For example, the processor 311 may determine the role change by comparing the remaining amount of the battery of the first electronic device 210 with the remaining amount of the battery of the second electronic device 220 . For example, the processor 311 of the first electronic device 210 may check the remaining amount of the battery 317 through a power management circuit (eg, the power management circuit 316 of FIG. 3 ). For example, the processor 311 of the first electronic device 210 receives the remaining battery amount information of the second electronic device 220 from the second electronic device 220 through the second communication link 202 , 302 , or 602 . can do.
  • a power management circuit eg, the power management circuit 316 of FIG. 3
  • the processor 311 of the first electronic device 210 compares the remaining battery amount of the first electronic device 210 with the remaining battery amount of the second electronic device 220, and if the difference is greater than or equal to a threshold value, the primary and secondary roles are switched can decide
  • the processor 311 of the first electronic device 210 switches primary and secondary roles when a sensor abnormality occurs in the acceleration sensor 318 and/or the gyro sensor 319 of its sensor module 310 .
  • the processor 311 of the first electronic device 210 requests the second electronic device 220 to prepare for the role switching through the second communication link 202 , 302 or 602 when the role switching is determined.
  • the processor in order for the second electronic device 220 to perform related operations for the primary role in response to a role change preparation request, the processor (eg, the processor 321 of FIG. 3 ) may include a sensor module (eg, FIG. 3 ).
  • the sensor value may be obtained by activating the acceleration sensor (eg, the acceleration sensor 328 of FIG. 3) and/or the gyro sensor (eg, the gyro sensor 329 of FIG. 3) of the sensor module 320 of FIG. .
  • the processor 321 of the second electronic device 220 may calculate an attitude value based on a sensor value obtained through the sensor module 320 .
  • the processor 311 of the first electronic device 210 may transmit a role change message to the second electronic device 220 in operation 707 .
  • the processor 311 of the first electronic device 210 drives the sensor module 320 in response to a role change preparation request
  • the processor 321 of the second electronic device 220 drives the sensor module 320 and calculates an attitude value accordingly
  • the role may be switched by transmitting a role change message to the second electronic device 220 after a specified time has elapsed.
  • the processor 311 of the first electronic device 210 may receive the posture value calculated from the second electronic device 220 in response to a role change preparation request, and the first electronic device 210 may Based on this, the amount of change in the attitude value of the first electronic device 210 and the attitude value of the second electronic device 220 is monitored, and if the difference is within a threshold value, it is determined that role switching is possible, and a role switching message is transmitted to the second It can be transmitted to the electronic device 220 .
  • the processor 321 of the second electronic device 220 starts driving the sensor module 320 and calculates the posture value accordingly
  • the processor 321 of the second electronic device 220 starts the first electronic device 210 from the first electronic device 210
  • the amount of change in the attitude value of the first electronic device 210 and the attitude value of the second electronic device 220 is monitored, and if the difference is within a threshold value, a response indicating that role switching is possible is first may be transmitted to the electronic device 210 , and the processor 331 of the first electronic device 210 may transmit the role change message to the second electronic device 220 based thereon.
  • the processor 311 of the first electronic device 210 outputs the calculated posture value as the second electronic device 220 starts driving the sensor module 320 and calculating the posture value accordingly.
  • the processor 311 of the first electronic device 210 when the processor 311 of the first electronic device 210 receives a response to the role change request from the second electronic device 220 , in operation 709 , the role switch to the sound source electronic device 230 is performed. can be reported to have been carried out.
  • the processor 311 of the first electronic device 210 may transmit, for example, a control signal to control the second electronic device 220 to perform role switching to the primary.
  • the second electronic device 220 performs role switching with the sound source electronic device 230 and a third communication link (eg, the third communication links 203 and 303 of FIGS. 2, 3 or 6B ). Or 603) (eg, the first network 198 of Fig. 1) may be established or connected to perform communication.
  • the third communication link 203, 303, or 603 is switched from the idle state to the connected state. Or it may be newly established.
  • the second electronic device 220 communicates with the sound source electronic device 230 through the third communication link 603 as a primary and transmits the calculated posture value, and audio data rendered based on the posture value. may be received from the sound source electronic device 230 .
  • the processor 311 of the first electronic device 210 may switch or disconnect the first communication link 201 , 301 , or 601 with the sound source electronic device 230 to an idle state.
  • the first electronic device 210 that has switched to the secondary role may switch the first communication link 201 with the sound source electronic device 230 into an idle state and/or a non-connected state.
  • the processor 311 of the first electronic device 210 communicates with the second electronic device 220 through the second communication link 602 as a secondary, and the second electronic device 220 and the sound source electronic device Audio data transmitted from the sound source electronic device 230 to the second electronic device 220 may be acquired by sniffing the third communication link 203 , 303 , or 603 between the devices 230 .
  • the processor 311 of the first electronic device 210 may switch at least a portion of the sensor module 310 to a deactivation or power saving mode.
  • the first electronic device 210 may deactivate the gyro sensor 319 or switch to a power saving mode.
  • FIG. 8 is a flowchart illustrating a method for switching roles of a second electronic device (eg, the second electronic device 220 of FIG. 2 or FIG. 3 ) among electronic devices according to various embodiments of the present disclosure.
  • a second electronic device eg, the second electronic device 220 of FIG. 2 or FIG. 3
  • the first electronic device eg, the first electronic device 210 of FIG. 2 or 3
  • the second electronic device 220 may be worn by the user, and the sound source electronic device may perform a communication function through a communication function.
  • Headphones, earphones, and/or ear buds capable of providing sound to a user based on audio data received from eg, the sound source electronic device 230 of FIG. 2 or FIG. 3 )
  • the first electronic device 210 and the second electronic device 220 are implemented as earbuds will be described, but various embodiments may not be limited thereto.
  • the first electronic device 210 may operate as a primary and the second electronic device 220 may operate as a secondary, and when a role change is determined, the first electronic device 210 serves as a secondary After switching, the second electronic device 220 may switch the role to the primary.
  • the sound source electronic device 230 is a portable and/or portable electronic device such as a smart phone, a tablet PC, a portable multimedia player (PMP), a personal digital assistant (PDA), a laptop PC, and a wearable device. It may be a device.
  • a portable and/or portable electronic device such as a smart phone, a tablet PC, a portable multimedia player (PMP), a personal digital assistant (PDA), a laptop PC, and a wearable device. It may be a device.
  • the sound source electronic device 230 may be an electronic device capable of reproducing music or an image, and may provide audio data accordingly to the first electronic device 210 and/or the second electronic device 220 .
  • the processor (eg, the processor 321 of FIG. 3 ) of the second electronic device 220 uses a communication circuit (eg, the communication circuit 323 of FIG. 3 ) to the sound source electronic device 230 . It is possible to communicate with the first electronic device 201 performing communication through communication connection with the .
  • the processor 321 of the second electronic device 220 is connected to the first electronic device 210 and a second communication link (eg, the second communication link 202 of FIGS. 2, 3, 6A, or 6B). 302 or 602), and from the sound source electronic device 230 through a first communication link (eg, the first communication link 201, 301, or 601 of FIG. 2, FIG. 3, or FIG. 6A). It can be obtained by sniffing the audio data received by the 210 .
  • the processor 321 of the second electronic device 220 sniffs, for example, audio data transmitted from the sound source electronic device 230 to the first electronic device 210, can receive The processor 321 of the second electronic device 220 may output the received audio data together under the control of the first electronic device 210 .
  • the processor 321 of the second electronic device 220 receives a role change preparation request from the first electronic device 210 , and in response to receiving a request for role switching preparation, a sensor module (eg, the sensor module 320 of FIG. 3 ) )) of the acceleration sensor (eg, the acceleration sensor 328 in FIG. 3) and/or the gyro sensor (eg, the gyro sensor 329 in FIG. 3) to obtain a sensor value, and based on the 220) can be calculated.
  • a sensor module eg, the sensor module 320 of FIG. 3
  • the acceleration sensor eg, the acceleration sensor 328 in FIG. 3
  • the gyro sensor eg, the gyro sensor 329 in FIG.
  • the processor 321 of the second electronic device 220 may receive a role change message as the sensor module 320 is driven and the calculation of the posture value is started. For example, the processor 321 of the second electronic device 220 may transmit the calculated posture value to the first electronic device 210 as the sensor module 320 is driven and the posture value calculation is started. Based on this, the first electronic device 210 monitors the amount of change between the posture value of the first electronic device 210 and the posture value of the second electronic device 220 and determines that role switching is possible if the difference is within a threshold value Thus, the role switching message may be transmitted to the second electronic device 220 .
  • the processor 321 of the second electronic device 220 sends a response indicating that the role can be switched to the first electronic device 210 as the sensor module 320 is driven and the calculation of the posture value is started. may be transmitted, and the first electronic device 210 may transmit the role change message to the second electronic device 220 based on the result.
  • the processor 321 of the second electronic device 220 may transmit the calculated posture value to the sound source electronic device 230 as the sensor module 320 is driven and the posture value calculation is started accordingly.
  • the sound source electronic device 230 monitors the amount of change between the posture value of the first electronic device 210 and the posture value of the second electronic device 220 and determines that role switching is possible if the difference is within a threshold value,
  • the role change message may be transmitted to the second electronic device 220 and/or the first electronic device 210 .
  • the processor 321 of the first electronic device 210 may establish a communication connection with the electronic device 230 as a primary in operation 807 .
  • the sound source electronic device 230 and a third communication link (eg, the third communication link of FIGS. 2, 3 or 6B ) Communication may be performed by establishing or connecting 203, 303, or 603 (eg, the first network 198 of Fig. 1).
  • the third communication link 203, 303, or 603 may be in an idle state. It can be switched to a connected state or newly established.
  • the processor 321 of the second electronic device 220 communicates with the sound source electronic device 230 through the third communication link 603 to transmit the calculated posture value and operate
  • audio data rendered based on the posture value may be received from the sound source electronic device 230 .
  • the audio data received from the sound source electronic device 230 is output by accumulating the azimuth change amount as described above with reference to Equation 5 with respect to the posture value of the first electronic device 210 before the role change. It may be audio data rendered based on the posture value of the second electronic device 220 to which the azimuth is applied.
  • the first electronic device 210 may switch to the idle state or disconnect the first communication link 201 , 301 , or 601 with the sound source electronic device 230 according to the role change to the secondary.
  • the first electronic device 210 that has switched to the secondary role may switch the first communication link 201 with the sound source electronic device 230 into an idle state and/or a non-connected state.
  • the first electronic device 210 communicates with the second electronic device 220 through the second communication link 602 as a secondary, and between the second electronic device 220 and the sound source electronic device 230 .
  • Audio data transmitted from the sound source electronic device 230 to the second electronic device 220 may be acquired by sniffing the third communication link 203 , 303 , or 603 .
  • the second electronic device 220 calculates the posture value by switching roles with the second electronic device 220 .
  • the first communication link 201 , 301 , or 601 may be maintained in a connected state and may operate as a primary device communicating with the sound source electronic device 230 .
  • the second electronic device 220 may perform the operation of acquiring the sensor value and calculating the posture value based thereon.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Telephone Function (AREA)

Abstract

본 문서에 개시된 다양한 실시예에 따른 전자 장치는, 메모리, 배터리, 스피커, 센서 모듈, 통신 모듈 및 상기 메모리, 상기 배터리, 상기 스피커, 상기 센서 모듈 및 상기 통신 모듈과 전기적으로 연결된 프로세서를 포함하고, 상기 프로세서는 상기 통신 모듈을 제어하여 음원 전자 장치와 제1 통신 링크를 형성하고 프라이머리 역할을 수행하여, 상기 센서 모듈로부터 획득된 센서 값에 기초하여 산출된 자세 값을 전송하고, 상기 음원 전자 장치로부터 상기 자세 값에 기초하여 렌더링된 오디오 데이터를 수신하고, 상기 전자 장치의 장치 상태 정보에 기초하여, 외부 전자 장치와 제2 통신 링크를 통해 통신하여 역할 전환 준비를 요청하고, 상기 외부 전자 장치로부터 역할 전환 메시지를 송신하고, 상기 음원 전자 장치에 상기 외부 전자 장치와의 역할 전환을 알리도록 설정될 수 있다.

Description

배터리 잔여량에 기초하여 전자 장치를 제어하는 방법 및 그 전자 장치
본 문서에 개시된 다양한 실시예들은, 배터리 잔여량에 기초하여 전자 장치를 제어하는 방법 및 그 전자 장치에 관한 것이다.
이어폰과 같은 전자 장치는 스피커와 마이크를 포함하고 있어 스피커를 통해 음악 또는 음성과 같은 오디오 데이터를 출력할 수 있고 마이크를 통해 오디오 데이터를 획득할 수 있다. 최근에는 이어폰에 스피커와 마이크 외에 각종 센서, 통신 모듈 및 프로세서가 포함되어 개발되고 있다. 이러한 이어폰은 블루투스(bluetooth)와 같은 근거리 무선 기술을 이용하여 이동통신 단말기, PDA(personal digital assistant), 전자수첩, 스마트폰, 태블릿 PC(personal computer), 웨어러블 디바이스(wearable device)와 같은 다양한 유형의 외부 전자 장치(또는 음원 전자 장치)와 연결하여 각종 데이터를 송수신하거나 오디오 데이터를 수신하여 출력할 수 있다.
이어폰은 오디오 데이터 렌더링을 위해 사용자의 자세/몸의 위치를 검출하고 이에 기초하여 자세 값을 산출할 수 있다. 이어폰은 사용자가 착용하고 움직임에 따라 센서 모듈을 통해 수신되는 센서 값에 기초하여 자세 값을 산출할 수 있다. 이어폰은 산출된 자세 값에 기초하여 렌더링된 오디오 데이터를 출력할 수 있다.
복수의 이어폰과 같은 전자 장치 중 자세 값을 산출하여 음원 전자 장치로 전송하는 전자 장치는 배터리 소모가 심하여, 다른 전자 장치에 배터리가 남아 있는 경우에도 더 이상 기능을 수행할 수 없게 되는 문제가 있다.
본 문서에 개시된 다양한 실시 예에 따른 전자 장치는, 메모리, 배터리, 스피커, 센서 모듈, 통신 모듈 및 상기 메모리, 상기 배터리, 상기 스피커, 상기 센서 모듈 및 상기 통신 모듈과 전기적으로 연결된 프로세서를 포함하고, 상기 프로세서는 상기 통신 모듈을 제어하여 음원 전자 장치와 제1 통신 링크를 형성하고 프라이머리 역할을 수행하여, 상기 센서 모듈로부터 획득된 센서 값에 기초하여 산출된 자세 값을 전송하고, 상기 음원 전자 장치로부터 상기 자세 값에 기초하여 렌더링된 오디오 데이터를 수신하고, 상기 전자 장치의 장치 상태 정보에 기초하여, 외부 전자 장치와 제2 통신 링크를 통해 통신하여 역할 전환 준비를 요청하고, 상기 외부 전자 장치로부터 역할 전환 메시지를 송신하고, 상기 음원 전자 장치에 상기 외부 전자 장치와의 역할 전환을 알리도록 설정될 수 있다.
본 문서에 개시된 다양한 실시 예에 따른 센서 모듈을 구비하는 전자 장치의 방법은, 음원 전자 장치와 제1 통신 링크를 형성하고 프라이머리 역할을 수행하여, 상기 센서 모듈로부터 획득된 센서 값에 기초하여 산출된 자세 값을 상기 음원 전자 장치로 전송하는 동작, 상기 음원 전자 장치로부터 상기 자세 값에 기초하여 렌더링된 오디오 데이터를 수신하는 동작, 장치 상태 정보에 기초하여, 세컨더리 역할을 수행하는 외부 전자 장치와 제2 통신 링크를 통해 통신하여 역할 전환 준비를 요청하는 동작, 상기 외부 전자 장치로 역할 전환 메시지를 송신하는 동작 및 상기 음원 전자 장치에 상기 외부 전자 장치와의 역할 전환을 알리는 동작을 포함할 수 있다.
본 문서에 개시된 다양한 실시 예에 따른 전자 장치는, 메모리, 통신 모듈 및 상기 메모리 및 상기 통신 모듈과 전기적으로 연결된 프로세서를 포함하고, 상기 프로세서는 상기 통신 모듈을 제어하여 제1 전자 장치와 제1 통신 링크를 형성하고 프라이머리 역할을 수행하는 상기 제1 전자 장치의 자세 값을 수신하고, 상기 자세 값에 기초하여 렌더링된 오디오 데이터를 상기 제1 전자 장치로 전송하고, 상기 제1 전자 장치로부터, 상기 제1 전자 장치와 제2 통신 링크를 통해 연결된 제2 전자 장치와의 역할 전환을 통보받으면, 상기 제2 전자 장치의 자세 값을 수신하고, 상기 제2 전자 장치의 자세 값에 기초하여 렌더링된 오디오 데이터를 상기 제1 전자 장치 또는 제2 전자 장치 중 적어도 하나로 전송하도록 설정될 수 있다.
본 문서에 개시된 다양한 실시예들은 배터리 잔여량에 기초하여 전자 장치를 제어하는 방법 및 그 전자 장치를 제공하기 위한 것이다.
본 개시에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
다양한 실시 예에 따르면, 배터리 잔여량 정보에 기초하여 복수의 전자 장치의 동작을 제어할 수 있다.
다양한 실시 예에 따르면, 배터리 잔여량 정보에 기초하여 복수의 전자 장치 중 자세 값을 산출하여 음원 전자 장치로 전송하는 전자 장치의 역할을 전환할 수 있다.
다양한 실시 예에 따르면, 배터리 잔여량 정보에 기초하여 복수의 전자 장치의 역할을 제어함에 따라 복수의 전자 장치의 배터리 효율을 높일 수 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도면의 설명과 관련하여, 동일 또는 유사한 구성 요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 다양한 실시예에 따른 전자 장치와 음원 전자 장치의 구성도이다.
도 3은 다양한 실시예에 따른 전자 장치의 블록도이다.
도 4는 다양한 실시예에 따른 자세 값 산출 동작을 설명하기 위한 도면이다.
도 5는 다양한 실시예에 따른 자세 값에 기초한 오디오 렌더링 동작을 설명하기 위한 도면이다.
도 6a 및 도 6b는 다양한 실시예에 따른 전자 장치와 음원 전자 장치의 구성도이다.
도 7은 다양한 실시예에 따른 제1 전자 장치의 역할 전환 방법을 도시한 흐름도이다.
도 8은 다양한 실시예에 따른 제2 전자 장치의 역할 전환 방법을 도시한 흐름도이다.
360도 오디오 시스템에서, 이어폰들은 좌 우측 귀에 소리를 제공하여, 사람이 오디오가 녹음된 때 실제로 들었을 소리를 모사(simulate)할 수 있다. 예를 들면 사용자가 180도 회전하면, 좌측 귀는 거의 우측 귀의 이전 위치에 있을 것이고, 우측 귀는 반대 위치에 있을 것이다. 360도 오디오 시스템에서, 우측 귀에서 이전에 들린 소리는 이제 좌측 귀에서 들릴 것이고, 좌측 귀는 이와 반대일 것이다. 이에 대해 도 4에서 보다 상세히 설명한다.
이어폰이라는 용어는 이어버드, 헤드폰, 이이폰을 통칭하는 것으로 이해될 수 있다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다. .
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
360도 오디오 시스템은, 전자 장치(101)일 수 있는 둘 이상의 이이폰(210 및 220) 및 외부 전자 장치 230을 포함할 수 있다. 이어폰(210 및 220)에 대한 설명에서 전자 장치(101)의 일부 기능 또는 구성을 생략(예: 디스플레이 모듈(160))할 수 있다. 외부 전자 장치(230)에 대한 설명 또한 일부 기능 또는 구성을 생략할 수 있다.
도 2는 다양한 실시예에 따른 전자 장치(210 및/또는 220)(예: 도 1의 전자장치(102))와 음원 전자 장치(230)(예: 도 1의 전자 장치(101))의 구성도(200)이다.
도 2를 참조하면, 전자 장치(210 및/또는 220)는 제1 전자 장치(210) 및/또는 제2 전자 장치(220)를 포함할 수 있다. 예를 들면 전자 장치(210 및/또는 220)는 사용자에게 착용될 수 있으며, 통신 기능을 통해 음원 전자 장치(230)로부터 수신된 오디오 데이터에 기초하여 사용자에게 소리를 제공할 수 있는 헤드폰(headphone), 이어폰(earphone), 및/또는 이어 버드(ear bud)를 포함할 수 있다. 이하 전자 장치(210 및/또는 220)가 포함하는 제1 전자 장치(210) 및 제2 전자 장치(220)가 각각 이어 버드로 구현된 예를 설명하나 다양한 실시예는 이에 한정되지 않을 수 있다.
쉬운 이해를 위해 전자 장치(210 및 220)은 이하 이어버드로도 칭할 수 있으나 본 개시는 이어버드에 한정되지 않으며, 이어버드는 전자 장치의 일 유형에 불과하다.
다양한 실시예에 따르면 음원 전자 장치(230)는 스마트 폰, 태블릿 PC, PMP(Portable Multimedia Player), PDA(Personal Digital Assistant), 랩탑 PC 및 웨어러블 기기(Wearable device)와 같은 휴대 및/또는 이동 가능한 전자 장치일 수 있다.
다양한 실시예에 따르면 음원 전자 장치(230)는 음악 또는 영상을 재생할 수하는 있는 전자 장치일 수 있으며 이에 따른 오디오 데이터를 전자 장치(210 및/또는 220)로 제공할 수 있다.
다양한 실시예에 따르면 전자 장치(210 및/도는 220)는 음원 전자 장치(230)와 무선 통신 연결될 수 있다. 예를 들면 음원 전자 장치(230)는 블루투스(또는, BLE), WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크를 포함하는 제1 통신 링크(201) 또는 제3 통신 링크(203)(예: 도 1의 제1 네트워크(198))를 이용하여 제1 전자 장치(210) 또는 제2 전자 장치(220)와 통신할 수 있다.
다양한 실시예에 따르면 제1 전자 장치(210)와 제2 전자 장치(220)는 제2 통신 링크(202)(예: 근거리 무선 통신 네트워크)를 이용하여 상호 통신할 수 있다.
일 실시예에 따르면, 전자 장치(210 및/또는 220) 중 하나가 프라이머리(primary)(예: 제1 전자 장치(210)) 역할을 수행하여 음원 전자 장치(230)와 통신 연결하고, 전자 장치(210 및/또는 220) 중 다른 하나(예: 제2 전자 장치(220))가 세컨더리(secondary) 역할을 수행하여 프라이머리인 제1 전자 장치(210)와 통신 연결할 수 있다. 제1 전자 장치(210)와 제2 전자 장치(220)가 이어버드로 구현되는 경우, 제1 전자 장치(210)는 PE(primary earbud, 또는 primary equipment), 제2 전자 장치(220)는 SE(secondary earbud, 또는 secondary equipment)로 지칭될 수 있다. 예를 들면 제1 전자 장치(210)는 프라이머리로서 제1 통신 링크(201)를 통해 음원 전자 장치(230)와 통신하고, 제2 전자 장치(220)는 세컨더리로서 제2 통신 링크(202)를 통해 제1 전자 장치(220)와 통신할 수 있다. 이 경우, 제2 전자 장치(220)와 음원 전자 장치(230) 간의 제3 통신 링크(203)는 유휴 상태 및/또는 연결되지 않은 상태일 수 있다. 예를 들어, 제2 전자 장치(220)는 세컨더리로서, 제1 전자 장치(210)와 음원 전자 장치(230) 간의 제1 통신 링크(201)를 스니핑(sniffing)하여, 음원 전자 장치(230)로부터 제1 전자 장치(210)로 전송되는 데이터를 획득할 수 있다.
이하, 전자 장치(210 및/또는 220) 중 제1 전자 장치(210)가 동작 초기에 프라이머리로서 제1 통신 링크(201)를 통해 음원 전자 장치(230)와 통신 연결하여 데이터를 송수신하고, 제2 전자 장치(220)는 세컨더리로서 제1 통신 링크(201)를 스니핑(sniffing)하여 데이터를 획득하는 경우를 예를 들어 설명할 수 있다. 이 경우, 음원 전자 장치(230)와의 제3 통신 링크(203)는 유휴 상태 및/또는 연결되지 않은 상태일 수 있다.
프라이머리 장치는 세컨더리 장치에 비해 많은 전력을 사용한다. 따라서, 시간이 지남에 따라, 프라이머리 장치는 세컨더리 장치에 비해 배터리 전력이 상당히 작아질 수 있다.
일 실시예에 따르면, 프라이머리인 제1 전자 장치(210)는 세컨더리인 제2 전자 장치(220))와의 역할 전환(role switch)을 수행할 수 있다. 이에 따라 이어버드는 배터리 용량을 충분하게 사용하여 프라이머리 전자 장치로서 동작할 수 있다. 따라서 이어버드 (210 및 220)은 보다 장시간 동작할 수 있다.
제1 전자 장치(210)는 역할 전환을 통해, 제2 전자 장치(220)가 프라이머리로 동작하여 음원 전자 장치(230)와 제3 통신 링크(203)를 통해 연결하고 통신하도록 할 수 있다. 예를 들면 제1 전자 장치(210)는 세컨더리로 역할을 전환하여 제2 통신 링크(202)를 통해 프라이머리인 제2 전자 장치(220)와 통신하고, 제3 통신 링크(203)에 대한 스니핑(sniffing)을 통해 음원 전자 장치(230)로부터 제2 전자 장치(220)로 전송되는 데이터를 획득할 수 있다. 예를 들면, 세컨더리로 역할 전환한 제2 전자 장치(220)는 음원 전자 장치(230)와의 제1 통신 링크(201)를 유휴 상태 및/또는 연결되지 않은 상태로 전환할 수 있다.
다른 실시예에 따르면, 제1 전자 장치(210)는 후술하는 다양한 실시예에 따른 센서 값 획득 및 이에 기초한 자세 값 산출 동작 수행에 있어서는 제2 전자 장치(220)와 역할 전환을 통해 제2 전자 장치(220)가 자세 값 산출 동작을 수행하도록 하되, 통신에 있어서는 제1 통신 링크(201)를 연결된 상태로 유지하며 음원 전자 장치(230)와 통신을 수행하는 프라이머리 장치로서 동작할 수도 있다. 예를 들면 제1 전자 장치(210)의 배터리 잔여량은 높으나 센서에 이상이 발생한 경우 센서 값 획득 및 이에 기초한 자세 값 산출 동작 수행은 제2 전자 장치(220)가 수행하도록 할 수 있다.
도 3은 다양한 실시예에 따른 전자 장치(예: 도 2의 제1 전자 장치(210), 제2 전자 장치(220) 및 음원 전자 장치(230))의 블록도이다.
다양한 실시예에 따르면 제1 전자 장치(210) 또는 제2 전자 장치(220) 각각은 센서 모듈(310 또는 320), 프로세서(311 또는 321), 메모리(312 또는 322), 통신 회로(313 또는 323), 마이크(314 또는 324), 스피커(315 또는 325), 전력 관리 회로(316 또는 326) 및/또는 배터리(317 또는 327)를 포함할 수 있다.
프로세서(311 또는 321)는, 예를 들면, 소프트웨어(예: 프로그램)를 실행하여 프로세서(311 또는 321)와 연결된 제1 전자 장치(210) 또는 제2 전자 장치(220)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다.
메모리(312 또는 322)는 제1 전자 장치(210) 또는 제2 전자 장치(220)의 적어도 하나의 구성요소(예: 프로세서(311 또는 321) 또는 센서 모듈(310 또는 320))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(312 또는 322)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다.
일 실시예에 따르면, 메모리(312 또는 322)는 프로세서(311 또는 321) 및/또는 통신 회로(313 또는 323)와 결합될 수 있다.
일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(311 또는 321)는 다른 구성요소(예: 센서 모듈(310 또는 320) 또는 통신 회로(313 또는 323))로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드하고, 휘발성 메모리에 로드된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다.
통신 회로(313 또는 323)는 제1 전자 장치(210) 또는 제 2 전자 장치(220) 각각과 음원 전자 장치(230) 및/또는 다른 전자 장치(예: 제2 전자 장치(220) 또는 제1 전자 장치(210))와의 통신 링크(예: 제1 통신 링크(301), 제2 통신 링크(302) 또는 제3 통신 링크(303))를 통한 통신 채널의 수립 및/또는 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다.
일 실시예에 따르면, 통신 회로(313 또는 323)는 무선 통신 모듈 (예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈을 포함할 수 있다.
일 실시예에 따르면, 통신 회로(313 또는 323)는 제1 통신 링크(301) 또는 제3 통신 링크(303)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 무선 통신 네트워크)를 통해 음원 전자 장치(230)와 통신할 수 있다.
일 실시예에 따르면, 통신 회로(313 또는 323)는 제2 통신 링크(302)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 무선 통신 네트워크)를 통해 제2 전자 장치(220) 또는 제1 전자 장치(210)와 통신할 수 있다.
통신 회로(313 또는 323)는 안테나 모듈을 포함할 수 있다. 통신 회로(313 또는 323)의 안테나 모듈은 신호 및/또는 전력을 외부(예: 음원 전자 장치(230))로 송신하거나 외부로부터 수신할 수 있다. 일 실시예에 따르면, 통신 회로(313 또는 323)의 안테나 모듈은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다.
일 실시예에 따르면, 안테나 모듈은 복수의 안테나들을 포함할 수 있다. 이 경우, 복수의 안테나들 중에서, 제1 통신 링크(301), 제2 통신 링크(302) 및/또는 제3 통신 링크(303)와 같은 무선 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가 통신 회로(313 또는 323)에 의해 선택될 수 있다. 신호 또는 전력은 선택된 적어도 하나의 안테나를 통하여 통신 회로(313 또는 323)와 외부 전자 장치(예: 음원 전자 장치(230)) 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈의 일부로 형성될 수 있다.
센서 모듈(310 또는 320)은 가속도 센서(318 또는 328) 및 자이로 센서(319 또는 329)를 포함할 수 있다. 가속도 센서(318 또는 328) 및/또는 자이로 센서(319 또는 329)는, 제1 전자 장치(210) 또는 제2 전자 장치(220)의 움직임 및/또는 관성을 감지할 수 있다. 가속도 센서(318 또는 328) 및/또는 자이로 센서(319 또는 329)는 가속도 센서(318 또는 328) 및/또는 자이로 센서(319 또는 329)의 동작을 제어하는 회로(예, integrated circuit, IC)를 포함할 수 있다. 예를 들면 가속도 센서(318 또는 328) 및/또는 자이로 센서(319 또는 329)의 동작을 제어하는 회로(예, integrated circuit, IC)는 제1 전자 장치(210) 또는 제2 전자 장치(220)에 포함될 수 있고, 프로세서(311 또는 312)로 구현될 수 있다.
일 실시예에 따르면 프로세서(311 또는 321)는 센서 모듈(310 또는 320)의 가속도 센서(318 또는 328) 및/또는 자이로 센서(319 또는 329)로부터 획득된 센서 값에 기초하여 자세 값을 산출할 수 있다. 예를 들어 자세 값은 요우(yaw), 피치(pitch), 및 롤(roll) 값에 기초하여 표현될 수 있다.
일 실시예에 따르면 스피커(315 또는 325)는 오디오 신호를 제1 전자 장치(210) 또는 제2 전자 장치(220)의 외부로 출력할 수 있다.
마이크(314 또는 324)는 획득한 소리를 전기 신호로 변환시킬 수 있다. 프로세서(311 또는 321)는 무선으로 연결된 음원 전자 장치(230)로부터 수신한 오디오 데이터에 기초하여 프로세서(311 또는 312)에 의해 처리된 전기적 신호를 소리로 출력할 수 있다.
전력 관리 회로(316 또는 326)는 제1 전자 장치(210) 또는 제2 전자 장치(210)에 공급되는 전력을 관리할 수 있다. 전력 관리 회로(316 또는 326)는 배터리(317 또는 327)가 제1 전자 장치(210) 또는 제2 전자 장치(220)의 각 구성요소에 필요한 전력을 공급할 수 있도록 제어할 수 있다. 전력 관리 회로(316 또는 326)는 배터리(317 또는 327)의 충전 상태를 제어할 수 있다.
전력 관리 회로(316 또는 326)는 외부 전원으로부터 공급되는 전력을 이용하여 배터리(317 또는 327)를 충전할 수 있다.
일 실시예에 따르면, 전력 관리 회로(316 또는 326)는 외부 전원의 종류(예: 전원 어댑터, USB 또는 무선 충전), 외부 전원으로부터 공급 가능한 전력의 크기 및/또는 배터리(317 또는 327)의 속성 중 적어도 일부에 기반하여 충전 방식(예: 일반 충전 또는 급속 충전)을 선택하고, 선택된 충전 방식을 이용하여 배터리(317 또는 327)를 충전할 수 있다. 외부 전원은 제1 전자 장치(210) 또는 제2 전자 장치(220)와, 예를 들면, 커넥터 핀을 통해 유선 연결되거나, 또는 통신 회로(313 또는 323)에 포함된 안테나를 통해 무선으로 연결될 수 있다.
전력 관리 회로(316 또는 326)는 배터리(317 또는 327)의 충전과 관련된 충전 상태 정보(예: 수명, 과전압, 저전압, 과전류, 과충전, 과방전(over discharge), 과열, 단락, 또는 팽창(swelling))를 결정하고, 결정된 충전 상태 정보에 기반하여 배터리(317 또는 327)의 충전 동작을 제어할 수 있다.
일 실시예에 따르면 프로세서(311 또는 321)는 전력 관리 회로(316 또는 326)를 통해 배터리(317 또는 327)의 잔여 전력 레벨(battery residual capacity level)을 확인할 수 있다.
배터리(317 또는 327)는 제1 전자 장치(210) 또는 제2 전자 장치(220)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일 실시예에 따르면, 배터리(317 또는 327)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 및/또는 연료 전지를 포함할 수 있다.
다양한 실시예에 따르면, 음원 전자 장치(230)는 스마트 폰, 태블릿 PC, PMP(Portable Multimedia Player), PDA(Personal Digital Assistant), 랩탑 PC 및 웨어러블 기기(Wearable device)와 같은 휴대 및/또는 이동 가능한 전자 장치일 수 있다.
다양한 실시예에 따르면, 음원 전자 장치(230)는 음악 또는 영상을 재생할 수하는 있는 전자 장치일 수 있으며 이에 따른 오디오 데이터를 제1 전자 장치(210) 및/또는 제2 전자 장치(220)로 제공할 수 있다. 음원 전자 장치(230)는 도 1의 전자 장치(101)의 구성 요소 중 적어도 일부와 동일 또는 유사한 구성 요소를 포함할 수 있다.
일 실시예에 따르면 음원 전자 장치(230)는 프로세서(331), 메모리(332), 통신 회로(333) 및 센서 모듈(330)을 포함할 수 있다.
프로세서(331)는, 예를 들면, 소프트웨어(예: 프로그램)를 실행하여 프로세서(311 또는 321)와 연결된 음원 전자 장치(230)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다.
메모리(332)는 음원 전자 장치(230)의 적어도 하나의 구성요소(예: 프로세서(331) 또는 통신 회로(333))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(332)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다.
일 실시예에 따르면, 메모리(332)는 좌표 계산 앱 및/또는 헤드 트레킹 음향 솔루션(head tracking audio solution)을 실행하기 위한 명령어들을 저장할 수 있다.
일 실시예에 따르면, 메모리(332)는 프로세서(331) 및/또는 통신 회로(333)와 결합될 수 있다.
일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(331)는 다른 구성요소(예: 메모리(332) 또는 통신 회로(323))로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드하고, 휘발성 메모리에 로드된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다.
통신 회로(333)는 음원 전자 장치(230)와 제1 전자 장치(210) 또는 제 2 전자 장치(220)와의 통신 링크(예: 제1 통신 링크(301) 또는 제3 통신 링크(303))를 통한 통신 채널의 수립 및/또는 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다.
일 실시예에 따르면, 통신 회로(333)는 무선 통신 모듈 (예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈을 포함할 수 있다.
일 실시예에 따르면, 통신 회로(333)는 제1 통신 링크(301) 또는 제3 통신 링크(303)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 무선 통신 네트워크)를 통해 제1 전자 장치(210) 또는 제2 전자 장치(220)와 통신할 수 있다.
다양한 실시예에 따르면, 프로세서(331)는 제1 통신 링크(301) 또는 제3 통신 링크(303)를 통해 제1 전자 장치(210) 또는 제2 전자 장치(220)로부터 수신된 자세 값에 기초하여 오디오 데이터를 렌더링하고, 렌더링된 오디오 데이터를 제1 통신 링크(301) 또는 제3 통신 링크(303)를 통해 제1 전자 장치(210) 또는 제2 전자 장치(220)로 전송할 수 있다.
다양한 실시예에 따르면, 프로세서(331)는 메모리(332)에 저장된 좌표 계산 앱을 실행하기 위한 명령어들을 로딩하여 좌표 계산 앱을 실행하고 제1 전자 장치(210) 또는 제2 전자 장치(220)로부터 수신된 자세 값에 기초하여 사용자의 머리(예: 제1 전자 장치(210) 및/또는 제2 전자 장치(220)를 착용한 사용자의 머리)의 자세 값을 추정할 수 있다.
일 실시예에 따르면 제1 전자 장치(210) 또는 제2 전자 장치(220)로부터 수신된 자세 값은 요우(yaw), 피치(pitch), 및 롤(roll) 값에 기초하여 표현될 수 있다. 제1 전자 장치(210) 또는 제2 전자 장치(220)로부터 수신된 자세 값은 사용자의 귀 내에 삽입된 제1 전자 장치(210) 또는 제2 전자 장치(220)의 자세 정보를 나타낼 수 있다.
도 4는 다양한 실시예에 따른 자세 값 산출 동작을 설명하기 위한 도면이다.
도 4를 참조하면, 자세 값은 예를 들면 요우(yaw), 피치(pitch), 및 롤(roll) 값과 같은 방위각 변화량으로 표현될 수 있다. 롤(roll) (410)은 사용자의 머리가 x축을 기준으로 회전하는 회전량을 표현하는 값일 수 있으며, 피치(pitch) (420)는 사용자의 머리가 y축을 기준으로 회전하는 회전량을 표현하는 값일 수 있고, 요우(yaw) (430)는 사용자의 머리가 z축을 기준으로 회전하는 회전량을 표현하는 값일 수 있다.
일 실시예에 따르면, 프로세서(331)는 좌표 계산 앱을 실행하고, 제1 전자 장치(210) 또는 제2 전자 장치(220)의 움직임에 따른 자세에 대응할 수 있는 자세 값에 대해, 예를 들면 좌표계 변환을 통해 사용자의 머리 움직임에 따른 자세 정보를 나타내는 자세 값을 산출할 수 있다. 이경우 오일러각, 회전 행렬 또는 쿼터니언 방식을 이용하여 제1 전자 장치(210) 또는 제2 전자 장치(220)의 자세 값을 나타내고 좌표계 변환을 통해 사용자의 머리의 자세 값을 산출할 수 있다. 이하 쿼터니언 방식에 따른 좌표계 변환 방식에 따라 자세 값 산출 동작을 설명하나 본 실시예는 이에 한정되지 않는다.
쿼터니언 방식에 따르면 A좌표계에서 B 좌표계로 변환하기 위한 회전량(또는 B좌표계를 기준으로 표현된 A좌표계)은 다음과 같은 수학식 1과 같이 쿼터니언 식으로 표현할 수 있다.
Figure PCTKR2022000066-appb-M000001
다양한 실시예에 따르면 프로세서(331)는 오디오 렌더링 수행시 사용자의 머리 움직임에 기반하여 오디오를 렌더링 하거나 사용자의 머리 움직임과 음원 전자 장치(230)의 움직임에 모두 기반하여 렌더링할 수 있다.
일 실시예에 따라, 프로세서(331)가 사용자의 머리 움직임에 기반하여 오디오 렌더링을 수행하는 경우, 쿼터니언 방식에 따른 지구 로컬 좌표계(navigation frame)에서 표현된 사용자의 머리의 자세 값
Figure PCTKR2022000066-appb-I000001
를 산출할 수 있다. 제1 전자 장치(210) 및/또는 제2 전자 장치(220)가 착용 상태인 경우, 사용자의 머리와 제1 전자 장치(210) 및/또는 제2 전자 장치(220)는 움직임이 함께 발생하므로 상대적 자세 값은 상수값이 될 수 있다. 이러한 상대적 자세 값은 제1 전자 장치(210) 및/또는 제2 전자 장치(220)의 기구적 특성에 따라 결정되는 값으로서, 일반적인 착용 상태를 기준으로 사전에 측정하여 결정된 상대적 자세 값
Figure PCTKR2022000066-appb-I000002
로서 메모리(332)에 미리 저장될 수 있다.
일 실시예에 따르면, 프로세서(331)는 제1 전자 장치(210) 또는 제2 전자 장치(220)에서 전송된 자세 값
Figure PCTKR2022000066-appb-I000003
(지구 로컬 좌표계에서 표현된 제1 전자 장치(210) 또는 제2 전자 장치(220)의 자세 값)에 대해, 사용자의 머리와 제1 전자 장치(210) 또는 제2 전자 장치(220)의 착용 상태에 따른 상대적 자세에 따라 결정되는 상수 값인 상대적 자세 값을 적용하여 산출할 수 있다. 프로세서(331)는 지구 로컬 좌표계에서 표현된 제1 전자 장치(210) 또는 제2 전자 장치(220)의 자세값
Figure PCTKR2022000066-appb-I000004
과 메모리(332)에 저장된 상대적 자세 값
Figure PCTKR2022000066-appb-I000005
를 이용하여 사용자의 머리 자세 값 (지구 로컬 좌표계에서 표현된 사용자 머리 자세값)
Figure PCTKR2022000066-appb-I000006
를 다음과 같은 쿼터니언 수학식 2에 따라 계산할 수 있다.
Figure PCTKR2022000066-appb-M000002
다른 실시예에 따르면, 프로세서(331)가 사용자의 머리 움직임 및 음원 전자 장치(230)의 움직임에 기반하여 오디오 렌더링을 수행하는 경우, 쿼터니언 방식에 따른 음원 전자 장치(230) 좌표계에서 표현된 사용자의 머리의 자세 값
Figure PCTKR2022000066-appb-I000007
을 산출할 수 있다. 이경우 사용자의 머리가 움직여도 음상이 변화할 수 있고 음원 전자 장치(230)가 움직여도 음상이 변화할 수 있다.
예를 들면, 프로세서(331)는 음원 전자 장치(230)의 센서 모듈(예: 도 1의 센서 모듈(176))의 가속도 센서 및/또는 자이로 센서를 통해 센서 값을 획득하고 이에 기초하여 음원 전자 장치(230)의 자세 값 (지구 로컬 좌표계에서 표현된 음원 전자 장치(230)의 자세 값)
Figure PCTKR2022000066-appb-I000008
를 산출할 수 있다. 프로세서(331)는 음원 전자 장치(230)의 자세 값
Figure PCTKR2022000066-appb-I000009
과, 제1 전자 장치(210) 또는 제2 전자 장치(220)의 자세값
Figure PCTKR2022000066-appb-I000010
및 이로부터 사용자의 머리 자세 값
Figure PCTKR2022000066-appb-I000011
을 도출하기 위한 상대적 자세 값 상수
Figure PCTKR2022000066-appb-I000012
을 이용하여 음원 전자 장치(230) 좌표계에서 표현된 사용자의 머리의 자세 값
Figure PCTKR2022000066-appb-I000013
을 다음과 같은 쿼터니언 수학식 3에 따라 산출할 수 있다. 여기서,
Figure PCTKR2022000066-appb-I000014
Figure PCTKR2022000066-appb-I000015
의 켤레 쿼터니언(conjugate)에 해당한다. 켤레 쿼터니언은 쿼터니언의 반대 회전을 하는 쿼터니언으로서, 예를 들면
Figure PCTKR2022000066-appb-I000016
을 (w, i, j, k)로 나타낼 때,
Figure PCTKR2022000066-appb-I000017
는 (w, -i, -j, -k)로 나타낼 수 있다.
Figure PCTKR2022000066-appb-M000003
일 실시예에 따르면, 프로세서(331)는 메모리(332)에 저장된 헤드 트레킹 음향 솔루션을 실행하기 위한 명령어들을 로딩하고, 추정된 자세 값을 이용하여 재생하고자 하는 음향에 공간감을 부여하기 위해 예를 들면 좌우 밸런스를 조절하는 렌더링을 수행할 수 있다. 프로세서(331)는 렌더링이 수행된 오디오 데이터를 제1 전자 장치(210) 및/또는 제2 전자 장치(220)를 통해 출력하도록 하여, 사용자에게 음향의 공간감을 제공함으로써 사용자가 실제 공간에 있는 음원으로부터 직접 소리를 듣는 듯한 경험을 제공하도록 할 수 있다. 이에 대해서는 도 5를 참조하여 상세히 후술한다.
센서 모듈(330)은 가속도 센서(338) 및 자이로 센서(339)를 포함할 수 있다. 가속도 센서(338) 및/또는 자이로 센서(339)는, 음원 전자 장치(230)의 움직임 및/또는 관성을 감지할 수 있다. 가속도 센서(338) 및/또는 자이로 센서(339)는 가속도 센서(338) 및/또는 자이로 센서(339)의 동작을 제어하는 회로(예, integrated circuit, IC)를 포함할 수 있다. 예를 들면 가속도 센서(338) 및/또는 자이로 센서(339)의 동작을 제어하는 회로(예, integrated circuit, IC)는 음원 전자 장치(230)에 포함될 수 있고, 프로세서(331)로 구현될 수 있다.
일 실시예에 따르면 프로세서(331)는 센서 모듈(330)의 가속도 센서(338) 및/또는 자이로 센서(339)로부터 획득된 센서 값에 기초하여 자세 값을 산출할 수 있다. 예를 들어 자세 값은 요우(yaw), 피치(pitch), 및 롤(roll) 값에 기초하여 표현될 수 있다.
일 실시예에 따르면, 프로세서(331)는 제1 통신 링크(301) 또는 제3 통신 링크(303)를 통해 제1 전자 장치(210) 또는 제2 전자 장치(220)로부터 수신된 자세 값과 센서 모듈(330)의 가속도 센서(338) 및/또는 자이로 센서(339)로부터 획득된 센서 값에 기초하여 산출된 자세 값에 기초하여, 오디오 데이터를 렌더링하고 렌더링된 오디오 데이터를 제1 통신 링크(301) 또는 제3 통신 링크(303)를 통해 제1 전자 장치(210) 또는 제2 전자 장치(220)로 전송할 수 있다.
상술한 바와 같이, 자세 값을 결정하기 위한 계산의 복잡성으로 배터리(317 및 327)로부터의 전력 소모가 많을 수 있다. 따라서 전자 장치(210 및 220) 중 프라이머리로 동작하는 전자 장치의 전력 사용이 더 많으며, 시간에 따라 잔여 배터리 전력의 차이가 발생한다. 전자 장치(210 및 220)의 사용 시간을 증가시키기 위해 제1 전자 장치(210)와 제2 전자 장치(220)의 역할이 전환될 수 있다.
도 5는 다양한 실시예에 따른 자세 값에 기초한 오디오 렌더링 동작을 설명하기 위한 도면으로서, 음원 전자 장치(예: 도 2 또는 도 3의 음원 전자 장치(230))의 기능적 구성 요소 및 정보의 흐름을 나타낸다.
도 5를 참조하면, 음원 전자 장치(230)는 블루투스 통신 모듈(550)(예: 도 3의 통신 회로(333))을 이용하여 제1 전자 장치(예: 도 2 또는 도 3의 제1 전자 장치(210)) 또는 제2 전자 장치(예: 도 2 또는 도 3의 제2 전자 장치(220))로부터 제1 자세 값(510)(
Figure PCTKR2022000066-appb-I000018
)을 수신할 수 있다. 일 실시예에 따르면, 수신된 자세 값(510)은 서비스 모듈(565)을 거쳐 어플리케이션(560)으로 전송될 수 있다.
일 실시예에 따르면, 센서 모듈(570)(예: 도 3의 센서 모듈(330))은 음원 전자 장치(230)의 제2 자세 값(530)(
Figure PCTKR2022000066-appb-I000019
)을 생성할 수 있고, 센서 모듈(570)에서 생성된 제2 자세 값(530)은 서비스 모듈(565)을 거쳐 어플리케이션(560)으로 전송될 수 있다. 어플리케이션(560)은, 예를 들면, 3차원 음향 서비스를 제공하는 어플리케이션일 수 있다.
일 실시예에 따르면, 어플리케이션(560)은 서비스 모듈(565)로 센서 모듈(570)에 대한 제어 신호(520)를 생성하고, 전송할 수 있다. 서비스 모듈(565)은 어플리케이션(560)으로부터 수신한 제어 신호(520)에 기초하여 센서 모듈(570)을 제어할 수 있다.
일 실시예에 따르면, 어플리케이션(560)은 제1 자세 값(510) 및 제2 자세 값(530)에 기초하여, 예를 들면 수학식 2를 이용하여, 사용자 머리의 자세 값인 제3 자세 값(540)(
Figure PCTKR2022000066-appb-I000020
)을 생성하거나, 수학식 3을 이용하여, 음원 전자 장치(230)의 좌표 값에 기초한 사용자 머리의 자세 값인 제3 자세 값(540)(
Figure PCTKR2022000066-appb-I000021
)을 생성할 수 있다.
일 실시예에 따르면, 어플리케이션(560)은 생성한 제3 자세 값(540)을 3차원 음향 모듈(590)로 전송할 수 있다. 일 실시예에 따르면, 어플리케이션(560)은 3차원 음향 모듈(590)로 활성화 제어 신호(545)를 전송하여 3차원 음향 서비스의 활성화를 제어할 수 있다. 활성화된 3차원 음향 모듈(590)은 수신한 제3 자세 값(540)에 기초하여, 미디어 재생 모듈(580)로부터 수신한 오디오 데이터를 렌더링 하고, 블루투스 통신 모듈(550)로 전송할 수 있다. 일 실시예에 따르면, 블루투스 통신 모듈(550)은 렌더링된 오디오 데이터(595)를 제1 전자 장치(210) 및/또는 제2 전자 장치(220)로 전송할 수 있다.
도 6a 및 도 6b는 다양한 실시예에 따른 전자 장치(예: 도 2 또는 도 3의 제1 전자 장치(210) 및 제2 전자 장치(220)와 음원 전자 장치(예: 도 2 또는 도 3의 음원 전자 장치(230))의 구성도이다. 도 6a에서는, 제1 전자 장치(210)가 프라이머리 역할을 수행하여, 제1 전자 장치(210)가 제2 전자 장치(220)의 잔여 배터리 용량과 자신의 잔여 배터리 용량을 비교한다. 제2 전자 장치(220)의 잔여 배터리 용량이 제1 전자 장치(210)의 잔여 배터리 용량을 초과하면 제1 전자 장치(210)와 제2 전자 장치(220)는 역할 전환을 수행하여, 도 6b에 도시된 바와 같이 제2 전자 장치(220)가 프라이머리로 동작하도록 할 수 있다.
도 6a 및 도 6b를 참조하면, 제1 전자 장치(210) 및 제2 전자 장치(220)는 사용자에게 착용될 수 있으며, 통신 기능을 통해 음원 전자 장치(230)로부터 수신된 오디오 데이터에 기초하여 사용자에게 소리를 제공할 수 있는 헤드폰(headphone), 이어폰(earphone), 및/또는 이어 버드(ear bud)를 포함할 수 있다. 이하 제1 전자 장치(210) 및 제2 전자 장치(220)가 각각 이어 버드로 구현된 예를 설명하나 다양한 실시예는 이에 한정되지 않을 수 있다.
다양한 실시예에 따르면 음원 전자 장치(230)는 스마트 폰, 태블릿 PC, PMP(Portable Multimedia Player), PDA(Personal Digital Assistant), 랩탑 PC 및 웨어러블 기기(Wearable device)와 같은 휴대 및/또는 이동 가능한 전자 장치일 수 있다.
다양한 실시예에 따르면 음원 전자 장치(230)는 음악 또는 영상을 재생할 수하는 있는 전자 장치일 수 있으며 이에 따른 오디오 데이터를 제1 전자 장치(210) 및/또는 제2 전자 장치(220)로 제공할 수 있다.
일 실시예에 따르면, 제1 전자 장치(210)가 프라이머리 역할을 수행하여 음원 전자 장치(230)와 통신 연결하고, 제2 전자 장치(220)가 세컨더리 역할을 수행하여 프라이머리인 제1 전자 장치(210)와 통신 연결할 수 있다.
도 6a를 참조하면 제1 전자 장치(210)는 프라이머리 역할을 수행하여 음원 전자 장치(230)와 제1 통신 링크(601)를 통해 무선 통신 연결될 수 있다. 예를 들면 제1 전자 장치(210) 블루투스(또는, BLE), WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크를 포함하는 제1 통신 링크(601)(예: 도 1의 제1 네트워크(198))를 통해 음원 전자 장치(230)와 통신할 수 있다.
다양한 실시예에 따르면 제1 전자 장치(210)는 제2 전자 장치(220)와 제2 통신 링크(602)(예: 근거리 무선 통신 네트워크)를 이용하여 통신할 수 있다.
일 실시예에 따르면 제1 전자 장치(210)는 센서 모듈(예: 도 3의 센서 모듈(310))의 가속도 센서(예: 도 3의 가속도센서(318)) 및/또는 자이로 센서(예: 도 3의 자이로 센서(319))에 의해 획득된 센서 값에 기초하여 자세 값을 산출할 수 있다. 예를 들어 자세 값은 요우(yaw), 피치(pitch), 및 롤(roll) 값에 기초하여 표현될 수 있다.
다양한 실시예에 따르면 음원 전자 장치(230)는 제1 전자 장치(210)로부터 수신된 자세 값에 기초하여 오디오 데이터를 렌더링하고 렌더링된 오디오 데이터를 제1 전자 장치(210)로 전송할 수 있다. 제1 전자 장치(210)로부터 수신된 자세 값에 기초하여 음원 전자 장치(230)가 사용자의 머리 자세 값, 또는 음원 전자 장치(230)의 자세 값에 대한 사용자의 머리 자세 값을 산출하고 이에 따라 오디오 데이터를 렌더링하는 동작에 대해서는 도 3을 참조하여 상세히 기재하였으며 여기서는 생략한다.
다양한 실시예에 따르면 제1 전자 장치(210)는 제2 전자 장치(220)와 제2 통신 링크(602)를 통해 통신하며, 제2 전자 장치(220)가 음원 전자 장치(230)로부터 수신되는 오디오 데이터를 제1 통신 링크(601)를 스니핑하여 획득하도록 할 수 있다. 다양한 실시예에 따르면 제1 전자 장치(210)는 제2 통신 링크(602)를 통해 제2 전자 장치(220)를 제어하여, 수신된 오디오 데이터를 함께 출력하도록 할 수 있다.
다양한 실시예에 따르면 제1 전자 장치(210)는 배터리(예: 도 3의 배터리(317))의 배터리 잔여량(예: 잔여 전력 레벨)을 확인할 수 있다. 예를 들면 제1 전자 장치(210)는 전력 관리 회로(예: 도 3의 전력 관리 회로(316))를 통해 배터리(317)의 배터리 잔여량을 확인할 수 있다.
다양한 실시예에 따르면 제1 전자 장치(210)는 제2 통신 링크(602)를 통해 제2 전자 장치(220)로부터 제2 전자 장치(220)의 배터리 잔여량 정보를 수신할 수 있다.
다양한 실시예에 따르면 제1 전자 장치(210)는 자신의 장치 상태 정보에 기초하여 프라이머리와 세컨더리 역할 전환을 결정 할 수 있다. 예를 들면 제1 전자 장치(210)는 배터리(317) 상태 또는 센서 모듈(310) 상태에 기초하여 프라이머리와 세컨더리 역할 전환을 결정 할 수 있다.
다양한 실시예에 따르면 제1 전자 장치(210)는 자신의 장치 상태 정보와 추가로 제2 전자 장치(220)의 장치 상태 정보에 기초하여 프라이머리와 세컨더리 역할 전환을 결정 할 수 있다. 예를 들면 제1 전자 장치(210)는 자신의 배터리(317) 상태와 제2 전자 장치(220)의 배터리(327) 상태에 기초하여 프라이머리와 세컨더리 역할 전환을 결정 할 수 있다.
일 실시예에 따르면 제1 전자 장치(210)는 자신의 배터리 잔여량과 제2 전자 장치(220)의 배터리 잔여량을 비교하고 그 차이가 문턱값 이상이면 프라이머리와 세컨더리 역할 전환을 결정할 수 있다.
일 실시예에 따르면 제1 전자 장치(210)는 자신의 센서 모듈(310)의 가속도센서(318) 및/또는 자이로 센서(319)의 센서 이상 발생시 프라이머리와 세컨더리 역할 전환을 결정할 수 있다. 예를 들면 제1 전자 장치(210)는 가속도 센서(318) 및/또는 자이로 센서(319)의 센서 값이 일정 시간 이상 동일하거나 센서 값이 출력되지 않는 경우 센서 이상이 발생한 것으로 확인할 수 있다.
다양한 실시예에 따르면 제1 전자 장치(210)는 역할 전환이 결정되면 제2 통신 링크(602)를 통해 제2 전자 장치(220)에 역할 전환 준비를 요청할 수 있다.
다양한 실시예에 따르면 제1 전자 장치(210)의 역할 전환 준비 요청에 따라, 제2 전자 장치(220)는 세컨더리 역할이 아닌 프라이머리 역할을 수행하기 위한 관련 동작들을 수행할 수 있다. 예를 들면 제2 전자 장치(220)는 센서 모듈(예: 도 3의 센서 모듈(320))의 가속도 센서(예: 도 3의 가속도 센서(328)) 및/또는 자이로 센서(예: 도 3의 자이로 센서(329))를 활성화하여 센서 값을 획득할 수 있다. 예를 들면 제2 전자 장치(220)는 센서 모듈(320))을 통해 획득된 센서 값에 기초하여 자세 값을 산출할 수 있다.
다양한 실시예에 따르면 제2 전자 장치(220)는 자세 값 산출 동작을 시작하고 지정된 시간 경과 후 또는 제1 전자 장치(210)에서 역할 전환 메시지를 수신하면 프라이머리 역할 수행을 시작할 수 있다.
다양한 실시예에 따르면 제1 전자 장치(210)는 지정된 시간 경과 후 또는 제2 전자 장치(220)의 역할 수행 준비가 수행되면 음원 전자 장치(230)로 역할 전환이 수행됨을 알릴 수 있다. 일 실시예에 따르면 제1 전자 장치(210)는 제2 전자 장치(220)에 역할 전환을 수행하도록 역할 전환 메시지를 전송하고 자신은 세컨더리로 역할을 전환할 수 있다.
도 6b를 참조하면, 제2 전자 장치(220)는 역할 전환을 수행함에 따라 음원 전자 장치(230)와 제3 통신 링크(603) (예: 도 1의 제1 네트워크(198))를 수립 또는 연결하여 통신을 수행할 수 있다. 예를 들면 제3 통신 링크(603)는 유휴 상태에서 연결 상태로 전환 또는 새로 수립될 수 있다.
일 실시예에 따르면 제2 전자 장치(220)는 프라이머리로서 제3 통신 링크(603)를 통해 음원 전자 장치(230)와 통신하여 산출된 자세 값을 전송하고 자세값에 기초하여 렌더링된 오디오 데이터를 음원 전자 장치(230)로부터 수신할 수 있다.
일 실시예에 따르면, 음원 전자 장치(230)는 제2 전자 장치(220)와 제3 통신 링크(603)를 통해 통신하여 제2 전자 장치(220)의 자세 값을 수신하고 이에 기초하여 오디오 데이터를 렌더링할 수 있다.
일 실시예에 따르면 음원 전자 장치(230)의 프로세서(예: 도 3의 프로세서(331))가 제1 전자 장치(210)의 자세 값에 기초하여 오디오를 렌더링하는 중 역할 전환에 따라 제2 전자 장치(220)의 자세 값에 기초하여 오디오를 렌더링하는 경우, 자세 값 계산 방식이 달라질 수 있다. 예를 들면 이어 버드의 좌측 또는 우측 유닛의 자세 값에 기초하여 사용자의 머리 자세 값
Figure PCTKR2022000066-appb-I000022
을 계산하는 수학식은, 수학식 2를 참조하면, 다음과 같은 쿼터니언 수학식 4에 따라 좌측 유닛의 자세 값
Figure PCTKR2022000066-appb-I000023
에 대해서는 좌측 유닛과 사용자 머리의 상대적 자세 값
Figure PCTKR2022000066-appb-I000024
을 적용함으로써 계산하거나, 우측 유닛의 자세 값
Figure PCTKR2022000066-appb-I000025
에 대해서는 우측 유닛과 사용자 머리의 상대적 자세 값
Figure PCTKR2022000066-appb-I000026
을 적용함으로써 계산할 수 있다.
Figure PCTKR2022000066-appb-M000004
좌측 유닛과 사용자 머리의 상대적 자세 값
Figure PCTKR2022000066-appb-I000027
및 우측 유닛과 사용자 머리의 상대적 자세 값
Figure PCTKR2022000066-appb-I000028
은 제1 전자 장치(210) 및/또는 제2 전자 장치(220)의 기구적 특성에 따라 결정되는 값으로서, 일반적인 착용 상태를 기준으로 사전에 측정하여 메모리(예: 도 3의 메모리(332))에 미리 저장될 수 있다.
일 실시예에 따르면, 수학식 4를 참조하면, 좌측 유닛에서 우측 유닛으로 또는 우측 유닛에서 좌측 유닛으로 프라이머리 역할 전환에 따라, 사용자의 머리 자세 값을 산출하기 위해 상이한 상대적 자세 값을 적용할 수 있다. 이경우 좌측 유닛과 우측 유닛이 자세 값을 측정하기 시작한 시점이 다르므로, 좌측 유닛과 우측 유닛의 방위각을 산출하는 기준 좌표가 달라짐에 따라 절대 방위각은 서로 일치하지 않을 수 있다. 따라서, 적용하는 상대적 자세 값이 특정 시점에 달라짐에 따라 렌더링되는 음상이 틀어지지 않고 매끄럽게 연결되도록 하기 위해 음원 전자 장치(230)의 프로세서(331)는 다음과 같은 동작을 수행할 수 있다.
일 실시예에 따르면 음원 전자 장치(230)의 프로세서(331)는 예를 들면 이어 버드의 좌측 유닛 및 우측 유닛의 역할 전환이 발생할 때 변환된 유닛의 방위각 변화량을 계산하고 출력되는 방위각에 더해줌으로써 변화된 현재 자세 값을 계산할 수 있다.
예를 들면 프로세서(331)는 좌측 유닛과 우측 유닛의 자세에 따라 추정된 사용자 머리의 방위각이 각각 YawL 및 YawR 일 때, 오디오 렌더링을 위한 방위각 값 Yawoutput 은 다음과 같은 수학식 5에 따라 산출할 수 있다.
Figure PCTKR2022000066-appb-M000005
따라서, 좌측 및 우측 유닛에서 추정된 방위각이 아닌, 이전 방위각 출력값에 대한 해당 시점의 방위각 변화량이 방위각 출력값에 반영되므로, 기준 시점이 서로 다른 두 방위각이 사용되더라도 출력 값 Yawoutput 은 연속적으로 누적된 방위각 변화량을 나타내는 값이 될 수 있어, 이에 기초하여 오디오 렌더링을 수행하면 역할 전환에도 불구하고 렌더링되는 음상이 틀어지지 않고 매끄럽게 연결될 수 있다.
일 실시예에 따르면 제1 전자 장치(210)는 음원 전자 장치(230)와의 제1 통신 링크(601)를 유휴 상태로 전환 또는 연결 해제할 수 있다. 예를 들면, 세컨더리로 역할 전환한 제1 전자 장치(210)는 음원 전자 장치(230)와의 제1 통신 링크(201)를 유휴 상태 및/또는 연결되지 않은 상태로 전환할 수 있다.
일 실시예에 따르면 제1 전자 장치(210)는 세컨더리로서 제2 통신 링크(602)를 통해 제2 전자 장치(220)와 통신하며, 제2 전자 장치(220)와 음원 전자 장치(230) 간의 제3 통신 링크(603)를 스니핑(sniffing)하여, 음원 전자 장치(230)로부터 제2 전자 장치(220)로 전송되는 오디오 데이터를 획득할 수 있다. 예를 들면 제1 전자 장치(210)는 센서 모듈(310)의 적어도 일부를 비활성화 또는 절전 모드로 전환할 수 있다. 예를 들면 제1 전자 장치(210)는 자이로 센서(319)를 비활성화 또는 절전 모드로 전환할 수 있다.
다른 실시예에 따르면, 제1 전자 장치(210)는 센서 값 획득 및 이에 기초한 자세 값 산출 동작 수행에 있어서는 제2 전자 장치(220)와 역할 전환을 통해 제2 전자 장치(220)가 자세 값 산출 동작을 수행하도록 하되, 통신에 있어서는 제1 통신 링크(601)를 연결된 상태로 유지하며 음원 전자 장치(230)와 통신을 수행하는 프라이머리 장치로서 동작할 수도 있다. 예를 들면 제1 전자 장치(210)의 배터리 잔여량은 높으나 센서에 이상이 발생한 경우 센서 값 획득 및 이에 기초한 자세 값 산출 동작 수행은 제2 전자 장치(220)가 수행하도록 할 수 있다.
일 실시예에 따른 전자 장치(예: 도 3의 제1 전자 장치(210))은 메모리(예: 도 3의 메모리(312)), 배터리(예: 도 3의 배터리(317)), 스피커(예: 도 3의 스피커(315)), 센서 모듈(예: 도 3의 센서 모듈(310)), 통신 모듈(예: 도 3의 통신 회로(313)), 및 상기 메모리(312), 상기 배터리(317), 상기 스피커(315), 상기 센서 모듈(310) 및 상기 통신 모듈(313)과 전기적으로 연결된 프로세서(예: 도 3의 프로세서(311))를 포함하고, 상기 프로세서(311)는 상기 통신 모듈(313)을 제어하여 음원 전자 장치(예: 도 3의 음원 전자 장치(230))와 제1 통신 링크(예: 도 2, 도 3 또는 도 6a의 제1 통신 링크(201, 301 또는 601)를 형성하고, 상기 센서 모듈(310)로부터 획득된 센서 값에 기초하여 산출된 자세 값을 전송하고, 상기 음원 전자 장치(230)로부터 상기 자세 값에 기초하여 렌더링된 오디오 데이터를 수신하고, 상기 전자 장치(210)의 장치 상태 정보에 기초하여, 외부 전자 장치(예: 도 3의 제2 전자 장치(220))와 제2 통신 링크(예: 도 2, 도 3, 도 6a, 또는 도 6b의 제2 통신 링크(202, 302 또는 602)를 통해 통신하여 역할 전환 준비를 요청하고, 상기 외부 전자 장치(220)로 역할 전환 메시지를 송신하고, 상기 음원 전자 장치(230)에 상기 외부 전자 장치(220)와의 역할 전환을 알리도록 설정될 수 있다.
일 실시예에 따르면, 상기 프로세서(311)는, 상기 제2 통신 링크(202, 302, 또는 602)를 통해 상기 외부 전자 장치(220)의 배터리 잔여량 정보를 수신하고, 상기 배터리(317)의 잔여량과 비교하여, 차이가 지정된 문턱값 이상이면 상기 역할 전환을 결정하도록 설정될 수 있다.
일 실시예에 따르면, 상기 프로세서(311)는, 역할 전환 준비 요청 이후, 지정된 시간이 경과하면 상기 외부 전자 장치(220)로부터 역할 전환 메시지를 송신하도록 설정될 수 있다.
일 실시예에 따르면, 상기 프로세서(311)는, 상기 외부 전자 장치로부터 자세 값을 수신하고 변화량을 모니터링하여, 상기 프로세서(311)에서 산출된 상기 자세 값의 변화량과의 차이가 지정된 문턱 값 이하이면 상기 역할 전환 메시지를 전송하도록 설정될 수 있다.
일 실시예에 따르면, 상기 프로세서(311)는, 상기 음원 전자 장치(230)에 대해 상기 역할 전환을 알린 후, 상기 통신 모듈을 제어하여 상기 음원 전자 장치(230)와의 상기 제1 통신 링크(201, 301 또는 601)를 해제하도록 설정될 수 있다.
일 실시예에 따르면, 상기 프로세서(311)는, 상기 음원 전자 장치(230)에 대해 상기 역할 전환을 알린 후, 상기 센서 모듈(313)을 적어도 일부 비활성화하도록 설정될 수 있다.
일 실시예에 따르면, 상기 프로세서(311)는, 상기 역할 전환 알림에 따라, 상기 외부 전자 장치(220)로부터 제2 통신 링크를 통해 수신되는 제2 자세 값을 제1 통신 링크를 통해 상기 음원 전자 장치(230)로 전송하고 상기 외부 전자 장치(220)의 자세 값에 기초하여 렌더링한 오디오 데이터를 수신하도록 설정될 수 있다.
일 실시예에 따르면, 상기 프로세서(311)는, 상기 외부 전자 장치(220)로부터 자세 값 산출 동작을 시작함에 따라 역할 전환이 가능함을 나타내는 응답을 수신한 후, 상기 역할 전환 메시지를 상기 외부 전자 장치(220)로 송신하도록 설정될 수 있다.
일 실시예에 따르면, 전자 장치(예: 도 2 또는 도 3의 음원 전자 장치(230))는, 메모리(예: 도 3의 메모리(332)), 통신 모듈(예: 도 3의 통신 회로(333)) 및 상기 메모리(332) 및 상기 통신 모듈(333)과 전기적으로 연결된 프로세서(예: 도 3의 프로세서(331))를 포함하고, 상기 프로세서(331)는 상기 통신 모듈(333)을 제어하여 제1 전자 장치(예: 도 2 또는 도 3의 제1 전자 장치(210))와 제1 통신 링크(예: 도 2, 도 3 또는 도 6a의 제1 통신 링크(201, 301 또는 601))를 형성하고 프라이머리 역할을 수행하는 상기 제1 전자 장치(210)의 자세 값을 수신하고, 상기 자세 값에 기초하여 렌더링된 오디오 데이터를 상기 제1 전자 장치(210)로 전송하고, 상기 제1 전자 장치(210)로부터, 상기 제1 전자 장치(210)와 제2 통신 링크(예: 도 2, 도 3, 도 6a 또는 도 6b의 제2 통신 링크(202, 302 또는 602))를 통해 연결된 제2 전자 장치(220)와의 역할 전환을 통보받으면, 상기 제2 전자 장치(220)의 자세 값을 수신하고, 상기 제2 전자 장치(220)의 자세 값에 기초하여 렌더링된 오디오 데이터를 상기 제1 전자 장치(210) 또는 제2 전자 장치(220) 중 적어도 하나로 전송하도록 설정될 수 있다.
일 실시예에 따르면, 상기 프로세서(331)는, 상기 제1 전자 장치(210)의 자세 값의 방위각 변화량에 대해 상기 제2 전자 장치(220)의 자세 값의 방위각 변화량을 누적하여 합산하여 출력되는 자세 값에 기초하여 상기 오디오 데이터를 렌더링하고 렌더링된 상기 오디오 데이터를 상기 제1 전자 장치 또는 상기 제2 전자 장치 중 적어도 하나로 전송하도록 설정될 수 있다.
일 실시예에 따르면, 상기 제1 전자 장치(210) 및 상기 제2 전자 장치(220)는, 각각 좌측 또는 우측 이어 버드를 포함하며, 상기 프로세서(331)는, 상기 좌측 이어 버드의 자세 값 또는 상기 우측 이어 버드의 자세 값에 기초하여 사용자의 머리 자세 값을 산출하고 상기 사용자의 머리 자세 값에 기초하여 상기 오디오 데이터를 렌더링하도록 설정될 수 있다.
일 실시예에 따르면, 센서 모듈(예: 도 3의 센서 모듈(330))을 더 포함하고, 상기 프로세서(331)는, 상기 센서 모듈(330)로부터 수신되는 센서 값에 따라 상기 전자 장치(230)의 자세 값을 산출하고, 상기 전자 장치(230)의 자세 값을 기준으로, 상기 제1 전자 장치(210) 또는 상기 제2 전자 장치(220)로부터 수신되는 자세 값을 사용자의 머리 자세 값으로 변환하여 상기 오디오 데이터를 렌더링하도록 설정될 수 있다.
도 7은 다양한 실시예에 따른 제1 전자 장치(예: 도 2 또는 도 3의 제1 전자 장치(210))의 역할 전환 방법을 도시한 흐름도이다.
다양한 실시예에 따르면, 제1 전자 장치(210) 및 제2 전자 장치(예: 도 2 또는 도 3의 제2 전자 장치(220))는 사용자에게 착용될 수 있으며, 통신 기능을 통해 음원 전자 장치(예: 도 2 또는 도 3의 음원 전자 장치(230))로부터 수신된 오디오 데이터에 기초하여 사용자에게 소리를 제공할 수 있는 헤드폰(headphone), 이어폰(earphone), 및/또는 이어 버드(ear bud)를 포함할 수 있다. 이하 제1 전자 장치(210) 및 제2 전자 장치(220)가 각각 이어 버드로 구현된 예를 설명하나 다양한 실시예는 이에 한정되지 않을 수 있다.
다양한 실시예에 따르면 제1 전자 장치(210)는 프라이머리로서 동작하고 제2 전자 장치(220)는 세컨더리로서 동작할 수 있으며, 역할 전환이 결정되면 제1 전자 장치(210)는 세컨더리로 역할을 전환하고 제2 전자 장치(220)는 프라이머리로 역할을 전환할 수 있다.
다양한 실시예에 따르면 음원 전자 장치(230)는 스마트 폰, 태블릿 PC, PMP(Portable Multimedia Player), PDA(Personal Digital Assistant), 랩탑 PC 및 웨어러블 기기(Wearable device)와 같은 휴대 및/또는 이동 가능한 전자 장치일 수 있다.
다양한 실시예에 따르면 음원 전자 장치(230)는 음악 또는 영상을 재생할 수하는 있는 전자 장치일 수 있으며 이에 따른 오디오 데이터를 제1 전자 장치(210) 및/또는 제2 전자 장치(220)로 제공할 수 있다.
일 실시예에 따르면, 제1 전자 장치(210)의 프로세서(예: 도 3의 프로세서(311))는 제1 전자 장치(201)가 프라이머리 역할을 수행하도록 통신 회로(예: 도 3의 통신 회로(313))를 통해 음원 전자 장치(230)와 통신 연결할 수 있다.
일 실시예에 따르면 제1 전자 장치(210)의 프로세서(311)는, 동작 701에서, 센서 모듈(예: 도 3의 센서 모듈(310))의 가속도 센서(예: 도 3의 가속도 센서(318)) 및/또는 자이로 센서(예: 도 3의 자이로 센서(319))를 통해 획득되는 센서 값에 기초하여 제1 전자 장치(210)의 자세 값을 산출하여 음원 전자 장치(230)로 전송할 수 있다.
일 실시예에 따르면 제1 전자 장치(210)는 센서 모듈(310)의 가속도 센서(318) 및/또는 자이로 센서(319)에 의해 획득된 센서 값에 기초하여 자세 값을 산출할 수 있다. 예를 들어 자세 값은 요우(yaw), 피치(pitch), 및 롤(roll) 값에 기초하여 표현될 수 있다.
일 실시예에 따르면, 제1 전자 장치(210)는 프라이머리 역할을 수행하여 음원 전자 장치(230)와 제1 통신 링크(예: 도 2, 도 3 또는 도 6a의 제1 통신 링크(201, 301 또는 601))를 통해 신호를 송수신할 수 있다. 예를 들면 제1 통신 링크(201, 301 또는 601)는 블루투스(또는, BLE), WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크를 포함할 수 있다.
다양한 실시예에 따르면 동작 703에서 제1 전자 장치(210)의 프로세서(311)는, 제1 전자 장치(210)로부터 수신된 자세 값에 기초하여 렌더링된 오디오 데이터를 음원 전자 장치(230)로부터 는 렌더링하고 렌더링된 오디오 데이터를 수신할 수 있다.
다양한 실시예에 따르면 제1 전자 장치(210)는 제2 전자 장치(220)와 제2 통신 링크(예: 도 2, 도 3, 도 6a 또는 도 6b의 제2 통신 링크(202, 302 또는 602))(예: 근거리 무선 통신 네트워크)를 이용하여 통신할 수 있다. 예를 들어 제2 전자 장치(220)는 세컨더리 역할을 수행하여 프라이머리인 제1 전자 장치(210)와 제2 통신 링크(202, 302 또는 302)를 통해 통신 연결할 수 있다.
다양한 실시예에 따르면 제1 전자 장치(210)의 프로세서(311)는 제2 전자 장치(220)와 제2 통신 링크(602)를 통해 통신하며, 음원 전자 장치(230)로부터 수신되는 오디오 데이터를 제2 전자 장치(220)가 스니핑하여 획득하도록 할 수 있다. 다양한 실시예에 따르면 제1 전자 장치(210)는 제2 통신 링크(202, 302 또는 602)를 통해 제2 전자 장치(220)를 제어하여, 수신된 오디오 데이터를 함께 출력하도록 할 수 있다.
다양한 실시예에 따르면 제1 전자 장치(210)의 프로세서(311)는, 동작 705에서, 장치 상태 정보에 따라 역할 전환을 결정하고, 제2 전자 장치(220)에 역할 전환 준비를 요청할 수 있다.
일 실시예에 따르면 프로세서(311)는 배터리(예: 도 3의 배터리(317))의 배터리 잔여량을 확인하고 이에 기초하여 역할 전환을 결정할 수 있다. 예를 들면 프로세서(311)는 제1 전자 장치(210)의 배터리 잔여량과 제2 전자 장치(220)의 배터리 잔여량을 비교하여 역할 전환을 결정할 수 있다. 예를 들면 제1 전자 장치(210)의 프로세서(311)는 전력 관리 회로(예: 도 3의 전력 관리 회로(316))를 통해 배터리(317)의 배터리 잔여량을 확인할 수 있다. 예를 들면 제1 전자 장치(210)의 프로세서(311)는 제2 통신 링크(202, 302 또는 602)를 통해 제2 전자 장치(220)로부터 제2 전자 장치(220)의 배터리 잔여량 정보를 수신할 수 있다. 일 실시예에 따르면 제1 전자 장치(210)의 프로세서(311)는 자신의 배터리 잔여량과 제2 전자 장치(220)의 배터리 잔여량을 비교하고 그 차이가 문턱값 이상이면 프라이머리와 세컨더리 역할 전환을 결정할 수 있다.
일 실시예에 따르면 제1 전자 장치(210)의 프로세서(311)는 자신의 센서 모듈(310)의 가속도센서(318) 및/또는 자이로 센서(319)의 센서 이상 발생시 프라이머리와 세컨더리 역할 전환을 결정할 수 있다. 예를 들면 프로세서(311)는 가속도 센서(318) 및/또는 자이로 센서(319)의 센서 값이 일정 시간 이상 동일하거나 센서 값이 출력되지 않는 경우 센서 이상이 발생한 것으로 확인할 수 있다.
일 실시예에 따르면 제1 전자 장치(210)의 프로세서(311)는 역할 전환이 결정됨에 따라 제2 통신 링크(202, 302 또는 602)를 통해 제2 전자 장치(220)에 역할 전환 준비를 요청할 수 있다.
다양한 실시예에 따르면 역할 전환 준비 요청에 따라 제2 전자 장치(220)가프라이머리 역할을 위한 관련 동작들을 수행하기 위해, 프로세서(예: 도 3의 프로세서(321))는 센서 모듈(예: 도 3의 센서 모듈(320))의 가속도 센서(예: 도 3의 가속도 센서(328)) 및/또는 자이로 센서(예: 도 3의 자이로 센서(329))를 활성화하여 센서 값을 획득할 수 있다. 다양한 실시예에 따르면 제2 전자 장치(220)의 프로세서(321))는 센서 모듈(320))을 통해 획득된 센서 값에 기초하여 자세 값을 산출할 수 있다.
다양한 실시예에 따르면 제1 전자 장치(210)의 프로세서(311)는, 동작 707에서, 역할 전환 메시지를 제2 전자 장치(220)로 전송할 수 있다.
일 실시예에 따르면 제1 전자 장치(210)의 프로세서(311)는 역할 전환 준비 요청에 따라 제2 전자 장치(220)의 프로세서(321)는 센서 모듈(320)의 구동 및 이에 따른 자세 값 산출이 시작되어 안정화될 수 있도록, 지정된 시간이 경과한 이후 역할 전환 메시지를 제2 전자 장치(220)로 전송하여 역할을 전환하도록 할 수 있다.
일 실시예에 따르면 제1 전자 장치(210)의 프로세서(311)는 역할 전환 준비 요청에 따라 제2 전자 장치(220)로부터 산출된 자세 값을 수신할 수 있으며, 제1 전자 장치(210)는 이에 기초하여 제1 전자 장치(210)의 자세 값과 제2 전자 장치(220)의 자세 값의 변화량을 모니터링하고 차이가 문턱 값 이내 이면, 역할 전환이 가능한 것으로 판단하여, 역할 전환 메시지를 제2 전자 장치(220)로 전송할 수 있다.
일 실시예에 따르면, 제2 전자 장치(220)의 프로세서(321)는 센서 모듈(320)의 구동 및 이에 따른 자세 값 산출이 시작됨에 따라 제1 전자 장치(210)로부터 제1 전자 장치(210)의 자세 값을 수신하여, 제1 전자 장치(210)의 자세 값과 제2 전자 장치(220)의 자세 값의 변화량을 모니터링하고 차이가 문턱 값 이내이면 역할 전환이 가능함을 나타내는 응답을 제1 전자 장치(210)로 전송할 수 있으며, 제1 전자 장치(210)의 프로세서(331)는 이에 기초하여 역할 전환 메시지를 제2 전자 장치(220)로 전송할 수 있다.
일 실시예에 따르면, 제1 전자 장치(210)의 프로세서(311)는 제2 전자 장치(220)가 센서 모듈(320)의 구동 및 이에 따른 자세 값 산출이 시작됨에 따라 산출된 자세 값을 음원 전자 장치(230)로 전송하도록 할 수 있으며, 음원 전자 장치(230)는 제1 전자 장치(210)의 자세 값과 제2 전자 장치(220)의 자세 값의 변화량을 모니터링하고 차이가 문턱 값 이내 이면, 역할 전환이 가능한 것으로 판단하여, 역할 전환 메시지를 제1 전자 장치(210) 및/또는 제2 전자 장치(220)로 전송하도록 할 수 있다.
다양한 실시예에 따르면 제1 전자 장치(210)의 프로세서(311)는 제2 전자 장치(220)로부터 역할 전환 요청에 대한 응답을 수신하면, 동작 709에서, 음원 전자 장치(230)로 역할 전환이 수행됨을 알릴 수 있다. 일 실시예에 따르면 제1 전자 장치(210)의 프로세서(311)는 제2 전자 장치(220)가 프라이머리로 역할 전환을 수행하도록 예를 들면 제어 신호를 전송하여 제어할 수 있다.
일 실시예에 따르면 제2 전자 장치(220)는 역할 전환을 수행함에 따라 음원 전자 장치(230)와 제3 통신 링크(예: 도 2, 도 3 또는 도 6b의 제3 통신 링크(203, 303 또는 603) (예: 도 1의 제1 네트워크(198))를 수립 또는 연결하여 통신을 수행할 수 있다. 예를 들면 제3 통신 링크(203, 303 또는 603)는 유휴 상태에서 연결 상태로 전환 또는 새로 수립될 수 있다.
일 실시예에 따르면 제2 전자 장치(220)는 프라이머리로서 제3 통신 링크(603)를 통해 음원 전자 장치(230)와 통신하여 산출된 자세 값을 전송하고 자세값에 기초하여 렌더링된 오디오 데이터를 음원 전자 장치(230)로부터 수신할 수 있다.
일 실시예에 따르면 제1 전자 장치(210)의 프로세서(311)는 음원 전자 장치(230)와의 제1 통신 링크(201, 301 또는 601)를 유휴 상태로 전환 또는 연결 해제할 수 있다. 예를 들면, 세컨더리로 역할 전환한 제1 전자 장치(210)는 음원 전자 장치(230)와의 제1 통신 링크(201)를 유휴 상태 및/또는 연결되지 않은 상태로 전환할 수 있다.
일 실시예에 따르면 제1 전자 장치(210)의 프로세서(311)는 세컨더리로서 제2 통신 링크(602)를 통해 제2 전자 장치(220)와 통신하며, 제2 전자 장치(220)와 음원 전자 장치(230) 간의 제3 통신 링크(203, 303 또는 603)를 스니핑(sniffing)하여, 음원 전자 장치(230)로부터 제2 전자 장치(220)로 전송되는 오디오 데이터를 획득할 수 있다.
일 실시예에 따르면 제1 전자 장치(210)의 프로세서(311)는 센서 모듈(310)의 적어도 일부를 비활성화 또는 절전 모드로 전환할 수 있다. 예를 들면 제1 전자 장치(210)는 자이로 센서(319)를 비활성화 또는 절전 모드로 전환할 수 있다.
도 8은 다양한 실시예에 따른 전자 장치 중 제2 전자 장치(예: 도 2 또는 도 3의 제2 전자 장치(220))의 역할 전환 방법을 도시한 흐름도이다.
다양한 실시예에 따르면, 제1 전자 장치(예: 도 2 또는 도 3의 제1 전자 장치(210)) 및 제2 전자 장치(220)는 사용자에게 착용될 수 있으며, 통신 기능을 통해 음원 전자 장치(예: 도 2 또는 도 3의 음원 전자 장치(230))로부터 수신된 오디오 데이터에 기초하여 사용자에게 소리를 제공할 수 있는 헤드폰(headphone), 이어폰(earphone), 및/또는 이어 버드(ear bud)를 포함할 수 있다. 이하 제1 전자 장치(210) 및 제2 전자 장치(220)가 각각 이어 버드로 구현된 예를 설명하나 다양한 실시예는 이에 한정되지 않을 수 있다.
다양한 실시예에 따르면 제1 전자 장치(210)는 프라이머리로서 동작하고 제2 전자 장치(220)는 세컨더리로서 동작할 수 있으며, 역할 전환이 결정되면 제1 전자 장치(210)는 세컨더리로 역할을 전환하고 제2 전자 장치(220)는 프라이머리로 역할을 전환할 수 있다.
다양한 실시예에 따르면 음원 전자 장치(230)는 스마트 폰, 태블릿 PC, PMP(Portable Multimedia Player), PDA(Personal Digital Assistant), 랩탑 PC 및 웨어러블 기기(Wearable device)와 같은 휴대 및/또는 이동 가능한 전자 장치일 수 있다.
다양한 실시예에 따르면 음원 전자 장치(230)는 음악 또는 영상을 재생할 수하는 있는 전자 장치일 수 있으며 이에 따른 오디오 데이터를 제1 전자 장치(210) 및/또는 제2 전자 장치(220)로 제공할 수 있다.
일 실시예에 따르면, 제2 전자 장치(220)의 프로세서(예: 도 3의 프로세서(321))는 통신 회로(예: 도 3의 통신 회로(323))를 통해, 음원 전자 장치(230)와 통신 연결하여 통신을 수행하는 제1 전자 장치(201)와 통신을 수행할 수 있다. 예를 들면 제2 전자 장치(220)의 프로세서(321)는 제1 전자 장치(210)와 제2 통신 링크(예: 도 2, 도 3, 도 6a 또는 도 6b의 제2 통신 링크(202, 302 또는 602)를 통해 통신하며, 음원 전자 장치(230)로부터 제1 통신 링크(예: 도 2, 도 3 또는 도 6a의 제1 통신 링크(201, 301 또는 601))를 통해 제1 전자 장치(210)가 수신하는 오디오 데이터를 스니핑하여 획득할 수 있다.
일 실시예에 따르면 제2 전자 장치(220)의 프로세서(321)는, 동작 801에서, 음원 전자 장치(230)로부터 제1 전자 장치(210)로 전송되는 오디오 데이터를, 예를 들면 스니핑하여, 수신할 수 있다. 제2 전자 장치(220)의 프로세서(321)는, 제1 전자 장치(210)의 제어 하에, 수신된 오디오 데이터를 함께 출력할 수 있다.
다양한 실시예에 따르면 동작 803에서 제2 전자 장치(220)의 프로세서(321)는, 제1 전자 장치(210)로부터 역할 전환 준비 요청을 수신함에 따라 센서 모듈(예: 도 3의 센서 모듈(320))의 가속도 센서(예: 도 3의 가속도 센서(328)) 및/또는 자이로 센서(예: 도 3의 자이로 센서(329))를 활성화하여 센서 값을 획득하고 이에 기초하여 제2 전자 장치(220)의 자세 값을 산출할 수 있다.
다양한 실시예에 따르면 제2 전자 장치(220)의 프로세서(321)는 동작 805에서, 센서 모듈(320)의 구동 및 이에 따른 자세 값 산출이 시작됨에 따라 역할 전환 메시지를 수신할 수 있다. 예를 들면 제2 전자 장치(220)의 프로세서(321)는 센서 모듈(320)의 구동 및 이에 따른 자세 값 산출이 시작됨에 따라 산출된 자세 값을 제1 전자 장치(210)로 전송할 수 있으며, 제1 전자 장치(210)는 이에 기초하여 제1 전자 장치(210)의 자세 값과 제2 전자 장치(220)의 자세 값의 변화량을 모니터링하고 차이가 문턱 값 이내 이면, 역할 전환이 가능한 것으로 판단하여, 역할 전환 메시지를 제2 전자 장치(220)로 전송할 수 있다. 예를 들면, 제2 전자 장치(220)의 프로세서(321)는 센서 모듈(320)의 구동 및 이에 따른 자세 값 산출이 시작됨에 따라 역할 전환이 가능함을 나타내는 응답을 제1 전자 장치(210)로 전송할 수 있으며, 제1 전자 장치(210)는 이에 기초하여 역할 전환 메시지를 제2 전자 장치(220)로 전송할 수 있다.
다른 실시예에 따르면, 제2 전자 장치(220)의 프로세서(321)는 센서 모듈(320)의 구동 및 이에 따른 자세 값 산출이 시작됨에 따라 산출된 자세 값을 음원 전자 장치(230)로 전송할 수 있으며, 음원 전자 장치(230)는 제1 전자 장치(210)의 자세 값과 제2 전자 장치(220)의 자세 값의 변화량을 모니터링하고 차이가 문턱 값 이내 이면, 역할 전환이 가능한 것으로 판단하여, 역할 전환 메시지를 제2 전자 장치(220) 및/또는 제1 전자 장치(210)로 전송할 수 있다.
다양한 실시예에 따르면 제1 전자 장치(210)의 프로세서(321)는 동작 807에서, 프라이머리로서 음원 전자 장치(230)와 통신을 연결할 수 있다. 예를 들면, 제2 전자 장치(220)의 프로세서(321)는 역할 전환을 수행함에 따라 음원 전자 장치(230)와 제3 통신 링크(예: 도 2, 도 3 또는 도 6b의 제3 통신 링크(203, 303 또는 603) (예: 도 1의 제1 네트워크(198))를 수립 또는 연결하여 통신을 수행할 수 있다. 예를 들면 제3 통신 링크(203, 303 또는 603)는 유휴 상태에서 연결 상태로 전환 또는 새로 수립될 수 있다.
일 실시예에 따르면 제2 전자 장치(220)의 프로세서(321)는 동작 809에서, 제3 통신 링크(603)를 통해 음원 전자 장치(230)와 통신하여, 산출된 자세 값을 전송하고, 동작 811에서, 자세값에 기초하여 렌더링된 오디오 데이터를 음원 전자 장치(230)로부터 수신할 수 있다.
일 실시예에 따르면, 음원 전자 장치(230)로부터 수신되는 오디오 데이터는 역할 전환 전 제1 전자 장치(210)의 자세 값에 대해, 수학식 5를 참조하여 상술한 바와 같이 방위각 변화량을 누적함으로써 출력된 방위각이 적용된, 제2 전자 장치(220)의 자세 값에 기초하여 렌더링된 오디오 데이터 일 수 있다.
일 실시예에 따르면 제1 전자 장치(210)는 세컨더리로 역할 전환에 따라 음원 전자 장치(230)와의 제1 통신 링크(201, 301 또는 601)를 유휴 상태로 전환 또는 연결 해제할 수 있다. 예를 들면, 세컨더리로 역할 전환한 제1 전자 장치(210)는 음원 전자 장치(230)와의 제1 통신 링크(201)를 유휴 상태 및/또는 연결되지 않은 상태로 전환할 수 있다.
일 실시예에 따르면 제1 전자 장치(210)는 세컨더리로서 제2 통신 링크(602)를 통해 제2 전자 장치(220)와 통신하며, 제2 전자 장치(220)와 음원 전자 장치(230) 간의 제3 통신 링크(203, 303 또는 603)를 스니핑(sniffing)하여, 음원 전자 장치(230)로부터 제2 전자 장치(220)로 전송되는 오디오 데이터를 획득할 수 있다.
일 실시예에 따르면, 제1 전자 장치(210)는 센서 값 획득 및 이에 기초한 자세 값 산출 동작 수행에 있어서는 제2 전자 장치(220)와 역할 전환을 통해 제2 전자 장치(220)가 자세 값 산출 동작을 수행하도록 하되, 통신에 있어서는 제1 통신 링크(201, 301 또는 601)를 연결된 상태로 유지하며 음원 전자 장치(230)와 통신을 수행하는 프라이머리 장치로서 동작할 수도 있다. 예를 들면 제1 전자 장치(210)의 배터리 잔여량은 높으나 센서에 이상이 발생한 경우 센서 값 획득 및 이에 기초한 자세 값 산출 동작 수행은 제2 전자 장치(220)가 수행하도록 할 수 있다.
본 문서에 개시된 실시 예들은 기술 내용을 쉽게 설명하고 이해를 돕기 위한 예로서 제시한 것일 뿐이며, 본 문서에 개시된 기술의 범위를 한정하고자 하는 것은 아니다. 따라서 본 문서에 개시된 기술의 범위는 여기에 개시된 실시 예들 이외에도 본 문서에 개시된 다양한 실시 예의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태를 포함되는 것으로 해석되어야 한다.

Claims (15)

  1. 전자 장치에 있어서,
    메모리;
    배터리;
    스피커;
    센서 모듈;
    통신 모듈; 및
    상기 메모리, 상기 배터리, 상기 스피커, 상기 센서 모듈 및 상기 통신 모듈과 전기적으로 연결된 프로세서;를 포함하고,
    상기 프로세서는:
    상기 통신 모듈을 제어하여 음원 전자 장치와 제1 통신 링크를 형성하고, 상기 센서 모듈로부터 획득된 센서 값에 기초하여 산출된 제1 자세 값을 상기 제1 통신 링크를 통해 전송하고,
    상기 음원 전자 장치로부터 상기 자세 값에 기초하여 렌더링된 오디오 데이터를 수신하고,
    상기 전자 장치의 장치 상태 정보에 기초하여, 외부 전자 장치와 제2 통신 링크를 통해 통신하여 역할 전환 준비를 요청하고,
    상기 외부 전자 장치로 역할 전환 메시지를 송신하고, 상기 음원 전자 장치에 상기 외부 전자 장치와의 역할 전환을 알리도록 설정된,
    전자 장치.
  2. 제1항에 있어서,
    상기 프로세서는, 상기 제2 통신 링크를 통해 상기 외부 전자 장치의 배터리 잔여량 정보를 수신하고, 상기 배터리의 잔여량과 비교하여, 차이가 지정된 문턱값 이상이면 상기 역할 전환 준비를 요청하도록 설정된 전자 장치.
  3. 제1항에 있어서,
    상기 프로세서는, 역할 전환 준비 요청 이후, 지정된 시간이 경과하면 상기 외부 전자 장치로부터 역할 전환 메시지를 송신하도록 설정된 전자 장치.
  4. 제1항에 있어서,
    상기 프로세서는, 상기 외부 전자 장치로부터 자세 값을 수신하고 변화량을 모니터링하여, 상기 프로세서에서 산출된 상기 자세 값의 변화량과의 차이가 지정된 문턱 값 이하이면 상기 역할 전환 메시지를 전송하도록 설정된 전자 장치.
  5. 제1항에 있어서,
    상기 프로세서는, 상기 음원 전자 장치에 대해 상기 역할 전환을 알린 후, 상기 통신 모듈을 제어하여 상기 음원 전자 장치와의 상기 제1 통신 링크를 해제하도록 설정된 전자 장치.
  6. 제1항에 있어서,
    상기 프로세서는, 상기 음원 전자 장치에 대해 상기 역할 전환을 알린 후, 상기 센서 모듈을 적어도 일부 비활성화하도록 설정된 전자 장치.
  7. 제1항에 있어서,
    상기 프로세서는, 상기 역할 전환을 알림에 따라, 상기 제2 통신 링크를 통해 상기 외부 전자 장치로부터 제2 자세 값을 수신하여, 상기 음원 전자 장치로 상기 제1 통신 링크를 통해 전송하고 상기 외부 전자 장치의 상기 제2 자세 값에 기초하여 렌더링한 오디오 데이터를 수신하도록 설정된 전자 장치.
  8. 제1항에 있어서,
    상기 프로세서는, 상기 외부 전자 장치로부터 자세 값 산출 동작을 시작함에 따라 역할 전환이 가능함을 나타내는 응답을 수신한 후, 상기 역할 전환 메시지를 상기 외부 전자 장치로 송신하도록 설정된 전자 장치.
  9. 센서 모듈을 구비하는 전자 장치의 방법에 있어서,
    음원 전자 장치와 제1 통신 링크를 형성하고, 상기 센서 모듈로부터 획득된 센서 값에 기초하여 산출된 제1 자세 값을 상기 제1 통신 링크를 통해 상기 음원 전자 장치로 전송하는 동작;
    상기 음원 전자 장치로부터 상기 자세 값에 기초하여 렌더링된 오디오 데이터를 수신하는 동작;
    장치 상태 정보에 기초하여, 세컨더리 역할을 수행하는 외부 전자 장치와 제2 통신 링크를 통해 통신하여 역할 전환 준비를 요청하는 동작;
    상기 외부 전자 장치로 역할 전환 메시지를 송신하는 동작; 및
    상기 음원 전자 장치에 상기 외부 전자 장치와의 역할 전환을 알리는 동작;을 포함하는 방법
  10. 제9항에 있어서,
    상기 제2 통신 링크를 통해 상기 외부 전자 장치의 배터리 잔여량 정보를 수신하는 동작; 및
    상기 배터리의 잔여량과 비교하여, 차이가 지정된 문턱값 이상이면 상기 외부 전자 장치와의 역할 전환 준비를 요청하는 동작을 더 포함하는 방법.
  11. 제9항에 있어서,
    상기 역할 전환 준비 요청 동작 이후, 지정된 시간이 경과하면 상기 외부 전자 장치로부터 역할 전환 메시지를 송신하는 동작을 수행하는 방법.
  12. 제9항에 있어서,
    상기 외부 전자 장치로부터 자세 값을 수신하고 변화량을 모니터링하는 동작을 더 포함하고,
    상기 외부 전자 장치의 상기 자세 값의 변화량과 상기 전자 장치의 상기 자세 값의 변화량의 차이가 지정된 문턱 값 이하이면 상기 역할 전환 메시지를 전송하는 동작을 수행하는 방법.
  13. 제9항에 있어서,
    상기 역할 전환을 알리는 동작 이후, 상기 음원 전자 장치와의 상기 제1 통신 링크를 해제하는 동작을 더 포함하는 방법.
  14. 제9항에 있어서,
    상기 역할 전환을 알리는 동작 이후, 상기 센서 모듈을 적어도 일부 비활성화하는 동작을 더 포함하는 방법.
  15. 제9항에 있어서,
    상기 역할 전환을 알리는 동작 이후, 상기 외부 전자 장치로부터 수신되는 제2 자세 값을 상기 음원 전자 장치로 전송하는 동작; 및
    상기 외부 전자 장치의 상기 제2 자세 값에 기초하여 렌더링한 오디오 데이터를 상기 음원 전자 장치로부터 수신하는 동작을 더 포함하는 방법.
PCT/KR2022/000066 2021-01-13 2022-01-04 배터리 잔여량에 기초하여 전자 장치를 제어하는 방법 및 그 전자 장치 WO2022154349A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202280009191.0A CN116746164A (zh) 2021-01-13 2022-01-04 基于剩余电池容量来控制电子装置的方法及其电子装置
EP22739547.2A EP4199536A4 (en) 2021-01-13 2022-01-04 METHOD FOR CONTROLLING AN ELECTRONIC DEVICE BASED ON REMAINING BATTERY CAPACITY AND ELECTRONIC DEVICE THEREFOR
US17/585,859 US12003912B2 (en) 2021-01-13 2022-01-27 Method for controlling electronic devices based on battery residual capacity and electronic device therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210004812A KR20220102447A (ko) 2021-01-13 2021-01-13 배터리 잔여량에 기초하여 전자 장치를 제어하는 방법 및 그 전자 장치
KR10-2021-0004812 2021-01-13

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/585,859 Continuation US12003912B2 (en) 2021-01-13 2022-01-27 Method for controlling electronic devices based on battery residual capacity and electronic device therefor

Publications (1)

Publication Number Publication Date
WO2022154349A1 true WO2022154349A1 (ko) 2022-07-21

Family

ID=82448300

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/000066 WO2022154349A1 (ko) 2021-01-13 2022-01-04 배터리 잔여량에 기초하여 전자 장치를 제어하는 방법 및 그 전자 장치

Country Status (2)

Country Link
KR (1) KR20220102447A (ko)
WO (1) WO2022154349A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024136196A1 (ko) * 2022-12-19 2024-06-27 삼성전자 주식회사 외부 장치로부터의 사운드를 출력하기 위한 전자 장치, 그 동작 방법 및 저장 매체

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106937197A (zh) * 2017-01-25 2017-07-07 北京联创志芯科技有限公司 双耳无线耳机及其通信控制方法
KR20190025495A (ko) * 2017-09-01 2019-03-11 크레신 주식회사 무선 이어폰 및 충전 케이스
KR102101115B1 (ko) * 2016-09-06 2020-04-14 애플 인크. 무선 이어 버드
KR102102604B1 (ko) * 2018-03-06 2020-04-21 송하정 청각장애 치료 기능을 갖는 이어폰
US20200252993A1 (en) * 2019-01-31 2020-08-06 Qualcomm Incorporated Fast role switch between bluetooth true wireless stereo (tws) earbuds

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102101115B1 (ko) * 2016-09-06 2020-04-14 애플 인크. 무선 이어 버드
CN106937197A (zh) * 2017-01-25 2017-07-07 北京联创志芯科技有限公司 双耳无线耳机及其通信控制方法
KR20190025495A (ko) * 2017-09-01 2019-03-11 크레신 주식회사 무선 이어폰 및 충전 케이스
KR102102604B1 (ko) * 2018-03-06 2020-04-21 송하정 청각장애 치료 기능을 갖는 이어폰
US20200252993A1 (en) * 2019-01-31 2020-08-06 Qualcomm Incorporated Fast role switch between bluetooth true wireless stereo (tws) earbuds

Also Published As

Publication number Publication date
KR20220102447A (ko) 2022-07-20

Similar Documents

Publication Publication Date Title
WO2022039517A1 (ko) 오디오 출력 장치의 충전 상태에 대한 정보를 전송하는 방법 및 그 오디오 출력 장치
WO2022154373A1 (ko) 웨어러블 전자 장치의 가속도 센서를 이용하여 사용자의 자세를 판단하는 방법 및 그 전자 장치
WO2022154363A1 (ko) 오디오 데이터를 처리하기 위한 오디오 장치 및 그의 동작 방법
WO2022154349A1 (ko) 배터리 잔여량에 기초하여 전자 장치를 제어하는 방법 및 그 전자 장치
WO2021118120A1 (en) Electronic device with structure for harvesting energy
WO2023075209A1 (ko) 표면 발열을 제어하기 위한 방법, 이를 위한 전자 장치 및 저장 매체
WO2022145914A1 (ko) 전력 공급 장치를 이용하여 오디오 출력 장치를 찾는 방법 및 그 전력 공급 장치
WO2022154440A1 (ko) 오디오 데이터를 처리하는 전자 장치 및 그 동작 방법
WO2022080683A1 (ko) 무선 오디오 출력 장치의 연결 제어 방법 및 장치
WO2023146193A1 (ko) 복수의 전자 장치를 제어하는 방법 및 그 전자 장치
WO2023121215A1 (ko) 외부 전자 장치의 배터리 충전 상태를 제어하는 전자 장치 및 그의 동작 방법
WO2023043035A1 (ko) 적어도 하나의 웨어러블 장치를 제어하기 위한 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
WO2023277364A1 (ko) 블루투스 통신을 사용하는 전자 장치와 이의 동작 방법
WO2024150966A1 (ko) 알림 정보를 출력하는 전자 장치 및 이의 동작 방법
WO2022149825A1 (ko) 전자 장치 및 전자 장치의 사운드 렌더링 방법
WO2024117501A1 (ko) 송신 전력을 제어하기 위한 전자 장치 및 전자 장치의 동작 방법
WO2024053931A1 (ko) 마이크를 전환하는 방법 및 전자 장치
WO2022030797A1 (ko) 전력 공급 케이스 및 웨어러블 장치를 포함하는 시스템 및 그 시스템의 전력 공급을 제어하는 방법
WO2023128208A1 (ko) 사용자의 머리에 장착 가능한 전자 장치 및 상기 전자 장치에서 생체 정보를 이용한 기능을 제공하는 방법
WO2023146104A1 (ko) 무선 충전 가이드 제공 방법 및 이를 수행하는 전자 장치
WO2024106806A1 (ko) 통신 회로를 포함하는 웨어러블 전자 장치 및 이의 동작 방법
WO2023167506A1 (ko) 눈의 피로도 저감 방법 및 그 전자 장치
WO2022181938A1 (ko) 전자 장치 및 무선 오디오 출력 장치 분실 알림 방법
WO2024106749A1 (ko) 연결의 우선순위를 식별하는 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
WO2023277300A1 (ko) 발열 제어에 기반한 충전 방법, 이를 위한 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22739547

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022739547

Country of ref document: EP

Effective date: 20230314

WWE Wipo information: entry into national phase

Ref document number: 202327029035

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 202280009191.0

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE