KR20230071583A - electronic device and method for processing audio data of electronic device - Google Patents
electronic device and method for processing audio data of electronic device Download PDFInfo
- Publication number
- KR20230071583A KR20230071583A KR1020210157946A KR20210157946A KR20230071583A KR 20230071583 A KR20230071583 A KR 20230071583A KR 1020210157946 A KR1020210157946 A KR 1020210157946A KR 20210157946 A KR20210157946 A KR 20210157946A KR 20230071583 A KR20230071583 A KR 20230071583A
- Authority
- KR
- South Korea
- Prior art keywords
- audio data
- electronic device
- audio
- processor
- unified
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/04—Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
Abstract
다양한 실시예들에 따른, 전자 장치는 센서 모듈, 디스플레이 모듈, LE 등시 채널(LE(low energy)isochronous channels)을 이용하여 통신 가능한 통신 모듈 및 상기 센서 모듈, 상기 디스플레이 모듈 및 상기 통신 모듈과 작동적으로 연결된 프로세서를 포함하며, 상기 프로세서는 상기 LE 등시 채널에 기반하여 상기 통신 모듈을 통해 복수의 외부 전자 장치로부터 오디오 데이터를 수신하고, 오디오 통합에 관한 커맨드를 상기 통신 모듈에 전송하며, 상기 오디오 통합에 관한 커맨드에 기반하여 통합 오디오 데이터를 처리할 수 있다.According to various embodiments, an electronic device includes a sensor module, a display module, a communication module capable of communicating using low energy (LE) isochronous channels, and operating with the sensor module, the display module, and the communication module. and a processor connected sequentially, wherein the processor receives audio data from a plurality of external electronic devices through the communication module based on the LE isochronous channel, transmits an audio integration command to the communication module, and Integrated audio data may be processed based on a command related to audio integration.
Description
본 개시의 다양한 실시예들은 전자 장치 및 전자 장치의 오디오 데이터 처리 방법에 관한 것이다.Various embodiments of the present disclosure relate to an electronic device and a method for processing audio data of the electronic device.
다양한 웨어러블 장치는 무선 통신을 이용하여 스마트 폰과 같은 휴대용 무선 전자 장치와 서로 연결될 수 있다. 무선 이어폰과 같은 전자 장치는 휴대용 무선 전자 장치와 연결되어 수신한 음향에 관한 신호를 출력할 수 있다. 또, 무선 이어폰과 같은 전자 장치는 수집한 오디오 신호를 휴대용 무선 전자 장치에 전송할 수 있다.Various wearable devices may be connected to a portable wireless electronic device such as a smart phone using wireless communication. An electronic device such as a wireless earphone may be connected to a portable wireless electronic device and output a signal related to received sound. In addition, an electronic device such as a wireless earphone may transmit the collected audio signal to a portable wireless electronic device.
무선 이어폰과 같은 전자 장치가 무선으로 연결되어 독립적인 오디오 스트림을 스마트폰과 같은 전자 장치에 전송하게 되면, 스마트폰과 같은 전자 장치는 동시에 여러 채널에서 수신된 여러 오디오 데이터를 처리하는데 어려움이 있다.When electronic devices such as wireless earphones are wirelessly connected to transmit independent audio streams to electronic devices such as smart phones, it is difficult for the electronic devices such as smart phones to simultaneously process multiple audio data received through multiple channels.
본 개시의 다양한 실시예에 따른 전자 장치 및 전자 장치의 오디오 데이터 처리 방법은 무선 이어폰과 같은 전자 장치로부터 등시 채널(isochronous channel)에 기반하여 오디오 스트림을 전송된 경우, 오디오 데이터를 처리하는 방법에 관한 것이다. An electronic device and a method for processing audio data of the electronic device according to various embodiments of the present disclosure include a method for processing audio data when an audio stream is transmitted based on an isochronous channel from an electronic device such as a wireless earphone. it's about
본 개시의 다양한 실시예에 따른 전자 장치는 센서 모듈, 디스플레이 모듈, LE 등시 채널(LE(low energy)isochronous channels)을 이용하여 통신 가능한 통신 모듈 및 상기 센서 모듈, 상기 디스플레이 모듈 및 상기 통신 모듈과 작동적으로 연결된 프로세서를 포함하며, 상기 프로세서는 상기 LE 등시 채널에 기반하여 상기 통신 모듈을 통해 복수의 외부 전자 장치로부터 오디오 데이터를 수신하고, 오디오 통합에 관한 커맨드를 상기 통신 모듈에 전송하며, 상기 오디오 통합에 관한 커맨드에 기반하여 통합 오디오 데이터를 처리할 수 있다.An electronic device according to various embodiments of the present disclosure includes a sensor module, a display module, a communication module capable of communicating using low energy (LE) isochronous channels, and the sensor module, the display module, and the communication module. a processor operatively connected thereto, wherein the processor receives audio data from a plurality of external electronic devices through the communication module based on the LE isochronous channel, and transmits a command related to audio integration to the communication module; Combined audio data may be processed based on the audio integration command.
본 개시의 다양한 실시예에 따른 전자 장치의 오디오 데이터 처리 방법은 LE 등시 채널에 기반하여 통신 모듈을 통해 복수의 외부 전자 장치로부터 오디오 데이터를 수신하는 동작, 오디오 통합에 관한 커맨드를 상기 통신 모듈에 전송하는 동작 및 상기 오디오 통합에 관한 커맨드에 기반하여 통합 오디오 데이터를 처리하는 동작을 포함할 수 있다.A method for processing audio data of an electronic device according to various embodiments of the present disclosure includes receiving audio data from a plurality of external electronic devices through a communication module based on an LE isochronous channel and sending a command related to audio integration to the communication module. An operation of transmitting and an operation of processing unified audio data based on the command for integrating audio.
본 개시의 다양한 실시예에 전자 장치 및 전자 장치의 오디오 데이터 처리 방법은 동시간에 여러 채널을 통해 수신된 여러 개의 오디오 데이터를 음원 싱크를 유지하면서 처리할 수 있다.According to various embodiments of the present disclosure, an electronic device and a method for processing audio data of the electronic device may simultaneously process multiple pieces of audio data received through multiple channels while maintaining synchronization of a sound source.
도 1은 본 개시의 다양한 실시예에 따른 제 1 전자 장치를 나타내는 도면이다.
도 2는 본 개시의 다양한 실시예에 따른 제 2 전자 장치를 나타내는 도면이다.
도 3은 본 개시의 다양한 실시예에 따른 네트워크 환경 내의 제 1 전자 장치와 무선으로 통신하는 제 2 전자 장치의 블록도이다.
도 4는 본 개시의 다양한 실시예에 따른 제 2 전자 장치에서 제 1 전자 장치로 전송되는 오디오 데이터를 나타내는 도면이다.
도 5는 본 개시의 다양한 실시예에 따른 제 1 전자 장치에서 오디오 데이터를 처리하는 과정을 나타내는 계층도이다.
도 6은 본 개시의 다양한 실시예에 따른 제 1 전자 장치의 오디오 데이터 처리 방법을 나타내는 순서도이다.
도 7은 본 개시의 다양한 실시예에 따른 제 1 전자 장치의 오디오 데이터 처리 동작을 나타내는 도면이다.
도 8은 본 개시의 다양한 실시예에 따른 제 1 전자 장치의 오디오 데이터 처리 동작을 나타내는 도면이다.
도 9는 본 개시의 다양한 실시예에 따른 제 1 전자 장치의 오디오 데이터 처리 동작을 나타내는 도면이다.
도 10은 본 개시의 다양한 실시예에 따른 통합 오디오 데이터를 나타내는 도면이다.
도 11은 본 개시의 다양한 실시예에 따른 통합 오디오 데이터를 나타내는 도면이다.
도 12는 본 개시의 다양한 실시예에 따른 통합 오디오 데이터를 나타내는 도면이다.
도 13은 본 개시의 다양한 실시예에 따른 통합 오디오 데이터를 나타내는 도면이다.
도 14는 본 개시의 다양한 실시예에 따른 제 1 전자 장치의 오디오 데이터 처리 방법을 나타내는 순서도이다.
도 15는 본 개시의 다양한 실시예에 따른 제 1 전자 장치의 오디오 데이터 처리 방법을 나타내는 순서도이다.
도 16은 본 개시의 다양한 실시예에서 제 1 전자 장치가 특정 시간 구간에 수신된 오디오 데이터에 기반하여 통합 오디오 데이터를 처리하는 동작을 나타내는 도면이다.1 is a diagram illustrating a first electronic device according to various embodiments of the present disclosure.
2 is a diagram illustrating a second electronic device according to various embodiments of the present disclosure.
3 is a block diagram of a second electronic device wirelessly communicating with a first electronic device in a network environment according to various embodiments of the present disclosure.
4 is a diagram illustrating audio data transmitted from a second electronic device to a first electronic device according to various embodiments of the present disclosure.
5 is a hierarchical diagram illustrating a process of processing audio data in a first electronic device according to various embodiments of the present disclosure.
6 is a flowchart illustrating an audio data processing method of a first electronic device according to various embodiments of the present disclosure.
7 is a diagram illustrating an audio data processing operation of a first electronic device according to various embodiments of the present disclosure.
8 is a diagram illustrating an audio data processing operation of a first electronic device according to various embodiments of the present disclosure.
9 is a diagram illustrating an audio data processing operation of a first electronic device according to various embodiments of the present disclosure.
10 is a diagram illustrating unified audio data according to various embodiments of the present disclosure.
11 is a diagram illustrating unified audio data according to various embodiments of the present disclosure.
12 is a diagram illustrating unified audio data according to various embodiments of the present disclosure.
13 is a diagram illustrating unified audio data according to various embodiments of the present disclosure.
14 is a flowchart illustrating a method of processing audio data of a first electronic device according to various embodiments of the present disclosure.
15 is a flowchart illustrating an audio data processing method of a first electronic device according to various embodiments of the present disclosure.
16 is a diagram illustrating an operation in which a first electronic device processes integrated audio data based on audio data received in a specific time interval according to various embodiments of the present disclosure.
도 1은 본 개시의 다양한 실시예에 따른 제 1 전자 장치(101)를 나타내는 도면이다.1 is a diagram illustrating a first
도 2는 본 개시의 다양한 실시예에 따른 제 2 전자 장치(201)를 나타내는 도면이다.2 is a diagram illustrating a second
도 1 및 도 2를 참조하면, 제 1 전자 장치(101)는 디스플레이 모듈(160)을 포함할 수 있다. Referring to FIGS. 1 and 2 , the first
제 1 전자 장치(101)는 스마트 폰, 태블릿 PC, PMP(portable multimedia player), PDA(personal digital assistant), 랩탑 PC 및 웨어러블 기기(wearable device)와 같은 휴대 및/또는 이동 가능한 전자 장치일 수 있다.The first
제 1 전자 장치(101)는 제 2 전자 장치(201)와 무선 통신 연결될 수 있다. 제 1 전자 장치(101)는 블루투스, BLE(Bluetooth low energy), WiFi direct, NFC(near field communication) 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크를 이용하여 제 2 전자 장치(201)와 통신 연결될 수 있다.The first
제 2 전자 장치(201)는 히어러블 디바이스(hearable device)로서 사용자에게 착용되어 사용자에게 소리를 제공할 수 있다. As a hearable device, the second
제 2 전자 장치(201)는 히어러블 디바이스인 무선 통신 가능한 헤드폰(headphone), 무선 통신 가능한 이어폰(earphone), 및/또는 무선 통신 가능한 이어 버드(ear bud) 중 적어도 하나 이상일 수 있다.The second
일 실시예에 따르면, 제 2 전자 장치(201)는 적어도 하나 이상의 이어 버드들(2011, 2012)을 포함할 수 있다. 예를 들어, 하나 이상의 이어 버드들(2011, 2012)은 상호 간에 무선 통신 가능하거나 또는 제 1 전 장치(101)와 무선 통신 가능할 수 있다.According to an embodiment, the second
제 1 전자 장치(101)는 제 2 전자 장치(201) 뿐만 아니라, 복수의 헤드폰, 이어폰, 및/또는 이어 버드들과 무선 통신 가능할 수 있다. The first
도 3은 본 개시의 다양한 실시예에 따른 네트워크 환경 내의 제 1 전자 장치(101)와 무선으로 통신하는 제 2 전자 장치(201)의 블록도이다.3 is a block diagram of a second
제 1 전자 장치(101)는 네트워크(198a, 198b, 198c)(예: 근거리 무선 통신 네트워크)를 통하여 제 2 전자 장치(201)와 통신하거나, 및/또는 다른 네트워크(예: 원거리 무선 통신 네트워크)를 통하여 외부 전자 장치 및/또는 서버와 통신할 수 있다. 일 실시예에 따르면, 제 1 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. The first
어떤 실시예에서는, 제 1 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 디스플레이 모듈(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 디스플레이 모듈(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다.In some embodiments, in the first
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램)를 실행하여 프로세서(120)에 연결된 제 1 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)은 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 제 1 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 제 1 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.The
메모리(130)는 제 1 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.The
프로그램은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제, 미들 웨어 또는 어플리케이션을 포함할 수 있다.The program may be stored as software in the
입력 장치(150)는, 제 1 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 제 1 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)은, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.The
음향 출력 장치(155)는 음향 신호를 제 1 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The
디스플레이 모듈(160)는 제 1 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.The
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 제 1 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 제 2 전자 장치(201)) (예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.The
센서 모듈(176)은 제 1 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.The
인터페이스(177)는 제 1 전자 장치(101)이 외부 전자 장치(예: 제 2 전자 장치(201))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The
연결 단자(178)는, 그를 통해서 제 1 전자 장치(101)가 외부 전자 장치(예: 제 2 전자 장치(201))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시예에 따르면, 연결 단자(178)은, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The
전력 관리 모듈(188)은 제 1 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(388)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The
배터리(189)는 제 1 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일 실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The
통신 모듈(190)은 제 1 전자 장치(101)와 외부 전자 장치(예: 제 2 전자 장치(201))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 네트워크(198a, 198b, 198c)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 다른 네트워크(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 네트워크(198a, 198b, 198c) 및/또는 다른 네트워크와 같은 통신 네트워크 내에서 제 1 전자 장치(101)를 확인 및 인증할 수 있다.The
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 제 1 전자 장치(101), 외부 전자 장치 또는 네트워크 시스템에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The
안테나 모듈(197)은 신호 및/또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 네트워크(198a, 198b, 198c) 및/또는 다른 네트워크와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.The
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to various embodiments, the
제 1 전자 장치(101)의 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components of the first
일 실시예에 따르면, 명령 또는 데이터는 네트워크에 연결된 서버를 통해서 제 1 전자 장치(101)와 외부의 제 2 전자 장치(201)간에 송신 또는 수신될 수 있다. 제 2 전자 장치(201) 각각은 제 1 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 제 1 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 제 2 전자 장치(201)에서 실행될 수 있다.According to an embodiment, commands or data may be transmitted or received between the first
예를 들면, 제 1 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 제 1 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 제 1 전자 장치(101)로 전달할 수 있다. 제 1 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 제 1 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치는 IoT(internet of things) 기기를 포함할 수 있다. 서버는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 제 1 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.For example, when the first
일 실시예에서, 제 2 전자 장치(201)는 네트워크(198a, 198b)(예: 근거리 무선 통신 네트워크)를 통하여 제 1 전자 장치(101)와 통신할 수 있다. 이어 버드들(2011, 2012) 각각은 네트워크(198a, 198b)(예: 근거리 무선 통신 네트워크)를 통하여 제 1 전자 장치(101)와 통신할 수 있다.In an embodiment, the second
다양한 실시예에서, 제 1 이어 버드(2011)는 제 1 네트워크(198a)를 통해서 제 1 전자 장치(101)와 통신할 수 있다. 제 2 이어 버드(2012)는 제 2 네트워크(198b)를 통해서 제 1 전자 장치(101)와 통신할 수 있다. 제 1 이어 버드(2011)는 제 3 네트워크(198c)를 통해서 제 2 이어 버드(2012)와 통신할 수 있다. In various embodiments, the
다양한 실시예에서, 통신 방식에 따라서, 제 1 네트워크(198a), 제 2 네트워크(198b), 및 제 3 네트워크(198c)를 통한 연결이 달라질 수 있다.In various embodiments, connections through the
LE 오디오(LE(low energy) audio) 통신 방식은 제 1 전자 장치(101)가 중앙(central) 장치로 동작하고, 이어 버드들(2011, 2012)이 주변(peripheral) 장치로 통신 연결하는 방식일 수 있다. 예를 들어, LE 오디오 통신 방식에서, 제 1 전자 장치(101)는 이어 버드들(2011, 2012) 각각에 여러 개의 독립적이고 동기화된 오디오 스트림을 전송할 수 있다. 또한, 이어 버드들(2011, 2012)은 제 1 전자 장치(101)에 독립적이고 동기화된 오디오 스트림을 전송할 수 있다.In the low energy (LE) audio (LE) communication method, the first
LE 오디오(LE(low energy) audio) 통신 방식은 멀티 스트림 오디오(multi stream audio)와 오디오 공유(audio sharing)를 위한 브로드캐스트 오디오(broadcast audio)를 사용할 수 있다. TWS 통신 방식은 이어 버드들(2011, 2012) 중 하나를 프라이머리(primary)로 제 1 전자 장치(101)와 통신 연결하고, 이어 버드들(2011, 2012) 중 다른 하나를 세컨더리(secondary)로 프라이머리 이어 버드와 통신 연결하는 방식일 수 있다.A low energy (LE) audio (LE) communication method may use multi stream audio and broadcast audio for audio sharing. The TWS communication method connects one of the
예를 들어, TWS 통신 방식에서, 제 1 이어 버드(2011)를 프라이머리로 제 1 네트워크(198a)를 제 1 전자 장치(101)와 통신 연결하고, 제 2 이어 버드(2012)를 세컨더리로 제 3 네트워크(198c)를 통해 제 1 이어 버드(2011)와 통신 연결할 수 있다. 이때, 제 2 네트워크(198b)는 유휴 상태 및/또는 연결되지 않을 수 있다. TWS 통신 방식에서, 제 2 이어 버드(2012)를 프라이머리로 제 2 네트워크(198b)를 제 1 전자 장치(101)와 통신 연결하고, 제 1 이어 버드(2011)를 세컨더리로 제 3 네트워크(198c)를 통해 제 2 이어 버드(2012)와 통신 연결할 수 있다. 이때, 제 1 네트워크(198a)는 유휴 상태 및/또는 연결되지 않을 수 있다.For example, in the TWS communication method, the
LE 오디오(LE(low energy) audio) 통신 방식에서, 제 1 이어 버드(2011)는 제 1 네트워크(198a)를 통해서 제 1 전자 장치(101)와 통신 연결되고, 제 2 이어 버드(2012)는 제 2 네트워크(198b)를 통해선 제 1 전자 장치(101)와 통신 연결될 수 있다. 이 때, 제 3 네트워크(198c)는 유휴 상태 및/또는 연결되지 않을 수 있다.In the low energy (LE) audio (LE) communication method, the
스니핑(sniffing) 통신 방식은 이어 버드들(2011, 2012) 중 하나를 프라이머리(primary)로 제 1 전자 장치(101)와 제 1 통신 링크를 이용하여 통신하고, 이어 버드들(2011, 2012) 중 다른 하나를 세컨더리(secondary)로 프라이머리 이어 버드와 제 1 통신 링크를 이용하여 통신 연결할 수 있다.In the sniffing communication method, one of the
예를 들어, 스니핑(sniffing) 통신 방식에서, 제 1 이어 버드(2011)를 프라이머리로 제 1 네트워크(198a)를 제 1 전자 장치(101)와 통신 연결하고, 제 2 이어 버드(2012)를 세컨더리로 제 3 네트워크(198c)를 통해 제 1 이어 버드(2011)와 통신 연결할 수 있다. 제 2 이어 버드(2012)는 제 1 네트워크(198a)를 모니터링하여 통신할 수 있다. 이때, 제 2 네트워크(198b)는 유휴 상태 및/또는 연결되지 않을 수 있다. 스니핑(sniffing) 통신 방식에서, 제 2 이어 버드(2012)를 프라이머리로 제 2 네트워크(198b)를 제 1 전자 장치(101)와 통신 연결하고, 제 1 이어 버드(2011)를 세컨더리로 제 3 네트워크(198c)를 통해 제 2 이어 버드(2012)와 통신 연결할 수 있다. 제 1 이어 버드(2011)는 제 2 네트워크(198b)를 모니터링하여 통신할 수 있다. 이때, 제 1 네트워크(198a)는 유휴 상태 및/또는 연결되지 않을 수 있다.For example, in a sniffing communication method, the
이어 버드들(2011, 2012) 각각은 프로세서(220), 메모리(230), 센서 모듈(260), 마이크로폰(271), 스피커(272), 전력 관리 회로(281), 배터리(282) 및/또는 통신 회로(290)를 포함할 수 있다.Each of the
프로세서(220)는, 예를 들면, 소프트웨어(예: 프로그램)를 실행하여 프로세서(220)에 연결된 제 2 전자 장치(201)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. The
일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(220)는 다른 구성요소(예: 센서 모듈(260) 또는 통신 회로(290))로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드하고, 휘발성 메모리에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다. 제 2 전자 장치(201)는 프로세서(220)에 결합된 휘발성 메모리 및/또는 비휘발성 메모리를 포함할 수 있다.According to one embodiment, as at least part of data processing or operation,
메모리(230)는 제 2 전자 장치(201)의 적어도 하나의 구성요소(예: 프로세서(220) 또는 센서 모듈(260))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(230)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다.The
일 실시예에 따르면, 메모리(230)는 프로세서(220) 및/또는 통신 회로(290)와 결합될 수 있다. According to one embodiment,
센서 모듈(260)은 근접 센서(261), 그립 센서(262), 가속도 센서(263), 홀 센서(264) 및/또는 자이로 센서(265)를 포함할 수 있다. 다양한 실시예에 따른 제 2 전자 장치(201)는 적어도 2개 이상의 그립 센서(262)를 포함할 수 있다. The
센서 모듈(260)은 제 2 전자 장치(201)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자의 착용 및/또는 탈착 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. The
센서 모듈(260)은 가속도 센서(263) 및/또는 자이로 센서(265)를 이용하여, 센서 모듈(260)의 움직임 및/또는 관성을 감지할 수 있다.The
제 2 전자 장치(201)는 근접 센서(261) 및/또는 그립 센서(262)를 이용하여 웨어러블 디바이스와 같은 제 2 전자 장치(201)가 제 2 전자 장치(201)의 사용자의 신체의 일부에 착용상태인지 또는 탈착상태인지 여부를 감지할 수 있다. The second
예를 들어, 근접 센서(261) 전자기장이나 전자기파(예, 적외선)를 방출하여 돌아오는 신호를 감지하여 사용자의 신체의 일부에 제 2 전자 장치(201)가 접촉했는지 여부를 판단하거나, 제 2 전자 장치(201)가 사용자의 신체의 일부에 착용 및/또는 탈착되었는지 판단할 수 있다.For example, the proximity sensor 261 emits electromagnetic fields or electromagnetic waves (eg, infrared rays) and detects a return signal to determine whether or not the second
그립 센서(262)는 정전용량 또는 유전율의 변화를 감지하여 사용자가 제 2 전자 장치(201)의 일부에 접촉하였는지 여부를 판단하거나, 제 2 전자 장치(201)가 사용자의 신체의 일부에 착용 및/또는 탈착되었는지 판단할 수 있다.The
가속도 센서(263)는 제 2 전자 장치(201)의 움직임 및/또는 관성을 감지할 수 있다.The
홀(hall) 센서(264)는 홀 효과(hall effect)에 기반하여 크래들(미도시)에 제 2 전자 장치(201)가 안착되는지 여부를 감지할 수 있다. 홀 센서(264)는 크래들(미도시)의 커버가 열고 닫혔는지 여부를 감지할 수 있다.The
홀 센서(264)는 크래들(미도시)에 제 2 전자 장치(201)가 안착되는지 여부를 감지하여 감지 정보를 프로세서(220)에 전달할 수 있다.The
홀 센서(264)는 크래들(미도시)의 커버가 열고 닫혔는지 여부를 감지하여 감지 정보를 프로세서(220)에 전달할 수 있다.The
자이로 센서(265)는 제 2 전자 장치(201)의 움직임 및/또는 관성을 감지할 수 있다.The
크래들(미도시)은 외부 전자 장치로서, 제 2 전자 장치(201)가 크래들(미도시)에 안착되면, 제 2 전자 장치(201)에 전력을 공급할 수 있다. The cradle (not shown) is an external electronic device, and when the second
근접 센서(261)는 근접 센서(261)의 동작을 제어하는 회로(예, integrated circuit, IC)를 포함할 수 있다. 그립 센서(262)는 그립 센서(262)의 동작을 제어하는 회로(예, integrated circuit, IC)를 포함할 수 있다.The proximity sensor 261 may include a circuit (eg, integrated circuit, IC) that controls the operation of the proximity sensor 261 . The
가속도 센서(263)는 가속도 센서(263)의 동작을 제어하는 회로(예, integrated circuit, IC)를 포함할 수 있다.The
자이로 센서(265)는 자이로 센서(265)의 동작을 제어하는 회로(예, integrated circuit, IC)를 포함할 수 있다.The
자이로 센서(265)의 동작을 제어하는 회로 가속도 센서(263)의 동작을 제어하는 회로, 근접 센서(261)의 동작을 제어하는 회로 및/또는 그립 센서(262)의 동작을 제어하는 회로는 제 2 전자 장치(201)에 포함될 수 있고, 프로세서(220)로 구현될 수 있다.The circuit that controls the operation of the
마이크로폰(271)은 통해 획득한 소리를 전기 신호로 변환시킬 수 있다. 프로세서(220)는 무선으로 연결된 제 1 전자 장치(101)로부터 획득한 전기적 신호를 처리할 수 있다. 스피커(272)는 프로세서(220)에 의해 처리된 전기적 신호를 소리로 출력할 수 있다.The
전력 관리 회로(281)는 제 2 전자 장치(201)에 공급되는 전력을 관리할 수 있다. 전력 관리 회로(281)는 배터리(282)가 제 2 전자 장치(201)의 각 구성요소에 필요한 전력을 공급할 수 있도록 제어할 수 있다. 전력 관리 회로(281)는 배터리(282)의 충전 상태를 제어할 수 있다.The
배터리(282)는 제 2 전자 장치(201)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일 실시예에 따르면, 배터리(282)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 및/또는 연료 전지를 포함할 수 있다.The
전력 관리 회로(281)는 제 2 전자 장치(201)에 대한 외부 전원으로부터 공급되는 전력을 이용하여 배터리(282)를 충전할 수 있다.The
일 실시예에 따르면, 전력 관리 회로(281)는 외부 전원의 종류(예: 전원 어댑터, USB 또는 무선 충전), 외부 전원으로부터 공급 가능한 전력의 크기 및/또는 배터리(282)의 속성 중 적어도 일부에 기반하여 충전 방식(예: 일반 충전 또는 급속 충전)을 선택하고, 선택된 충전 방식을 이용하여 배터리(282)를 충전할 수 있다.According to one embodiment, the
외부 전원은 제 2 전자 장치(201)와, 예를 들면, 커넥터 핀을 통해 유선 연결되거나, 또는 통신 회로(290)에 포함된 안테나를 통해 무선으로 연결될 수 있다.The external power source may be connected to the second
전력 관리 회로(281)는 측정된 사용 상태 정보에 적어도 일부 기반하여 배터리(282)의 충전과 관련된 충전 상태 정보(예: 수명, 과전압, 저전압, 과전류, 과충전, 과방전(over discharge), 과열, 단락, 또는 팽창(swelling))를 결정하고, 결정된 충전 상태 정보에 기반하여 배터리(282)의 충전 동작을 제어할 수 있다.The
통신 회로(290)는 제 2 전자 장치(201)와 외부 전자 장치(예: 제 1 전자 장치(101)) 및/또는 제 2 전자 장치(201)와 크래들(미도시) 간의 유선 및/또는 무선 통신 채널의 수립 및/또는 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. The
일 실시예에 따르면, 통신 회로(290)는 무선 통신 모듈 (예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈을 포함할 수 있다. 통신 회로(290)는 네트워크(198a, 198b, 198c)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크)를 통하여 외부 전자 장치(예, 제 1 전자 장치(101))와 통신할 수 있다.According to an embodiment, the
통신 회로(290)는 안테나 모듈을 포함할 수 있다. 통신 회로(290)의 안테나 모듈은 신호 및/또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시예에 따르면, 통신 회로(290)의 안테나 모듈은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일 실시예에 따르면, 안테나 모듈은 복수의 안테나들을 포함할 수 있다. 이런 경우, 네트워크(198a, 198b, 198c)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가 통신 회로(290)에 의하여 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 선택된 적어도 하나의 안테나를 통하여 통신 회로(290)와 외부 전자 장치(예, 제 1 전자 장치(101)) 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈의 일부로 형성될 수 있다.
도 4는 본 개시의 다양한 실시예에 따른 제 2 전자 장치(201)에서 제 1 전자 장치(101)로 전송되는 오디오 데이터를 나타내는 도면이다. 4 is a diagram illustrating audio data transmitted from the second
제 1 전자 장치(101)는 통신 모듈(190)을 통해서 제 2 전자 장치(201)와 통신 연결될 수 있다.The first
제 1 전자 장치(101) 및 제 2 전자 장치(201)는 블루투스 통신 방식을 이용하여 통신할 수 있다.The first
블루투스 통신 방법은 BR/EDR(basic rate/enhanced data rate)을 포함하는 블루투스 클래식(Bluetooth classic) 방식 및/또는 블루투스 저전력(Bluetooth low energy) 방식을 포함할 수 있다.The Bluetooth communication method may include a Bluetooth classic method including a basic rate/enhanced data rate (BR/EDR) method and/or a Bluetooth low energy method.
일 실시예에서, 제 1 전자 장치(101) 및 제 2 전자 장치(201)는 LE 오디오(LE(low energy) audio)에 기반하여 통신할 수 있다.In an embodiment, the first
제 1 전자 장치(101) 및 제 2 전자 장치(201)는 블루투스 코어 사양 버전 5.2(Bluetooth core specification version 5.2) 이상에서 지원되는 LE 등시 채널(LE(low energy)isochronous channels)을 이용하여 오디오 데이터를 송수신할 수 있다.The first
제 1 전자 장치(101) 및 제 2 전자 장치(201)는 블루투스 코어 사양 버전 5.2에 기반하여 통신할 수 있다. 블루투스 코어 사양 버전 5.2는 LC3(low complexity communication codec) 코덱, 멀티 스트림 오디오(multi stream audio), 브로드캐스트 오디오(broadcast audio) 및/또는 오디오 공유(audio sharing) 기능을 지원할 수 있다.The first
제 1 전자 장치(101)는 중앙(central) 장치이고, 제 2 전자 장치(201)는 주변(peripheral) 장치일 수 있다.The first
LE 오디오 통신 방식에서, 제 1 전자 장치(101)는 제 2 전자 장치(201)에 포함된 이어 버드들(2011, 2012) 각각에 여러 개의 독립적이고 동기화된 오디오 스트림을 전송할 수 있다. 또한, 이어 버드들(2011, 2012)은 제 1 전자 장치(101)에 독립적이고 동기화된 오디오 스트림을 전송할 수 있다.In the LE audio communication method, the first
LE 오디오(LE(low energy) audio) 통신 방식은 멀티 스트림 오디오(multi stream audio)와 오디오 공유(audio sharing)을 위한 브로드캐스트 오디오(broadcast audio)를 사용할 수 있다. LE 오디오 통신 방식은 멀티 스트림 오디오를 지원하기 위해서 CIG(connected isochronous group) 또는 CIS(connected isochronous stream)을 포함할 수 있다.A low energy (LE) audio (LE) communication method may use multi stream audio and broadcast audio for audio sharing. The LE audio communication scheme may include a connected isochronous group (CIG) or a connected isochronous stream (CIS) in order to support multi-stream audio.
도 4를 참조하면, CIG는 중앙(central) 장치에서 생성되며 CIG는 적어도 하나 이상의 CIS를 포함할 수 있다. CIS는 중앙(central) 장치에서 특정 주변(peripheral) 장치 간의 점대점(point-to-point) 데이터 전송 스트림이며, 승인(acknowledgment)이 있는 양방향(bidirectional) 통신일 수 있다. Referring to FIG. 4 , CIG is generated in a central device, and CIG may include at least one CIS. CIS is a point-to-point data transport stream between a central device and specific peripheral devices, and may be bidirectional communication with acknowledgment.
제 1 전자 장치(101)에 통신 연결된 다수의 외부 전자 장치(예를 들어, 이어 버드들(2011, 2012))에 패킷 및/또는 데이터를 등시적으로 전달하기 위해서, 제 1 전자 장치(101)는 CIS를 기반으로 각각의 외부 전자 장치에 전달되는 패킷 및/또는 데이터를 묶어서 동기화하여 제 2 전자 장치(201)에 전달할 수 있다.In order to isochronously transfer packets and/or data to a plurality of external electronic devices (eg,
또한, 제 2 전자 장치(201)의 이어 버드들(2011, 2012)이 마이크로폰(271)으로부터 획득한 오디오 데이터 및/또는 패킷은 CIS 및/또는 CIG를 기반으로 묶어서 동기화하여 제 1 전자 장치(101)에 전달할 수 있다.In addition, audio data and/or packets acquired from the
도 4를 참조하면, CIS 및/또는 CIG는 앵커 포인트(anchor point)간의 시간을 가지는 ISO 인터벌(ISO_interval) 동안에 데이터 및/또는 패킷을 동기화하여 전송할 수 있다. CIS는 적어도 하나 이상의 서브 이벤트 또는 서브 인터벌(CIS sub_interval)을 포함할 수 있다. Referring to FIG. 4 , CIS and/or CIG may synchronize and transmit data and/or packets during an ISO interval (ISO_interval) having time between anchor points. CIS may include at least one sub-event or sub-interval (CIS sub_interval).
제 1 이어 버드(2011)에서 제 1 전자 장치(101)로 전송되는 제 1 오디오 데이터(401), 제 2 오디오 데이터(402)는 제 1 CIS(CIS 1 event x)가 되고, 제 2 이어 버드(2012)에서 제 1 전자 장치(101)로 전송되는 제 3 오디오 데이터(403), 제 4 오디오 데이터(404)는 제 2 CIS(CIS 2 event x)가 될 수 있다. 제 1 CIG(CIG event x)는 ISO 인터벌(ISO_interval) 동안에 제 1 CIS(CIS 1 event x) 및 제 2 CIS(CIS 2 event x)를 포함할 수 있다. 일 실시 예에 따르면, 제 2 오디오 데이터(402)는 제 1 오디오 데이터(401)의 재전송 오디오 데이터이고, 제 4 오디오 데이터(404)는 제 3 오디오 데이터(403)의 재전송 오디오 데이터일 수 있다.The
제 1 이어 버드(2011)에서 제 1 전자 장치(101)로 전송되는 제 5 오디오 데이터(405), 제 6 오디오 데이터(406)는 제 3 CIS(CIS 1 event x+1)가 되고, 제 2 이어 버드(2012)에서 제 1 전자 장치(101)로 전송되는 제 7 오디오 데이터(407), 제 8 오디오 데이터(408)는 제 4 CIS(CIS 2 event x+1)가 될 수 있다. 제 2 CIG(CIG event x+1)는 ISO 인터벌(ISO_inteval) 동안에 제 3 CIS(CIS 1 event x+1) 및 제 4 CIS(CIS 2 event x+1)를 포함할 수 있다. 일 실시 예에 따르면, 제 6 오디오 데이터(406)는 제 5 오디오 데이터(405)의 재전송 오디오 데이터이고, 제 8 오디오 데이터(408)는 제 7 오디오 데이터(407)의 재전송 오디오 데이터일 수 있다.The
도 4는 시퀀셜(sequential) 방식으로 오디오 데이터를 전송하는 방식에 관하여 설명하고 있으나, 다양한 실시예에서, 본 개시의 제 2 전자 장치(201)의 이어 버드들(2011, 2012) 및 제 1 전자 장치(101)는 인터리브(interleaved) 방식으로, 오디오 데이터를 송신 수신할 수 있다.Although FIG. 4 describes a method of transmitting audio data in a sequential manner, in various embodiments, the
도 5는 본 개시의 다양한 실시예에 따른 제 1 전자 장치(101)에서 오디오 데이터를 처리하는 과정을 나타내는 계층도이다.5 is a hierarchical diagram illustrating a process of processing audio data in the first
데이터 처리 계층(500)은 상위 계층(upper layer)(501), 등시 적응 계층(isochronous adaptive layer, ISOAL layer)(502) 및/또는 하위 계층(lower layer)(503)를 포함할 수 있다.The
도 4를 참조하면, 제 1 전자 장치(101)는 통신 모듈(190)을 통해 제 1 이어 버드(2011) 및 제 2 이어 버드(2012)로부터 CIS 및/또는 CIG에 기반하여 오디오 데이터(예를 들어, 제 1 오디오 데이터(401), 제 2 오디오 데이터(402), 제 3 오디오 데이터(403), 제 4 오디오 데이터(404), 제 5 오디오 데이터(405), 제 6 오디오 데이터(406), 제 7 오디오 데이터(407), 제 8 오디오 데이터(408))를 수신할 수 있다.Referring to FIG. 4 , the first
제 1 전자 장치(101)는 하위 계층(lower layer)(503)의 기저 대역 리소스 관리자(baseband resource manager)(531)을 통해 제 1 이어 버드(2011) 및 제 2 이어 버드(2012)로부터 전송된 오디오 데이터를 수신할 수 있다. The first
기저 대역 리소스 관리자(531)는 물리 채널을 정의하고 채널에 대한 호핑(hopping) 동작을 수행할 수 있다. 기저 대역 리소스 관리자(531)는 링크를 설정할 수 있다. 기저 대역 리소스 관리자(531)는 패킷을 정의하고 생성할 수 있다. The
제 1 이어 버드(2011) 및 제 2 이어 버드(2012)로부터 수신된 오디오 데이터는 프로토콜 데이터인 프로토콜 데이터 단위(protocol data unit, PDU)들로 수신될 수 있다. Audio data received from the
기저 대역 리소스 관리자(531)는 수신된 오디오 데이터의 패킷 체크 후에 등시 적응 계층(502)으로 전송할 수 있다. The
등시 적응 계층(502)은 등시 적응 관리자(521)를 포함할 수 있다. 기저 대역 리소스 관리자(531)는 수신된 오디오 데이터의 패킷 체크 후에 framed PDU과 unframed PDU들로 분류하여 등시 적응 관리자(521)로 전송할 수 있다. The isochronous adaptation layer 502 may include an
등시 적응 계층(502)은 상위 계층(upper layer)(501)과 하위 계층(503) 사이에서 등시 데이터(isochronous data)의 이동 시 연결 통로로 이용될 수 있다. The isochronous adaptation layer 502 may be used as a connection path when isochronous data moves between an upper layer 501 and a
등시 적응 계층(502)은 상위 계층(501)의 서비스 데이터인 서비스 데이터 단위(service data unit)를 기저 대역 전송에 필요한 프로토콜 데이터인 PDU로 변환할 수 있다. 등시 적응 계층(502)은 PDU를 상위 계층(501)에 필요한 SDU로 변환할 수 있다. The isochronous adaptation layer 502 may convert a service data unit, which is service data of the upper layer 501, into a PDU, which is protocol data required for baseband transmission. The isochronous adaptation layer 502 may convert the PDU into an SDU required by the upper layer 501.
등시 적응 계층(502)은 SDU들 및/또는 PDU들을 단편화(fragmentation), 재조합(recombination), 캡슐화(encapsulation), 분할(segmentation) 및/또는 재조립(reassembly)할 수 있다. 등시 적응 관리자(521)는 unframed PDU들을 단편화(fragmentation) 및/또는 재조합(recombination)할 수 있다. 등시 적응 관리자(521)는 framed PDU들을 분할(segmentation) 및/또는 재조립(reassembly)할 수 있다. Isochronous adaptation layer 502 may fragment, recombine, encapsulate, segmentate and/or reassemble SDUs and/or PDUs. The
등시 적응 계층(502) 및/또는 하위 계층(503)은 제 1 전자 장치(101)의 통신 모듈(190)에 포함될 수 있다. 예를 들어, 통신 모듈(190)은 블루투스 칩셋일 수 있다. 일 실시예에서, 등시 적응 계층(502) 및/또는 하위 계층(503)은 제 1 전자 장치(101)의 블루투스 칩셋에 포함될 수 있다.The isochronous adaptation layer 502 and/or the
제 1 전자 장치(101)는 수신된 오디오 데이터를 처리하기 위해서 상위 계층(501)에서 등시 적응 계층(502)으로 호스트 컨트롤러 인터페이스(host controller interface, HCI) 등시 데이터(HCI ISO data) 또는 호스트 컨트롤러 인터페이스 커맨드(HCI command)를 전송할 수 있다. SDU들은 HCI 등시 데이터(HCI ISO data)에 기반하여 상위 계층(501)으로 전송될 수 있다. SDU들은 등시 데이터(HCI ISO data)에 기반하여 상위 계층(501)에서 등시 적응 계층(502) 또는 하위 계층(503)으로 전송될 수 있다. 일 실시예에서, SDU들은 이행 특정 전송(implementation-specific transport)에 기반하여 상위 계층(501)으로 전송될 수 있다. SDU들은 이행 특정 전송(implementation-specific transport)에 기반하여 상위 계층(501)에서 등시 적응 계층(502) 또는 하위 계층(503)으로 전송될 수 있다.The first
HCI 등시 데이터(HCI ISO data) 또는 호스트 컨트롤러 인터페이스 커맨드(HCI command)는 커넥션 핸들(connection handle)에 관한 패킷을 포함하며, 하나의 오디오 데이터, 하나의 PDU 또는 하나의 SDU에는 커넥션 핸들에 관한 패킷을 포함할 수 있다. HCI ISO data or host controller interface command (HCI command) includes a packet related to a connection handle, and one audio data, one PDU or one SDU includes a packet related to a connection handle. can include
도 6은 본 개시의 다양한 실시예에 따른 제 1 전자 장치(101)의 오디오 데이터 처리 방법을 나타내는 순서도이다.6 is a flowchart illustrating an audio data processing method of the first
제 1 전자 장치(101)는, 601 동작에서, 프로세서(120)의 제어 하에, 통신 모듈(190)을 통해서 이어 버드들(2011, 2012)과 통신 연결될 수 있다. In
일 실시예에서, 제 1 전자 장치(101)는, 601 동작에서, 프로세서(120)의 제어 하에, 이어 버드들(2011, 2012)과 LE 등시 채널(LE(low energy)isochronous channels)에 기반하여 통신 연결될 수 있다. In one embodiment, the first
제 1 전자 장치(101)는, 603 동작에서, 프로세서(120)의 제어 하에, 통신 모듈(190)을 통해서 이어 버드들(2011, 2012)로부터 오디오 데이터를 수신할 수 있다. In
일 실시예에서, 통신 모듈(190)은 블루투스 코어 사양 버전 5.2 이상이 적용된 블루투스 칩셋 및/또는 블루투스 모듈일 수 있다. 블루투스 칩셋 및/또는 블루투스 모듈은 등시 적응 계층(502) 및/또는 하위 계층(503)을 포함할 수 있다. In one embodiment, the
제 1 전자 장치(101)는, 603 동작에서, 프로세서(120)의 제어 하에, 이어 버드들(2011, 2012)과 LE 등시 채널(LE(low energy)isochronous channels)에 기반하여 통신 연결되면, 이어 버드들(2011, 2012)로부터 오디오 데이터를 수신할 수 있다.When the first
일 실시예에서, 이어 버드들(2011, 2012)은 마이크로폰(271)으로부터 획득한 오디오 데이터 및/또는 패킷을 CIS 및/또는 CIG를 기반으로 묶어서 동기화하여 제 1 전자 장치(101)에 전달할 수 있다.In one embodiment, the
일 실시예에서, 이어 버드들(2011, 2012)은 마이크로폰(271)으로부터 획득한 오디오 데이터 및/또는 패킷을 LE 등시 채널에 기반하여 제 1 전자 장치(101)에 전달할 수 있다.In one embodiment, the
일 실시예에서, 제 1 전자 장치(101)는, 603 동작에서, 프로세서(120)의 제어 하에, 이어 버드들(2011, 2012)로부터 수신한 오디오 데이터는 하위 계층(503)으로 전달될 수 있다. In one embodiment, in
제 1 전자 장치(101)는, 603 동작에서, 프로세서(120)의 제어 하에, 오디오 통합에 관한 커맨드를 통신 모듈(190)에 전송할 수 있다.In
일 실시예에서, 제 1 전자 장치(101)는, 6035동작에서, 프로세서(120)의 제어 하에, 오디오 통합에 관한 커맨드를 블루투스 칩셋 및/또는 블루투스 모듈에 전송할 수 있다.In an embodiment, in operation 6035, the first
일 실시예에서, 제 1 전자 장치(101)는, 605 동작에서, 프로세서(120)의 제어 하에, 오디오 통합에 관한 커맨드를 블루투스 칩셋 및/또는 블루투스 모듈에 전송과 함께 코덱 모듈에 대한 오디오를 설정할 수 있다. 오디오 통합에 관한 커맨드는 호스트 컨트롤러 인터페이스(host controller interface, HCI) 커맨드 중 하나일 수 있다.In an embodiment, in
오디오 통합에 관한 커맨드는 CIS 오디오 통합 설정에 대한 커맨드일 수 있다. The command for audio integration may be a command for setting CIS audio integration.
오디오 통합에 관한 커맨드는 상위 계층(501)에서 블루투스 칩셋 및/또는 블루투스 모듈로 전송할 수 있다. 상위 계층(501)은 프로세서(120), 통신 모듈(190) 및/또는 메모리(130)에 포함될 수 있다. 상위 계층(501)은 코덱 모듈 및/또는 호스트 소프트웨어에 포함될 수 있다. 프로세서(120), 통신 모듈(190) 및/또는 메모리(130)은 코덱 모듈 및/또는 호스트 소프트웨어를 포함할 수 있다. 코덱 모듈은 DSP(digital signal processor)와 같은 하드웨어로 구현될 수 있다. A command related to audio integration may be transmitted from an upper layer 501 to a Bluetooth chipset and/or a Bluetooth module. The upper layer 501 may be included in the
제 1 전자 장치(101)가 오디오 통합에 관한 커맨드를 전송하지 않으면, 제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, CIS 및/또는 CIG에 기반하여 전송되는 오디오 데이터가 각각의 채널 별로 음원 데이터를 처리하여 제 1 이어 버드(2011)와 제 2 이어 버드(2012) 각각의 오디오 데이터에 대한 싱크를 맞추기 어렵고 플러시 시간 초과(flush timeout)로 인해서 데이터 손실이 발생할 가능성이 있다.If the first
제 1 전자 장치(101)는 오디오 통합에 관한 커맨드에 기반하여 통합 오디오 데이터를 처리함으로써, 상위 계층(501)에 통합된 데이터 패킷을 전달할 수 있다. 상위 계층(501)에서 통합된 데이터 패킷을 처리하면, 제 1 전자 장치(101)는 오디오 데이터 처리에 있어서 데이터 싱크를 맞추기 효율적이고, 패킷 손실을 용이하게 처리할 수 있다. The first
제 1 전자 장치(101)는, 607 동작에서, 프로세서(120)의 제어 하에, 오디오 통합에 관한 커맨드에 기반하여 통합 오디오 데이터를 처리할 수 있다.In
일 실시예에서, 제 1 전자 장치(101)는, 607 동작에서, 프로세서(120)의 제어 하에, 오디오 통합에 관한 커맨드에 기반하여 블루투스 칩셋 및/또는 블루투스 모듈에서 통합 오디오 데이터를 생성할 수 있다. In an embodiment, the first
일 실시예에서, 제 1 전자 장치(101)는, 607동작에서, 프로세서(120)의 제어 하에, 오디오 통합에 관한 커맨드에 기반하여 블루투스 칩셋 및/또는 블루투스 모듈에서 통합 오디오 데이터를 처리할 수 있다. In one embodiment, in
일 실시예에서, 제 1 전자 장치(101)는, 607 동작에서, 프로세서(120)의 제어 하에, 오디오 통합에 관한 커맨드에 기반하여 블루투스 칩셋 및/또는 블루투스 모듈에서 생성된 통합 오디오 데이터를 처리할 수 있다. In an embodiment, the first
일 실시예에서, 제 1 전자 장치(101)는, 607 동작에서, 프로세서(120)의 제어 하에, 오디오 통합에 관한 커맨드에 기반하여 등시 적응 계층(502) 및/또는 하위 계층(503)에서 통합 오디오 데이터를 처리할 수 있다. CIS 및/또는 CIG 오디오 데이터들은 각각의 고유한 커넥션 핸들(connection handle)을 포함할 수 있다. In one embodiment, the first
일 실시예에서, 제 1 전자 장치(101)는, 607 동작에서, 프로세서(120)의 제어 하에, 오디오 통합에 관한 커맨드에 기반하여 동일한 ISO 인터벌에 속한 좌/우 이어 버드들(2011, 2012)로부터 수신된 오디오 데이터를 하나로 합치고 통합 오디오 데이터를 생성할 수 있다. In an embodiment, the first
CIS 및/또는 CIG 오디오 데이터들이 이어 버드들(2011, 2012)에서 제 1 전자 장치(101)로 전송될 때, 한 종류의 오디오 데이터들만 전송되는 것이 아니라 여러 종류의 오디오 데이터가 전송될 수 있다.When CIS and/or CIG audio data are transmitted from the
또는, CIS 및/또는 CIG 오디오 데이터들이 이어 버드들(2011, 2012)에서 제 1 전자 장치(101)로 전송될 때, 정해진 인터벌보다 짧은 인터벌을 가지는 ISO 인터벌에 포함된 오디오 데이터가 전송되거나 레이턴시가 상대적으로 덜 중요한 오디오 데이터가 전송될 수 있다. Alternatively, when CIS and/or CIG audio data are transmitted from the
일 실시예에서, 제 1 전자 장치(101)는, 607 동작에서, 프로세서(120)의 제어 하에, 오디오 통합에 관한 커맨드에 기반하여 복수의 ISO 인터벌에 속한 좌/우 이어 버드들(2011, 2012)로부터 수신된 오디오 데이터를 하나로 합치고 통합 오디오 데이터를 생성할 수 있다. In an embodiment, the first
CIS 및/또는 CIG 오디오 데이터들이 이어 버드들(2011, 2012)에서 제 1 전자 장치(101)로 전송될 때, CIS 및/또는 CIG 오디오 데이터들은 데이터 손실이 있을 수 있다. When the CIS and/or CIG audio data are transmitted from the
일 실시예에서, 수신된 오디오 데이터에 데이터 손실이 있으면, 제 1 전자 장치(101)는, 607 동작에서, 프로세서(120)의 제어 하에, 오디오 통합에 관한 커맨드에 기반하여 특정 패킷을 추가하여 좌/우 이어 버드들(2011, 2012)로부터 수신된 오디오 데이터를 하나로 합치고 통합 오디오 데이터를 생성할 수 있다.In one embodiment, if there is data loss in the received audio data, the first
일 실시예에서, 수신된 오디오 데이터에 데이터 손실이 있으면, 제 1 전자 장치(101)는, 607 동작에서, 프로세서(120)의 제어 하에, 특정 패킷에 기반하여 PLC(packet loss concealment) 처리하고 손실된 오디오 데이터를 복원할 수 있다. In one embodiment, if there is data loss in the received audio data, the first
일 실시예에서, 수신된 오디오 데이터에 데이터 손실이 있으면, 제 1 전자 장치(101)는, 607 동작에서, 프로세서(120)의 제어 하에, 특정 패킷에 기반하여 PLC(packet loss concealment) 처리할 수 없다면, 손실된 데이터를 전송하기 전의 데이터에 기반하여 통합 오디오 데이터를 생성할 수 있다. In one embodiment, if there is data loss in the received audio data, in
일 실시예에서, 특정 패킷에 기반하여 PLC(packet loss concealment) 처리할 수 없다면, 제 1 전자 장치(101)는, 607 동작에서, 프로세서(120)의 제어 하에, 손실된 데이터를 전송하기 전의 데이터를 복사하거나 일부를 수정하여 통합 오디오 데이터를 생성할 수 있다.In one embodiment, if packet loss concealment (PLC) processing cannot be performed based on a specific packet, the first
특정 패킷은 예를 들어 PLC(packet loss concealment) 처리를 위한 패킷일 수 있다. The specific packet may be, for example, a packet for packet loss concealment (PLC) processing.
상위 계층(501)은 데이터 손실이 있는 오디오 데이터가 전달되면 어느 위치에서 데이터가 손실되었는지 판단하기 어렵다. 상위 계층(501)은 특정 패킷에 기반하여 데이터 손실이 있는 오디오 데이터를 PLC(packet loss concealment) 처리할 수 있다. When audio data with data loss is transmitted, the upper layer 501 has difficulty determining where data is lost. An upper layer 501 may perform packet loss concealment (PLC) processing of audio data having data loss based on a specific packet.
제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, 좌/우 이어 버드들(2011, 2012)의 사용 정보 및 오류 데이터를 판단할 수 있다.The first
예를 들어, 제 1 전자 장치(101)는 이어 버드들(2011, 2012)로부터 전달받은 패킷의 헤더 혹은 페이로드에 기입된 정보, 또는 기존의 정보를 이용하여 오디오 데이터의 사용여부를 판단할 수 있다. 또는, 제 1 전자 장치(101)는 상황 정보에 기반하여 오디오 데이터의 사용여부를 판단할 수 있다. For example, the first
이어 버드들(2011, 2012)은 미 착용된 이어 버드로부터 전송되는 오디오 데이터는 오류임을 알리는 데이터를 제 1 전자 장치(101)에 전송할 수 있다. The
일 실시예에서, 제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, 미 착용된 이어 버드로부터 전송되는 오디오 데이터가 오류임을 판단할 수 있다. In one embodiment, the first
일 실시예에서, 제 1 전자 장치(101)는, 607 동작에서, 프로세서(120)의 제어 하에, 좌/우 이어 버드들(2011, 2012)의 사용 정보에 기반하여, 좌/우 이어 버드들(2011, 2012)로부터 수신된 오디오 데이터를 하나로 합치고 통합 오디오 데이터를 생성할 수 있다.In one embodiment, the first
일 실시예에서, 제 1 이어 버드(2011)는 착용 상태에 있고, 제 2 이어 버드(2012)는 미 착용 상태에 있으면, 제 1 전자 장치(101)는, 607 동작에서, 프로세서(120)의 제어 하에, 제 1 이어 버드(2011)에서 수신된 오디오 데이터를 하나로 합치고 통합 오디오 데이터를 생성할 수 있다.In one embodiment, when the
일 실시예에서, 제 1 이어 버드(2011)는 착용 상태에 있고, 제 2 이어 버드(2012)는 미 착용 상태에 있으면, 제 1 전자 장치(101)는, 607 동작에서, 프로세서(120)의 제어 하에, 제 1 이어 버드(2011)에서 수신된 오디오 데이터 및 제 2 이어 버드(2011)의 오디오 데이터를 대체하는 특정 데이터를 하나로 합치고 통합 오디오 데이터를 생성할 수 있다.In one embodiment, when the
제 1 이어 버드(2011)는 착용 상태에 있고, 제 2 이어 버드(2012)는 미 착용 상태에서 착용 상태로 전환되면, 제 1 전자 장치(101)는, 607 동작에서, 프로세서(120)의 제어 하에, 제 1 이어 버드(2011)에서 수신된 오디오 데이터 및 제 2 이어 버드(2011)에서 수신된 오디오 데이터를 하나로 합치고 통합 오디오 데이터를 생성할 수 있다.When the
일 실시예에서, 제 1 전자 장치(101)는, 607 동작에서, 프로세서(120)의 제어 하에, 통합 오디오 데이터에 커넥션 핸들(connection handle)을 부여하고, 커넥션 핸들에 기반하여 통합 오디오 데이터를 상위 계층(501)에 전송할 수 있다. In an embodiment, the first
일 실시예에서, 커넥션 핸들은 사용자 선택 또는 설정에 의해서 결정될 수 있다. 커넥션 핸들은 종래 사용되는 커넥션 핸들 중에 하나에서 선택될 수 있다. 커넥션 핸들은 첫번째 오디오 데이터 또는 마지막 오디오 데이터에 포함된 커넥션 핸들 중에 하나에서 선택될 수 있다. 커넥션 핸들은 CIG ID일 수 있다. 커넥션 핸들은 새롭게 정의된 값일 수 있다. In one embodiment, the connection handle may be determined by user selection or setting. The connection handle may be selected from among conventionally used connection handles. The connection handle may be selected from among connection handles included in the first audio data or the last audio data. A connection handle may be a CIG ID. A connection handle may be a newly defined value.
일 실시예에서, 제 1 전자 장치(101)는, 607 동작에서, 프로세서(120)의 제어 하에, 통합 오디오 데이터를 상위 계층(501)에 전송할 수 있다. In an embodiment, the first
일 실시예에서, 제 1 전자 장치(101) 상의 오디오 모듈의 입력 방식이 미리 정의되어 있다면, 제 1 전자 장치(101)는, 607 동작에서, 프로세서(120)의 제어 하에, 통합 오디오 데이터를 커넥션 핸들 없이 상위 계층(501)에 전송할 수 있다.In one embodiment, if the input method of the audio module on the first
일 실시예에서, 제 1 전자 장치(101)는, 607 동작에서, 프로세서(120)의 제어 하에, 통합 오디오 데이터를 처리하여 음향 출력 장치(155)로 출력할 수 있다.In an embodiment, in
제 1 전자 장치(101)는, 607 동작에서, 프로세서(120)의 제어 하에, 통합 오디오 데이터를 블루투스 칩셋 및/또는 블루투스 모듈에서 호스트 소프트웨어를 거쳐 코덱 모듈에 전달할 수 있다. 제 1 전자 장치(101)는, 605 동작에서, 프로세서(120)의 제어 하에, 호스트 소프트웨어에서 전달받은 통합 오디오 데이터를 코덱 모듈에서 디코딩하여 음향 출력 장치(155)로 출력할 수 있다.In
코덱 모듈은 예를 들어 SBC(sub-band codec), aptX 코덱 및/또는 LC3 코덱을 포함할 수 있다. The codec module may include, for example, a sub-band codec (SBC), aptX codec, and/or LC3 codec.
일 실시예에서, 제 1 전자 장치(101)는, 607 동작에서, 프로세서(120)의 제어 하에, 통합 오디오 데이터를 블루투스 칩셋 및/또는 블루투스 모듈에서 DSP(digital signal processor)에 전달할 수 있다. 제 1 전자 장치(101)는, 605 동작에서, 프로세서(120)의 제어 하에, 블루투스 칩셋 및/또는 블루투스 모듈에서 전달받은 통합 오디오 데이터를 DSP에서 디코딩하여 음향 출력 장치(155)로 출력할 수 있다. DSP는 코덱 모듈을 포함할 수 있다. In one embodiment, in
일 실시예에서, 제 1 전자 장치(101)는, 607 동작에서, 프로세서(120)의 제어 하에, 통합 오디오 데이터를 블루투스 칩셋 및/또는 블루투스 모듈에서 디코딩하여 DSP에 전달할 수 있다. 제 1 전자 장치(101)는, 607 동작에서, 프로세서(120)의 제어 하에, 디코딩된 통합 오디오 데이터를 DSP에서 후처리할 수 있다. 블루투스 칩셋 및/또는 블루투스 모듈은 코덱 모듈을 포함할 수 있다. In an embodiment, the first
제 1 전자 장치(101)가 제 2 전자 장치(201)와 LE 등시 채널로 통신 연결된 상태에서, 제 1 전자 장치(101)에서 통화 이벤트가 발생할 수 있다. 사용자는 제 2 전자 장치(201)를 통해서 통화를 청취할 수 있고, 사용자의 음성을 제 2 전자 장치(201)에서 획득한 후에 제 1 전자 장치(101)로 전송될 수 있다. 제 1 전자 장치(101)는 LE 등시 채널 및 본 개시의 통합 오디오 데이터로 처리된 데이터를, 예를 들어, LTE 또는 5G 네트워크를 통해 상대방 전자 장치로 전송할 수 있다.A call event may occur in the first
제 1 전자 장치(101)가 제 2 전자 장치(201)와 LE 등시 채널로 통신 연결된 상태에서, 제 1 전자 장치(101)를 이용하여 동영상을 촬영할 수 있다. 사용자의 음성을 제 2 전자 장치(201)에서 획득한 후에 제 1 전자 장치(101)로 전송될 수 있다. 제 1 전자 장치(101)는 획득한 음성을 음향 출력 장치(155)로 출력하거나 동영상과 함께 저장할 수 있다.In a state in which the first
도 7은 본 개시의 다양한 실시예에 따른 제 1 전자 장치(101)의 오디오 데이터 처리 동작을 나타내는 도면이다. 7 is a diagram illustrating an audio data processing operation of the first
제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, 통신 모듈(190)을 통해서 오디오 데이터를 수신할 수 있다. 통신 모듈(190)은 블루투스 코어 사양 버전 5.2 이상이 적용된 블루투스 칩셋 및/또는 블루투스 모듈일 수 있다. The first
제 1 전자 장치(101)는 이어 버드들(2011, 2012)과 LE 등시 채널(LE(low energy)isochronous channels)에 기반하여 통신 연결될 수 있다. The first
제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, 오디오 통합에 관한 커맨드를 호스트 소프트웨어(701)에서 통신 모듈(190)에 전송할 수 있다. The first
제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, 코덱 모듈(721)에 대한 오디오를 설정할 수 있다. The first
제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, 통합 오디오 데이터를 통신 모듈(190)에서 호스트 소프트웨어(701)로 전달하고, 다시 호스트 소프트웨어(701)에서 코덱 모듈(721)로 전달할 수 있다. 코덱 모듈(721)은 예를 들어 SBC(sub-band codec), aptX 코덱 및/또는 LC3 코덱을 포함할 수 있다. The first
제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, 호스트 소프트웨어(701)에서 전달받은 통합 오디오 데이터를 코덱 모듈(721)에서 디코딩하여 음향 출력 장치(155)로 출력할 수 있다.The first
도 8은 본 개시의 다양한 실시예에 따른 제 1 전자 장치(101)의 오디오 데이터 처리 동작을 나타내는 도면이다. 8 is a diagram illustrating an audio data processing operation of the first
제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, 통신 모듈(190)을 통해서 오디오 데이터를 수신할 수 있다. 통신 모듈(190)은 블루투스 코어 사양 버전 5.2 이상이 적용된 블루투스 칩셋 및/또는 블루투스 모듈일 수 있다. The first
제 1 전자 장치(101)는 이어 버드들(2011, 2012)과 LE 등시 채널(LE(low energy)isochronous channels)에 기반하여 통신 연결될 수 있다. The first
제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, 오디오 통합에 관한 커맨드를 호스트 소프트웨어(701)에서 통신 모듈(190)에 전송할 수 있다. The first
제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, 코덱 모듈(721)에 대한 오디오를 설정할 수 있다. The first
제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, 통합 오디오 데이터를 통신 모듈(190)에서 DSP(digital signal processor)(702)에 전달할 수 있다. DSP(702)는 코덱 모듈(721)을 포함할 수 있다. 코덱 모듈(721)은 예를 들어 SBC(sub-band codec), aptX 코덱 및/또는 LC3 코덱을 포함할 수 있다.The first
제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, 통합 오디오 데이터를 DSP(702)의 코덱 모듈(721)에서 디코딩하여 음향 출력 장치(155)로 출력할 수 있다.The first
도 9는 본 개시의 다양한 실시예에 따른 제 1 전자 장치(101)의 오디오 데이터 처리 동작을 나타내는 도면이다. 9 is a diagram illustrating an audio data processing operation of the first
제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, 통신 모듈(190)을 통해서 오디오 데이터를 수신할 수 있다. 통신 모듈(190)은 블루투스 코어 사양 버전 5.2 이상이 적용된 블루투스 칩셋 및/또는 블루투스 모듈일 수 있다. 일 실시예에 따르면, 통신 모듈(190)은 코덱 모듈(721)을 포함할 수 있다.The first
제 1 전자 장치(101)는 이어 버드들(2011, 2012)과 LE 등시 채널(LE(low energy)isochronous channels)에 기반하여 통신 연결될 수 있다. The first
제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, 오디오 통합에 관한 커맨드를 호스트 소프트웨어(701)에서 통신 모듈(190)에 전송할 수 있다. The first
제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, 코덱 모듈(721)에 대한 오디오를 설정할 수 있다. The first
제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, 디코딩된 통합 오디오 데이터를 통신 모듈(190)에서 DSP(702)에 전달할 수 있다.The first
제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, 디코딩된 통합 오디오 데이터를 DSP(702)에서 후처리하여 음향 출력 장치(155)로 출력할 수 있다.The first
도 10은 본 개시의 다양한 실시예에 따른 통합 오디오 데이터(1010, 1020)를 나타내는 도면이다. 10 is a diagram illustrating
도 4 및 도 10을 참조하면, 일 실시예에서, 제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, 오디오 통합에 관한 커맨드에 기반하여 동일한 ISO 인터벌에 속한 좌/우 이어 버드들(2011, 2012)로부터 수신된 오디오 데이터를 하나로 합치고 통합 오디오 데이터를 생성할 수 있다. 4 and 10 , in one embodiment, the first
예를 들어, 제 1 이어 버드(2011)에서 제 1 전자 장치(101)로 전송되는 제 1 오디오 데이터(401), 제 2 오디오 데이터(402)는 제 1 CIS(CIS 1 event x)가 되고, 제 2 이어 버드(2012)에서 제 1 전자 장치(101)로 제 3 오디오 데이터(403), 제 4 오디오 데이터(404)는 제 2 CIS(CIS 2 event x)가 될 수 있다. 제 1 CIG(CIG event x)는 ISO 인터벌(ISO_interval) 동안에 제 1 CIS(CIS 1 event x) 및 제 2 CIS(CIS 2 event x)를 포함할 수 있다. For example, the
제 1 이어 버드(2011)에서 제 1 전자 장치(101)로 전송되는 제 5 오디오 데이터(405), 제 6 오디오 데이터(406)는 제 3 CIS(CIS 1 event x+1)가 되고, 제 2 이어 버드(2012)에서 제 1 전자 장치(101)로 제 7 오디오 데이터(407), 제 8 오디오 데이터(408)는 제 4 CIS(CIS 2 event x+1)가 될 수 있다. 제 2 CIG(CIG event x+1)는 ISO 인터벌(ISO_interval) 동안에 제 3 CIS(CIS 1 event x+1) 및 제 4 CIS(CIS 2 event x+1)를 포함할 수 있다.The
이때, 제 1 전자 장치(101)는 제 1 이어 버드(2011)의 제 1 오디오 데이터(401) 및 제 2 이어 버드(2012)의 제 3 오디오 데이터(403)를 통합하여 제 1 통합 오디오 데이터(1010)를 생성하고, 생성된 제 1 통합 오디오 데이터(1010)에 제 1 커넥션 핸들(1001)을 부여하고, 제 1 커넥션 핸들(1001)에 기반하여 제 1 통합 오디오 데이터(1010)를 등시 적응 계층(502) 및/또는 하위 계층(503)에 상위 계층(501)으로 전달할 수 있다. At this time, the first
제 1 전자 장치(101)는 동일 ISO 인터벌 내에 있는 제 1 이어 버드(2011)의 제 5 오디오 데이터(405) 및 제 2 이어 버드(2012)의 제 7 오디오 데이터(407)를 통합하여 제 2 통합 오디오 데이터(1020)를 생성하고, 생성된 제 2 통합 오디오 데이터(1020)에 제 2 커넥션 핸들(1003)을 부여하고, 제 2 커넥션 핸들(1003)에 기반하여 제 2 통합 오디오 데이터(1020)를 등시 적응 계층(502) 및/또는 하위 계층(503)에서 상위 계층(501)으로 전달할 수 있다. The first
도 11은 본 개시의 다양한 실시예에 따른 통합 오디오 데이터(1110, 1120)를 나타내는 도면이다. 11 is a diagram illustrating
도 4 및 도 10을 참조하면, 일 실시예에서, 제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, 오디오 통합에 관한 커맨드에 기반하여 동일한 ISO 인터벌에 속한 좌/우 이어 버드들(2011, 2012)로부터 수신된 오디오 데이터를 하나로 합치고 통합 오디오 데이터를 생성할 수 있다. 4 and 10 , in one embodiment, the first
예를 들어, 제 1 이어 버드(2011)에서 제 1 전자 장치(101)로 전송되는 제 1 오디오 데이터(401), 제 2 오디오 데이터(402)는 제 1 CIS(CIS 1 event x)가 되고, 제 2 이어 버드(2012)에서 제 1 전자 장치(101)로 제 3 오디오 데이터(403), 제 4 오디오 데이터(404)는 제 2 CIS(CIS 2 event x)가 될 수 있다. 제 1 CIG(CIG event x)는 ISO 인터벌(ISO_interval) 동안에 제 1 CIS(CIS 1 event x) 및 제 2 CIS(CIS 2 event x)를 포함할 수 있다. For example, the
제 1 이어 버드(2011)에서 제 1 전자 장치(101)로 전송되는 제 5 오디오 데이터(405), 제 6 오디오 데이터(406)는 제 3 CIS(CIS 1 event x+1)가 되고, 제 2 이어 버드(2012)에서 제 1 전자 장치(101)로 제 7 오디오 데이터(407), 제 8 오디오 데이터(408)는 제 4 CIS(CIS 2 event x+1)가 될 수 있다. 제 2 CIG(CIG event x+1)는 ISO 인터벌(ISO_interval) 동안에 제 3 CIS(CIS 1 event x+1) 및 제 4 CIS(CIS 2 event x+1)를 포함할 수 있다.The
이때, 제 1 전자 장치(101)는 제 1 이어 버드(2011)의 제 1 오디오 데이터(401) 및 제 2 이어 버드(2012)의 제 3 오디오 데이터(403)를 통합하여 제 3 통합 오디오 데이터(1110)를 생성할 수 있다. 제 1 전자 장치(101) 상의 오디오 모듈의 입력 방식이 미리 정의되어 있다면, 제 1 전자 장치(101)는 생성된 제 3 통합 오디오 데이터(1110)를 커넥션 핸들 없이 등시 적응 계층(502) 및/또는 하위 계층(503)에서 상위 계층(501)으로 전달할 수 있다. At this time, the first
제 1 전자 장치(101)는 동일 ISO 인터벌 내에 있는 제 1 이어 버드(2011)의 제 5 오디오 데이터(405) 및 제 2 이어 버드(2012)의 제 7 오디오 데이터(407)를 통합하여 제 4 통합 오디오 데이터(1120)를 생성할 수 있다. 제 1 전자 장치(101) 상의 오디오 모듈의 입력 방식이 미리 정의되어 있다면, 제 1 전자 장치(101)는 생성된 제 4 통합 오디오 데이터(1120)를 커넥션 핸들 없이 등시 적응 계층(502) 및/또는 하위 계층(503)에서 상위 계층(501)으로 전달할 수 있다. The first
도 12는 본 개시의 다양한 실시예에 따른 통합 오디오 데이터(1210)를 나타내는 도면이다. 12 is a diagram illustrating
도 4 및 도 10을 참조하면, CIS 및/또는 CIG 오디오 데이터들이 이어 버드들(2011, 2012)에서 제 1 전자 장치(101)로 전송될 때, 한 종류의 오디오 데이터들만 전송되는 것이 아니라 여러 종류의 오디오 데이터가 전송될 수 있다. 또는, CIS 및/또는 CIG 오디오 데이터들이 이어 버드들(2011, 2012)에서 제 1 전자 장치(101)로 전송될 때, 정해진 인터벌보다 짧은 인터벌을 가지는 ISO 인터벌에 포함된 오디오 데이터가 전송되거나 레이턴시가 상대적으로 덜 중요한 오디오 데이터가 전송될 수 있다. 4 and 10, when CIS and/or CIG audio data are transmitted from the
일 실시예에서, 제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, 오디오 통합에 관한 커맨드에 기반하여 복수의 ISO 인터벌에 속한 좌/우 이어 버드들(2011, 2012)로부터 수신된 오디오 데이터를 하나로 합치고 통합 오디오 데이터를 생성할 수 있다. In one embodiment, the first
예를 들어, 제 1 이어 버드(2011)에서 제 1 전자 장치(101)로 전송되는 제 1 오디오 데이터(401), 제 2 오디오 데이터(402)는 제 1 CIS(CIS 1 event x)가 되고, 제 2 이어 버드(2012)에서 제 1 전자 장치(101)로 제 3 오디오 데이터(403), 제 4 오디오 데이터(404)는 제 2 CIS(CIS 2 event x)가 될 수 있다. 제 1 CIG(CIG event x)는 ISO 인터벌(ISO_interval) 동안에 제 1 CIS(CIS 1 event x) 및 제 2 CIS(CIS 2 event x)를 포함할 수 있다. For example, the
제 1 이어 버드(2011)에서 제 1 전자 장치(101)로 전송되는 제 5 오디오 데이터(405), 제 6 오디오 데이터(406)는 제 3 CIS(CIS 1 event x+1)가 되고, 제 2 이어 버드(2012)에서 제 1 전자 장치(101)로 제 7 오디오 데이터(407), 제 8 오디오 데이터(408)는 제 4 CIS(CIS 2 event x+1)가 될 수 있다. 제 2 CIG(CIG event x+1)는 ISO 인터벌(ISO_interval) 동안에 제 3 CIS(CIS 1 event x+1) 및 제 4 CIS(CIS 2 event x+1)를 포함할 수 있다.The
이때, 제 1 전자 장치(101)는 ISO 인터벌이 서로 다른 제 1 이어 버드(2011)의 제 1 오디오 데이터(401), 제 5 오디오 데이터(405) 및 제 2 이어 버드(2012)의 제 3 오디오 데이터(403), 제 7 오디오 데이터(407)를 통합하여 제 5 통합 오디오 데이터(1210)를 생성할 수 있다. 생성된 제 5 통합 오디오 데이터(1210)에 제 3 커넥션 핸들(1201)을 부여하고, 제 3 커넥션 핸들(1201)에 기반하여 제 5 통합 오디오 데이터(1210)를 등시 적응 계층(502) 및/또는 하위 계층(503)에서 상위 계층(501)으로 전달할 수 있다. At this time, the first
도 13은 본 개시의 다양한 실시예에 따른 통합 오디오 데이터(1310, 1320)를 나타내는 도면이다. 13 is a diagram illustrating
도 4 및 도 10을 참조하면, 일 실시예에서, 제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, 오디오 통합에 관한 커맨드에 기반하여 동일한 ISO 인터벌에 속한 좌/우 이어 버드들(2011, 2012)로부터 수신된 오디오 데이터를 하나로 합치고 통합 오디오 데이터를 생성할 수 있다. 4 and 10 , in one embodiment, the first
예를 들어, 제 1 이어 버드(2011)에서 제 1 전자 장치(101)로 전송되는 제 1 오디오 데이터(401), 제 2 오디오 데이터(402)는 제 1 CIS(CIS 1 event x)가 되고, 제 2 이어 버드(2012)에서 제 1 전자 장치(101)로 제 3 오디오 데이터(403), 제 4 오디오 데이터(404)는 제 2 CIS(CIS 2 event x)가 될 수 있다. 제 1 CIG(CIG event x)는 ISO 인터벌(ISO_interval) 동안에 제 1 CIS(CIS 1 event x) 및 제 2 CIS(CIS 2 event x)를 포함할 수 있다. For example, the
제 1 이어 버드(2011)에서 제 1 전자 장치(101)로 전송되는 제 5 오디오 데이터(405), 제 6 오디오 데이터(406)는 제 3 CIS(CIS 1 event x+1)가 되고, 제 2 이어 버드(2012)에서 제 1 전자 장치(101)로 제 7 오디오 데이터(407), 제 8 오디오 데이터(408)는 제 4 CIS(CIS 2 event x+1)가 될 수 있다. 제 2 CIG(CIG event x+1)는 ISO 인터벌(ISO_interval) 동안에 제 3 CIS(CIS 1 event x+1) 및 제 4 CIS(CIS 2 event x+1)를 포함할 수 있다. The
제 1 전자 장치(101)는 제 1 이어 버드(2011)의 제 1 오디오 데이터(401) 및 제 2 이어 버드(2012)의 제 3 오디오 데이터(403)를 통합하여 제 6 통합 오디오 데이터(1310)를 생성하고, 생성된 제 6 통합 오디오 데이터(1310)에 제 4 커넥션 핸들(1301)을 부여하고, 제 4 커넥션 핸들(1301)에 기반하여 제 6 통합 오디오 데이터(1310)를 등시 적응 계층(502) 및/또는 하위 계층(503)에서 상위 계층(501)으로 전달할 수 있다. The first
데이터 손실이 있으면, 제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, 오디오 통합에 관한 커맨드에 기반하여 특정 패킷(1330)을 추가하여 좌/우 이어 버드들(2011, 2012)로부터 수신된 오디오 데이터를 하나로 합치고 통합 오디오 데이터를 생성할 수 있다. 특정 패킷은 예를 들어 PLC(packet loss concealment)을 수행할 수 있는 패킷일 수 있다.If there is data loss, the first
예를 들어, 제 2 이어 버드(2012)의 제 7 오디오 데이터(407)에 데이터 손실이 발생하면, 제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, 통합 오디오 데이터 생성 시에 특정 패킷(1330)을 추가할 수 있다. For example, if data loss occurs in the
제 1 전자 장치(101)는 제 1 이어 버드(2011)의 제 5 오디오 데이터(405) 및 특정 패킷(1330)을 통합하여 제 7 통합 오디오 데이터(1320)를 생성하고, 생성된 제 7 통합 오디오 데이터(1320)에 제 5 커넥션 핸들(1303)을 부여하고, 제 5 커넥션 핸들(1303)에 기반하여 제 2 통합 오디오 데이터(1020)를 등시 적응 계층(502) 및/또는 하위 계층(503)에서 상위 계층(501)으로 전달할 수 있다.The first
도 14는 본 개시의 다양한 실시예에 따른 제 1 전자 장치(101)의 오디오 데이터 처리 방법을 나타내는 순서도이다.14 is a flowchart illustrating an audio data processing method of the first
제 1 전자 장치(101)는, 1401 동작에서, 프로세서(120)의 제어 하에, 통신 모듈(190)을 통해서 이어 버드들(2011, 2012)과 통신 연결될 수 있다. In
일 실시예에서, 제 1 전자 장치(101)는, 1401 동작에서, 프로세서(120)의 제어 하에, 이어 버드들(2011, 2012)과 LE 등시 채널(LE(low energy)isochronous channels)에 기반하여 통신 연결될 수 있다.In one embodiment, the first
일 실시예에서, 제 1 전자 장치(101)는, 1403 동작에서, 프로세서(120)의 제어 하에, 통신 모듈(190)을 통해서 이어 버드들(2011, 2012)로부터 오디오 데이터를 수신할 수 있다. In one embodiment, in
예를 들어, 통신 모듈(190)은 블루투스 코어 사양 버전 5.2 이상이 적용된 블루투스 칩셋 및/또는 블루투스 모듈일 수 있다. 블루투스 칩셋 및/또는 블루투스 모듈은 등시 적응 계층(502) 및/또는 하위 계층(503)을 포함할 수 있다. 일 실시예에서, 제 1 전자 장치(101)는, 1405 동작에서, 프로세서(120)의 제어 하에, 이어 버드들(2011, 2012)의 사용 여부를 판단할 수 있다.For example, the
예를 들어, 이어 버드들(2011, 2012)의 사용 여부는 사용자 착용여부일 수 있다. 이어 버드들(2011, 2012)은 이어 버드들(2011, 2012)의 사용 여부에 대한 정보를 오디오 데이터의 패킷의 헤더 또는 페이로드에 포함시켜 제 1 전자 장치(101)에 전송할 수 있다. 예를 들어, 이어 버드들(2011, 2012)은 이어 버드들(2011, 2012)의 사용자 착용 또는 미착용에 관한 정보를 오디오 데이터의 패킷의 헤더 또는 페이로드에 포함시켜 제 1 전자 장치(101)에 전송할 수 있다.For example, whether the
예를 들어, 제 1 전자 장치(101)는 이어 버드들(2011, 2012)의 착용 상태에 관한 정보를 오디오 데이터와 별도로 수신할 수 있다.For example, the first
예를 들어, 제 1 전자 장치(101)는, 1405 동작에서, 이어 버드들(2011, 2012)For example, in
일 실시예에서, 제 1 전자 장치(101)는, 1407 동작에서, 프로세서(120)의 제어 하에, 이어 버드들(2011, 2012)의 사용 여부에 기반하여 오디오 데이터의 오류 여부를 판단할 수 있다.In an embodiment, in
일 실시예에서, 제 1 전자 장치(101)는, 1407 동작에서, 프로세서(120)의 제어 하에, 오디오 데이터의 패킷의 헤더 또는 페이로드에 포함된 이어 버드들(2011, 2012)의 사용 여부에 대한 정보에 기반하여 오디오 데이터의 오류 여부를 판단할 수 있다.In an embodiment, the first
일 실시예에서, 제 1 전자 장치(101)는, 1407 동작에서, 프로세서(120)의 제어 하에, 오디오 데이터의 패킷의 헤더 또는 페이로드에 포함된 이어 버드들(2011, 2012)의 사용 여부에 대한 정보가 미착용 상태로 판단되면, 오디오 데이터가 오류라고 판단할 수 있다. In an embodiment, the first
일 실시예에서, 제 1 전자 장치(101)는, 1407 동작에서, 프로세서(120)의 제어 하에, 이어 버드들(2011, 2012)의 사용 여부에 대한 정보가 이어 버드들(2011, 2012) 중 어느 하나의 이어 버드가 미착용 상태인 정보에 대응하면, 오디오 데이터가 오류라고 판단할 수 있다. In an embodiment, in
일 실시예에서, 제 1 전자 장치(101)는, 1407 동작에서, 프로세서(120)의 제어 하에, 이어 버드들(2011, 2012)의 사용 여부에 대한 정보가 이어 버드들(2011, 2012) 모두 미착용 상태인 정보에 대응하면, 오디오 데이터가 오류라고 판단할 수 있다.In an embodiment, in
일 실시예에서, 제 1 전자 장치(101)는, 1407 동작에서, 프로세서(120)의 제어 하에, 오디오 데이터의 패킷의 헤더 또는 페이로드에 포함된 이어 버드들(2011, 2012)의 사용 여부에 대한 정보가 이어 버드들(2011, 2012) 모두 착용 상태인 정보에 대응하면, 오디오 데이터가 오류가 없다고 판단할 수 있다.In an embodiment, the first
일 실시예에서, 제 1 전자 장치(101)는, 1407 동작에서, 프로세서(120)의 제어 하에, 오디오 데이터의 패킷의 헤더 또는 페이로드에 포함된 이어 버드들(2011, 2012)의 사용 여부에 대한 정보가 이어 버드들(2011, 2012) 모두 착용 상태인 정보에 대응하면, 오디오 데이터가 정상이라고 판단할 수 있다.In an embodiment, the first
도 15는 본 개시의 다양한 실시예에 따른 제 1 전자 장치(101)의 오디오 데이터 처리 방법을 나타내는 순서도이다.15 is a flowchart illustrating an audio data processing method of the first
제 1 전자 장치(101)는, 1501 동작에서, 프로세서(120)의 제어 하에, 통신 모듈(190)을 통해서 이어 버드들(2011, 2012)과 통신 연결될 수 있다. In
일 실시예에서, 제 1 전자 장치(101)는, 1501 동작에서, 프로세서(120)의 제어 하에, 이어 버드들(2011, 2012)과 LE 등시 채널(LE(low energy)isochronous channels)에 기반하여 통신 연결될 수 있다.In one embodiment, the first
일 실시예에서, 제 1 전자 장치(101)는, 1503 동작에서, 프로세서(120)의 제어 하에, 통신 모듈(190)을 통해서 이어 버드들(2011, 2012)로부터 오디오 데이터를 수신할 수 있다. In an embodiment, in
예를 들어, 통신 모듈(190)은 블루투스 코어 사양 버전 5.2 이상이 적용된 블루투스 칩셋 및/또는 블루투스 모듈일 수 있다. 블루투스 칩셋 및/또는 블루투스 모듈은 등시 적응 계층(502) 및/또는 하위 계층(503)을 포함할 수 있다. For example, the
일 실시예에서, 제 1 전자 장치(101)는, 1505 동작에서, 프로세서(120)의 제어 하에, 이어 버드들(2011, 2012)의 사용 여부를 판단할 수 있다.In an embodiment, in
예를 들어, 이어 버드들(2011, 2012)의 사용 여부는 사용자 착용여부일 수 있다. 이어 버드들(2011, 2012)은 이어 버드들(2011, 2012)의 사용 여부에 대한 정보를 오디오 데이터의 패킷의 헤더 또는 페이로드에 포함시켜 제 1 전자 장치(101)에 전송할 수 있다. For example, whether the
일 실시예에서, 이어 버드들(2011, 2012)은 이어 버드들(2011, 2012)의 사용자 착용 또는 미착용에 관한 정보를 오디오 데이터의 패킷의 헤더 또는 페이로드에 포함시켜 제 1 전자 장치(101)에 전송할 수 있다.In one embodiment, the
일 실시예에서, 제 1 전자 장치(101)는 이어 버드들(2011, 2012)의 착용 상태에 관한 정보를 오디오 데이터와 별도로 수신할 수 있다.In an embodiment, the first
일 실시예에서, 제 1 전자 장치(101)는, 1507 동작에서, 프로세서(120)의 제어 하에, 이어 버드들(2011, 2012)의 사용 여부에 기반하여 오디오 데이터의 오류 여부를 판단할 수 있다.In an embodiment, the first
일 실시예에서, 제 1 전자 장치(101)는, 1507 동작에서, 프로세서(120)의 제어 하에, 오디오 데이터의 패킷의 헤더 또는 페이로드에 포함된 이어 버드들(2011, 2012)의 사용 여부에 대한 정보에 기반하여 오디오 데이터의 오류 여부를 판단할 수 있다.In an embodiment, the first
일 실시예에서, 제 1 전자 장치(101)는, 1507 동작에서, 프로세서(120)의 제어 하에, 오디오 데이터의 패킷의 헤더 또는 페이로드에 포함된 이어 버드들(2011, 2012)의 사용 여부에 대한 정보가 미착용 상태로 판단되면, 오디오 데이터가 오류라고 판단할 수 있다. In an embodiment, the first
일 실시예에서, 제 1 전자 장치(101)는, 1507 동작에서, 프로세서(120)의 제어 하에, 이어 버드들(2011, 2012)의 사용 여부에 대한 정보가 이어 버드들(2011, 2012) 중 어느 하나의 이어 버드가 미착용 상태인 정보에 대응하면, 오디오 데이터가 오류라고 판단할 수 있다. In an embodiment, in
일 실시예에서, 제 1 전자 장치(101)는, 1507 동작에서, 프로세서(120)의 제어 하에, 이어 버드들(2011, 2012)의 사용 여부에 대한 정보가 이어 버드들(2011, 2012) 모두 미착용 상태인 정보에 대응하면, 오디오 데이터가 오류라고 판단할 수 있다.In an embodiment, in
일 실시예에서, 제 1 전자 장치(101)는, 1507 동작에서, 프로세서(120)의 제어 하에, 오디오 데이터의 패킷의 헤더 또는 페이로드에 포함된 이어 버드들(2011, 2012)의 사용 여부에 대한 정보가 이어 버드들(2011, 2012) 모두 착용 상태인 정보에 대응하면, 오디오 데이터가 오류가 없다고 판단할 수 있다.In an embodiment, the first
일 실시예에서, 제 1 전자 장치(101)는, 1507 동작에서, 프로세서(120)의 제어 하에, 오디오 데이터의 패킷의 헤더 또는 페이로드에 포함된 이어 버드들(2011, 2012)의 사용 여부에 대한 정보가 이어 버드들(2011, 2012) 모두 착용 상태인 정보에 대응하면, 오디오 데이터가 정상이라고 판단할 수 있다.In an embodiment, the first
일 실시예에서, 제 1 전자 장치(101)는, 1509 동작에서, 프로세서(120)의 제어 하에, 오디오 데이터에 오류가 있는지 여부를 판단할 수 있다.In an embodiment, in
오디오 데이터에 오류가 있으면, 제 1 전자 장치(101)는 프로세서(120)의 제어 하에 1509 동작에서 1511 동작으로 분기할 수 있다.If there is an error in the audio data, the first
오디오 데이터에 오류가 없으면, 제 1 전자 장치(101)는 프로세서(120)의 제어 하에 1509 동작에서 1513 동작으로 분기할 수 있다.If there is no error in the audio data, the first
일 실시예에서, 제 1 전자 장치(101)는, 1511 동작에서, 프로세서(120)의 제어 하에, 특정 시간 구간에 수신된 오디오 데이터에 기반하여 통합 오디오 데이터를 처리할 수 있다.In an embodiment, in
예를 들어, 이어 버드들(2011, 2012) 중 하나의 이어 버드만을 사용하여 녹음(또는 오디오 데이터를 전송하는 동작)을 수행하다가 다른 하나의 이어 버드를 사용하게 되는 경우, 이어 버드들(2011, 2012) 모두를 이용하여 녹음(또는 오디오 데이터를 전송하는 동작)을 수행하는 것을 확인한 순간부터, 제 1 전자 장치(101)는, 프로세서(120)의 제어 하에, 1511 동작에서, 패킷의 속성을 확인하여 오디오 데이터를 통합할 수 있다.For example, when recording (or an operation of transmitting audio data) is performed using only one earbud of the
일 실시예에서, 제 1 전자 장치(101)는, 1513 동작에서, 프로세서(120)의 제어 하에, 통합 오디오 데이터를 처리할 수 있다. 도 15의 1511 동작 및/또는 1513 동작은 도 6의 607 동작과 동일할 수 있다.In one embodiment, in
도 16은 본 개시의 다양한 실시예에서 제 1 전자 장치(101)가 특정 시간 구간에 수신된 오디오 데이터에 기반하여 통합 오디오 데이터를 처리하는 동작을 나타내는 도면이다.16 is a diagram illustrating an operation in which the first
1601 는 제 1 이어 버드(2011, 예를 들어 왼쪽 이어 버드)의 오디오 데이터에 관한 그래프이다.1603는 제 2 이어 버드(2012, 예를 들어 오른쪽 이어 버드)의 오디오 데이터에 관한 그래프이다.1601 is a graph of audio data of the first earbud (2011, eg, left earbud). 1603 is a graph of audio data of the second earbud (2012, eg, right earbud).
1605는 ISO 인터벌(ISO_interval) 동안 제 1 전자 장치(101)로 전송되는 이어 버드들(2011, 2012)의 오디오 데이터에 관한 그래프이다.1605 is a graph of audio data of the
1607 는 수신된 오디오 데이터를 제 1 전자 장치(101)가 통합 오디오 데이터로 처리하는 동작을 나타내는 그래프이다. 1607 is a graph showing an operation of processing the received audio data into unified audio data by the first
도 16을 참조하면, 제 1 전자 장치(101)는 사용자에게 착용되어 사용이 확인된 제 2 이어 버드(2012)로부터 오디오 데이터 및 사용자에게 미착용되어 사용되지 않는 제 1 이어 버드(2011)의 오디오 데이터를 ISO 인터벌(ISO_interval) 동안 수신할 수 있다. Referring to FIG. 16 , the first
예를 들어, 제 1 전자 장치(101)는 사용자에게 착용되어 사용이 확인된 제 2 이어 버드(2012)로부터 오디오 데이터만을 사용하여 사용자에게 미착용되어 사용되지 않는 제 1 이어 버드(2011)의 오디오 데이터를 대체할 수 있다.For example, the first
예를 들어, 제 1 전자 장치(101)는 사용자에게 착용되어 사용이 확인된 제 2 이어 버드(2012)로부터 오디오 데이터의 적어도 일부를 가공하여 사용자에게 미착용되어 사용되지 않는 제 1 이어 버드(2011)의 오디오 데이터를 대체할 수 있다.For example, the first
예를 들어, 사용자에게 미착용되어 사용되지 않는 제 1 이어 버드(2011)가 착용 상태가 변경되어 오디오 데이터를 전송하는 경우, 제 1 전자 장치(101)는 제 1 이어 버드(2011)의 착용을 확인한 시점부터 통합 오디오 데이터를 생성할 수 있다. For example, when the wearing state of the
예를 들어, 무선 간섭에 의해서, 이어 버드들(2011, 2012) 중 제 2 이어 버드(2012, 도 16의 R)로부터 제 1 전자 장치(101)가 오디오 데이터(도 16의 제 2 패킷)를 수신하지 못하는 경우, 제 1 이어 버드(2011)는 제 1 전자 장치(101)에 오디오 데이터를 재전송할 수 있다.For example, the first
도 16을 참조하면, 제 1 이어 버드(2011, 도 16의 L)는 사용자 미착용 상태인 경우, 제 1, 2 패킷을 제 1 전자 장치(101)에 전송하지 못하고, 사용자 착용 상태에서 제 4 패킷을 무선 간섭으로 제 1 전자 장치(101)에 전송하지 못할 수 있다. Referring to FIG. 16, when the first earbud 2011 (L in FIG. 16) is not worn by the user, the first and second packets cannot be transmitted to the first
제 2 이어 버드(2012, 도 16의 R)는 착용 상태에서 제 2, 3 패킷을 제 1 전자 장치(101)에 전송하고, 제 1 이어 버드(2011, 도 16의 L)는 사용자 착용 상태에서 제 3 패킷만을 제 1 전자 장치(101)에 전송할 수 있다.The second earbud 2012 (R in FIG. 16 ) transmits the second and third packets to the first
제 1 전자 장치(101)는 제 1 이어 버드(2011) 및 제 2 이어 버드(2012)가 사용자 착용 상태에서 제 1 전자 장치(101)에 전송에 성공한 제 3 패킷에 기반하여 코덱 모듈을 이용하여 통합 오디오 데이터를 생성할 수 있다. The first
본 개시의 다양한 실시예에 따른 전자 장치(제 1 전자 장치(101))는 센서 모듈(176), 디스플레이 모듈(160), LE 등시 채널(LE(low energy)isochronous channels)을 이용하여 통신 가능한 통신 모듈(190) 및 상기 센서 모듈(176), 상기 디스플레이 모듈(160) 및 상기 통신 모듈(190)과 작동적으로 연결된 프로세서(120)를 포함하며, 상기 프로세서(120)는 상기 LE 등시 채널에 기반하여 상기 통신 모듈(190)을 통해 복수의 외부 전자 장치(이어 버드들(2011, 2012))로부터 오디오 데이터를 수신하고, 오디오 통합에 관한 커맨드를 상기 통신 모듈(190)에 전송하며, 상기 오디오 통합에 관한 커맨드에 기반하여 통합 오디오 데이터를 처리할 수 있다.An electronic device (first electronic device 101) according to various embodiments of the present disclosure can communicate using a
일 실시예에 따르면, 상기 프로세서(120)는 상기 오디오 통합에 관한 커맨드에 기반하여 상기 수신된 오디오 데이터 중 동일한 ISO 인터벌에 속한 오디오 데이터를 하나로 합치고 상기 통합 오디오 데이터를 생성하도록 제어할 수 있다. According to an embodiment, the
일 실시예에 따르면, 상기 프로세서(120)는 상기 오디오 통합에 관한 커맨드에 기반하여 상기 수신된 오디오 데이터 중 복수의 ISO 인터벌에 속한 오디오 데이터를 하나로 합치고 상기 통합 오디오 데이터를 생성하도록 제어할 수 있다. According to an embodiment, the
일 실시예에 따르면, 상기 프로세서(120)는 상기 수신된 오디오 데이터에 데이터 손실이 있으면, 상기 오디오 통합에 관한 커맨드에 기반하여 특정 패킷을 추가하여 상기 수신된 오디오 데이터를 하나로 합치고 상기 통합 오디오 데이터를 생성하도록 제어할 수 있다.According to an embodiment, if there is a data loss in the received audio data, the
일 실시예에 따르면, 상기 특정 패킷은 PLC(packet loss concealment) 처리를 위한 패킷일 수 있다. According to an embodiment, the specific packet may be a packet for packet loss concealment (PLC) processing.
일 실시예에 따르면, 패킷의 헤더 혹은 페이로드에 상기 복수의 외부 전자 장치(이어 버드들(2011, 2012))에 대한 사용자 착용 상태 및/또는 사용 정보를 포함할 수 있다.According to an embodiment, the header or payload of the packet may include user wearing status and/or usage information on the plurality of external electronic devices (
일 실시예에 따르면, 상기 프로세서(120)는 상기 복수의 외부 전자 장치(이어 버드들(2011, 2012))에 대한 사용자 착용 상태 및/또는 사용 정보에 기반하여, 상기 오디오 데이터의 오류 여부를 판단하며, 상기 오디오 데이터가 오류가 있으면, 특정 시간 구간에 수신된 오디오 데이터에 기반하여 상기 수신된 오디오 데이터를 하나로 합치고 상기 통합 오디오 데이터를 생성하도록 제어할 수 있다. According to an embodiment, the
일 실시예에 따르면, 상기 프로세서(120)는 상기 복수의 외부 전자 장치(이어 버드들(2011, 2012))에 대한 사용 정보에 기반하여, 상기 수신된 오디오 데이터를 하나로 합치고 상기 통합 오디오 데이터를 생성하도록 제어할 수 있다.According to an embodiment, the
일 실시예에 따르면, 상기 프로세서(120)는 상기 통합 오디오 데이터에 커넥션 핸들(connection handle)을 부여하고, 상기 커넥션 핸들에 기반하여 상기 통합 오디오 데이터를 상위 계층에 전송하도록 제어할 수 있다.According to an embodiment, the
일 실시예에 따르면, 상기 프로세서(120)는 상기 통합 오디오 데이터를 상기 통신 모듈(190)에서 호스트 소프트웨어를 거쳐 코덱 모듈에 전달하고, 상기 코덱 모듈에서 상기 통합 오디오 데이터를 디코딩하도록 제어할 수 있다.According to an embodiment, the
일 실시예에 따르면, 상기 프로세서(120)는 상기 통합 오디오 데이터를 상기 통신 모듈(190)에서 DSP(digital signal processor)에 전달하고, 상기 DSP에서 상기 통합 오디오 데이터를 디코딩하도록 제어할 수 있다.According to an embodiment, the
일 실시예에 따르면, 상기 프로세서(120)는 상기 통합 오디오 데이터를 상기 통신 모듈(190)에서 디코딩하여 DSP에 전달하고, 상기 DSP에서 상기 디코딩된 통합 오디오 데이터를 후처리하도록 제어할 수 있다.According to an embodiment, the
본 개시의 다양한 실시예에 따른 전자 장치(제 1 전자 장치(101))의 오디오 데이터 처리 방법은 LE 등시 채널에 기반하여 통신 모듈(190)을 통해 복수의 외부 전자 장치(이어 버드들(2011, 2012))로부터 오디오 데이터를 수신하는 동작, 오디오 통합에 관한 커맨드를 상기 통신 모듈(190)에 전송하는 동작 및 상기 오디오 통합에 관한 커맨드에 기반하여 통합 오디오 데이터를 처리하는 동작을 포함할 수 있다.A method for processing audio data of an electronic device (first electronic device 101) according to various embodiments of the present disclosure includes a plurality of external electronic devices (earbuds 2011) through a
일 실시예에 따르면, 상기 오디오 통합에 관한 커맨드에 기반하여 상기 통합 오디오 데이터를 처리하는 동작(예를 들어, 도 6의 607 동작)은 상기 오디오 통합에 관한 커맨드에 기반하여 상기 수신된 오디오 데이터 중 동일한 ISO 인터벌에 속한 오디오 데이터를 하나로 합치고 상기 통합 오디오 데이터를 생성하는 동작을 더 포함할 수 있다.According to an embodiment, the operation of processing the unified audio data based on the command related to audio integration (eg,
일 실시예에 따르면, 상기 오디오 통합에 관한 커맨드에 기반하여 상기 통합 오디오 데이터를 처리하는 동작(예를 들어, 도 6의 607 동작)은 상기 오디오 통합에 관한 커맨드에 기반하여 상기 수신된 오디오 데이터 중 복수의 ISO 인터벌에 속한 오디오 데이터를 하나로 합치고 상기 통합 오디오 데이터를 생성하는 동작을 더 포함할 수 있다.According to an embodiment, the operation of processing the unified audio data based on the command related to audio integration (eg,
일 실시예에 따르면, 상기 오디오 통합에 관한 커맨드에 기반하여 상기 통합 오디오 데이터를 처리하는 동작(예를 들어, 도 6의 607 동작)은 상기 수신된 오디오 데이터에 데이터 손실이 있으면, 상기 오디오 통합에 관한 커맨드에 기반하여 특정 패킷을 추가하여 상기 수신된 오디오 데이터를 하나로 합치고 상기 통합 오디오 데이터를 생성하는 동작을 더 포함할 수 있다.According to one embodiment, the operation of processing the integrated audio data based on the command related to the audio integration (eg,
일 실시예에 따르면, 상기 오디오 통합에 관한 커맨드에 기반하여 상기 통합 오디오 데이터를 처리하는 동작(예를 들어, 도 6의 607 동작)은 상기 복수의 외부 전자 장치(이어 버드들(2011, 2012))에 대한 사용자 착용 상태 및/또는 사용 정보에 기반하여, 상기 오디오 데이터의 오류 여부를 판단하는 동작, 및 상기 오디오 데이터가 오류가 있으면, 특정 시간 구간에 수신된 오디오 데이터에 기반하여 상기 수신된 오디오 데이터를 하나로 합치고 상기 통합 오디오 데이터를 생성하는 동작을 포함할 수 있다. According to one embodiment, the operation of processing the unified audio data based on the command related to the audio integration (eg,
일 실시예에 따르면, 상기 오디오 통합에 관한 커맨드에 기반하여 상기 통합 오디오 데이터를 처리하는 동작(예를 들어, 도 6의 607 동작)은 상기 복수의 외부 전자 장치(이어 버드들(2011, 2012))에 대한 사용 정보에 기반하여, 상기 수신된 오디오 데이터를 하나로 합치고 상기 통합 오디오 데이터를 생성하는 동작을 포함할 수 있다.According to one embodiment, the operation of processing the unified audio data based on the command related to the audio integration (eg,
일 실시예에 따르면, 상기 오디오 통합에 관한 커맨드에 기반하여 상기 통합 오디오 데이터를 처리하는 동작(예를 들어, 도 6의 607 동작)은 상기 통합 오디오 데이터에 커넥션 핸들(connection handle)을 부여하고, 상기 커넥션 핸들에 기반하여 상기 통합 오디오 데이터를 상위 계층에 전송하는 동작을 더 포함할 수 있다.According to one embodiment, the operation of processing the unified audio data based on the command related to the audio integration (eg,
일 실시예에 따르면, 상기 오디오 통합에 관한 커맨드에 기반하여 상기 통합 오디오 데이터를 처리하는 동작(예를 들어, 도 6의 607 동작)은 상기 통합 오디오 데이터를 상기 통신 모듈(190)에서 호스트 소프트웨어를 거쳐 코덱 모듈에 전달하고, 상기 코덱 모듈에서 상기 통합 오디오 데이터를 디코딩하는 동작을 포함할 수 있다.According to one embodiment, the operation of processing the unified audio data based on the command related to the audio integration (eg,
일 실시예에 따르면, 상기 오디오 통합에 관한 커맨드에 기반하여 상기 통합 오디오 데이터를 처리하는 동작(예를 들어, 도 6의 607 동작)은 상기 통합 오디오 데이터를 상기 통신 모듈(190)에서 DSP(digital signal processor)에 전달하고, 상기 DSP에서 상기 통합 오디오 데이터를 디코딩하는 동작을 더 포함할 수 있다.According to an embodiment, the operation of processing the integrated audio data based on the command related to the audio integration (eg,
일 실시예에 따르면, 상기 오디오 통합에 관한 커맨드에 기반하여 상기 통합 오디오 데이터를 처리하는 동작(예를 들어, 도 6의 607 동작)은 상기 통합 오디오 데이터를 상기 통신 모듈(190)에서 디코딩하여 DSP에 전달하고, 상기 DSP에서 상기 디코딩된 통합 오디오 데이터를 후처리하는 동작을 더 포함할 수 있다.According to one embodiment, the operation of processing the unified audio data based on the command related to the audio unification (eg,
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to various embodiments disclosed in this document may be devices of various types. The electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance. An electronic device according to an embodiment of the present document is not limited to the aforementioned devices.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.Various embodiments of this document and terms used therein are not intended to limit the technical features described in this document to specific embodiments, but should be understood to include various modifications, equivalents, or substitutes of the embodiments. In connection with the description of the drawings, like reference numbers may be used for like or related elements. The singular form of a noun corresponding to an item may include one item or a plurality of items, unless the relevant context clearly dictates otherwise. In this document, "A or B", "at least one of A and B", "at least one of A or B", "A, B or C", "at least one of A, B and C", and "A Each of the phrases such as "at least one of , B, or C" may include any one of the items listed together in that phrase, or all possible combinations thereof. Terms such as "first", "second", or "first" or "secondary" may simply be used to distinguish a given component from other corresponding components, and may be used to refer to a given component in another aspect (eg, importance or order) is not limited. A (e.g., first) component is said to be "coupled" or "connected" to another (e.g., second) component, with or without the terms "functionally" or "communicatively." When mentioned, it means that the certain component may be connected to the other component directly (eg by wire), wirelessly, or through a third component.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term "module" used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logical blocks, parts, or circuits. can be used as A module may be an integrally constructed component or a minimal unit of components or a portion thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시예들은 기기(machine)(예: 제 1 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 제 1 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of this document are one stored in a storage medium (eg, the
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be included and provided in a computer program product. Computer program products may be traded between sellers and buyers as commodities. A computer program product is distributed in the form of a device-readable storage medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play Store TM ) or on two user devices ( It can be distributed (eg downloaded or uploaded) online, directly between smart phones. In the case of online distribution, at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (eg, module or program) of the above-described components may include a single object or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. there is. According to various embodiments, one or more components or operations among the aforementioned corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by a corresponding component among the plurality of components prior to the integration. . According to various embodiments, the actions performed by a module, program, or other component are executed sequentially, in parallel, iteratively, or heuristically, or one or more of the actions are executed in a different order, or omitted. or one or more other actions may be added.
Claims (20)
센서 모듈;
디스플레이 모듈;
LE 등시 채널(LE(low energy)isochronous channels)을 이용하여 통신 가능한 통신 모듈; 및
상기 센서 모듈, 상기 디스플레이 모듈 및 상기 통신 모듈과 작동적으로 연결된 프로세서를 포함하며,
상기 프로세서는
상기 LE 등시 채널에 기반하여 상기 통신 모듈을 통해 복수의 외부 전자 장치로부터 오디오 데이터를 수신하고,
오디오 통합에 관한 커맨드를 상기 통신 모듈에 전송하며,
상기 오디오 통합에 관한 커맨드에 기반하여 통합 오디오 데이터를 처리하는 전자 장치.In electronic devices,
sensor module;
display module;
a communication module capable of communicating using low energy (LE) isochronous channels; and
a processor operatively connected with the sensor module, the display module, and the communication module;
The processor
Receiving audio data from a plurality of external electronic devices through the communication module based on the LE isochronous channel;
Sending a command related to audio integration to the communication module;
An electronic device that processes integrated audio data based on the audio unifying command.
상기 프로세서는
상기 오디오 통합에 관한 커맨드에 기반하여 상기 수신된 오디오 데이터 중 동일한 ISO 인터벌에 속한 오디오 데이터를 하나로 합치고 상기 통합 오디오 데이터를 생성하도록 제어하는 전자 장치.According to claim 1,
The processor
An electronic device for controlling audio data belonging to the same ISO interval among the received audio data to be merged into one and generating the unified audio data based on the audio integration command.
상기 프로세서는
상기 오디오 통합에 관한 커맨드에 기반하여 상기 수신된 오디오 데이터 중 복수의 ISO 인터벌에 속한 오디오 데이터를 하나로 합치고 상기 통합 오디오 데이터를 생성하도록 제어하는 전자 장치.According to claim 1,
The processor
An electronic device for controlling audio data belonging to a plurality of ISO intervals among the received audio data to be merged into one and to generate the unified audio data based on the audio integration command.
상기 프로세서는
상기 수신된 오디오 데이터에 데이터 손실이 있으면, 상기 오디오 통합에 관한 커맨드에 기반하여 특정 패킷을 추가하여 상기 수신된 오디오 데이터를 하나로 합치고 상기 통합 오디오 데이터를 생성하도록 제어하는 전자 장치.According to claim 1,
The processor
If there is data loss in the received audio data, the electronic device controls to add a specific packet based on the command for integrating the audio, combine the received audio data into one, and generate the integrated audio data.
상기 오디오 데이터는
패킷의 헤더 혹은 페이로드에 상기 복수의 외부 전자 장치에 대한 사용자 착용 상태 및/또는 사용 정보를 포함하는 전자 장치.According to claim 1,
The audio data is
An electronic device that includes user wearing status and/or usage information for the plurality of external electronic devices in a header or payload of a packet.
상기 프로세서는
상기 복수의 외부 전자 장치에 대한 사용자 착용 상태 및/또는 사용 정보에 기반하여, 상기 오디오 데이터의 오류 여부를 판단하며,
상기 오디오 데이터가 오류가 있으면, 특정 시간 구간에 수신된 오디오 데이터에 기반하여 상기 수신된 오디오 데이터를 하나로 합치고 상기 통합 오디오 데이터를 생성하도록 제어하는 전자 장치.According to claim 1,
The processor
Determine whether or not the audio data is erroneous based on user wearing states and/or use information of the plurality of external electronic devices;
If the audio data has an error, the electronic device controls to merge the received audio data into one based on the audio data received in a specific time interval and generate the integrated audio data.
상기 프로세서는
상기 통합 오디오 데이터에 커넥션 핸들(connection handle)을 부여하고, 상기 커넥션 핸들에 기반하여 상기 통합 오디오 데이터를 상위 계층에 전송하도록 제어하는 전자 장치.According to claim 1,
The processor
An electronic device that assigns a connection handle to the unified audio data and transmits the unified audio data to an upper layer based on the connection handle.
상기 프로세서는
상기 통합 오디오 데이터를 상기 통신 모듈에서 호스트 소프트웨어를 거쳐 코덱 모듈에 전달하고, 상기 코덱 모듈에서 상기 통합 오디오 데이터를 디코딩하도록 제어하는 전자 장치.According to claim 1,
The processor
An electronic device that transfers the unified audio data from the communication module to a codec module via host software and controls the codec module to decode the unified audio data.
상기 프로세서는
상기 통합 오디오 데이터를 상기 통신 모듈에서 DSP(digital signal processor)에 전달하고, 상기 DSP에서 상기 통합 오디오 데이터를 디코딩하도록 제어하는 전자 장치.According to claim 1,
The processor
An electronic device for transferring the unified audio data from the communication module to a digital signal processor (DSP) and controlling the DSP to decode the unified audio data.
상기 프로세서는
상기 통합 오디오 데이터를 상기 통신 모듈에서 디코딩하여 DSP에 전달하고, 상기 DSP에서 상기 디코딩된 통합 오디오 데이터를 후처리하도록 제어하는 전자 장치.According to claim 1,
The processor
The electronic device for controlling the decoding of the integrated audio data in the communication module, transferring the decoded integrated audio data to a DSP, and post-processing the decoded integrated audio data in the DSP.
LE 등시 채널에 기반하여 통신 모듈을 통해 복수의 외부 전자 장치로부터 오디오 데이터를 수신하는 동작;
오디오 통합에 관한 커맨드를 상기 통신 모듈에 전송하는 동작; 및
상기 오디오 통합에 관한 커맨드에 기반하여 통합 오디오 데이터를 처리하는 동작을 포함하는 방법.In the audio data processing method of the electronic device,
receiving audio data from a plurality of external electronic devices through a communication module based on an LE isochronous channel;
transmitting a command related to audio integration to the communication module; and
and processing integrated audio data based on the audio unifying command.
상기 오디오 통합에 관한 커맨드에 기반하여 상기 통합 오디오 데이터를 처리하는 동작은
상기 오디오 통합에 관한 커맨드에 기반하여 상기 수신된 오디오 데이터 중 동일한 ISO 인터벌에 속한 오디오 데이터를 하나로 합치고 상기 통합 오디오 데이터를 생성하는 동작을 더 포함하는 방법.According to claim 11,
The operation of processing the integrated audio data based on the command related to the audio integration
and merging audio data belonging to the same ISO interval among the received audio data into one and generating the unified audio data based on the command for integrating the audio.
상기 오디오 통합에 관한 커맨드에 기반하여 상기 통합 오디오 데이터를 처리하는 동작은
상기 오디오 통합에 관한 커맨드에 기반하여 상기 수신된 오디오 데이터 중 복수의 ISO 인터벌에 속한 오디오 데이터를 하나로 합치고 상기 통합 오디오 데이터를 생성하는 동작을 더 포함하는 방법.According to claim 11,
The operation of processing the integrated audio data based on the command related to the audio integration
The method further comprising merging audio data belonging to a plurality of ISO intervals among the received audio data into one and generating the unified audio data based on the command for integrating the audio.
상기 오디오 통합에 관한 커맨드에 기반하여 상기 통합 오디오 데이터를 처리하는 동작은
상기 수신된 오디오 데이터에 데이터 손실이 있으면, 상기 오디오 통합에 관한 커맨드에 기반하여 특정 패킷을 추가하여 상기 수신된 오디오 데이터를 하나로 합치고 상기 통합 오디오 데이터를 생성하는 동작을 더 포함하는 방법.According to claim 11,
The operation of processing the integrated audio data based on the command related to the audio integration
and if there is data loss in the received audio data, combining the received audio data into one by adding a specific packet based on the audio synthesis command and generating the unified audio data.
상기 오디오 데이터는
패킷의 헤더 혹은 페이로드에 상기 복수의 외부 전자 장치에 대한 사용자 착용 상태 및/또는 사용 정보를 포함하는 방법.According to claim 11,
The audio data is
A method of including user wearing status and/or usage information for the plurality of external electronic devices in a header or payload of a packet.
상기 오디오 통합에 관한 커맨드에 기반하여 상기 통합 오디오 데이터를 처리하는 동작은
상기 복수의 외부 전자 장치에 대한 사용자 착용 상태 및/또는 사용 정보에 기반하여, 상기 오디오 데이터의 오류 여부를 판단하는 동작; 및
상기 오디오 데이터가 오류가 있으면, 특정 시간 구간에 수신된 오디오 데이터에 기반하여 상기 수신된 오디오 데이터를 하나로 합치고 상기 통합 오디오 데이터를 생성하는 동작을 포함하는 방법. According to claim 11,
The operation of processing the integrated audio data based on the command related to the audio integration
determining whether or not the audio data is erroneous based on user wearing states and/or usage information of the plurality of external electronic devices; and
and if the audio data has an error, merging the received audio data into one based on the audio data received in a specific time period and generating the unified audio data.
상기 오디오 통합에 관한 커맨드에 기반하여 상기 통합 오디오 데이터를 처리하는 동작은
상기 통합 오디오 데이터에 커넥션 핸들(connection handle)을 부여하고, 상기 커넥션 핸들에 기반하여 상기 통합 오디오 데이터를 상위 계층에 전송하는 동작을 더 포함하는 방법.According to claim 11,
The operation of processing the integrated audio data based on the command related to the audio integration
The method further comprises assigning a connection handle to the unified audio data and transmitting the unified audio data to an upper layer based on the connection handle.
상기 오디오 통합에 관한 커맨드에 기반하여 상기 통합 오디오 데이터를 처리하는 동작은
상기 통합 오디오 데이터를 상기 통신 모듈에서 호스트 소프트웨어를 거쳐 코덱 모듈에 전달하고, 상기 코덱 모듈에서 상기 통합 오디오 데이터를 디코딩하는 동작을 더 포함하는 방법.According to claim 11,
The operation of processing the integrated audio data based on the command related to the audio integration
The method further comprises an operation of transmitting the unified audio data from the communication module to a codec module via host software, and decoding the unified audio data by the codec module.
상기 오디오 통합에 관한 커맨드에 기반하여 상기 통합 오디오 데이터를 처리하는 동작은
상기 통합 오디오 데이터를 상기 통신 모듈에서 DSP(digital signal processor)에 전달하고, 상기 DSP에서 상기 통합 오디오 데이터를 디코딩하는 동작을 더 포함하는 방법.According to claim 11,
The operation of processing the integrated audio data based on the command related to the audio integration
The method further comprises an operation of transferring the integrated audio data to a digital signal processor (DSP) from the communication module and decoding the integrated audio data in the DSP.
상기 오디오 통합에 관한 커맨드에 기반하여 상기 통합 오디오 데이터를 처리하는 동작은
상기 통합 오디오 데이터를 상기 통신 모듈에서 디코딩하여 DSP에 전달하고, 상기 DSP에서 상기 디코딩된 통합 오디오 데이터를 후처리하는 동작을 더 포함하는 방법.According to claim 11,
The operation of processing the integrated audio data based on the command related to the audio integration
The method further comprises an operation of decoding the unified audio data in the communication module, transmitting the decoded unified audio data to a DSP, and post-processing the decoded unified audio data in the DSP.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210157946A KR20230071583A (en) | 2021-11-16 | 2021-11-16 | electronic device and method for processing audio data of electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210157946A KR20230071583A (en) | 2021-11-16 | 2021-11-16 | electronic device and method for processing audio data of electronic device |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230071583A true KR20230071583A (en) | 2023-05-23 |
Family
ID=86545095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210157946A KR20230071583A (en) | 2021-11-16 | 2021-11-16 | electronic device and method for processing audio data of electronic device |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230071583A (en) |
-
2021
- 2021-11-16 KR KR1020210157946A patent/KR20230071583A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11916987B2 (en) | Electronic device for processing audio data, and operation method thereof | |
KR20220102492A (en) | Audio device for processing audio data and operating method thereof | |
KR20230071583A (en) | electronic device and method for processing audio data of electronic device | |
US20220319553A1 (en) | Electronic device for processing audio data and method for operating same | |
KR20230063088A (en) | Apparatus and method for communication | |
EP4362366A1 (en) | Electronic device for data packet transmission or reception, and operation method thereof | |
US11923981B2 (en) | Electronic device for transmitting packets via wireless communication connection and method of operating the same | |
US20220353330A1 (en) | Electronic device and method for recording audio data acquired from multiple devices | |
US20240023177A1 (en) | Electronic device and method for adaptive communication in wireless environment | |
KR20230043671A (en) | Electronic device for transmitting and receiving data packet and method for operation thereof | |
KR20230051037A (en) | Electronic device for providing audio service and operating method thereof | |
US20230071138A1 (en) | Electronic device, method, and non-transitory computer readable storage medium for managing transmissions to external electronic devices in wireless environment | |
US20230413348A1 (en) | Method for transmitting audio data in electronic device | |
US20240113811A1 (en) | Electronic device and operation method of electronic device | |
EP4318216A1 (en) | Electronic device, and method for updating external electronic device by using same | |
US20220222036A1 (en) | Audio device for processing audio data and operation method thereof | |
KR20230036955A (en) | Electronic device, method, and non-transitory computer readable storage medium for managing transmissions to external electronic devices in wireless environment | |
US20230116736A1 (en) | Electronic device for providing audio service and operating method thereof | |
US20230336904A1 (en) | Electronic device for processing audio data and operation method therefor | |
US20230155733A1 (en) | Device and method for transmitting response packet | |
KR20230063045A (en) | Electronic device and operating method thereof | |
KR20230005589A (en) | Electronic device using a bluetooth communication and method of operating the same | |
KR20230072003A (en) | Apparatus and method for transmitting response packet | |
KR20220047060A (en) | Electronic device for transmitting packets via wireless communication connection and method of operating the same | |
KR20230115848A (en) | A method for contolling electronic devices and electronic devices thereof |