WO2024080723A1 - Electronic device and method for processing audio signal - Google Patents

Electronic device and method for processing audio signal Download PDF

Info

Publication number
WO2024080723A1
WO2024080723A1 PCT/KR2023/015590 KR2023015590W WO2024080723A1 WO 2024080723 A1 WO2024080723 A1 WO 2024080723A1 KR 2023015590 W KR2023015590 W KR 2023015590W WO 2024080723 A1 WO2024080723 A1 WO 2024080723A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
frequency band
audio signal
quantization
audible frequency
Prior art date
Application number
PCT/KR2023/015590
Other languages
French (fr)
Korean (ko)
Inventor
양현철
김현욱
문한길
박재하
방경호
이상훈
허승
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220161912A external-priority patent/KR20240052588A/en
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2024080723A1 publication Critical patent/WO2024080723A1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/002Dynamic bit allocation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components

Definitions

  • This disclosure relates to electronic devices and methods for processing audio signals through quantization or inverse quantization.
  • Electronic devices may be connected to external electronic devices such as wireless earphones (e.g., true wireless stereo (TWS)) using a short-range wireless communication method such as Bluetooth.
  • Electronic devices can transmit content data, such as audio signals, to a connected external electronic device using a wireless communication method.
  • Electronic devices may experience delays or damage to content data such as audio signals transmitted due to distance from wireless earphones, channel congestion, or unexpected failures.
  • Electronic devices need to compress and transmit data using a predetermined encoding method to prevent transmission data from being damaged in the process of being transmitted to wireless earphones, which are external electronic devices.
  • the wireless earphone which is an external electronic device, can restore compressed data using a predetermined decoding method corresponding to the encoding method used in the other electronic device.
  • transmission performance may be proportional to the amount of data encoded by the electronic device.
  • a large amount of data encoded in an electronic device may mean that high-quality service can be provided by transmitting a lot of information to wireless earphones, which are external electronic devices.
  • traffic in the wireless channel connecting the electronic device and the wireless earphone, which is an external electronic device may increase.
  • One embodiment of the present disclosure may provide an electronic device and method that performs an encoding or decoding operation on an audio signal by reflecting the user's hearing characteristics.
  • a control method of an electronic device includes an operation of dividing the audible frequency band based on preset hearing characteristics of a user, obtaining the number of quantization bits for each divided audible frequency band, and outputting by playing audio content.
  • a control method of an electronic device includes an operation of analyzing a bit stream received from an external electronic device, an operation of obtaining the number of inverse quantization bits for each divided audible frequency band included in the bit stream, and the inverse quantization bits. It may include an operation of performing inverse quantization on the bit stream for each audible frequency band using the number of quantization bits, and an operation of outputting an audio signal generated by the inverse quantization.
  • An electronic device may include at least one processor and a communication module.
  • the at least one processor obtains the number of quantization bits for each divided audible frequency band that divides the audible frequency band based on preset hearing characteristics of the user, and divides the audible frequency band extracted from the audio signal output by playing the audio content.
  • Quantization may be performed using the number of quantization bits corresponding to the audio signal for each band, and the quantized audio signal for each divided audible frequency band may be generated as one bit stream and transmitted to an external electronic device through a wireless channel.
  • An electronic device may include at least one processor and a communication module.
  • the at least one processor analyzes a bit stream received from an external electronic device, obtains the number of inverse quantization bits for each divided audible frequency band included in the bit stream, and uses the number of inverse quantization bits for each audible frequency band. Inverse quantization may be performed on the bit stream, and an audio signal generated through the inverse quantization may be output.
  • an electronic device may include a non-transitory computer-readable storage medium that stores one or more programs.
  • One or more programs stored in the computer-readable storage medium obtain the number of quantization bits for each divided audible frequency band that divides the audible frequency band based on preset hearing characteristics of the user, and produce an audio signal output by playback of audio content.
  • Quantization is performed using the number of quantized bits corresponding to the audio signal for each divided audible frequency band extracted from the divided audible frequency band, and the quantized audio signal for each divided audible frequency band is generated as one bit stream and transmitted to an external electronic device through a wireless channel. May include instructions to be transmitted.
  • an electronic device may include a non-transitory computer-readable storage medium that stores one or more programs.
  • One or more programs stored in the computer-readable storage medium analyzes a bit stream received from an external electronic device, obtains the number of inverse quantization bits for each divided audible frequency band included in the bit stream, and calculates the number of inverse quantization bits. It may include instructions for performing inverse quantization on the bit stream for each audible frequency band and outputting an audio signal generated by the inverse quantization.
  • the electronic device divides the audible frequency band, which is an audio signal, into a plurality of audible frequency bands in consideration of the user's hearing characteristics and applies different coding rates to each divided frequency band, so that if the amount of data is not increased, It can also increase the satisfaction of users who listen to audio signals through wireless earphones.
  • FIG. 1 is a block diagram of an electronic device in a network environment, according to various embodiments.
  • FIG. 2 is a block diagram of an audio module, according to various implementations.
  • Figure 3 is a block diagram of a first electronic device according to an embodiment of the present disclosure.
  • FIG. 4 is a flowchart showing an operation in which a first electronic device quantizes an audio signal, according to an embodiment of the present disclosure.
  • FIG. 5 is a control flowchart for a first electronic device to quantize an audio signal, according to an embodiment of the present disclosure.
  • Figure 6 is a block diagram of a second electronic device according to an embodiment of the present disclosure.
  • FIG. 7 is a flowchart illustrating an operation in which a second electronic device inversely quantizes an audio signal, according to an embodiment of the present disclosure.
  • FIG. 8 is a control flowchart for a second electronic device to inverse quantize an audio signal, according to an embodiment of the present disclosure.
  • Figure 9 is a block diagram of an encoder of a first electronic device, according to an embodiment of the present disclosure.
  • FIG. 10 is a block diagram of a portion of an encoder of a first electronic device according to an embodiment of the present disclosure.
  • Figure 11 is a block diagram of a decoder of a second electronic device, according to an embodiment of the present disclosure.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100, according to various embodiments.
  • the electronic device 101 communicates with the electronic device 102 through a first network 198 (e.g., a short-range wireless communication network) or a second network 199. It is possible to communicate with at least one of the electronic device 104 or the server 108 through (e.g., a long-distance wireless communication network). According to one embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • a first network 198 e.g., a short-range wireless communication network
  • a second network 199 e.g., a second network 199.
  • the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or may include an antenna module 197.
  • at least one of these components eg, the connection terminal 178) may be omitted or one or more other components may be added to the electronic device 101.
  • some of these components e.g., sensor module 176, camera module 180, or antenna module 197) are integrated into one component (e.g., display module 160). It can be.
  • the processor 120 for example, executes software (e.g., program 140) to operate at least one other component (e.g., hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and various data processing or operations can be performed. According to one embodiment, as at least part of data processing or computation, the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • software e.g., program 140
  • the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132.
  • the commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • the processor 120 includes a main processor 121 (e.g., a central processing unit or an application processor) or an auxiliary processor 123 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • a main processor 121 e.g., a central processing unit or an application processor
  • auxiliary processor 123 e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor.
  • the electronic device 101 includes a main processor 121 and a auxiliary processor 123
  • the auxiliary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can.
  • the auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.
  • the auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the electronic device 101 (e.g., the display module 160, the sensor module 176, or the communication module 190) At least some of the functions or states related to can be controlled.
  • co-processor 123 e.g., image signal processor or communication processor
  • may be implemented as part of another functionally related component e.g., camera module 180 or communication module 190. there is.
  • the auxiliary processor 123 may include a hardware structure specialized for processing artificial intelligence models.
  • Artificial intelligence models can be created through machine learning. For example, such learning may be performed in the electronic device 101 itself on which the artificial intelligence model is performed, or may be performed through a separate server (e.g., server 108).
  • Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited.
  • An artificial intelligence model may include multiple artificial neural network layers.
  • Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above.
  • artificial intelligence models may additionally or alternatively include software structures.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto.
  • Memory 130 may include volatile memory 132 or non-volatile memory 134.
  • the program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.
  • the input module 150 may receive commands or data to be used in a component of the electronic device 101 (e.g., the processor 120) from outside the electronic device 101 (e.g., a user).
  • the input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).
  • the sound output module 155 may output sound signals to the outside of the electronic device 101.
  • the sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback.
  • the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
  • the display module 160 can visually provide information to the outside of the electronic device 101 (eg, a user).
  • the display module 160 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device.
  • the display module 160 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.
  • the audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device (e.g., directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102 (e.g., speaker or headphone).
  • the electronic device 102 e.g., speaker or headphone
  • the sensor module 176 detects the operating state (e.g., power or temperature) of the electronic device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.
  • the interface 177 may support one or more designated protocols that can be used to connect the electronic device 101 directly or wirelessly with an external electronic device (eg, the electronic device 102).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card interface
  • audio interface audio interface
  • connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 can capture still images and moving images.
  • the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 can manage power supplied to the electronic device 101.
  • the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101.
  • the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
  • Communication module 190 is configured to provide a direct (e.g., wired) communication channel or wireless communication channel between electronic device 101 and an external electronic device (e.g., electronic device 102, electronic device 104, or server 108). It can support establishment and communication through established communication channels. Communication module 190 operates independently of processor 120 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
  • processor 120 e.g., an application processor
  • the communication module 190 is a wireless communication module 192 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (e.g., : LAN (local area network) communication module, or power line communication module) may be included.
  • a wireless communication module 192 e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 e.g., : LAN (local area network) communication module, or power line communication module
  • the corresponding communication module is a first network 198 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (e.g., legacy It may communicate with an external electronic device 104 through a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network
  • the wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199.
  • subscriber information e.g., International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the wireless communication module 192 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology).
  • NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency). -latency communications)) can be supported.
  • the wireless communication module 192 may support a high frequency band (eg, mmWave band), for example, to achieve a high data rate.
  • a high frequency band eg, mmWave band
  • the wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. It can support technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna.
  • the wireless communication module 192 may support various requirements specified in the electronic device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199).
  • the wireless communication module 192 supports Peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC.
  • Peak data rate e.g., 20 Gbps or more
  • loss coverage e.g., 164 dB or less
  • U-plane latency e.g., 164 dB or less
  • the antenna module 197 may transmit or receive signals or power to or from the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB).
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected to the plurality of antennas by, for example, the communication module 190. can be selected. Signals or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, radio frequency integrated circuit (RFIC) may be additionally formed as part of the antenna module 197.
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band), And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.
  • a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band), And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the
  • peripheral devices e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • signal e.g. commands or data
  • the audio signal to be compressed may be quantized.
  • Quantization is the process of dividing the actual value of an audio signal into regular intervals. In other words, quantization expresses the size of the waveform of an audio signal with several quantization levels at a predetermined quantization interval.
  • quantization noise If the quantization interval is too wide, noise due to quantization may occur, which is called quantization noise. If quantization noise increases, the sound quality of the audio signal perceived by the user may deteriorate. Conversely, if the quantization noise is too narrow, the quantization noise may be reduced, but the number of segments of the audio signal to be expressed after quantization processing increases, which increases the bitrate required for encoding per unit time. The amount of data that needs to be transmitted increases.
  • a source electronic device e.g., the electronic device 101 of FIG. 1 (hereinafter referred to as 'source electronic device 101' or 'first electronic device 101') transmits audio data to an external electronic device ( Example:
  • the second electronic device 102 of FIG. 1 (hereinafter referred to as 'external electronic device 102', 'consumer electronic device 102', or 'second electronic device 102') may be provided.
  • the electronic device 102 can process audio data provided from the first electronic device 101 and output an audio signal, which is an audible signal.
  • the audio output device may be an electronic device such as a wireless earphone or a Bluetooth speaker.
  • the electronic device 101 may perform signal processing to provide an audio signal in the audible frequency band (eg, 250 Hz to 8000 Hz) to the second electronic device 102.
  • the electronic device 101 uses a predetermined encoding method to transmit audio data recorded in the internal or external memory 130 in digital form to an external electronic device 102, such as wireless earphones. It can be compressed.
  • the first electronic device 101 may output a bitstream in which an audio signal is compressed using a predetermined encoding method.
  • the first electronic device 101 may use hearing characteristic information to encode an audio signal to be transmitted to the second electronic device 102.
  • the hearing characteristic information may be information collected through a hearing test for the user.
  • the hearing characteristic information may be information that divides the audible frequency band into a plurality of frequency bands and defines the user's hearing ability for each of the divided frequency bands (hereinafter referred to as 'divided audible frequency band').
  • the hearing characteristic information may define a frequency band to which the user responds sensitively and a frequency band to which the user does not respond relatively sensitively.
  • the fact that the user responds sensitively means that there is a high probability of hearing audio signals in a specific frequency band well even at relatively low decibels (e.g.
  • the fact that the user responds insensitively means that the probability of hearing the audio signal in the corresponding frequency band well even at a relatively high decibel (e.g., an audio signal at a loud volume) or recognizing it even when the audio signal is relatively high in pollution or deterioration is low. can do.
  • the first electronic device 101 classifies the audio signal in the audible frequency band into a plurality of divided audible frequency bands, and divides the audio signal into a plurality of divided audio signals (hereinafter referred to as 'segmented audio signals') in consideration of hearing characteristic information. You can determine the number of quantization bits to use to perform quantization.
  • the first electronic device 101 may perform quantization for each divided audio signal using the number of quantization bits determined for each divided audible frequency band.
  • the first electronic device 101 may configure quantized bit strings for each divided audible frequency band into one bit stream and transmit it to the second electronic device 102.
  • the bit stream can be generated by sequentially arranging quantized bit streams (hereinafter referred to as 'segmented quantization bit streams') generated for each divided audible frequency band according to the generation order.
  • one or more padding bits may be filled between quantization bit sequences to distinguish two consecutive quantization bit sequences.
  • the first electronic device 101 and the second electronic device 102 may perform a synchronization procedure in advance to unify whether padding bits are used or the type of padding bits.
  • the padding bits may make it easier for the second electronic device 102 to separate the quantized bit string for each divided audible frequency band from the bit stream.
  • the bit stream may include information to be referred to (hereinafter referred to as 'meta information') to restore split quantized bit strings included in the bit stream.
  • the meta information may include information that the second electronic device 102 can consider in order to allocate the number of quantization bits to each segmented quantization bit stream included in the bit stream.
  • the meta information may include a quantization classification identifier that indicates whether quantization has been performed in consideration of the user's hearing characteristics.
  • meta information may include information about a quantization bit allocation table referenced to allocate the number of quantization bits for quantization.
  • the information about the quantization bit allocation table indicates the quantization allocation table actually used for quantization among the quantization bit allocation tables synchronized between the first electronic device 101 and the second electronic device 102.
  • the information regarding the quantization bit allocation table may include information configuring a quantization allocation table actually used by the first electronic device 101 to allocate the number of quantization bits for quantization.
  • the second electronic device 102 may receive a bit stream corresponding to audio content from the first electronic device 101.
  • the second electronic device 102 may obtain meta information included in the bit stream.
  • the second electronic device 102 can determine the inverse quantization bit allocation table based on the meta information.
  • the second electronic device 102 may generate or select an inverse quantization bit allocation table reflecting the user's hearing characteristics using meta information for quantization.
  • the second electronic device 102 may use the inverse quantization bit allocation table to determine the number of inverse quantization bits for each split quantization bit stream included in the bit stream received from the first electronic device 101.
  • the second electronic device 102 may perform inverse quantization on the split quantization bit string using the determined number of inverse quantization bits.
  • the second electronic device 102 may perform a restoration procedure including inverse quantization for each divided audible frequency band and merge the restored audio signals for each divided audible frequency band to generate and output one audio signal.
  • commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
  • Each of the external electronic devices 102 or 104 may be of the same or different type as the electronic device 101.
  • all or part of the operations performed in the electronic device 101 may be executed in one or more of the external electronic devices 102, 104, or 108. For example, when the electronic device 101 needs to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device 101 does not execute the function or service on its own. Alternatively, or additionally, one or more external electronic devices may be requested to perform at least part of the function or service.
  • One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device 101.
  • the electronic device 101 may process the result as is or additionally and provide it as at least part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology can be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of Things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or server 108 may be included in the second network 199.
  • the electronic device 101 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
  • FIG. 2 is a block diagram 200 of the audio module 170, according to various implementations.
  • the audio module 170 includes, for example, an audio input interface 210, an audio input mixer 220, an analog to digital converter (ADC) 230, an audio signal processor 240, and a DAC. (digital to analog converter) 250, an audio output mixer 260, or an audio output interface 270.
  • ADC analog to digital converter
  • the audio input interface 210 is a part of the input module 150 or is configured separately from the electronic device 101 to obtain audio from the outside of the electronic device 101 through a microphone (e.g., a dynamic microphone, a condenser microphone, or a piezo microphone).
  • a microphone e.g., a dynamic microphone, a condenser microphone, or a piezo microphone.
  • An audio signal corresponding to sound can be received.
  • an audio signal is acquired from an external electronic device 102 (e.g., a headset or microphone)
  • the audio input interface 210 is directly connected to the external electronic device 102 through the connection terminal 178.
  • the audio signal can be received by connecting wirelessly (e.g., Bluetooth communication) through the wireless communication module 192.
  • the audio input interface 210 may receive a control signal (eg, a volume adjustment signal received through an input button) related to the audio signal obtained from the external electronic device 102.
  • the audio input interface 210 includes a plurality of audio input channels and can receive different audio signals for each corresponding audio input channel among the plurality of audio input channels.
  • the audio input interface 210 may receive an audio signal from another component of the electronic device 101 (eg, the processor 120 or the memory 130).
  • the audio input mixer 220 may synthesize a plurality of input audio signals into at least one audio signal.
  • the audio input mixer 220 may synthesize a plurality of analog audio signals input through the audio input interface 210 into at least one analog audio signal.
  • the ADC 230 can convert analog audio signals into digital audio signals.
  • the ADC 230 converts the analog audio signal received through the audio input interface 210, or additionally or alternatively, the analog audio signal synthesized through the audio input mixer 220 into a digital audio signal. It can be converted into a signal.
  • the audio signal processor 240 may perform various processing on a digital audio signal input through the ADC 230 or a digital audio signal received from another component of the electronic device 101. For example, according to one embodiment, the audio signal processor 240 may change the sampling rate, apply one or more filters, process interpolation, amplify or attenuate all or part of the frequency band, and You can perform noise processing (e.g., noise or echo attenuation), change channels (e.g., switch between mono and stereo), mix, or extract specified signals. According to one embodiment, one or more functions of the audio signal processor 240 may be implemented in the form of an equalizer.
  • the DAC 250 can convert digital audio signals into analog audio signals.
  • DAC 250 may process digital audio signals processed by audio signal processor 240, or other components of electronic device 101 (e.g., processor 120 or memory 130).
  • the digital audio signal obtained from )) can be converted to an analog audio signal.
  • the audio output mixer 260 may synthesize a plurality of audio signals to be output into at least one audio signal.
  • the audio output mixer 260 may output an audio signal converted to analog through the DAC 250 and another analog audio signal (e.g., an analog audio signal received through the audio input interface 210). ) can be synthesized into at least one analog audio signal.
  • the audio output interface 270 transmits the analog audio signal converted through the DAC 250, or additionally or alternatively, the analog audio signal synthesized by the audio output mixer 260 to the electronic device 101 through the audio output module 155. ) can be output outside of.
  • the sound output module 155 may include, for example, a speaker such as a dynamic driver or balanced armature driver, or a receiver.
  • the sound output module 155 may include a plurality of speakers.
  • the audio output interface 270 may output audio signals having a plurality of different channels (eg, stereo or 5.1 channels) through at least some of the speakers.
  • the audio output interface 270 is connected to the external electronic device 102 (e.g., external speaker or headset) directly through the connection terminal 178 or wirelessly through the wireless communication module 192. and can output audio signals.
  • the audio module 170 does not have a separate audio input mixer 220 or an audio output mixer 260, but uses at least one function of the audio signal processor 240 to generate a plurality of digital audio signals. At least one digital audio signal can be generated by synthesizing them.
  • the audio module 170 is an audio amplifier (not shown) capable of amplifying an analog audio signal input through the audio input interface 210 or an audio signal to be output through the audio output interface 270. (e.g., speaker amplification circuit) may be included.
  • the audio amplifier may be composed of a module separate from the audio module 170.
  • FIG. 3 is a block diagram of a source electronic device (eg, electronic device 101 of FIG. 1 ) according to one embodiment.
  • At least one processor 310 included in the first electronic device (or source electronic device) 101 encodes (or encodes) the audio signal 320. Compression) can be used to generate or output the bit stream 340.
  • the processor 310 may use the hearing characteristic information 330 when encoding the audio signal 320.
  • the processor 310 transmits the audio signal 320 in the audible frequency band to an internal memory (e.g., memory 130 in FIG. 1) or an external memory connected to an interface (e.g., interface 177 in FIG. 1).
  • the input may be received through a communication network (e.g., the first network 198 or the second network 199 in FIG. 1).
  • the audio signal 320 may be an electrical signal generated by running a music player.
  • the audio signal 320 may be a digital audio signal.
  • the audio signal 320 may be a signal modulated using pulse code modulation (PCM).
  • PCM pulse code modulation
  • the processor 310 may include, for example, a main processor (e.g., main processor 121 in FIG. 1) or an auxiliary processor (e.g., auxiliary processor 123 in FIG. 1).
  • the compression may be performed by an encoding operation on the input audio signal 320, for example, by software in the processor 310 or by a separate encoder. It can be performed in hardware through a unit.
  • the audio signal 320 may be encoded in the main processor 121 or the auxiliary processor 123.
  • the audio signal 320 may be encoded in legacy mode in the main processor 121.
  • the audio signal 320 may be encoded, for example, in a separate communication chip provided in the auxiliary processor 123. Encoding of low-power mode audio signals may be performed in a separate communication chip of the auxiliary processor 123.
  • the user may select to perform compression of the audio signal 320 in at least one of the main processor 121 or the auxiliary processor 123.
  • the hearing characteristic information 330 may be information that reflects the user's hearing characteristics.
  • the hearing characteristic information 330 may be information indicating which frequency band of the audible frequency band the user is sensitive to.
  • the hearing characteristic information 330 may be information indicating whether each user is more or less sensitive to a specific frequency.
  • the hearing characteristic information 330 may be measured differently depending on the left ear and right ear of the same user.
  • the hearing characteristic information 330 may be measured differently depending on the user's age.
  • the hearing characteristic information 330 may be used to detect hearing information by an application (e.g., the application 146 of FIG. 1) stored in the memory (e.g., the memory 130 of FIG. 1) of the first electronic device 101. Measurements can be performed.
  • An application that measures a user's hearing characteristics can be called a 'hearing test app'.
  • a voice signal in a specific frequency band may be output to the second electronic device (or external electronic device) 102 connected to the first electronic device 101.
  • the second electronic device 102 may be, for example, a sound output device such as earphones.
  • the first electronic device 101 and the second electronic device 102 may be connected wired or wirelessly.
  • the first electronic device 101 may be wiredly connected to the second electronic device 102 through a connection terminal provided therein (e.g., the connection terminal 178 in FIG. 1).
  • the first electronic device 101 may be wirelessly connected to the second electronic device 102 using, for example, Bluetooth.
  • the hearing test app When the user runs the hearing test app, the hearing test app outputs a voice signal in a specific frequency band transmitted from the first electronic device 101 to the audio output of the second electronic device 102 connected to the first electronic device 101. It can be sent to the device.
  • An audio signal in a specific frequency band transmitted from the hearing test app may be referred to as a test signal.
  • the test signal may be output continuously or multiple times at predetermined time intervals. For example, the test signal may become increasingly louder over time.
  • the first electronic device 101 may reduce the decibel (dB) of the test signal over time and output it. The user can determine whether the test signal output from the audio output device of the second electronic device 102 can be heard.
  • the user may touch a button displayed at a predetermined location on the display of the first electronic device 101 (e.g., the display module 160 of FIG. 1).
  • the first electronic device 101 may record the time it takes the user to touch the button.
  • each divided audible frequency band may be referred to as a subband (Sb).
  • SB subband
  • the divided audible frequency band is referred to as a subband.
  • each subband is divided into 1st subband (Sb #1), 2nd subband (Sb #2), in the order of bands from the low frequency band to the high frequency band. ... ... It may be referred to as the 11th subband (Sb #11) or the 12th subband (Sb #12).
  • the spacing of each subband may be the same or different.
  • the first electronic device 101 may record the user's hearing measurement results in each subband. For example, the hearing measurement results may be divided into three levels: very good, good, and average.
  • the first electronic device 101 determines that the user can hear the test signal at a relatively low decibel in the subband. It can be predicted that the sound of can be heard. In this case, the first electronic device 101 may record the hearing measurement result in the subband as 'very good'.
  • the first electronic device 101 allows the user to hear the test signal in the corresponding subband. It can be predicted that sounds of up to an audible decibel level can be heard. In this case, the first electronic device 101 may record the hearing measurement result in the subband as 'good'.
  • the first electronic device 101 determines that the user can hear the test signal at a relatively high decibel level in the subband. It can be predicted that only sounds can be heard. In this case, the first electronic device 101 may record the hearing measurement result in the subband as 'normal'. However, it is not limited to this, and if necessary, the first electronic device 101 may record the hearing measurement results in more detail or set a different hearing measurement method.
  • Hearing measurement results measured in the hearing test app may be stored in the memory 130 in the form of a database (DB).
  • the user may additionally perform hearing measurement through the hearing test app.
  • the user's additional hearing measurement results may be stored in the memory 130 in the form of the database.
  • the processor 120 may store the average value of the plurality of audiometry results obtained in the database.
  • the average value of the plurality of stored hearing measurement results may be stored as the user's hearing characteristic information 330.
  • the present invention is not limited to this, and the hearing measurement results according to a hearing measurement test recently performed by the user may be stored as the user's hearing characteristic information 330.
  • the user may include information on values arbitrarily entered for hearing in each frequency band.
  • the processor 310 can store information about hearing for each frequency band input by the user as hearing characteristic information 330. .
  • the stored hearing characteristic information 330 of the user may be referred to as hearing data.
  • the processor 310 may perform a compression process (or encoding process) on the input audio signal 320.
  • the compression process may include performing quantization on the input audio signal 320.
  • the quantization operation may include an operation of allocating the number of quantization bits for performing quantization for each subband.
  • the operation of allocating the number of quantization bits may include determining a bit allocation table.
  • the bit allocation table can define information about the number of quantization bits to be allocated for each subband.
  • the operation of allocating the number of quantization bits may include the processor 310 determining the presence or absence of the hearing data stored in the memory 130 and selecting or generating a bit allocation table accordingly.
  • the processor 310 can determine the number of quantization bits corresponding to the audio signal for each subband using the bit allocation table.
  • the processor 310 may select or create a bit allocation table that reflects the hearing data.
  • the bit allocation table reflecting the hearing data may, for example, allocate a relatively large number of bits to the subband to which the user responded as sensitive, and allocate a relatively small number of bits to the subband to which the user responded as insensitive.
  • the bit allocation table in which the hearing data is reflected can be referred to as an 'attribute bit allocation table'.
  • the processor 310 can perform quantization on an audio signal using the characteristic bit allocation table.
  • the characteristic bit allocation table is referred to as the 'first bit allocation table'.
  • the processor 310 may select or generate a normalized bit allocation table that does not consider hearing data.
  • the standard bit allocation table may exist, for example, in the form of a database in the memory 130.
  • the standard bit allocation table may be, for example, a bit allocation table that takes psychoacoustics into account.
  • the standard bit allocation table may allocate a relatively large number of quantization bits to a subband to which a statistically majority response was sensitive, and a relatively small number of quantization bits to a subband to which a majority statistically responded as insensitive.
  • the standard bit allocation table can be prepared to allocate a relatively large number of quantization bits to low-band subbands.
  • the standard bit allocation table may be, for example, a table in which a relatively large number of bits are allocated to the mid-band or high-band subbands rather than the low-band, depending on the characteristics of the samples for generating the standard bit allocation table.
  • the standard bit allocation table is referred to as the 'second bit allocation table'.
  • the processor 310 may generate and output a bit stream 340 as a result of performing a compression process on the input audio signal 320.
  • the processor 310 may transmit the bit stream 340 to the second electronic device 102 through a communication module (eg, the communication module 190 of FIG. 1).
  • the bit stream 340 may be transmitted to the second electronic device 102 using, for example, Bluetooth.
  • the bit stream may be transmitted to the second electronic device 102 through, for example, an advanced audio distribution profile (A2DP).
  • A2DP advanced audio distribution profile
  • FIG. 4 is a flowchart showing an operation in which the first electronic device 101 quantizes an audio signal, according to an embodiment.
  • the first electronic device 101 may obtain the number of quantization bits based on hearing characteristics for each divided audible frequency band.
  • the divided audible frequency band may mean, for example, a specific frequency band in which the audible frequency band is divided into a predetermined number.
  • the divided audible frequency band may also be referred to as a subband.
  • the first electronic device 101 uses a first bit allocation table according to hearing characteristics (e.g., hearing characteristic information 330 of FIG. 3 or hearing data of FIG. 3) to obtain the number of quantization bits based on hearing characteristics. Quantization can be performed using .
  • the first allocation bit table may be a table for the number of quantization bits to perform quantization by reflecting hearing characteristics for each divided audible frequency.
  • the first electronic device 101 may perform quantization for each segmented audible frequency band using a second bit allocation table, which is a standard bit allocation table unrelated to hearing characteristics.
  • the first electronic device 101 may obtain the number of quantization bits to perform quantization for each divided audible frequency using either the first bit allocation table or the second bit allocation table.
  • the first electronic device 101 may perform quantization using the number of quantization bits corresponding to the divided audio signal, which is an audio signal for each divided audible frequency band.
  • the number of quantization bits may mean the number of quantization bits for each divided audible frequency obtained by the first bit allocation table or the second bit allocation table generated in operation 410.
  • the first electronic device 101 may perform quantization on a segmented audio signal according to the number of quantization bits.
  • the first electronic device 101 may generate a quantized audio signal as a bit stream.
  • the first electronic device 101 may transmit the bit stream to the second electronic device 102.
  • a bit stream may be generated.
  • the first electronic device 101 may set a wireless channel to connect the second electronic device 102 to transmit the generated bit stream.
  • the first electronic device 101 may transmit a bit stream to the second electronic device 102 through the wireless channel.
  • FIG. 5 is a control flowchart for the first electronic device 101 to quantize an audio signal, according to an embodiment.
  • the first electronic device 101 may receive an audio signal in operation 510.
  • the audio signal may be an audio signal generated by running a music player.
  • the audio signal may include a digital audio signal.
  • the audio signal may be an audio signal modulated using a pulse code method.
  • the first electronic device 101 may determine whether hearing data exists.
  • the hearing data may be information on the user's hearing characteristics measured by a hearing measurement app of the first electronic device 101.
  • the hearing data may be hearing characteristic information arbitrarily input by the user rather than measured using the hearing measurement app.
  • the hearing data may be information indicating which subband of the audible frequency band the user is sensitive to.
  • the hearing data may be either an average of the results measured using a hearing measurement app or the user's most recent measurement results using a hearing measurement app.
  • the first electronic device 101 may select or generate a first bit allocation table in operation 530.
  • the first bit allocation table may be a bit allocation table that reflects the user's hearing characteristics.
  • the first bit allocation table may be a bit allocation table in which a relatively large number of bits are allocated to subbands to which users are sensitive.
  • the first bit allocation table may be a result of assigning a predetermined weight to each subband in which the user's hearing is measured and calculating the bits to be allocated to each subband through calculation with the weights.
  • the first electronic device 101 may analyze hearing data. As an example, the first electronic device 101 may analyze which band among the divided audible frequency bands is sensitive in relation to the user's hearing characteristics indicated by the hearing data.
  • the first electronic device 101 analyzes the hearing data and obtains a result that the user is sensitive to audio signals in the low frequency range of the divided audible frequency band, the first electronic device 101 stores the memory 130. You can select the second bit allocation table stored in .
  • the second bit allocation table may mean, for example, the standard bit allocation table of FIG. 3. As a result, the first electronic device 101 does not need to select or generate a first bit allocation table reflecting hearing data, thereby increasing computational efficiency or transmission efficiency.
  • the first electronic device 101 may compare the first bit allocation table and the second bit allocation table and then determine which bit allocation table to use to perform quantization.
  • a characteristic bit allocation table generated based on hearing data of a user sensitive to low-band subbands may be substantially the same as a standard bit allocation table.
  • the first electronic device 101 may compare the allocation bits for each subband in the characteristic bit allocation table with the allocation bits for each subband in the standard bit allocation table.
  • the first electronic device 101 may compare a predetermined weight for each subband according to the user's hearing data with a predetermined weight used to generate a standard bit allocation table.
  • the first electronic device 101 may determine whether there is a substantial difference between the first bit allocation table, which is a characteristic bit allocation table, and the second bit allocation table, which is a standard bit allocation table. If there is a substantial difference between the first bit allocation table and the second bit allocation table, the first electronic device 101 may determine a quantization bit using the first bit allocation table in operation 530.
  • the electronic device 101 selects the second bit in operation 540.
  • Quantization bits can be determined by selecting an allocation table. Even if hearing data exists, if the first electronic device 101 analyzes that the hearing data is sensitive to the divided audible band in the low frequency range, the first electronic device 101 determines the second bit allocation table in consideration of computational efficiency or transmission efficiency. Quantization can be performed by selecting .
  • the second bit allocation table may be a standard bit allocation table that does not reflect the user's individual hearing characteristics.
  • the first electronic device 101 may perform compression on each segmented audio signal using the number of quantization bits determined for each segmented audible frequency band.
  • the first electronic device 101 quantizes each divided audio signal using the first bit allocation table, a relatively large number of bits are recorded in the subband to which the user responded as sensitive (e.g., a subband in the mid-band or high-band).
  • a quantized bit string of can be generated.
  • a quantized bit stream with a relatively large number of bits may be generated in the low-band subband.
  • the first electronic device 101 may configure a bit stream to include quantized bit streams generated by performing quantization for each segmented audio signal.
  • the first electronic device 101 may transmit a bit stream to the second electronic device 102.
  • the first electronic device 101 may transmit a bit stream to the second electronic device 102 through a communication module (eg, the communication module 190 of FIG. 1).
  • the first electronic device 101 may transmit a bit stream using a Bluetooth method through a wireless communication module (e.g., the wireless communication module 192 of FIG. 1).
  • the first electronic device 101 may establish a wireless channel with the second electronic device 102 through the wireless communication module 192.
  • the first electronic device 101 may transmit a bit stream to the second electronic device 102 through the established wireless channel.
  • the first electronic device 101 may transmit the bit stream to the second electronic device 102 through, for example, an advanced audio distribution profile (A2DP).
  • A2DP advanced audio distribution profile
  • the first electronic device 101 when the first electronic device 101 is connected to the second electronic device 102 through a wireless channel, it can share information necessary to quantize or dequantize an audio signal. Each shared information can be synchronized so that quantization or inverse quantization of the audio signal can be easily performed.
  • the first electronic device 101 may share a second bit allocation table used to perform quantization of an audio signal with the second electronic device 102.
  • the second electronic device 102 may perform inverse quantization for each divided audible frequency band using the shared second bit allocation table.
  • each operation shown in FIG. 5 is not limited to that shown, and the order may be changed as needed.
  • the operation of the first electronic device 101 setting up a wireless channel with the second electronic device 102 may be performed before operation 560.
  • FIG. 6 is a block diagram of the second electronic device 102 according to one embodiment.
  • the second electronic device 102 restores the bit stream 620 (e.g., the bit stream 340 of FIG. 3) received from the first electronic device 101 into an audio signal 640. You can.
  • the bit stream 620 e.g., the bit stream 340 of FIG. 3
  • the second electronic device 102 may include, for example, a sound output device such as a speaker or earphone.
  • the second electronic device 102 may be connected to the first electronic device 101 by wire or wirelessly.
  • the second electronic device 102 may be connected by wire through a connection terminal provided in the first electronic device 101 (e.g., the connection terminal 178 in FIG. 1).
  • the second electronic device 102 may be wirelessly connected to the first electronic device 101 using, for example, Bluetooth.
  • the second electronic device 102 is connected to the first electronic device 101 through a wireless link, it can share information necessary for quantization or inverse quantization of the audio signal.
  • the second electronic device 102 may set a wireless channel for connection with the first electronic device 101.
  • the second electronic device 102 may respond to the wireless channel setup request of the first electronic device 101.
  • a bit stream 620 may be input to the processor 610 included in the second electronic device 102.
  • the bit stream 620 may be a signal obtained by quantizing and compressing an audio signal 320 (e.g., the audio signal 320 of FIG. 3) in the first electronic device 101.
  • the operations performed by the processor 610 may correspond in whole or in part to the operations performed by the processor 310 of the first electronic device 101 (eg, the processor 310 of FIG. 3).
  • the processor 610 may, for example, perform inverse quantization on the input bit stream 620. Decompression, including the inverse quantization, may be performed, for example, in software by the processor 610 or in hardware through a separate decoder unit.
  • the processor 610 may be implemented as, for example, an audio signal processor (eg, the audio signal processor 240 of FIG. 2).
  • the processor 610 may analyze information stored in the input bit stream 620.
  • the information stored in the bit stream 620 may include, for example, information about hearing measurement results measured by the first electronic device 101 or bit allocation information used when performing quantization of an audio signal.
  • the processor may analyze the information in the bit stream 620 and then request additional information needed to perform inverse quantization on the input bit stream 620 from the first electronic device 101.
  • the processor 610 may use the hearing characteristic information 630 when restoring the bit stream 620 into an audio signal.
  • the hearing characteristic information 630 may be information that reflects the user's hearing characteristics.
  • the hearing characteristic information 630 may include information measured through a hearing test app of the first electronic device 101.
  • the hearing characteristic information 630 may include, for example, an average value of a plurality of audiometry results or a hearing measurement result most recently measured by the user.
  • the hearing characteristic information 630 may include information about values arbitrarily entered by the user for hearing in each frequency band.
  • the hearing characteristic information 630 may be information stored in the bit stream 620 received from the first electronic device 101.
  • the processor 610 may analyze the received bit stream 620 and obtain hearing characteristic information 630 stored in the bit stream 620.
  • the processor 610 may analyze the received bit stream 620 to obtain bit allocation information used when quantizing the audio signal 320.
  • the hearing characteristic information 630 may be information separately acquired from the first electronic device 101 through a wireless channel.
  • the hearing characteristic information 630 may be information stored by the second electronic device 102 in the form of a database.
  • the processor 610 may perform inverse quantization on the bit stream 620 received from the first electronic device 101 in the process of restoring the bit stream 620 to the audio signal 640.
  • the inverse quantization may be performed, for example, using a bit allocation table used during quantization in the first electronic device 101.
  • the processor 610 may select or generate a bit allocation table to be used for inverse quantization.
  • the bit allocation table may include, for example, a first bit allocation table or a second bit allocation table.
  • the bit stream 620 is inversely quantized using a bit allocation table reflecting the hearing data (e.g., the characteristic bit allocation table in FIG. 3) to produce an audio signal. It can be restored with (640).
  • the second electronic device 102 may request the hearing data from the first electronic device 101.
  • the second electronic device 102 may generate a first bit allocation table. The second electronic device 102 may request information about the bit allocation table used by the first electronic device 101 to quantize the audio signal 320.
  • the second bit allocation table (e.g., in FIG. 3
  • the bit stream 620 can be inversely quantized using the second bit allocation table and restored into the audio signal 640.
  • the standard bit allocation table may be information stored in the memory of the second electronic device 102 or information received by the first electronic device 101.
  • the processor 610 may select either the first bit allocation table or the second bit allocation table and perform inverse quantization using the number of inverse quantization bits corresponding to the bit stream 620 for each audible frequency band.
  • An audio signal 640 can be generated by performing inverse quantization for each divided audible frequency band and then combining them into one signal.
  • the generated audio signal 640 may be, for example, an audio signal modulated using a pulse code modulation method.
  • the audio signal 640 may be converted into an analog signal by an audio module provided in the second electronic device 102 and then output through an audio output device.
  • FIG. 7 is a control flowchart for the second electronic device 102 to inverse quantize an audio signal, according to an embodiment.
  • the second electronic device 102 may analyze the bit stream received from the first electronic device 101 in operation 710.
  • the second electronic device 102 may receive a bit stream through a wireless channel established with the first electronic device 101.
  • bit stream analysis information may include information about the number of quantization bits used when the first electronic device 101 performs compression on an audio signal.
  • the bit stream analysis information may include a bit allocation table used when the first electronic device 101 performs compression on an audio signal.
  • the bit stream analysis information may include hearing measurement information for each user's divided audible band required to generate the bit allocation table.
  • the second electronic device 102 may obtain the number of inverse quantization bits for each divided audible frequency band included in the bit stream.
  • the number of inverse quantization bits for each divided audible frequency band may correspond to the number of quantization bits for each divided audible frequency band used when the first electronic device 101 performs compression for each divided audio signal.
  • the second electronic device 102 may perform inverse quantization on the bit stream for each audible frequency band using the obtained number of inverse quantization bits.
  • the inverse quantization may be sequentially performed on segmented audio signals for each audible frequency band included in the bit stream.
  • the inverse quantization may be performed, for example, using a first bit allocation table that reflects the user's hearing characteristics or a second bit allocation table that does not reflect the user's hearing characteristics.
  • an audio signal can be obtained.
  • the audio signal may be a signal modulated using a pulse code modulation method.
  • the audio signal may be an audio signal generated by the first electronic device 101 using a signal from a music player.
  • the second electronic device 102 may output the generated audio signal in operation 740.
  • the second electronic device 102 may synthesize segmented audio signals for the inverse quantized bit stream for each segmented frequency band into one audio signal. Since the pulse code modulation audio signal is a digital audio signal, the synthesized audio signal can be converted into an analog signal through a digital signal processor or DAC (digital to analog converter) module provided in the second electronic device 102. there is. The audio signal converted into the analog signal can be output to an audio output device provided in the second electronic device 102.
  • FIG. 8 is a control flowchart that the second electronic device 102 performs to decompress an audio signal, according to an embodiment.
  • the second electronic device 102 may receive a bit stream from the first electronic device 101 in operation 810.
  • the second electronic device 102 may establish a wireless channel with the first electronic device 101 through a communication module, or may be connected wirelessly by approving a wireless channel setting request from the first electronic device 101.
  • the second electronic device 102 may receive a bit stream from the first electronic device 101 through a wireless channel established with the first electronic device 101.
  • the second electronic device 102 when the second electronic device 102 is first connected to the first electronic device 101, information necessary for quantizing or inverse quantizing an audio signal may be shared.
  • the information may include data about a second bit allocation table that does not reflect the user's hearing characteristics.
  • the information may include data indicating weights that can generate a first bit allocation table for each divided audible frequency.
  • the second electronic device 102 may analyze information about the received bit stream in operation 820.
  • the second electronic device 102 may analyze meta information included in the bit stream.
  • the meta information may include information to be referenced to inverse quantize the bit stream.
  • the meta information may include a first identifier indicating whether the bit stream was generated by quantization considering hearing data.
  • the second electronic device 102 inversely quantizes the quantized data for each divided frequency band included in the bit stream using the first bit allocation table held by the second electronic device 102. You can determine the number of inverse quantization bits to use.
  • the first identifier may consist of one bit value (1 bit). If the bit value corresponding to the first identifier is '1', the second electronic device 102 can recognize that the bit stream was generated by quantization considering hearing data. If the bit value corresponding to the first identifier is '0', the second electronic device 102 can recognize that the bit stream was generated by quantization unrelated to hearing data.
  • meta information may include information about a first bit allocation table applied to quantize the bit stream.
  • the information about the first bit allocation table may include, for example, a second identifier indicating the first bit allocation table used for quantization in the encoder. If the information about the first bit allocation table includes the second identifier, the second electronic device 102 performs inverse quantization among one or more first bit allocation tables owned by the second electronic device 102 using the second identifier. The first bit allocation table used for this purpose can be determined. The second electronic device 102 may use the determined first bit allocation table to determine the number of inverse quantization bits to be used to inverse quantize the quantized data for each divided frequency band included in the bit stream.
  • meta information may include information about a first bit allocation table applied to quantize the bit stream.
  • the information about the first bit allocation table may be, for example, data that can configure the first bit allocation table. If the information about the first bit allocation table includes data that can configure the first bit allocation table, the second electronic device 102 can generate the first bit allocation table using the data. there is. The second electronic device 102 may use the generated first bit allocation table to determine the number of inverse quantization bits to be used to inverse quantize the quantized data for each divided frequency band included in the bit stream.
  • the second electronic device 102 may analyze information about the transmission environment included in the bit stream.
  • the transmission environment may analyze, for example, information on whether the first electronic device 101 and the second electronic device 102 can smoothly receive a bit stream or wireless signal transmitted and received through a set wireless channel. .
  • the capacity of the bit stream to be transmitted from the first electronic device 101 to the second electronic device 102 may be determined. .
  • the transmission environment is smooth, the capacity of the bit stream that the first electronic device 101 needs to transmit to the second electronic device 102 may be relatively small.
  • the transmission environment is not smooth, the capacity of the bit stream that the first electronic device 101 must transmit to the second electronic device 102 may be relatively large.
  • the second electronic device 102 may analyze meta information of the received bit stream and determine whether the bit stream was generated through quantization considering hearing data.
  • the second electronic device 102 divides the bit stream using the first bit allocation table for each divided audio signal included in each audible frequency band.
  • the number of inverse quantization bits to perform inverse quantization can be determined.
  • the second electronic device 102 divides the bit stream using the second bit allocation table and divides the bit stream into each divided audio signal included for each audible frequency band. For this reason, the number of inverse quantization bits to perform inverse quantization can be determined.
  • the second electronic device 102 performs inverse quantization on each segmented audio signal included in the bit stream for each segmented audible frequency band using the number of bits to perform inverse quantization determined for each segmented audible frequency band. You can.
  • the second electronic device 102 may generate an audio signal using segmented audio signals obtained for each segmented audible frequency band as a result of performing inverse quantization.
  • the second electronic device 102 may synthesize segmented audio signals obtained by performing inverse quantization for each segmented audible frequency band.
  • the second electronic device 102 may output synthesized audio signals for each divided audible frequency band.
  • the audio signal may be converted into an analog audio signal and output to an audio output device provided in the second electronic device 102.
  • FIG. 9 is a block diagram of the encoder 700 of the first electronic device 101, according to one embodiment.
  • the encoder 900 includes a transient detection unit 910, a domain transformation unit 920, a signal classification unit 930, and a bit allocation selection. It may include a bit allocation selection unit 940, a quantization unit 950, and a lossless coder unit 960. Each component may be integrated into at least one module and implemented with at least one processor (eg, processor 310 in FIG. 3). Additionally, each of the above components may be added or omitted as needed.
  • the transient detection unit 910 may analyze the input audio signal 320 to detect a section showing transient characteristics and generate transient signaling information for each frame in response to the detection result. there is.
  • the audio signal may be generated, for example, by executing a music player of the first electronic device 101.
  • the transient detection unit 910 may first determine whether the frame is a transient frame, and then secondarily perform verification on the current frame determined to be a transient frame.
  • the transient signaling information may be included in a bit stream through a multiplexer (not shown) and provided to the domain converter 920.
  • the domain converter 920 may determine the window size used for conversion according to the detection result of the transient section and perform time-frequency conversion based on the determined window size.
  • the transformation may be performed, for example, using a Fourier transform method.
  • the Fourier transform method may include, for example, a discrete Fourier transform (DFT) or a fast Fourier transform (FFT).
  • a short window can be applied, and in the case of a subband in which a transient section is not detected, a long window can be applied.
  • a short section window may be applied to a frame including a transient section.
  • the signal classifier 930 may divide the audio signal in the frequency domain into audible frequency bands at predetermined intervals.
  • the audible frequency band divided at predetermined intervals can be referred to as a subband.
  • the predetermined interval may be an interval divided by n audible frequency bands.
  • the spacing of each subband may be the same or different.
  • n divided subbands may be sequentially arranged in the frequency domain.
  • the n subbands may be arranged in series in the order from low-band subbands to high-band subbands.
  • the bit allocation selection unit 940 can allocate the number of quantization bits for each subband.
  • the bit allocation selection unit 940 selects the number of quantization bits for each frequency band within the limit that the quantization noise that exists when quantized according to the masking threshold calculated by the processor 120 does not exceed the masking threshold. can be assigned.
  • the bit allocation selection unit 940 may select a bit allocation table and allocate the number of quantization bits for each divided audible frequency band.
  • the bit allocation table may include, for example, a first bit allocation table or a second bit allocation table.
  • the first bit allocation table may be a bit allocation table that takes into account the user's hearing characteristics. For example, if the user is sensitive to high frequencies as a result of hearing measurement, the first bit allocation table may be a table in which a relatively large number of quantization bits are allocated to frequencies in the high frequencies. For example, if the user is sensitive to the mid-range as a result of the hearing measurement, the first bit allocation table may be a table in which a relatively large number of quantization bits are allocated to the frequencies of the mid-range. For example, if the user is sensitive to low-band frequencies as a result of hearing measurement, the first bit allocation table may be a table in which a relatively large number of quantization bits are allocated to low-band frequencies.
  • the second bit allocation table may be, for example, a table in which a relatively large number of bits are allocated to a divided audible frequency band that a statistically significant majority responded as being sensitive. For example, since statistically many people respond as being sensitive to low-band frequencies, the second bit allocation table may be a table in which a relatively large number of quantization bits are generally allocated to low-band frequencies.
  • the bit allocation selection unit 940 can allocate the number of quantization bits for each subband using the Norm value.
  • the Norm value may be a value indicating energy for each subband.
  • the bit allocation selection unit 940 is the n-th subband (Sb #n). ) may be assigned the most weight, and the least weight may be assigned to the first subband (Sb #1).
  • the bit allocation selection unit 940 may sequentially allocate the number of quantization bits starting from the subband with the largest Norm value. That is, the largest number of quantization bits is allocated to the n-th subband (Sb #n) with the highest priority, and the number of bits allocated to the n-th subband (Sb #n) is reduced from the total number of allocated bits. Next, the number of quantization bits equal to the corresponding weight can be assigned to the high-priority subband. By repeating this process, bits can be repeatedly allocated until the total number of bits is exhausted.
  • the bit allocation selection unit 940 may determine the number of quantization bits to be finally allocated by limiting the number of bits allocated to each subband so that it does not exceed the allowable number of bits (eg, the total number of bits to be transmitted). For example, the number of quantization bits to be allocated may be affected by the communication environment between the first electronic device 101 and the second electronic device 102.
  • the quantization unit 950 may quantize the audio signal with the number of quantization bits allocated to each subband according to the bit allocation table selected by the bit allocation selection unit 940. For example, the quantization unit 950 may perform quantization through calculation according to the number of quantization bits allocated to each subband. The quantization unit 950 may perform quantization on the corresponding segmented audio signal according to the number of quantization bits for each subband.
  • the quantization unit 950 can quantize the Norm value for each subband. At this time, the Norm value can be quantized in various ways, such as vector quantization, scalar quantization, TCQ, and LVQ (Lattice vector quantization). The quantization unit 950 may additionally perform lossless coding to further improve coding efficiency.
  • the lossless encoding unit 960 can losslessly encode the result quantized by the quantization unit 950.
  • Trellis Coded Quantizer TCQ
  • Uniform Scalar Quantizer USQ
  • Factorial Pulse Coder FPC
  • Analog Vector Quantizer AVQ
  • Predictive Vector Quantizer PVQ
  • Information about the audio signal encoded in the lossless encoder 960 may be included in the bit stream 340.
  • the lossless encoding unit 960 can hierarchically perform lossless encoding on the audio signal quantized in the quantization unit 950.
  • lossless encoding is performed using groups grouped with codes corresponding to the most significant bits as the highest layer, and groups grouped with codes corresponding to the lowest bits are sequentially used as the lower layer.
  • Lossless encoding is possible.
  • the lossless encoder 960 may perform encoding on the audio signal by considering overlapping values and frequencies for each subband.
  • the bit stream 340 encoded in the lossless encoder 960 may be transmitted to the second electronic device 102.
  • FIG. 10 is a block diagram of a portion 1000 of an encoder of a first electronic device according to an embodiment.
  • FIG. 10 parts of the encoder of FIG. 9 related to the present disclosure are shown in more detail. Accordingly, the components of FIG. 10 may correspond in whole or in part to the components of FIG. 9. Detailed descriptions of overlapping components are omitted.
  • the audio signal converted to the frequency domain in the domain conversion unit 1020 may be input to the signal classification unit 1030.
  • the signal classification unit 1030 may correspond to the signal classification unit 930 of FIG. 9 (eg, the signal classification unit 930 of FIG. 7).
  • the signal classification unit 1030 may divide the input audio signal into predetermined divided audible frequency bands.
  • the audio signal is, for example, a first sub-band (Sb #1), a second sub-band (Sb #2), a third sub-band (Sb #3), . ... It can be divided into n subbands of the nth subband (Sb #n).
  • n divided subbands may be sequentially arranged in the frequency domain.
  • the n subbands may be arranged in series in the order from low-band subbands to high-band subbands.
  • Hearing data (eg, hearing data in FIG. 3) may be stored in the memory 1080 in the form of a database 1081.
  • the hearing data can be expressed in ⁇ Table 1>.
  • Subband (Sb) Hearing loss Weighting 1st subband (Sb #1) Very Good/Good/Average (HL #1) w a /w b /w c (w#1) Second subband (Sb #2) Very Good/Good/Average (HL #2) w a /w b /w c (w#2) Third subband (Sb #3) Very Good/Good/Average (HL #3) w a /w b /w c (w#3) > .... .... nth subband (Sb #n) Very Good/Good/Average (HL #n) w a /w b /w c (w#n)
  • ⁇ Table 1> is a table that divides the audible frequency band into n subbands (Sb) and summarizes the hearing measurement results for each subband (Sb). Hearing loss can be recorded for each subband through a hearing measurement app (e.g., the hearing measurement app in FIG. 3). Hearing measurement results may indicate either 'very good', 'good' or 'average'.
  • the audiometry results of the first subband (Sb #1) are HL #1
  • the audiometry results of the second subband (Sb #2) are HL #2
  • the audiometry results of the third subband (Sb #3) are It can be expressed as HL #3
  • the audiometry results of the nth subband (Sb #n) can be expressed as HL #n.
  • Weights may be set differently depending on the hearing measurement results for each subband.
  • the weight may be determined according to the hearing loss. For example, if the hearing measurement result is 'very good', the weight of w a may be determined. For example, if the hearing measurement result is 'good', the weight of w b may be determined. For example, if the hearing measurement result is 'normal', the weight of w c may be determined.
  • the w a, w b, and w c may have a relationship of w a ⁇ w b ⁇ w c .
  • the user may directly input the audiometry results for each segmented audible frequency without performing audiometry.
  • hearing data considering the hearing characteristics of each user may be stored in the memory 1080 as a database 1081.
  • a processor may generate a characteristic bit allocation table by considering hearing data.
  • ⁇ Table 2> shows an example in which the processor 310 generates a characteristic bit allocation table by reflecting hearing data.
  • Subband (Sb) Default bit assignment value (basis bit allocation value) weighting (weight) Characteristic Bit Assignment Value (characterized bit allocation value) 1st subband (Sb #1) A 1 w a /w b /w c (w#1) A 1 ' Second subband (Sb #2) A 2 w a /w b /w c (w#2) A 2 ' Third subband (Sb #3) A 3 w a /w b /w c (w#3) A 3 ' .... .... .... nth subband (Sb #n) A n w a /w b /w c (w#n) A n '
  • ⁇ Table 2> divides the frequency band into m subbands (Sb), and assigns a weight to the basic bit allocation value for each subband according to the audiometry results of each subband (Sb) to determine the characteristic bit value.
  • This is a table deriving the allocation value.
  • the audible frequency band can be divided into m subbands.
  • m and n may be the same or different.
  • the table composed of the characteristic allocation bit values may be referred to as the first bit allocation table.
  • the weight for each subband (Sb) is w a, w b, or It can be determined by any one value of w c .
  • Characterized bit allocation values can be derived by assigning weights for each subband (Sb) according to the user's hearing measurement results to each basic bit allocation value for each subband (Sb).
  • the characterized bit allocation value may be, for example, a result derived by multiplying the bit allocation value by a weight.
  • the characteristic allocation bit value can be derived by calculating the bit allocation value and weight in various defined ways.
  • each characteristic bit allocation value A 1 ' and A 3 ' can be created to have the relationship A 1 ' ⁇ A 3 '.
  • the generated first bit allocation table may be stored in the form of a database 1081 in the memory 1080. Additionally, if necessary, the processor 310 may generate a plurality of first allocation tables through calculation.
  • Subband (sb) Default bit assignment value (basis bit allocation value) weighting (weight) Standard bit assignment value (normalized bit allocation value) 1st subband (Sb #1) A 1 w a /w b /w c (w#1) A 1 '' Second subband (Sb #2) A 2 w a /w b /w c (w#2) A2 '' Third subband (Sb #3) A 3 w a /w b /w c (w#3) A3 '' .... .... .... nth subband (Sb #n) A n w a /w b /w c (w#n) An'''' bit assignment value (basis bit allocation value) weighting (weight) Standard bit assignment value (normalized bit allocation value) 1st subband (Sb #1) A 1 w a /w b /w c (w#1) A 1 '' Second subband (Sb #2) A 2 w a
  • ⁇ Table 3> divides the frequency band into m subbands (Sb), and weights the basic bit allocation value for each subband according to the audiometry results of each subband (Sb) to obtain the normalized bit value. This is a table deriving the allocation value.
  • the table composed of the standard allocation bit values may be referred to as a second bit allocation table.
  • the weight for each subband (Sb) is w a, w b, or It can be predetermined as any one value among w c .
  • a standardized bit allocation value (characterized bit allocation value) can be derived by assigning a predetermined weight for each subband (Sb) according to the user's hearing measurement results to each basic bit allocation value for each subband (Sb). there is.
  • the characterized bit allocation value may be, for example, a result derived by multiplying the basic bit allocation value by a weight.
  • the characteristic allocation bit value can be derived by calculating the bit allocation value and weight in various defined ways.
  • each characteristic bit allocation value A 1 '' and A 3 '' can be created to have the relationship A 1 '' ⁇ A 3' ''.
  • the data organizing the standard bit allocation values for each subband in a table can be referred to as the second bit allocation table.
  • the generated second bit allocation table may be stored in the form of a database 1081 in the memory 1080. Additionally, if necessary, the processor 310 may generate a plurality of second allocation tables through calculation.
  • the bit allocation selection unit 1040 may correspond to the bit allocation selection unit 940 of FIG. 9.
  • the bit allocation selection unit 1040 can select one of the bit allocation tables depending on the presence or absence of hearing data.
  • the bit allocation table may include a first table 1041 or a second table 1043.
  • the first bit allocation table may be referred to as the first table 1041.
  • the second bit allocation table may be referred to as the second table 1043.
  • the bit allocation selection unit 1040 may select a bit allocation table by comparing the first table 1041 and the second table 1043 as well as the presence or absence of hearing data. As an example, if there is no significant difference by comparing the first table 1041 created by reflecting hearing characteristics with the second table 1043, which is a standard bit allocation table that does not reflect hearing characteristics, the bit allocation selection unit 1040 ) can determine the number of quantization bits using the second table 834. This takes into account data efficiency or computational efficiency required for quantization.
  • the quantization unit 1050 may correspond to the quantization unit 950 of FIG. 9 .
  • the quantization unit 1050 may perform quantization for each subband (Sb) according to the bit allocation table selected by the bit allocation selection unit 1040.
  • the number of quantization bits can be determined according to the bit allocation value for each subband (Sb) indicated by the bit allocation table selected by the bit allocation selection unit 1040.
  • the quantization unit 1050 may perform quantization on the corresponding segmented audio signal according to the number of quantization bits for each subband.
  • the lossless encoding unit 1060 may correspond to the lossless encoding unit 960 of FIG. 9 .
  • the lossless encoding unit 1060 can losslessly encode the result quantized by the quantization unit 1050.
  • the lossless encoder 1060 can perform lossless encoding on the corresponding segmented audio signal quantized for each subband.
  • FIG. 11 is a block diagram of the decoder 1100 of the second electronic device 102, according to one embodiment.
  • the decoder 1100 includes a lossless decoder 1110, a bit stream analysis unit 1120, a bit allocation selection unit 1130, an inverse quantization unit 1140, a signal classification unit 1150, and a domain conversion unit. It may include unit 1160. Each component may be integrated into at least one module and implemented with at least one processor (eg, processor 610 in FIG. 6). Additionally, each of the above components may be added or omitted as needed.
  • the lossless decoding unit 1110 can hierarchically perform lossless decoding on the bit stream 620 received from the first electronic device 101.
  • lossless decoding is performed using a group grouped with codes corresponding to the highest bit as the highest layer, and groups grouped with codes corresponding to the lowest bit are sequentially used as the lower layer. Lossless decoding is possible.
  • lossless decoding may be performed using the method used in the lossless encoding unit (e.g., the lossless encoding unit 1160 of FIG. 7).
  • the bit stream analysis unit 1120 can analyze the received bit stream 620.
  • the bit stream analysis unit 1120 can analyze meta information included in the bit stream.
  • the meta information may include information to be referred to in order to inverse quantize the bit stream 620.
  • the meta information may include a first identifier indicating whether the bit stream 620 is generated by quantization considering hearing data.
  • the second electronic device 102 uses the first bit allocation table held by the second electronic device 102 to generate quantized data for each divided frequency band included in the bit stream 620. You can determine the number of inverse quantization bits to use to inverse quantize.
  • the first identifier may consist of one bit value (1 bit). If the bit value corresponding to the first identifier is '1', the second electronic device 102 can recognize that the bit stream 620 is generated by quantization considering hearing data. If the bit value corresponding to the first identifier is '0', the second electronic device 102 can recognize that the bit stream 620 is generated by quantization unrelated to hearing data.
  • the meta information may include information about the first bit allocation table applied to quantize the bit stream 620.
  • the information about the first bit allocation table may include a second identifier indicating the first bit allocation table used for quantization in an encoder (eg, encoder 900 in FIG. 9). If the information about the first bit allocation table includes the second identifier, the second electronic device 102 performs inverse quantization among one or more first bit allocation tables owned by the second electronic device 102 using the second identifier. The first bit allocation table used for this purpose can be determined. The second electronic device 102 may use the determined first bit allocation table to determine the number of inverse quantization bits to be used to inverse quantize the quantized data for each divided frequency band included in the bit stream 620.
  • the meta information may include information about the first bit allocation table applied to quantize the bit stream 620.
  • the information about the first bit allocation table may be, for example, data that can configure the first bit allocation table. If the information about the first bit allocation table includes data that can configure the first bit allocation table, the second electronic device 102 can generate the first bit allocation table using the data. there is. The second electronic device 102 may use the generated first bit allocation table to determine the number of inverse quantization bits to be used to inverse quantize the quantized data for each divided frequency band included in the bit stream 620.
  • the bit stream analysis unit 1120 may analyze whether there is an error in the bit stream received from the first electronic device 101. For example, if there is an error in the bit stream received from the first electronic device 101 or the transmission environment is not smooth, the second electronic device 102 retransmits the bit stream to the first electronic device 101 (re -transmission) can be requested.
  • the retransmission may be, for example, based on a TCP (transmission control protocol) retransmission method.
  • the retransmission may be requested by adopting at least one of time-based retransmission, explicit retransmission feedback, or fast retransmission.
  • the bit allocation selection unit 1130 may determine which bit allocation table to use to perform inverse quantization on the bit stream for each frequency band. As an example, the bit allocation selection unit 1130 may select one of the first bit allocation table and the second bit allocation table.
  • the bit allocation selection unit 1130 may compare the first bit allocation table or the second bit allocation table and then determine which bit allocation table to use to perform inverse quantization. For example, when the second electronic device 102 has both a first bit allocation table and a second bit allocation table in the memory, if the two tables do not differ by a threshold level, the bit allocation selection unit 1130 Inverse quantization can be performed by selecting a standard bit allocation table.
  • the threshold level may mean, for example, a case where the difference in the number of bit allocations for each subband is 1% or more of the total number of allocated bits. However, this is only an exemplary value, and the threshold level may be set differently depending on the situation.
  • the inverse quantization unit 1140 may inverse quantize the bit stream with the number of bits allocated to each subband using the bit allocation table selected by the bit allocation selection unit 1130. For example, the inverse quantization unit 1140 may perform inverse quantization in the same manner as the quantization unit (e.g., the quantization unit 1050 of FIG. 10) performs quantization. As an example, the inverse quantization unit 1140 may perform inverse quantization on each audio signal included in each divided audible frequency band using either the first bit allocation table or the second bit allocation table.
  • the signal classification unit 1150 may subdivide the divided audio signals obtained for each divided frequency band into subbands as a result of performing inverse quantization. For example, the signal classification unit 1150 may partition the bit stream by subband. When dividing partitions into subbands, the signal classification unit 1150 may reflect the energy value for each partition. For example, the signal classification unit 1150 may apply different gain values to each partition.
  • the domain converter 1160 can convert the region of the bit stream that has undergone inverse quantization.
  • the domain converter 1160 may convert a bit stream in the frequency domain to the time domain.
  • the transformation may be performed, for example, using an inverse Fourier transform method.
  • the inverse Fourier transform method may include, for example, an inverse fast Fourier transform (IFFT) method.
  • IFFT inverse fast Fourier transform
  • the domain converter 1160 may convert the decoded bit stream into the time domain and generate a restored audio signal.
  • the domain converter 1160 can synthesize a bit stream that has been inversely quantized for each divided audible frequency.
  • the audio signal 640 generated through the domain converter 1160 may be converted into an analog audio signal by a digital signal processor or ADC provided in the second electronic device 102 and then output to an audio output device.
  • An embodiment of the present disclosure may provide an apparatus and method for minimizing quantization noise by reflecting the user's individual hearing characteristics when quantizing or inverse quantizing an audio signal.
  • the control method of the first electronic device 101 includes an operation 410 of obtaining the number of quantization bits for each divided audible frequency band in which the audible frequency band is divided based on preset hearing characteristics of the user. , an operation 420 of performing quantization using the number of quantization bits corresponding to the audio signal for each divided audible frequency band extracted from the audio signal 320 output by reproduction of audio content, and quantization for each divided audible frequency band. An operation 430 of generating an audio signal as a bit stream 340 and transmitting it to the second electronic device 102 through a wireless channel may be included.
  • the control method of the first electronic device 101 may include setting the hearing characteristics 330 of the user by performing hearing measurement for each divided audible frequency band on the user. You can.
  • the control method of the first electronic device 101 generates a quantization bit allocation table in which the number of quantization bits for each divided audible frequency band is updated by reflecting the preset hearing characteristics 330 of the user. Operation 530 may be included.
  • a control method of the first electronic device 101 may include operations 530 and 540 of selecting one quantization bit allocation table from among a plurality of generated quantization bit allocation tables.
  • the control method of the first electronic device 101 may operate to perform lossless encoding on the quantized audio signal for each divided audible frequency band.
  • the control method of the second electronic device 102 includes operations 710 and 820 of analyzing bit streams 340 and 620 received from the first electronic device 101, and the bit stream ( Obtaining the number of inverse quantization bits for each segmented audible frequency band included in 340, 620 (720), performing inverse quantization on the bit stream 340, 620 for each audible frequency band using the inverse quantization bit number. It may include an operation 730 of performing an operation 730 and an operation 740 of outputting the audio signal 640 generated by the inverse quantization.
  • the number of inverse quantization bits is determined by each audible frequency band used by the first electronic device 101 to quantize the audio signal 320. It may correspond to the number of quantization bits.
  • the control method of the second electronic device 102 may include requesting information 630 about the user's hearing characteristics necessary to perform inverse quantization from the first device 101. there is.
  • a control method of the second electronic device 102 includes the operation of acquiring information 630 about the hearing characteristics of a preset user from the first electronic device 101 and the obtained information 630. ) may include an operation of generating an inverse quantization bit allocation table for each divided audible frequency band.
  • the first electronic device 101 may include at least one processor 120 or 310 and a communication module 190.
  • the at least one processor 120, 310 obtains the number of quantization bits for each divided audible frequency band that divides the audible frequency band based on the preset hearing characteristics of the user 330, and outputs by playing the audio content. Quantization is performed using the number of quantization bits corresponding to the audio signal for each divided audible frequency band extracted from the audio signal 320, and the quantized audio signal for each divided audible frequency band is generated as one bit stream 340. It can be transmitted to the second electronic device 102 through a wireless channel.
  • the at least one processor 120, 310 performs hearing measurement for each divided audible frequency band on the user to determine the user's hearing characteristics ( 330) can be set.
  • the at least one processor 120 or 310 determines the number of quantization bits for each divided audible frequency band by reflecting the preset hearing characteristics 330 of the user.
  • An updated quantization bit allocation table can be created.
  • the at least one processor 120 or 310 may select one quantization bit allocation table from a plurality of generated quantization bit allocation tables.
  • the at least one processor 120 or 310 may perform lossless encoding on the quantized audio signal for each divided audible frequency band.
  • the second electronic device 102 may include at least one processor 610 and a communication module.
  • the at least one processor 610 analyzes the bit streams 340 and 620 received from the first electronic device 101 and inverse quantization bits for each divided audible frequency band included in the bit streams 340 and 620. A number may be obtained, inverse quantization may be performed on the bit streams 340 and 620 for each audible frequency band using the inverse quantization bit number, and an audio signal 640 generated by the inverse quantization may be output.
  • the number of inverse quantization bits is the number of quantization bits for each audible frequency band used by the first electronic device 101 to quantize the audio signal 320. can correspond to .
  • At least one processor 610 of the second electronic device 102 may provide information 330, 630 about the user's hearing characteristics necessary to perform inverse quantization with the first electronic device 101. ) can be requested.
  • At least one processor 610 of the second electronic device 102 obtains information 330 and 630 about the user's preset hearing characteristics from the first electronic device 101, , an inverse quantization bit allocation table for each segmented audible frequency band can be generated from the obtained information.
  • the electronic devices 101 and 102 may quantize or inverse quantize the audio signals 320 and 630 by selecting a quantization model in consideration of the communication environment.
  • the electronic devices 101 and 102 minimize the quantization noise generated when quantizing or inverse quantizing the audio signals 320 and 630 based on the user's hearing data 330 and 630, thereby providing optimal It can provide audio signals with sound quality.
  • Electronic devices may be of various types.
  • Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances.
  • Electronic devices according to embodiments of this document are not limited to the above-described devices.
  • first, second, or first or second may be used simply to distinguish one component from another, and to refer to those components in other respects (e.g., importance or order) is not limited.
  • One (e.g., first) component is said to be “coupled” or “connected” to another (e.g., second) component, with or without the terms “functionally” or “communicatively.” Where mentioned, it means that any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. It can be used as A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document are one or more instructions stored in a storage medium (e.g., built-in memory 136 or external memory 138) that can be read by a machine (e.g., electronic device 101). It may be implemented as software (e.g., program 140) including these.
  • a processor e.g., processor 120
  • the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is stored semi-permanently in the storage medium. There is no distinction between temporary storage cases.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • the computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
  • a machine-readable storage medium e.g. compact disc read only memory (CD-ROM)
  • an application store e.g. Play StoreTM
  • two user devices e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
  • at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
  • each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components. there is.
  • one or more of the components or operations described above may be omitted, or one or more other components or operations may be added.
  • multiple components eg, modules or programs
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component of the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, or omitted. Alternatively, one or more other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

An embodiment of the present disclosure relates to a device and a method for minimizing quantization noise by reflecting a user's individual hearing characteristics when quantizing or de-quantizing an audio signal. A control method therefor may comprise the operations of: obtaining the number of quantization bits for each divided audible frequency band obtained by diving an audible frequency band on the basis of the user's preconfigured hearing characteristics; performing quantization by using the number of quantization bits corresponding to a divided audible frequency band-specific audio signal, which is extracted from an audio signal output by reproducing audio content; and generating a bitstream from a quantized audio signal for each divided audible frequency band, and transmitting same to an external electronic device through a wireless channel. Various other embodiments are possible.

Description

오디오 신호를 처리하는 전자 장치 및 방법 Electronic devices and methods for processing audio signals
본 개시(disclosure)는 양자화 또는 역 양자화를 통해 오디오 신호를 처리하기 위한 전자 장치 및 방법에 관한 것이다.This disclosure relates to electronic devices and methods for processing audio signals through quantization or inverse quantization.
전자 장치(예: 컴퓨터, 휴대용 단말, 태블릿 등)는 블루투스 방식과 같은 근거리 무선 통신 방식을 사용하여 무선 이어폰(예: TWS (true wireless stereo))과 같은 외부 전자 장치와 연결될 수 있다. 전자 장치는 무선 통신 방식을 사용하여 연결된 외부 전자 장치로 오디오 신호와 같은 콘텐츠 데이터를 전송할 수 있다. 전자 장치는 무선 이어폰과의 거리나 채널 혼잡, 예상치 못한 장애 등으로 전송되는 오디오 신호와 같은 콘텐츠 데이터의 지연 또는 손상이 발생할 수 있다. 전자 장치는 전송 데이터가 외부 전자 장치인 무선 이어폰으로 전달되는 과정에서 훼손되는 것을 방지할 목적으로 소정의 인코딩 방식으로 데이터를 압축하여 전송할 필요가 있다. 외부 전자 장치인 무선 이어폰은 상대 전자 장치에서 사용된 인코딩 방식에 대응한 소정의 디코딩 방식을 사용하여 압축된 데이터를 복원할 수 있다.Electronic devices (e.g., computers, portable terminals, tablets, etc.) may be connected to external electronic devices such as wireless earphones (e.g., true wireless stereo (TWS)) using a short-range wireless communication method such as Bluetooth. Electronic devices can transmit content data, such as audio signals, to a connected external electronic device using a wireless communication method. Electronic devices may experience delays or damage to content data such as audio signals transmitted due to distance from wireless earphones, channel congestion, or unexpected failures. Electronic devices need to compress and transmit data using a predetermined encoding method to prevent transmission data from being damaged in the process of being transmitted to wireless earphones, which are external electronic devices. The wireless earphone, which is an external electronic device, can restore compressed data using a predetermined decoding method corresponding to the encoding method used in the other electronic device.
블루투스와 같은 근거리 통신 방식에서 전송 성능은, 전자 장치에 의해 인코딩 된 데이터의 양에 비례할 수 있다. 전자 장치에서 인코딩 된 데이터의 양이 많다는 것은, 외부 전자 장치인 무선 이어폰으로 많은 정보를 전달하여 양질의 서비스를 제공할 수 있음을 의미할 수 있다. 하지만 전송할 데이터의 양이 증가하면, 전자 장치와 외부 전자 장치인 무선 이어폰 사이를 연결하는 무선 채널에서의 트래픽이 증가하는 원인이 될 수 있다.In short-distance communication methods such as Bluetooth, transmission performance may be proportional to the amount of data encoded by the electronic device. A large amount of data encoded in an electronic device may mean that high-quality service can be provided by transmitting a lot of information to wireless earphones, which are external electronic devices. However, as the amount of data to be transmitted increases, traffic in the wireless channel connecting the electronic device and the wireless earphone, which is an external electronic device, may increase.
본 개시의 일 실시예는, 사용자의 청력 특성을 반영하여 오디오 신호를 인코딩 또는 디코딩 동작을 수행하는 전자 장치 및 방법을 제공할 수 있다.One embodiment of the present disclosure may provide an electronic device and method that performs an encoding or decoding operation on an audio signal by reflecting the user's hearing characteristics.
본 개시의 일 실시예에 따른 전자 장치의 제어 방법은, 미리 설정된 사용자의 청력 특성을 기반으로 가청 주파수 대역을 분할하는 분할 가청 주파수 대역 별로 양자화 비트 수를 획득하는 동작, 오디오 컨텐츠의 재생에 의해 출력되는 오디오 신호로부터 추출된 분할 가청 주파수 대역 별 오디오 신호에 대응되는 양자화 비트 수를 사용하여 양자화를 수행하는 동작 및 상기 분할 가청 주파수 대역 별로 양자화된 오디오 신호를 비트 스트림으로 생성하여 무선 채널을 통해 외부 전자 장치로 전송하는 동작을 포함할 수 있다.A control method of an electronic device according to an embodiment of the present disclosure includes an operation of dividing the audible frequency band based on preset hearing characteristics of a user, obtaining the number of quantization bits for each divided audible frequency band, and outputting by playing audio content. An operation of performing quantization using the number of quantization bits corresponding to the audio signal for each divided audible frequency band extracted from the audio signal, and generating the quantized audio signal for each divided audible frequency band as a bit stream and transmitting the quantized audio signal to an external electronic signal through a wireless channel. It may include the operation of transmitting to a device.
본 개시의 일 실시예에 따른 전자 장치의 제어 방법은, 외부 전자 장치로부터 수신한 비트 스트림을 분석하는 동작, 상기 비트 스트림에 포함된 분할 가청 주파수 대역 별 역 양자화 비트 수를 획득하는 동작, 상기 역 양자화 비트 수를 사용하여 가청 주파수 대역 별로 상기 비트 스트림에 대한 역 양자화를 수행하는 동작 및 상기 역 양자화로 생성된 오디오 신호를 출력하는 동작을 포함할 수 있다.A control method of an electronic device according to an embodiment of the present disclosure includes an operation of analyzing a bit stream received from an external electronic device, an operation of obtaining the number of inverse quantization bits for each divided audible frequency band included in the bit stream, and the inverse quantization bits. It may include an operation of performing inverse quantization on the bit stream for each audible frequency band using the number of quantization bits, and an operation of outputting an audio signal generated by the inverse quantization.
본 개시의 일 실시예에 따른 전자 장치는 적어도 하나 이상의 프로세서 및 통신 모듈을 포함할 수 있다. 상기 적어도 하나 이상의 프로세서는, 미리 설정된 사용자의 청력 특성을 기반으로 가청 주파수 대역을 분할하는 분할 가청 주파수 대역 별로 양자화 비트 수를 획득하고, 오디오 컨텐츠의 재생에 의해 출력되는 오디오 신호로부터 추출된 분할 가청 주파수 대역 별 오디오 신호에 대응되는 양자화 비트 수를 사용하여 양자화를 수행하고, 상기 분할 가청 주파수 대역 별로 양자화된 오디오 신호를 하나의 비트 스트림으로 생성하여 무선 채널을 통해 외부 전자 장치로 전송할 수 있다.An electronic device according to an embodiment of the present disclosure may include at least one processor and a communication module. The at least one processor obtains the number of quantization bits for each divided audible frequency band that divides the audible frequency band based on preset hearing characteristics of the user, and divides the audible frequency band extracted from the audio signal output by playing the audio content. Quantization may be performed using the number of quantization bits corresponding to the audio signal for each band, and the quantized audio signal for each divided audible frequency band may be generated as one bit stream and transmitted to an external electronic device through a wireless channel.
본 개시의 일 실시예에 따른 전자 장치는 적어도 하나 이상의 프로세서 및 통신 모듈을 포함할 수 있다. 상기 적어도 하나 이상의 프로세서는, 외부 전자 장치로부터 수신한 비트 스트림을 분석하고, 상기 비트 스트림에 포함된 분할 가청 주파수 대역 별 역 양자화 비트 수를 획득하고, 상기 역 양자화 비트 수를 사용하여 가청 주파수 대역 별로 상기 비트 스트림에 대한 역 양자화를 수행하고, 상기 역 양자화로 생성된 오디오 신호를 출력할 수 있다.An electronic device according to an embodiment of the present disclosure may include at least one processor and a communication module. The at least one processor analyzes a bit stream received from an external electronic device, obtains the number of inverse quantization bits for each divided audible frequency band included in the bit stream, and uses the number of inverse quantization bits for each audible frequency band. Inverse quantization may be performed on the bit stream, and an audio signal generated through the inverse quantization may be output.
본 개시에서, 전자 장치는 하나 이상의 프로그램을 저장하는 비일시적 컴퓨터 판독 가능 저장 매체를 포함할 수 있다. 상기 컴퓨터 판독 가능 저장 매체에 저장된 하나 이상의 프로그램은, 미리 설정된 사용자의 청력 특성을 기반으로 가청 주파수 대역을 분할하는 분할 가청 주파수 대역 별로 양자화 비트 수를 획득하고, 오디오 컨텐츠의 재생에 의해 출력되는 오디오 신호로부터 추출된 분할 가청 주파수 대역 별 오디오 신호에 대응되는 양자화 비트 수를 사용하여 양자화를 수행하고, 상기 분할 가청 주파수 대역 별로 양자화된 오디오 신호를 하나의 비트 스트림으로 생성하여 무선 채널을 통해 외부 전자 장치로 전송하는 인스트럭션들을 포함할 수 있다.In the present disclosure, an electronic device may include a non-transitory computer-readable storage medium that stores one or more programs. One or more programs stored in the computer-readable storage medium obtain the number of quantization bits for each divided audible frequency band that divides the audible frequency band based on preset hearing characteristics of the user, and produce an audio signal output by playback of audio content. Quantization is performed using the number of quantized bits corresponding to the audio signal for each divided audible frequency band extracted from the divided audible frequency band, and the quantized audio signal for each divided audible frequency band is generated as one bit stream and transmitted to an external electronic device through a wireless channel. May include instructions to be transmitted.
본 개시에서, 전자 장치는 하나 이상의 프로그램을 저장하는 비일시적 컴퓨터 판독 가능 저장 매체를 포함할 수 있다. 상기 컴퓨터 판독 가능 저장 매체에 저장된 하나 이상의 프로그램은, 외부 전자 장치로부터 수신한 비트 스트림을 분석하고, 상기 비트 스트림에 포함된 분할 가청 주파수 대역 별 역 양자화 비트 수를 획득하고, 상기 역 양자화 비트 수를 사용하여 가청 주파수 대역 별로 상기 비트 스트림에 대한 역 양자화를 수행하고, 상기 역 양자화로 생성된 오디오 신호를 출력하는 인스트럭션들을 포함할 수 있다.In the present disclosure, an electronic device may include a non-transitory computer-readable storage medium that stores one or more programs. One or more programs stored in the computer-readable storage medium analyzes a bit stream received from an external electronic device, obtains the number of inverse quantization bits for each divided audible frequency band included in the bit stream, and calculates the number of inverse quantization bits. It may include instructions for performing inverse quantization on the bit stream for each audible frequency band and outputting an audio signal generated by the inverse quantization.
본 개시에서 이루고자 하는 기술적 과제는 앞에서 언급한 기술적 과제로 제한되지 않으며, 당해 기술분야의 통상의 지식을 가진 자에 의해 본 개시의 예시적 실시예들로부터 앞에서 언급되지 않은 다른 기술적 과제들이 도출될 수 있다.The technical problems to be achieved by the present disclosure are not limited to the above-mentioned technical problems, and other technical problems not mentioned above may be derived from the exemplary embodiments of the present disclosure by those skilled in the art. there is.
본 개시의 일 실시예에 의하면, 전자 장치는 사용자의 청력 특성을 고려하여 오디오 신호인 가청 주파수 대역을 복수의 가청 주파수 대역으로 나눈 분할 주파수 대역 별로 부호화 율을 다르게 적용함으로써, 데이터 량을 증가시키지 않으면서도 무선 이어폰에 의해 오디오 신호를 청취하는 사용자의 만족도를 높일 수 있다.According to an embodiment of the present disclosure, the electronic device divides the audible frequency band, which is an audio signal, into a plurality of audible frequency bands in consideration of the user's hearing characteristics and applies different coding rates to each divided frequency band, so that if the amount of data is not increased, It can also increase the satisfaction of users who listen to audio signals through wireless earphones.
본 개시의 예시적 실시예들에서 얻을 수 있는 효과는 이하의 기재로부터 본 개시의 예시적 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다. 즉, 본 개시의 예시적 실시예들을 실시함에 따른 의도하지 아니한 효과들 역시 본 개시의 예시적 실시예들로부터 당해 기술분야의 통상의 지식을 가진 자에 의해 도출될 수 있다.Effects that can be obtained from the exemplary embodiments of the present disclosure can be clearly derived and understood by those skilled in the art from the following description. That is, unintended effects resulting from implementing the exemplary embodiments of the present disclosure may also be derived by those skilled in the art from the exemplary embodiments of the present disclosure.
도 1은, 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.1 is a block diagram of an electronic device in a network environment, according to various embodiments.
도 2는, 다양한 실시에 따른, 오디오 모듈의 블록도이다.2 is a block diagram of an audio module, according to various implementations.
도 3은, 본 개시의 일 실시예에 따른, 제1 전자 장치의 블록도이다.Figure 3 is a block diagram of a first electronic device according to an embodiment of the present disclosure.
도 4는, 본 개시의 일 실시예에 따른, 제1 전자 장치가 오디오 신호를 양자화 하는 동작을 나타낸 흐름도이다.FIG. 4 is a flowchart showing an operation in which a first electronic device quantizes an audio signal, according to an embodiment of the present disclosure.
도 5는, 본 개시의 일 실시예에 따른, 제1 전자 장치가 오디오 신호를 양자화 하기 위한 제어 흐름도이다.FIG. 5 is a control flowchart for a first electronic device to quantize an audio signal, according to an embodiment of the present disclosure.
도 6은, 본 개시의 일 실시예에 따른, 제2 전자 장치에 대한 블록도이다.Figure 6 is a block diagram of a second electronic device according to an embodiment of the present disclosure.
도 7은, 본 개시의 일 실시예에 따른, 제2 전자 장치가 오디오 신호를 역 양자화 하는 동작을 나타낸 흐름도이다.FIG. 7 is a flowchart illustrating an operation in which a second electronic device inversely quantizes an audio signal, according to an embodiment of the present disclosure.
도 8은, 본 개시의 일 실시예에 따른, 제2 전자 장치가 오디오 신호를 역 양자화 하기 위한 제어 흐름도이다.FIG. 8 is a control flowchart for a second electronic device to inverse quantize an audio signal, according to an embodiment of the present disclosure.
도 9는, 본 개시의 일 실시예에 따른, 제1 전자 장치의 인코더에 대한 블록도이다.Figure 9 is a block diagram of an encoder of a first electronic device, according to an embodiment of the present disclosure.
도 10은, 본 개시의 일 실시예에 따른 제1 전자 장치의 인코더의 일부에 대한 블록도이다.FIG. 10 is a block diagram of a portion of an encoder of a first electronic device according to an embodiment of the present disclosure.
도 11은, 본 개시의 일 실시예에 따른, 제2 전자 장치의 디코더에 대한 블록도이다.Figure 11 is a block diagram of a decoder of a second electronic device, according to an embodiment of the present disclosure.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.In relation to the description of the drawings, identical or similar reference numerals may be used for identical or similar components.
이하에서는 도면을 참조하여 본 개시의 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 도면의 설명과 관련하여, 동일하거나 유사한 구성요소에 대해서는 동일하거나 유사한 참조 부호가 사용될 수 있다. 또한, 도면 및 관련된 설명에서는, 잘 알려진 기능 및 구성에 대한 설명이 명확성과 간결성을 위해 생략될 수 있다.Hereinafter, with reference to the drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily practice them. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein. In relation to the description of the drawings, identical or similar reference numerals may be used for identical or similar components. Additionally, in the drawings and related descriptions, descriptions of well-known functions and configurations may be omitted for clarity and brevity.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.1 is a block diagram of an electronic device 101 in a network environment 100, according to various embodiments. Referring to FIG. 1, in the network environment 100, the electronic device 101 communicates with the electronic device 102 through a first network 198 (e.g., a short-range wireless communication network) or a second network 199. It is possible to communicate with at least one of the electronic device 104 or the server 108 through (e.g., a long-distance wireless communication network). According to one embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108. According to one embodiment, the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or may include an antenna module 197. In some embodiments, at least one of these components (eg, the connection terminal 178) may be omitted or one or more other components may be added to the electronic device 101. In some embodiments, some of these components (e.g., sensor module 176, camera module 180, or antenna module 197) are integrated into one component (e.g., display module 160). It can be.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor 120, for example, executes software (e.g., program 140) to operate at least one other component (e.g., hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and various data processing or operations can be performed. According to one embodiment, as at least part of data processing or computation, the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134. According to one embodiment, the processor 120 includes a main processor 121 (e.g., a central processing unit or an application processor) or an auxiliary processor 123 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor). For example, if the electronic device 101 includes a main processor 121 and a auxiliary processor 123, the auxiliary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can. The auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다. The auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the electronic device 101 (e.g., the display module 160, the sensor module 176, or the communication module 190) At least some of the functions or states related to can be controlled. According to one embodiment, co-processor 123 (e.g., image signal processor or communication processor) may be implemented as part of another functionally related component (e.g., camera module 180 or communication module 190). there is. According to one embodiment, the auxiliary processor 123 (eg, neural network processing unit) may include a hardware structure specialized for processing artificial intelligence models. Artificial intelligence models can be created through machine learning. For example, such learning may be performed in the electronic device 101 itself on which the artificial intelligence model is performed, or may be performed through a separate server (e.g., server 108). Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited. An artificial intelligence model may include multiple artificial neural network layers. Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above. In addition to hardware structures, artificial intelligence models may additionally or alternatively include software structures.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. The memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto. Memory 130 may include volatile memory 132 or non-volatile memory 134.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The input module 150 may receive commands or data to be used in a component of the electronic device 101 (e.g., the processor 120) from outside the electronic device 101 (e.g., a user). The input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The sound output module 155 may output sound signals to the outside of the electronic device 101. The sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback. The receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. The display module 160 can visually provide information to the outside of the electronic device 101 (eg, a user). The display module 160 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device. According to one embodiment, the display module 160 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device (e.g., directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102 (e.g., speaker or headphone).
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module 176 detects the operating state (e.g., power or temperature) of the electronic device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do. According to one embodiment, the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface 177 may support one or more designated protocols that can be used to connect the electronic device 101 directly or wirelessly with an external electronic device (eg, the electronic device 102). According to one embodiment, the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102). According to one embodiment, the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses. According to one embodiment, the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module 180 can capture still images and moving images. According to one embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module 188 can manage power supplied to the electronic device 101. According to one embodiment, the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery 189 may supply power to at least one component of the electronic device 101. According to one embodiment, the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다. Communication module 190 is configured to provide a direct (e.g., wired) communication channel or wireless communication channel between electronic device 101 and an external electronic device (e.g., electronic device 102, electronic device 104, or server 108). It can support establishment and communication through established communication channels. Communication module 190 operates independently of processor 120 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication. According to one embodiment, the communication module 190 is a wireless communication module 192 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (e.g., : LAN (local area network) communication module, or power line communication module) may be included. Among these communication modules, the corresponding communication module is a first network 198 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (e.g., legacy It may communicate with an external electronic device 104 through a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN). These various types of communication modules may be integrated into one component (e.g., a single chip) or may be implemented as a plurality of separate components (e.g., multiple chips). The wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199. The electronic device 101 can be confirmed or authenticated.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The wireless communication module 192 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology). NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency). -latency communications)) can be supported. The wireless communication module 192 may support a high frequency band (eg, mmWave band), for example, to achieve a high data rate. The wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. It can support technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna. The wireless communication module 192 may support various requirements specified in the electronic device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199). According to one embodiment, the wireless communication module 192 supports Peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC. Example: Downlink (DL) and uplink (UL) each of 0.5 ms or less, or round trip 1 ms or less) can be supported.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다. The antenna module 197 may transmit or receive signals or power to or from the outside (eg, an external electronic device). According to one embodiment, the antenna module 197 may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB). According to one embodiment, the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected to the plurality of antennas by, for example, the communication module 190. can be selected. Signals or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna. According to some embodiments, in addition to the radiator, other components (eg, radio frequency integrated circuit (RFIC)) may be additionally formed as part of the antenna module 197.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to various embodiments, the antenna module 197 may form a mmWave antenna module. According to one embodiment, a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band), And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components are connected to each other through a communication method between peripheral devices (e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)) and signal ( (e.g. commands or data) can be exchanged with each other.
전자 장치(101)가 오디오 신호를 압축하는 과정에서, 압축할 오디오 신호를 양자화 (quantization) 할 수 있다. 양자화는 오디오 신호의 실제 값을 일정한 간격으로 나누는 과정이다. 다시 말해, 양자화란 미리 정해진 양자화 간격 (quantization)의 몇 가지 양자화 단계 (quantization level)로 오디오 신호의 파형의 크기를 표현하는 것이다.When the electronic device 101 compresses an audio signal, the audio signal to be compressed may be quantized. Quantization is the process of dividing the actual value of an audio signal into regular intervals. In other words, quantization expresses the size of the waveform of an audio signal with several quantization levels at a predetermined quantization interval.
양자화 간격이 너무 넓으면, 양자화로 인한 노이즈가 발생할 수 있는데, 이를 양자화 잡음 (quantization noise)라고 한다. 양자화 잡음이 커지면 사용자가 느끼는 오디오 신호의 음질이 열화 될 수 있다. 반대로, 양자화 잡음이 너무 좁으면, 양자화 잡음은 감소할 수 있지만, 양자화 처리 이후 표현해야 할 오디오 신호의 세그먼트 (segment)의 수가 증가하여 부호화를 위해 필요한 비트레이트 (bitrate)가 증가하게 되어 단위 시간 당 전송해야 할 데이터의 양이 증가하게 된다.If the quantization interval is too wide, noise due to quantization may occur, which is called quantization noise. If quantization noise increases, the sound quality of the audio signal perceived by the user may deteriorate. Conversely, if the quantization noise is too narrow, the quantization noise may be reduced, but the number of segments of the audio signal to be expressed after quantization processing increases, which increases the bitrate required for encoding per unit time. The amount of data that needs to be transmitted increases.
따라서, 양자화 잡음으로 인하여 오디오 신호가 열화 되는 것을 최소화함과 동시에, 비트레이트가 증가하지 않도록 최적의 양자화 간격을 찾는 것이 요구된다고 할 것이다.Therefore, it would be necessary to find the optimal quantization interval to minimize audio signal deterioration due to quantization noise and at the same time prevent the bit rate from increasing.
양자화 시 주파수 별로 서로 다른 양자화 간격을 결정할 수 있다. 일반적인 심리 음향 모델 (psychoacoustic model)에 따라 사용자 중 대부분의 경우, 가청 주파수 대역 (예: 250Hz 내지 8000Hz) 중 비교적 낮은 대역의 주파수 대역에 민감한 경우가 많으므로, 낮은 대역의 주파수에 좁은 양자화 간격으로 비트를 할당할 수 있다.When quantizing, different quantization intervals can be determined for each frequency. According to the general psychoacoustic model, most users are sensitive to relatively low frequency bands in the audible frequency band (e.g., 250 Hz to 8000 Hz), so beats at low frequencies with narrow quantization intervals are used. can be assigned.
일 예에 따르면, 소스 전자 장치(예: 도 1의 전자 장치(101)(이하 '소스 전자 장치(101)' 또는 '제1 전자 장치(101)'라 칭함)는 오디오 데이터를 외부 전자 장치(예: 도 1의 전자 장치(102)(이하 '외부 전자 장치(102)', '소비 전자 장치(102) 또는 '제2 전자 장치(102)'라 칭함)로 제공할 수 있다. 상기 제2 전자 장치(102)는 상기 제1 전자 장치(101)로부터 제공받은 오디오 데이터를 처리하여 가청 신호인 오디오 신호를 출력할 수 있다. 상기 제2 전자 장치(102)는 오디오 신호를 출력할 수 있는 오디오 출력 장치일 수 있다. 상기 오디오 출력 장치는, 예를 들어, 무선 이어폰 또는 블루투스 스피커와 같은 전자 장치일 수 있다.According to one example, a source electronic device (e.g., the electronic device 101 of FIG. 1 (hereinafter referred to as 'source electronic device 101' or 'first electronic device 101')) transmits audio data to an external electronic device ( Example: The second electronic device 102 of FIG. 1 (hereinafter referred to as 'external electronic device 102', 'consumer electronic device 102', or 'second electronic device 102') may be provided. The electronic device 102 can process audio data provided from the first electronic device 101 and output an audio signal, which is an audible signal. The audio output device may be an electronic device such as a wireless earphone or a Bluetooth speaker.
일 예로써, 전자 장치(101)는 가청 주파수 대역 (예: 250Hz 내지 8000Hz)의 오디오 신호를 제2 전자 장치(102)로 제공하기 위한 신호 처리를 수행할 수 있다. 상기 전자 장치(101)는, 예를 들어, 디지털 형태로 내부 또는 외부 메모리(130)에 기록되어 있는 오디오 데이터를 무선 이어폰과 같은 외부 전자 장치(102)로 전달하기 위하여 소정의 인코딩 방식을 사용하여 압축할 수 있다. 상기 제1 전자 장치(101)는 소정의 인코딩 방식을 사용하여 오디오 신호가 압축된 비트 스트림(bitstream)을 출력할 수 있다. As an example, the electronic device 101 may perform signal processing to provide an audio signal in the audible frequency band (eg, 250 Hz to 8000 Hz) to the second electronic device 102. For example, the electronic device 101 uses a predetermined encoding method to transmit audio data recorded in the internal or external memory 130 in digital form to an external electronic device 102, such as wireless earphones. It can be compressed. The first electronic device 101 may output a bitstream in which an audio signal is compressed using a predetermined encoding method.
보다 구체적으로, 제1 전자 장치(101)는 제2 전자 장치(102)로 전달할 오디오 신호를 인코딩하기 위하여 청력 특성 정보를 사용할 수 있다. 상기 청력 특성 정보는 사용자에 대한 청력 테스트를 통해 수집한 정보일 수 있다. 일 예로, 상기 청력 특성 정보는 가청 주파수 대역을 복수의 주파수 대역으로 분할하고, 상기 분할된 주파수 대역(이하 '분할 가청 주파수 대역'이라 칭함) 별로 사용자의 청취 능력을 정의한 정보일 수 있다. 이 경우, 상기 청력 특성 정보는 사용자가 민감하게 반응하는 주파수 대역과 사용자가 상대적으로 민감하게 반응하지 않는 주파수 대역을 정의할 수 있다. 상기 사용자가 민감하게 반응한다는 것은, 특정 주파수 대역의 오디오 신호를 비교적 낮은 데시벨 (예: 작은 음량의 오디오 신호)에서도 잘 듣거나, 비교적 낮은 오염 또는 변질에도 이를 인지할 수 있는 확률이 높은 것을 의미할 수 있다. 상기 사용자가 민감하지 않게 반응한다는 것은, 해당 주파수 대역의 오디오 신호를 비교적 높은 데시벨 (예: 큰 음량의 오디오 신호)에서도 잘 듣거나, 비교적 높은 오염 또는 변질에도 이를 인지할 수 있는 확률이 떨어지는 것을 의미할 수 있다. More specifically, the first electronic device 101 may use hearing characteristic information to encode an audio signal to be transmitted to the second electronic device 102. The hearing characteristic information may be information collected through a hearing test for the user. As an example, the hearing characteristic information may be information that divides the audible frequency band into a plurality of frequency bands and defines the user's hearing ability for each of the divided frequency bands (hereinafter referred to as 'divided audible frequency band'). In this case, the hearing characteristic information may define a frequency band to which the user responds sensitively and a frequency band to which the user does not respond relatively sensitively. The fact that the user responds sensitively means that there is a high probability of hearing audio signals in a specific frequency band well even at relatively low decibels (e.g. audio signals at low volume) or recognizing even relatively low pollution or deterioration. You can. The fact that the user responds insensitively means that the probability of hearing the audio signal in the corresponding frequency band well even at a relatively high decibel (e.g., an audio signal at a loud volume) or recognizing it even when the audio signal is relatively high in pollution or deterioration is low. can do.
일 예로, 제1 전자 장치(101)는 가청 주파수 대역의 오디오 신호를 복수의 분할 가청 주파수 대역으로 분류하고, 청력 특성 정보를 고려하여 상기 분류된 오디오 신호 (이하 '분할 오디오 신호'라 칭함) 별로 양자화를 수행하기 위해 사용할 양자화 비트 수를 결정할 수 있다. 상기 제1 전자 장치(101)는 상기 분할 가청 주파수 대역 별로 결정한 양자화 비트 수를 사용하여 분할 오디오 신호 별로 양자화를 수행할 수 있다. 상기 제1 전자 장치(101)는 각 분할 가청 주파수 대역 별로 양자화된 비트 열들을 하나의 비트 스트림으로 구성하여 제2 전자 장치(102)로 전송할 수 있다. 상기 비트 스트림은, 예를 들어, 분할 가청 주파수 대역 별로 생성된 양자화 비트 열들(이하 '분할 양자화 비트 열'이라 칭함)을 생성 순서에 따라 순차적으로 배치하여 생성할 수 있다. As an example, the first electronic device 101 classifies the audio signal in the audible frequency band into a plurality of divided audible frequency bands, and divides the audio signal into a plurality of divided audio signals (hereinafter referred to as 'segmented audio signals') in consideration of hearing characteristic information. You can determine the number of quantization bits to use to perform quantization. The first electronic device 101 may perform quantization for each divided audio signal using the number of quantization bits determined for each divided audible frequency band. The first electronic device 101 may configure quantized bit strings for each divided audible frequency band into one bit stream and transmit it to the second electronic device 102. For example, the bit stream can be generated by sequentially arranging quantized bit streams (hereinafter referred to as 'segmented quantization bit streams') generated for each divided audible frequency band according to the generation order.
상기 비트 스트림은, 예를 들어, 두 개의 연속하는 양자화 비트 열을 구분하기 위하여, 양자화 비트 열 사이에 하나 또는 복수의 패딩(padding) 비트가 채워질 수 있다. 이를 위해, 상기 제1 전자 장치(101)와 상기 제2 전자 장치(102)는 사전에 패딩 비트의 사용 여부 또는 패딩 비트의 타입을 통일시키기 위한 동기화 절차를 수행할 수 있다. 상기 패딩 비트는 제2 전자 장치(102)가 상기 비트 스트림으로부터 분할 가청 주파수 대역 별 양자화 비트 열을 분리하기 용이하도록 할 수 있다. In the bit stream, for example, one or more padding bits may be filled between quantization bit sequences to distinguish two consecutive quantization bit sequences. To this end, the first electronic device 101 and the second electronic device 102 may perform a synchronization procedure in advance to unify whether padding bits are used or the type of padding bits. The padding bits may make it easier for the second electronic device 102 to separate the quantized bit string for each divided audible frequency band from the bit stream.
상기 비트 스트림은, 예를 들어, 비트 스트림에 포함된 분할 양자화 비트 열들을 복원하기 위해 참조할 정보(이하 '메타 정보'라 칭함)를 포함할 수 있다. 상기 메타 정보는 상기 제2 전자 장치(102)가 비트 스트림에 포함된 분할 양자화 비트 열들 별로 양자화 비트 수를 할당하기 위하여 고려할 수 있는 정보를 포함할 수 있다. 일 예로, 메타 정보는 사용자의 청력 특성을 고려하여 양자화가 이루어졌는지 여부를 지시하는 양자화 구분 식별자를 포함할 수 있다. 일 예로, 메타 정보는 양자화를 위한 양자화 비트 수를 할당하기 위하여 참조한 양자화 비트 할당 테이블에 관한 정보를 포함할 수 있다. 상기 양자화 비트 할당 테이블에 관한 정보는, 예를 들어, 제1 전자 장치(101)과 제2 전자 장치(102) 사이에 동기화된 양자화 비트 할당 테이블 중에서 양자화를 위해 실제로 사용된 양자화 할당 테이블을 지시하는 테이블 식별자를 포함할 수 있다. 상기 양자화 비트 할당 테이블에 관한 정보는, 예를 들어, 제1 전자 장치(101)가 양자화를 위한 양자화 비트 수를 할당하기 위하여 실제로 사용한 양자화 할당 테이블을 구성하는 정보를 포함할 수 있다.For example, the bit stream may include information to be referred to (hereinafter referred to as 'meta information') to restore split quantized bit strings included in the bit stream. The meta information may include information that the second electronic device 102 can consider in order to allocate the number of quantization bits to each segmented quantization bit stream included in the bit stream. As an example, the meta information may include a quantization classification identifier that indicates whether quantization has been performed in consideration of the user's hearing characteristics. As an example, meta information may include information about a quantization bit allocation table referenced to allocate the number of quantization bits for quantization. For example, the information about the quantization bit allocation table indicates the quantization allocation table actually used for quantization among the quantization bit allocation tables synchronized between the first electronic device 101 and the second electronic device 102. Can include table identifier. For example, the information regarding the quantization bit allocation table may include information configuring a quantization allocation table actually used by the first electronic device 101 to allocate the number of quantization bits for quantization.
일 예로써, 제2 전자 장치(102)는 제1 전자 장치(101)로부터 오디오 컨텐츠에 상응한 비트 스트림을 수신할 수 있다. 상기 제2 전자 장치(102)는 상기 비트 스트림에 포함된 메타 정보를 획득할 수 있다. 상기 제2 전자 장치(102)는 상기 메타 정보에 의해 역 양자화 비트 할당 테이블을 결정할 수 있다. 일 예로, 상기 제2 전자 장치(102)는 메타 정보에 의해 사용자의 청력 특성이 반영된 역 양자화 비트 할당 테이블을 양자화를 위하여 생성하거나, 선택할 수 있다.As an example, the second electronic device 102 may receive a bit stream corresponding to audio content from the first electronic device 101. The second electronic device 102 may obtain meta information included in the bit stream. The second electronic device 102 can determine the inverse quantization bit allocation table based on the meta information. As an example, the second electronic device 102 may generate or select an inverse quantization bit allocation table reflecting the user's hearing characteristics using meta information for quantization.
상기 제2 전자 장치(102)는 상기 역 양자화 비트 할당 테이블을 사용하여 상기 제1 전자 장치(101)로부터 수신한 비트 스트림에 포함된 분할 양자화 비트 열 별로 역 양자화 비트 수를 결정할 수 있다. 상기 제2 전자 장치(102)는 상기 결정된 역 양자화 비트 수를 사용하여 분할 양자화 비트 열에 대한 역 양자화를 수행할 수 있다. 상기 제2 전자 장치(102)는 분할 가청 주파수 대역 별로 역 양자화를 포함한 복원 절차를 수행하여 상기 분할 가청 주파수 대역 별로 복원된 오디오 신호를 병합하여 하나의 오디오 신호를 생성 및 출력할 수 있다.The second electronic device 102 may use the inverse quantization bit allocation table to determine the number of inverse quantization bits for each split quantization bit stream included in the bit stream received from the first electronic device 101. The second electronic device 102 may perform inverse quantization on the split quantization bit string using the determined number of inverse quantization bits. The second electronic device 102 may perform a restoration procedure including inverse quantization for each divided audible frequency band and merge the restored audio signals for each divided audible frequency band to generate and output one audio signal.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다. According to one embodiment, commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199. Each of the external electronic devices 102 or 104 may be of the same or different type as the electronic device 101. According to one embodiment, all or part of the operations performed in the electronic device 101 may be executed in one or more of the external electronic devices 102, 104, or 108. For example, when the electronic device 101 needs to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device 101 does not execute the function or service on its own. Alternatively, or additionally, one or more external electronic devices may be requested to perform at least part of the function or service. One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device 101. The electronic device 101 may process the result as is or additionally and provide it as at least part of a response to the request. For this purpose, for example, cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology can be used. The electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing. In another embodiment, the external electronic device 104 may include an Internet of Things (IoT) device. Server 108 may be an intelligent server using machine learning and/or neural networks. According to one embodiment, the external electronic device 104 or server 108 may be included in the second network 199. The electronic device 101 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
도 2는, 다양한 실시에 따른, 오디오 모듈(170)의 블록도(200)이다. 도 2를 참조하면, 오디오 모듈(170)은, 예를 들면, 오디오 입력 인터페이스(210), 오디오 입력 믹서(220), ADC(analog to digital converter)(230), 오디오 신호 처리기(240), DAC(digital to analog converter)(250), 오디오 출력 믹서(260), 또는 오디오 출력 인터페이스(270)를 포함할 수 있다. Figure 2 is a block diagram 200 of the audio module 170, according to various implementations. Referring to FIG. 2, the audio module 170 includes, for example, an audio input interface 210, an audio input mixer 220, an analog to digital converter (ADC) 230, an audio signal processor 240, and a DAC. (digital to analog converter) 250, an audio output mixer 260, or an audio output interface 270.
오디오 입력 인터페이스(210)는 입력 모듈(150)의 일부로서 또는 전자 장치(101)와 별도로 구성된 마이크(예: 다이나믹 마이크, 콘덴서 마이크, 또는 피에조 마이크)를 통하여 전자 장치(101)의 외부로부터 획득한 소리에 대응하는 오디오 신호를 수신할 수 있다. 예를 들어, 오디오 신호가 외부의 전자 장치(102)(예: 헤드셋 또는 마이크)로부터 획득되는 경우, 오디오 입력 인터페이스(210)는 상기 외부의 전자 장치(102)와 연결 단자(178)를 통해 직접, 또는 무선 통신 모듈(192)을 통하여 무선으로(예: Bluetooth 통신) 연결되어 오디오 신호를 수신할 수 있다. 일실시예에 따르면, 오디오 입력 인터페이스(210)는 상기 외부의 전자 장치(102)로부터 획득되는 오디오 신호와 관련된 제어 신호(예: 입력 버튼을 통해 수신된 볼륨 조정 신호)를 수신할 수 있다. 오디오 입력 인터페이스(210)는 복수의 오디오 입력 채널들을 포함하고, 상기 복수의 오디오 입력 채널들 중 대응하는 오디오 입력 채널 별로 다른 오디오 신호를 수신할 수 있다. 일실시예에 따르면, 추가적으로 또는 대체적으로, 오디오 입력 인터페이스(210)는 전자 장치(101)의 다른 구성 요소(예: 프로세서(120) 또는 메모리(130))로부터 오디오 신호를 입력 받을 수 있다.The audio input interface 210 is a part of the input module 150 or is configured separately from the electronic device 101 to obtain audio from the outside of the electronic device 101 through a microphone (e.g., a dynamic microphone, a condenser microphone, or a piezo microphone). An audio signal corresponding to sound can be received. For example, when an audio signal is acquired from an external electronic device 102 (e.g., a headset or microphone), the audio input interface 210 is directly connected to the external electronic device 102 through the connection terminal 178. , or the audio signal can be received by connecting wirelessly (e.g., Bluetooth communication) through the wireless communication module 192. According to one embodiment, the audio input interface 210 may receive a control signal (eg, a volume adjustment signal received through an input button) related to the audio signal obtained from the external electronic device 102. The audio input interface 210 includes a plurality of audio input channels and can receive different audio signals for each corresponding audio input channel among the plurality of audio input channels. According to one embodiment, additionally or alternatively, the audio input interface 210 may receive an audio signal from another component of the electronic device 101 (eg, the processor 120 or the memory 130).
오디오 입력 믹서(220)는 입력된 복수의 오디오 신호들을 적어도 하나의 오디오 신호로 합성할 수 있다. 예를 들어, 일실시예에 따르면, 오디오 입력 믹서(220)는, 오디오 입력 인터페이스(210)를 통해 입력된 복수의 아날로그 오디오 신호들을 적어도 하나의 아날로그 오디오 신호로 합성할 수 있다.The audio input mixer 220 may synthesize a plurality of input audio signals into at least one audio signal. For example, according to one embodiment, the audio input mixer 220 may synthesize a plurality of analog audio signals input through the audio input interface 210 into at least one analog audio signal.
ADC(230)는 아날로그 오디오 신호를 디지털 오디오 신호로 변환할 수 있다. 예를 들어, 일실시예에 따르면, ADC(230)는 오디오 입력 인터페이스(210)을 통해 수신된 아날로그 오디오 신호, 또는 추가적으로 또는 대체적으로 오디오 입력 믹서(220)를 통해 합성된 아날로그 오디오 신호를 디지털 오디오 신호로 변환할 수 있다.The ADC 230 can convert analog audio signals into digital audio signals. For example, according to one embodiment, the ADC 230 converts the analog audio signal received through the audio input interface 210, or additionally or alternatively, the analog audio signal synthesized through the audio input mixer 220 into a digital audio signal. It can be converted into a signal.
오디오 신호 처리기(240)는 ADC(230)를 통해 입력받은 디지털 오디오 신호, 또는 전자 장치(101)의 다른 구성 요소로부터 수신된 디지털 오디오 신호에 대하여 다양한 처리를 수행할 수 있다. 예를 들어, 일실시예에 따르면, 오디오 신호 처리기(240)는 하나 이상의 디지털 오디오 신호들에 대해 샘플링 비율 변경, 하나 이상의 필터 적용, 보간(interpolation) 처리, 전체 또는 일부 주파수 대역의 증폭 또는 감쇄, 노이즈 처리(예: 노이즈 또는 에코 감쇄), 채널 변경(예: 모노 및 스테레오간 전환), 합성(mixing), 또는 지정된 신호 추출을 수행할 수 있다. 일실시예에 따르면, 오디오 신호 처리기(240)의 하나 이상의 기능들은 이퀄라이저(equalizer)의 형태로 구현될 수 있다.The audio signal processor 240 may perform various processing on a digital audio signal input through the ADC 230 or a digital audio signal received from another component of the electronic device 101. For example, according to one embodiment, the audio signal processor 240 may change the sampling rate, apply one or more filters, process interpolation, amplify or attenuate all or part of the frequency band, and You can perform noise processing (e.g., noise or echo attenuation), change channels (e.g., switch between mono and stereo), mix, or extract specified signals. According to one embodiment, one or more functions of the audio signal processor 240 may be implemented in the form of an equalizer.
DAC(250)는 디지털 오디오 신호를 아날로그 오디오 신호로 변환할 수 있다. 예를 들어, 일실시예에 따르면, DAC(250)는 오디오 신호 처리기(240)에 의해 처리된 디지털 오디오 신호, 또는 전자 장치(101)의 다른 구성 요소(예: 프로세서(120) 또는 메모리(130))로부터 획득한 디지털 오디오 신호를 아날로그 오디오 신호로 변환할 수 있다.The DAC 250 can convert digital audio signals into analog audio signals. For example, according to one embodiment, DAC 250 may process digital audio signals processed by audio signal processor 240, or other components of electronic device 101 (e.g., processor 120 or memory 130). The digital audio signal obtained from )) can be converted to an analog audio signal.
오디오 출력 믹서(260)는 출력할 복수의 오디오 신호들을 적어도 하나의 오디오 신호로 합성할 수 있다. 예를 들어, 일실시예에 따르면, 오디오 출력 믹서(260)는 DAC(250)를 통해 아날로그로 전환된 오디오 신호 및 다른 아날로그 오디오 신호(예: 오디오 입력 인터페이스(210)을 통해 수신한 아날로그 오디오 신호)를 적어도 하나의 아날로그 오디오 신호로 합성할 수 있다. The audio output mixer 260 may synthesize a plurality of audio signals to be output into at least one audio signal. For example, according to one embodiment, the audio output mixer 260 may output an audio signal converted to analog through the DAC 250 and another analog audio signal (e.g., an analog audio signal received through the audio input interface 210). ) can be synthesized into at least one analog audio signal.
오디오 출력 인터페이스(270)는 DAC(250)를 통해 변환된 아날로그 오디오 신호, 또는 추가적으로 또는 대체적으로 오디오 출력 믹서(260)에 의해 합성된 아날로그 오디오 신호를 음향 출력 모듈(155)를 통해 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)는, 예를 들어, dynamic driver 또는 balanced armature driver 같은 스피커, 또는 리시버를 포함할 수 있다. 일실시예에 따르면, 음향 출력 모듈(155)는 복수의 스피커들을 포함할 수 있다. 이런 경우, 오디오 출력 인터페이스(270)는 상기 복수의 스피커들 중 적어도 일부 스피커들을 통하여 서로 다른 복수의 채널들(예: 스테레오, 또는 5.1채널)을 갖는 오디오 신호를 출력할 수 있다. 일실시예에 따르면, 오디오 출력 인터페이스(270)는 외부의 전자 장치(102)(예: 외부 스피커 또는 헤드셋)와 연결 단자(178)를 통해 직접, 또는 무선 통신 모듈(192)을 통하여 무선으로 연결되어 오디오 신호를 출력할 수 있다. The audio output interface 270 transmits the analog audio signal converted through the DAC 250, or additionally or alternatively, the analog audio signal synthesized by the audio output mixer 260 to the electronic device 101 through the audio output module 155. ) can be output outside of. The sound output module 155 may include, for example, a speaker such as a dynamic driver or balanced armature driver, or a receiver. According to one embodiment, the sound output module 155 may include a plurality of speakers. In this case, the audio output interface 270 may output audio signals having a plurality of different channels (eg, stereo or 5.1 channels) through at least some of the speakers. According to one embodiment, the audio output interface 270 is connected to the external electronic device 102 (e.g., external speaker or headset) directly through the connection terminal 178 or wirelessly through the wireless communication module 192. and can output audio signals.
일실시예에 따르면, 오디오 모듈(170)은 오디오 입력 믹서(220) 또는 오디오 출력 믹서(260)를 별도로 구비하지 않고, 오디오 신호 처리기(240)의 적어도 하나의 기능을 이용하여 복수의 디지털 오디오 신호들을 합성하여 적어도 하나의 디지털 오디오 신호를 생성할 수 있다.According to one embodiment, the audio module 170 does not have a separate audio input mixer 220 or an audio output mixer 260, but uses at least one function of the audio signal processor 240 to generate a plurality of digital audio signals. At least one digital audio signal can be generated by synthesizing them.
일실시예에 따르면, 오디오 모듈(170)은 오디오 입력 인터페이스(210)를 통해 입력된 아날로그 오디오 신호, 또는 오디오 출력 인터페이스(270)를 통해 출력될 오디오 신호를 증폭할 수 있는 오디오 증폭기(미도시)(예: 스피커 증폭 회로)를 포함할 수 있다. 일실시예에 따르면, 상기 오디오 증폭기는 오디오 모듈(170)과 별도의 모듈로 구성될 수 있다.According to one embodiment, the audio module 170 is an audio amplifier (not shown) capable of amplifying an analog audio signal input through the audio input interface 210 or an audio signal to be output through the audio output interface 270. (e.g., speaker amplification circuit) may be included. According to one embodiment, the audio amplifier may be composed of a module separate from the audio module 170.
도 3은, 일 실시예에 따른, 소스 전자 장치(예: 도 1의 전자 장치(101))의 블록도이다.FIG. 3 is a block diagram of a source electronic device (eg, electronic device 101 of FIG. 1 ) according to one embodiment.
도 3을 참조하면, 제1 전자 장치(또는 소스 전자 장치)(101)에 포함된 적어도 하나의 프로세서(310)(예: 도 1의 프로세서(120))는 오디오 신호(320)를 인코딩 (또는 압축)하여 비트 스트림(340)을 생성하거나, 출력할 수 있다. 프로세서(310)는 오디오 신호(320)를 인코딩 시에 청력 특성 정보(330)를 사용할 수 있다.Referring to FIG. 3, at least one processor 310 (e.g., processor 120 of FIG. 1) included in the first electronic device (or source electronic device) 101 encodes (or encodes) the audio signal 320. Compression) can be used to generate or output the bit stream 340. The processor 310 may use the hearing characteristic information 330 when encoding the audio signal 320.
일 예에 따르면, 프로세서(310)는 가청 주파수 대역의 오디오 신호(320)를 내부 메모리(예: 도 1의 메모리(130)), 인터페이스(예: 도 1의 인터페이스(177))에 연결된 외부 메모리 또는 통신 네트워크(예: 도 1의 제1 네트워크(198) 또는 제2 네트워크(199))를 통해 입력 받을 수 있다. 상기 오디오 신호(320)는, 예를 들어, 뮤직 플레이어의 실행으로 생성되는 전기적인 신호일 수 있다. 상기 오디오 신호(320)는 디지털 오디오 신호일 수 있다. 상기 오디오 신호(320)는, 예를 들어, 펄스 코드 변조 (PCM, pulse code modulation) 방식으로 변조된 신호일 수 있다.According to one example, the processor 310 transmits the audio signal 320 in the audible frequency band to an internal memory (e.g., memory 130 in FIG. 1) or an external memory connected to an interface (e.g., interface 177 in FIG. 1). Alternatively, the input may be received through a communication network (e.g., the first network 198 or the second network 199 in FIG. 1). For example, the audio signal 320 may be an electrical signal generated by running a music player. The audio signal 320 may be a digital audio signal. For example, the audio signal 320 may be a signal modulated using pulse code modulation (PCM).
프로세서(310)는, 예를 들어, 메인 프로세서(예: 도 1의 메인 프로세서(121) 또는 보조 프로세서(예: 도 1의 보조 프로세서(123))를 포함할 수 있다. 상기 프로세서(310)에서는, 예를 들어, 입력된 오디오 신호(320)에 대한 인코딩 동작에 의해 압축을 수행할 수 있다. 상기 압축은, 예를 들어, 프로세서(310)에서 소프트웨어적으로 수행되거나 또는 별도의 인코더 (encoder) 유닛을 통해 하드웨어적으로 수행될 수 있다.The processor 310 may include, for example, a main processor (e.g., main processor 121 in FIG. 1) or an auxiliary processor (e.g., auxiliary processor 123 in FIG. 1). In the processor 310, For example, the compression may be performed by an encoding operation on the input audio signal 320, for example, by software in the processor 310 or by a separate encoder. It can be performed in hardware through a unit.
오디오 신호(320)는, 메인 프로세서(121) 또는 보조 프로세서(123)에서 인코딩될 수 있다. 상기 오디오 신호(320)는, 예를 들어, 메인 프로세서(121)에서 레거시 모드로 인코딩이 수행될 수 있다. 상기 오디오 신호(320)는, 예를 들어, 보조 프로세서(123)에 마련된 별도의 통신 칩에서 인코딩이 수행될 수 있다. 보조 프로세서(123)의 별도의 통신칩에서 저전력 모드 오디오 신호의 인코딩이 수행될 수 있다. 사용자는 오디오 신호(320)의 압축을 메인 프로세서(121) 또는 보조 프로세서(123) 중 적어도 어느 하나에서 수행하도록 선택할 수도 있다.The audio signal 320 may be encoded in the main processor 121 or the auxiliary processor 123. For example, the audio signal 320 may be encoded in legacy mode in the main processor 121. The audio signal 320 may be encoded, for example, in a separate communication chip provided in the auxiliary processor 123. Encoding of low-power mode audio signals may be performed in a separate communication chip of the auxiliary processor 123. The user may select to perform compression of the audio signal 320 in at least one of the main processor 121 or the auxiliary processor 123.
청력 특성 정보(330)는, 예를 들어, 사용자의 청력 특성을 반영한 정보일 수 있다. 상기 청력 특성 정보(330)는, 예를 들어, 사용자가 가청 주파수 대역 중 어떤 주파수 대역의 소리에 민감한지를 지시하는 정보일 수 있다. 상기 청력 특성 정보(330)는, 예를 들어, 사용자 개인 별로 특정 주파수에 더 민감하거나 덜 민감한지를 지시하는 정보일 수 있다. 상기 청력 특성 정보(330)는, 예를 들어, 동일한 사용자의 좌측 귀, 우측 귀에 따라 다르게 측정될 수 있다. 상기 청력 특성 정보(330)는, 예를 들어, 사용자의 나이에 따라 다르게 측정될 수 있다.For example, the hearing characteristic information 330 may be information that reflects the user's hearing characteristics. For example, the hearing characteristic information 330 may be information indicating which frequency band of the audible frequency band the user is sensitive to. For example, the hearing characteristic information 330 may be information indicating whether each user is more or less sensitive to a specific frequency. For example, the hearing characteristic information 330 may be measured differently depending on the left ear and right ear of the same user. For example, the hearing characteristic information 330 may be measured differently depending on the user's age.
상기 청력 특성 정보(330)는, 예를 들어, 제1 전자 장치(101)의 메모리(예: 도 1의 메모리(130))에 저장된 어플리케이션(예: 도1의 어플리케이션(146))에 의해 청력 측정이 수행될 수 있다. 사용자의 청력 특성을 측정하는 어플리케이션을 '청력 테스트 앱'이라고 할 수 있다.For example, the hearing characteristic information 330 may be used to detect hearing information by an application (e.g., the application 146 of FIG. 1) stored in the memory (e.g., the memory 130 of FIG. 1) of the first electronic device 101. Measurements can be performed. An application that measures a user's hearing characteristics can be called a 'hearing test app'.
사용자가 청력 테스트 앱을 실행하면, 특정 주파수 대역의 음성 신호를 제1 전자 장치(101)와 연결된 제2 전자 장치(또는 외부 전자 장치)(102)로 출력할 수 있다. 상기 제2 전자 장치(102)는, 예를 들어, 이어폰과 같은 음향 출력 장치일 수 있다. 상기 제1 전자 장치(101)와 제2 전자 장치(102)는 유선 또는 무선으로 연결될 수 있다. 제1 전자 장치(101)는, 예를 들어, 내부에 마련된 연결 단자(예: 도 1의 연결 단자(178))를 통해 제2 전자 장치(102)와 유선 연결될 수 있다. 제1 전자 장치(101)는, 예를 들어, 블루투스 방식으로 제2 전자 장치(102)와 무선 연결될 수 있다.When a user runs the hearing test app, a voice signal in a specific frequency band may be output to the second electronic device (or external electronic device) 102 connected to the first electronic device 101. The second electronic device 102 may be, for example, a sound output device such as earphones. The first electronic device 101 and the second electronic device 102 may be connected wired or wirelessly. For example, the first electronic device 101 may be wiredly connected to the second electronic device 102 through a connection terminal provided therein (e.g., the connection terminal 178 in FIG. 1). The first electronic device 101 may be wirelessly connected to the second electronic device 102 using, for example, Bluetooth.
사용자가 청력 테스트 앱을 실행하면, 청력 테스트 앱은 제1 전자 장치(101)에서 송신한 특정 주파수 대역의 음성 신호를 상기 제1 전자 장치(101)와 연결된 제2 전자 장치(102)의 음향 출력 장치로 송신할 수 있다. 상기 청력 테스트 앱에서 송신하는 특정 주파수 대역의 음성 신호를 테스트 신호라고 할 수 있다. 상기 테스트 신호는, 예를 들어, 지속적으로 또는 소정의 시간 간격을 두고 복수 회 출력될 수 있다. 상기 테스트 신호는, 예를 들어, 시간의 경과에 따라 점점 소리가 작아질 수 있다. 제1 전자 장치(101)는, 예를 들어, 시간의 경과에 따라 테스트 신호의 데시벨 (decibel, dB)을 감소시켜 출력할 수 있다. 사용자는 상기 제2 전자 장치(102)의 음향 출력 장치에서 출력되는 테스트 신호가 들리는지 판단할 수 있다. 사용자가 상기 테스트 신호가 들리지 않는다고 판단되면, 제1 전자 장치(101)의 디스플레이(예: 도 1의 디스플레이 모듈(160))의 소정의 위치에 표시된 버튼을 터치할 수 있다. 제1 전자 장치(101)는 사용자가 상기 버튼을 터치하는 데에 소요되는 시간을 기록할 수 있다.When the user runs the hearing test app, the hearing test app outputs a voice signal in a specific frequency band transmitted from the first electronic device 101 to the audio output of the second electronic device 102 connected to the first electronic device 101. It can be sent to the device. An audio signal in a specific frequency band transmitted from the hearing test app may be referred to as a test signal. For example, the test signal may be output continuously or multiple times at predetermined time intervals. For example, the test signal may become increasingly louder over time. For example, the first electronic device 101 may reduce the decibel (dB) of the test signal over time and output it. The user can determine whether the test signal output from the audio output device of the second electronic device 102 can be heard. If the user determines that the test signal is not heard, he or she may touch a button displayed at a predetermined location on the display of the first electronic device 101 (e.g., the display module 160 of FIG. 1). The first electronic device 101 may record the time it takes the user to touch the button.
청력 테스트 앱에서는, 특정 주파수 대역을 소정의 간격으로 나눈 분할 가청 주파수 대역 별로 테스트를 반복할 수 있다. 상기 소정의 간격은, 예를 들어, 250[Hz] 내지 8000[Hz] 사이의 가청 주파수 대역 (밴드, band)을 n개로 나눈 간격일 수 있다. 가청 주파수 대역을 소정의 간격으로 나누었을 때, 각각의 분할 가청 주파수 대역은 서브 밴드(subband, Sb)라고 지칭될 수도 있다. 이하 설명의 편의를 위하여, 분할 가청 주파수 대역을 서브 밴드로 지칭한다. In the hearing test app, you can repeat the test for each divided audible frequency band by dividing a specific frequency band into predetermined intervals. For example, the predetermined interval may be an interval divided by n audible frequency bands (bands) between 250 [Hz] and 8000 [Hz]. When the audible frequency band is divided into predetermined intervals, each divided audible frequency band may be referred to as a subband (Sb). For convenience of explanation below, the divided audible frequency band is referred to as a subband.
일 예로, 가청 주파수 대역을 12개로 분할하면, 각각의 서브 밴드를 저역 주파수 대역의 밴드부터 고역 주파수 대역의 밴드 순서로 제1 서브 밴드 (Sb #1), 제2 서브 밴드 (Sb #2), ……제11 서브 밴드 (Sb #11) 또는 제12 서브 밴드 (Sb #12)라고 할 수 있다. 상기 각각의 서브 밴드의 간격은 같거나, 다를 수 있다. 사용자가 특정 주파수 대역의 음성 신호가 들리지 않는다고 판단하는데 소요되는 시간에 따라, 제1 전자 장치(101)는 각 서브 밴드에서의 사용자의 청력 측정 결과를 기록할 수 있다. 상기 청력 측정 결과는, 예를 들어, 매우 좋음, 좋음, 보통의 3단계로 나누어 기록될 수 있다. For example, if the audible frequency band is divided into 12, each subband is divided into 1st subband (Sb #1), 2nd subband (Sb #2), in the order of bands from the low frequency band to the high frequency band. … … It may be referred to as the 11th subband (Sb #11) or the 12th subband (Sb #12). The spacing of each subband may be the same or different. Depending on the time it takes to determine that the user cannot hear the voice signal in a specific frequency band, the first electronic device 101 may record the user's hearing measurement results in each subband. For example, the hearing measurement results may be divided into three levels: very good, good, and average.
일 예로, 사용자가 각 서브 밴드에서 5초가 지난 후 테스트 신호에 대해 들리지 않는다고 판단하여 디스플레이(160)에 표시된 버튼을 클릭하면, 제1 전자 장치(101)는 사용자가 해당 서브 밴드에서 상대적으로 낮은 데시벨의 소리를 들을 수 있는 것으로 예측할 수 있다. 이 경우, 제1 전자 장치(101)는 상기 서브 밴드에서의 청력 측정 결과를 '매우 좋음'이라고 기록할 수 있다. For example, if the user determines that the test signal cannot be heard after 5 seconds in each subband and clicks the button displayed on the display 160, the first electronic device 101 determines that the user can hear the test signal at a relatively low decibel in the subband. It can be predicted that the sound of can be heard. In this case, the first electronic device 101 may record the hearing measurement result in the subband as 'very good'.
일 예로, 사용자가 특정 서브 밴드에서 3초가 지난 후 테스트 신호에 대해 들리지 않는다고 판단하여 디스플레이(160)에 표시된 버튼을 클릭하면, 제1 전자 장치(101)는 사용자가 해당 서브 밴드에서 일반적인 사람이 들을 수 있는 수준의 데시벨의 소리까지 들을 수 잇는 것으로 예측할 수 있다. 이 경우, 제1 전자 장치(101)는 상기 서브 밴드에서의 청력 측정 결과를 '좋음'이라고 기록할 수 있다. For example, if the user determines that the test signal cannot be heard after 3 seconds in a specific subband and clicks the button displayed on the display 160, the first electronic device 101 allows the user to hear the test signal in the corresponding subband. It can be predicted that sounds of up to an audible decibel level can be heard. In this case, the first electronic device 101 may record the hearing measurement result in the subband as 'good'.
일 예로, 사용자가 특정 서브 밴드에서 1초가 지난 후 테스트 신호에 대해 들리지 않는다고 판단하여 디스플레이(160)에 표시된 버튼을 클릭하면, 제1 전자 장치(101)는 사용자가 해당 서브 밴드에서 상대적으로 높은 데시벨의 소리만을 들을 수 있는 것으로 예측할 수 있다. 이 경우, 제1 전자 장치(101)는 상기 서브 밴드에서의 청력 측정 결과를 '보통'이라고 기록할 수 있다. 다만 이에 한정되지 않고, 필요에 따라 제1 전자 장치(101)는 상기 청력 측정 결과를 더 세부적으로 나누어 기록하거나, 청력 측정 방식을 다르게 설정할 수 있다.For example, if the user determines that the test signal cannot be heard after 1 second in a specific subband and clicks the button displayed on the display 160, the first electronic device 101 determines that the user can hear the test signal at a relatively high decibel level in the subband. It can be predicted that only sounds can be heard. In this case, the first electronic device 101 may record the hearing measurement result in the subband as 'normal'. However, it is not limited to this, and if necessary, the first electronic device 101 may record the hearing measurement results in more detail or set a different hearing measurement method.
청력 테스트 앱에서 측정된 청력 측정 결과는 데이터베이스 (database, DB)의 형태로 메모리(130)에 저장될 수 있다. 사용자는 상기 청력 테스트 앱을 통한 청력 측정을 추가적으로 실시할 수도 있다. 추가적으로 실시한 사용자의 청력 측정 결과는 상기 데이터베이스 형태로 메모리(130)에 저장될 수 있다. 복수 회의 청력 측정을 통한 청력 측정 결과들이 데이터베이스로 저장되면, 프로세서(120)는 획득한 상기 복수의 청력 측정 결과들의 평균값을 데이터베이스로 저장할 수 있다. 상기 저장한 복수의 청력 측정 결과들의 평균값을 사용자의 청력 특성 정보(330)로 저장할 수 있다. 다만, 이에 한정하지 않고 사용자가 최근에 실시한 청력 측정 테스트에 따른 청력 측정 결과를 사용자의 청력 특성 정보(330)로 저장할 수도 있다. Hearing measurement results measured in the hearing test app may be stored in the memory 130 in the form of a database (DB). The user may additionally perform hearing measurement through the hearing test app. The user's additional hearing measurement results may be stored in the memory 130 in the form of the database. When audiometry results from multiple hearing measurements are stored in a database, the processor 120 may store the average value of the plurality of audiometry results obtained in the database. The average value of the plurality of stored hearing measurement results may be stored as the user's hearing characteristic information 330. However, the present invention is not limited to this, and the hearing measurement results according to a hearing measurement test recently performed by the user may be stored as the user's hearing characteristic information 330.
일 예로, 사용자는 주파수 대역 별 청력을 임의로 입력한 값에 대한 정보를 포함할 수 있다. 프로세서는(310)는, 사용자가 청력 테스트 앱을 실행하여 측정된 청력 측정 결과 외에, 프로세서(310)는 사용자에 의해 입력된 주파수 대역 별 청력에 대한 정보를 청력 특성 정보(330)로 저장할 수 있다.As an example, the user may include information on values arbitrarily entered for hearing in each frequency band. In addition to the hearing measurement results measured when the user runs the hearing test app, the processor 310 can store information about hearing for each frequency band input by the user as hearing characteristic information 330. .
상기 저장된 사용자의 청력 특성 정보(330)를 청력 데이터라고 할 수 있다.The stored hearing characteristic information 330 of the user may be referred to as hearing data.
프로세서(310)는, 입력 받은 오디오 신호(320)에 대한 압축 과정 (또는 인코딩 과정)을 수행할 수 있다. 압축 과정을 수행함에 있어서, 상기 프로세서(310)는 메모리(130)에 저장된 청력 데이터를 이용할 수 있다. 압축 과정은 입력 받은 오디오 신호(320)에 대한 양자화를 수행하는 동작을 포함할 수 있다. 상기 양자화 동작은 각 서브 밴드 별로 양자화를 수행하기 위한 양자화 비트 수를 할당하는 동작을 포함할 수 있다. 상기 양자화 비트 수를 할당하는 동작은, 비트 할당 테이블을 결정하는 동작을 포함할 수 있다. 상기 비트 할당 테이블은, 서브 밴드 별로 할당할 양자화 비트 수에 관한 정보를 정의할 수 있다. 상기 양자화 비트 수를 할당하는 동작은, 프로세서(310)가 메모리(130)에 저장된 상기 청력 데이터의 존재 유무를 판단하고, 그에 따라 비트 할당 테이블을 선택하거나, 또는 생성하는 동작을 포함할 수 있다. 상기 프로세서(310)는 상기 비트 할당 테이블을 사용하여 서브 밴드 별로 오디오 신호에 대응되는 양자화 비트 수를 결정할 수 있다.The processor 310 may perform a compression process (or encoding process) on the input audio signal 320. In performing the compression process, the processor 310 may use hearing data stored in the memory 130. The compression process may include performing quantization on the input audio signal 320. The quantization operation may include an operation of allocating the number of quantization bits for performing quantization for each subband. The operation of allocating the number of quantization bits may include determining a bit allocation table. The bit allocation table can define information about the number of quantization bits to be allocated for each subband. The operation of allocating the number of quantization bits may include the processor 310 determining the presence or absence of the hearing data stored in the memory 130 and selecting or generating a bit allocation table accordingly. The processor 310 can determine the number of quantization bits corresponding to the audio signal for each subband using the bit allocation table.
일 예로, 프로세서(310)는 청력 데이터가 있으면, 청력 데이터가 반영된 비트 할당 테이블을 선택하거나, 또는 생성할 수 있다. 상기 청력 데이터를 반영한 비트 할당 테이블은, 예를 들어, 사용자가 민감하다고 반응한 서브 밴드에는 비교적 많은 비트 수를 할당하고, 사용자가 둔감하다고 반응한 서브 밴드에는 비교적 적은 비트 수를 할당할 수 있다. 상기 청력 데이터가 반영된 비트 할당 테이블은 '특성 비트 할당 테이블 (attribute bit allocation table)'이라고 할 수 있다. 상기 프로세서(310)는 상기 특성 비트 할당 테이블로 오디오 신호에 대한 양자화를 수행할 수 있다. 이하 상기 특성 비트 할당 테이블을 '제1 비트 할당 테이블'이라고 지칭한다.For example, if there is hearing data, the processor 310 may select or create a bit allocation table that reflects the hearing data. The bit allocation table reflecting the hearing data may, for example, allocate a relatively large number of bits to the subband to which the user responded as sensitive, and allocate a relatively small number of bits to the subband to which the user responded as insensitive. The bit allocation table in which the hearing data is reflected can be referred to as an 'attribute bit allocation table'. The processor 310 can perform quantization on an audio signal using the characteristic bit allocation table. Hereinafter, the characteristic bit allocation table is referred to as the 'first bit allocation table'.
일 예로, 프로세서(310)는 청력 데이터가 없으면, 청력 데이터를 고려하지 않은 표준 비트 할당 테이블 (normalized bit allocation table)을 선택하거나, 생성할 수 있다. 상기 표준 비트 할당 테이블은, 예를 들어, 메모리(130)에 데이터 베이스의 형태로 존재할 수 있다. 상기 표준 비트 할당 테이블은, 예를 들어, 심리 음향학 (psychoacoustic)을 고려한 비트 할당 테이블일 수 있다. 상기 표준 비트 할당 테이블은, 예를 들어, 통계적으로 다수가 민감하다고 반응한 서브 밴드에 비교적 많은 양자화 비트 수를 할당하고, 둔감하다고 반응한 서브 밴드에 비교적 적은 양자화 비트 수를 할당할 수 있다. 통계적으로 불특정 다수는 저역대의 서브 밴드에 민감하다고 반응하는 경우가 많으므로, 상기 표준 비트 할당 테이블은 저역대의 서브 밴드에 비교적 많은 양자화 비트 수가 할당되도록 마련될 수 있다. 다만, 이에 한정되지 않고, 표준 비트 할당 테이블은, 예를 들어, 표준 비트 할당 테이블을 생성하기 위한 표본들의 특성에 따라 저역대가 아닌 중역대 또는 고역대의 서브 밴드에 비교적 많은 비트수가 할당된 테이블일 수도 있다. 이하, 상기 표준 비트 할당 테이블을 '제2 비트 할당 테이블'이라고 지칭한다.For example, if there is no hearing data, the processor 310 may select or generate a normalized bit allocation table that does not consider hearing data. The standard bit allocation table may exist, for example, in the form of a database in the memory 130. The standard bit allocation table may be, for example, a bit allocation table that takes psychoacoustics into account. For example, the standard bit allocation table may allocate a relatively large number of quantization bits to a subband to which a statistically majority response was sensitive, and a relatively small number of quantization bits to a subband to which a majority statistically responded as insensitive. Since statistically, an unspecified number of people often respond as being sensitive to low-band subbands, the standard bit allocation table can be prepared to allocate a relatively large number of quantization bits to low-band subbands. However, it is not limited to this, and the standard bit allocation table may be, for example, a table in which a relatively large number of bits are allocated to the mid-band or high-band subbands rather than the low-band, depending on the characteristics of the samples for generating the standard bit allocation table. . Hereinafter, the standard bit allocation table is referred to as the 'second bit allocation table'.
프로세서(310)는 입력 받은 오디오 신호(320)에 대한 압축 과정을 수행한 결과로, 비트 스트림(340)을 생성하여 출력할 수 있다. 프로세서(310)는, 통신 모듈(예: 도 1의 통신 모듈(190))을 통해 상기 비트 스트림(340)을 제2 전자 장치(102)로 전송할 수 있다. 상기 비트 스트림(340)은, 예를 들어, 블루투스 방식으로 제2 전자 장치(102)로 전송될 수 있다. 상기 비트 스트림은, 예를 들어, A2DP (advanced audio distribution profile)을 통해 제2 전자 장치(102)로 전송될 수 있다.The processor 310 may generate and output a bit stream 340 as a result of performing a compression process on the input audio signal 320. The processor 310 may transmit the bit stream 340 to the second electronic device 102 through a communication module (eg, the communication module 190 of FIG. 1). The bit stream 340 may be transmitted to the second electronic device 102 using, for example, Bluetooth. The bit stream may be transmitted to the second electronic device 102 through, for example, an advanced audio distribution profile (A2DP).
도 4는, 일 실시예에 따른, 제1 전자 장치(101)가 오디오 신호를 양자화 하는 동작을 나타낸 흐름도이다.FIG. 4 is a flowchart showing an operation in which the first electronic device 101 quantizes an audio signal, according to an embodiment.
도 4를 참조하면, 제1 전자 장치(101)는, 동작 410에서, 분할 가청 주파수 대역 별로 청력 특성에 기반한 양자화 비트 수를 획득할 수 있다. 분할 가청 주파수 대역은, 예를 들어, 가청 주파수 대역을 소정의 개수로 분할한 특정 주파수 대역을 의미할 수 있다. 상기 분할 가청 주파수 대역을 서브 밴드라고도 할 수 있다.Referring to FIG. 4, in operation 410, the first electronic device 101 may obtain the number of quantization bits based on hearing characteristics for each divided audible frequency band. The divided audible frequency band may mean, for example, a specific frequency band in which the audible frequency band is divided into a predetermined number. The divided audible frequency band may also be referred to as a subband.
제1 전자 장치(101)는, 청력 특성에 기반한 양자화 비트 수를 획득하기 위해, 청력 특성(예: 도 3의 청력 특성 정보(330) 또는 도 3의 청력 데이터))에 따른 제1 비트 할당 테이블을 사용하여 양자화를 수행할 수 있다. 상기 제1 할당 비트 테이블은, 예를 들어, 분할 가청 주파수 별로 청력 특성을 반영하여 양자화를 수행할 양자화 비트 수에 대한 테이블일 수 있다.The first electronic device 101 uses a first bit allocation table according to hearing characteristics (e.g., hearing characteristic information 330 of FIG. 3 or hearing data of FIG. 3) to obtain the number of quantization bits based on hearing characteristics. Quantization can be performed using . For example, the first allocation bit table may be a table for the number of quantization bits to perform quantization by reflecting hearing characteristics for each divided audible frequency.
제1 전자 장치(101)는 청력 특성과 무관한 표준 비트 할당 테이블인 제2 비트 할당 테이블을 사용하여 분할 가청 주파수 대역 별 양자화를 수행할 수 있다. The first electronic device 101 may perform quantization for each segmented audible frequency band using a second bit allocation table, which is a standard bit allocation table unrelated to hearing characteristics.
제1 전자 장치(101)는 제1 비트 할당 테이블 또는 제2 비트 할당 테이블 중 어느 하나를 사용하여 분할 가청 주파수 별로 양자화를 수행할 양자화 비트 수를 획득할 수 있다.The first electronic device 101 may obtain the number of quantization bits to perform quantization for each divided audible frequency using either the first bit allocation table or the second bit allocation table.
제1 전자 장치(101)는, 동작 420에서, 분할 가청 주파수 대역 별 오디오 신호인 분할 오디오 신호에 대응되는 양자화 비트 수를 사용하여 양자화를 수행할 수 있다. 상기 양자화 비트 수는 동작 410에서 생성된 제1 비트 할당 테이블 또는 제2 비트 할당 테이블에 의해 획득한 분할 가청 주파수 별로 양자화 비트 수를 의미할 수 있다. 제1 전자 장치(101)는, 예를 들어, 상기 양자화 비트 수에 따라 분할 오디오 신호에 대한 양자화를 수행할 수 있다.In operation 420, the first electronic device 101 may perform quantization using the number of quantization bits corresponding to the divided audio signal, which is an audio signal for each divided audible frequency band. The number of quantization bits may mean the number of quantization bits for each divided audible frequency obtained by the first bit allocation table or the second bit allocation table generated in operation 410. For example, the first electronic device 101 may perform quantization on a segmented audio signal according to the number of quantization bits.
제1 전자 장치(101)는, 동작 430에서, 양자화된 오디오 신호를 비트 스트림으로 생성할 수 있다. 제1 전자 장치(101)는 상기 비트 스트림을 제2 전자 장치(102)로 전송할 수 있다. 제1 전자 장치(101)가 동작 420에서 양자화를 수행한 결과로, 비트 스트림이 생성될 수 있다. 제1 전자 장치(101)는 생성된 비트 스트림을 전송하기 위해 제2 전자 장치(102)를 연결할 무선 채널을 설정할 수 있다. 상기 무선 채널을 통해 제1 전자 장치(101)는 제2 전자 장치(102)로 비트 스트림을 전송할 수 있다.In operation 430, the first electronic device 101 may generate a quantized audio signal as a bit stream. The first electronic device 101 may transmit the bit stream to the second electronic device 102. As a result of the first electronic device 101 performing quantization in operation 420, a bit stream may be generated. The first electronic device 101 may set a wireless channel to connect the second electronic device 102 to transmit the generated bit stream. The first electronic device 101 may transmit a bit stream to the second electronic device 102 through the wireless channel.
도 5는, 일 실시예에 따른, 제1 전자 장치(101)가 오디오 신호를 양자화 하기 위한 제어 흐름도이다.FIG. 5 is a control flowchart for the first electronic device 101 to quantize an audio signal, according to an embodiment.
도 5를 참조하면, 제1 전자 장치(101)는, 동작 510에서, 오디오 신호를 입력 받을 수 있다. 상기 오디오 신호는, 예를 들어, 뮤직 플레이어의 실행으로 생성되는 오디오 신호일 수 있다. 상기 오디오 신호는 디지털 오디오 신호를 포함할 수 있다. 상기 오디오 신호는 펄스 코드 방식으로 변조된 오디오 신호일 수 있다.Referring to FIG. 5, the first electronic device 101 may receive an audio signal in operation 510. For example, the audio signal may be an audio signal generated by running a music player. The audio signal may include a digital audio signal. The audio signal may be an audio signal modulated using a pulse code method.
제1 전자 장치(101)는, 동작 520에서, 청력 데이터가 존재하는지 판단할 수 있다. 상기 청력 데이터는, 예를 들어, 제1 전자 장치(101)의 청력 측정 앱이 측정한 사용자의 청력 특성 정보일 수 있다. 상기 청력 데이터는, 예를 들어, 상기 청력 측정 앱으로 측정하지 않고, 사용자가 임의로 입력한 청력 특성 정보일 수 있다. 상기 청력 데이터는, 예를 들어, 사용자가 가청 주파수 대역 중 어떤 서브 밴드의 소리에 민감한지를 지시하는 정보일 수 있다. 상기 청력 데이터는 청력 측정 앱으로 측정한 결과들의 평균값 또는 사용자가 가장 최근에 청력 측정 앱으로 측정한 결과 중 어느 하나일 수 있다.In operation 520, the first electronic device 101 may determine whether hearing data exists. For example, the hearing data may be information on the user's hearing characteristics measured by a hearing measurement app of the first electronic device 101. For example, the hearing data may be hearing characteristic information arbitrarily input by the user rather than measured using the hearing measurement app. For example, the hearing data may be information indicating which subband of the audible frequency band the user is sensitive to. The hearing data may be either an average of the results measured using a hearing measurement app or the user's most recent measurement results using a hearing measurement app.
청력 데이터가 존재하면, 제1 전자 장치(101)는, 동작 530에서, 제1 비트 할당 테이블을 선택하거나, 또는 생성할 수 있다. 상기 제1 비트 할당 테이블은, 예를 들어, 사용자의 청력 특성을 반영한 비트 할당 테이블일 수 있다. 상기 제1 비트 할당 테이블은, 사용자가 민감한 서브 밴드에 비교적 많은 비트를 할당한 비트 할당 테이블일 수 있다. 상기 제1 비트 할당 테이블은, 예를 들어, 사용자의 청력을 측정한 서브 밴드 별로 소정의 가중치를 두고, 상기 가중치와의 연산을 통해 각 서브 밴드 별 할당될 비트가 도출된 결과 값일 수 있다.If hearing data exists, the first electronic device 101 may select or generate a first bit allocation table in operation 530. For example, the first bit allocation table may be a bit allocation table that reflects the user's hearing characteristics. The first bit allocation table may be a bit allocation table in which a relatively large number of bits are allocated to subbands to which users are sensitive. For example, the first bit allocation table may be a result of assigning a predetermined weight to each subband in which the user's hearing is measured and calculating the bits to be allocated to each subband through calculation with the weights.
도시되지는 않았지만, 제1 전자 장치(101)는 청력 데이터를 분석할 수 있다. 일 예로, 제1 전자 장치(101)는 청력 데이터가 지시하는 사용자의 청력 특성과 관련하여 분할 가청 주파수 대역 중 어떤 대역에 민감한지를 분석할 수 있다. Although not shown, the first electronic device 101 may analyze hearing data. As an example, the first electronic device 101 may analyze which band among the divided audible frequency bands is sensitive in relation to the user's hearing characteristics indicated by the hearing data.
일 예로, 제1 전자 장치(101)가 청력 데이터를 분석한 결과로서, 사용자가 분할 가청 주파수 대역 중 저역대의 오디오 신호에 민감하다는 결과를 획득하면, 제1 전자 장치(101)는 메모리(130)에 저장된 제2 비트 할당 테이블을 선택할 수 있다. 제2 비트 할당 테이블은, 예를 들어, 도3의 표준 비트 할당 테이블을 의미할 수 있다. 이로써, 제1 전자 장치(101)는 청력 데이터를 반영한 제1 비트 할당 테이블을 선택하거나 생성할 필요가 없으므로, 연산 효율 또는 전송 효율을 증가시킬 수 있다.For example, if the first electronic device 101 analyzes the hearing data and obtains a result that the user is sensitive to audio signals in the low frequency range of the divided audible frequency band, the first electronic device 101 stores the memory 130. You can select the second bit allocation table stored in . The second bit allocation table may mean, for example, the standard bit allocation table of FIG. 3. As a result, the first electronic device 101 does not need to select or generate a first bit allocation table reflecting hearing data, thereby increasing computational efficiency or transmission efficiency.
도시되지는 않았지만, 제1 전자 장치(101)는 제1 비트 할당 테이블과 제2 비트 할당 테이블을 비교한 뒤 어떤 비트 할당 테이블을 사용하여 양자화를 수행할 지 결정할 수 있다. Although not shown, the first electronic device 101 may compare the first bit allocation table and the second bit allocation table and then determine which bit allocation table to use to perform quantization.
일 예로, 저역대의 서브 밴드에 민감한 사용자의 청력 데이터를 바탕으로 생성된 특성 비트 할당 테이블은, 표준 비트 할당 테이블과 실질적으로 동일할 수 있다. 제1 전자 장치(101)는, 예를 들어, 특성 비트 할당 테이블의 서브 밴드 별 할당 비트와 표준 비트 할당 테이블의 서브 밴드 별 할당 비트를 비교할 수 있다. 제1 전자 장치(101)는, 예를 들어, 사용자의 청력 데이터에 따른 서브 밴드 별 소정의 가중치와 표준 비트 할당 테이블을 생성하는데 사용된 소정의 가중치를 비교할 수도 있다.For example, a characteristic bit allocation table generated based on hearing data of a user sensitive to low-band subbands may be substantially the same as a standard bit allocation table. For example, the first electronic device 101 may compare the allocation bits for each subband in the characteristic bit allocation table with the allocation bits for each subband in the standard bit allocation table. For example, the first electronic device 101 may compare a predetermined weight for each subband according to the user's hearing data with a predetermined weight used to generate a standard bit allocation table.
제1 전자 장치(101)는 특성 비트 할당 테이블인 제1 비트 할당 테이블과 표준 비트 할당 테이블인 제2 비트 할당 테이블이 실질적으로 차이가 발생하는지 판단할 수 있다. 제1 비트 할당 테이블과 제2 비트 할당 테이블의 차이가 실질적으로 존재하면, 제1 전자 장치(101)는, 동작 530에서, 제1 비트 할당 테이블을 사용하여 양자화 비트를 결정할 수 있다.The first electronic device 101 may determine whether there is a substantial difference between the first bit allocation table, which is a characteristic bit allocation table, and the second bit allocation table, which is a standard bit allocation table. If there is a substantial difference between the first bit allocation table and the second bit allocation table, the first electronic device 101 may determine a quantization bit using the first bit allocation table in operation 530.
제1 전자 장치(101)에 청력 데이터가 존재하지 않거나, 제1 비트 할당 테이블과 제2 비트 할당 테이블의 차이가 실질적으로 존재하지 않으면, 전자 장치는(101)는, 동작 540에서, 제2 비트 할당 테이블을 선택하여 양자화 비트를 결정할 수 있다. 청력 데이터가 존재하더라도, 제1 전자 장치(101)가 청력 데이터에 대해 저역대의 분할 가청 대역에 민감하다고 분석하면, 연산 효율 또는 전송 효율을 고려하여 제1 전자 장치(101)는 제2 비트 할당 테이블을 선택하여 양자화를 수행할 수 있다. 상기 제2 비트 할당 테이블은 사용자의 개별 청력 특성이 반영되지 않은 표준 비트 할당 테이블일 수 있다.If hearing data does not exist in the first electronic device 101 or if there is substantially no difference between the first bit allocation table and the second bit allocation table, the electronic device 101 selects the second bit in operation 540. Quantization bits can be determined by selecting an allocation table. Even if hearing data exists, if the first electronic device 101 analyzes that the hearing data is sensitive to the divided audible band in the low frequency range, the first electronic device 101 determines the second bit allocation table in consideration of computational efficiency or transmission efficiency. Quantization can be performed by selecting . The second bit allocation table may be a standard bit allocation table that does not reflect the user's individual hearing characteristics.
제1 전자 장치(101)는, 동작 550에서, 분할 가청 주파수 대역 별로 결정된 양자화 비트 수를 사용하여 각 분할 오디오 신호에 대한 압축을 수행할 수 있다. 일 예로, 제1 전자 장치(101)가 제1 비트 할당 테이블을 사용하여 분할 오디오 신호 각각을 양자화 하면, 사용자가 민감하다고 반응한 서브 밴드 (예: 중역대 또는 고역대의 서브 밴드)에서 비교적 많은 비트 수의 양자화 비트 열이 생성될 수 있다. 일 예로, 제1 전자 장치(101)가 제2 비트 할당 테이블을 사용하여 분할 오디오 신호 각각을 양자화 하면, 저역대의 서브 밴드에서 비교적 많은 비트 수의 양자화 비트 열이 생성될 수 있다.In operation 550, the first electronic device 101 may perform compression on each segmented audio signal using the number of quantization bits determined for each segmented audible frequency band. As an example, when the first electronic device 101 quantizes each divided audio signal using the first bit allocation table, a relatively large number of bits are recorded in the subband to which the user responded as sensitive (e.g., a subband in the mid-band or high-band). A quantized bit string of can be generated. For example, when the first electronic device 101 quantizes each segmented audio signal using the second bit allocation table, a quantized bit stream with a relatively large number of bits may be generated in the low-band subband.
제1 전자 장치(101)는, 동작 560에서, 분할 오디오 신호 별로 양자화를 수행하여 생성된 양자화 비트 열들을 포함하도록 비트 스트림을 구성할 수 있다. 제1 전자 장치(101)는 비트 스트림을 제2 전자 장치(102)로 송신할 수 있다. 제1 전자 장치(101)는 통신 모듈(예: 도 1의 통신 모듈(190))을 통해 비트 스트림을 제2 전자 장치(102)로 송신할 수 있다. 제1 전자 장치(101)는, 예를 들어, 무선 통신 모듈(예: 도 1의 무선 통신 모듈(192))를 통해 블루투스 방식으로 비트 스트림을 송신할 수 있다.In operation 560, the first electronic device 101 may configure a bit stream to include quantized bit streams generated by performing quantization for each segmented audio signal. The first electronic device 101 may transmit a bit stream to the second electronic device 102. The first electronic device 101 may transmit a bit stream to the second electronic device 102 through a communication module (eg, the communication module 190 of FIG. 1). For example, the first electronic device 101 may transmit a bit stream using a Bluetooth method through a wireless communication module (e.g., the wireless communication module 192 of FIG. 1).
제1 전자 장치(101)는 무선 통신 모듈(192)를 통해 제2 전자 장치(102)와 무선 채널을 설정할 수 있다. 제1 전자 장치(101)는 상기 설정된 무선 채널을 통해 제2 전자 장치(102)로 비트 스트림을 전송할 수 있다. 제1 전자 장치(101)는, 예를 들어, 예를 들어, A2DP (advanced audio distribution profile)을 통해 상기 비트 스트림 제2 전자 장치(102)로 전송될 수 있다.The first electronic device 101 may establish a wireless channel with the second electronic device 102 through the wireless communication module 192. The first electronic device 101 may transmit a bit stream to the second electronic device 102 through the established wireless channel. The first electronic device 101 may transmit the bit stream to the second electronic device 102 through, for example, an advanced audio distribution profile (A2DP).
도시되지는 않았지만, 제1 전자 장치(101)는 무선 채널을 통해 제2 전자 장치(102)와 연결되면, 오디오 신호를 양자화 또는 역 양자화 하는데 필요한 정보를 공유할 수 있다. 공유된 각 정보는, 오디오 신호의 양자화 또는 역 양자화가 용이하게 수행될 수 있도록 동기화될 수 있다. 일 예로, 제1 전자 장치(101)는 오디오 신호의 양자화 수행에 사용된 제2 비트 할당 테이블을 제2 전자 장치(102)와 공유할 수 있다. 제2 전자 장치(102)는 공유된 상기 제2 비트 할당 테이블을 사용하여 분할 가청 주파수 대역별로 역 양자화를 수행할 수 있다.Although not shown, when the first electronic device 101 is connected to the second electronic device 102 through a wireless channel, it can share information necessary to quantize or dequantize an audio signal. Each shared information can be synchronized so that quantization or inverse quantization of the audio signal can be easily performed. As an example, the first electronic device 101 may share a second bit allocation table used to perform quantization of an audio signal with the second electronic device 102. The second electronic device 102 may perform inverse quantization for each divided audible frequency band using the shared second bit allocation table.
도 5에서 도시된 각 동작들은 도시된 것에 순서가 한정되지 않고, 필요에 따라 순서가 변경될 수 있다. 일 예로, 제1 전자 장치(101)가 제2 전자 장치(102)와 무선 채널을 설정하는 동작은, 동작 560 이전에 수행될 수도 있다.The order of each operation shown in FIG. 5 is not limited to that shown, and the order may be changed as needed. For example, the operation of the first electronic device 101 setting up a wireless channel with the second electronic device 102 may be performed before operation 560.
도 6은, 일 실시예에 따른 제2 전자 장치(102)에 대한 블록도이다.FIG. 6 is a block diagram of the second electronic device 102 according to one embodiment.
도 6을 참조하면, 제2 전자 장치(102)는 제1 전자 장치(101)로부터 수신한 비트 스트림(620)(예: 도 3의 비트 스트림(340))을 오디오 신호(640)로 복원할 수 있다. Referring to FIG. 6, the second electronic device 102 restores the bit stream 620 (e.g., the bit stream 340 of FIG. 3) received from the first electronic device 101 into an audio signal 640. You can.
제2 전자 장치(102)는, 예를 들어, 스피커 또는 이어폰과 같은 음향 출력 장치를 포함할 수 있다. 상기 제2 전자 장치(102)는 제1 전자 장치(101)와 유선 또는 무선으로 연결될 수 있다. 상기 제2 전자 장치(102)는, 예를 들어, 제1 전자 장치(101)에 마련된 연결 단자(예: 도 1의 연결 단자(178))를 통해 유선 연결될 수 있다. 상기 제2 전자 장치(102)는, 예를 들어, 제1 전자 장치(101)와 블루투스 방식으로 무선 연결될 수 있다. 제2 전자 장치(102)는 제1 전자 장치(101)와 무선 링크를 통해 연결되면, 오디오 신호의 양자화 또는 역 양자화에 필요한 정보를 공유할 수 있다.The second electronic device 102 may include, for example, a sound output device such as a speaker or earphone. The second electronic device 102 may be connected to the first electronic device 101 by wire or wirelessly. For example, the second electronic device 102 may be connected by wire through a connection terminal provided in the first electronic device 101 (e.g., the connection terminal 178 in FIG. 1). The second electronic device 102 may be wirelessly connected to the first electronic device 101 using, for example, Bluetooth. When the second electronic device 102 is connected to the first electronic device 101 through a wireless link, it can share information necessary for quantization or inverse quantization of the audio signal.
제2 전자 장치(102)는 제1 전자 장치(101)와의 연결을 위해 무선 채널을 설정할 수 있다. 제2 전자 장치(102)는 제1 전자 장치(101)의 무선 채널 설정 요청에 응답할 수 있다.The second electronic device 102 may set a wireless channel for connection with the first electronic device 101. The second electronic device 102 may respond to the wireless channel setup request of the first electronic device 101.
제2 전자 장치(102)에 포함된 프로세서(610)로 비트 스트림(620)이 입력될 수 있다. 상기 비트 스트림(620)은 제1 전자 장치(101)에서 오디오 신호(320)(예: 도 3의 오디오 신호(320))가 양자화를 거쳐 압축된 신호일 수 있다.A bit stream 620 may be input to the processor 610 included in the second electronic device 102. The bit stream 620 may be a signal obtained by quantizing and compressing an audio signal 320 (e.g., the audio signal 320 of FIG. 3) in the first electronic device 101.
프로세서(610)가 수행하는 동작은, 제1 전자 장치(101)의 프로세서(310)(예: 도 3의 프로세서(310))가 수행하는 동작과 전부 또는 일부가 대응될 수 있다. 상기 프로세서(610)에서는, 예를 들어, 입력된 비트 스트림(620)에 대한 역 양자화를 수행할 수 있다. 상기 역 양자화를 포함한 압축 해제는, 예를 들어, 프로세서(610)에서 소프트웨어적으로 수행되거나 또는 별도의 디코더 (decoder) 유닛을 통해 하드웨어적으로 수행될 수 있다. 상기 프로세서(610)는, 예를 들어, 오디오 신호 처리기(예: 도 2의 오디오 신호 처리기(240))로 구현될 수도 있다.The operations performed by the processor 610 may correspond in whole or in part to the operations performed by the processor 310 of the first electronic device 101 (eg, the processor 310 of FIG. 3). The processor 610 may, for example, perform inverse quantization on the input bit stream 620. Decompression, including the inverse quantization, may be performed, for example, in software by the processor 610 or in hardware through a separate decoder unit. The processor 610 may be implemented as, for example, an audio signal processor (eg, the audio signal processor 240 of FIG. 2).
프로세서(610)는, 상기 입력된 비트 스트림(620)에 저장된 정보를 분석할 수 있다. 상기 비트 스트림(620)에 저장된 정보는, 예를 들어, 제1 전자 장치(101)에서 측정한 청력 측정 결과에 대한 정보 또는 오디오 신호에 대한 양자화 수행 시 사용한 비트 할당 정보를 포함할 수 있다. 프로세서는, 예를 들어, 상기 비트 스트림(620)의 정보를 분석한 뒤 입력 받은 비트 스트림(620)에 대한 역 양자화를 수행하는데 필요한 추가적인 정보를 제1 전자 장치(101)로 요청할 수도 있다.The processor 610 may analyze information stored in the input bit stream 620. The information stored in the bit stream 620 may include, for example, information about hearing measurement results measured by the first electronic device 101 or bit allocation information used when performing quantization of an audio signal. For example, the processor may analyze the information in the bit stream 620 and then request additional information needed to perform inverse quantization on the input bit stream 620 from the first electronic device 101.
프로세서(610)는 비트 스트림(620)을 오디오 신호로 복원함에 있어서 청력 특성 정보(630)를 사용할 수 있다. 상기 청력 특성 정보(630)는, 예를 들어, 사용자의 청력 특성을 반영한 정보일 수 있다. 상기 청력 특성 정보(630)는, 예를 들어, 제1 전자 장치(101)의 청력 테스트 앱을 통해 측정된 정보를 포함할 수 있다. 상기 청력 특성 정보(630)는, 예를 들어, 복수의 청력 측정 결과의 평균값 또는 가장 최근에 사용자가 측정한 청력 측정 결과를 포함할 수 있다. 상기 청력 특성 정보(630)는, 예를 들어, 사용자가 주파수 대역 별 청력에 대해 임의로 입력한 값에 대한 정보를 포함할 수 있다.The processor 610 may use the hearing characteristic information 630 when restoring the bit stream 620 into an audio signal. For example, the hearing characteristic information 630 may be information that reflects the user's hearing characteristics. For example, the hearing characteristic information 630 may include information measured through a hearing test app of the first electronic device 101. The hearing characteristic information 630 may include, for example, an average value of a plurality of audiometry results or a hearing measurement result most recently measured by the user. For example, the hearing characteristic information 630 may include information about values arbitrarily entered by the user for hearing in each frequency band.
일 예로, 상기 청력 특성 정보(630)는 제1 전자 장치(101)로부터 수신한 비트 스트림(620)에 저장된 정보일 수 있다. 프로세서(610)는, 상기 수신한 비트 스트림(620)을 분석하여 상기 비트 스트림(620)에 저장된 청력 특성 정보(630)를 획득할 수 있다. 프로세서(610)는, 상기 수신한 비트 스트림(620)을 분석하여 오디오 신호(320)의 양자화 시 사용된 비트 할당 정보를 획득할 수 있다. 일 예로, 상기 청력 특성 정보(630)는 제1 전자 장치(101)로부터 무선 채널을 통해 별도로 획득한 정보일 수 있다. 일 예로, 상기 청력 특성 정보(630)는 제2 전자 장치(102)가 데이터 베이스의 형태로 저장한 정보일 수 있다.As an example, the hearing characteristic information 630 may be information stored in the bit stream 620 received from the first electronic device 101. The processor 610 may analyze the received bit stream 620 and obtain hearing characteristic information 630 stored in the bit stream 620. The processor 610 may analyze the received bit stream 620 to obtain bit allocation information used when quantizing the audio signal 320. As an example, the hearing characteristic information 630 may be information separately acquired from the first electronic device 101 through a wireless channel. As an example, the hearing characteristic information 630 may be information stored by the second electronic device 102 in the form of a database.
프로세서(610)가 비트 스트림(620)을 오디오 신호(640)로 복원하는 과정에서 제1 전자 장치(101)로부터 수신한 비트 스트림(620)에 대한 역 양자화를 수행할 수 있다. 상기 역 양자화는, 예를 들어, 제1 전자 장치(101)에서 양자화 시에 사용한 비트 할당 테이블을 사용하여 수행될 수 있다. 프로세서(610)는 역 양자화에 사용될 비트 할당 테이블을 선택하거나, 생성할 수 있다. 상기 비트 할당 테이블은, 예를 들어, 제1 비트 할당 테이블 또는 제2 비트 할당 테이블을 포함할 수 있다.The processor 610 may perform inverse quantization on the bit stream 620 received from the first electronic device 101 in the process of restoring the bit stream 620 to the audio signal 640. The inverse quantization may be performed, for example, using a bit allocation table used during quantization in the first electronic device 101. The processor 610 may select or generate a bit allocation table to be used for inverse quantization. The bit allocation table may include, for example, a first bit allocation table or a second bit allocation table.
일 예로, 제2 전자 장치(102)에 청력 데이터가 존재하면, 청력 데이터를 반영한 비트 할당 테이블(예: 도 3에서의 특성 비트 할당 테이블)을 사용하여 비트 스트림(620)을 역 양자화 하여 오디오 신호(640)로 복원할 수 있다. 제2 전자 장치(102)에 청력 데이터가 존재하지 않으면, 제2 전자 장치(102)가 제1 전자 장치(101)로 상기 청력 데이터를 요청할 수도 있다. 제2 전자 장치(102)가 상기 제1 전자 장치(101)로부터 청력 데이터를 수신하면, 제2 전자 장치(102)는 제1 비트 할당 테이블을 생성할 수 있다. 제2 전자 장치(102)는 제1 전자 장치(101)가 오디오 신호(320)를 양자화 하는데 사용한 비트 할당 테이블에 대한 정보를 요청할 수도 있다.For example, if hearing data exists in the second electronic device 102, the bit stream 620 is inversely quantized using a bit allocation table reflecting the hearing data (e.g., the characteristic bit allocation table in FIG. 3) to produce an audio signal. It can be restored with (640). If hearing data does not exist in the second electronic device 102, the second electronic device 102 may request the hearing data from the first electronic device 101. When the second electronic device 102 receives hearing data from the first electronic device 101, the second electronic device 102 may generate a first bit allocation table. The second electronic device 102 may request information about the bit allocation table used by the first electronic device 101 to quantize the audio signal 320.
일 예로, 제2 전자 장치(102)에 청력 데이터가 존재하지 않거나, 제1 전자 장치(101)로부터 상기 청력 데이터를 요청하였음에도 청력 데이터를 수신하지 못하면, 제2 비트 할당 테이블(예: 도 3에서의 제2 비트 할당 테이블)을 이용하여 비트 스트림(620)을 역 양자화 하여 오디오 신호(640)로 복원할 수 있다. 상기 표준 비트 할당 테이블은 제2 전자 장치(102)가 메모리에 저장된 정보 또는 제1 전자 장치(101)에 의해 수신한 정보일 수 있다.For example, if hearing data does not exist in the second electronic device 102 or hearing data is not received even though the hearing data is requested from the first electronic device 101, the second bit allocation table (e.g., in FIG. 3 The bit stream 620 can be inversely quantized using the second bit allocation table and restored into the audio signal 640. The standard bit allocation table may be information stored in the memory of the second electronic device 102 or information received by the first electronic device 101.
프로세서(610)는 제1 비트 할당 테이블 또는 제2 비트 할당 테이블 중 어느 하나를 선택하여 가청 주파수 대역 별로 비트 스트림(620)에 대응하는 역 양자화 비트 수를 사용하여 역 양자화를 수행할 수 있다. 분할 가청 주파수 대역 별로 역 양자화를 수행한 후 하나의 신호로 합성하면, 오디오 신호(640)가 생성될 수 있다.The processor 610 may select either the first bit allocation table or the second bit allocation table and perform inverse quantization using the number of inverse quantization bits corresponding to the bit stream 620 for each audible frequency band. An audio signal 640 can be generated by performing inverse quantization for each divided audible frequency band and then combining them into one signal.
생성된 오디오 신호(640)는, 예를 들어, 펄스 코드 변조 방식으로 변조된 오디오 신호일 수 있다. 상기 오디오 신호(640)는 제2 전자 장치(102)에 마련된 오디오 모듈에서 아날로그 신호로 변환 후 음성 출력 장치를 통해 출력될 수 있다.The generated audio signal 640 may be, for example, an audio signal modulated using a pulse code modulation method. The audio signal 640 may be converted into an analog signal by an audio module provided in the second electronic device 102 and then output through an audio output device.
도 7은, 일 실시예에 따른, 제2 전자 장치(102)가 오디오 신호를 역 양자화 하기 위한 제어 흐름도이다.FIG. 7 is a control flowchart for the second electronic device 102 to inverse quantize an audio signal, according to an embodiment.
도 7을 참조하면, 제2 전자 장치(102)는, 동작 710에서, 제1 전자 장치(101)로부터 수신한 비트 스트림을 분석할 수 있다. 제2 전자 장치(102)는 제1 전자 장치(101)와 설정된 무선 채널을 통해 비트 스트림을 수신할 수 있다.Referring to FIG. 7 , the second electronic device 102 may analyze the bit stream received from the first electronic device 101 in operation 710. The second electronic device 102 may receive a bit stream through a wireless channel established with the first electronic device 101.
제2 전자 장치(102)가 비트 스트림을 분석하여 획득할 수 있는 정보를 '비트 스트림 분석 정보'라고 지칭할 수 있다. 상기 비트 스트림 분석 정보는, 예를 들어, 제1 전자 장치(101)가 오디오 신호에 대한 압축을 수행할 시 사용한 양자화 비트 수에 대한 정보를 포함할 수 있다. 상기 비트 스트림 분석 정보는, 예를 들어, 제1 전자 장치(101)가 오디오 신호에 대한 압축을 수행할 시 사용했던 비트 할당 테이블을 포함할 수 있다. 상기 비트 스트림 분석 정보는, 예를 들어, 상기 비트 할당 테이블을 생성하는 데 필요한 사용자의 분할 가청 대역 별 청력 측정 정보를 포함할 수 있다.Information that the second electronic device 102 can obtain by analyzing the bit stream may be referred to as ‘bit stream analysis information.’ For example, the bit stream analysis information may include information about the number of quantization bits used when the first electronic device 101 performs compression on an audio signal. For example, the bit stream analysis information may include a bit allocation table used when the first electronic device 101 performs compression on an audio signal. For example, the bit stream analysis information may include hearing measurement information for each user's divided audible band required to generate the bit allocation table.
제2 전자 장치(102)는, 동작 720에서, 비트 스트림에 포함된 분할 가청 주파수 대역 별 역 양자화 비트 수를 획득할 수 있다. 상기 분할 가청 주파수 대역 별 역 양자화 비트 수는, 예를 들어, 제1 전자 장치(101)가 분할 오디오 신호 별로 압축을 수행할 시 사용된 분할 가청 주파수 대역 별 양자화 비트 수에 대응될 수 있다.In operation 720, the second electronic device 102 may obtain the number of inverse quantization bits for each divided audible frequency band included in the bit stream. For example, the number of inverse quantization bits for each divided audible frequency band may correspond to the number of quantization bits for each divided audible frequency band used when the first electronic device 101 performs compression for each divided audio signal.
제2 전자 장치(102)는, 동작 730에서, 획득한 역 양자화 비트 수를 사용하여 가청 주파수 대역 별로 비트 스트림에 대한 역 양자화를 수행할 수 있다. 상기 역 양자화는, 예를 들어, 비트 스트림에 포함된 가청 주파수 대역 별 분할 오디오 신호들에 대하여 순차적으로 수행될 수 있다. 상기 역 양자화는, 예를 들어, 사용자의 청력 특성이 반영된 제1 비트 할당 테이블 또는 사용자의 청력 특성이 반영되지 않은 제2 비트 할당 테이블을 사용하여 수행될 수 있다. 상기 역 양자화 수행의 결과로, 오디오 신호를 획득할 수 있다. 상기 오디오 신호는, 예를 들어, 펄스 코드 변조 방식으로 변조된 신호일 수 있다. 상기 오디오 신호는, 예를 들어, 제1 전자 장치(101)가 뮤직 플레이어의 신호로 생성된 오디오 신호일 수 있다.In operation 730, the second electronic device 102 may perform inverse quantization on the bit stream for each audible frequency band using the obtained number of inverse quantization bits. For example, the inverse quantization may be sequentially performed on segmented audio signals for each audible frequency band included in the bit stream. The inverse quantization may be performed, for example, using a first bit allocation table that reflects the user's hearing characteristics or a second bit allocation table that does not reflect the user's hearing characteristics. As a result of performing the inverse quantization, an audio signal can be obtained. For example, the audio signal may be a signal modulated using a pulse code modulation method. For example, the audio signal may be an audio signal generated by the first electronic device 101 using a signal from a music player.
제2 전자 장치(102)는, 동작 740에서, 생성된 오디오 신호를 출력할 수 있다. 제2 전자 장치(102)는 분할 주파수 대역 별로 역 양자화된 비트 스트림에 대한 분할 오디오 신호들을 하나의 오디오 신호로 합성할 수 있다. 상기 합성된 오디오 신호는, 상기 펄스 코드 변조 방식의 오디오 신호는 디지털 오디오 신호이므로, 제2 전자 장치(102)에 마련된 디지털 신호 처리부 또는 DAC (digital to analog converter) 모듈을 통해 아날로그 신호로 변환될 수 있다. 상기 아날로그 신호로 변환된 오디오 신호를 제2 전자 장치(102)에 마련된 음향 출력 장치로 출력할 수 있다.The second electronic device 102 may output the generated audio signal in operation 740. The second electronic device 102 may synthesize segmented audio signals for the inverse quantized bit stream for each segmented frequency band into one audio signal. Since the pulse code modulation audio signal is a digital audio signal, the synthesized audio signal can be converted into an analog signal through a digital signal processor or DAC (digital to analog converter) module provided in the second electronic device 102. there is. The audio signal converted into the analog signal can be output to an audio output device provided in the second electronic device 102.
도 8은, 일 실시예에 따른, 제2 전자 장치(102)가 오디오 신호를 압축 해제를 위하여 수행하는 제어 흐름도이다.FIG. 8 is a control flowchart that the second electronic device 102 performs to decompress an audio signal, according to an embodiment.
도 8을 참조하면, 제2 전자장치(102)는, 동작 810에서, 제1 전자 장치(101)로부터 비트 스트림을 수신할 수 있다. 제2 전자 장치(102)는, 통신 모듈을 통해 제1 전자 장치(101)와 무선 채널을 설정하거나, 제1 전자 장치(101)의 무선 채널 설정 요청을 승인하여 무선으로 연결될 수 있다. 제2 전자 장치(102)는 제1 전자 장치(101)와 설정된 무선 채널을 통해 제1 전자 장치(101)로부터 비트 스트림을 수신할 수 있다. Referring to FIG. 8, the second electronic device 102 may receive a bit stream from the first electronic device 101 in operation 810. The second electronic device 102 may establish a wireless channel with the first electronic device 101 through a communication module, or may be connected wirelessly by approving a wireless channel setting request from the first electronic device 101. The second electronic device 102 may receive a bit stream from the first electronic device 101 through a wireless channel established with the first electronic device 101.
도시되지는 않았지만, 제2 전자 장치(102)가 제1 전자 장치(101)와 최초로 연결되면, 오디오 신호 양자화 또는 역 양자화에 필요한 정보들이 서로 공유될 수 있다. Although not shown, when the second electronic device 102 is first connected to the first electronic device 101, information necessary for quantizing or inverse quantizing an audio signal may be shared.
상기 정보는, 예를 들어, 사용자의 청력 특성을 반영하지 않은 제2 비트 할당 테이블에 대한 데이터를 포함할 수 있다. 상기 정보는, 예를 들어, 분할 가청 주파수 별로 제1 비트 할당 테이블을 생성할 수 있는 가중치를 지시하는 데이터를 포함할 수 있다.For example, the information may include data about a second bit allocation table that does not reflect the user's hearing characteristics. For example, the information may include data indicating weights that can generate a first bit allocation table for each divided audible frequency.
제2 전자 장치(102)는, 동작 820에서, 수신한 비트 스트림에 대한 정보를 분석할 수 있다. 제2 전자 장치(102)는 비트 스트림에 포함된 메타 정보를 분석할 수 있다. 상기 메타 정보는, 상기 비트 스트림을 역 양자화 하기 위해 참조할 정보를 포함할 수 있다. The second electronic device 102 may analyze information about the received bit stream in operation 820. The second electronic device 102 may analyze meta information included in the bit stream. The meta information may include information to be referenced to inverse quantize the bit stream.
일 예로, 메타 정보는 상기 비트 스트림이 청력 데이터를 고려한 양자화에 의해 생성된 것인지를 지시하는 제1 식별자를 포함할 수 있다. 상기 메타 정보가 상기 제1 식별자를 포함하는 경우, 상기 제2 전자 장치(102)는 자신이 보유하고 있는 제1 비트 할당 테이블을 사용하여 상기 비트 스트림에 포함된 분할 주파수 대역 별 양자화 데이터를 역 양자화 하기 위해 사용할 역 양자화 비트 수를 결정할 수 있다. 예를 들어, 상기 제1 식별자는 하나의 비트 값(1 bit)로 구성될 수 있다. 상기 제1 식별자에 상응한 비트 값이 '1'이면, 상기 제2 전자 장치(102)는 상기 비트 스트림이 청력 데이터를 고려한 양자화에 의해 생성된 것임을 인지할 수 있다. 상기 제1 식별자에 상응한 비트 값이 '0'이면, 상기 제2 전자 장치(102)는 상기 비트 스트림이 청력 데이터와 무관한 양자화에 의해 생성된 것임을 인지할 수 있다.As an example, the meta information may include a first identifier indicating whether the bit stream was generated by quantization considering hearing data. When the meta information includes the first identifier, the second electronic device 102 inversely quantizes the quantized data for each divided frequency band included in the bit stream using the first bit allocation table held by the second electronic device 102. You can determine the number of inverse quantization bits to use. For example, the first identifier may consist of one bit value (1 bit). If the bit value corresponding to the first identifier is '1', the second electronic device 102 can recognize that the bit stream was generated by quantization considering hearing data. If the bit value corresponding to the first identifier is '0', the second electronic device 102 can recognize that the bit stream was generated by quantization unrelated to hearing data.
일 예로, 메타 정보는 상기 비트 스트림을 양자화 하기 위해 적용된 제1 비트 할당 테이블에 관한 정보를 포함할 수 있다. 상기 제1 비트 할당 테이블에 관한 정보는, 예를 들어, 인코더에서 양자화를 위해 사용한 제1 비트 할당 테이블을 지시하는 제2 식별자를 포함할 수 있다. 상기 제1 비트 할당 테이블에 관한 정보가 상기 제2 식별자를 포함하면, 상기 제2 전자 장치(102)는 상기 제2 식별자를 사용하여 자신이 보유한 하나 또는 복수의 제1 비트 할당 테이블 중에서 역 양자화를 위해 사용한 제1 비트 할당 테이블을 결정할 수 있다. 상기 제2 전자 장치(102)는 상기 결정한 제1 비트 할당 테이블을 사용하여 상기 비트 스트림에 포함된 분할 주파수 대역 별 양자화 데이터를 역 양자화 하기 위해 사용할 역 양자화 비트 수를 결정할 수 있다.As an example, meta information may include information about a first bit allocation table applied to quantize the bit stream. The information about the first bit allocation table may include, for example, a second identifier indicating the first bit allocation table used for quantization in the encoder. If the information about the first bit allocation table includes the second identifier, the second electronic device 102 performs inverse quantization among one or more first bit allocation tables owned by the second electronic device 102 using the second identifier. The first bit allocation table used for this purpose can be determined. The second electronic device 102 may use the determined first bit allocation table to determine the number of inverse quantization bits to be used to inverse quantize the quantized data for each divided frequency band included in the bit stream.
일 예로, 메타 정보는 상기 비트 스트림을 양자화 하기 위해 적용된 제1 비트 할당 테이블에 관한 정보를 포함할 수 있다. 상기 제1 비트 할당 테이블에 관한 정보는, 예를 들어, 상기 제1 비트 할당 테이블을 구성할 수 있는 데이터일 수 있다. 상기 제1 비트 할당 테이블에 관한 정보가 상기 제1 비트 할당 테이블을 구성할 수 있는 데이터를 포함하면, 상기 제2 전자 장치(102)는 상기 데이터를 사용하여 상기 제1 비트 할당 테이블을 생성할 수 있다. 상기 제2 전자 장치(102)는 상기 생성한 제1 비트 할당 테이블을 사용하여 상기 비트 스트림에 포함된 분할 주파수 대역 별 양자화 데이터를 역 양자화 하기 위해 사용할 역 양자화 비트 수를 결정할 수 있다.As an example, meta information may include information about a first bit allocation table applied to quantize the bit stream. The information about the first bit allocation table may be, for example, data that can configure the first bit allocation table. If the information about the first bit allocation table includes data that can configure the first bit allocation table, the second electronic device 102 can generate the first bit allocation table using the data. there is. The second electronic device 102 may use the generated first bit allocation table to determine the number of inverse quantization bits to be used to inverse quantize the quantized data for each divided frequency band included in the bit stream.
일 예로, 제2 전자 장치(102)는 비트 스트림에 포함된 전송 환경에 대한 정보를 분석할 수 있다. 상기 전송 환경은, 예를 들어, 제1 전자 장치(101)와 제2 전자 장치(102)가 설정된 무선 채널을 통해 송수신하는 비트 스트림 또는 무선 신호에 대한 수신이 원활한지에 대한 정보를 분석할 수 있다. 제1 전자 장치(101) 또는 제2 전자 장치(102)가 분석한 전송 환경에 따라, 제1 전자 장치(101)가 제2 전자 장치(102)로 전송해야 할 비트 스트림의 용량이 결정될 수 있다. 일 예로, 전송 환경이 원활하면, 제1 전자 장치(101)가 제2 전자 장치(102)로 전송해야 할 비트 스트림의 용량이 비교적 적을 수 있다. 일 예로, 전송 환경이 원활하지 않으면, 제1 전자 장치(101)가 제2 전자 장치(102)로 전송해야 할 비트 스트림의 용량이 비교적 많을 수 있다.As an example, the second electronic device 102 may analyze information about the transmission environment included in the bit stream. The transmission environment may analyze, for example, information on whether the first electronic device 101 and the second electronic device 102 can smoothly receive a bit stream or wireless signal transmitted and received through a set wireless channel. . Depending on the transmission environment analyzed by the first electronic device 101 or the second electronic device 102, the capacity of the bit stream to be transmitted from the first electronic device 101 to the second electronic device 102 may be determined. . For example, if the transmission environment is smooth, the capacity of the bit stream that the first electronic device 101 needs to transmit to the second electronic device 102 may be relatively small. For example, if the transmission environment is not smooth, the capacity of the bit stream that the first electronic device 101 must transmit to the second electronic device 102 may be relatively large.
제2 전자 장치(102)는, 동작 830에서, 수신한 비트 스트림의 메타 정보를 분석하여 청력 데이터를 고려한 양자화를 통해 비트 스트림이 생성되었는지 판단할 수 있다. In operation 830, the second electronic device 102 may analyze meta information of the received bit stream and determine whether the bit stream was generated through quantization considering hearing data.
청력 데이터를 고려한 양자화 비트 수로 비트 스트림이 생성되었다면, 제2 전자 장치(102)는, 동작 840에서, 제1 비트 할당 테이블을 사용하여 비트 스트림에 분할 가청 주파수 대역 별로 포함된 분할 오디오 신호 각각에 대하여 역 양자화를 수행할 역 양자화 비트 수를 결정할 수 있다. If the bit stream is generated with the number of quantized bits considering the hearing data, in operation 840, the second electronic device 102 divides the bit stream using the first bit allocation table for each divided audio signal included in each audible frequency band. The number of inverse quantization bits to perform inverse quantization can be determined.
청력 데이터와 무관한 양자화 비트 수로 비트 스트림이 생성되었다면, 제2 전자 장치(102)는, 동작 850에서, 제2 비트 할당 테이블을 사용하여 비트 스트림에 분할 가청 주파수 대역 별로 포함된 분할 오디오 신호 각각에 대하여 역 양자화를 수행할 역 양자화 비트 수를 결정할 수 있다.If the bit stream is generated with a quantization bit number unrelated to the hearing data, in operation 850, the second electronic device 102 divides the bit stream using the second bit allocation table and divides the bit stream into each divided audio signal included for each audible frequency band. For this reason, the number of inverse quantization bits to perform inverse quantization can be determined.
제2 전자 장치(102)는, 동작 860에서, 분할 가청 주파수 대역 별로 결정된 역 양자화를 수행할 비트 수를 사용하여 비트 스트림에 분할 가청 주파수 대역 별로 포함된 분할 오디오 신호 각각에 대한 역 양자화를 수행할 수 있다. In operation 860, the second electronic device 102 performs inverse quantization on each segmented audio signal included in the bit stream for each segmented audible frequency band using the number of bits to perform inverse quantization determined for each segmented audible frequency band. You can.
제2 전자 장치(102)는, 동작 870에서, 역 양자화를 수행한 결과로 분할 가청 주파수 대역 별로 획득한 분할 오디오 신호들에 의해 오디오 신호를 생성할 수 있다. 제2 전자 장치(102)는 분할 가청 주파수 대역 별로 역 양자화를 수행하여 획득한 분할 오디오 신호들을 합성할 수 있다. 제2 전자 장치(102)는 분할 가청 주파수 대역 별 합성한 오디오 신호를 출력할 수 있다. 상기 오디오 신호는 아날로그 오디오 신호로 변환되어 제2 전자 장치(102)에 마련된 음향 출력 장치로 출력될 수 있다. In operation 870, the second electronic device 102 may generate an audio signal using segmented audio signals obtained for each segmented audible frequency band as a result of performing inverse quantization. The second electronic device 102 may synthesize segmented audio signals obtained by performing inverse quantization for each segmented audible frequency band. The second electronic device 102 may output synthesized audio signals for each divided audible frequency band. The audio signal may be converted into an analog audio signal and output to an audio output device provided in the second electronic device 102.
도 9는, 일 실시예에 따른, 제1 전자 장치(101)의 인코더(700)에 대한 블록도이다.FIG. 9 is a block diagram of the encoder 700 of the first electronic device 101, according to one embodiment.
도 9을 참조하면, 인코더(900)는 과도 감지부 (transient detection unit)(910), 도메인 변환 부 (domain transformation unit)(920), 신호 분류부 (signal classification unit)(930), 비트 할당 선택부 (bit allocation selection unit)(940), 양자화부 (quantization unit)(950), 무손실 부호화부 (lossless coder unit)(960)를 포함할 수 있다. 각 구성요소는 적어도 하나 이상의 모듈로 일체화되어 적어도 하나 이상의 프로세서(예: 도 3의 프로세서(310))로 구현될 수 있다. 또한 상기 각 구성요소는 필요에 따라 추가 또는 생략될 수 있다.Referring to FIG. 9, the encoder 900 includes a transient detection unit 910, a domain transformation unit 920, a signal classification unit 930, and a bit allocation selection. It may include a bit allocation selection unit 940, a quantization unit 950, and a lossless coder unit 960. Each component may be integrated into at least one module and implemented with at least one processor (eg, processor 310 in FIG. 3). Additionally, each of the above components may be added or omitted as needed.
과도 감지부(910)는, 예를 들어, 입력된 오디오 신호(320)를 분석하여 트랜지언트 (transient) 특성을 나타내는 구간을 검출하고, 검출 결과에 대응하여 각 프레임에 대한 트랜지언트 시그널링 정보를 생성할 수 있다. 상기 오디오 신호는, 예를 들어, 제1 전자 장치(101)의 뮤직 플레이어를 실행함으로써 발생할 수 있다. 과도 감지부(910)는 먼저 프레임이 트랜지언트 프레임인지를 1차적으로 판단하고, 트랜지언트 프레임으로 판단된 현재 프레임에 대하여 2차적으로 검증을 수행할 수 있다. 상기 트랜지언트 시그널링 정보는 다중화부(미도시)를 통해 비트 스트림에 포함되는 한편, 도메인 변환부(920)로 제공될 수 있다.For example, the transient detection unit 910 may analyze the input audio signal 320 to detect a section showing transient characteristics and generate transient signaling information for each frame in response to the detection result. there is. The audio signal may be generated, for example, by executing a music player of the first electronic device 101. The transient detection unit 910 may first determine whether the frame is a transient frame, and then secondarily perform verification on the current frame determined to be a transient frame. The transient signaling information may be included in a bit stream through a multiplexer (not shown) and provided to the domain converter 920.
도메인 변환부(920)는 트랜지언트 구간의 검출 결과에 따라, 변환에 사용되는 윈도우 사이즈 (window size)를 결정하고, 결정된 윈도우 사이즈에 근거하여 시간-주파수 변환을 수행할 수 있다. 상기 변환은, 예를 들어, 푸리에 변환 (fourier transform) 방식을 이용하여 수행될 수 있다. 상기 푸리에 변환 방식은, 예를 들어, 이산 푸리에 변환 (discrete fourier transform, DFT) 또는 고속 푸리에 변환 (fast fourier transform, FFT)을 포함할 수 있다.The domain converter 920 may determine the window size used for conversion according to the detection result of the transient section and perform time-frequency conversion based on the determined window size. The transformation may be performed, for example, using a Fourier transform method. The Fourier transform method may include, for example, a discrete Fourier transform (DFT) or a fast Fourier transform (FFT).
일 예로, 트랜지언트 구간이 검출된 서브 밴드의 경우 단 구간 윈도우 (short window)를 적용할 수 있고, 트랜지언트 구간이 검출되지 않은 서브 밴드의 경우 장 구간 윈도우 (long window)를 적용할 수 있다. 또는 트랜지언트 구간을 포함하는 프레임에 대하여 단 구간 윈도우를 적용할 수도 있다.For example, in the case of a subband in which a transient section is detected, a short window can be applied, and in the case of a subband in which a transient section is not detected, a long window can be applied. Alternatively, a short section window may be applied to a frame including a transient section.
신호 분류부(930)는 주파수 영역의 오디오 신호를 소정의 간격의 분할 가청 주파수 대역으로 분할할 수 있다. 소정의 간격으로 분할된 가청 주파수 대역을 서브 밴드라고 할 수 있다. 상기 소정의 간격은, 예를 들어, 가청 주파수 대역을 n 개로 나눈 간격일 수 있다. 일 예로, 가청 주파수 대역을 n개로 분할하면, 저역 주파수 대역으로부터 고역 주파수 대역의 순서로 제1 서브 밴드 (Sb #1), 제2 서브 밴드 (Sb #2), ……또는 제n 서브 밴드 (Sb #n)라고 명명할 수 있다. 상기 각각의 서브 밴드의 간격은 같거나, 다를 수 있다. 일 예로, 분할된 n개의 서브 밴드는 주파수 도메인에서 연속적으로 배열될 수 있다. 상기 n개의 서브 밴드는, 저역 대의 서브 밴드에서 고역 대의 서브 밴드 순으로 직렬로 배열될 수 있다.The signal classifier 930 may divide the audio signal in the frequency domain into audible frequency bands at predetermined intervals. The audible frequency band divided at predetermined intervals can be referred to as a subband. For example, the predetermined interval may be an interval divided by n audible frequency bands. For example, if the audible frequency band is divided into n, in order from low frequency band to high frequency band, first subband (Sb #1), second subband (Sb #2),... … Alternatively, it may be named nth subband (Sb #n). The spacing of each subband may be the same or different. As an example, n divided subbands may be sequentially arranged in the frequency domain. The n subbands may be arranged in series in the order from low-band subbands to high-band subbands.
비트 할당 선택부(940)는 각 서브 밴드 별로 양자화 비트 수를 할당할 수 있다. 비트 할당 선택부(940)는 프로세서(120)가 연산한 마스킹 임계값 (masking threshold)에 따라 양자화 하였을 때 존재하는 양자화 노이즈가 마스킹 임계값을 초과하지 않는 한도 내에서 각 주파수 대역에 대하여 양자화 비트 수를 할당할 수 있다.The bit allocation selection unit 940 can allocate the number of quantization bits for each subband. The bit allocation selection unit 940 selects the number of quantization bits for each frequency band within the limit that the quantization noise that exists when quantized according to the masking threshold calculated by the processor 120 does not exceed the masking threshold. can be assigned.
상기 비트 할당 선택부(940)는, 예를 들어, 비트 할당 테이블을 선택하여 분할 가청 주파수 대역 별로 양자화 비트 수를 할당할 수 있다. 상기 비트 할당 테이블은, 예를 들어, 제1 비트 할당 테이블 또는 제2 비트 할당 테이블을 포함할 수 있다.For example, the bit allocation selection unit 940 may select a bit allocation table and allocate the number of quantization bits for each divided audible frequency band. The bit allocation table may include, for example, a first bit allocation table or a second bit allocation table.
제1 비트 할당 테이블은, 예를 들어, 사용자의 청력 특성을 고려한 비트 할당 테이블일 수 있다. 일 예로, 청력 측정 결과 사용자가 고역대에 민감하면, 제1 비트 할당 테이블은 고역대의 주파수에 양자화 비트 수가 비교적 많이 할당된 테이블일 수 있다. 일 예로, 청력 측정 결과 사용자가 중역대에 민감하면, 제1 비트 할당 테이블은 중역대의 주파수에 양자화 비트 수가 비교적 많이 할당된 테이블일 수 있다. 일 예로, 청력 측정 결과 사용자가 저역대에 민감하면, 제1 비트 할당 테이블은 저역대의 주파수에 양자화 비트 수가 비교적 많이 할당된 테이블일 수 있다.For example, the first bit allocation table may be a bit allocation table that takes into account the user's hearing characteristics. For example, if the user is sensitive to high frequencies as a result of hearing measurement, the first bit allocation table may be a table in which a relatively large number of quantization bits are allocated to frequencies in the high frequencies. For example, if the user is sensitive to the mid-range as a result of the hearing measurement, the first bit allocation table may be a table in which a relatively large number of quantization bits are allocated to the frequencies of the mid-range. For example, if the user is sensitive to low-band frequencies as a result of hearing measurement, the first bit allocation table may be a table in which a relatively large number of quantization bits are allocated to low-band frequencies.
제2 비트 할당 테이블은, 예를 들어, 통계적으로 다수가 민감하다고 반응한 분할 가청 주파수 대역에 비교적 많은 비트 수가 할당된 테이블일 수 있다. 일 예로, 통계적으로 다수는 저역대의 주파수에 민감하다고 반응하는 경우가 많으므로, 상기 제2 비트 할당 테이블은 일반적으로 저역대에 비교적 많은 양자화 비트 수가 할당되어 있는 테이블일 수 있다.The second bit allocation table may be, for example, a table in which a relatively large number of bits are allocated to a divided audible frequency band that a statistically significant majority responded as being sensitive. For example, since statistically many people respond as being sensitive to low-band frequencies, the second bit allocation table may be a table in which a relatively large number of quantization bits are generally allocated to low-band frequencies.
비트 할당 선택부(940)가 제1 비트 할당 테이블에 의해 비트 수가 할당되면 다음과 같은 방식으로 양자화 비트 수가 할당될 수 있다. 먼저 비트 할당 선택부(940)는, 각 서브 밴드 단위로, Norm 값을 이용하여 양자화 비트 수를 할당할 수 있다. 상기 Norm 값은 서브 밴드 별 에너지를 지시하는 값일 수 있다. 일 예로, 제 n 서브 밴드 (Sb #n)에 대해 가장 민감하고 역순으로 제1 서브 밴드 (Sb#1)에 대해 가장 둔감하다면, 비트 할당 선택부(940)는 제n 서브 밴드 (Sb #n)에 대해 가장 많은 가중치를 부여하고, 제1 서브 밴드 (Sb #1)에 대해 가장 적은 가중치를 부여할 수 있다. 비트 할당 선택부(940)는, 예를 들어, Norm 값이 가장 큰 서브 밴드에서부터 순차적으로 양자화 비트 수를 할당할 수 있다. 즉, 가장 우선 순위가 높은 제n 서브 밴드 (Sb #n)에 대해 가장 큰 양자화 비트 수를 할당하고, 제n 서브 밴드 (Sb #n)에 할당된 만큼의 비트를 전체 할당 비트 수에서 감소시켜 다음으로 우선 순위가 높은 서브 밴드에 해당 가중치만큼 양자화 비트 수를 할당할 수 있다. 이와 같은 과정을 반복하여 전체 비트수가 소진될 때까지 반복적으로 비트를 할당할 수 있다.When the bit allocation selection unit 940 is allocated the number of bits according to the first bit allocation table, the number of quantization bits can be allocated in the following manner. First, the bit allocation selection unit 940 can allocate the number of quantization bits for each subband using the Norm value. The Norm value may be a value indicating energy for each subband. As an example, if it is most sensitive to the n-th subband (Sb #n) and, in reverse order, most insensitive to the first sub-band (Sb #1), the bit allocation selection unit 940 is the n-th subband (Sb #n). ) may be assigned the most weight, and the least weight may be assigned to the first subband (Sb #1). For example, the bit allocation selection unit 940 may sequentially allocate the number of quantization bits starting from the subband with the largest Norm value. That is, the largest number of quantization bits is allocated to the n-th subband (Sb #n) with the highest priority, and the number of bits allocated to the n-th subband (Sb #n) is reduced from the total number of allocated bits. Next, the number of quantization bits equal to the corresponding weight can be assigned to the high-priority subband. By repeating this process, bits can be repeatedly allocated until the total number of bits is exhausted.
비트 할당 선택부(940)는 각 서브 밴드에 대해 할당된 비트 수가 허용 비트 수(예: 전송해야 할 총 비트 수)를 초과하지 않도록 제한하여, 최종적으로 할당할 양자화 비트 수를 결정할 수 있다. 상기 할당할 양자화 비트 수는, 예를 들어, 제1 전자 장치(101)와 제2 전자 장치(102) 간의 통신 환경에 영향을 받을 수 있다.The bit allocation selection unit 940 may determine the number of quantization bits to be finally allocated by limiting the number of bits allocated to each subband so that it does not exceed the allowable number of bits (eg, the total number of bits to be transmitted). For example, the number of quantization bits to be allocated may be affected by the communication environment between the first electronic device 101 and the second electronic device 102.
양자화부(950)는 비트 할당 선택부(940)가 선택한 비트 할당 테이블에 따라 각 서브 밴드 별 할당된 양자화 비트 수로 오디오 신호를 양자화 할 수 있다. 양자화부(950)는, 예를 들어, 서브 밴드 별 할당된 양자화 비트 수에 따라 연산을 통한 양자화를 수행할 수 있다. 양자화부(950)는 상기 서브 밴드 별로 양자화 비트 수에 의해 해당 분할 오디오 신호에 대한 양자화를 수행할 수 있다.The quantization unit 950 may quantize the audio signal with the number of quantization bits allocated to each subband according to the bit allocation table selected by the bit allocation selection unit 940. For example, the quantization unit 950 may perform quantization through calculation according to the number of quantization bits allocated to each subband. The quantization unit 950 may perform quantization on the corresponding segmented audio signal according to the number of quantization bits for each subband.
양자화부(950)는 각 서브 밴드에 대한 Norm 값을 양자화 할 수 있다. 이 때, Norm 값은 벡터 양자화, 스칼라 양자화, TCQ, LVQ(Lattice vector quantization) 등 다양한 방식으로 양자화 될 수 있다. 양자화부(950)는 추가적인 부호화 효율을 향상시키기 위해 무손실 부호화를 추가적으로 수행할 수도 있다.The quantization unit 950 can quantize the Norm value for each subband. At this time, the Norm value can be quantized in various ways, such as vector quantization, scalar quantization, TCQ, and LVQ (Lattice vector quantization). The quantization unit 950 may additionally perform lossless coding to further improve coding efficiency.
무손실 부호화부(960)는, 양자화부(950)에 의해 양자화된 결과에 대하여 무손실 부호화 할 수 있다. 일 예로, TCQ(Trellis Coded Quantizer), USQ(Uniform Scalar Quantizer), FPC(Factorial Pulse Coder), AVQ(Analog Vector Quantizer), PVQ(Predictive Vector Quantizer) 혹은 이들의 조합과, 각 양자화부(950)에 대응되는 무손실 부호화부(960)를 사용할 수 있다. 또한, 해당 코덱이 탑재되는 환경 혹은 사용자의 필요에 따라서 다양한 부호화 기법을 적용할 수 있다. 무손실 부호화부(960)에서 부호화 된 오디오 신호에 대한 정보는 비트 스트림(340)에 포함될 수 있다.The lossless encoding unit 960 can losslessly encode the result quantized by the quantization unit 950. For example, Trellis Coded Quantizer (TCQ), Uniform Scalar Quantizer (USQ), Factorial Pulse Coder (FPC), Analog Vector Quantizer (AVQ), Predictive Vector Quantizer (PVQ), or a combination thereof, and each quantization unit 950. The corresponding lossless encoding unit 960 can be used. Additionally, various encoding techniques can be applied depending on the environment in which the codec is installed or the user's needs. Information about the audio signal encoded in the lossless encoder 960 may be included in the bit stream 340.
무손실 부호화부(960)는 양자화부(950)에서 양자화된 오디오 신호에 대해 계층적으로 무손실 부호화 할 수 있다. 무손실 부호화부(960)에서는, 예를 들어, 최상위 비트에 해당하는 코드들로 그룹핑된 그룹을 최상위 계층으로 하여 무손실 부호화하고, 하위 비트에 해당하는 코드들로 그룹핑된 그룹들을 순차적으로 하위 계층으로 하여 무손실 부호화 할 수 있다. 무손실 부호화부(960)는, 예를 들어, 서브 밴드 별 중복되는 값과 빈도를 고려하여 오디오 신호에 대해 부호화를 수행할 수 있다.The lossless encoding unit 960 can hierarchically perform lossless encoding on the audio signal quantized in the quantization unit 950. In the lossless encoding unit 960, for example, lossless encoding is performed using groups grouped with codes corresponding to the most significant bits as the highest layer, and groups grouped with codes corresponding to the lowest bits are sequentially used as the lower layer. Lossless encoding is possible. For example, the lossless encoder 960 may perform encoding on the audio signal by considering overlapping values and frequencies for each subband.
무손실 부호화부(960)에서 부호화 된 비트 스트림(340)이 제2 전자 장치(102)로 전송될 수 있다.The bit stream 340 encoded in the lossless encoder 960 may be transmitted to the second electronic device 102.
도 10은, 일 실시예에 따른 제1 전자 장치의 인코더의 일부(1000)에 대한 블록도이다.FIG. 10 is a block diagram of a portion 1000 of an encoder of a first electronic device according to an embodiment.
도 10을 참조하면, 도 9의 인코더에서 본 개시와 관련된 부분에 대해 보다 상세히 도시한 것이다. 따라서 도 10의 구성요소는 도 9의 구성요소와 전부 또는 일부가 대응될 수 있다. 중복되는 구성요소에 대한 상세한 설명은 생략한다.Referring to FIG. 10, parts of the encoder of FIG. 9 related to the present disclosure are shown in more detail. Accordingly, the components of FIG. 10 may correspond in whole or in part to the components of FIG. 9. Detailed descriptions of overlapping components are omitted.
도메인 변환부(1020)에서 주파수 영역으로 변환된 오디오 신호는 신호 분류부(1030)로 입력될 수 있다. 상기 신호 분류부(1030)은, 도 9의 신호 분류부(예: 도 7의 신호 분류부(930))와 대응될 수 있다. 상기 신호 분류부(1030)에서는 입력된 오디오 신호에 대하여 소정의 분할 가청 주파수 대역 별로 오디오 신호가 분할될 수 있다. 상기 오디오 신호는, 예를 들어, 제1 서브 밴드(Sb #1), 제2 서브 밴드(Sb #2), 제3 서브 밴드(Sb #3), ……제n 서브 밴드(Sb #n)의 n 개의 서브 밴드로 분할될 수 있다. 일 예로, 분할된 n개의 서브 밴드는 주파수 도메인에서 연속적으로 배열될 수 있다. 상기 n개의 서브 밴드는, 저역대의 서브 밴드에서 고역 대의 서브 밴드 순으로 직렬로 배열될 수 있다.The audio signal converted to the frequency domain in the domain conversion unit 1020 may be input to the signal classification unit 1030. The signal classification unit 1030 may correspond to the signal classification unit 930 of FIG. 9 (eg, the signal classification unit 930 of FIG. 7). The signal classification unit 1030 may divide the input audio signal into predetermined divided audible frequency bands. The audio signal is, for example, a first sub-band (Sb #1), a second sub-band (Sb #2), a third sub-band (Sb #3), . … It can be divided into n subbands of the nth subband (Sb #n). As an example, n divided subbands may be sequentially arranged in the frequency domain. The n subbands may be arranged in series in the order from low-band subbands to high-band subbands.
메모리(1080)에는 청력 데이터(예: 도 3의 청력 데이터))가 데이터 베이스(1081)의 형태로 저장될 수 있다. 상기 청력 데이터는 <표 1>로 표현될 수 있다.Hearing data (eg, hearing data in FIG. 3) may be stored in the memory 1080 in the form of a database 1081. The hearing data can be expressed in <Table 1>.
서브 밴드(Sb)Subband (Sb) 청력 측정 결과(Hearing loss)Hearing loss 가중치 부여(weight)Weighting
제1 서브 밴드(Sb #1)1st subband (Sb #1) 매우 좋음/좋음/보통(HL #1)Very Good/Good/Average (HL #1) wa/wb/wc (w#1)w a /w b /w c (w#1)
제2 서브 밴드(Sb #2)Second subband (Sb #2) 매우 좋음/좋음/보통(HL #2)Very Good/Good/Average (HL #2) wa/wb/wc (w#2)w a /w b /w c (w#2)
제3 서브 밴드(Sb #3)Third subband (Sb #3) 매우 좋음/좋음/보통(HL #3)Very Good/Good/Average (HL #3) wa/wb/wc (w#3)w a /w b /w c (w#3)
............ ............ ............
제n 서브 밴드(Sb #n)nth subband (Sb #n) 매우 좋음/좋음/보통(HL #n)Very Good/Good/Average (HL #n) wa/wb/wc (w#n)w a /w b /w c (w#n)
<표 1>은, 가청 주파수 대역을 n개의 서브 밴드(Sb)로 나누고, 각 서브 밴드(Sb)에 따른 청력 측정 결과를 정리한 표이다. 청력 측정 앱(예: 도 3의 청력 측정 앱)을 통해 각 서브 밴드에 대하여 청력 측정 결과(Hearing loss)가 기록될 수 있다. 청력 측정 결과는, '매우 좋음', '좋음' 또는 '보통' 중 어느 하나를 지시할 수 있다. 제1 서브 밴드(Sb #1)의 청력 측정 결과를 HL #1, 제2 서브 밴드(Sb #2)의 청력 측정 결과를 HL #2, 제3 서브 밴드(Sb #3)의 청력 측정 결과를 HL #3로 나타낼 수 있고, 제n 서브 밴드(Sb #n)의 청력 측정 결과를 HL #n으로 나타낼 수 있다.<Table 1> is a table that divides the audible frequency band into n subbands (Sb) and summarizes the hearing measurement results for each subband (Sb). Hearing loss can be recorded for each subband through a hearing measurement app (e.g., the hearing measurement app in FIG. 3). Hearing measurement results may indicate either 'very good', 'good' or 'average'. The audiometry results of the first subband (Sb #1) are HL #1, the audiometry results of the second subband (Sb #2) are HL #2, and the audiometry results of the third subband (Sb #3) are It can be expressed as HL #3, and the audiometry results of the nth subband (Sb #n) can be expressed as HL #n.
각 서브 밴드 별 청력 측정 결과에 따라 가중치 (weight)가 다르게 설정될 수 있다. 가중치는, 청력 측정 결과(Hearing loss)에 따라 결정될 수 있다. 일 예로, 청력 측정 결과 '매우 좋음'인 경우, wa의 가중치가 결정될 수 있다. 일 예로, 청력 측정 결과 '좋음'인 경우, wb의 가중치가 결정될 수 있다. 일 예로, 청력 측정 결과 '보통'인 경우, wc의 가중치가 결정될 수 있다. 상기 wa, wb, wc는 wa≥wb≥wc의 관계를 가질 수 있다.Weights may be set differently depending on the hearing measurement results for each subband. The weight may be determined according to the hearing loss. For example, if the hearing measurement result is 'very good', the weight of w a may be determined. For example, if the hearing measurement result is 'good', the weight of w b may be determined. For example, if the hearing measurement result is 'normal', the weight of w c may be determined. The w a, w b, and w c may have a relationship of w a ≥w b ≥w c .
사용자는 청력 측정을 수행하지 않고, 자신의 분할 가청 주파수 별 청력 측정 결과를 직접 입력할 수도 있다.The user may directly input the audiometry results for each segmented audible frequency without performing audiometry.
청력 측정 결과에 따라, 사용자 별 청력 특성을 고려한 청력 데이터가 데이터 베이스(1081)로 메모리(1080)로 저장될 수 있다.According to the audiometry results, hearing data considering the hearing characteristics of each user may be stored in the memory 1080 as a database 1081.
프로세서(예: 도 3의 프로세서(310))는, 청력 데이터를 고려하여 특성 비트 할당 테이블을 생성할 수 있다. <표 2>는 프로세서(310)가 청력 데이터를 반영하여 특성 비트 할당 테이블을 생성하는 것을 예시적으로 나타낸 것이다.A processor (eg, processor 310 in FIG. 3) may generate a characteristic bit allocation table by considering hearing data. <Table 2> shows an example in which the processor 310 generates a characteristic bit allocation table by reflecting hearing data.
서브 밴드(Sb)Subband (Sb) 기본 비트 할당 값
(basis bit allocation value)
Default bit assignment value
(basis bit allocation value)
가중치 부여
(weight)
weighting
(weight)
특성 비트 할당 값
(characterized bit allocation value)
Characteristic Bit Assignment Value
(characterized bit allocation value)
제1 서브 밴드(Sb #1)1st subband (Sb #1) A1 A 1 wa/wb/wc (w#1)w a /w b /w c (w#1) A1'A 1 '
제2 서브 밴드(Sb #2)Second subband (Sb #2) A2 A 2 wa/wb/wc (w#2)w a /w b /w c (w#2) A2'A 2 '
제3 서브 밴드(Sb #3)Third subband (Sb #3) A3 A 3 wa/wb/wc (w#3)w a /w b /w c (w#3) A3'A 3 '
............ ............ ............ ............
제n 서브 밴드(Sb #n)nth subband (Sb #n) An A n wa/wb/wc (w#n)w a /w b /w c (w#n) An'A n '
<표 2>는, 주파수 대역을 m개의 서브 밴드(Sb)로 나누고, 각 서브 밴드(Sb)의 청력 측정 결과에 따라 각 서브 밴드 별로 기본 비트 할당 값에 가중치를 부여해 특성 할당 비트 값(characterized bit allocation value)을 도출한 표이다. <표 1>에서 가청 주파수 대역을 n개의 서브 밴드로 나눈 것과 달리, <표 2>에서는 가청 주파수 대역을 m개의 서브 밴드로 나눌 수 있다. m과 n은 같거나 다를 수 있다. 상기 특성 할당 비트 값으로 구성된 테이블을 제1 비트 할당 테이블이라고 할 수 있다.<Table 2> divides the frequency band into m subbands (Sb), and assigns a weight to the basic bit allocation value for each subband according to the audiometry results of each subband (Sb) to determine the characteristic bit value. This is a table deriving the allocation value. Unlike in <Table 1>, where the audible frequency band is divided into n subbands, in <Table 2>, the audible frequency band can be divided into m subbands. m and n may be the same or different. The table composed of the characteristic allocation bit values may be referred to as the first bit allocation table.
각 서브 밴드(Sb) 별 가중치는 사용자의 청력 특성에 따라 wa, wb, 또는 wc 중 어느 하나의 값으로 결정될 수 있다.The weight for each subband (Sb) is w a, w b, or It can be determined by any one value of w c .
서브 밴드(Sb) 별 기본 비트 할당 값(bit allocation value) 각각에 사용자의 청력 측정 결과에 따른 서브 밴드(Sb) 별 가중치를 부여하여 특성 할당 비트 값(characterized bit allocation value)을 도출할 수 있다. 상기 특성 할당 비트 값(characterized bit allocation value)은, 예를 들어, 비트 할당 값에 가중치를 곱하여 도출된 결과일 수 있다. 다만, 이에 한정되지 않고, 특성 할당 비트 값은 다양하게 정의된 방식으로 비트 할당 값과 가중치를 연산하여 도출될 수 있다.Characterized bit allocation values can be derived by assigning weights for each subband (Sb) according to the user's hearing measurement results to each basic bit allocation value for each subband (Sb). The characterized bit allocation value may be, for example, a result derived by multiplying the bit allocation value by a weight. However, it is not limited to this, and the characteristic allocation bit value can be derived by calculating the bit allocation value and weight in various defined ways.
일 예로, 제1 서브 밴드(Sb #1)과 제2 서브 밴드(Sb #2)의 기본 비트 할당 값인 A1과 A3이 같은 값이라고 할지라도, 제1 서브 밴드(Sb #1)의 청력 측정 결과(HL #1)는 '매우 좋음'으로 기록되고, 제2 서브 밴드(Sb #2)의 청력 측정 결과(HL #2)는 '보통'으로 기록되면, 각각의 특성 비트 할당 값 A1'와 A3'은 A1'≥A3'의 관계를 가지도록 생성될 수 있다.For example, even if the basic bit allocation values A 1 and A 3 of the first subband (Sb #1) and the second subband (Sb #2) are the same, the hearing loss of the first subband (Sb #1) If the measurement result (HL #1) is recorded as 'very good' and the audiometry result (HL #2) of the second subband (Sb #2) is recorded as 'average', each characteristic bit allocation value A 1 ' and A 3 ' can be created to have the relationship A 1 '≥A 3 '.
서브 밴드 별 특성 비트 할당 값을 표로 정리한 데이터를 제1 비트 할당 테이블이라고 할 수 있다. 생성된 제1 비트 할당 테이블은 메모리(1080)의 데이터베이스(1081)의 형태로 저장될 수 있다. 또한 필요에 따라 프로세서(310)는 연산에 의해 복수의 제1 할당 테이블을 생성할 수 있다.Data that organizes the characteristic bit allocation values for each subband in a table can be referred to as the first bit allocation table. The generated first bit allocation table may be stored in the form of a database 1081 in the memory 1080. Additionally, if necessary, the processor 310 may generate a plurality of first allocation tables through calculation.
서브 밴드(sb)Subband (sb) 기본 비트 할당 값
(basis bit allocation value)
Default bit assignment value
(basis bit allocation value)
가중치 부여
(weight)
weighting
(weight)
표준 비트 할당 값
(normalized bit allocation value)
Standard bit assignment value
(normalized bit allocation value)
제1 서브 밴드(Sb #1)1st subband (Sb #1) A1 A 1 wa/wb/wc (w#1)w a /w b /w c (w#1) A1''A 1 ''
제2 서브 밴드(Sb #2)Second subband (Sb #2) A2 A 2 wa/wb/wc (w#2)w a /w b /w c (w#2) A2'' A2 ''
제3 서브 밴드(Sb #3)Third subband (Sb #3) A3 A 3 wa/wb/wc (w#3)w a /w b /w c (w#3) A3'' A3 ''
............ ............ ............ ............
제n 서브 밴드(Sb #n)nth subband (Sb #n) An A n wa/wb/wc (w#n)w a /w b /w c (w#n) An''An''
<표 3>은, 주파수 대역을 m개의 서브 밴드(Sb)로 나누고, 각 서브 밴드(Sb)의 청력 측정 결과에 따라 각 서브 밴드 별로 기본 비트 할당 값에 가중치를 부여해 표준 할당 비트 값(normalized bit allocation value)을 도출한 표이다. 상기 표준 할당 비트 값으로 구성된 테이블을 제2 비트 할당 테이블이라고 할 수 있다.<Table 3> divides the frequency band into m subbands (Sb), and weights the basic bit allocation value for each subband according to the audiometry results of each subband (Sb) to obtain the normalized bit value. This is a table deriving the allocation value. The table composed of the standard allocation bit values may be referred to as a second bit allocation table.
각 서브 밴드(Sb) 별 가중치는 사용자의 청력 특성과 무관하게 wa, wb, 또는 wc 중 어느 하나의 값으로 미리 결정될 수 있다.The weight for each subband (Sb) is w a, w b, or It can be predetermined as any one value among w c .
서브 밴드(Sb) 별 기본 비트 할당 값(bit allocation value) 각각에 사용자의 청력 측정 결과에 따른 서브 밴드(Sb) 별 미리 결정된 가중치를 부여하여 표준 할당 비트 값(characterized bit allocation value)을 도출할 수 있다. 상기 표준 할당 비트 값(characterized bit allocation value)은, 예를 들어, 기본 비트 할당 값에 가중치를 곱하여 도출된 결과일 수 있다. 다만, 이에 한정되지 않고, 특성 할당 비트 값은 다양하게 정의된 방식으로 비트 할당 값과 가중치를 연산하여 도출될 수 있다.A standardized bit allocation value (characterized bit allocation value) can be derived by assigning a predetermined weight for each subband (Sb) according to the user's hearing measurement results to each basic bit allocation value for each subband (Sb). there is. The characterized bit allocation value may be, for example, a result derived by multiplying the basic bit allocation value by a weight. However, it is not limited to this, and the characteristic allocation bit value can be derived by calculating the bit allocation value and weight in various defined ways.
일 예로, 제1 서브 밴드(Sb #1)과 제2 서브 밴드(Sb #2)의 기본 비트 할당 값인 A1과 A3이 같은 값이라고 할지라도, 제1 서브 밴드(Sb #1)의 청력 측정 결과(HL #1)는 '매우 좋음'으로 미리 저장되고, 제2 서브 밴드(Sb #2)의 청력 측정 결과(HL #2)는 '보통'으로 미리 저장되면, 각각의 특성 비트 할당 값 A1''와 A3''은 A1''≥A3'''의 관계를 가지도록 생성될 수 있다.For example, even if the basic bit allocation values A 1 and A 3 of the first subband (Sb #1) and the second subband (Sb #2) are the same, the hearing loss of the first subband (Sb #1) If the measurement result (HL #1) is pre-stored as 'very good' and the hearing measurement result (HL #2) of the second sub-band (Sb #2) is pre-stored as 'average', each characteristic bit allocation value A 1 '' and A 3 '' can be created to have the relationship A 1 ''≥A 3' ''.
서브 밴드 별 표준 비트 할당 값을 표로 정리한 데이터를 제2 비트 할당 테이블이라고 할 수 있다. 생성된 제2 비트 할당 테이블은 메모리(1080)의 데이터베이스(1081)의 형태로 저장될 수 있다. 또한 필요에 따라 프로세서(310)는 연산에 의해 복수의 제2 할당 테이블을 생성할 수 있다.The data organizing the standard bit allocation values for each subband in a table can be referred to as the second bit allocation table. The generated second bit allocation table may be stored in the form of a database 1081 in the memory 1080. Additionally, if necessary, the processor 310 may generate a plurality of second allocation tables through calculation.
비트 할당 선택부(1040)는, 도 9의 비트 할당 선택부(940)와 대응될 수 있다. 상기 비트 할당 선택부(1040)는 청력 데이터의 유무에 따라 비트 할당 테이블 중 어느 하나를 선택할 수 있다. 비트 할당 테이블은 제1 테이블(1041) 또는 제2 테이블(1043)을 포함할 수 있다. 제1 비트 할당 테이블을 제1 테이블(1041)이라고 할 수 있다. 제2 비트 할당 테이블을 제2 테이블(1043)이라고 할 수 있다.The bit allocation selection unit 1040 may correspond to the bit allocation selection unit 940 of FIG. 9. The bit allocation selection unit 1040 can select one of the bit allocation tables depending on the presence or absence of hearing data. The bit allocation table may include a first table 1041 or a second table 1043. The first bit allocation table may be referred to as the first table 1041. The second bit allocation table may be referred to as the second table 1043.
비트 할당 선택부(1040)는 청력 데이터의 유무뿐만 아니라, 제1 테이블(1041)과 제2 테이블(1043)을 비교하여 비트 할당 테이블을 선택할 수 있다. 일 예로, 청력 특성을 반영하여 생성된 제1 테이블(1041)과 청력 특성을 반영하지 않은 표준 비트 할당 테이블인 제2 테이블(1043)을 비교하여 유의미한 차이가 존재하지 않으면, 비트 할당 선택부(1040)는 제2 테이블(834)을 사용하여 양자화 비트 수를 결정할 수 있다. 이는 데이터 효율 또는 양자화에 소요되는 연산 효율을 고려한 것이다.The bit allocation selection unit 1040 may select a bit allocation table by comparing the first table 1041 and the second table 1043 as well as the presence or absence of hearing data. As an example, if there is no significant difference by comparing the first table 1041 created by reflecting hearing characteristics with the second table 1043, which is a standard bit allocation table that does not reflect hearing characteristics, the bit allocation selection unit 1040 ) can determine the number of quantization bits using the second table 834. This takes into account data efficiency or computational efficiency required for quantization.
양자화부(1050)는, 도 9의 양자화부(950)와 대응될 수 있다. 상기 양자화부(1050)는 비트 할당 선택부(1040)가 선택한 비트 할당 테이블에 따라 서브 밴드(Sb) 별로 양자화를 수행할 수 있다. 비트 할당 선택부(1040)가 선택한 비트 할당 테이블이 지시하는 서브 밴드(Sb) 별 비트 할당 값에 따라 양자화 비트 수를 결정할 수 있다. 양자화부(1050)는 상기 서브 밴드 별로 양자화 비트 수에 의해 해당 분할 오디오 신호에 대한 양자화를 수행할 수 있다.The quantization unit 1050 may correspond to the quantization unit 950 of FIG. 9 . The quantization unit 1050 may perform quantization for each subband (Sb) according to the bit allocation table selected by the bit allocation selection unit 1040. The number of quantization bits can be determined according to the bit allocation value for each subband (Sb) indicated by the bit allocation table selected by the bit allocation selection unit 1040. The quantization unit 1050 may perform quantization on the corresponding segmented audio signal according to the number of quantization bits for each subband.
무손실 부호화부(1060)는, 도 9의 무손실 부호화부(960)와 대응될 수 있다. 상기 무손실 부호화부(1060)는 양자화부(1050)에 의해 양자화된 결과에 대하여 무손실 부호화 할 수 있다. 무손실 부호화부(1060)는 서브 밴드 별로 양자화된 해당 분할 오디오 신호에 대하여 무손실 부호화 할 수 있다.The lossless encoding unit 1060 may correspond to the lossless encoding unit 960 of FIG. 9 . The lossless encoding unit 1060 can losslessly encode the result quantized by the quantization unit 1050. The lossless encoder 1060 can perform lossless encoding on the corresponding segmented audio signal quantized for each subband.
도 11은, 일 실시예에 따른, 제2 전자 장치(102)의 디코더(1100)에 대한 블록도이다.FIG. 11 is a block diagram of the decoder 1100 of the second electronic device 102, according to one embodiment.
도 11을 참조하면, 디코더(1100)는 무손실 복호화부(1110), 비트 스트림 분석부(1120), 비트 할당 선택부(1130), 역 양자화부(1140), 신호 분류부(1150), 도메인 변환부(1160)를 포함할 수 있다. 각 구성요소는 적어도 하나 이상의 모듈로 일체화되어 적어도 하나 이상의 프로세서(예: 도 6의 프로세서(610))로 구현될 수 있다. 또한 상기 각 구성요소는 필요에 따라 추가 또는 생략될 수 있다.Referring to FIG. 11, the decoder 1100 includes a lossless decoder 1110, a bit stream analysis unit 1120, a bit allocation selection unit 1130, an inverse quantization unit 1140, a signal classification unit 1150, and a domain conversion unit. It may include unit 1160. Each component may be integrated into at least one module and implemented with at least one processor (eg, processor 610 in FIG. 6). Additionally, each of the above components may be added or omitted as needed.
무손실 복호화부(1110)는, 제1 전자 장치(101)로부터 수신한 비트 스트림(620)에 대해 계층적으로 무손실 복호화 할 수 있다. 무손실 복호화부(1110)에서는, 예를 들어, 최상위 비트에 해당하는 코드들로 그룹핑된 그룹을 최상위 계층으로 하여 무손실 복호화하고, 하위 비트에 해당하는 코드들로 그룹핑된 그룹들을 순차적으로 하위 계층으로 하여 무손실 복호화 할 수 있다.The lossless decoding unit 1110 can hierarchically perform lossless decoding on the bit stream 620 received from the first electronic device 101. In the lossless decoding unit 1110, for example, lossless decoding is performed using a group grouped with codes corresponding to the highest bit as the highest layer, and groups grouped with codes corresponding to the lowest bit are sequentially used as the lower layer. Lossless decoding is possible.
무손실 복호화부(1110)에서는 무손실 부호화부(예: 도 7의 무손실 부호화부(1160))에서 사용한 방식으로 무손실 복호화가 수행될 수 있다.In the lossless decoding unit 1110, lossless decoding may be performed using the method used in the lossless encoding unit (e.g., the lossless encoding unit 1160 of FIG. 7).
비트 스트림 분석부(1120)는 수신한 비트 스트림(620)에 대해 분석할 수 있다. 상기 비트 스트림 분석부(1120)는 비트 스트림에 포함된 메타 정보를 분석할 수 있다. 상기 메타 정보는, 상기 비트 스트림(620)을 역 양자화 하기 위해 참조할 정보를 포함할 수 있다.The bit stream analysis unit 1120 can analyze the received bit stream 620. The bit stream analysis unit 1120 can analyze meta information included in the bit stream. The meta information may include information to be referred to in order to inverse quantize the bit stream 620.
일 예로, 메타 정보는 상기 비트 스트림(620)이 청력 데이터를 고려한 양자화에 의해 생성된 것인지를 지시하는 제1 식별자를 포함할 수 있다. 상기 메타 정보가 상기 제1 식별자를 포함하는 경우, 상기 제2 전자 장치(102)는 자신이 보유하고 있는 제1 비트 할당 테이블을 사용하여 상기 비트 스트림(620)에 포함된 분할 주파수 대역 별 양자화 데이터를 역 양자화 하기 위해 사용할 역 양자화 비트 수를 결정할 수 있다. 예를 들어, 상기 제1 식별자는 하나의 비트 값(1 bit)로 구성될 수 있다. 상기 제1 식별자에 상응한 비트 값이 '1'이면, 상기 제2 전자 장치(102)는 상기 비트 스트림(620)이 청력 데이터를 고려한 양자화에 의해 생성된 것임을 인지할 수 있다. 상기 제1 식별자에 상응한 비트 값이 '0'이면, 상기 제2 전자 장치(102)는 상기 비트 스트림(620)이 청력 데이터와 무관한 양자화에 의해 생성된 것임을 인지할 수 있다.As an example, the meta information may include a first identifier indicating whether the bit stream 620 is generated by quantization considering hearing data. When the meta information includes the first identifier, the second electronic device 102 uses the first bit allocation table held by the second electronic device 102 to generate quantized data for each divided frequency band included in the bit stream 620. You can determine the number of inverse quantization bits to use to inverse quantize. For example, the first identifier may consist of one bit value (1 bit). If the bit value corresponding to the first identifier is '1', the second electronic device 102 can recognize that the bit stream 620 is generated by quantization considering hearing data. If the bit value corresponding to the first identifier is '0', the second electronic device 102 can recognize that the bit stream 620 is generated by quantization unrelated to hearing data.
일 예로, 메타 정보는 상기 비트 스트림(620)을 양자화 하기 위해 적용된 제1 비트 할당 테이블에 관한 정보를 포함할 수 있다. 상기 제1 비트 할당 테이블에 관한 정보는, 예를 들어, 인코더(예: 도 9의 인코더(900))에서 양자화를 위해 사용한 제1 비트 할당 테이블을 지시하는 제2 식별자를 포함할 수 있다. 상기 제1 비트 할당 테이블에 관한 정보가 상기 제2 식별자를 포함하면, 상기 제2 전자 장치(102)는 상기 제2 식별자를 사용하여 자신이 보유한 하나 또는 복수의 제1 비트 할당 테이블 중에서 역 양자화를 위해 사용한 제1 비트 할당 테이블을 결정할 수 있다. 상기 제2 전자 장치(102)는 상기 결정한 제1 비트 할당 테이블을 사용하여 상기 비트 스트림(620)에 포함된 분할 주파수 대역 별 양자화 데이터를 역 양자화 하기 위해 사용할 역 양자화 비트 수를 결정할 수 있다.As an example, the meta information may include information about the first bit allocation table applied to quantize the bit stream 620. For example, the information about the first bit allocation table may include a second identifier indicating the first bit allocation table used for quantization in an encoder (eg, encoder 900 in FIG. 9). If the information about the first bit allocation table includes the second identifier, the second electronic device 102 performs inverse quantization among one or more first bit allocation tables owned by the second electronic device 102 using the second identifier. The first bit allocation table used for this purpose can be determined. The second electronic device 102 may use the determined first bit allocation table to determine the number of inverse quantization bits to be used to inverse quantize the quantized data for each divided frequency band included in the bit stream 620.
일 예로, 메타 정보는 상기 비트 스트림(620)을 양자화 하기 위해 적용된 제1 비트 할당 테이블에 관한 정보를 포함할 수 있다. 상기 제1 비트 할당 테이블에 관한 정보는, 예를 들어, 상기 제1 비트 할당 테이블을 구성할 수 있는 데이터일 수 있다. 상기 제1 비트 할당 테이블에 관한 정보가 상기 제1 비트 할당 테이블을 구성할 수 있는 데이터를 포함하면, 상기 제2 전자 장치(102)는 상기 데이터를 사용하여 상기 제1 비트 할당 테이블을 생성할 수 있다. 상기 제2 전자 장치(102)는 상기 생성한 제1 비트 할당 테이블을 사용하여 상기 비트 스트림(620)에 포함된 분할 주파수 대역 별 양자화 데이터를 역 양자화 하기 위해 사용할 역 양자화 비트 수를 결정할 수 있다.As an example, the meta information may include information about the first bit allocation table applied to quantize the bit stream 620. The information about the first bit allocation table may be, for example, data that can configure the first bit allocation table. If the information about the first bit allocation table includes data that can configure the first bit allocation table, the second electronic device 102 can generate the first bit allocation table using the data. there is. The second electronic device 102 may use the generated first bit allocation table to determine the number of inverse quantization bits to be used to inverse quantize the quantized data for each divided frequency band included in the bit stream 620.
일 예로, 비트 스트림 분석부(1120)는 제1 전자 장치(101)로부터 수신한 비트 스트림에 오류가 있는지 분석할 수 있다. 일 예로, 제1 전자 장치(101)로부터 수신한 비트 스트림에 오류가 있거나, 전송 환경이 원활하지 않으면, 제2 전자 장치(102)는 제1 전자 장치(101)로 비트 스트림의 재 전송 (re-transmission)을 요청할 수 있다. 상기 재전송은, 예를 들어, TCP (transmission control protocol) 재전송 방식에 따른 방식일 수 있다. 상기 재전송은, 시간 기반 재전송, 명시적 재전송 피드백 또는 빠른 재전송 방식 중 적어도 어느 하나를 채택하여 요청될 수 있다. As an example, the bit stream analysis unit 1120 may analyze whether there is an error in the bit stream received from the first electronic device 101. For example, if there is an error in the bit stream received from the first electronic device 101 or the transmission environment is not smooth, the second electronic device 102 retransmits the bit stream to the first electronic device 101 (re -transmission) can be requested. The retransmission may be, for example, based on a TCP (transmission control protocol) retransmission method. The retransmission may be requested by adopting at least one of time-based retransmission, explicit retransmission feedback, or fast retransmission.
비트 할당 선택부(1130)는 주파수 대역 별 비트 스트림에 대해 어떤 비트 할당 테이블을 사용하여 역 양자화를 수행할 지 결정할 수 있다. 일 예로, 비트 할당 선택부(1130)는 제1 비트 할당 테이블 또는 제2 비트 할당 테이블 중 하나를 선택할 수 있다.The bit allocation selection unit 1130 may determine which bit allocation table to use to perform inverse quantization on the bit stream for each frequency band. As an example, the bit allocation selection unit 1130 may select one of the first bit allocation table and the second bit allocation table.
비트 할당 선택부(1130)는 제1 비트 할당 테이블 또는 제2 비트 할당 테이블을 비교한 뒤 어떤 비트 할당 테이블을 사용하여 역 양자화를 수행할 지 결정할 수 있다. 일 예로, 제2 전자 장치(102)가 메모리에 제1 비트 할당 테이블 및 제2 비트 할당 테이블을 모두 가지고 있는 경우, 상기 두 테이블이 임계 수준만큼의 차이가 나지 않으면, 비트 할당 선택부(1130)는 표준 비트 할당 테이블을 선택하여 역 양자화를 수행할 수 있다. 상기 임계 수준은, 예를 들어, 각 서브 밴드 별 비트 할당 수의 차이가 할당되는 전체 비트 수의 1% 이상인 경우를 뜻할 수 있다. 다만, 이는 예시적인 수치에 불과하며, 상기 임계 수준은 상황을 고려하여 다르게 설정될 수 있다.The bit allocation selection unit 1130 may compare the first bit allocation table or the second bit allocation table and then determine which bit allocation table to use to perform inverse quantization. For example, when the second electronic device 102 has both a first bit allocation table and a second bit allocation table in the memory, if the two tables do not differ by a threshold level, the bit allocation selection unit 1130 Inverse quantization can be performed by selecting a standard bit allocation table. The threshold level may mean, for example, a case where the difference in the number of bit allocations for each subband is 1% or more of the total number of allocated bits. However, this is only an exemplary value, and the threshold level may be set differently depending on the situation.
역 양자화부(1140)는 비트 할당 선택부(1130)가 선택한 비트 할당 테이블을 사용하여 각 서브 밴드 별 할당된 비트 수로 비트 스트림을 역 양자화 할 수 있다. 역 양자화부(1140)는, 예를 들어, 양자화부(예: 도 10의 양자화부(1050))가 양자화를 수행하는 방식과 동일한 방식으로 역 양자화를 수행할 수 있다. 일 예로, 역 양자화부(1140)는 제1 비트 할당 테이블 또는 제2 비트 할당 테이블 중 어느 하나를 사용하여 분할 가청 주파수 대역 별로 포함된 오디오 신호 각각에 대하여 역 양자화를 수행할 수 있다.The inverse quantization unit 1140 may inverse quantize the bit stream with the number of bits allocated to each subband using the bit allocation table selected by the bit allocation selection unit 1130. For example, the inverse quantization unit 1140 may perform inverse quantization in the same manner as the quantization unit (e.g., the quantization unit 1050 of FIG. 10) performs quantization. As an example, the inverse quantization unit 1140 may perform inverse quantization on each audio signal included in each divided audible frequency band using either the first bit allocation table or the second bit allocation table.
신호 분류부(1150)는 역 양자화를 수행한 결과로 분할 주파수 대역 별로 획득한 분할 오디오 신호들을 서브 밴드별로 세분화할 수 있다. 신호 분류부(1150)는, 예를 들어, 상기 비트 스트림에 대해 서브 밴드 별로 파티션을 나눌 수 있다. 신호 분류부(1150)는 서브 밴드 별로 파티션을 나눌 때에 각각의 파티션 별로 에너지 값을 반영할 수 있다. 신호 분류부(1150)는, 예를 들어, 상기 파티션 별로 이득 값 (gain)을 달리 적용할 수 있다.The signal classification unit 1150 may subdivide the divided audio signals obtained for each divided frequency band into subbands as a result of performing inverse quantization. For example, the signal classification unit 1150 may partition the bit stream by subband. When dividing partitions into subbands, the signal classification unit 1150 may reflect the energy value for each partition. For example, the signal classification unit 1150 may apply different gain values to each partition.
도메인 변환부(1160)는, 역 양자화를 진행한 비트 스트림의 영역을 변환할 수 있다. 일 예로, 도메인 변환부(1160)는, 주파수 영역 (frequency domain)의 비트 스트림을 시간 영역 (time domain)으로 변환할 수 있다. 상기 변환은, 예를 들어, 푸리에 역 변환 (inverse fourier transform) 방식을 이용하여 수행될 수 있다. 상기 역 푸리에 변환 방식은, 예를 들어, 고속 푸리에 역 변환 방식 (inverse fast fourier transform, IFFT)을 포함할 수 있다. 도메인 변환부(1160)는 복호화 된 비트 스트림을 시간 도메인으로 변환하여 복원된 오디오 신호를 생성할 수 있다.The domain converter 1160 can convert the region of the bit stream that has undergone inverse quantization. As an example, the domain converter 1160 may convert a bit stream in the frequency domain to the time domain. The transformation may be performed, for example, using an inverse Fourier transform method. The inverse Fourier transform method may include, for example, an inverse fast Fourier transform (IFFT) method. The domain converter 1160 may convert the decoded bit stream into the time domain and generate a restored audio signal.
도메인 변환부(1160)는, 분할 가청 주파수 별로 역 양자화를 한 비트 스트림을 합성할 수 있다.The domain converter 1160 can synthesize a bit stream that has been inversely quantized for each divided audible frequency.
상기 도메인 변환부(1160)를 거쳐 생성된 오디오 신호(640)는 제2 전자 장치(102)에 마련된 디지털 신호 처리기 또는 ADC에서 아날로그 오디오 신호로 변환된 후 음향 출력 장치로 출력될 수 있다.The audio signal 640 generated through the domain converter 1160 may be converted into an analog audio signal by a digital signal processor or ADC provided in the second electronic device 102 and then output to an audio output device.
본 개시의 일 실시예는, 오디오 신호의 양자화 또는 역 양자화를 함에 있어 사용자 개인의 청력 특성을 반영하여 양자화 잡음을 최소화하기 위한 장치 및 방법을 제공할 수 있다.An embodiment of the present disclosure may provide an apparatus and method for minimizing quantization noise by reflecting the user's individual hearing characteristics when quantizing or inverse quantizing an audio signal.
본 개시의 일 실시예에 따른 제1 전자 장치(101)의 제어 방법은, 미리 설정된 사용자의 청력 특성을 기반으로 가청 주파수 대역을 분할하는 분할 가청 주파수 대역 별로 양자화 비트 수를 획득하는 동작(410), 오디오 컨텐츠의 재생에 의해 출력되는 오디오 신호(320)로부터 추출된 분할 가청 주파수 대역 별 오디오 신호에 대응되는 양자화 비트 수를 사용하여 양자화를 수행하는 동작(420), 및 상기 분할 가청 주파수 대역 별로 양자화된 오디오 신호를 비트 스트림(340)으로 생성하여 무선 채널을 통해 제2 전자 장치(102)로 전송하는 동작(430)을 포함할 수 있다.The control method of the first electronic device 101 according to an embodiment of the present disclosure includes an operation 410 of obtaining the number of quantization bits for each divided audible frequency band in which the audible frequency band is divided based on preset hearing characteristics of the user. , an operation 420 of performing quantization using the number of quantization bits corresponding to the audio signal for each divided audible frequency band extracted from the audio signal 320 output by reproduction of audio content, and quantization for each divided audible frequency band. An operation 430 of generating an audio signal as a bit stream 340 and transmitting it to the second electronic device 102 through a wireless channel may be included.
본 개시의 일 실시예에 따른 제1 전자 장치(101)의 제어 방법은 상기 사용자를 대상으로 상기 분할 가청 주파수 대역 별 청력 측정을 수행하여 상기 사용자의 청력 특성(330)을 설정하는 동작을 포함할 수 있다.The control method of the first electronic device 101 according to an embodiment of the present disclosure may include setting the hearing characteristics 330 of the user by performing hearing measurement for each divided audible frequency band on the user. You can.
본 개시의 일 실시예에 따른 제1 전자 장치(101)의 제어 방법은 상기 미리 설정된 사용자의 청력 특성(330)을 반영하여 상기 분할 가청 주파수 대역 별 양자화 비트 수가 갱신된 양자화 비트 할당 테이블을 생성하는 동작(530)을 포함할 수 있다.The control method of the first electronic device 101 according to an embodiment of the present disclosure generates a quantization bit allocation table in which the number of quantization bits for each divided audible frequency band is updated by reflecting the preset hearing characteristics 330 of the user. Operation 530 may be included.
본 개시의 일 실시예에 따른 제1 전자 장치(101)의 제어 방법은 생성된 복수의 양자화 비트 할당 테이블 중 하나의 양자화 비트 할당 테이블을 선택하는 동작(530, 540)을 포함할 수 있다.A control method of the first electronic device 101 according to an embodiment of the present disclosure may include operations 530 and 540 of selecting one quantization bit allocation table from among a plurality of generated quantization bit allocation tables.
본 개시의 일 실시예에 따른 제1 전자 장치(101)의 제어 방법은, 상기 분할 가청 주파수 대역 별로 양자화된 오디오 신호에 대해 무손실 부호화 하는 동작할 수 있다.The control method of the first electronic device 101 according to an embodiment of the present disclosure may operate to perform lossless encoding on the quantized audio signal for each divided audible frequency band.
본 개시의 일 실시예에 따른 제2 전자 장치(102)의 제어 방법은 제1 전자 장치(101)로부터 수신한 비트 스트림(340, 620)을 분석하는 동작(710, 820), 상기 비트 스트림(340, 620)에 포함된 분할 가청 주파수 대역 별 역 양자화 비트 수를 획득하는 동작(720), 상기 역 양자화 비트 수를 사용하여 가청 주파수 대역 별로 상기 비트 스트림(340, 620)에 대한 역 양자화를 수행하는 동작(730) 및 상기 역 양자화로 생성된 오디오 신호(640)를 출력하는 동작(740)을 포함할 수 있다.The control method of the second electronic device 102 according to an embodiment of the present disclosure includes operations 710 and 820 of analyzing bit streams 340 and 620 received from the first electronic device 101, and the bit stream ( Obtaining the number of inverse quantization bits for each segmented audible frequency band included in 340, 620 (720), performing inverse quantization on the bit stream 340, 620 for each audible frequency band using the inverse quantization bit number. It may include an operation 730 of performing an operation 730 and an operation 740 of outputting the audio signal 640 generated by the inverse quantization.
본 개시의 일 실시예에 따른 제2 전자 장치(102)의 제어 방법에서 상기 역 양자화 비트 수는 상기 제1 전자 장치(101)가 오디오 신호(320)의 양자화를 수행하는 데 사용한 가청 주파수 대역 별 양자화 비트 수에 대응될 수 있다.In the control method of the second electronic device 102 according to an embodiment of the present disclosure, the number of inverse quantization bits is determined by each audible frequency band used by the first electronic device 101 to quantize the audio signal 320. It may correspond to the number of quantization bits.
본 개시의 일 실시예에 따른 제2 전자 장치(102)의 제어 방법은 상기 제1 장치(101)로 역 양자화 수행에 필요한 사용자의 청력 특성에 관한 정보(630)를 요청하는 동작을 포함할 수 있다.The control method of the second electronic device 102 according to an embodiment of the present disclosure may include requesting information 630 about the user's hearing characteristics necessary to perform inverse quantization from the first device 101. there is.
본 개시의 일 실시예에 따른 제2 전자 장치(102)의 제어 방법은 제1 전자 장치(101)로부터 미리 설정된 사용자의 청력 특성에 관한 정보(630)를 획득하는 동작 및 상기 획득한 정보(630)로부터 분할 가청 주파수 대역 별 역 양자화 비트 할당 테이블을 생성하는 동작을 포함할 수 있다.A control method of the second electronic device 102 according to an embodiment of the present disclosure includes the operation of acquiring information 630 about the hearing characteristics of a preset user from the first electronic device 101 and the obtained information 630. ) may include an operation of generating an inverse quantization bit allocation table for each divided audible frequency band.
본 개시의 일 실시예에 따른 제1 전자 장치(101)는 적어도 하나 이상의 프로세서(120, 310) 및 통신 모듈(190)을 포함할 수 있다. 상기 적어도 하나의 프로세서(120, 310)는, 미리 설정된 사용자의 청력 특성(330)을 기반으로 가청 주파수 대역을 분할하는 분할 가청 주파수 대역 별로 양자화 비트 수를 획득하고, 오디오 컨텐츠의 재생에 의해 출력되는 오디오 신호(320)로부터 추출된 분할 가청 주파수 대역 별 오디오 신호에 대응되는 양자화 비트 수를 사용하여 양자화를 수행하고, 상기 분할 가청 주파수 대역 별로 양자화된 오디오 신호를 하나의 비트 스트림(340)으로 생성하여 무선 채널을 통해 제2 전자 장치(102)로 전송할 수 있다.The first electronic device 101 according to an embodiment of the present disclosure may include at least one processor 120 or 310 and a communication module 190. The at least one processor 120, 310 obtains the number of quantization bits for each divided audible frequency band that divides the audible frequency band based on the preset hearing characteristics of the user 330, and outputs by playing the audio content. Quantization is performed using the number of quantization bits corresponding to the audio signal for each divided audible frequency band extracted from the audio signal 320, and the quantized audio signal for each divided audible frequency band is generated as one bit stream 340. It can be transmitted to the second electronic device 102 through a wireless channel.
본 개시의 일 실시예에 따른 제1 전자 장치(101)에서 상기 적어도 하나의 프로세서(120, 310)는, 상기 사용자를 대상으로 상기 분할 가청 주파수 대역 별 청력 측정을 수행하여 상기 사용자의 청력 특성(330)을 설정할 수 있다.In the first electronic device 101 according to an embodiment of the present disclosure, the at least one processor 120, 310 performs hearing measurement for each divided audible frequency band on the user to determine the user's hearing characteristics ( 330) can be set.
본 개시의 일 실시예에 따른 제1 전자 장치(101)에서 상기 적어도 하나의 프로세서(120, 310)는, 상기 미리 설정된 사용자의 청력 특성(330)을 반영하여 상기 분할 가청 주파수 대역 별 양자화 비트 수가 갱신된 양자화 비트 할당 테이블을 생성할 수 있다.In the first electronic device 101 according to an embodiment of the present disclosure, the at least one processor 120 or 310 determines the number of quantization bits for each divided audible frequency band by reflecting the preset hearing characteristics 330 of the user. An updated quantization bit allocation table can be created.
본 개시의 일 실시예에 따른 제1 전자 장치(101)에서 상기 적어도 하나의 프로세서(120, 310)는, 생성된 복수의 양자화 비트 할당 테이블 중 하나의 양자화 비트 할당 테이블을 선택할 수 있다.In the first electronic device 101 according to an embodiment of the present disclosure, the at least one processor 120 or 310 may select one quantization bit allocation table from a plurality of generated quantization bit allocation tables.
본 개시의 일 실시예에 따른 제1 전자 장치(101)에서 상기 적어도 하나의 프로세서(120, 310)는, 상기 분할 가청 주파수 대역 별로 양자화된 오디오 신호에 대해 무손실 부호화 할 수 있다.In the first electronic device 101 according to an embodiment of the present disclosure, the at least one processor 120 or 310 may perform lossless encoding on the quantized audio signal for each divided audible frequency band.
본 개시의 일 실시예에 따른 제2 전자 장치(102)는 적어도 하나 이상의 프로세서(610) 및 통신 모듈을 포함할 수 있다. 상기 적어도 하나 이상의 프로세서(610)는, 제1 전자 장치(101)로부터 수신한 비트 스트림(340, 620)을 분석하고, 상기 비트 스트림(340, 620)에 포함된 분할 가청 주파수 대역 별 역 양자화 비트 수를 획득하고, 상기 역 양자화 비트 수를 사용하여 가청 주파수 대역 별로 상기 비트 스트림(340, 620)에 대한 역 양자화를 수행하고, 상기 역 양자화로 생성된 오디오 신호(640)를 출력할 수 있다.The second electronic device 102 according to an embodiment of the present disclosure may include at least one processor 610 and a communication module. The at least one processor 610 analyzes the bit streams 340 and 620 received from the first electronic device 101 and inverse quantization bits for each divided audible frequency band included in the bit streams 340 and 620. A number may be obtained, inverse quantization may be performed on the bit streams 340 and 620 for each audible frequency band using the inverse quantization bit number, and an audio signal 640 generated by the inverse quantization may be output.
본 개시의 일 실시예에 따른 제2 전자 장치(102)에서 상기 역 양자화 비트 수는 상기 제1 전자 장치(101)가 오디오 신호(320)의 양자화를 수행하는 데 사용한 가청 주파수 대역 별 양자화 비트 수에 대응될 수 있다.In the second electronic device 102 according to an embodiment of the present disclosure, the number of inverse quantization bits is the number of quantization bits for each audible frequency band used by the first electronic device 101 to quantize the audio signal 320. can correspond to .
본 개시의 일 실시예에 따른 제2 전자 장치(102)의 적어도 하나 이상의 프로세서(610)는, 상기 제1 전자 장치(101)로 역 양자화 수행에 필요한 사용자의 청력 특성에 관한 정보(330, 630)를 요청할 수 있다.At least one processor 610 of the second electronic device 102 according to an embodiment of the present disclosure may provide information 330, 630 about the user's hearing characteristics necessary to perform inverse quantization with the first electronic device 101. ) can be requested.
본 개시의 일 실시예에 따른 제2 전자 장치(102)의 적어도 하나 이상의 프로세서(610)는, 제1 전자 장치(101)로부터 미리 설정된 사용자의 청력 특성에 관한 정보(330, 630)를 획득하고, 상기 획득한 정보로부터 분할 가청 주파수 대역 별 역 양자화 비트 할당 테이블을 생성할 수 있다.At least one processor 610 of the second electronic device 102 according to an embodiment of the present disclosure obtains information 330 and 630 about the user's preset hearing characteristics from the first electronic device 101, , an inverse quantization bit allocation table for each segmented audible frequency band can be generated from the obtained information.
본 개시의 일 실시예에 따른 전자 장치(101, 102)는 통신 환경을 고려하여 양자화 모델을 선택하여 오디오 신호(320, 630)에 대한 양자화 또는 역 양자화를 할 수 있다.The electronic devices 101 and 102 according to an embodiment of the present disclosure may quantize or inverse quantize the audio signals 320 and 630 by selecting a quantization model in consideration of the communication environment.
본 개시의 일 실시예에 따른 전자 장치(101, 102)는 사용자의 청력 데이터(330, 630)를 기반으로 오디오 신호(320, 630)의 양자화 또는 역 양자화 시 발생하는 양자화 노이즈를 최소화하여 최적의 음질로 오디오 신호를 제공할 수 있다.The electronic devices 101 and 102 according to an embodiment of the present disclosure minimize the quantization noise generated when quantizing or inverse quantizing the audio signals 320 and 630 based on the user's hearing data 330 and 630, thereby providing optimal It can provide audio signals with sound quality.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to various embodiments disclosed in this document may be of various types. Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances. Electronic devices according to embodiments of this document are not limited to the above-described devices.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.The various embodiments of this document and the terms used herein are not intended to limit the technical features described in this document to specific embodiments, but should be understood to include various changes, equivalents, or replacements of the embodiments. In connection with the description of the drawings, similar reference numbers may be used for similar or related components. The singular form of a noun corresponding to an item may include one or more of the above items, unless the relevant context clearly indicates otherwise. As used herein, “A or B”, “at least one of A and B”, “at least one of A or B”, “A, B or C”, “at least one of A, B and C”, and “A Each of phrases such as “at least one of , B, or C” may include any one of the items listed together in the corresponding phrase, or any possible combination thereof. Terms such as "first", "second", or "first" or "second" may be used simply to distinguish one component from another, and to refer to those components in other respects (e.g., importance or order) is not limited. One (e.g., first) component is said to be “coupled” or “connected” to another (e.g., second) component, with or without the terms “functionally” or “communicatively.” Where mentioned, it means that any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term “module” used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. It can be used as A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운용되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document are one or more instructions stored in a storage medium (e.g., built-in memory 136 or external memory 138) that can be read by a machine (e.g., electronic device 101). It may be implemented as software (e.g., program 140) including these. For example, a processor (e.g., processor 120) of a device (e.g., electronic device 101) may call at least one command among one or more commands stored from a storage medium and execute it. This allows the device to be operated to perform at least one function according to the at least one instruction called. The one or more instructions may include code generated by a compiler or code that can be executed by an interpreter. A storage medium that can be read by a device may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is stored semi-permanently in the storage medium. There is no distinction between temporary storage cases.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, methods according to various embodiments disclosed in this document may be included and provided in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. The computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online. In the case of online distribution, at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components. there is. According to various embodiments, one or more of the components or operations described above may be omitted, or one or more other components or operations may be added. Alternatively or additionally, multiple components (eg, modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component of the plurality of components prior to the integration. . According to various embodiments, operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, or omitted. Alternatively, one or more other operations may be added.

Claims (15)

  1. 미리 설정된 사용자의 청력 특성을 기반으로 가청 주파수 대역을 분할하는 분할 가청 주파수 대역 별로 양자화 비트 수를 획득하는 동작(410);An operation 410 to obtain the number of quantization bits for each divided audible frequency band by dividing the audible frequency band based on the preset hearing characteristics of the user (410);
    오디오 컨텐츠의 재생에 의해 출력되는 오디오 신호(320)로부터 추출된 분할 가청 주파수 대역 별 오디오 신호에 대응되는 양자화 비트 수를 사용하여 양자화를 수행하는 동작(420); 및An operation 420 of performing quantization using the number of quantization bits corresponding to the audio signal for each divided audible frequency band extracted from the audio signal 320 output by playing audio content; and
    상기 분할 가청 주파수 대역 별로 양자화된 오디오 신호를 비트 스트림(340)으로 생성하여 무선 채널을 통해 외부 전자 장치(102)로 전송하는 동작(430)을 포함하는, 방법.A method comprising an operation (430) of generating a quantized audio signal for each divided audible frequency band as a bit stream (340) and transmitting it to an external electronic device (102) through a wireless channel.
  2. 제1항에 있어서,According to paragraph 1,
    상기 사용자를 대상으로 상기 분할 가청 주파수 대역 별 청력 측정을 수행하여 상기 사용자의 청력 특성(330)을 설정하는 동작을 포함하는, 방법.A method comprising setting hearing characteristics (330) of the user by performing hearing measurement for each divided audible frequency band on the user.
  3. 제1항에 있어서,According to paragraph 1,
    상기 미리 설정된 사용자의 청력 특성(330)을 반영하여 상기 분할 가청 주파수 대역 별 양자화 비트 수가 갱신된 양자화 비트 할당 테이블을 생성하는 동작(530); 및An operation 530 of generating a quantization bit allocation table in which the number of quantization bits for each divided audible frequency band is updated by reflecting the preset hearing characteristics of the user 330; and
    생성된 복수의 양자화 비트 할당 테이블 중 하나의 양자화 비트 할당 테이블을 선택하는 동작(530, 540)을 포함하는, 방법.A method comprising the operations (530, 540) of selecting one quantization bit allocation table from among the plurality of generated quantization bit allocation tables.
  4. 제1항에 있어서,According to paragraph 1,
    상기 분할 가청 주파수 대역 별로 양자화된 오디오 신호에 대해 무손실 부호화 하는 동작을 포함하는, 방법.A method comprising losslessly encoding the quantized audio signal for each divided audible frequency band.
  5. 외부 전자 장치(101)로부터 수신한 비트 스트림(340, 620)을 분석하는 동작(710, 820);Operations 710 and 820 of analyzing bit streams 340 and 620 received from the external electronic device 101;
    상기 비트 스트림에 포함된 분할 가청 주파수 대역 별 역 양자화 비트 수를 획득하는 동작(720);An operation 720 of obtaining the number of inverse quantization bits for each divided audible frequency band included in the bit stream;
    상기 역 양자화 비트 수를 사용하여 가청 주파수 대역 별로 상기 비트 스트림(340, 620)에 대한 역 양자화를 수행하는 동작(730) 및;An operation 730 of performing inverse quantization on the bit streams 340 and 620 for each audible frequency band using the number of inverse quantization bits;
    상기 역 양자화로 생성된 오디오 신호(640)를 출력하는 동작(740)을 포함하는, 방법.A method comprising an operation (740) of outputting an audio signal (640) generated by the inverse quantization.
  6. 제5항에 있어서,According to clause 5,
    상기 역 양자화 비트 수는, The number of inverse quantization bits is,
    상기 외부 전자 장치(101)가 오디오 신호(320)의 양자화를 수행하는데 사용한 가청 주파수 대역 별 양자화 비트 수에 대응되는, 방법.A method corresponding to the number of quantization bits for each audible frequency band used by the external electronic device 101 to quantize the audio signal 320.
  7. 제5항에 있어서,According to clause 5,
    상기 외부 장치(101)로 역 양자화 수행에 필요한 사용자의 청력 특성(630)에 관한 정보를 요청하는 동작을 포함하는, 방법.A method comprising requesting information about the user's hearing characteristics (630) necessary to perform inverse quantization from the external device (101).
  8. 제7항에 있어서,In clause 7,
    외부 전자 장치(101)로부터 미리 설정된 사용자의 청력 특성에 관한 정보(630)를 획득하는 동작 및An operation of acquiring information 630 about the hearing characteristics of a preset user from the external electronic device 101 and
    상기 획득한 정보(630)로부터 분할 가청 주파수 대역 별 역 양자화 비트 할당 테이블을 생성하는 동작을 포함하는, 방법.A method comprising generating an inverse quantization bit allocation table for each divided audible frequency band from the obtained information 630.
  9. 오디오 신호를 전송하기 위한 전자 장치(101)는,The electronic device 101 for transmitting an audio signal is:
    적어도 하나 이상의 프로세서(120, 310) 및 통신 모듈(190)을 포함하고,Includes at least one processor (120, 310) and a communication module (190),
    상기 적어도 하나 이상의 프로세서(120, 310)는,The at least one processor 120, 310,
    미리 설정된 사용자의 청력 특성(330)을 기반으로 가청 주파수 대역을 분할하는 분할 가청 주파수 대역 별로 양자화 비트 수를 획득하고,Obtaining the number of quantization bits for each divided audible frequency band that divides the audible frequency band based on the user's preset hearing characteristics (330),
    오디오 컨텐츠의 재생에 의해 출력되는 오디오 신호로부터 추출된 분할 가청 주파수 대역 별 오디오 신호에 대응되는 양자화 비트 수를 사용하여 양자화를 수행하고,Quantization is performed using the number of quantization bits corresponding to the audio signal for each divided audible frequency band extracted from the audio signal output by playing audio content,
    상기 분할 가청 주파수 대역 별로 양자화된 오디오 신호를 하나의 비트 스트림(340)으로 생성하여 무선 채널을 통해 외부 전자 장치(102)로 전송하는, 전자 장치(101).The electronic device 101 generates a quantized audio signal for each divided audible frequency band as one bit stream 340 and transmits it to the external electronic device 102 through a wireless channel.
  10. 제9항에 있어서, 상기 적어도 하나 이상의 프로세서(120, 310)는,The method of claim 9, wherein the at least one processor (120, 310):
    상기 사용자를 대상으로 상기 분할 가청 주파수 대역 별 청력 측정을 수행하여 상기 사용자의 청력 특성(330)을 설정하는, 전자 장치(101).An electronic device (101) that sets hearing characteristics (330) of the user by performing hearing measurement for each divided audible frequency band on the user.
  11. 제9항에 있어서, 상기 적어도 하나 이상의 프로세서(120, 310)는,The method of claim 9, wherein the at least one processor (120, 310):
    상기 미리 설정된 사용자의 청력 특성(330)을 반영하여 상기 분할 가청 주파수 대역 별 양자화 비트 수가 갱신된 양자화 비트 할당 테이블을 생성하고,Generating a quantization bit allocation table in which the number of quantization bits for each divided audible frequency band is updated by reflecting the preset hearing characteristics 330 of the user,
    생성된 복수의 양자화 비트 할당 테이블 중 하나의 양자화 비트 할당 테이블을 선택하는, 전자 장치(101). The electronic device 101 selects one quantization bit allocation table from among the plurality of generated quantization bit allocation tables.
  12. 제9항에 있어서, 상기 적어도 하나 이상의 프로세서(120, 310)는,The method of claim 9, wherein the at least one processor (120, 310):
    상기 분할 가청 주파수 대역 별로 양자화된 오디오 신호에 대해 무손실 부호화 하는, 전자 장치(101).An electronic device (101) that performs lossless encoding on the quantized audio signal for each divided audible frequency band.
  13. 오디오 신호를 출력하기 위한 전자 장치(102)는,The electronic device 102 for outputting an audio signal,
    적어도 하나 이상의 프로세서(610); 및At least one processor 610; and
    통신 모듈을 포함하고,Includes a communication module,
    상기 적어도 하나 이상의 프로세서(610)는,The at least one processor 610,
    외부 전자 장치(101)로부터 수신한 비트 스트림을 분석하고,Analyzing the bit stream received from the external electronic device 101,
    상기 비트 스트림(340, 620)에 포함된 분할 가청 주파수 대역 별 역 양자화 비트 수를 획득하고,Obtaining the number of inverse quantization bits for each divided audible frequency band included in the bit streams 340 and 620,
    상기 역 양자화 비트 수를 사용하여 가청 주파수 대역 별로 상기 비트 스트림(340, 620)에 대한 역 양자화를 수행하고,Perform inverse quantization on the bit streams 340 and 620 for each audible frequency band using the number of inverse quantization bits,
    상기 역 양자화로 생성된 오디오 신호(640)를 출력하는, 전자 장치(102).An electronic device 102 that outputs an audio signal 640 generated by the inverse quantization.
  14. 제13항에 있어서, According to clause 13,
    상기 역 양자화 비트 수는, The number of inverse quantization bits is,
    상기 외부 전자 장치(101)가 오디오 신호의 양자화를 수행하는 데 사용한 가청 주파수 대역 별 양자화 비트 수에 대응되는, 전자 장치(102).An electronic device 102 corresponding to the number of quantization bits for each audible frequency band used by the external electronic device 101 to quantize an audio signal.
  15. 제13항에 있어서, 상기 적어도 하나 이상의 프로세서(610)는,The method of claim 13, wherein the at least one processor 610:
    상기 외부 전자 장치(101)로 역 양자화 수행에 필요한 사용자의 청력 특성에 관한 정보(330, 630)를 요청하고,Request information (330, 630) about the user's hearing characteristics necessary to perform inverse quantization from the external electronic device (101),
    상기 외부 전자 장치(101)로부터 미리 설정된 사용자의 청력 특성에 관한 정보(330, 630)를 획득하고,Obtain information (330, 630) about the user's hearing characteristics preset from the external electronic device (101),
    상기 획득한 정보(330, 630)로부터 분할 가청 주파수 대역 별 역 양자화 비트 할당 테이블을 생성하는, 전자 장치(102).An electronic device (102) that generates an inverse quantization bit allocation table for each divided audible frequency band from the obtained information (330, 630).
PCT/KR2023/015590 2022-10-14 2023-10-11 Electronic device and method for processing audio signal WO2024080723A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20220132769 2022-10-14
KR10-2022-0132769 2022-10-14
KR10-2022-0161912 2022-11-28
KR1020220161912A KR20240052588A (en) 2022-10-14 2022-11-28 Apparatus and method for processing an audio signal

Publications (1)

Publication Number Publication Date
WO2024080723A1 true WO2024080723A1 (en) 2024-04-18

Family

ID=90669887

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/015590 WO2024080723A1 (en) 2022-10-14 2023-10-11 Electronic device and method for processing audio signal

Country Status (1)

Country Link
WO (1) WO2024080723A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08125543A (en) * 1994-10-28 1996-05-17 Sony Corp Method/device for compressing digital signal and recording medium
JPH08237209A (en) * 1994-12-27 1996-09-13 Sony Corp Digital audio signal processor
JP2000295110A (en) * 1999-04-06 2000-10-20 Matsushita Electric Ind Co Ltd Audio signal encoder
KR20060070693A (en) * 2004-12-21 2006-06-26 삼성전자주식회사 Low bitrate encoding/decoding method and apparatus
KR20220048252A (en) * 2020-10-12 2022-04-19 한국전자통신연구원 Method and apparatus for encoding and decoding of audio signal using learning model and methos and apparatus for trainning the learning model

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08125543A (en) * 1994-10-28 1996-05-17 Sony Corp Method/device for compressing digital signal and recording medium
JPH08237209A (en) * 1994-12-27 1996-09-13 Sony Corp Digital audio signal processor
JP2000295110A (en) * 1999-04-06 2000-10-20 Matsushita Electric Ind Co Ltd Audio signal encoder
KR20060070693A (en) * 2004-12-21 2006-06-26 삼성전자주식회사 Low bitrate encoding/decoding method and apparatus
KR20220048252A (en) * 2020-10-12 2022-04-19 한국전자통신연구원 Method and apparatus for encoding and decoding of audio signal using learning model and methos and apparatus for trainning the learning model

Similar Documents

Publication Publication Date Title
WO2018056624A1 (en) Electronic device and control method thereof
WO2019045474A1 (en) Method and device for processing audio signal using audio filter having non-linear characteristics
WO2017039422A2 (en) Signal processing methods and apparatuses for enhancing sound quality
WO2021118107A1 (en) Audio output apparatus and method of controlling thereof
WO2022154546A1 (en) Wearable device for performing automatic volume control
WO2022154363A1 (en) Audio device for processing audio data and operating method thereof
WO2021118106A1 (en) Electronic apparatus and controlling method thereof
WO2024080723A1 (en) Electronic device and method for processing audio signal
WO2019083125A1 (en) Method for processing audio signal and electronic device for supporting the same
WO2015147434A1 (en) Apparatus and method for processing audio signal
WO2021221440A1 (en) Method for enhancing sound quality, and device therefor
WO2019199040A1 (en) Method and device for processing audio signal, using metadata
WO2022119194A1 (en) Electronic device and multichannel audio output method using same
WO2022154641A1 (en) Method and device for synchronizing audio signal and video signal of multimedia content
WO2022231135A1 (en) Method for outputting audio signal, and electronic device for performing same
WO2022186470A1 (en) Audio processing method and electronic device including same
WO2023090726A1 (en) Electronic device for performing audio streaming and operating method thereof
WO2023096231A1 (en) Electronic device and sink device for transmitting or receiving audio packet and operation methods thereof
WO2024106830A1 (en) Phonebook-based voiceprint operating method and electronic device supporting same
WO2024085551A1 (en) Electronic device and method for packet loss concealment
KR20240052588A (en) Apparatus and method for processing an audio signal
WO2024080590A1 (en) Electronic device and method for detecting signal error
WO2022197151A1 (en) Electronic device for listening to external sound and operating method of electronic device
WO2024080597A1 (en) Electronic device and method for adaptively processing audio bitstream, and non-transitory computer-readable storage medium
WO2023163427A1 (en) Method and device for adjusting volume of electronic device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23877650

Country of ref document: EP

Kind code of ref document: A1