WO2021241864A1 - Method for correcting characteristics of microphone and electronic device thereof - Google Patents

Method for correcting characteristics of microphone and electronic device thereof Download PDF

Info

Publication number
WO2021241864A1
WO2021241864A1 PCT/KR2021/003351 KR2021003351W WO2021241864A1 WO 2021241864 A1 WO2021241864 A1 WO 2021241864A1 KR 2021003351 W KR2021003351 W KR 2021003351W WO 2021241864 A1 WO2021241864 A1 WO 2021241864A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
information
microphone
processor
electronic device
Prior art date
Application number
PCT/KR2021/003351
Other languages
French (fr)
Korean (ko)
Inventor
정재천
이경록
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2021241864A1 publication Critical patent/WO2021241864A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/08Mouthpieces; Microphones; Attachments therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/003Mems transducers or their use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/11Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's

Definitions

  • Embodiments disclosed in this document relate to a microphone included in an electronic device.
  • a signal length between a processor and a microphone varies according to the size, shape, and number of microphones of the terminal.
  • the processor of the electronic device transmits a clock signal CLK to the microphone while changing the driving strength. Meanwhile, the microphone may transmit data corresponding to the signal to the processor as a fixed current value to perform communication.
  • the processor of the electronic device may adjust the current for providing the clock signal CLK by adjusting the drive strength, but the microphone cannot adjust the current for providing the signal. Therefore, depending on the size and shape of the terminal, the parasitic capacitance changes as the signal length between the microphone and the processor changes, and even if the microphone signal is deteriorated, it cannot be flexibly responded and it is not easy to improve it.
  • the electronic device may include at least one microphone and a processor electrically connected to the at least one microphone and controlling an audio gain of the first microphone.
  • the processor provides first information about a first signal to the at least one microphone, the at least one microphone generates the first signal based on the first information, and in response to the generation of the first signal to generate second information about a second signal based on the analog signal obtained by the at least one microphone, and provide information about the second signal to the processor, wherein the processor includes: the first information and the The audio gain of the at least one microphone may be changed based on the second information.
  • the processor provides first information about a first signal to a first microphone, and the first information based on the obtained first information generating a first signal through a microphone, generating a second signal based on an analog signal obtained by the microphone in response to generation of the first signal, generating second information about the second signal,
  • the method may include providing the second information to a processor and controlling the audio gain of the first microphone to be changed based on the first information and the second information.
  • the electronic device includes at least one microphone including a first microphone, electrically connected to the at least one microphone, and controls driving strength and audio gain of the at least one microphone. It may include a processor that wherein the processor provides first information about a first signal to the at least one microphone, the at least one microphone generates the first signal based on the information, and in response to the generation of the first signal, Generates a second signal based on the analog signal acquired through the microphone, and provides information about the second signal to the processor, wherein the processor receives the first information about the first signal and the provided second signal At least one of a first parameter corresponding to the driving strength of the at least one microphone and a second parameter corresponding to the audio gain may be changed based on the second information about the at least one microphone.
  • the processor may adjust drive strength to reduce current consumption and improve audio signal quality.
  • the processor may be adjusted to improve the gain of the microphone.
  • the user's convenience in using audio may be improved by reducing a gain difference between the audio signal input or output of the electronic device.
  • FIG 1 illustrates an electronic device according to an embodiment.
  • FIG. 2 is a diagram illustrating an internal configuration of a foldable electronic device according to an exemplary embodiment.
  • FIG. 3 is a configuration diagram of a microphone and a processor according to an embodiment.
  • FIG. 4 is an operation flowchart illustrating a process in which a microphone and a processor perform communication according to an embodiment.
  • FIG. 5 is a diagram illustrating a process of calibrating a microphone using an external speaker according to an exemplary embodiment.
  • FIG. 6 is a flowchart illustrating a process in which a microphone receives first information and generates second information according to an exemplary embodiment.
  • FIG. 7 is an operation flowchart illustrating a process in which a processor corrects characteristics of a microphone according to an exemplary embodiment.
  • FIG. 8 is a diagram illustrating input and output performance of a microphone in an audible frequency band according to an embodiment.
  • FIG. 9 is a diagram illustrating input and output performance of a microphone in an ultrasonic band according to an exemplary embodiment.
  • FIG. 10 is a diagram illustrating performance of a microphone as a transceiver in an ultrasonic band according to an embodiment.
  • FIG. 11 is a diagram illustrating tuning of driving strength and audio gain in an electronic device according to an exemplary embodiment.
  • FIG. 12 is a block diagram of an electronic device in a network environment, according to various embodiments of the present disclosure.
  • FIG 1 illustrates an electronic device 100 according to an embodiment.
  • the electronic device 100 includes a display 140 , a housing 150 , a plurality of microphones (eg, 111 , 113 , 115 ), a speaker 131 , a receiver 133 , and a first function key 162 . ), a second function key 164 may be included.
  • some components may be omitted or additional components may be further included.
  • some of the components are combined to form a single entity, and functions of the components prior to the combination may be identically performed.
  • the housing 150 may fix or embed the display 140 , a plurality of microphones (eg, 111 , 113 , 115 ), the receiver 133 , and the speaker 131 .
  • the housing 150 may include a front housing, a rear housing, and a side housing. At least one opening for exposing the plurality of microphones (eg, 111 , 113 , 115 ), the speaker 131 or the receiver 133 may be disposed in at least one of the front, rear, or side housing of the housing 150 . have.
  • the display 140 may be exposed through the front surface of the housing 150 .
  • the display 140 may include a backlight, a display panel, a touch sensor, a pressure sensor, a fingerprint sensor, and the like.
  • the receiver 133 may be disposed in the first area of the housing, for example, on the upper portion of the housing.
  • the speaker 131 may be disposed in the second area of the housing 150 , for example, under the housing.
  • the electronic device 100 includes a plurality of microphones (eg, 111, 113, and 115), and the plurality of microphones (eg, 111, 113, and 115) are provided on the front, side, or rear of the housing. can be placed.
  • the electronic device 100 may include the processor 120 inside the electronic device 100 .
  • the processor 120 may be electrically connected to a plurality of microphones (eg, 111 , 113 , 115 ) and a communication circuit. Distances between the processor 120 and the microphones (eg, 111 , 113 , and 115 ) may be different.
  • the processor 120 may provide a clock signal CLK to a plurality of microphones (eg, 111 , 113 , and 115 ).
  • a plurality of microphones may be disposed in a portion of the housing.
  • the second microphone 113 and the third microphone 115 are disposed close to the speaker 131
  • the second microphone 113 is the first of the housing 150 when viewed from the front of the display 140 .
  • the third microphone 115 may be biased toward the second side of the housing 150 when viewed from the front of the display 140 .
  • the first microphone 111 may be disposed close to the receiver 133 .
  • the positions of the microphones are merely exemplary and are not limited thereto.
  • At least one physical key may be disposed on a side portion of the electronic device 100 .
  • the first function key 162 for turning on/off the display or turning on/off the power of the electronic device 100 may be disposed on the right edge with respect to the front surface of the electronic device 100 .
  • the second function key 164 for controlling the volume or screen brightness of the electronic device 100 may be disposed on the left edge with respect to the front surface of the electronic device 100 .
  • additional buttons or keys may be disposed on the front or rear of the electronic device 100 .
  • a physical button or a touch button mapped to a specific function may be disposed in a lower region of the front bezel.
  • FIG. 2 is a diagram 200 illustrating an internal configuration of a foldable electronic device according to an exemplary embodiment.
  • the electronic device 100 may be implemented as a foldable electronic device including a flexible display, and the electronic device 100 may include a first housing 201 and a second housing 203 .
  • the second housing 203 may be rotatably connected to the first housing 201 with respect to the folding shaft 250 .
  • the first housing 201 and the second housing 203 may have an overall symmetrical shape with respect to the folding axis 250 .
  • the second housing 203 may be rotated (or rotated) with respect to the first housing 201 so that the first housing 201 and the second housing 203 may face each other.
  • the processor 120 may include at least one of an application processor, a communication processor, a codec 210 , and a memory 310 , and may have a plurality of cores.
  • the codec 210 and the memory 310 may be disposed separately from the processor 120 and may be electrically connected to the processor 120 .
  • the processor 120 may control at least one other component or execute a communication-related operation or data processing.
  • the processor 120 may be implemented the same as or at least a part of the processor (the processor 1220 of FIG. 12 ).
  • the processor 120 may control the codec to output a signal of a specified frequency band.
  • the signal of the designated frequency band may be a signal of a constant magnitude or a signal of a non-uniform magnitude.
  • the non-uniform signal may include, for example, at least one of a sine wave, a square wave, or a sawtooth wave.
  • the codec 210 may be disposed in the same housing as the microphones (eg, 111 , 113 , and 115 ).
  • the first microphone 111 to the third microphone 115 may be disposed in the first housing 201 , and the codec 210 may also be disposed in the first housing 201 .
  • the first microphone 111 to the third microphone 115 may be disposed in the second housing 203 , and the codec 210 may also be disposed in the second housing 203 .
  • the codec 210 may be disposed in a different housing than the microphones (eg, 111 , 113 , 115 ).
  • the first microphone 111 to the third microphone 115 may be disposed in the first housing 201
  • the codec 210 may be disposed in the second housing 203 .
  • the first microphone 111 to the third microphone 115 may be disposed in the second housing 203
  • the codec 210 may be disposed in the first housing 201 .
  • the codec 210 may be electrically connected to a plurality of microphones (eg, 111 , 113 , and 115 ).
  • the codec 210 and the signal length 220 between the microphones may be different.
  • the signal length between the codec 210 and the first microphone 111 may be the first length.
  • a signal length between the codec 210 and the second microphone 113 may be a second length.
  • a signal length between the codec 210 and the third microphone 115 may be a third length.
  • the battery 230 may be disposed in the first housing 201 or the second housing 203 , and both the first housing 201 and the second housing 203 may be disposed.
  • the battery 230 may supply current consumed to transmit a signal from the microphone 110 to the codec 210 or the processor 120 , and transmit a signal from the codec 210 or the processor 120 to the microphone 110 . It can supply the consumed current.
  • the microphone 110 may be disposed in both the first housing 201 and the second housing 203 .
  • the first microphone 111 may be disposed in the first housing
  • the second microphone 113 and the third microphone 115 may be disposed in the second housing.
  • the first microphone 111 and the second microphone 113 may be disposed in the first housing 201
  • the third microphone 115 may be disposed in the second housing 203 .
  • FIG. 3 is a block diagram 300 of the microphone 110 and the processor 120 according to an embodiment.
  • the processor 120 may include at least one of a digital signal processor (DSP) 305 and a memory 310 .
  • DSP 305 or memory 310 may be disposed separately from processor 120 .
  • the processor 120 may be implemented the same as or at least a part of the processor (the processor 1220 of FIG. 12 ).
  • the at least one microphone comprises a SWR soundwire interface (I/F) 315 , a signal controller 320 , a signal generator 325 , and a micro electro mechanical systems (MEMS) 330 .
  • I/F soundwire interface
  • MEMS micro electro mechanical systems
  • charge pump 335
  • PGA pre gain amplifier
  • ADC analog to digital converter
  • digital gain amplifier 350
  • PDM I/F pulse density modulation interface
  • the memory 310 may store first information about a first signal (eg, a pilot tone).
  • the first information stored in the memory 310 may be provided to the microphone 110 through the codec 210 , and the first information may be obtained from the microphone 110 through a soundwire (SWR) interface 315 .
  • the interface 315 may be implemented as an inter integrated circuit (I2C).
  • the first information may include at least one of an amplitude, a frequency, a waveform, or a magnitude value of the first signal.
  • the signal generator 325 may generate a first signal based on the first information.
  • the signal generator 325 may be electrically connected to the MEMS 330 , and may transmit the generated first signal to the MEMS 330 .
  • the first signal may mean a pilot signal generated through the signal generator 325 .
  • the MEMS 330 may serve as a transceiver.
  • the MEMS 330 may perform at least one of transmission and reception.
  • the MEMS 330 may vibrate the diaphragm by receiving the first signal, and may output a signal in response to the vibration.
  • the MEMS 330 may obtain a signal in which the output signal is reflected.
  • the charge pump 335 is electrically connected to the MEMS 330 and may be configured to increase or decrease a voltage in the MEMS 330 .
  • the PGA 340 may receive a signal obtained through the MEMS 330 to amplify the signal strength.
  • the obtained signal is a signal corresponding to the first signal, and may be a pilot signal input to the microphone 110 .
  • the ADC 345 may convert an analog signal into a digital signal.
  • the ADC 345 may convert at least one of a signal obtained by externally reflecting a signal output from the MEMS 330 or a signal obtained by outputting an external speaker into a digital signal.
  • the digital gain amplifier 350 may amplify a digital signal converted by the ADC 345 .
  • the microphone 110 may not amplify the digital signal.
  • the processor 120 determines that it is necessary to change the audio gain, the microphone 110 may amplify the digital signal through the signal conditioner 320 .
  • the processor 120 determines that the audio gain should be amplified by the first intensity, the microphone 110 may amplify the digital signal by the first intensity in the digital gain amplifier 350 .
  • the amplified digital signal may be stored in the buffer 360 through the PDM interface 355 .
  • the buffer 360 may receive a set value for drive strength by the signal conditioner 320 .
  • the buffer 360 may apply the set value for the driving strength to the amplified digital signal.
  • the buffer 360 may transmit information about the stored digital signal to the processor 120 .
  • FIG. 4 is an operation flowchart 400 illustrating a process in which a microphone and a processor perform communication according to an embodiment.
  • the processor 120 may provide first information about a first signal (eg, a pilot signal) to the microphone.
  • the processor 120 may provide the first information to the microphone through a soundwire (SWR) interface.
  • the first information may include at least one of an amplitude, a frequency, a waveform, or a magnitude value of the first signal.
  • the microphone 110 may generate a first signal based on the first information obtained from the processor 120 .
  • a signal generator eg, the signal generator 325 of FIG. 3
  • the first signal may be a pilot signal.
  • the pilot signal may be a signal using a specific frequency band.
  • the specific frequency band may mean a band of about 7 kHz to about 10 kHz or about 50 kHz.
  • the microphone 110 may acquire an analog signal in response to the generation of the first signal.
  • the first signal may be referred to as a pilot signal.
  • the first signal may be transmitted to a MEMS (eg, MEMS 330 of FIG. 3 ) diaphragm.
  • the microphone 110 may generate an analog signal by vibrating the diaphragm included in the MEMS 330 through the transmitted first signal.
  • the microphone 110 may output the generated analog signal to the outside.
  • the microphone may generate second information about the second signal based on the obtained analog signal.
  • the second information may include at least one of an amplitude, a frequency, a waveform, or a magnitude value of the second signal.
  • the acquired analog signal may be a signal returned by reflecting an analog signal output through the MEMS 330 (eg, an analog signal generated based on a pilot signal).
  • the analog signal may have a sinusoidal wave shape or a square wave shape.
  • the analog signal may be a signal of a certain intensity in a specific frequency band.
  • the PGA 340 may amplify the second signal generated in response to the vibration of the diaphragm included in the MEMS 330 .
  • the ADC 345 may convert the amplified second signal into a digital signal.
  • the digital gain amplifier 350 may amplify the converted digital signal.
  • the signal conditioner 320 may control the amplification value of the digital signal. For example, the signal conditioner 320 may adjust the digital signal based on the difference in audio gain through comparison of the intensity value (or amplitude value) for the first signal and the intensity value (or amplitude value) for the second signal. You can control the amplification value.
  • the microphone 110 may provide the second information.
  • the microphone 110 may provide second information about the second signal to the processor 120 .
  • the microphone 110 may temporarily store the second information in the buffer 360 before providing the second information to the processor 120 .
  • the processor 120 may control to change the audio gain based on the first information and the second information.
  • the processor 120 may compare the intensity value (or amplitude value) of the first signal and the intensity value (or amplitude value) of the second signal.
  • the processor may control to change the audio gain when the difference between the audio gain values exceeds a preset range through the comparison.
  • the processor 120 may control to change the audio gain by comparing the first information stored in the memory 310 with the second information input to the processor 120 .
  • FIG. 5 is a diagram 500 illustrating a process of calibrating a microphone using an external speaker according to an exemplary embodiment.
  • FIG. 5 may show a process of calibrating a microphone through a signal output from the external speaker 505 .
  • the external speaker 505 may be a speaker of the electronic device 100 .
  • the signal generator 325 and the MEMS 330 output portion may be omitted.
  • the omitted signal generator and MEMS 330 output portion may be replaced with an external speaker 505 or a speaker 131 of the electronic device 100 .
  • the external speaker 505 when the pilot signal is output from the external speaker 505, the external speaker 505 may be located in a direction facing the microphone.
  • the external speaker 505 may be disposed in a direction in which the microphone transmits and/or receives a voice signal.
  • the external speaker 505 may be disposed at an angle within 30 degrees from the above direction to transmit a voice signal to the microphone of the electronic device.
  • the speaker 131 of the electronic device 100 may mean a speaker for transmitting and/or receiving a signal in the same direction as that of the microphone.
  • the speaker 131 of the electronic device 100 may be used to correct characteristics of the second microphone 113 or the third microphone 115 .
  • the receiver 133 of the electronic device 100 may perform the same role as the speaker 131 .
  • the receiver 133 may output a pilot signal like a speaker.
  • the receiver 133 may be for correcting characteristics of the first microphone (eg, the first microphone 111 of FIG. 1 ).
  • the first microphone 111 may receive a signal output by the receiver 133 .
  • the first microphone 111 may receive a signal output by the receiver 133 and reflected back by an external object.
  • the first microphone 111 may directly receive the signal output by the receiver 133 .
  • the external speaker 505 may provide an analog signal (eg, a pilot signal) to the microphone 110 .
  • the external speaker 505 may be the speaker 131 of the electronic device 100 .
  • the analog signal may be a pilot signal in a frequency band of about 7 kHz to 10 kHz or about 50 kHz.
  • the microphone 110 may generate a second signal based on the acquired analog signal.
  • the microphone 110 may generate second information based on the second signal. This operation may correspond to operation 440 of FIG. 4 .
  • the processor 120 may control to change at least one of an audio gain and a driving strength based on the first information and the second information.
  • the driving strength may be referred to as drive capability, and in general, as the driving strength increases, the operational stability of the memory 310 may be improved and current consumption may increase.
  • the second information may be information corresponding to an analog signal output by the external speaker 505 or the electronic device 100 .
  • FIG. 6 is a flowchart illustrating a process in which a microphone receives first information and generates second information according to an exemplary embodiment.
  • the microphone 110 may obtain first information about the first signal from the processor 120 .
  • the microphone 110 may acquire the first information through a soundwire (SWR) interface.
  • SWR soundwire
  • the microphone 110 may transmit the first information to a signal generator (eg, the signal generator 325 of FIG. 3 ).
  • the signal generator 325 may obtain the first information and generate a digital signal based on the first information.
  • the generated digital signal may be referred to as a first signal.
  • the frequency of the first signal may be about 7-10 kHz or about 50 kHz.
  • the microphone 110 may provide the first signal to the MEMS 330 .
  • MEMS 330 may include a diaphragm.
  • the diaphragm included in the MEMS 330 may vibrate in response to receiving the first signal.
  • the MEMS 330 may generate an analog signal in response to vibration of the diaphragm.
  • the microphone 110 may output an analog signal based on the vibration of the diaphragm included in the MEMS 330 to the outside.
  • the MEMS 330 may output an analog signal corresponding to the first signal that is a digital signal to the outside.
  • the electronic device 100 may be placed in a chamber and output the analog signal toward a first surface of the chamber.
  • the distance between the electronic device 100 and the first surface of the chamber may be 50 cm to 1 m.
  • the microphone 110 may acquire an externally reflected analog signal from the MEMS.
  • the externally reflected analog signal may vibrate the diaphragm included in the MEMS 330 .
  • the diaphragm included in the MEMS 330 may generate a second signal in response to the input of the analog signal.
  • the microphone 110 may generate second information about the second signal through a pre gain amplifier (PGA) and an analog to digital converter (ADC).
  • the PGA 340 may amplify the second signal based on the analog signal obtained through the MEMS 330 .
  • the ADC 345 may convert the amplified second signal into a digital signal.
  • FIG. 7 is an operation flowchart 700 illustrating a process in which a processor corrects characteristics of a microphone according to an exemplary embodiment.
  • the processor 120 may set the driving strength of the microphone as a first value. For example, the processor 120 may set the setting value for the driving strength of the microphone to 1 mA. The set value for the driving strength may be transmitted to the signal controller 320 .
  • the processor 120 may provide first information about the first signal to the microphone 110 .
  • the processor 120 may provide first information about the first signal stored in the memory 310 to the microphone 110 through the SWR interface 315 .
  • the microphone 110 may transmit the first information to the signal generator 325 .
  • the signal generator 325 may generate a first signal that is a pilot signal based on the first information.
  • the first signal may be transmitted to the MEMS 330 .
  • the MEMS 330 may generate an analog signal based on the first signal using the transmitted first signal diaphragm.
  • the MEMS 330 may output the analog signal to the outside and the MEMS 330 may receive the externally reflected analog signal.
  • the MEMS 330 may generate a second signal based on the received analog signal.
  • the received analog signal may mean at least one of an analog signal output from the MEMS 330 and reflected from the outside, and an analog signal output from the external speaker 505 .
  • the external speaker 505 may include a speaker of an electronic device.
  • the processor 120 may obtain second information about the second signal from the microphone.
  • the microphone 110 may amplify the second signal through the PGA 340 .
  • the ADC 345 may digitally convert the amplified second signal to generate second information.
  • the digital amplifier 350 may receive the digitized second information and amplify the second information.
  • the digital amplifier 350 may apply an amplification value based on the signal conditioner 320 .
  • At least a portion of the amplified second information may be stored in the buffer 360 .
  • the amplified second information may be provided to the processor 120 through the PDM interface 355 .
  • the processor 120 may compare the first information and the second information.
  • the processor 120 may compare the first information stored in the memory 310 with the second information obtained from the microphone.
  • the processor 120 may compare at least one of a waveform, a magnitude value, an amplitude value, or a voltage value included in the first information and the second information.
  • the processor 120 may determine whether a change in driving strength is necessary.
  • the processor 120 may determine whether the signal acquired by the microphone 110 cannot be transmitted to the processor 120 because the current driving strength of the microphone 110 is low. Whether the current driving strength is low may be determined using an eye diagram, which will be described in detail below with reference to FIG. 11 .
  • operation 755 is performed, and when the processor 120 determines that the change in the driving strength is not necessary, operation 760 is performed.
  • the processor 120 may change the driving strength.
  • the processor 120 may perform a correction to increase or decrease the driving strength of the microphone.
  • the processor 120 may determine whether an audio gain change is necessary.
  • the processor 120 may compare the audio gain value included in the first information with the audio gain value included in the second information.
  • the processor 120 may determine whether the audio gain needs to be changed by comparing the magnitude value of the first signal corresponding to the first information and the magnitude value of the second signal corresponding to the second information.
  • the processor 120 may determine whether an audio gain change is necessary by comparing amplitude values of the first signal and the second signal.
  • the processor 120 determines that the audio gain needs to be changed by the difference. can do. For example, when the audio gain value included in the first information is 60 dB and the audio gain value included in the second information is 52 dB, since there is a difference by 8 dB, the processor 120 adjusts the audio gain by 8 dB. Changes may be deemed necessary.
  • the processor 120 may determine that there is no need to change the audio gain. For example, when the difference range preset in the processor 120 is 5 dB, if the audio gain value included in the first information is 60 dB and the audio gain value included in the second information is 58 dB, the difference value is 2 dB Since it is within the preset range, it can be determined that there is no need to change the audio gain.
  • the first size may mean a range preset in the processor 120 . However, the preset range is merely an example, and may vary according to a set value of the range.
  • the processor 120 may change the audio gain.
  • the processor 120 may compare the audio gains and change the audio gain when the difference between the gain values exceeds a preset range. When the current audio gain value exceeds the reference audio gain value, the processor 120 may perform downward correction as much as it exceeds the reference audio gain value. If the current audio gain value is smaller than the reference audio gain value, the processor 120 may perform upward correction by a small amount.
  • FIG. 8 is a diagram 800 illustrating input and output performance of a microphone in an audible frequency band according to an embodiment.
  • data on a horizontal axis may be a frequency
  • data on a vertical axis may be a sound pressure level.
  • the range of the horizontal axis data may mean an audio frequency band.
  • the audio frequency band may include 100 Hz to 10 kHz.
  • graph 810 shows output sound pressure characteristics for each frequency of 100 Hz to 100 kHz when a signal is output through the MEMS 330 included in the microphone (eg, the microphone 110 of FIG. 1 ).
  • the processor 120 may set a signal of a high frequency band of 7 kHz or higher as a pilot signal.
  • the microphone 110 may generate the pilot signal in response to the setting of the processor.
  • the microphone 110 may generate an analog signal in response to the generation of the pilot signal and output it to the outside.
  • the graph 820 may represent a sound pressure level relative to a sound pressure level corresponding to 1 kHz for each frequency.
  • a dotted line 823 may indicate an upper specification limit line and a lower specification limit line.
  • a solid line 825 may represent a magnitude with respect to sound pressure. Referring to the graph 820, it can be seen that the magnitude (magnitude), which is the sound pressure level, increases as it approaches 10000 Hz, and this result may correspond to the contents in the graph 810.
  • FIG. 9 is a diagram 900 illustrating input and output characteristics of a microphone in an ultrasonic band according to an embodiment.
  • graph 910 shows output characteristics in an ultrasonic band of a microphone (eg, the microphone 110 of FIG. 1 ).
  • the graph 910 may represent a frequency characteristic when a signal of an ultrasound band higher than an audible frequency is output to the MEMS 330 .
  • data on the horizontal axis may be frequency (kHz)
  • data on the vertical axis may be sound pressure level [dB].
  • the ultrasonic band may include 20 kHz to 120 kHz.
  • Graph 910 shows output sound pressure characteristics for each frequency of 20 kHz to 120 kHz when a signal is output through the MEMS 330 included in the microphone.
  • the sound pressure level when the output voltage of the microphone 110 is set to 3V, 5V, or 8V, the sound pressure level may be indicated. It can be seen that the higher the output voltage, the higher the output sound pressure level.
  • the reference output sound pressure level is 60dB, if the output voltage is set to 3V, the current consumption can be reduced while maintaining the output sound pressure level.
  • graph 920 shows input characteristics in an ultrasonic band of a microphone (eg, the microphone 110 of FIG. 1 ).
  • the graph 920 may represent a frequency characteristic when a signal of an ultrasound band higher than an audible frequency is input to the MEMS 330 .
  • the ultrasonic band may include 20 kHz to 120 kHz.
  • Graph 920 shows characteristics for each frequency of 20 kHz to 120 kHz when a signal is output through the MEMS 330 included in the microphone.
  • both outputting and inputting a signal of an ultrasound band to the MEMS 330 of the microphone are possible.
  • FIG. 10 is a diagram 1000 illustrating the performance of a microphone as a transceiver in an ultrasonic band according to an embodiment.
  • the MEMS 330 may serve as a transceiver in the form of a transmitter and a receiver combined.
  • the MEMS 330 may transmit an analog signal to the outside and receive an analog signal reflected from the outside.
  • the graph 1010 may represent the performance of integrating the input and output performance of the ultrasonic band of the microphone. Referring to the graph 1010, it can be seen that the performance of the input and output of the MEMS 330 is excellent at about 50 kHz in the ultrasonic frequency band.
  • the processor 120 may control the reference frequency of the pilot signal to be set to about 50 kHz.
  • 11 is a diagram 1100 illustrating driving strength and audio gain tuning in an electronic device.
  • FIG. 1110 may show an eye diagram 1112 according to driving strength corresponding to 2 mA and 8 mA.
  • the eye diagram 1112 is an index that enables intuitive or qualitative judgment about the quality of data or the defect of circuit equipment to the extent of the size of the eye opening. In general, it can be determined that the signal quality is deteriorated as the shape of the eye becomes blurred and closed.
  • the driving strength when the driving strength is set to 2 mA, it can be confirmed that the eye diagram 1112 touches the diamond shape 1114 .
  • the driving strength when the driving strength is set to 2 mA, it is shown that the driving strength is not sufficient, and it can be seen that correction should be made in the direction of increasing the driving strength of the microphone.
  • the size of the eye shape in the eye diagram 1112 is larger than the eye size when the driving intensity is set to 2 mA, so it can be confirmed that the diamond shape 1114 does not touch. have.
  • the driving strength is set to 8 mA, it shows that the driving strength is sufficient, and it can be seen that the microphone needs to be corrected in the direction of maintaining or reducing the driving strength.
  • the processor 120 may set the driving strength setting value of the microphone 110 to 1 mA.
  • the processor 120 may set a signal controller 320 and a signal generator 325 of the microphone to fit in a band of about 7 to 10 kHz or about 50 kHz.
  • the microphone 110 may output a signal in a band of about 7 to 10 kHz or about 50 kHz based on the set driving strength of 1 mA.
  • the microphone 110 may receive a signal reflected from the outside after outputting the signal.
  • the microphone 110 may transmit the received signal to the processor 120 .
  • the processor 120 may compare the received pilot signal with at least one of the first signal stored in the memory and the first information corresponding to the first signal.
  • the processor 120 when the eye shape of the eye diagram 1112 is small and touches the diamond shape 1114, the processor 120 performs a comparison operation while gradually increasing the driving strength value of the microphone as shown in Table 1 below. can be repeatedly performed.
  • the processor 120 may perform the comparison operation until the waveform that is confirmed as normal is input, and then set the value at that time when the waveform is confirmed to be normal as the driving intensity value. After it is confirmed as normal, the correction operation for the driving strength of the microphone may be finished.
  • ⁇ Table 1> may refer to a microphone drive strength setting table.
  • a memory eg, the memory 310 of FIG. 3
  • the above table is an example, and the memory 310 may have various setting values.
  • the graph 1120 may represent an audio gain value for the first information and an audio gain value for the second information.
  • the graph 1120 may represent the first information corresponding to the first signal and the second information corresponding to the second signal as magnitude values according to time.
  • the processor 120 may correct the gain by the difference.
  • the processor 120 may not perform audio gain correction.
  • the first size may mean a range preset in the processor 120 .
  • the range may be 5 dB. For example, when the range preset in the processor is 5 dB, if the audio gain value included in the first information is 60 dB and the audio gain value included in the second information is 58 dB, the difference value is preset to 2 dB Since it is within the range, calibration may not be performed.
  • the processor 120 controls to compensate upward by 8 dB can do.
  • the processor 120 may determine the comparison of the audio gain value corresponding to the first information and the audio gain value corresponding to the second information by comparing the amplitude.
  • the above range is merely an example, and may vary depending on a set value of the range.
  • ⁇ Table 2> may refer to an audio gain setting table.
  • a memory eg, the memory 310 of FIG. 3
  • an audio gain of -2 dB may be stored as 00 and an audio gain of +1 dB as 10.
  • the above table is an example, and the memory 310 may have various setting values.
  • the electronic device 1201 is a block diagram of an electronic device 1201 (eg, the electronic device 100 of FIG. 1 ) in the network environment 1200 according to various embodiments of the present disclosure.
  • the electronic device 1201 communicates with the electronic device 1202 through a first network 1298 (eg, a short-range wireless communication network) or a second network 1299 . It may communicate with the electronic device 1204 or the server 1208 through (eg, a long-distance wireless communication network).
  • the electronic device 1201 may communicate with the electronic device 1204 through the server 1208 .
  • the electronic device 1201 includes a processor 1220 (eg, the processor 120 of FIG.
  • a memory 1230 eg, the memory 310 of FIG. 3
  • an input device 1250 Sound output device 1255, display device 1260, audio module 1270, sensor module 1276, interface 1277, haptic module 1279, camera module 1280, power management module 1288, battery 1289 (eg, the battery 230 of FIG. 2 ), a communication module 1290 , a subscriber identification module 1296 , or an antenna module 1297 .
  • at least one of these components eg, the display device 1260 or the camera module 1280
  • some of these components may be implemented as a single integrated circuit.
  • the sensor module 1276 eg, a fingerprint sensor, an iris sensor, or an illuminance sensor
  • the display device 1260 eg, a display.
  • the processor 1220 executes software (eg, a program 1240) to execute at least one other component (eg, a hardware or software component) of the electronic device 1201 connected to the processor 1220. It can control and perform various data processing or operations. According to an embodiment, as at least part of data processing or operation, the processor 1220 may store a command or data received from another component (eg, the sensor module 1276 or the communication module 1290) into the volatile memory 1232 . may be loaded into , process commands or data stored in the volatile memory 1232 , and store the resulting data in the non-volatile memory 1234 .
  • software eg, a program 1240
  • the processor 1220 may store a command or data received from another component (eg, the sensor module 1276 or the communication module 1290) into the volatile memory 1232 .
  • the processor 1220 may store a command or data received from another component (eg, the sensor module 1276 or the communication module 1290) into the volatile memory 1232 . may be loaded into , process commands or data
  • the processor 1220 includes a main processor 1221 (eg, a central processing unit or an application processor), and a secondary processor 1223 (eg, a graphic processing unit or an image signal processor) that can be operated independently or together with the main processor 1221 (eg, a graphics processing unit or an image signal processor). , a sensor hub processor, or a communication processor). Additionally or alternatively, the auxiliary processor 1223 may be configured to use less power than the main processor 1221 or to specialize in a designated function. The auxiliary processor 1223 may be implemented separately from or as a part of the main processor 1221 .
  • a main processor 1221 eg, a central processing unit or an application processor
  • a secondary processor 1223 eg, a graphic processing unit or an image signal processor
  • the auxiliary processor 1223 may be configured to use less power than the main processor 1221 or to specialize in a designated function.
  • the auxiliary processor 1223 may be implemented separately from or as a part of the main processor 1221 .
  • the coprocessor 1223 may be, for example, on behalf of the main processor 1221 while the main processor 1221 is in an inactive (eg, sleep) state, or when the main processor 1221 is active (eg, executing an application). ), together with the main processor 1221, at least one of the components of the electronic device 1201 (eg, the display device 1260, the sensor module 1276, or the communication module 1290) It is possible to control at least some of the related functions or states.
  • the coprocessor 1223 eg, an image signal processor or a communication processor
  • may be implemented as part of another functionally related component eg, the camera module 1280 or the communication module 1290). have.
  • the memory 1230 may store various data used by at least one component of the electronic device 1201 (eg, the processor 1220 or the sensor module 1276).
  • the data may include, for example, input data or output data for software (eg, the program 1240 ) and instructions related thereto.
  • the memory 1230 may include a volatile memory 1232 or a non-volatile memory 1234 .
  • the program 1240 may be stored as software in the memory 1230 , and may include, for example, an operating system 1242 , middleware 1244 , or an application 1246 .
  • the input device 1250 may receive a command or data to be used by a component (eg, the processor 1220 ) of the electronic device 1201 from the outside (eg, a user) of the electronic device 1201 .
  • the input device 1250 may include, for example, a microphone, a mouse, a keyboard, or a digital pen (eg, a stylus pen).
  • the sound output device 1255 may output a sound signal to the outside of the electronic device 1201 .
  • the sound output device 1255 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback, and the receiver can be used to receive an incoming call.
  • the receiver may be implemented separately from or as a part of the speaker.
  • the display device 1260 may visually provide information to the outside (eg, a user) of the electronic device 1201 .
  • the display device 1260 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the corresponding device.
  • the display device 1260 may include a touch circuitry configured to sense a touch or a sensor circuit (eg, a pressure sensor) configured to measure the intensity of a force generated by the touch. have.
  • the audio module 1270 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 1270 acquires a sound through the input device 1250 or an external electronic device (eg, a sound output device 1255 ) directly or wirelessly connected to the electronic device 1201 . The sound may be output through the electronic device 1202) (eg, a speaker or a headphone).
  • an external electronic device eg, a sound output device 1255
  • the sound may be output through the electronic device 1202) (eg, a speaker or a headphone).
  • the sensor module 1276 detects an operating state (eg, power or temperature) of the electronic device 1201 or an external environmental state (eg, user state), and generates an electrical signal or data value corresponding to the sensed state. can do.
  • the sensor module 1276 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 1277 may support one or more designated protocols that may be used for the electronic device 1201 to directly or wirelessly connect with an external electronic device (eg, the electronic device 1202 ).
  • the interface 1277 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • connection terminal 1278 may include a connector through which the electronic device 1201 can be physically connected to an external electronic device (eg, the electronic device 1202 ).
  • the connection terminal 1278 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 1279 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
  • the haptic module 1279 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 1280 may capture still images and moving images. According to an embodiment, the camera module 1280 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 1288 may manage power supplied to the electronic device 1201 .
  • the power management module 388 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 1289 may supply power to at least one component of the electronic device 1201 .
  • the battery 1289 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 1290 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 1201 and an external electronic device (eg, the electronic device 1202, the electronic device 1204, or the server 1208). It can support establishment and communication performance through the established communication channel.
  • the communication module 1290 operates independently of the processor 1220 (eg, an application processor) and may include one or more communication processors supporting direct (eg, wired) communication or wireless communication.
  • the communication module 1290 may include a wireless communication module 1292 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 1294 (eg, : It may include a LAN (local area network) communication module, or a power line communication module).
  • a wireless communication module 1292 eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 1294 eg, : It may include a LAN (local area network) communication module, or a power line communication module.
  • a corresponding communication module among these communication modules may be a first network 1298 (eg, a short-range communication network such as Bluetooth, WiFi direct, or infrared data association (IrDA)) or a second network 1299 (eg, a cellular network, the Internet, or It can communicate with an external electronic device through a computer network (eg, a telecommunication network such as a LAN or WAN).
  • a first network 1298 eg, a short-range communication network such as Bluetooth, WiFi direct, or infrared data association (IrDA)
  • a second network 1299 eg, a cellular network, the Internet, or It can communicate with an external electronic device through a computer network (eg, a telecommunication network such as a LAN or WAN).
  • a computer network eg, a telecommunication network such as a LAN or WAN.
  • the wireless communication module 1292 uses subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 1296 within a communication network such as the first network 1298 or the second network 1299 .
  • subscriber information eg, International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the electronic device 1201 may be identified and authenticated.
  • the antenna module 1297 may transmit or receive a signal or power to the outside (eg, an external electronic device).
  • the antenna module may include one antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 1297 may include a plurality of antennas. In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 1298 or the second network 1299 is connected from the plurality of antennas by, for example, the communication module 1290 . can be selected. A signal or power may be transmitted or received between the communication module 1290 and an external electronic device through the selected at least one antenna.
  • other components eg, RFIC
  • other than the radiator may be additionally formed as a part of the antenna module 1297 .
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 1201 and the external electronic device 1204 through the server 1208 connected to the second network 1299 .
  • Each of the electronic devices 1202 and 1204 may be the same or a different type of the electronic device 1201 .
  • all or part of the operations performed by the electronic device 1201 may be executed by one or more of the external electronic devices 1202 , 1204 , or 1208 .
  • the electronic device 1201 may perform the function or service itself instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • the one or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 1201 .
  • the electronic device 1201 may process the result as it is or additionally and provide it as at least a part of a response to the request.
  • cloud computing, distributed computing, or client-server computing technology may be used.
  • the electronic device may be a device of various types.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a laptop, a desktop, a tablet, or a portable multimedia device
  • portable medical device e.g., a portable medical device
  • camera e.g., a camera
  • a wearable device e.g., a smart watch
  • a home appliance device e.g., a smart bracelet
  • first”, “second”, or “first” or “second” may simply be used to distinguish the component from other components in question, and may refer to components in other aspects (e.g., importance or order) is not limited. that one (eg, first) component is “coupled” or “connected” to another (eg, second) component with or without the terms “functionally” or “communicatively” When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
  • module may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic block, component, or circuit.
  • a module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • one or more instructions stored in a storage medium may be implemented as software (eg, the program 1240) including
  • a processor eg, processor 1220
  • a device eg, electronic device 1201
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain a signal (eg, electromagnetic wave), and this term is used in cases where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.
  • a signal eg, electromagnetic wave
  • the method according to various embodiments disclosed in this document may be provided by being included in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play Store TM ) or on two user devices ( It can be distributed online (eg download or upload), directly between smartphones (eg smartphones).
  • a part of the computer program product may be temporarily stored or temporarily generated in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • each component eg, a module or a program of the above-described components may include a singular or a plurality of entities.
  • one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, omitted, or , or one or more other operations may be added.
  • the electronic device 100 is electrically connected to at least one microphone including the first microphone 111 , the at least one microphone, and a communication circuit, and provides an audio gain of the at least one microphone. gain), wherein the processor 120 provides first information about a first signal to the at least one microphone, and the at least one microphone is based on the first information to generate the first signal, generate second information about a second signal based on an analog signal acquired by the at least one microphone in response to the generation of the first signal, and information about the second signal to the processor 120 , and the processor 120 may control to change the at least one audio gain based on the first information and the second information.
  • the processor 120 may set the initial driving intensity as a first value.
  • the processor 120 controls to change the driving strength of the at least one microphone based on the first information and the second information, and the first information and the second information are each It may include at least one of an amplitude value, a frequency, and a waveform for the first signal and the second signal.
  • the at least one microphone may include a signal generator 325 and generate a first signal through the signal generator 325 .
  • the processor 120 compares the magnitude values included in the first information and the second information and, when the difference between the magnitude values is equal to or greater than the first magnitude, corrects the audio gain by the difference.
  • the first signal may be a pilot signal having a constant frequency among a frequency band of 7 kHz to 10 kHz or 50 kHz.
  • the processor 120 may change at least one of a parameter for a driving strength and a parameter for an audio gain based on the first information and the second information.
  • the analog signal may be generated through a diaphragm included in the MEMS 330 of the at least one microphone or may be generated through at least one of an external speaker and a speaker of the electronic device.
  • the second signal may be a signal generated when the analog signal vibrates a diaphragm included in the MEMS 330 .
  • the processor 120 may include at least one of an application processor (AP), a memory, and a codec.
  • AP application processor
  • the processor 120 provides first information about a first signal to at least one microphone including a first microphone, based on the obtained first information. generating a first signal through the at least one microphone; generating a second signal based on an analog signal obtained by the at least one microphone in response to generation of the first signal; may include generating second information about the microphone, providing the second information to a processor, and controlling the audio gain of the at least one microphone to be changed based on the first information and the second information.
  • the processor 120 sets the initial driving intensity to a first value, controls the driving intensity of the at least one microphone based on the first information and the second information, and controls the driving intensity of the at least one microphone, the first information and
  • the second information may include at least one of an amplitude value, a frequency, and a waveform for the first signal and the second signal, respectively.
  • the controlling to change the audio gain includes comparing the amplitude values of the first information and the second information and compensating for the gain by the difference when the difference in the amplitude values is equal to or greater than a first magnitude.
  • the analog signal is generated through a diaphragm included in the MEMS 330 of the at least one microphone or is generated through at least one of an external speaker and a speaker of the electronic device, and the second signal is the analog signal
  • the signal may be a signal generated by shaking the diaphragm included in the MEMS 330 .
  • the processor 120 may change at least one of a parameter for a driving strength and a parameter for an audio gain based on the first information and the second information.
  • the electronic device includes at least one microphone including a first microphone, a processor electrically connected to the at least one microphone, and controlling driving strength and audio gain of the at least one microphone, wherein the processor provides first information about a first signal to the at least one microphone, the at least one microphone generates the first signal based on the information, and in response to the generation of the first signal, Generates a second signal based on the analog signal acquired through the microphone, and provides information about the second signal to the processor, wherein the processor receives the first information about the first signal and the provided second signal At least one of a first parameter corresponding to the driving strength of the at least one microphone and a second parameter corresponding to the audio gain may be controlled based on the second information about the at least one microphone.
  • the processor 120 sets the initial driving intensity to a first value, controls the driving intensity of the at least one microphone based on the first information and the second information, and the first information and the second information may include at least one of an amplitude value, a frequency, and a waveform for the first signal and the second signal, respectively.
  • the at least one microphone may include a signal generator 325 and generate the first signal through the signal generator 325 .
  • the first signal may be a pilot signal having a constant frequency among a frequency band of 7 kHz to 10 kHz or 50 kHz.
  • the analog signal is generated through a diaphragm included in the MEMS 330 of the at least one microphone or is generated through at least one of an external speaker and a speaker of the electronic device, and the second signal is the analog signal
  • the signal may be a signal generated by shaking the diaphragm included in the MEMS 330 .

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)

Abstract

Disclosed is an electronic device comprising a microphone and a processor for controlling audio gain of the microphone. The processor may provide a first unit of information regarding a first signal to the microphone, the microphone may generate the first signal on the basis of the first unit of information, generate a second signal on the basis of an analog signal acquired by the microphone in response to generation of the first signal, and provide a second unit of information regarding the second signal to the processor, and the processor may perform a control operation to change the audio gain of the microphone on the basis of the first unit of information and the second unit of information. Various other embodiments identified from the specification are also possible.

Description

마이크로폰의 특성을 보정하는 방법 및 전자 장치Method and electronic device for calibrating the characteristics of a microphone
본 문서에서 개시되는 실시 예들은, 전자 장치에 포함된 마이크로폰에 관한 발명이다. Embodiments disclosed in this document relate to a microphone included in an electronic device.
최근에 휴대용 단말기가 지원하는 기능이 증가하면서 단말기의 크기가 증가하거나 단말기의 형태(예: 폴더블 단말기)가 다양해지고 있다. 이러한 변화는 전자 장치의 성능에 영향을 줄 수 있다. 예를 들어, 단말기의 일 기능인 마이크로폰에 있어서, 단말기의 크기, 형태 및 마이크로폰의 개수에 따라 프로세서와 마이크로폰 간 신호 길이(signal length)는 달라지고 있다. Recently, as functions supported by portable terminals increase, the size of the terminal increases or the shape of the terminal (eg, a foldable terminal) is diversified. These changes may affect the performance of the electronic device. For example, in a microphone, which is a function of a terminal, a signal length between a processor and a microphone varies according to the size, shape, and number of microphones of the terminal.
프로세서와 마이크로폰간 통신에 있어서, 전자 장치의 프로세서는 구동 강도를 변화시키면서 마이크로폰에 클럭(CLK) 신호를 전달한다. 한편, 마이크로폰은 신호에 대응하는 데이터를 고정된 전류 값으로 프로세서에 전달하여 통신을 수행할 수 있다.In communication between the processor and the microphone, the processor of the electronic device transmits a clock signal CLK to the microphone while changing the driving strength. Meanwhile, the microphone may transmit data corresponding to the signal to the processor as a fixed current value to perform communication.
일 실시 예에 따른 전자 장치의프로세서는 구동 강도(drive strength)를 조절하여 클럭(CLK) 신호를 제공하기 위한 전류를 조절할 수 있으나, 마이크로폰은 신호를 제공하기 위한 전류를 조절할 수 없었다. 따라서 단말기의 크기 및 형태에 따라서 마이크로폰와 프로세서간 신호 길이가 변하면서 기생 커패시턴스(parasitic capacitance)가 달라지고 마이크로폰 신호에 대해 열화가 발생하게 되더라도 유동적으로 대응할 수 없고 개선이 쉽지 않았다.The processor of the electronic device according to an embodiment may adjust the current for providing the clock signal CLK by adjusting the drive strength, but the microphone cannot adjust the current for providing the signal. Therefore, depending on the size and shape of the terminal, the parasitic capacitance changes as the signal length between the microphone and the processor changes, and even if the microphone signal is deteriorated, it cannot be flexibly responded and it is not easy to improve it.
또한, 생산되는 마이크로폰 단품마다 오디오 이득에 대하여 오차가 발생할 수 있지만, 생산된 마이크로폰의 이득은 고정되어 있어 전자 장치의 음성 입, 출력 성능에서 차이가 발생할 수 있다.In addition, although an error may occur with respect to an audio gain for each produced microphone unit, a difference may occur in voice input/output performance of an electronic device because the produced microphone gain is fixed.
본 문서에 개시되는 일 실시 예에 따른 전자 장치는, 적어도 하나의 마이크로폰, 상기 적어도 하나의 마이크로폰과 전기적으로 연결되며, 상기 제1 마이크로폰의 오디오 이득(audio gain)을 제어하는 프로세서를 포함할 수 있다. 상기 프로세서는 상기 적어도 하나의 마이크로폰으로 제1 신호에 대한 제1 정보를 제공하고, 상기 적어도 하나의 마이크로폰은 상기 제1 정보에 기반하여 상기 제1 신호를 발생시키고, 상기 제1 신호의 발생에 응답하여 상기 적어도 하나의 마이크로폰에 의해 획득된 아날로그 신호에 기반한 제2 신호에 대한 제2 정보를 생성하고, 상기 제2 신호에 대한 정보를 상기 프로세서로 제공하고, 상기 프로세서는, 상기 제1 정보 및 상기 제2 정보에 기반하여 상기 적어도 하나의 마이크로폰의 상기 오디오 이득을 변경할 수 있다.The electronic device according to an embodiment disclosed in this document may include at least one microphone and a processor electrically connected to the at least one microphone and controlling an audio gain of the first microphone. . the processor provides first information about a first signal to the at least one microphone, the at least one microphone generates the first signal based on the first information, and in response to the generation of the first signal to generate second information about a second signal based on the analog signal obtained by the at least one microphone, and provide information about the second signal to the processor, wherein the processor includes: the first information and the The audio gain of the at least one microphone may be changed based on the second information.
또한, 본 문서에 개시되는 일 실시 예에 따른 전자 장치의 동작 방법은, 프로세서가 제1 마이크로폰으로 제1 신호에 대한 제1 정보를 제공하는 동작, 상기 획득된 제1 정보를 기반으로 상기 제1 마이크로폰을 통해 제1 신호를 발생시키는 동작, 상기 제1 신호의 발생에 응답하여 마이크로폰에 의해 획득된 아날로그 신호에 기반한 제2 신호를 발생시키는 동작, 상기 제2 신호에 대한 제2 정보를 생성하고, 상기 제2 정보를 프로세서로 제공하는 동작, 상기 제1 정보 및 상기 제2 정보를 기반으로 상기 제1 마이크로폰의 오디오 이득을 변경하도록 제어하는 동작을 포함할 수 있다.Also, in the method of operating an electronic device according to an embodiment disclosed in this document, the processor provides first information about a first signal to a first microphone, and the first information based on the obtained first information generating a first signal through a microphone, generating a second signal based on an analog signal obtained by the microphone in response to generation of the first signal, generating second information about the second signal, The method may include providing the second information to a processor and controlling the audio gain of the first microphone to be changed based on the first information and the second information.
또한, 본 문서에 개시되는 일 실시 예에 따른 전자 장치는 제1 마이크로폰을 포함하는 적어도 하나의 마이크로폰, 상기 적어도 하나의 마이크로폰과 전기적으로 연결되고, 상기 적어도 하나의 마이크로폰의 구동 강도 및 오디오 이득을 제어하는 프로세서를 포함할 수 있다. 상기 프로세서는 상기 적어도 하나의 마이크로폰으로 제1 신호에 대한 제1 정보를 제공하고, 상기 적어도 하나의 마이크로폰은 상기 정보에 기반하여 상기 제1 신호를 발생시키고, 상기 제1 신호의 발생에 응답하여, 상기 마이크로폰을 통해 획득된 아날로그 신호에 기반한 제2 신호를 생성하고, 상기 제2 신호에 대한 정보를 상기 프로세서로 제공하며, 상기 프로세서는 상기 제1 신호에 대한 제1 정보 및 상기 제공된 제2 신호에 대한 제2 정보에 기반하여 상기 적어도 하나의 마이크로폰의 상기 구동 강도에 대응하는 제1 파라미터 및 상기 오디오 이득에 대응하는 제2 파라미터 중 적어도 하나를 변경할 수 있다.In addition, the electronic device according to an embodiment disclosed in this document includes at least one microphone including a first microphone, electrically connected to the at least one microphone, and controls driving strength and audio gain of the at least one microphone. It may include a processor that wherein the processor provides first information about a first signal to the at least one microphone, the at least one microphone generates the first signal based on the information, and in response to the generation of the first signal, Generates a second signal based on the analog signal acquired through the microphone, and provides information about the second signal to the processor, wherein the processor receives the first information about the first signal and the provided second signal At least one of a first parameter corresponding to the driving strength of the at least one microphone and a second parameter corresponding to the audio gain may be changed based on the second information about the at least one microphone.
본 문서에 개시되는 다양한 실시 예들에 따르면, 프로세서가 구동 강도(drive strength)를 조절하여 소모 전류를 절감할 수 있고, 오디오의 신호 품질을 개선할 수 있다.According to various embodiments disclosed in this document, the processor may adjust drive strength to reduce current consumption and improve audio signal quality.
다양한 실시 예에 따르면, 프로세서가 마이크로폰의 이득을 분석한 후 이를 조절하여 마이크로폰의 이득을 향상시킬 수 있다.According to various embodiments, after the processor analyzes the gain of the microphone, it may be adjusted to improve the gain of the microphone.
또한, 다양한 실시 예에 따르면, 전자 장치의 오디오 신호 입력 또는 출력에 대한 이득 차이를 줄여사용자의 오디오 사용에 대한 편의성을 향상시킬 수 있다.In addition, according to various embodiments, the user's convenience in using audio may be improved by reducing a gain difference between the audio signal input or output of the electronic device.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.In addition, various effects directly or indirectly identified through this document may be provided.
도 1은 일 실시 예에 따른 전자 장치를 나타낸 것이다.1 illustrates an electronic device according to an embodiment.
도 2는 일 실시 예에 따른 폴더블 전자 장치의 내부 구성을 나타낸 도면이다.2 is a diagram illustrating an internal configuration of a foldable electronic device according to an exemplary embodiment.
도 3은 일 실시 예에 따른 마이크로폰과 프로세서의 구성도이다.3 is a configuration diagram of a microphone and a processor according to an embodiment.
도 4는 일 실시 예에 따른 마이크로폰 및 프로세서가 통신을 수행하는 과정을 나타낸 동작 흐름도이다.4 is an operation flowchart illustrating a process in which a microphone and a processor perform communication according to an embodiment.
도 5는 일 실시 예에 따른 외부 스피커를 이용하여 마이크로폰을 보정하는 과정을 나타낸 도면이다.5 is a diagram illustrating a process of calibrating a microphone using an external speaker according to an exemplary embodiment.
도 6은 일 실시 예에 따른 마이크로폰이 제1 정보를 수신하여 제2 정보를 생성하는 과정을 나타낸 동작 흐름도이다.6 is a flowchart illustrating a process in which a microphone receives first information and generates second information according to an exemplary embodiment.
도 7은 일 실시 예에 따른 프로세서가 마이크로폰의 특성을 보정하는 과정을 나타낸 동작 흐름도이다.7 is an operation flowchart illustrating a process in which a processor corrects characteristics of a microphone according to an exemplary embodiment.
도 8은 일 실시 예에 따른 마이크로폰의 가청 주파수 대역에서의 입력 및 출력 성능을 나타낸 도면이다.8 is a diagram illustrating input and output performance of a microphone in an audible frequency band according to an embodiment.
도 9는 일 실시 예에 따른 마이크로폰의 초음파 대역에서의 입력 및 출력 성능을 나타낸 도면이다.9 is a diagram illustrating input and output performance of a microphone in an ultrasonic band according to an exemplary embodiment.
도 10은 일 실시 예에 따른 마이크로폰의 초음파 대역에서의 트랜시버(transceiver)로서의 성능을 나타낸 도면이다.10 is a diagram illustrating performance of a microphone as a transceiver in an ultrasonic band according to an embodiment.
도 11은 일 실시 예에 따른 전자 장치에서 구동 강도와 오디오 이득의 튜닝에 관한 도면이다.11 is a diagram illustrating tuning of driving strength and audio gain in an electronic device according to an exemplary embodiment.
도 12는 다양한 실시 예들에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.12 is a block diagram of an electronic device in a network environment, according to various embodiments of the present disclosure;
도 1은 일 실시 예에 따른 전자 장치(100)를 나타낸 것이다.1 illustrates an electronic device 100 according to an embodiment.
일 실시 예에서, 전자 장치(100)는 디스플레이(140), 하우징(150), 복수의 마이크로폰(예: 111, 113, 115), 스피커(131), 리시버(133), 제1 기능 키(162), 제2 기능 키(164)를 포함할 수 있다. 일 실시 예에서, 일부 구성요소가 생략되거나, 추가적인 구성요소를 더 포함할 수 있다. 일 실시 예에서, 구성 요소들 중 일부가 결합되어 하나의 개체로 구성되되, 결합 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.In an embodiment, the electronic device 100 includes a display 140 , a housing 150 , a plurality of microphones (eg, 111 , 113 , 115 ), a speaker 131 , a receiver 133 , and a first function key 162 . ), a second function key 164 may be included. In an embodiment, some components may be omitted or additional components may be further included. In an embodiment, some of the components are combined to form a single entity, and functions of the components prior to the combination may be identically performed.
일 실시 예에서, 하우징(150)은 디스플레이(140), 복수의 마이크로폰들(예: 111, 113, 115), 리시버(133) 및 스피커(131)를 고정하거나 내장할 수 있다. 하우징(150)은 전면 하우징, 후면 하우징 및 측면 하우징을 포함할 수 있다. 하우징(150)의 전면, 후면 또는 측면 하우징 중 적어도 하나에는 복수의 마이크로폰들(예: 111, 113, 115), 스피커(131) 또는 리시버(133)의 노출을 위한 적어도 하나의 개구부가 배치될 수 있다.In an embodiment, the housing 150 may fix or embed the display 140 , a plurality of microphones (eg, 111 , 113 , 115 ), the receiver 133 , and the speaker 131 . The housing 150 may include a front housing, a rear housing, and a side housing. At least one opening for exposing the plurality of microphones (eg, 111 , 113 , 115 ), the speaker 131 or the receiver 133 may be disposed in at least one of the front, rear, or side housing of the housing 150 . have.
일 실시 예에서, 디스플레이(140)는 하우징(150)의 전면을 통하여 적어도 일부가 노출될 수 있다. 디스플레이(140)는 백라이트, 디스플레이 패널, 터치 센서, 압력 센서, 지문 센서 등을 포함할 수 있다.In an embodiment, at least a portion of the display 140 may be exposed through the front surface of the housing 150 . The display 140 may include a backlight, a display panel, a touch sensor, a pressure sensor, a fingerprint sensor, and the like.
일 실시 예에서, 리시버(133)는 하우징의 제1 영역 예를 들면, 하우징의 상부에 배치될 수 있다. 스피커(131)는 하우징(150)의 제2 영역 예를 들면, 하우징의 하부에 배치될 수 있다. 다양한 실시 예에 따르면 전자 장치(100)는 복수의 마이크로폰들(예: 111, 113, 115)을 포함하고, 하우징의 전면, 측면 또는 후면에 복수의 마이크로폰들 (예: 111, 113, 115)이 배치될 수 있다.In an embodiment, the receiver 133 may be disposed in the first area of the housing, for example, on the upper portion of the housing. The speaker 131 may be disposed in the second area of the housing 150 , for example, under the housing. According to various embodiments, the electronic device 100 includes a plurality of microphones (eg, 111, 113, and 115), and the plurality of microphones (eg, 111, 113, and 115) are provided on the front, side, or rear of the housing. can be placed.
일 실시 예에서, 전자 장치(100)는 전자 장치(100)의 내부에 프로세서(120)를 포함할 수 있다. 프로세서(120)는 복수의 마이크로폰들 (예: 111, 113, 115) 및 통신 회로와 전기적으로 연결될 수 있다. 프로세서(120)와 마이크로폰들(예: 111, 113, 115)간 거리는 각기 다를 수 있다. 프로세서(120)는 복수의 마이크로폰들(예: 111, 113, 115)로 클럭(CLK) 신호를 제공할 수 있다.In an embodiment, the electronic device 100 may include the processor 120 inside the electronic device 100 . The processor 120 may be electrically connected to a plurality of microphones (eg, 111 , 113 , 115 ) and a communication circuit. Distances between the processor 120 and the microphones (eg, 111 , 113 , and 115 ) may be different. The processor 120 may provide a clock signal CLK to a plurality of microphones (eg, 111 , 113 , and 115 ).
일 실시 예에서, 복수의 마이크로폰들(예: 111, 113, 115)은 하우징의 일부에 배치될 수 있다. 예를 들어, 제2 마이크로폰(113) 및 제3 마이크로폰(115)은 스피커(131)에 가깝게 배치되고, 제2 마이크로폰(113)은 디스플레이(140)의 전면에서 볼 때 하우징(150)의 제1 측면으로 치우쳐 배치되고, 제3 마이크로폰(115)은 디스플레이(140)의 전면에서 볼 때 하우징(150)의 제2 측면으로 치우쳐 배치될 수 있다. 제1 마이크로폰(111)은 리시버(133)에 가깝게 배치될 수 있다. 상기 마이크로폰들의 위치는 일 예시에 불과한 것이며 이에 제한되지 않는다.In an embodiment, a plurality of microphones (eg, 111 , 113 , and 115 ) may be disposed in a portion of the housing. For example, the second microphone 113 and the third microphone 115 are disposed close to the speaker 131 , and the second microphone 113 is the first of the housing 150 when viewed from the front of the display 140 . The third microphone 115 may be biased toward the second side of the housing 150 when viewed from the front of the display 140 . The first microphone 111 may be disposed close to the receiver 133 . The positions of the microphones are merely exemplary and are not limited thereto.
일 실시 예에서, 전자 장치(100)의 측면부에는 적어도 하나의 물리 키가 배치될 수 있다. 예를 들어, 디스플레이를 ON/OFF하거나 전자 장치(100)의 전원을 ON/OFF하기 위한 제1 기능 키(162)가 전자 장치(100)의 전면을 기준으로 우측 가장자리에 배치될 수 있다. 일 실시 예에서, 전자 장치(100)의 볼륨을 제어하거나 화면 밝기 등을 제어하기 위한 제2 기능 키(164)가 전자 장치(100)의 전면을 기준으로 좌측 가장자리에 배치될 수 있다. 이 외에도 추가적인 버튼이나 키가 전자 장치(100)의 전면이나 후면에도 배치될 수 있다. 예를 들어, 전면의 베젤 중 하단 영역에 특정 기능에 맵핑된 물리 버튼이나 터치 버튼이 배치될 수 있다.In an embodiment, at least one physical key may be disposed on a side portion of the electronic device 100 . For example, the first function key 162 for turning on/off the display or turning on/off the power of the electronic device 100 may be disposed on the right edge with respect to the front surface of the electronic device 100 . In an embodiment, the second function key 164 for controlling the volume or screen brightness of the electronic device 100 may be disposed on the left edge with respect to the front surface of the electronic device 100 . In addition to this, additional buttons or keys may be disposed on the front or rear of the electronic device 100 . For example, a physical button or a touch button mapped to a specific function may be disposed in a lower region of the front bezel.
도 2는 일 실시 예에 따른 폴더블 전자 장치의 내부 구성을 나타낸 도면(200)이다.2 is a diagram 200 illustrating an internal configuration of a foldable electronic device according to an exemplary embodiment.
일 실시 예에서, 전자 장치(100)는 플렉서블(flexible)디스플레이를 포함하는 폴더블 전자 장치 구현될 수 있고, 전자 장치(100)는 제1 하우징(201) 및 제2 하우징(203)을 포함할 수 있다. 제2 하우징(203)은 폴딩 축(250)을 기준으로 제1 하우징(201)에 대하여 회전가능하게 연결될 수 있다. 제1 하우징(201) 및 제2 하우징(203)은 폴딩 축(250)을 기준으로 전체적으로 대칭적인 형상을 가질 수 있다. 제2 하우징(203)은 제1 하우징(201)을 기준으로 회동(또는 회전)하여, 제1 하우징(201) 및 제2 하우징(203)은 서로 마주보는 방향으로 배치될 수 있다.In an embodiment, the electronic device 100 may be implemented as a foldable electronic device including a flexible display, and the electronic device 100 may include a first housing 201 and a second housing 203 . can The second housing 203 may be rotatably connected to the first housing 201 with respect to the folding shaft 250 . The first housing 201 and the second housing 203 may have an overall symmetrical shape with respect to the folding axis 250 . The second housing 203 may be rotated (or rotated) with respect to the first housing 201 so that the first housing 201 and the second housing 203 may face each other.
일 실시 예에서, 프로세서(120)는 어플리케이션 프로세서(application processor), 통신 프로세서(communicationprocessor), 코덱(210), 메모리(310) 중 적어도 하나를 포함할 수 있으며, 복수의 코어들을 가질 수 있다.In an embodiment, the processor 120 may include at least one of an application processor, a communication processor, a codec 210 , and a memory 310 , and may have a plurality of cores.
일 실시 예에서, 코덱(210) 및 메모리(310)는 프로세서(120)와 별도로 배치되고 프로세서(120)와 전기적으로 연결될 수 있다. 프로세서(120)는 적어도 하나의 다른 구성 요소들을 제어하거나 통신에 관한 연산이나 데이터 처리를 실행할 수 있다. 프로세서(120)는 프로세서(도 12의 프로세서(1220))와 동일하게 또는 적어도 일부분이 동일하게 구현될 수 있다.In an embodiment, the codec 210 and the memory 310 may be disposed separately from the processor 120 and may be electrically connected to the processor 120 . The processor 120 may control at least one other component or execute a communication-related operation or data processing. The processor 120 may be implemented the same as or at least a part of the processor (the processor 1220 of FIG. 12 ).
일 실시 예에서, 프로세서(120)는 지정된 주파수 대역의 신호를 출력하도록 코덱을 제어할 수 있다. 상기 지정된 주파수 대역의 신호는 일정한 크기의 신호 또는 일정하지 않은 크기의 신호일 수 있다. 일정하지 않은 크기의 신호는 예를 들면, 정현파, 사각파 또는 톱니파 등 중 적어도 하나의 형태를 포함할 수 있다.In an embodiment, the processor 120 may control the codec to output a signal of a specified frequency band. The signal of the designated frequency band may be a signal of a constant magnitude or a signal of a non-uniform magnitude. The non-uniform signal may include, for example, at least one of a sine wave, a square wave, or a sawtooth wave.
일 실시 예에서, 코덱(210)은 마이크로폰들(예: 111, 113, 115)과 동일한 하우징 내에 배치될 수 있다. 예를 들어, 제1 마이크로폰(111) 내지 제3 마이크로폰(115)은 제1 하우징(201)에 배치되고, 코덱(210)도 제1 하우징(201)에 배치될 수 있다. 또는 제1 마이크로폰(111) 내지 제3 마이크로폰(115)은 제2 하우징(203)에 배치되고, 코덱(210)도 제2 하우징(203)에 배치될 수 있다.In an embodiment, the codec 210 may be disposed in the same housing as the microphones (eg, 111 , 113 , and 115 ). For example, the first microphone 111 to the third microphone 115 may be disposed in the first housing 201 , and the codec 210 may also be disposed in the first housing 201 . Alternatively, the first microphone 111 to the third microphone 115 may be disposed in the second housing 203 , and the codec 210 may also be disposed in the second housing 203 .
일 실시 예에서, 코덱(210)은 마이크로폰들(예: 111, 113, 115)과 상이한 하우징 내에 배치될 수 있다. 예를 들어, 제1 마이크로폰(111) 내지 제3 마이크로폰(115)은 제1 하우징(201)에 배치될 수 있고, 코덱(210)은 제2 하우징(203)에 배치될 수 있다. 또는 제1 마이크로폰(111) 내지 제3 마이크로폰(115)은 제2 하우징(203)에 배치될 수 있고, 코덱(210)은 제1 하우징(201)에 배치될 수 있다.In one embodiment, the codec 210 may be disposed in a different housing than the microphones (eg, 111 , 113 , 115 ). For example, the first microphone 111 to the third microphone 115 may be disposed in the first housing 201 , and the codec 210 may be disposed in the second housing 203 . Alternatively, the first microphone 111 to the third microphone 115 may be disposed in the second housing 203 , and the codec 210 may be disposed in the first housing 201 .
일 실시 예에서, 코덱(210)은 복수의 마이크로폰들(예: 111, 113, 115)과 전기적으로 연결될 수 있다. 코덱(210) 및 마이크로폰들 간 신호 길이(220)는 각기 다를 수 있다. 예를 들어, 코덱(210) 및 제1 마이크로폰(111) 간 신호 길이는 제1 길이일 수 있다. 코덱(210) 및 제2 마이크로폰(113) 간 신호 길이는 제2 길이일 수 있다. 코덱(210) 및 제3 마이크로폰(115) 간 신호 길이는 제3 길이일 수 있다.In an embodiment, the codec 210 may be electrically connected to a plurality of microphones (eg, 111 , 113 , and 115 ). The codec 210 and the signal length 220 between the microphones may be different. For example, the signal length between the codec 210 and the first microphone 111 may be the first length. A signal length between the codec 210 and the second microphone 113 may be a second length. A signal length between the codec 210 and the third microphone 115 may be a third length.
일 실시 예에서, 배터리(230)는 제1 하우징(201) 또는 제2 하우징(203) 내 배치될 수 있고, 제1 하우징(201) 및 제2 하우징(203) 모두 배치될 수 있다. 배터리(230)는 마이크로폰(110)에서 코덱(210) 또는 프로세서(120)로 신호를 전달하는데 소모되는 전류를 공급할 수 있고, 코덱(210) 또는 프로세서(120)에서 마이크로폰(110)으로 신호를 전달하는데 소모되는 전류를 공급할 수 있다. In an embodiment, the battery 230 may be disposed in the first housing 201 or the second housing 203 , and both the first housing 201 and the second housing 203 may be disposed. The battery 230 may supply current consumed to transmit a signal from the microphone 110 to the codec 210 or the processor 120 , and transmit a signal from the codec 210 or the processor 120 to the microphone 110 . It can supply the consumed current.
일 실시 예에서, 마이크로폰(110)은 제1 하우징(201) 및 제2 하우징(203) 모두에 배치될 수 있다. 예를 들어, 제1 마이크로폰(111)은 제1 하우징에 배치되고, 제2 마이크로폰(113) 및 제3 마이크로폰(115)은 제2 하우징에 배치될 수 있다. 또는 제1 마이크로폰(111) 및 제2 마이크로폰(113)은 제1 하우징(201)에 배치되고, 제3 마이크로폰(115)은 제2 하우징(203)에 배치될 수 있다.In one embodiment, the microphone 110 may be disposed in both the first housing 201 and the second housing 203 . For example, the first microphone 111 may be disposed in the first housing, and the second microphone 113 and the third microphone 115 may be disposed in the second housing. Alternatively, the first microphone 111 and the second microphone 113 may be disposed in the first housing 201 , and the third microphone 115 may be disposed in the second housing 203 .
도 3은 일 실시 예에 따른 마이크로폰(110)과 프로세서(120)의 구성도(300)이다.3 is a block diagram 300 of the microphone 110 and the processor 120 according to an embodiment.
일 실시 예에서, 프로세서(120)는 DSP(digital signal processor)(305) 및 메모리(310) 등 중 적어도 하나를 포함할 수 있다. DSP(305) 또는 메모리(310)는 프로세서(120)와 별도로 배치될 수 있다. 프로세서(120)는 프로세서(도 12의 프로세서(1220))와 동일하게 또는 적어도 일부분이 동일하게 구현될 수 있다.In an embodiment, the processor 120 may include at least one of a digital signal processor (DSP) 305 and a memory 310 . DSP 305 or memory 310 may be disposed separately from processor 120 . The processor 120 may be implemented the same as or at least a part of the processor (the processor 1220 of FIG. 12 ).
일 실시 예에서, 적어도 하나의 마이크로폰은 SWR I/F(soundwire interface)(315), 신호 조절기(controller)(320), 신호 발생기(signal generator)(325), MEMS(micro electro mechanical systems)(330), 차지 펌프(charge pump)(335), PGA(pre gain amplifier)(340), ADC(analog to digital converter)(345), 디지털 이득 증폭기(350), PDM I/F(pulse density modulation interface)(355) 또는 버퍼(360) 중 적어도 하나를 포함할 수 있다.In one embodiment, the at least one microphone comprises a SWR soundwire interface (I/F) 315 , a signal controller 320 , a signal generator 325 , and a micro electro mechanical systems (MEMS) 330 . ), charge pump (335), PGA (pre gain amplifier) (340), ADC (analog to digital converter) (345), digital gain amplifier 350, PDM I/F (pulse density modulation interface) It may include at least one of 355 and buffer 360 .
일 실시 예에서, 메모리(310)는 제1 신호 (예: 파일럿 신호 (pilot tone))에 대한 제1 정보를 저장할 수 있다. 메모리(310)에 저장된 상기 제1 정보는 코덱(210)을 통하여 마이크로폰(110)으로 제공되고 마이크로폰(110)에서 SWR(soundwire) 인터페이스(315)를 통하여 상기 제1 정보를 획득할 수 있다. 상기 인터페이스(315)는 I2C(inter integrated circuit)로 구현될 수 있다. 상기 제1 정보는 제1 신호에 대한 진폭, 진동수, 파형 또는 세기(magnitude) 값 중 적어도 하나를 포함할 수 있다.According to an embodiment, the memory 310 may store first information about a first signal (eg, a pilot tone). The first information stored in the memory 310 may be provided to the microphone 110 through the codec 210 , and the first information may be obtained from the microphone 110 through a soundwire (SWR) interface 315 . The interface 315 may be implemented as an inter integrated circuit (I2C). The first information may include at least one of an amplitude, a frequency, a waveform, or a magnitude value of the first signal.
일 실시 예에서, 신호 발생기(325)는 제1 신호에 대응하는 제1 정보를 입력 받으면 상기 제1 정보를 기반으로 제1 신호를 발생시킬 수 있다. 상기 신호 발생기(325)는 MEMS(330)와 전기적으로 연결될 수 있고, 상기 발생한 제1 신호를 MEMS(330)로 전달할 수 있다. 제1 신호는 신호 발생기(325)를 통하여 발생하는 파일럿 신호를 의미할 수 있다.In an embodiment, when receiving first information corresponding to the first signal, the signal generator 325 may generate a first signal based on the first information. The signal generator 325 may be electrically connected to the MEMS 330 , and may transmit the generated first signal to the MEMS 330 . The first signal may mean a pilot signal generated through the signal generator 325 .
일 실시 예에서, MEMS(330)는 트랜시버(transceiver)의 역할을 수행할 수 있다. MEMS(330)는 송신 또는 수신 중 적어도 하나의 역할을 수행할 수 있다. 예를 들어, MEMS(330)는 제1 신호를 수신하여 진동판을 진동시킬 수 있고, 상기 진동에 응답하여 신호를 출력할 수 있다. MEMS(330)는 상기 출력된 신호가 반사된 신호를 획득할 수 있다. In an embodiment, the MEMS 330 may serve as a transceiver. The MEMS 330 may perform at least one of transmission and reception. For example, the MEMS 330 may vibrate the diaphragm by receiving the first signal, and may output a signal in response to the vibration. The MEMS 330 may obtain a signal in which the output signal is reflected.
일 실시 예에서, 차지 펌프(335)는 상기 MEMS(330)와 전기적으로 연결되며, MEMS(330)에서의 전압을 높이거나 낮추기 위해 구성될 수 있다.In an embodiment, the charge pump 335 is electrically connected to the MEMS 330 and may be configured to increase or decrease a voltage in the MEMS 330 .
일 실시 예에서, PGA(340)는 MEMS(330)를 통해 획득된 신호를 제공받아 신호의 세기를 증폭시킬 수 있다. 상기 획득된 신호는 제1 신호에 대응되는 신호이며, 마이크로폰(110)으로 입력된 파일럿 신호일수 있다.In an embodiment, the PGA 340 may receive a signal obtained through the MEMS 330 to amplify the signal strength. The obtained signal is a signal corresponding to the first signal, and may be a pilot signal input to the microphone 110 .
일 실시 예에서, ADC(345)는 아날로그 신호를 디지털 신호로 변환할 수 있다. 예를 들어, ADC(345)는, MEMS(330)에서 출력한 신호가 외부에서 반사되어 획득된 신호 또는 외부 스피커에서 출력되어 획득된 신호 중 적어도 하나를 디지털 신호로 변환할 수 있다.In an embodiment, the ADC 345 may convert an analog signal into a digital signal. For example, the ADC 345 may convert at least one of a signal obtained by externally reflecting a signal output from the MEMS 330 or a signal obtained by outputting an external speaker into a digital signal.
일 실시 예에서, 디지털 이득 증폭기(350)는 ADC(345)에서 변환되어 생긴 디지털 신호를 증폭시킬 수 있다. 프로세서(120)에서 신호 조절기(320)를 통하여 오디오 이득을 변경할 필요가 없다고 판단한 경우, 마이크로폰(110)은 디지털 신호를 증폭시키지 않을 수 있다. 프로세서(120)에서 오디오 이득을 변경할 필요가 있다고 판단한 경우, 마이크로폰(110)은 신호 조절기(320)를 통하여 디지털 신호를 증폭시킬 수 있다. 프로세서(120)에서 오디오 이득을 제1 세기만큼 증폭해야 한다고 판단한 경우, 마이크로폰(110)은 디지털 이득 증폭기(350)에서 상기 디지털 신호를 제1 세기만큼 증폭시킬 수 있다.In an embodiment, the digital gain amplifier 350 may amplify a digital signal converted by the ADC 345 . When the processor 120 determines that it is not necessary to change the audio gain through the signal conditioner 320 , the microphone 110 may not amplify the digital signal. When the processor 120 determines that it is necessary to change the audio gain, the microphone 110 may amplify the digital signal through the signal conditioner 320 . When the processor 120 determines that the audio gain should be amplified by the first intensity, the microphone 110 may amplify the digital signal by the first intensity in the digital gain amplifier 350 .
일 실시 예에서, 증폭된 디지털 신호는 PDM 인터페이스(355)를 통하여 버퍼(360)에 저장될 수 있다. 버퍼(360)는 신호 조절기(320)에 의해 구동 강도(drive strength)에 대한 설정 값을 입력 받을 수 있다. 버퍼(360)는 상기 구동 강도에 대한 설정 값을 상기 증폭된 디지털 신호에 적용할 수 있다. 버퍼(360)는 저장된 디지털 신호에 대한 정보를 프로세서(120)로 전송될 수 있다.In an embodiment, the amplified digital signal may be stored in the buffer 360 through the PDM interface 355 . The buffer 360 may receive a set value for drive strength by the signal conditioner 320 . The buffer 360 may apply the set value for the driving strength to the amplified digital signal. The buffer 360 may transmit information about the stored digital signal to the processor 120 .
도 4는 일 실시 예에 따른 마이크로폰 및 프로세서가 통신을 수행하는 과정을 나타낸 동작 흐름도(400)이다.4 is an operation flowchart 400 illustrating a process in which a microphone and a processor perform communication according to an embodiment.
일 실시 예에 따른 동작 410에서, 프로세서(120)는 제1 신호(예: 파일럿 신호)에 대한 제1 정보를 마이크로폰으로 제공할 수 있다. 프로세서(120)는 제1 정보를 SWR(soundwire) 인터페이스를 통해 마이크로폰으로 제공할 수 있다. 상기 제1 정보는 제1 신호에 대한 진폭, 진동수, 파형 또는 세기(magnitude) 값 중 적어도 하나를 포함할 수 있다.In operation 410 according to an embodiment, the processor 120 may provide first information about a first signal (eg, a pilot signal) to the microphone. The processor 120 may provide the first information to the microphone through a soundwire (SWR) interface. The first information may include at least one of an amplitude, a frequency, a waveform, or a magnitude value of the first signal.
일 실시 예에 따른 동작 420에서, 마이크로폰(110)은 프로세서(120)로부터 획득한 제1 정보에 기반하여 제1 신호를 생성할 수 있다. 신호 발생기(예: 도 3의 신호 발생기(325))는 상기 제1 정보를 제1 신호로 변환할 수 있다. 제1 신호는 파일럿 신호일 수 있다. 상기 파일럿 신호는 특정 주파수 대역을 이용하는 신호일 수 있다. 상기 특정 주파수 대역은 약 7kHz ~ 10kHz 또는 약 50kHz 대역을 의미할 수 있다.In operation 420 according to an embodiment, the microphone 110 may generate a first signal based on the first information obtained from the processor 120 . A signal generator (eg, the signal generator 325 of FIG. 3 ) may convert the first information into a first signal. The first signal may be a pilot signal. The pilot signal may be a signal using a specific frequency band. The specific frequency band may mean a band of about 7 kHz to about 10 kHz or about 50 kHz.
일 실시 예에 따른 동작 430에서, 마이크로폰(110)은 제1 신호의 발생에 응답하여 아날로그 신호를 획득할 수 있다. 상기 제1 신호는 파일럿 신호로 언급될 수 있다. 상기 제1 신호는 MEMS(예: 도 3의 MEMS(330)) 진동판으로 전달될 수 있다. 마이크로폰(110)은 상기 전달된 상기 제1 신호를 통해 MEMS(330)에 포함된 진동판을 진동시켜 아날로그 신호를 발생시킬 수 있다. 마이크로폰(110)은 상기 발생한 아날로그 신호를 외부로 출력할 수 있다.In operation 430 according to an embodiment, the microphone 110 may acquire an analog signal in response to the generation of the first signal. The first signal may be referred to as a pilot signal. The first signal may be transmitted to a MEMS (eg, MEMS 330 of FIG. 3 ) diaphragm. The microphone 110 may generate an analog signal by vibrating the diaphragm included in the MEMS 330 through the transmitted first signal. The microphone 110 may output the generated analog signal to the outside.
일 실시 예에 따른 동작 440에서, 마이크로폰(예: 도 1의 마이크로폰(110))은 획득된 아날로그 신호에 기반한 제2 신호에 대한 제2 정보를 생성할 수 있다. 상기 제2 정보는 제2 신호에 대한 진폭, 진동수, 파형 또는 세기(magnitude) 값 중 적어도 하나를 포함할 수 있다. 상기 획득된 아날로그 신호는 MEMS(330)를 통해 출력된 아날로그 신호(예: 파일럿 신호를 기반으로 생성된 아날로그 신호)가 반사되어 돌아온 신호일 수 있다. 상기 아날로그 신호는 정현파 형태 또는 구형파 형태를 갖출 수 있다. 또한 상기 아날로그 신호는 특정 주파수 대역의 일정한 세기의 신호일 수 있다. PGA(340)는 MEMS(330)에 포함된 진동판의 진동에 응답하여 발생한 제2 신호를 증폭할 수 있다. ADC(345)는 상기 증폭된 제2 신호를 디지털 신호로 변환할 수 있다. 디지털 이득 증폭기(350)는 상기 변환된 디지털 신호를 증폭할 수 있다. 신호 조절기(320)는 상기 디지털 신호의 증폭 값을 제어할 수 있다. 예를 들어, 신호 조절기(320)는, 제1 신호에 대한 세기 값(또는 진폭 값) 및 제2 신호에 대한 세기 값(또는 진폭 값)의 비교를 통한 오디오 이득의 차이에 기반하여 디지털 신호의 증폭 값을 제어할 수 있다.In operation 440 according to an embodiment, the microphone (eg, the microphone 110 of FIG. 1 ) may generate second information about the second signal based on the obtained analog signal. The second information may include at least one of an amplitude, a frequency, a waveform, or a magnitude value of the second signal. The acquired analog signal may be a signal returned by reflecting an analog signal output through the MEMS 330 (eg, an analog signal generated based on a pilot signal). The analog signal may have a sinusoidal wave shape or a square wave shape. In addition, the analog signal may be a signal of a certain intensity in a specific frequency band. The PGA 340 may amplify the second signal generated in response to the vibration of the diaphragm included in the MEMS 330 . The ADC 345 may convert the amplified second signal into a digital signal. The digital gain amplifier 350 may amplify the converted digital signal. The signal conditioner 320 may control the amplification value of the digital signal. For example, the signal conditioner 320 may adjust the digital signal based on the difference in audio gain through comparison of the intensity value (or amplitude value) for the first signal and the intensity value (or amplitude value) for the second signal. You can control the amplification value.
일 실시 예에 따른 동작 450에서, 마이크로폰(110)은 제2 정보를 제공할 수 있다. 마이크로폰(110)은 제2 신호에 대한 제2 정보를 프로세서(120)로 제공할 수 있다. 마이크로폰(110)은 제2 정보를 프로세서(120)로 제공하기 전에 버퍼(360)에 임시 저장할 수 있다.In operation 450 according to an embodiment, the microphone 110 may provide the second information. The microphone 110 may provide second information about the second signal to the processor 120 . The microphone 110 may temporarily store the second information in the buffer 360 before providing the second information to the processor 120 .
일 실시 예에 따른 동작 460에서, 프로세서(120)는 제1 정보 및 제2 정보를 기반으로 오디오 이득을 변경하도록 제어할 수 있다. 프로세서(120)는 제1 신호에 대한 세기 값(또는 진폭 값) 및 제2 신호에 대한 세기 값(또는 진폭 값)을 비교할 수 있다. 프로세서는 상기 비교를 통해 오디오 이득 값의 차이가 미리 설정된 범위를 초과하는 경우 오디오 이득을 변경하도록 제어할 수 있다. 프로세서(120)는 메모리(310)에 저장되어 있는 제1 정보와 프로세서(120)로 입력된 제2 정보를 비교하여 오디오 이득을 변경하도록 제어할 수 있다. In operation 460 according to an embodiment, the processor 120 may control to change the audio gain based on the first information and the second information. The processor 120 may compare the intensity value (or amplitude value) of the first signal and the intensity value (or amplitude value) of the second signal. The processor may control to change the audio gain when the difference between the audio gain values exceeds a preset range through the comparison. The processor 120 may control to change the audio gain by comparing the first information stored in the memory 310 with the second information input to the processor 120 .
도 5는 일 실시 예에 따른 외부 스피커를 이용하여 마이크로폰을 보정하는 과정을 나타낸 도면(500)이다. 5 is a diagram 500 illustrating a process of calibrating a microphone using an external speaker according to an exemplary embodiment.
일 실시 예에서, 도 5는 외부 스피커(505)에서 출력한 신호를 통해 마이크로폰을 보정하는 과정을 나타낼 수 있다. 외부 스피커(505)는 전자 장치(100)의 스피커일 수 있다. 마이크로폰(110)에서 신호 발생기(325)와 MEMS(330) 출력 부분은 생략될 수 있다. 생략된 신호 발생기와 MEMS(330) 출력 부분은 외부 스피커(505) 또는 전자 장치(100)의 스피커(131)로 대체될 수 있다. In an embodiment, FIG. 5 may show a process of calibrating a microphone through a signal output from the external speaker 505 . The external speaker 505 may be a speaker of the electronic device 100 . In the microphone 110 , the signal generator 325 and the MEMS 330 output portion may be omitted. The omitted signal generator and MEMS 330 output portion may be replaced with an external speaker 505 or a speaker 131 of the electronic device 100 .
일 실시 예에서, 외부 스피커(505)에서 파일럿 신호를 출력하는 경우, 외부 스피커(505)는 마이크로폰과 마주보는 방향에 위치할 수 있다. 외부 스피커(505)는 마이크로폰이 음성 신호를 송신 및/또는 수신하는 방향에 배치될 수 있다. 외부 스피커(505)는 상기 방향에서 30도 이내의 각도에 배치되어 전자 장치의 마이크로폰에 음성 신호를 전달할 수 있다.In an embodiment, when the pilot signal is output from the external speaker 505, the external speaker 505 may be located in a direction facing the microphone. The external speaker 505 may be disposed in a direction in which the microphone transmits and/or receives a voice signal. The external speaker 505 may be disposed at an angle within 30 degrees from the above direction to transmit a voice signal to the microphone of the electronic device.
일 실시 예에서, 전자 장치(100)의 스피커(131)는 마이크로폰과 동일한 방향의 신호를 송신 및/또는 수신하기 위한 스피커를 의미할 수 있다. 예를 들면, 전자 장치(100)의 스피커(131)는 제2 마이크로폰(113) 또는 제3 마이크로폰(115)의 특성을 보정하기 위한 것일 수 있다. In an embodiment, the speaker 131 of the electronic device 100 may mean a speaker for transmitting and/or receiving a signal in the same direction as that of the microphone. For example, the speaker 131 of the electronic device 100 may be used to correct characteristics of the second microphone 113 or the third microphone 115 .
일 실시 예에서, 전자 장치(100)의 리시버(133)는 스피커(131)와 같은 역할을 수행할 수 있다. 리시버(133)는 스피커와 마찬가지로 파일럿 신호를 출력할 수 있다. 예를 들면, 리시버(133)는 제1 마이크로폰(예: 도 1의 제1 마이크로폰(111))의 특성을 보정하기 위한 것일 수 있다. In an embodiment, the receiver 133 of the electronic device 100 may perform the same role as the speaker 131 . The receiver 133 may output a pilot signal like a speaker. For example, the receiver 133 may be for correcting characteristics of the first microphone (eg, the first microphone 111 of FIG. 1 ).
일 실시 예에서, 제1 마이크로폰(111)은 리시버(133)가 출력한 신호를 수신할 수 있다. 예를 들어, 제1 마이크로폰(111)은 리시버(133)가 출력하여 외부 물체에 반사되어 돌아온 신호를 수신할 수 있다. 다른 예로, 제1 마이크로폰(111)은 리시버(133)가 출력한 신호를 곧바로 수신할 수 있다.In an embodiment, the first microphone 111 may receive a signal output by the receiver 133 . For example, the first microphone 111 may receive a signal output by the receiver 133 and reflected back by an external object. As another example, the first microphone 111 may directly receive the signal output by the receiver 133 .
일 실시 예에 따른 동작 510에서, 외부 스피커(505)는 마이크로폰(110)에 아날로그 신호(예: 파일럿 신호)를 제공할 수 있다. 외부 스피커(505)는 전자 장치(100)의 스피커(131)일 수 있다. 상기 아날로그 신호는 약 7 kHz ~ 10 kHz 또는 약 50 kHz 주파수 대역의 파일럿 신호일 수 있다.In operation 510 according to an embodiment, the external speaker 505 may provide an analog signal (eg, a pilot signal) to the microphone 110 . The external speaker 505 may be the speaker 131 of the electronic device 100 . The analog signal may be a pilot signal in a frequency band of about 7 kHz to 10 kHz or about 50 kHz.
일 실시 예에 따른 동작 520에서, 마이크로폰(110)은 획득한 아날로그 신호에 기반하여 제2 신호를 발생시킬 수 있다. 마이크로폰(110)은 제2 신호를 기반으로 제2 정보를 발생시킬 수 있다. 이 동작은 도 4의 동작 440과 대응될 수 있다.In operation 520 according to an embodiment, the microphone 110 may generate a second signal based on the acquired analog signal. The microphone 110 may generate second information based on the second signal. This operation may correspond to operation 440 of FIG. 4 .
일 실시 예에 따른 동작 530에서, 프로세서(120)는 제1 정보 및 제2 정보를 기반으로 오디오 이득 및 구동 강도 중 적어도 하나를 변경하도록 제어할 수 있다. 상기 구동 강도는 구동 능력(drive capability)으로 언급될 수 있으며, 일반적으로 구동 강도가 증가할수록 메모리(310)의 동작 안정성이 향상되고 전류 소모가 커질 수 있다. 상기 제2 정보는 외부 스피커(505) 또는 전자 장치(100)가 출력한 아날로그 신호에 대응되는 정보일 수 있다. In operation 530 according to an embodiment, the processor 120 may control to change at least one of an audio gain and a driving strength based on the first information and the second information. The driving strength may be referred to as drive capability, and in general, as the driving strength increases, the operational stability of the memory 310 may be improved and current consumption may increase. The second information may be information corresponding to an analog signal output by the external speaker 505 or the electronic device 100 .
도 6은 일 실시 예에 따른 마이크로폰이 제1 정보를 수신하여 제2 정보를 생성하는 과정을 나타낸 동작 흐름도이다.6 is a flowchart illustrating a process in which a microphone receives first information and generates second information according to an exemplary embodiment.
일 실시 예에 따른 동작 610에서, 마이크로폰(110)은 프로세서(120)로부터 제1 신호에 대한 제1 정보를 획득할 수 있다. 마이크로폰(110)은 상기 제1 정보를 SWR(soundwire) 인터페이스를 통하여 획득할 수 있다.In operation 610 according to an embodiment, the microphone 110 may obtain first information about the first signal from the processor 120 . The microphone 110 may acquire the first information through a soundwire (SWR) interface.
일 실시 예에 따른 동작 620에서, 마이크로폰(110)은 제1 정보를 신호 발생기(예: 도 3의 신호 발생기(325))로 전달할 수 있다. 상기 신호 발생기(325)는 제1 정보를 획득하여 제1 정보에 기반한 디지털 신호를 발생시킬 수 있다. 상기 발생한 디지털 신호는 제1 신호로 언급될 수 있다. 상기 제1 신호의 주파수는 약 7~10kHz 또는 약 50 kHz 일 수 있다.In operation 620 according to an embodiment, the microphone 110 may transmit the first information to a signal generator (eg, the signal generator 325 of FIG. 3 ). The signal generator 325 may obtain the first information and generate a digital signal based on the first information. The generated digital signal may be referred to as a first signal. The frequency of the first signal may be about 7-10 kHz or about 50 kHz.
일 실시 예에 따른 동작 630에서, 마이크로폰(110)은 제1 신호를 MEMS(330)로 제공할 수 있다. MEMS(330)는 진동판을 포함할 수 있다. MEMS(330)에 포함된 진동판은 제1 신호를 수신하는 것에 응답하여 진동할 수 있다. MEMS(330)는 진동판의 진동에 응답하여 아날로그 신호를 발생시킬 수 있다.In operation 630 according to an embodiment, the microphone 110 may provide the first signal to the MEMS 330 . MEMS 330 may include a diaphragm. The diaphragm included in the MEMS 330 may vibrate in response to receiving the first signal. The MEMS 330 may generate an analog signal in response to vibration of the diaphragm.
일 실시 예에 따른 동작 640에서, 마이크로폰(110)은 MEMS(330)에 포함된 진동판의 진동에 기반한 아날로그 신호를 외부로 출력할 수 있다. MEMS(330)는 디지털 신호인 제1 신호에 대응하는 아날로그 신호를 외부로 출력할 수 있다. 전자 장치(100)는 챔버(chamber) 안에 놓이고 상기 아날로그 신호를 챔버의 제1 면을 향하여 출력할 수 있다. 전자 장치(100)와 챔버의 제1 면 간 거리는 50cm ~ 1m 일 수 있다.In operation 640 according to an embodiment, the microphone 110 may output an analog signal based on the vibration of the diaphragm included in the MEMS 330 to the outside. The MEMS 330 may output an analog signal corresponding to the first signal that is a digital signal to the outside. The electronic device 100 may be placed in a chamber and output the analog signal toward a first surface of the chamber. The distance between the electronic device 100 and the first surface of the chamber may be 50 cm to 1 m.
일 실시 예에 따른 동작 650에서, 마이크로폰(110)은 외부에서 반사된 아날로그 신호를 MEMS에서 획득할 수 있다. 외부에서 반사된 아날로그 신호는 MEMS(330)에 포함된 진동판을 진동시킬 수 있다. MEMS(330)에 포함된 진동판은 상기 아날로그 신호의 입력에 응답하여 제2 신호를 발생시킬 수 있다.In operation 650 according to an embodiment, the microphone 110 may acquire an externally reflected analog signal from the MEMS. The externally reflected analog signal may vibrate the diaphragm included in the MEMS 330 . The diaphragm included in the MEMS 330 may generate a second signal in response to the input of the analog signal.
일 실시 예에 따른 동작 660에서, 마이크로폰(110)은 PGA(pre gain amplifier) 및 ADC(analog to digital converter)를 통해 제2 신호에 대한 제2 정보를 생성할 수 있다. PGA(340)는 MEMS(330)를 통해 획득된 아날로그 신호에 기반한 제2 신호를 증폭시킬 수 있다. ADC(345)는 상기 증폭된 제2 신호를 디지털 신호로 변환할 수 있다. In operation 660 according to an embodiment, the microphone 110 may generate second information about the second signal through a pre gain amplifier (PGA) and an analog to digital converter (ADC). The PGA 340 may amplify the second signal based on the analog signal obtained through the MEMS 330 . The ADC 345 may convert the amplified second signal into a digital signal.
도 7은 일 실시 예에 따른 프로세서가 마이크로폰의 특성을 보정하는 과정을 나타낸 동작 흐름도(700)이다.7 is an operation flowchart 700 illustrating a process in which a processor corrects characteristics of a microphone according to an exemplary embodiment.
일 실시 예에 따른 동작 710에서, 프로세서(120)는 마이크로폰의 구동 강도를 제1 값을 설정할 수 있다. 예를 들어, 프로세서(120)는 마이크로폰의 구동 강도에 대한 설정 값을 1 mA로 설정할 수 있다. 상기 구동 강도에 대한 설정 값은 신호 조절기(320)로 전달될 수 있다.In operation 710 according to an embodiment, the processor 120 may set the driving strength of the microphone as a first value. For example, the processor 120 may set the setting value for the driving strength of the microphone to 1 mA. The set value for the driving strength may be transmitted to the signal controller 320 .
일 실시 예에 따른 동작 720에서, 프로세서(120)는 제1 신호에 대한 제1 정보를 마이크로폰(110)으로 제공할 수 있다. 상기 프로세서(120)는 메모리(310)에 저장되어 있는 제1 신호에 대한 제1 정보를 SWR 인터페이스(315)를 통해 마이크로폰(110)으로 제공할 수 있다. 상기 마이크로폰(110)은 상기 제1 정보를 신호 발생기(325)로 전달할 수 있다. 신호 발생기(325)는 제1 정보를 기반하여 파일럿 신호인 제1 신호를 발생시킬 수 있다. 상기 제1 신호는 MEMS(330)로 전달될 수 있다. MEMS(330)는 전달된 제1 신호 진동판을 이용하여 상기 제1 신호에 기반한 아날로그 신호를 발생시킬 수 있다. MEMS(330)를 통해 상기 아날로그 신호를 외부에 출력하고 외부에서 반사된 아날로그 신호를 MEMS(330)는 수신할 수 있다. MEMS(330)는 상기 수신된 아날로그 신호에 기반한 제2 신호를 발생시킬 수 있다. 상기 수신된 아날로그 신호는 MEMS(330)에서 출력하여 외부에서 반사되어 돌아온 아날로그 신호, 외부 스피커(505)에서 출력한 아날로그 신호 중 적어도 하나를 의미할 수 있다. 상기 외부 스피커(505)는 전자 장치의 스피커를 포함할 수 있다.In operation 720 according to an embodiment, the processor 120 may provide first information about the first signal to the microphone 110 . The processor 120 may provide first information about the first signal stored in the memory 310 to the microphone 110 through the SWR interface 315 . The microphone 110 may transmit the first information to the signal generator 325 . The signal generator 325 may generate a first signal that is a pilot signal based on the first information. The first signal may be transmitted to the MEMS 330 . The MEMS 330 may generate an analog signal based on the first signal using the transmitted first signal diaphragm. The MEMS 330 may output the analog signal to the outside and the MEMS 330 may receive the externally reflected analog signal. The MEMS 330 may generate a second signal based on the received analog signal. The received analog signal may mean at least one of an analog signal output from the MEMS 330 and reflected from the outside, and an analog signal output from the external speaker 505 . The external speaker 505 may include a speaker of an electronic device.
일 실시 예에 따른 동작 730에서, 프로세서(120)는 마이크로폰으로부터 제2 신호에 대한 제2 정보를 획득할 수 있다. In operation 730 according to an embodiment, the processor 120 may obtain second information about the second signal from the microphone.
일 실시 예에서, 마이크로폰(110)은 상기 제2 신호를 PGA(340)를 통해 증폭시킬 수 있다. ADC(345)는 증폭된 상기 제2 신호를 디지털 변환하여 제2 정보를 생성할 수 있다. 디지털 증폭기(350)는 디지털화된 제2 정보를 수신하여 제2 정보를 증폭시킬 수 있다. 디지털 증폭기(350)는 신호 조절기(320)에 기반하여 증폭 값을 적용할 수 있다. 상기 증폭된 제2 정보 중 적어도 일부는 버퍼(360)에 저장될 수 있다. 상기 증폭된 제2 정보는 PDM 인터페이스(355)를 통하여 프로세서(120)로 제공될 수 있다.In an embodiment, the microphone 110 may amplify the second signal through the PGA 340 . The ADC 345 may digitally convert the amplified second signal to generate second information. The digital amplifier 350 may receive the digitized second information and amplify the second information. The digital amplifier 350 may apply an amplification value based on the signal conditioner 320 . At least a portion of the amplified second information may be stored in the buffer 360 . The amplified second information may be provided to the processor 120 through the PDM interface 355 .
일 실시 예에 따른 동작 740에서, 프로세서(120)는 제1 정보 및 제2 정보를 비교할 수 있다. 프로세서(120)는 메모리(310)에 저장되어 있는 제1 정보와 마이크로폰으로부터 획득한 제2 정보를 비교할 수 있다. 프로세서(120)는 제1 정보 및 제2 정보에 포함된 파형, 세기(magnitude) 값, 진폭 값 또는 전압 값 등 적어도 하나를 비교할 수 있다.In operation 740 according to an embodiment, the processor 120 may compare the first information and the second information. The processor 120 may compare the first information stored in the memory 310 with the second information obtained from the microphone. The processor 120 may compare at least one of a waveform, a magnitude value, an amplitude value, or a voltage value included in the first information and the second information.
일 실시 예에 따른 동작 750에서, 프로세서(120)는 구동 강도의 변경이 필요한지 판단할 수 있다. 프로세서(120)는 마이크로폰(110)의 현재 구동 강도가 낮아서 마이크로폰(110)이 획득한 신호를 프로세서(120)로 전달할 수 없는지 판단할 수 있다. 현재 구동 강도가 낮은지는 아이 다이어그램(eye diagram)으로 판단할 수 있는데, 이하 도 11에서 구체적으로 설명한다. 프로세서(120)가 구동 강도의 변경이 필요하다고 판단한 경우 동작 755를 수행하고, 구동 강도의 변경이 필요하지 않다고 판단한 경우 동작 760을 수행한다.In operation 750 according to an embodiment, the processor 120 may determine whether a change in driving strength is necessary. The processor 120 may determine whether the signal acquired by the microphone 110 cannot be transmitted to the processor 120 because the current driving strength of the microphone 110 is low. Whether the current driving strength is low may be determined using an eye diagram, which will be described in detail below with reference to FIG. 11 . When the processor 120 determines that a change in the driving strength is necessary, operation 755 is performed, and when the processor 120 determines that the change in the driving strength is not necessary, operation 760 is performed.
일 실시 예에 따른 동작 755에서, 프로세서(120)는 구동 강도를 변경할 수 있다. 프로세서(120)는 구동 강도를 변경해야 한다고 판단한 경우, 마이크로폰의 구동 강도를 높이거나 낮추는 보정을 수행할 수 있다.In operation 755 according to an embodiment, the processor 120 may change the driving strength. When it is determined that the driving strength needs to be changed, the processor 120 may perform a correction to increase or decrease the driving strength of the microphone.
일 실시 예에 따른 동작 760에서, 프로세서(120)는 오디오 이득의 변경이 필요한지 판단할 수 있다. 프로세서(120)는 제1 정보에 포함된 오디오 이득 값과 제2 정보에 포함된 오디오 이득 값을 비교할 수 있다. 프로세서(120)는 제1 정보에 대응하는 제1 신호의 세기(magnitude) 값 및 제2 정보에 대응하는 제2 신호의 세기(magnitude) 값을 비교하여 오디오 이득의 변경이 필요한지 판단할 수 있다. 프로세서(120)는 상기 제1 신호 및 상기 제2 신호가 가지고 있는 진폭 값을 비교하여 오디오 이득의 변경이 필요한지 판단할 수 있다.In operation 760 according to an embodiment, the processor 120 may determine whether an audio gain change is necessary. The processor 120 may compare the audio gain value included in the first information with the audio gain value included in the second information. The processor 120 may determine whether the audio gain needs to be changed by comparing the magnitude value of the first signal corresponding to the first information and the magnitude value of the second signal corresponding to the second information. The processor 120 may determine whether an audio gain change is necessary by comparing amplitude values of the first signal and the second signal.
일 실시 예에서, 프로세서(120)는 제1 정보에 포함된 오디오 이득 값과 제2 정보에 포함된 오디오 이득 값의 차이가 지정된 제1 크기 이상인 경우, 상기 차이만큼 오디오 이득의 변경이 필요하다고 판단할 수 있다. 예를 들어, 제1 정보에 포함된 오디오 이득 값이 60 dB이고 제2 정보에 포함된 오디오 이득 값이 52 dB 인 경우, 8 dB 만큼의 차이가 있으므로 프로세서(120)는 8 dB 만큼 오디오 이득의 변경이 필요하다고 판단할 수 있다.In an embodiment, when the difference between the audio gain value included in the first information and the audio gain value included in the second information is equal to or greater than a specified first size, the processor 120 determines that the audio gain needs to be changed by the difference. can do. For example, when the audio gain value included in the first information is 60 dB and the audio gain value included in the second information is 52 dB, since there is a difference by 8 dB, the processor 120 adjusts the audio gain by 8 dB. Changes may be deemed necessary.
일 실시 예에서, 프로세서(120)는 제1 정보에 포함된 오디오 이득 값과 제2 정보에 포함된 오디오 이득 값의 차이가 제1 크기 미만인 경우, 오디오 이득의 변경이 필요 없다고 판단할 수 있다. 예를 들어, 프로세서(120)에 미리 설정된 차이 범위가 5 dB 일 경우, 제1 정보에 포함된 오디오 이득 값이 60 dB이고 제2 정보에 포함된 오디오 이득 값이 58 dB이면 차이 값이 2 dB 로 미리 설정된범위 내에 있으므로 오디오 이득의 변경이 필요 없다고 판단할 수 있다. 상기 제1 크기는 프로세서(120)에 미리 설정된 범위를 의미할 수 있다. 다만 상기 미리 설정된범위는 일 예시에 불과한 것이며, 범위의 설정 값에 따라 달라질 수 있다.In an embodiment, when the difference between the audio gain value included in the first information and the audio gain value included in the second information is less than the first magnitude, the processor 120 may determine that there is no need to change the audio gain. For example, when the difference range preset in the processor 120 is 5 dB, if the audio gain value included in the first information is 60 dB and the audio gain value included in the second information is 58 dB, the difference value is 2 dB Since it is within the preset range, it can be determined that there is no need to change the audio gain. The first size may mean a range preset in the processor 120 . However, the preset range is merely an example, and may vary according to a set value of the range.
일 실시 예에 따른 동작 765에서, 프로세서(120)는 오디오 이득을 변경할 수 있다. 프로세서(120)는 오디오 이득을 비교하여 이득 값의 차이가 미리 설정된범위를 넘어서면 오디오 이득을 변경할 수 있다. 프로세서(120)는 현재 오디오 이득 값이 기준 오디오 이득 값을 초과하면 초과한만큼 하향 보정할 수 있다. 프로세서(120)는 현재 오디오 이득 값이 기준 오디오 이득 값보다 작으면 작은만큼 상향 보정할 수 있다.In operation 765 according to an embodiment, the processor 120 may change the audio gain. The processor 120 may compare the audio gains and change the audio gain when the difference between the gain values exceeds a preset range. When the current audio gain value exceeds the reference audio gain value, the processor 120 may perform downward correction as much as it exceeds the reference audio gain value. If the current audio gain value is smaller than the reference audio gain value, the processor 120 may perform upward correction by a small amount.
도 8은 일 실시 예에 따른 마이크로폰의 가청 주파수 대역에서의 입력 및 출력 성능을 나타낸 도면(800)이다.8 is a diagram 800 illustrating input and output performance of a microphone in an audible frequency band according to an embodiment.
일 실시 예에서, 그래프 810에서 가로 축의 데이터는 주파수이고, 세로 축의 데이터는 음압 레벨(sound pressure level)일 수 있다. 그래프 810에서 가로 축 데이터의 범위는 가청주파수 대역을 의미할 수 있다. 상기 가청주파수 대역은 100Hz ~ 10kHz를 포함할 수 있다.In an embodiment, in the graph 810 , data on a horizontal axis may be a frequency, and data on a vertical axis may be a sound pressure level. In the graph 810, the range of the horizontal axis data may mean an audio frequency band. The audio frequency band may include 100 Hz to 10 kHz.
일 실시 예에서, 그래프 810은 마이크로폰(예: 도 1의 마이크로폰(110))에 포함된 MEMS(330)를 통해 신호를 출력할 때 100 Hz~100 kHz 주파수 별 출력 음압 특성을 나타낸 것이다. 그래프 810을 참조하면, 1 kHz 이하의 저주파 대역의 음압이 상대적으로 작고, 7 kHz 이상의 고주파 대역이 60 dB 이상의 높은 출력 레벨이 나오는 것을 알 수 있다. 프로세서(120)는 7 kHz 이상의 고주파 대역의 신호를 파일럿 신호로 설정할 수 있다. 마이크로폰(110)은 프로세서의 설정에 응답하여 상기 파일럿 신호를 발생시킬 수 있다. 마이크로폰(110)은 상기 파일럿 신호의 발생에 응답하여 아날로그 신호로 발생시켜 외부로 출력할 수 있다.In an embodiment, graph 810 shows output sound pressure characteristics for each frequency of 100 Hz to 100 kHz when a signal is output through the MEMS 330 included in the microphone (eg, the microphone 110 of FIG. 1 ). Referring to the graph 810, it can be seen that the sound pressure of the low frequency band of 1 kHz or less is relatively small, and the high frequency band of 7 kHz or more has a high output level of 60 dB or more. The processor 120 may set a signal of a high frequency band of 7 kHz or higher as a pilot signal. The microphone 110 may generate the pilot signal in response to the setting of the processor. The microphone 110 may generate an analog signal in response to the generation of the pilot signal and output it to the outside.
일 실시 예에서, 그래프 820은 1kHz에 대응되는 음압 레벨에 대한 상대적인 음압 레벨을 주파수 별로 나타낼 수 있다. 가청 주파수 대역(821)에서 점선 823은 규격 상한(upper specification limit) 선과 규격 하한(lower specification limit) 선을 나타낼 수 있다. 실선 825은 음압에 대한 세기(magnitude)를 나타낼 수 있다. 그래프 820을 참조하면, 10000 Hz에 가까워질수록 음압 레벨인 세기(magnitude)가 커지는 것을 알 수 있고, 이런 결과는 그래프 810에서의 내용과 대응될 수 있다.In an embodiment, the graph 820 may represent a sound pressure level relative to a sound pressure level corresponding to 1 kHz for each frequency. In the audible frequency band 821 , a dotted line 823 may indicate an upper specification limit line and a lower specification limit line. A solid line 825 may represent a magnitude with respect to sound pressure. Referring to the graph 820, it can be seen that the magnitude (magnitude), which is the sound pressure level, increases as it approaches 10000 Hz, and this result may correspond to the contents in the graph 810.
도 9는 일 실시 예에 따른 마이크로폰의 초음파 대역에서의 입력 및 출력 특성을 나타낸 도면(900)이다.9 is a diagram 900 illustrating input and output characteristics of a microphone in an ultrasonic band according to an embodiment.
일 실시 예에서, 그래프 910은 마이크로폰(예: 도 1의 마이크로폰(110))의 초음파 대역에서의 출력 특성을 나타낸 것이다. 상기 그래프 910은 가청 주파수보다 더 높은 초음파 대역의 신호를 MEMS(330)로 출력했을 때의 주파수 특성을 나타낼 수 있다. 그래프 910에서 가로 축의 데이터는 주파수(kHz)이고, 세로 축의 데이터는 음압 레벨[dB]일 수 있다. 상기 초음파 대역은 20 kHz ~ 120 kHz를 포함할 수 있다. 그래프 910은 마이크로폰에 포함된 MEMS(330)를 통해 신호를 출력할 때 20 kHz~120 kHz 주파수 별 출력 음압(sound pressure) 특성을 나타낸 것이다. In an embodiment, graph 910 shows output characteristics in an ultrasonic band of a microphone (eg, the microphone 110 of FIG. 1 ). The graph 910 may represent a frequency characteristic when a signal of an ultrasound band higher than an audible frequency is output to the MEMS 330 . In the graph 910, data on the horizontal axis may be frequency (kHz), and data on the vertical axis may be sound pressure level [dB]. The ultrasonic band may include 20 kHz to 120 kHz. Graph 910 shows output sound pressure characteristics for each frequency of 20 kHz to 120 kHz when a signal is output through the MEMS 330 included in the microphone.
일 실시 예에서, 그래프 910을 참조하면, 50 kHz ~ 60 kHz, 90 kHz ~ 110kHz의 초음파 대역의 신호를 출력하는 경우 출력 음압 레벨이 60dB 보다 높다는 것을 알 수 있다.In an embodiment, referring to graph 910 , it can be seen that when a signal of an ultrasonic band of 50 kHz to 60 kHz and 90 kHz to 110 kHz is output, the output sound pressure level is higher than 60 dB.
일 실시 예에서, 그래프 910을 참조하면, 마이크로폰(110)의 출력 전압을 3V, 5V, 8V로 설정하였을 때 음압 레벨을 나타낼 수 있다. 출력 전압을 높일수록 출력 음압 레벨이 높아지는 것을 확인할 수 있다. 기준 출력 음압 레벨이 60dB 인 경우, 출력 전압을 3V로 설정하면 출력 음압 레벨을 유지하면서 소모 전류도 줄일 수 있다.In an embodiment, referring to graph 910 , when the output voltage of the microphone 110 is set to 3V, 5V, or 8V, the sound pressure level may be indicated. It can be seen that the higher the output voltage, the higher the output sound pressure level. When the reference output sound pressure level is 60dB, if the output voltage is set to 3V, the current consumption can be reduced while maintaining the output sound pressure level.
일 실시 예에서, 그래프 920은 마이크로폰(예: 도 1의 마이크로폰(110))의 초음파 대역에서의 입력 특성을 나타낸 것이다. 상기 그래프 920은 가청 주파수보다 더 높은 초음파 대역의 신호를 MEMS(330)로 입력 받았을 때의 주파수 특성을 나타낼 수 있다. 상기 초음파 대역은 20kHz ~ 120kHz를 포함할 수 있다. 그래프 920은 마이크로폰에 포함된 MEMS(330)를 통해 신호를 출력할 때 20kHz~120kHz 주파수 별 특성을 나타낸 것이다.In an embodiment, graph 920 shows input characteristics in an ultrasonic band of a microphone (eg, the microphone 110 of FIG. 1 ). The graph 920 may represent a frequency characteristic when a signal of an ultrasound band higher than an audible frequency is input to the MEMS 330 . The ultrasonic band may include 20 kHz to 120 kHz. Graph 920 shows characteristics for each frequency of 20 kHz to 120 kHz when a signal is output through the MEMS 330 included in the microphone.
일 실시 예에서, 그래프 920을 참조하면, 약 50 kHz의 초음파 대역의 파일럿 신호를 MEMS(330)로 입력 받는 경우 입력 특성이 다른 주파수 대역보다 높다는 것을 알 수 있다.In an embodiment, referring to graph 920 , it can be seen that when a pilot signal of an ultrasound band of about 50 kHz is input to the MEMS 330 , the input characteristic is higher than that of other frequency bands.
일 실시 예에서, 도 9를 참조하면, 마이크로폰의 MEMS(330)로 초음파 대역의 신호를 출력하는 것과 입력이 모두 가능하다는 것을 알 수 있다. 그래프 910과 그래프 920을 종합하면, 출력 성능과 입력 성능이 우수한 초음파 대역은 약 50 kHz임을 알 수 있다.In one embodiment, referring to FIG. 9 , it can be seen that both outputting and inputting a signal of an ultrasound band to the MEMS 330 of the microphone are possible. Combining Graph 910 and Graph 920, it can be seen that the ultrasonic band having excellent output performance and input performance is about 50 kHz.
도 10은 일 실시 예에 따른 마이크로폰의 초음파 대역에서의 트랜시버(transceiver)로서의 성능을 나타낸 도면(1000)이다.10 is a diagram 1000 illustrating the performance of a microphone as a transceiver in an ultrasonic band according to an embodiment.
일 실시 예에서, MEMS(330)는 송신기와 수신기를 합친 형태의 트랜시버로 역할 할 수 있다. 예를 들어, MEMS(330)는 아날로그 신호를 외부로 송신하고 외부에서 반사되어 돌아오는 아날로그 신호를 수신할 수 있다.In an embodiment, the MEMS 330 may serve as a transceiver in the form of a transmitter and a receiver combined. For example, the MEMS 330 may transmit an analog signal to the outside and receive an analog signal reflected from the outside.
일 실시 예에서, 그래프 1010은 마이크로폰의 초음파 대역의 입력 및 출력 성능을 종합한 성능을 나타낼 수 있다. 그래프 1010을 참조하면, 초음파 주파수 대역 중 약 50 kHz에서 MEMS(330)의 입력 및 출력의 성능이 우수한 것을 알 수 있다. 프로세서(120)는 파일럿 신호의 기준 주파수를 상기 약 50 kHz로 설정되도록 제어할 수 있다.According to an embodiment, the graph 1010 may represent the performance of integrating the input and output performance of the ultrasonic band of the microphone. Referring to the graph 1010, it can be seen that the performance of the input and output of the MEMS 330 is excellent at about 50 kHz in the ultrasonic frequency band. The processor 120 may control the reference frequency of the pilot signal to be set to about 50 kHz.
도 11은 전자 장치에서 구동 강도와 오디오 이득 튜닝에 관한 도면(1100)이다.11 is a diagram 1100 illustrating driving strength and audio gain tuning in an electronic device.
일 실시 예에서, 그림 1110은 2mA, 8mA에 해당하는 구동 강도에 따른 아이 다이어그램(eye diagram)(1112)을 나타낼 수 있다. 아이 다이어그램(1112)은 눈(eye) 열림의 크기 정도로 데이터의 품질이나 회로 장비의 결함에 대해서 직관적 또는 정성적으로 판단할 수 있도록 해주는 지표다. 일반적으로 눈 모양이 흐려지면서 닫히는 형상을 하게 될수록 신호 품질이 열화 되었다고 판단할 수 있다.In an embodiment, FIG. 1110 may show an eye diagram 1112 according to driving strength corresponding to 2 mA and 8 mA. The eye diagram 1112 is an index that enables intuitive or qualitative judgment about the quality of data or the defect of circuit equipment to the extent of the size of the eye opening. In general, it can be determined that the signal quality is deteriorated as the shape of the eye becomes blurred and closed.
일 실시 예에서, 구동 강도가 2 mA로 설정된 경우, 다이아몬드 형상(1114)에 아이 다이어그램(1112)이 닿는 걸 확인할 수 있다. 구동 강도가 2 mA로 설정된 경우, 구동 강도가 충분하지 못하다는 것을 보여주며 마이크로폰의 구동 강도를 높이는 방향으로 보정해야 함을 알 수 있다.In an embodiment, when the driving strength is set to 2 mA, it can be confirmed that the eye diagram 1112 touches the diamond shape 1114 . When the driving strength is set to 2 mA, it is shown that the driving strength is not sufficient, and it can be seen that correction should be made in the direction of increasing the driving strength of the microphone.
일 실시 예에서, 구동 강도가 8 mA로 설정된 경우, 아이 다이어그램(1112)의 눈 모양의 크기가, 구동 강도가 2 mA로 설정된 경우의 눈 크기보다 커져서 다이아몬드 형상(1114)에 닿지 않는 걸 확인할 수 있다. 구동 강도가 8 mA로 설정된 경우, 구동 강도가 충분하다는 것을 보여주며, 마이크로폰의 구동 강도를 유지하거나 줄이는 방향으로 보정해야 함을 알 수 있다.In one embodiment, when the driving intensity is set to 8 mA, the size of the eye shape in the eye diagram 1112 is larger than the eye size when the driving intensity is set to 2 mA, so it can be confirmed that the diamond shape 1114 does not touch. have. When the driving strength is set to 8 mA, it shows that the driving strength is sufficient, and it can be seen that the microphone needs to be corrected in the direction of maintaining or reducing the driving strength.
일 실시 예에서, 프로세서(120)는 마이크로폰(110)의 구동 강도 세팅 값을 1 mA로 설정할 수 있다. 프로세서(120)는 마이크로폰의 신호 조절기(signal controller)(320) 및 신호 발생기(signal generator)(325)를 약 7~10 kHz 또는 약 50kHz 대역에 맞도록 설정할 수 있다. 마이크로폰(110)은 상기 설정된 1 mA의 구동 강도를 기반으로 약 7~10 kHz 또는 약 50kHz 대역의 신호를 출력할 수 있다. 마이크로폰(110)은 상기 신호를 출력 후 외부로부터 반사되어 돌아오는 신호를 수신할 수 있다. 마이크로폰(110)은 상기 수신한 신호를 프로세서(120)로 전달할 수 있다. 프로세서(120)는 전달받은 파일럿 신호와 메모리에 저장되어 있는 제1 신호 및 제1 신호에 대응하는 제1 정보 중 적어도 하나를 비교를 수행할 수 있다.In an embodiment, the processor 120 may set the driving strength setting value of the microphone 110 to 1 mA. The processor 120 may set a signal controller 320 and a signal generator 325 of the microphone to fit in a band of about 7 to 10 kHz or about 50 kHz. The microphone 110 may output a signal in a band of about 7 to 10 kHz or about 50 kHz based on the set driving strength of 1 mA. The microphone 110 may receive a signal reflected from the outside after outputting the signal. The microphone 110 may transmit the received signal to the processor 120 . The processor 120 may compare the received pilot signal with at least one of the first signal stored in the memory and the first information corresponding to the first signal.
일 실시 예에서, 아이 다이어그램(1112)의 눈(eye) 모양이 작아서 다이아몬드 형상(1114)에 닿는 경우, 프로세서(120)는 아래 <표 1>처럼 마이크로폰의 구동 강도 값을 점진적으로 높여가며 비교 작업을 반복적으로 수행할 수 있다. 프로세서(120)는 정상으로 확인되는 파형이 입력될 때까지 상기 비교 작업을 수행한 후 정상으로 확인되는 그 때의 값을 구동 강도 값으로 설정할 수 있다. 정상으로 확인되고나서 마이크로폰의 구동 강도에 대한 보정 작업은 종료될 수 있다.In an embodiment, when the eye shape of the eye diagram 1112 is small and touches the diamond shape 1114, the processor 120 performs a comparison operation while gradually increasing the driving strength value of the microphone as shown in Table 1 below. can be repeatedly performed. The processor 120 may perform the comparison operation until the waveform that is confirmed as normal is input, and then set the value at that time when the waveform is confirmed to be normal as the driving intensity value. After it is confirmed as normal, the correction operation for the driving strength of the microphone may be finished.
Setting valueSetting value Drive strengthdrive strength
0000 1mA1mA
0101 2mA 2mA
1010 4mA 4mA
1111 16mA16mA
일 실시 예에서, <표 1>은 마이크로폰 구동 강도 세팅 테이블(MIC drive strength setting table)을 의미할 수 있다. 메모리(예: 도 3의 메모리(310))는 구동 강도 값을 디지털 값으로 저장하기 위해서 구동 강도 값에 대응되는 설정 값을 이진수로 저장할 수 있다. 예를 들어, 구동 강도 1 mA를 00으로, 구동 강도 2 mA를 01로 저장할 수 있다. 상기 테이블은 일 예시이며, 메모리(310)는 다양한 설정 값을 가질 수 있다.In an embodiment, <Table 1> may refer to a microphone drive strength setting table. A memory (eg, the memory 310 of FIG. 3 ) may store a set value corresponding to the driving intensity value as a binary number in order to store the driving intensity value as a digital value. For example, a driving intensity of 1 mA may be stored as 00, and a driving intensity of 2 mA as 01 may be stored. The above table is an example, and the memory 310 may have various setting values.
일 실시 예에서, 그래프 1120은 제1 정보에 대한 오디오 이득 값과 제2 정보에 대한 오디오 이득 값을 나타낼 수 있다. 그래프 1120은 제1 신호에 대응하는 제1 정보 및 제2 신호에 대응하는 제2 정보를 시간에 따른 크기 값(magnitude)으로 나타낼 수 있다.In an embodiment, the graph 1120 may represent an audio gain value for the first information and an audio gain value for the second information. The graph 1120 may represent the first information corresponding to the first signal and the second information corresponding to the second signal as magnitude values according to time.
일 실시 예에서, 프로세서(120)는 제1 정보에 포함된 오디오 이득 값과 제2 정보에 포함된 오디오 이득 값의 차이가 제1 크기 이상인 경우, 상기 차이만큼 이득을 보정할 수 있다. 프로세서(120)는 제1 정보에 포함된 오디오 이득 값과 제2 정보에 포함된 오디오 이득 값의 차이가 제1 크기 미만인 경우, 오디오 이득의 보정을 수행하지 않을 수 있다. 상기 제1 크기는 프로세서(120)에 미리 설정된 범위를 의미할 수 있다. 상기 범위는 5 dB 일 수 있다. 예를 들어, 프로세서에 미리 설정된 범위가 5 dB 일 경우, 제1 정보에 포함된 오디오 이득 값이 60 dB이고 제2 정보에 포함된 오디오 이득 값이 58 dB이면 차이 값이 2 dB 로 미리 설정된범위 내에 있으므로 보정을 수행하지 않을 수 있다. 다른 예로, 제1 정보에 포함된 오디오 이득 값이 60 dB이고 제2 정보에 포함된 오디오 이득 값이 52 dB 인 경우, 8 dB 만큼의 차이가 있으므로 프로세서(120)는 8 dB 만큼 상향 보정하도록 제어할 수 있다. 프로세서(120)는 제1 정보에 대응하는 오디오 이득 값 및 제2 정보에 대응하는 오디오 이득 값의 비교는 진폭을 비교하여 판단할 수 있다. 다만 상기 범위는 일 예시에 불과한 것이며, 범위의 설정 값에 따라 달라질 수 있다.In an embodiment, when the difference between the audio gain value included in the first information and the audio gain value included in the second information is equal to or greater than a first magnitude, the processor 120 may correct the gain by the difference. When the difference between the audio gain value included in the first information and the audio gain value included in the second information is less than the first magnitude, the processor 120 may not perform audio gain correction. The first size may mean a range preset in the processor 120 . The range may be 5 dB. For example, when the range preset in the processor is 5 dB, if the audio gain value included in the first information is 60 dB and the audio gain value included in the second information is 58 dB, the difference value is preset to 2 dB Since it is within the range, calibration may not be performed. As another example, when the audio gain value included in the first information is 60 dB and the audio gain value included in the second information is 52 dB, since there is a difference by 8 dB, the processor 120 controls to compensate upward by 8 dB can do. The processor 120 may determine the comparison of the audio gain value corresponding to the first information and the audio gain value corresponding to the second information by comparing the amplitude. However, the above range is merely an example, and may vary depending on a set value of the range.
Setting valueSetting value Audio gainAudio gain
0000 -2dB-2dB
0101 -1dB-1dB
1010 +1dB+1dB
1111 +2dB+2dB
일 실시 예에서, <표 2>는 오디오 이득 세팅 테이블(audio gain setting table)을 의미할 수 있다. 메모리(예: 도 3의 메모리(310))는 오디오 이득 값을 디지털 값으로 저장하기 위해서 오디오 이득 값에 대응되는 설정 값을 이진수로 저장할 수 있다. 예를 들어, 오디오 이득 -2 dB을 00으로, 오디오 이득 +1 dB을 10으로 저장할 수 있다. 상기 테이블은 일 예시이며, 메모리(310)는 다양한 설정 값을 가질 수 있다.In an embodiment, <Table 2> may refer to an audio gain setting table. A memory (eg, the memory 310 of FIG. 3 ) may store a set value corresponding to the audio gain value as a binary number in order to store the audio gain value as a digital value. For example, an audio gain of -2 dB may be stored as 00 and an audio gain of +1 dB as 10. The above table is an example, and the memory 310 may have various setting values.
이하, 본 문서의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 문서를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. Hereinafter, various embodiments of the present document will be described with reference to the accompanying drawings. However, this document is not intended to limit the present disclosure to specific embodiments, and should be understood to include various modifications, equivalents, and/or alternatives of the embodiments of the present invention.
도 12은, 다양한 실시 예들에 따른, 네트워크 환경(1200) 내의 전자 장치(1201)(예: 도 1의 전자 장치(100))의 블럭도이다. 도 12을 참조하면, 네트워크 환경(1200)에서 전자 장치(1201)는 제1 네트워크(1298)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(1202)와 통신하거나, 또는 제2 네트워크(1299)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(1204) 또는 서버(1208)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(1201)는 서버(1208)를 통하여 전자 장치(1204)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(1201)는 프로세서(1220)(예: 도 1의 프로세서(120)), 메모리(1230)(예: 도 3의 메모리(310)), 입력 장치(1250), 음향 출력 장치(1255), 표시 장치(1260), 오디오 모듈(1270), 센서 모듈(1276), 인터페이스(1277), 햅틱 모듈(1279), 카메라 모듈(1280), 전력 관리 모듈(1288), 배터리(1289)(예: 도 2의 배터리(230)), 통신 모듈(1290), 가입자 식별 모듈(1296), 또는 안테나 모듈(1297)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(1201)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(1260) 또는 카메라 모듈(1280))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시 예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(1276)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(1260)(예: 디스플레이)에 임베디드된 채 구현될 수 있다12 is a block diagram of an electronic device 1201 (eg, the electronic device 100 of FIG. 1 ) in the network environment 1200 according to various embodiments of the present disclosure. Referring to FIG. 12 , in a network environment 1200 , the electronic device 1201 communicates with the electronic device 1202 through a first network 1298 (eg, a short-range wireless communication network) or a second network 1299 . It may communicate with the electronic device 1204 or the server 1208 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 1201 may communicate with the electronic device 1204 through the server 1208 . According to an embodiment, the electronic device 1201 includes a processor 1220 (eg, the processor 120 of FIG. 1 ), a memory 1230 (eg, the memory 310 of FIG. 3 ), an input device 1250 , Sound output device 1255, display device 1260, audio module 1270, sensor module 1276, interface 1277, haptic module 1279, camera module 1280, power management module 1288, battery 1289 (eg, the battery 230 of FIG. 2 ), a communication module 1290 , a subscriber identification module 1296 , or an antenna module 1297 . In some embodiments, at least one of these components (eg, the display device 1260 or the camera module 1280 ) may be omitted or one or more other components may be added to the electronic device 1201 . In some embodiments, some of these components may be implemented as a single integrated circuit. For example, the sensor module 1276 (eg, a fingerprint sensor, an iris sensor, or an illuminance sensor) may be implemented while being embedded in the display device 1260 (eg, a display).
프로세서(1220)는, 예를 들면, 소프트웨어(예: 프로그램(1240))를 실행하여 프로세서(1220)에 연결된 전자 장치(1201)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시 예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(1220)는 다른 구성요소(예: 센서 모듈(1276) 또는 통신 모듈(1290))로부터 수신된 명령 또는 데이터를 휘발성 메모리(1232)에 로드하고, 휘발성 메모리(1232)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(1234)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(1220)는 메인 프로세서(1221)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(1223)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(1223)는 메인 프로세서(1221)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(1223)는 메인 프로세서(1221)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor 1220, for example, executes software (eg, a program 1240) to execute at least one other component (eg, a hardware or software component) of the electronic device 1201 connected to the processor 1220. It can control and perform various data processing or operations. According to an embodiment, as at least part of data processing or operation, the processor 1220 may store a command or data received from another component (eg, the sensor module 1276 or the communication module 1290) into the volatile memory 1232 . may be loaded into , process commands or data stored in the volatile memory 1232 , and store the resulting data in the non-volatile memory 1234 . According to an embodiment, the processor 1220 includes a main processor 1221 (eg, a central processing unit or an application processor), and a secondary processor 1223 (eg, a graphic processing unit or an image signal processor) that can be operated independently or together with the main processor 1221 (eg, a graphics processing unit or an image signal processor). , a sensor hub processor, or a communication processor). Additionally or alternatively, the auxiliary processor 1223 may be configured to use less power than the main processor 1221 or to specialize in a designated function. The auxiliary processor 1223 may be implemented separately from or as a part of the main processor 1221 .
보조 프로세서(1223)는, 예를 들면, 메인 프로세서(1221)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(1221)를 대신하여, 또는 메인 프로세서(1221)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(1221)와 함께, 전자 장치(1201)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(1260), 센서 모듈(1276), 또는 통신 모듈(1290))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(1223)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(1280) 또는 통신 모듈(1290))의 일부로서 구현될 수 있다. The coprocessor 1223 may be, for example, on behalf of the main processor 1221 while the main processor 1221 is in an inactive (eg, sleep) state, or when the main processor 1221 is active (eg, executing an application). ), together with the main processor 1221, at least one of the components of the electronic device 1201 (eg, the display device 1260, the sensor module 1276, or the communication module 1290) It is possible to control at least some of the related functions or states. According to an embodiment, the coprocessor 1223 (eg, an image signal processor or a communication processor) may be implemented as part of another functionally related component (eg, the camera module 1280 or the communication module 1290). have.
메모리(1230)는, 전자 장치(1201)의 적어도 하나의 구성요소(예: 프로세서(1220) 또는 센서모듈(1276))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(1240)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(1230)는, 휘발성 메모리(1232) 또는 비휘발성 메모리(1234)를 포함할 수 있다. The memory 1230 may store various data used by at least one component of the electronic device 1201 (eg, the processor 1220 or the sensor module 1276). The data may include, for example, input data or output data for software (eg, the program 1240 ) and instructions related thereto. The memory 1230 may include a volatile memory 1232 or a non-volatile memory 1234 .
프로그램(1240)은 메모리(1230)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(1242), 미들 웨어(1244) 또는 어플리케이션(1246)을 포함할 수 있다. The program 1240 may be stored as software in the memory 1230 , and may include, for example, an operating system 1242 , middleware 1244 , or an application 1246 .
입력 장치(1250)는, 전자 장치(1201)의 구성요소(예: 프로세서(1220))에 사용될 명령 또는 데이터를 전자 장치(1201)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(1250)는, 예를 들면, 마이크로폰, 마우스, 키보드, 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The input device 1250 may receive a command or data to be used by a component (eg, the processor 1220 ) of the electronic device 1201 from the outside (eg, a user) of the electronic device 1201 . The input device 1250 may include, for example, a microphone, a mouse, a keyboard, or a digital pen (eg, a stylus pen).
음향 출력 장치(1255)는 음향 신호를 전자 장치(1201)의 외부로 출력할 수 있다. 음향 출력 장치(1255)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The sound output device 1255 may output a sound signal to the outside of the electronic device 1201 . The sound output device 1255 may include, for example, a speaker or a receiver. The speaker can be used for general purposes such as multimedia playback or recording playback, and the receiver can be used to receive an incoming call. According to an embodiment, the receiver may be implemented separately from or as a part of the speaker.
표시 장치(1260)는 전자 장치(1201)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(1260)는, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 표시 장치(1260)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다. The display device 1260 may visually provide information to the outside (eg, a user) of the electronic device 1201 . The display device 1260 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the corresponding device. According to an embodiment, the display device 1260 may include a touch circuitry configured to sense a touch or a sensor circuit (eg, a pressure sensor) configured to measure the intensity of a force generated by the touch. have.
오디오 모듈(1270)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(1270)은, 입력 장치(1250) 를 통해 소리를 획득하거나, 음향 출력 장치(1255), 또는 전자 장치(1201)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(1202)) (예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.The audio module 1270 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 1270 acquires a sound through the input device 1250 or an external electronic device (eg, a sound output device 1255 ) directly or wirelessly connected to the electronic device 1201 . The sound may be output through the electronic device 1202) (eg, a speaker or a headphone).
센서 모듈(1276)은 전자 장치(1201)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시 예에 따르면, 센서 모듈(1276)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module 1276 detects an operating state (eg, power or temperature) of the electronic device 1201 or an external environmental state (eg, user state), and generates an electrical signal or data value corresponding to the sensed state. can do. According to an embodiment, the sensor module 1276 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
인터페이스(1277)는 전자 장치(1201)가 외부 전자 장치(예: 전자 장치(1202))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(1277)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface 1277 may support one or more designated protocols that may be used for the electronic device 1201 to directly or wirelessly connect with an external electronic device (eg, the electronic device 1202 ). According to an embodiment, the interface 1277 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
연결 단자(1278)는, 그를 통해서 전자 장치(1201)가 외부 전자 장치(예: 전자 장치(1202))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시 예에 따르면, 연결 단자(1278)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal 1278 may include a connector through which the electronic device 1201 can be physically connected to an external electronic device (eg, the electronic device 1202 ). According to an embodiment, the connection terminal 1278 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
햅틱 모듈(1279)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시 예에 따르면, 햅틱 모듈(1279)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module 1279 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense. According to an embodiment, the haptic module 1279 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
카메라 모듈(1280)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(1280)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module 1280 may capture still images and moving images. According to an embodiment, the camera module 1280 may include one or more lenses, image sensors, image signal processors, or flashes.
전력 관리 모듈(1288)은 전자 장치(1201)에 공급되는 전력을 관리할 수 있다. 일 실시 예에 따르면, 전력 관리 모듈(388)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module 1288 may manage power supplied to the electronic device 1201 . According to an embodiment, the power management module 388 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
배터리(1289)는 전자 장치(1201)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일 실시 예에 따르면, 배터리(1289)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery 1289 may supply power to at least one component of the electronic device 1201 . According to an embodiment, the battery 1289 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
통신 모듈(1290)은 전자 장치(1201)와 외부 전자 장치(예: 전자 장치(1202), 전자 장치(1204), 또는 서버(1208))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(1290)은 프로세서(1220)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(1290)은 무선 통신 모듈(1292)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(1294)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(1298)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제2 네트워크(1299)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(1292)은 가입자 식별 모듈(1296)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제1 네트워크(1298) 또는 제2 네트워크(1299)와 같은 통신 네트워크 내에서 전자 장치(1201)를 확인 및 인증할 수 있다. The communication module 1290 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 1201 and an external electronic device (eg, the electronic device 1202, the electronic device 1204, or the server 1208). It can support establishment and communication performance through the established communication channel. The communication module 1290 operates independently of the processor 1220 (eg, an application processor) and may include one or more communication processors supporting direct (eg, wired) communication or wireless communication. According to an embodiment, the communication module 1290 may include a wireless communication module 1292 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 1294 (eg, : It may include a LAN (local area network) communication module, or a power line communication module). A corresponding communication module among these communication modules may be a first network 1298 (eg, a short-range communication network such as Bluetooth, WiFi direct, or infrared data association (IrDA)) or a second network 1299 (eg, a cellular network, the Internet, or It can communicate with an external electronic device through a computer network (eg, a telecommunication network such as a LAN or WAN). These various types of communication modules may be integrated into one component (eg, a single chip) or may be implemented as a plurality of components (eg, multiple chips) separate from each other. The wireless communication module 1292 uses subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 1296 within a communication network such as the first network 1298 or the second network 1299 . The electronic device 1201 may be identified and authenticated.
안테나 모듈(1297)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시 예에 따르면, 안테나 모듈은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일 실시 예에 따르면, 안테나 모듈(1297)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제1 네트워크(1298) 또는 제2 네트워크(1299)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(1290)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(1290)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시 예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈(1297)의 일부로 형성될 수 있다.The antenna module 1297 may transmit or receive a signal or power to the outside (eg, an external electronic device). According to an embodiment, the antenna module may include one antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern. According to an embodiment, the antenna module 1297 may include a plurality of antennas. In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 1298 or the second network 1299 is connected from the plurality of antennas by, for example, the communication module 1290 . can be selected. A signal or power may be transmitted or received between the communication module 1290 and an external electronic device through the selected at least one antenna. According to some embodiments, other components (eg, RFIC) other than the radiator may be additionally formed as a part of the antenna module 1297 .
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components are connected to each other through a communication method between peripheral devices (eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)) and a signal ( eg commands or data) can be exchanged with each other.
일 실시 예에 따르면, 명령 또는 데이터는 제2 네트워크(1299)에 연결된 서버(1208)를 통해서 전자 장치(1201)와 외부의 전자 장치(1204)간에 송신 또는 수신될 수 있다. 전자 장치(1202, 1204) 각각은 전자 장치(1201)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(1201)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(1202, 1204, or 1208) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(1201)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(1201)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(1201)로 전달할 수 있다. 전자 장치(1201)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. According to an embodiment, the command or data may be transmitted or received between the electronic device 1201 and the external electronic device 1204 through the server 1208 connected to the second network 1299 . Each of the electronic devices 1202 and 1204 may be the same or a different type of the electronic device 1201 . According to an embodiment, all or part of the operations performed by the electronic device 1201 may be executed by one or more of the external electronic devices 1202 , 1204 , or 1208 . For example, when the electronic device 1201 needs to perform a function or service automatically or in response to a request from a user or other device, the electronic device 1201 may perform the function or service itself instead of executing the function or service itself. Alternatively or additionally, one or more external electronic devices may be requested to perform at least a part of the function or the service. The one or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 1201 . The electronic device 1201 may process the result as it is or additionally and provide it as at least a part of a response to the request. For this purpose, for example, cloud computing, distributed computing, or client-server computing technology may be used.
본 문서에 개시된 다양한 실시 예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.The electronic device according to various embodiments disclosed in this document may be a device of various types. The electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device. The electronic device according to the embodiment of the present document is not limited to the above-described devices.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나","A 또는 B 중 적어도 하나, ""A, B 또는 C, " "A, B 및 C 중 적어도 하나, "및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드" 라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.The various embodiments of this document and the terms used therein are not intended to limit the technical features described in this document to specific embodiments, and should be understood to include various modifications, equivalents, or substitutions of the embodiments. In connection with the description of the drawings, like reference numerals may be used for similar or related components. The singular form of the noun corresponding to the item may include one or more of the item, unless the relevant context clearly dictates otherwise. In this document, "A or B", "at least one of A and B", "at least one of A or B," "A, B or C, " "at least one of A, B and C, " and "A , B, or C" each may include any one of the items listed together in the corresponding one of the phrases, or all possible combinations thereof. Terms such as “first”, “second”, or “first” or “second” may simply be used to distinguish the component from other components in question, and may refer to components in other aspects (e.g., importance or order) is not limited. that one (eg, first) component is "coupled" or "connected" to another (eg, second) component with or without the terms "functionally" or "communicatively" When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시 예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. As used herein, the term “module” may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic block, component, or circuit. A module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions. For example, according to an embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시 예들은 기기(machine)(예: 전자 장치(1201)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(1236) 또는 외장 메모리(1238))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(1240))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(1201))의 프로세서(예: 프로세서(1220))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.According to various embodiments of the present disclosure, one or more instructions stored in a storage medium (eg, internal memory 1236 or external memory 1238) readable by a machine (eg, electronic device 1201) may be implemented as software (eg, the program 1240) including For example, a processor (eg, processor 1220 ) of a device (eg, electronic device 1201 ) may call at least one command among one or more commands stored from a storage medium and execute it. This makes it possible for the device to be operated to perform at least one function according to the called at least one command. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not contain a signal (eg, electromagnetic wave), and this term is used in cases where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.
일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to an embodiment, the method according to various embodiments disclosed in this document may be provided by being included in a computer program product. Computer program products may be traded between sellers and buyers as commodities. The computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play Store TM ) or on two user devices ( It can be distributed online (eg download or upload), directly between smartphones (eg smartphones). In the case of online distribution, at least a part of the computer program product may be temporarily stored or temporarily generated in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
다양한 실시 예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시 예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (eg, a module or a program) of the above-described components may include a singular or a plurality of entities. According to various embodiments, one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg, a module or a program) may be integrated into one component. In this case, the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. . According to various embodiments, operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, omitted, or , or one or more other operations may be added.
다양한 실시 예에 따르면, 전자 장치(100)는 제1 마이크로폰(111)을 포함하는 적어도 하나의 마이크로폰, 상기 적어도 하나의 마이크로폰 및 통신 회로와 전기적으로 연결되며, 상기 적어도 하나의 마이크로폰의 오디오 이득(audio gain)을 제어하는 프로세서(120)를 포함하고, 상기 프로세서(120)는, 상기 적어도 하나의 마이크로폰으로 제1 신호에 대한 제1 정보를 제공하고, 상기 적어도 하나의 마이크로폰은 상기 제1 정보에 기반하여 상기 제1 신호를 발생시키고, 상기 제1 신호의 발생에 응답하여 상기 적어도 하나의 마이크로폰에 의해 획득된 아날로그 신호에 기반한 제2 신호에 대한 제2 정보를 생성하고, 상기 제2 신호에 대한 정보를 상기 프로세서(120)로 제공하고, 상기 프로세서(120)는 상기 제1 정보 및 상기 제2 정보에 기반하여 상기 적어도 하나의 상기 오디오 이득을 변경하도록 제어할 수 있다.According to various embodiments of the present disclosure, the electronic device 100 is electrically connected to at least one microphone including the first microphone 111 , the at least one microphone, and a communication circuit, and provides an audio gain of the at least one microphone. gain), wherein the processor 120 provides first information about a first signal to the at least one microphone, and the at least one microphone is based on the first information to generate the first signal, generate second information about a second signal based on an analog signal acquired by the at least one microphone in response to the generation of the first signal, and information about the second signal to the processor 120 , and the processor 120 may control to change the at least one audio gain based on the first information and the second information.
일 실시 예에서, 상기 프로세서(120)는 초기 구동 강도를 제1 값으로 설정할 수 있다.In an embodiment, the processor 120 may set the initial driving intensity as a first value.
일 실시 예에서, 상기 프로세서(120)는 상기 제1 정보 및 상기 제2 정보에 기반하여 상기 적어도 하나의 마이크로폰의 상기 구동 강도를 변경하도록 제어하고, 상기 제1 정보 및 상기 제2 정보는 각각 상기 제1 신호 및 상기 제2 신호에 대한 진폭 값, 진동수, 파형 중 적어도 하나를 포함할 수 있다.In an embodiment, the processor 120 controls to change the driving strength of the at least one microphone based on the first information and the second information, and the first information and the second information are each It may include at least one of an amplitude value, a frequency, and a waveform for the first signal and the second signal.
일 실시 예에서, 상기 적어도 하나의 마이크로폰은 신호 발생기(325)를 포함하고 상기 신호 발생기(325)를 통하여 제1 신호를 발생시킬 수 있다.In an embodiment, the at least one microphone may include a signal generator 325 and generate a first signal through the signal generator 325 .
일 실시 예에서, 프로세서(120)는 상기 제1 정보와 상기 제2 정보에 포함된 크기 값을 비교하여 크기 값의 차이가 제1 크기 이상인 경우, 상기 차이만큼 오디오 이득을 보정할 수 있다.In an embodiment, the processor 120 compares the magnitude values included in the first information and the second information and, when the difference between the magnitude values is equal to or greater than the first magnitude, corrects the audio gain by the difference.
일 실시 예에서, 상기 제1 신호는 주파수 대역이 7kHz ~ 10kHz 또는 50kHz 중 일정한 주파수를 가지는 파일럿 신호일 수 있다.In an embodiment, the first signal may be a pilot signal having a constant frequency among a frequency band of 7 kHz to 10 kHz or 50 kHz.
일 실시 예에서, 상기 프로세서(120)는 상기 제1 정보 및 상기 제2 정보를 기반으로 구동 강도에 대한 파라미터 및 오디오 이득에 대한 파라미터 중 적어도 하나를 변경할 수 있다.In an embodiment, the processor 120 may change at least one of a parameter for a driving strength and a parameter for an audio gain based on the first information and the second information.
일 실시 예에서, 상기 아날로그 신호는 상기 적어도 하나의 마이크로폰의 MEMS(330)에 포함된 진동판을 통하여 발생하거나, 외부 스피커 및 전자 장치의 스피커 중 적어도 하나를 통해서 발생할 수 있다.In an embodiment, the analog signal may be generated through a diaphragm included in the MEMS 330 of the at least one microphone or may be generated through at least one of an external speaker and a speaker of the electronic device.
일 실시 예에서, 상기 제2 신호는 상기 아날로그 신호가 MEMS(330)에 포함된 진동판을 떨게 하여 발생하는 신호일 수 있다.In an embodiment, the second signal may be a signal generated when the analog signal vibrates a diaphragm included in the MEMS 330 .
일 실시 예에서, 상기 프로세서(120)는 어플리케이션 프로세서(AP), 메모리, 코덱 중 적어도 하나를 포함할 수 있다.In an embodiment, the processor 120 may include at least one of an application processor (AP), a memory, and a codec.
다양한 실시 예들에 있어서, 전자 장치의 동작 방법은 프로세서(120)가 제1 마이크로폰을 포함하는 적어도 하나의 마이크로폰으로 제1 신호에 대한 제1 정보를 제공하는 동작, 상기 획득된 제1 정보를 기반으로 상기 적어도 하나의 마이크로폰을 통해 제1 신호를 발생시키는 동작, 상기 제1 신호의 발생에 응답하여 상기 적어도 하나의 마이크로폰에 의해 획득된 아날로그 신호에 기반한 제2 신호를 발생시키는 동작, 상기 제2 신호에 대한 제2 정보를 생성하고, 상기 제2 정보를 프로세서로 제공하는 동작, 상기 제1 정보 및 상기 제2 정보를 기반으로 상기 적어도 하나의 마이크로폰의 오디오 이득을 변경하도록 제어하는 동작을 포함할 수 있다. According to various embodiments of the present disclosure, in the method of operating an electronic device, the processor 120 provides first information about a first signal to at least one microphone including a first microphone, based on the obtained first information. generating a first signal through the at least one microphone; generating a second signal based on an analog signal obtained by the at least one microphone in response to generation of the first signal; may include generating second information about the microphone, providing the second information to a processor, and controlling the audio gain of the at least one microphone to be changed based on the first information and the second information. .
일 실시 예에서, 상기 프로세서(120)는 초기 구동 강도를 제1 값으로 설정하고, 상기 제1 정보 및 상기 제2 정보를 기반으로 상기 적어도 하나의 마이크로폰의 구동강도를 제어하고 상기 제1 정보 및 상기 제2 정보는 각각 상기 제1 신호 및 상기 제2 신호에 대한 진폭 값, 진동수, 파형 중 적어도 하나를 포함할 수 있다.In an embodiment, the processor 120 sets the initial driving intensity to a first value, controls the driving intensity of the at least one microphone based on the first information and the second information, and controls the driving intensity of the at least one microphone, the first information and The second information may include at least one of an amplitude value, a frequency, and a waveform for the first signal and the second signal, respectively.
일 실시 예에서, 상기 오디오 이득을 변경하도록 제어하는 동작은 상기 제1 정보와 상기 제2 정보의 진폭 값을 비교하여 진폭 값의 차이가 제1 크기 이상인 경우, 상기 차이만큼 이득을 보정하는 방법을 포함할 수 있다.In an embodiment, the controlling to change the audio gain includes comparing the amplitude values of the first information and the second information and compensating for the gain by the difference when the difference in the amplitude values is equal to or greater than a first magnitude. may include
일 실시 예에서, 상기 아날로그 신호는 상기 적어도 하나의 마이크로폰의 MEMS(330)에 포함된 진동판을 통하여 발생하거나, 외부 스피커 및 전자 장치의 스피커 중 적어도 하나를 통하여 발생하고, 상기 제2 신호는 상기 아날로그 신호가 MEMS(330)에 포함된 진동판을 떨게 하여 발생하는 신호일 수 있다.In an embodiment, the analog signal is generated through a diaphragm included in the MEMS 330 of the at least one microphone or is generated through at least one of an external speaker and a speaker of the electronic device, and the second signal is the analog signal The signal may be a signal generated by shaking the diaphragm included in the MEMS 330 .
일 실시 예에서, 상기 프로세서(120)는 상기 제1 정보 및 상기 제2 정보를 기반으로 구동 강도에 대한 파라미터 및 오디오 이득에 대한 파라미터 중 적어도 하나를 변경할 수 있다In an embodiment, the processor 120 may change at least one of a parameter for a driving strength and a parameter for an audio gain based on the first information and the second information.
다양한 실시 예에 있어서, 전자 장치는 제1 마이크로폰을 포함하는 적어도 하나의 마이크로폰, 상기 적어도 하나의 마이크로폰과 전기적으로 연결되고, 상기 적어도 하나의 마이크로폰의 구동 강도 및 오디오 이득을 제어하는 프로세서를 포함하고, 상기 프로세서는 상기 적어도 하나의 마이크로폰으로 제1 신호에 대한 제1 정보를 제공하고, 상기 적어도 하나의 마이크로폰은 상기 정보에 기반하여 상기 제1 신호를 발생시키고, 상기 제1 신호의 발생에 응답하여, 상기 마이크로폰을 통해 획득된 아날로그 신호에 기반한 제2 신호를 생성하고, 상기 제2 신호에 대한 정보를 상기 프로세서로 제공하며, 상기 프로세서는 상기 제1 신호에 대한 제1 정보 및 상기 제공된 제2 신호에 대한 제2 정보에 기반하여 상기 적어도 하나의 마이크로폰의 상기 구동 강도에 대응하는 제1 파라미터 및 상기 오디오 이득에 대응하는 제2 파라미터 중 적어도 하나를 제어할 수 있다.In various embodiments, the electronic device includes at least one microphone including a first microphone, a processor electrically connected to the at least one microphone, and controlling driving strength and audio gain of the at least one microphone, wherein the processor provides first information about a first signal to the at least one microphone, the at least one microphone generates the first signal based on the information, and in response to the generation of the first signal, Generates a second signal based on the analog signal acquired through the microphone, and provides information about the second signal to the processor, wherein the processor receives the first information about the first signal and the provided second signal At least one of a first parameter corresponding to the driving strength of the at least one microphone and a second parameter corresponding to the audio gain may be controlled based on the second information about the at least one microphone.
일 실시 예에서, 상기 프로세서(120)는 초기 구동 강도를 제1 값으로 설정하고, 상기 제1 정보 및 상기 제2 정보를 기반으로 상기 적어도 하나의 마이크로폰의 구동강도를 제어하고, 상기 제1 정보 및 상기 제2 정보는 각각 상기 제1 신호 및 상기 제2 신호에 대한 진폭 값, 진동수, 파형 중 적어도 하나를 포함할 수 있다.In an embodiment, the processor 120 sets the initial driving intensity to a first value, controls the driving intensity of the at least one microphone based on the first information and the second information, and the first information and the second information may include at least one of an amplitude value, a frequency, and a waveform for the first signal and the second signal, respectively.
일 실시 예에서, 상기 적어도 하나의 마이크로폰은 신호 발생기(325)를 포함하고 상기 신호 발생기(325)를 통하여 상기 제1 신호를 발생시킬 수 있다.In an embodiment, the at least one microphone may include a signal generator 325 and generate the first signal through the signal generator 325 .
일 실시 예에서, 제1 신호는 주파수 대역이 7kHz ~ 10kHz 또는 50kHz 중 일정한 주파수를 가지는 파일럿 신호일 수 있다.In an embodiment, the first signal may be a pilot signal having a constant frequency among a frequency band of 7 kHz to 10 kHz or 50 kHz.
일 실시 예에서, 상기 아날로그 신호는 상기 적어도 하나의 마이크로폰의 MEMS(330)에 포함된 진동판을 통하여 발생하거나, 외부 스피커 및 전자 장치의 스피커 중 적어도 하나를 통하여 발생하고, 상기 제2 신호는 상기 아날로그 신호가 MEMS(330)에 포함된 진동판을 떨게 하여 발생하는 신호일 수 있다.In an embodiment, the analog signal is generated through a diaphragm included in the MEMS 330 of the at least one microphone or is generated through at least one of an external speaker and a speaker of the electronic device, and the second signal is the analog signal The signal may be a signal generated by shaking the diaphragm included in the MEMS 330 .

Claims (15)

  1. 전자 장치에 있어서,In an electronic device,
    적어도 하나의 마이크로폰;at least one microphone;
    상기 적어도 하나의 마이크로폰과 전기적으로 연결되며, 상기 적어도 하나의 마이크로폰의 오디오 이득(audio gain)을 제어하는 프로세서를 포함하고,a processor electrically connected to the at least one microphone and controlling an audio gain of the at least one microphone;
    상기 프로세서는, 상기 적어도 하나의 마이크로폰으로 제1 신호에 대한 제1 정보를 제공하고;the processor is configured to provide first information about a first signal to the at least one microphone;
    상기 적어도 하나의 마이크로폰은:The at least one microphone comprises:
    상기 제1 정보에 기반하여 상기 제1 신호를 발생시키고, generating the first signal based on the first information;
    상기 제1 신호의 발생에 응답하여 상기 적어도 하나의 마이크로폰에 의해 획득된 아날로그 신호에 기반한 제2 신호를 생성하고, generating a second signal based on an analog signal obtained by the at least one microphone in response to the generation of the first signal;
    상기 제2 신호에 대한 제2 정보를 상기 프로세서로 제공하고;provide second information about the second signal to the processor;
    상기 프로세서는, 상기 제1 정보 및 상기 제2 정보에 기반하여 상기 적어도 하나의 마이크로폰의 상기 오디오 이득을 변경하도록 제어하는, 전자 장치.The processor controls to change the audio gain of the at least one microphone based on the first information and the second information.
  2. 청구항 1에 있어서,The method according to claim 1,
    상기 프로세서는 초기 구동 강도를 제1 값으로 설정하는, 전자 장치.and the processor sets the initial driving intensity to a first value.
  3. 청구항 2에 있어서,3. The method according to claim 2,
    상기 프로세서는 상기 제1 정보 및 상기 제2 정보에 기반하여 상기 적어도 하나의 마이크로폰의 상기 구동 강도를 변경하도록 제어하고the processor controls to change the driving strength of the at least one microphone based on the first information and the second information;
    상기 제1 정보 및 상기 제2 정보는 각각 상기 제1 신호 및 상기 제2 신호에 대한 진폭 값, 진동수, 파형 중 적어도 하나를 포함하는, 전자 장치.The first information and the second information include at least one of an amplitude value, a frequency, and a waveform for the first signal and the second signal, respectively.
  4. 청구항 1에 있어서,The method according to claim 1,
    상기 적어도 하나의 마이크로폰은 신호 발생기(signal generator)를 포함하고 상기 신호 발생기를 통하여 제1 신호를 발생시키는, 전자 장치.wherein the at least one microphone includes a signal generator and generates a first signal through the signal generator.
  5. 청구항 1에 있어서,The method according to claim 1,
    상기 오디오 이득을 변경하는 것은 상기 제1 정보와 상기 제2 정보에 포함된 크기 값을 비교하여 크기 값의 차이가 제1 크기 이상인 경우, 상기 차이만큼 이득을 보정하는, 전자 장치.The changing of the audio gain compares a magnitude value included in the first information and the second information and corrects the gain by the difference when the difference in the magnitude value is equal to or greater than the first magnitude.
  6. 청구항 5에 있어서,6. The method of claim 5,
    상기 제1 신호는 주파수 대역이 7kHz ~ 10kHz 또는 50kHz 중 일정한 주파수를 가지는 파일럿 신호(pilot signal)인, 전자 장치.The first signal is a pilot signal having a constant frequency among a frequency band of 7 kHz to 10 kHz or 50 kHz, the electronic device.
  7. 청구항 1에 있어서,The method according to claim 1,
    상기 프로세서는 상기 제1 정보 및 상기 제2 정보를 기반으로 구동 강도에 대한 파라미터 및 오디오 이득에 대한 파라미터 중 적어도 하나를 변경하는, 전자 장치.and the processor changes at least one of a parameter for a driving strength and a parameter for an audio gain based on the first information and the second information.
  8. 청구항 1에 있어서,The method according to claim 1,
    상기 아날로그 신호는 상기 적어도 하나의 마이크로폰의 MEMS에 포함된 진동판을 통하여 발생하거나, 외부 스피커 및 전자 장치의 스피커 중 적어도 하나를 통해서 발생하는, 전자 장치.The analog signal is generated through a diaphragm included in the MEMS of the at least one microphone or is generated through at least one of an external speaker and a speaker of the electronic device.
  9. 청구항 1에 있어서, The method according to claim 1,
    상기 제2 신호는 상기 아날로그 신호가 MEMS에 포함된 진동판을 떨게 하여 발생하는, 전자 장치.The second signal is generated by causing the analog signal to vibrate a diaphragm included in the MEMS.
  10. 청구항 1에 있어서,The method according to claim 1,
    상기 프로세서는 어플리케이션 프로세서(AP), 메모리, 코덱 중 적어도 하나를 포함할 수 있는, 전자 장치.The processor may include at least one of an application processor (AP), a memory, and a codec.
  11. 전자 장치의 동작 방법에 있어서,A method of operating an electronic device, comprising:
    프로세서가 적어도 하나의 마이크로폰으로 제1 신호에 대한 제1 정보를 제공하는 동작;providing, by the processor, first information about the first signal to the at least one microphone;
    상기 제공된 제1 정보를 기반으로 상기 적어도 하나의 마이크로폰을 통해 제1 신호를 발생시키는 동작;generating a first signal through the at least one microphone based on the provided first information;
    상기 제1 신호의 발생에 응답하여 상기 적어도 하나의 마이크로폰에 의해 획득된 아날로그 신호에 기반한 제2 신호를 발생시키는 동작;generating a second signal based on an analog signal acquired by the at least one microphone in response to the generation of the first signal;
    상기 제2 신호에 대한 제2 정보를 생성하고, 상기 제2 정보를 프로세서로 제공하는 동작;generating second information for the second signal and providing the second information to a processor;
    상기 제1 정보 및 상기 제2 정보를 기반으로 상기 적어도 하나의 마이크로폰의 오디오 이득을 변경하도록 제어하는 동작을 포함하는 방법.and controlling the audio gain of the at least one microphone to be changed based on the first information and the second information.
  12. 청구항 11에 있어서,12. The method of claim 11,
    상기 프로세서는 초기 구동 강도를 제1 값으로 설정하고, 상기 제1 정보 및 상기 제2 정보를 기반으로 상기 적어도 하나의 마이크로폰의 구동강도를 제어하고,The processor sets the initial driving strength to a first value, and controls the driving strength of the at least one microphone based on the first information and the second information,
    상기 제1 정보 및 상기 제2 정보는 각각 상기 제1 신호 및 상기 제2 신호에 대한 진폭 값, 진동수, 파형 중 적어도 하나를 포함하는, 동작 방법.The first information and the second information include at least one of an amplitude value, a frequency, and a waveform for the first signal and the second signal, respectively.
  13. 청구항 11에 있어서,12. The method of claim 11,
    상기 오디오 이득을 변경하도록 제어하는 동작은,The operation of controlling to change the audio gain comprises:
    상기 제1 정보와 상기 제2 정보의 진폭 값을 비교하여 진폭 값의 차이가 제1 크기 이상인 경우, 상기 차이만큼 이득을 보정하는, 동작 방법.Comparing the amplitude values of the first information and the second information, if the difference between the amplitude values is equal to or greater than a first magnitude, correcting a gain by the difference.
  14. 청구항 11에 있어서,12. The method of claim 11,
    상기 아날로그 신호는 상기 적어도 하나의 마이크로폰의 MEMS에 포함된 진동판을 통하여 발생하거나, 외부 스피커 및 전자 장치의 스피커 중 적어도 하나를 통하여 발생하고,The analog signal is generated through a diaphragm included in the MEMS of the at least one microphone, or is generated through at least one of an external speaker and a speaker of an electronic device,
    상기 제2 신호는 상기 아날로그 신호가 MEMS에 포함된 진동판을 떨게 하여 발생하는, 동작 방법.The second signal is generated by causing the analog signal to vibrate a diaphragm included in the MEMS.
  15. 청구항 11에 있어서,12. The method of claim 11,
    상기 프로세서는 상기 제1 정보 및 상기 제2 정보를 기반으로 구동 강도에 대한 파라미터 및 오디오 이득에 대한 파라미터 중 적어도 하나를 변경하는, 동작 방법.and the processor changes at least one of a parameter for a driving strength and a parameter for an audio gain based on the first information and the second information.
PCT/KR2021/003351 2020-05-26 2021-03-18 Method for correcting characteristics of microphone and electronic device thereof WO2021241864A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200063221A KR20210146132A (en) 2020-05-26 2020-05-26 Method for calibrating the characteristics of a microphone and electronic device thereof
KR10-2020-0063221 2020-05-26

Publications (1)

Publication Number Publication Date
WO2021241864A1 true WO2021241864A1 (en) 2021-12-02

Family

ID=78744975

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/003351 WO2021241864A1 (en) 2020-05-26 2021-03-18 Method for correcting characteristics of microphone and electronic device thereof

Country Status (2)

Country Link
KR (1) KR20210146132A (en)
WO (1) WO2021241864A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114449434A (en) * 2022-04-07 2022-05-06 荣耀终端有限公司 Microphone calibration method and electronic equipment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080095381A1 (en) * 1996-06-07 2008-04-24 That Corporation Btsc encoder
KR20140138473A (en) * 2013-05-24 2014-12-04 주식회사 룩센테크놀러지 Variable voltage output charge pump and mems microphone device using the same
KR20150022715A (en) * 2013-08-23 2015-03-04 인피니언 테크놀로지스 아게 Microphone, microphone arrangement and method for processing signals in a microphone
US20150063594A1 (en) * 2013-09-04 2015-03-05 Knowles Electronics, Llc Slew rate control apparatus for digital microphones
KR20180055656A (en) * 2016-11-14 2018-05-25 한국전자통신연구원 Microphone driving device and digital microphone including the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080095381A1 (en) * 1996-06-07 2008-04-24 That Corporation Btsc encoder
KR20140138473A (en) * 2013-05-24 2014-12-04 주식회사 룩센테크놀러지 Variable voltage output charge pump and mems microphone device using the same
KR20150022715A (en) * 2013-08-23 2015-03-04 인피니언 테크놀로지스 아게 Microphone, microphone arrangement and method for processing signals in a microphone
US20150063594A1 (en) * 2013-09-04 2015-03-05 Knowles Electronics, Llc Slew rate control apparatus for digital microphones
KR20180055656A (en) * 2016-11-14 2018-05-25 한국전자통신연구원 Microphone driving device and digital microphone including the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114449434A (en) * 2022-04-07 2022-05-06 荣耀终端有限公司 Microphone calibration method and electronic equipment

Also Published As

Publication number Publication date
KR20210146132A (en) 2021-12-03

Similar Documents

Publication Publication Date Title
WO2020209574A1 (en) Electronic device including acoustic duct having a vibratable sheet
WO2020204611A1 (en) Method for detecting wearing of acoustic device and acoustic device supporting the same
WO2020141793A1 (en) Electronic device with foldable display and control method thereof
WO2021085850A1 (en) Electronic device sharing peripheral device with external electronic device and method thereof
WO2021162435A1 (en) Electronic device and method for activating fingerprint sensor
WO2021034127A1 (en) Electronic device including multi-channel speaker system
WO2021215845A1 (en) Electronic device comprising antenna
WO2020091276A1 (en) Electronic device and method for controlling transmission power on basis of control information
WO2020226353A1 (en) Electronic device for establishing communication with external electronic device and method of controlling the same
WO2021162186A1 (en) Electronic device using communication channel generated by electrical connection between electronic device and external electronic device, and method for operating electronic device
WO2019066293A1 (en) Electronic device having circuit structure having electric connection between designated pin included in connector electrically connectable to ground terminal of external microphone and designated ground of circuit board
WO2021085902A1 (en) Electronic device for outputting audio data of plurality of applications, and method for operating same
WO2021162286A1 (en) Electronic device and method for recognizing audio output device connected to usb type-c connector
WO2019221562A1 (en) Electronic device and method of controlling electronic device
WO2021187752A1 (en) Electronic device for audio, and method for managing power in electronic device for audio
WO2019103471A1 (en) Method of providing vibration and electronic device for supporting same
WO2022119287A1 (en) Electronic device including flexible display and method for operating same
WO2020080910A1 (en) Electronic device for preventing communication deterioration and control method therefor
WO2020111727A1 (en) Electronic device and electronic device control method
WO2020045926A1 (en) Electronic device including circuit changing feed path
WO2021241864A1 (en) Method for correcting characteristics of microphone and electronic device thereof
WO2019143072A1 (en) Electronic device for sweeping antenna phase
WO2019172633A1 (en) Electronic device for sensing temperature of speaker, and operation method thereof
WO2019083125A1 (en) Method for processing audio signal and electronic device for supporting the same
WO2023017991A1 (en) Electronic device for matching antenna impedance, and operation method for same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21813995

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21813995

Country of ref document: EP

Kind code of ref document: A1