WO2019045394A1 - 지정된 주파수 대역의 신호를 이용하여 외부 객체의 근접을 확인하는 전자 장치 및 전자 장치 제어 방법 - Google Patents

지정된 주파수 대역의 신호를 이용하여 외부 객체의 근접을 확인하는 전자 장치 및 전자 장치 제어 방법 Download PDF

Info

Publication number
WO2019045394A1
WO2019045394A1 PCT/KR2018/009872 KR2018009872W WO2019045394A1 WO 2019045394 A1 WO2019045394 A1 WO 2019045394A1 KR 2018009872 W KR2018009872 W KR 2018009872W WO 2019045394 A1 WO2019045394 A1 WO 2019045394A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
frequency band
electronic device
microphone
output
Prior art date
Application number
PCT/KR2018/009872
Other languages
English (en)
French (fr)
Inventor
임원섭
나효석
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US16/639,817 priority Critical patent/US20200249346A1/en
Publication of WO2019045394A1 publication Critical patent/WO2019045394A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/04Systems determining presence of a target
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R23/00Arrangements for measuring frequencies; Arrangements for analysing frequency spectra
    • G01R23/02Arrangements for measuring frequency, e.g. pulse repetition rate; Arrangements for measuring period of current or voltage
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • G01S15/876Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones

Definitions

  • the embodiments disclosed herein relate to techniques for sensing the proximity of an external object using signals in a specified frequency band.
  • the electronic device can arrange various sensors such as a touch sensor, an acceleration sensor, a geomagnetic sensor, an illuminance sensor, an RGB sensor, an air pressure sensor, a temperature sensor, a proximity sensor, and a heart rate sensor. These sensors can be used to provide convenience to users through a variety of applications. For example, if the electronic device senses proximity of the user through the proximity sensor, the display of the display can be turned off to reduce the power consumption of the electronic device.
  • sensors such as a touch sensor, an acceleration sensor, a geomagnetic sensor, an illuminance sensor, an RGB sensor, an air pressure sensor, a temperature sensor, a proximity sensor, and a heart rate sensor.
  • the various embodiments disclosed in this document provide an electronic device and an electronic device control method capable of confirming proximity of an external object using a signal of a specified frequency band.
  • An electronic device includes a housing; Communication module; A first output disposed in a first region of the housing; A second output disposed in a second region of the housing; A first microphone disposed closer to the first area than the second area; A second microphone disposed closer to the second area than the first area; And a processor operatively coupled to the communication module, the first output, the second output, the first microphone and the second microphone, wherein the processor acquires an audio signal from an external device via the communication module And outputting at least one of the audio signal and the signal of the designated frequency band through the first output unit and the second output unit and outputting the first intensity of the signal of the specified frequency band sensed through the first microphone Determine a second intensity of the signal of the specified frequency band sensed by the second microphone and determine a proximity state of an external object to the electronic device based at least on the first intensity and the second intensity, The function corresponding to the proximity state can be executed.
  • an electronic device includes a communication module; Output device; MIC; And a processor, wherein the processor is configured to: obtain an audio signal from an external device using the communication module; Outputting the audio signal and a signal of a specified frequency band through the output device; Acquiring a signal of the designated frequency band using the microphone; Determine a proximity state of an external object to the electronic device and the electronic device corresponding to the electronic device based at least on the strength of the signal in the designated frequency band; And control at least some of the functionality of the electronic device based at least in part on the determined proximity.
  • an electronic device includes: a housing; Communication module; A first output disposed in a first region of the housing; A second output disposed in a second region of the housing; A first microphone disposed closer to the first output unit than the second output unit; A second microphone disposed closer to the second area than the first area; And a processor operatively coupled to the communication module, the first output, the second output, the first microphone and the second microphone, wherein the processor is configured to: Outputting through an output unit and a second output unit; Acquiring a signal of the designated frequency band using the first microphone and the second microphone; Corresponding to the electronic device and the electronic device based at least on a first intensity of a signal of the specified frequency band obtained through the first microphone and a second intensity of a signal of the designated frequency band obtained through the second microphone Determining a distance to the user; And at least some of the functionality of the electronic device based at least on the distance.
  • a signal of a designated frequency band can be used to sense proximity of an external object to an electronic device.
  • various effects can be provided that are directly or indirectly understood through this document.
  • Figure 1 shows an external view of an electronic device according to one embodiment.
  • FIG. 2 shows a configuration diagram of an electronic device according to an embodiment.
  • FIG. 3 shows the intensity of a signal in a specified frequency band in each proximity state according to an embodiment.
  • FIG. 4 is a diagram illustrating a transmission / reception path of a signal in a designated frequency band according to an embodiment.
  • FIG. 5 illustrates a process of mixing an audio signal and a signal of a designated frequency band according to an embodiment.
  • FIG. 6 illustrates a process of transmitting and receiving an audio signal and a process of receiving a signal of a designated frequency band in the first mode according to an exemplary embodiment.
  • FIG. 7 shows a change in magnitude (or intensity) of a signal in a specified frequency band when an electronic device according to an embodiment changes from a default state to a lower close state.
  • FIG. 8 shows a distance sensing process using a signal of a designated frequency band according to an embodiment.
  • FIG. 9 is a diagram for explaining a heart rate calculation process using a signal of a designated frequency band according to an embodiment.
  • FIG. 10 is a flowchart illustrating a method of detecting a grip state during a call according to an exemplary embodiment of the present invention.
  • FIG. 11 is a flowchart illustrating a method of determining a proximity state using a signal of a designated frequency band according to an exemplary embodiment.
  • FIG. 12 shows a block diagram of an electronic device in a network environment in accordance with various embodiments.
  • the same or similar reference numerals may be used for the same or similar components.
  • the electronic device can be various types of devices.
  • the electronic device can include, for example, at least one of a portable communication device (e.g., a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance.
  • a portable communication device e.g., a smart phone
  • a computer device e.g., a laptop, a desktop, a smart phone
  • portable multimedia device e.g., a portable multimedia device
  • portable medical device e.g., a portable medical device
  • camera e.g., a camera
  • a wearable device e.g., a portable medical device
  • first component is "(functionally or communicatively) connected” or “connected” to another (second) component, May be connected directly to the component, or may be connected through another component (e.g., a third component).
  • Figure 1 shows an external view of an electronic device according to one embodiment.
  • an electronic device 10 includes a housing 190, a display 140, a plurality of microphones MIC1 through MIC3, a receiver RCV, and a speaker SPK, according to one embodiment. .
  • some components may be omitted, or may further include additional components.
  • some of the components are combined to form a single entity, but the functions of the corresponding components prior to the combination can be performed in the same manner.
  • the housing 190 may fix or embed the display 140, the plurality of microphones MIC1 to MIC3, the receiver RCV, and the speaker SPK.
  • the housing 190 may include a front surface, a side surface, and a rear surface. At least one opening for exposing a plurality of microphones MIC1 to MIC3, a receiver RCV or a speaker SPK may be disposed on at least one of a front surface, a rear surface or a side surface of the housing 190.
  • the display 140 may be at least partially exposed through the front surface of the housing 190.
  • the display 140 may include a backlight, a display panel, a touch sensor, a pressure sensor, a fingerprint sensor, and the like.
  • the receiver may be disposed on a first region of the housing 190, for example, above the front surface of the housing 190.
  • the speaker SPK may be disposed in a second area of the housing 190, for example, below the housing 190.
  • the electronic device includes a plurality of speakers (SPKs), and a plurality of speakers (SPKs) may be disposed on the front, side, or rear surface of the housing 190.
  • the plurality of microphones MIC1 to MIC3 may include first to third microphones MIC1 to MIC3 disposed in a plurality of regions of the housing 190.
  • the first microphone MIC1 and the second microphone MIC2 are disposed close to the speaker SPK, and the first microphone MIC1 is disposed on the first side of the housing 190, And the second microphone MIC2 may be biased toward the second side (e.g., the left side) of the housing 190 as viewed from the front of the housing 190.
  • the third microphone MIC3 may be disposed close to the receiver RCV.
  • FIG. 2 shows a configuration diagram of an electronic device according to an embodiment.
  • an electronic device 10 includes an input / output device 110, a communication module 130, a display 140, a memory 150, and a processor 160, according to one embodiment .
  • some components may be omitted, or may further include additional components.
  • some of the components are combined to form a single entity, but the functions of the corresponding components prior to the combination can be performed in the same manner.
  • the input / output device 110 may include components that sense sound (or signals) or output sounds (or signals).
  • the input / output device 110 may include a receiver (RCV), a speaker (SPK), and a plurality of microphones (MIC1 to MIC3).
  • the sound may include at least one of a sound wave (hereinafter referred to as an "audio signal") or a signal of a specified frequency band (for example, an ultrasonic wave).
  • the sound may include an audio signal converted signal, a white noise signal, and the like.
  • the white noise signal may be a signal that is communicated when the user of the electronic device 10 and the other electronic device in the call does not make a sound.
  • the receiver (RCV) is activated at the time of voice communication and can output the voice received via the communication channel.
  • the speaker SPK is activated at the time of sound source reproduction, and can output the sound of the sound source to be reproduced.
  • the receiver (RCV) and the speaker (SPK) can receive and output an audio signal (for example, an audible signal) and a signal of a specified frequency band (for example, an audible signal).
  • the speaker SPK or the receiver RCV outputs a signal when the speaker SPK or the receiver RCV receives a signal from the processor 160 (or audio module 1270 in FIG. 12) And outputs a sound corresponding to the sound signal.
  • the audio signal may be, for example, a signal included in the 20 Hz to 20 kHz band.
  • the signal of the designated frequency band may be, for example, a signal included in at least a part of the band of 20 kHz to 100 kHz (for example, 20 kHz to 50 kHz).
  • the receiver (RCV) and the speaker (SPK) may be located at different locations of the electronic device 10.
  • the receiver RCV may be disposed in a first area of the electronic device 10, for example, in one area above the front of the electronic device 10.
  • the speaker SPK may be disposed in a second area of the electronic device 10, for example, one area of the lower end of the electronic device 10.
  • the first to third microphones MIC1 to MIC3 when the first to third microphones MIC1 to MIC3 are activated, sound can be sensed.
  • the sound may include a signal (or sound) corresponding to the audio signal obtained through the communication module 130 and a signal corresponding to the signal of the designated frequency band.
  • the signal corresponding to the audio signal may include an audio signal, an audio signal-converted signal, a white noise signal, and the like.
  • the first to third microphones MIC1 to MIC3 may be disposed at different positions of the electronic device 10. [ For example, the first microphone MIC1 and the second microphone MIC2 are disposed closer to the speaker SPK than the receiver RCV, and the first microphone MIC1 is disposed closer to the speaker SPK than the receiver RCV.
  • the second microphone MIC2 is disposed at the lower end of the electronic device 10 deviated toward the first side (e.g., the right side) of the device 10 and the second microphone MIC2 is disposed at the lower end of the electronic device 10, And may be disposed at the lower end of the electronic device 10 biased to two sides (e.g., left side).
  • the third microphone MIC3 may be disposed closer to the receiver RCV than the speaker SPK.
  • the communication module 130 may send and receive signals over a designated communication channel.
  • the designated communication channel may include a channel of at least one of 3G, GSM, LTE, WiFi, WiBro, or Bluetooth.
  • Display 140 may include at least one of, for example, a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, or an electronic paper display.
  • Display 140 may display various content (e.g., text, images, video, icons, and / or symbols, etc.) to a user, for example.
  • display 140 may be activated (e.g., ON) or deactivated (e.g., OFF).
  • the memory 150 may be a volatile memory (e.g., RAM, etc.), a non-volatile memory (e.g., ROM, flash memory, etc.), or a combination thereof.
  • the memory 150 may store instructions or data related to at least one other component of the electronic device 10, for example.
  • the memory 150 may store instructions for sensing sound or outputting sounds through the input / output device 110.
  • the memory 150 may further include instructions for generating a signal of a specified frequency band, instructions for mixing the signal of the specified frequency band and the audio signal.
  • the processor 160 may be, for example, a central processing unit (CPU), a graphics processing unit (GPU), a microprocessor, an application processor, a call processor, a CODEC, application specific integrated circuit (FPGA), or field programmable gate arrays (FPGA)), and may have a plurality of cores.
  • the processor 160 may perform computations or data processing related to control and / or communication of at least one other component of the electronic device 10.
  • the processor 160 outputs signals of a specified frequency band through the receiver RCV and the speaker SPK, respectively, and outputs the signals of the designated frequency band, which are output, to the first to third microphones MIC1- MIC3). ≪ / RTI > For example, the processor 160 generates a signal (for example, an audible signal) or a signal of a designated frequency band (for example, a non-audible signal) in a frequency band designated by a receiver (RCV) The processor 160 may output the mixed signal and sense the sound output through the receiver RCV through the first and second microphones MIC1 and MIC2. It is possible to output a signal of a frequency band designated by the speaker SPK at a second point in time and sense the sound output from the speaker SPK through the first and second microphones MIC1 and MIC2.
  • a signal of a frequency band designated by the speaker SPK at a second point in time and sense the sound output from the speaker SPK through the first and second microphones MIC1 and
  • the processor 160 can output a signal of a specified frequency band of one period and a signal of a specified frequency band of a plurality of periods.
  • the signal of the designated frequency band may include at least one of, for example, a sinusoidal wave, a square wave, a square wave or a saw tooth wave.
  • the processor 160 may control the magnitude (or intensity) of a signal in a specified frequency band that is output to the speaker (SPK) and receiver (RCV). For example, in a default state, the processor 160 may control the magnitude of the signal of the designated frequency band outputted to the speaker SPK from the third microphone MIC3 without being sensed through the first and second microphones MIC1 and MIC2, It is possible to control not to be detected.
  • the default state may be the absence of an external object proximate to the electronic device 10. [ The external object may be, for example, a user or a surrounding object.
  • the processor 160 may detect the magnitude of the signal of the designated frequency band outputted to the receiver (RCV) in the default state by the first to third microphones MIC1 to MIC3, So as not to be detected.
  • the processor 160 may mix signals of a designated frequency band with an audio signal and output it through at least one of a receiver (RCV) or a speaker (SPK).
  • the processor 160 may transmit an audio signal through the communication module 130 in a designated first mode (e.g., a normal call mode) Upon receipt, it can mix the received audio (e.g. audible) signal with the signal of the specified frequency band and output the mixed signal through the receiver (RCV).
  • the designated first mode may be, for example, a call mode for outputting a signal of an audible frequency band received via a receiver (RCV).
  • the processor 160 may mix the audio signal received via the communication channel and the signal of the designated frequency band in a designated second mode (e.g., speaker talking mode) and output it through the speaker SPK .
  • the designated second mode may be, for example, a communication mode for outputting an audio signal received through a speaker (SPK).
  • the processor 160 can check the strength of a signal of a specified frequency band that is output through a receiver (RCV) or a speaker (SPK) and sensed through the first to third microphones MIC1 to MIC3 have.
  • the processor 160 may check the strength of a signal of a specified frequency band that is output through a receiver (RCV) at a third time point after the first point of time and detected through the first to third microphones MIC1 to MIC3 .
  • the processor 160 may determine the intensity of the signal of the designated frequency band that is output through the speaker SPK at the fourth time point after the second point of time and detected through the first to third microphones MIC1 to MIC3 Each can be confirmed.
  • the processor 160 may determine at least one of proximity or proximity of an external object to the electronic device 10 based on the strength of the signal of each identified identified frequency band.
  • the processor 160 outputs the signal through the receiver (RCV) in the designated first mode (call mode) so that the intensity of the signal of the designated frequency band sensed through the third microphone MIC3 is equal to or greater than the first threshold If the strength of the signals output through the speaker SPK and sensed through the first and second microphones MIC1 and MIC2 are below the second and third thresholds respectively, State.
  • the first threshold may be set, for example, to distinguish between the presence and absence of an external object proximate to the front of the electronic device 10.
  • the second and third thresholds may be set, for example, to distinguish between the frontal proximity of an external object to the electronic device 10 and the grip state of the electronic device 10 during a call.
  • the on-call grip state may be, for example, an external object gripping the electronic device 10 for a call and at least a portion of the front of the electronic device 10, e.g., a receiver (RCV).
  • the front proximity condition may be, for example, a state in which an external object is located within a specified distance from the front surface (e.g., the entire front surface) of the electronic device 10. [ The frontal proximity may be such that the entire front surface of the electronic device 10 is in contact with the floor as the electronic device 10 is placed on the floor (external object) with the electronic device 10 turned upside down.
  • the processor 160 outputs a signal of a specified frequency band, which is output through the receiver (RCV), detected by the third microphone MIC3, over a designated first threshold value and output through the speaker SPK, If the strength of the signals of the designated frequency band sensed through the first and second microphones MIC1 and MIC2 is greater than or equal to the second and third thresholds respectively specified for the first and second microphones MIC1 and MIC2, 10) < / RTI >
  • the processor 160 outputs the signal through the receiver RCV, and the intensity of the signal of the designated frequency band sensed through the third microphone MIC3 is less than the designated first threshold, And the intensity of the signals of the designated frequency band detected through the first microphone MIC1 is above the second threshold value and below the fourth threshold value and is output through the speaker SPK and sensed through the second microphone MIC2 If the intensity of the signals in the frequency band is above the third threshold and below the fifth threshold, it may be determined that the backside of the external object is close to the electronic device 10.
  • the fourth threshold is an intensity value that exceeds the second threshold and is set to be able to distinguish, for example, the state in which the outer object is close to the back surface of the electronic device 10 and that in the bottom of the electronic device 10 .
  • the fifth threshold may be an intensity value that exceeds the third threshold and may be set to distinguish, for example, an external object proximate the back of the electronic device 10 and a bottom proximity of the electronic device 10 have.
  • the backside proximity state may be, for example, a state in which an outer object is located within a specified distance from the back surface of the electronic device 10. [
  • the rear proximity state may be another state where the electronic device 10 is placed on the floor, for example, with the back side of the electronic device 10 touching the floor (outer object).
  • the processor 160 outputs the signal through the receiver RCV, and the intensity of the signal of the designated frequency band sensed through the first microphone MIC1 is less than the designated first threshold, And the intensity of the signals of the designated frequency band sensed through the first and second microphones MIC1 and MIC2 is greater than or equal to the fourth and fifth thresholds respectively designated for the first and second microphones MIC1 and MIC2, It can be determined as the lower-end close state of the outer object with respect to the apparatus 10.
  • the lower proximity state may be, for example, a state in which an outer object is located within a specified distance from the lower end of the electronic device 10.
  • the processor 160 outputs a right-handed finger and a left-handed finger based on a change in intensity of a signal output through a speaker (SPK) and sensed using the first microphone MIC1 and the second microphone MIC2 .
  • the first microphone MIC1 may be disposed adjacent to the right side of the electronic device 10
  • the second microphone MIC2 may be disposed close to the left side of the electronic device 10.
  • the processor 160 determines the lower proximity state (or the grip state during the call)
  • the strength change of the signal sensed through the first microphone MIC1 determines the intensity of the signal sensed through the second microphone MIC2 If it is larger than the change, it can be determined as the left-hand grip state.
  • the processor 160 determines that the intensity change of the signal sensed through the first microphone MIC1 is less than the intensity change of the signal sensed through the second microphone MIC2 when determining the lower proximity state
  • the right hand grip state can be determined.
  • the processor 160 may perform a function corresponding to the determined proximity state. For example, the processor 160 may deactivate the display 140 (e.g., backlight and display off of the display) if it determines a busy state or a front proximity state. Alternatively, processor 160 may perform at least one of antenna switching, impedance control, or communication power control of communication module 130 in accordance with each determined state upon determining a front proximity state, a rear proximity state, .
  • the processor 160 may perform functions that are differentiated between the left-hand grip state and the right-hand grip state.
  • the processor 160 may vary at least one of antenna switching control, impedance control, or communication power control to correspond to each grip state in the left hand grip state and the right hand grip state.
  • the processor 160 may display an icon displayed on the display 140 differently for the left hand grip and the right hand grip.
  • the processor 160 outputs a signal of a designated frequency band through a receiver (RCV) or a speaker (SPK), and outputs the signal to the two microphones MIC1 to MIC3 of the first to third microphones MIC1 to MIC3 It is possible to calculate the distance to the external object based on the time taken to receive the object through the mobile terminal. For example, the processor 160 may use the speed of a signal in a specified frequency band (e.g., 340 m / s (15 DEG C)), the time taken to transmit and receive a signal in a designated frequency band, The distance between the external object 10 and the external object can be calculated.
  • a specified frequency band e.g., 340 m / s (15 DEG C)
  • the processor 160 outputs a signal of a frequency band designated by a speaker (SPK) or a receiver (RCV), and outputs the signal of the frequency band designated by the signal outputted through at least one of the first to third microphones MIC1 to MIC3 It is possible to detect the signal of the frequency band and to calculate the heart rate of the external object based on the change in the intensity of the signal of the detected frequency band.
  • the processor 160 according to an exemplary embodiment of the present invention detects the heart rate using the non-audible frequency band, thereby preventing an error in the heart rate measurement due to the ambient sound of the audible frequency band (user's speech).
  • the electronic device 10 transmits the signal of the designated frequency band through the speaker (SPK) and the receiver (RCV) at different times (time division) has been described as an example.
  • the electronic device 10 may frequency-divide the frequency of the signal of the designated frequency band output through the speaker SPK and the receiver RCV.
  • the electronic device 10 may output a signal of a first designated frequency band through a speaker SPK and output a signal of a second designated frequency band through a receiver RCV.
  • the electronic device 10 has the first to third microphones MIC1 to MIC3 is described as an example, but the present invention is not limited thereto.
  • the electronic device 10 can arrange only the first microphone MIC1 and the third microphone MIC3.
  • the electronic device 10 may have four or more microphones. In this case, the electronic device 10 may be arranged so that at least one of the four or more microphones is close to the left side or the right side of the electronic device 10.
  • the electronic device 10 may be a wearable device that includes a speaker and a receiver.
  • a wearable device in the form of a glasses can output a signal of a specified frequency band using a plurality of speakers (SPKs) and at least one microphone, and receive an output signal to detect proximity to a user.
  • SPKs plurality of speakers
  • the electronic device can perform the proximity sensing and the grip sensing using the components (microphones, speakers, receivers) already arranged, and can omit the sensors such as the proximity sensor and the grip sensor, And the material cost can be reduced.
  • FIG. 3 shows the intensity of a signal in a specified frequency band in each proximity state according to an embodiment. 3 shows that the speaker SPK is located closest to the first microphone MIC1, second closest to the second microphone MIC2 and third closest to the third microphone MIC3, and receiver RCV As an example of the case where the third microphone MIC3 is arranged closer to the first and second microphones MIC1 and MIC2, the embodiments disclosed in this document are not limited thereto.
  • the signal of the designated frequency band outputted to the receiver (RCV) in the default state and in each proximity state may not be detected by at least one of the first microphone MIC1 or the second microphone MIC2. Also, in the default state and in each proximity state, the signal of the designated frequency band outputted to the speaker (SPK) may not be detected by the third microphone MIC3.
  • the default state may be the intensity of the signal of the designated frequency band detected when there is no nearby external object within a distance specified in the electronic device 10.
  • the intensities of signals output through the speaker SPK and sensed through the first and second microphones MIC1 and MIC2 are the same as the default state, but the receiver (RCV) So that the intensity of the signal sensed by the third microphone MIC3 can be larger than the default state.
  • the receiver (RCV) of the electronic device 10 approaches the ear of the external object (user) of the electronic device 10
  • the signal output via the receiver RCV is transmitted to the ear
  • the intensity of the signal sensed by the third microphone MIC3 becomes larger and the signal output through the speaker SPK may be hardly affected by the external object as it reaches the third microphone MIC3 after being reflected.
  • the intensity of signals output through the speaker SPK and detected by the first and second microphones MIC1 and MIC2 becomes higher than the default state, and the receiver RCV And the intensity of the signal of the designated frequency band detected by the third microphone MIC3 may be larger than the default state.
  • the signal of the designated frequency band outputted to the speaker (SPK) is reflected by the external object close to the front face of the electronic device 10, and the first and second microphones MIC1, And the signal of the designated frequency band outputted to the receiver RCV is also reflected by the external object approaching the front surface of the electronic device 10 and detected by the third microphone MIC3 with a greater intensity .
  • the intensity of the signals of the designated frequency band outputted through the speaker SPK and sensed by the first and second microphones MIC1 and MIC2 increases,
  • the intensity of the signal of the designated frequency band that is output and detected by the third microphone MIC3 may be the same as the default state.
  • the signal output to the speaker SPK is reflected by the external object close to the rear surface of the electronic device 10 to be detected more largely.
  • the signal output to the receiver (RCV) It may not be greatly affected.
  • the intensity of signals output through the speaker SPK and detected by the first and second microphones MIC1 and MIC2 becomes larger than the rear close state, RCV) and the intensity of the signal of the designated frequency band detected by the third microphone MIC3 may be the same as the default state.
  • the signal output to the speaker SPK is more reflected by the outer object closer to the lower end of the electronic device 10 as compared with the default state, so that the first and second microphones MIC1 and MIC2, And the signal output to the receiver (RCV) may not be significantly affected by the external object.
  • the electronic device 10 can distinguish between a busy grip state, a front proximity state, a rear proximity state, or a bottom proximity state based on a change in intensity of a signal of a specified frequency band sensed.
  • FIG. 4 is a diagram illustrating a transmission / reception path of a signal in a designated frequency band according to an embodiment.
  • processor 160 may include a codec 165, an application processor (AP) 161, and a call processor (CP) 163, according to one embodiment.
  • AP application processor
  • CP call processor
  • the application processor 161 may control each component of the electronic device 10 to execute various applications of the electronic device 10. For example, the application processor 161 may output a signal of a specified frequency band outputted through a speaker (SPK) or a receiver (RCV) at a specified period. The application processor 161 can control the size of a signal of the designated frequency band to be output. In another example, the application processor 161 may check the intensity of the signal of the designated frequency band that is sensed through the first to third microphones MIC1 to MIC3. As another example, the application processor 161 may determine the proximity state of the outer object to the electronic device 10 based on the strength of the signal in the designated frequency band, and perform the function corresponding to the determined proximity state.
  • SPK speaker
  • RCV receiver
  • call processor 163 may perform communication functions.
  • the call processor 163 may connect the communication using the communication module 130, or may perform antenna switching, antenna impedance control, or communication power control.
  • the call processor 163 may decode the audio signal received through the communication module 130 and output the decoded audio signal to the codec 165.
  • the audio signal received from the codec 165 may be encoded and output (e.g., transmitted) to the communication module 130.
  • the codec 165 may perform analog to digital conversion and digital to analog conversion.
  • the codec 165 may convert a first digital signal (e.g., an audio signal) received from the communication module 130 and received via the call processor 163 to an analog signal and output (e.g., Sound output).
  • a first digital signal e.g., an audio signal
  • an analog signal and output e.g., Sound output
  • the codec 165 may mix the audio signal with a signal of a specified frequency band.
  • the codec 165 mixes a first digital signal (an audio signal) received from the call processor 163 with a second digital signal (a signal of a specified frequency band) received from the application processor 161, Signal and output it.
  • the codec 165 digitally converts analog signals (audio signals + signals of a specified frequency band) sensed through the first to third microphones MIC1 to MIC3, Outputs the signal of the designated frequency band to the application processor 161, and outputs the audio signal to the call processor 163.
  • the codec 165 may include first through third output paths and first through fourth input paths.
  • the first output path may be a path for outputting an audio signal to, for example, a speaker (SPK).
  • the second output path may be, for example, a path for outputting an audio signal to a receiver (RCV).
  • the third output path may be, for example, a path for outputting an audio signal to an ear jack receiver (RCV).
  • the first input path may be, for example, a path for receiving an audio signal from an ear jack microphone (E / P).
  • the second input path may be, for example, a path for receiving an audio signal to the first microphone MIC1.
  • the third input path may be, for example, a path for receiving an audio signal from the second microphone MIC2.
  • the fourth input path may be, for example, a path for receiving an audio signal from the third microphone MIC3.
  • &quot output path "
  • the codec 165 outputs an audio signal or at least one audio signal in a specified frequency band is provided to the application processor 161 or the call processor 163, Or the like.
  • at least one processor controls an output path of the codec 165 to output an audio signal through a receiver (RCV) in a first mode (e.g., a normal call mode) (Audio signal + signal of the designated frequency band) through the receiver RCV and output the signal of the frequency band designated by the speaker SPK at the second time according to the designated period.
  • a receiver e.g., a normal call mode
  • At least one processor controls the output path of the codec 165 to generate a mixed signal through a speaker (SPK) at a second point in time according to a specified period in a second mode (e.g., speaker call mode) Can be output.
  • at least one processor may output an audio signal to a third output path coupled to an ear jack receiver (RCV) in a third mode (e. G. An ear jack talk mode) (SPK) and a receiver (RCV), respectively.
  • SPK ear jack talk mode
  • RCV receiver
  • the case where the application processor 161 controls transmission and reception of signals in a specified frequency band has been described as an example.
  • the call processor 163 can control transmission and reception of signals in the designated frequency band.
  • the call processor 163 can notify the application processor 161 of the transmission / reception of the signal of the designated frequency band.
  • FIG. 5 illustrates a process of mixing an audio signal and a signal of a designated frequency band according to an embodiment.
  • the data on the horizontal axis is frequency and the data on the vertical axis can be signal strength [dB].
  • the processor 160 may identify an audio signal received via the communication module 130 in a first mode (e.g., a normal call mode).
  • the audio signal may be, for example, a voice signal of a user of another electronic device received from another electronic device in communication with the electronic device 10.
  • the processor 160 may generate a signal of a specified frequency band based on data stored in the memory 150 at a specified period and mix the signal of the designated frequency band with the audio signal.
  • the mixed signal may be output through a receiver (RCV). Since the signal of the designated frequency band is a signal of the non-audible frequency band which is not heard by the user, it may not interfere with the user's call.
  • FIG. 6 illustrates a process of transmitting and receiving an audio signal and a process of receiving a signal of a designated frequency band in the first mode according to an exemplary embodiment.
  • the data on the horizontal axis is frequency and the data on the vertical axis can be the signal strength [dB].
  • the user's voice (audio signal) for calling in the first mode can be sensed through the first microphone MIC1 and the second microphone MIC2.
  • the audio signals sensed by the first and second microphones MIC1 and MIC2 may be digitally converted by the codec 165 and output to the call processor 163.
  • the call processor 163 may transmit the audio signal to the other electronic device in communication with the electronic device 10 via the communication module 130.
  • the third microphone MIC3 can sense a signal of a designated frequency band outputted through the receiver (RCV).
  • the codec 165 can digitally convert the signal of the designated frequency band detected by the third microphone MIC3.
  • the application processor 161 can confirm the strength of the digitally converted signal of the specified frequency band.
  • the application processor 161 may determine the proximity state of the outer object based on the identified strength.
  • the CODEC 165 may channel or time-divide each sensed signal through the first to third microphones MIC1 to MIC3, and may transmit the signals to the application processor 161 and the call processor 163.
  • the codec 165 outputs a signal of a frequency band designated by the application processor 161 through one of the stereo channels (R channel and L channel), and outputs the audio signal to the call processor 163 via the other Can be output.
  • the electronic device 10 senses a signal of a specified frequency band outputted through the receiver (RCV) through the first microphone MIC1, the second microphone MIC2 and the second microphone MIC3, 1 proximity based on the intensities sensed through the first microphone MIC1, the second microphone MIC2, and the second microphone MIC3.
  • RCV receiver
  • FIG. 7 shows a change in the magnitude of a signal in a specified frequency band when the electronic device according to an embodiment changes from a default state to a lower close state.
  • the horizontal axis in Fig. 7 is the time axis [ms], and the vertical axis is the intensity axis [dB] of the signal.
  • the intensity of the signal of the designated frequency band detected by the first microphone MIC1 or the second microphone MIC2 in the default state of the electronic device 10 may be about 30 dB.
  • the intensity of the signal of the designated frequency band in the lower close state of the outer object may be about 45 dB increased by 15 dB.
  • the processor 160 according to an exemplary embodiment can check the bottom close state of an external object using a change in intensity of an audio signal.
  • an electronic device e.g., electronic device 10 of FIG. 2 includes a housing (e.g., housing 190 of FIG. 1); A communication module (e.g., communication module 130 of FIG. 2); A first output (e.g., receiver (RCV) of FIG. 2) disposed in a first region of the housing; A second output (e.g., speaker (SPK) of FIG. 2) disposed in a second region of the housing; A first microphone (e.g., a third microphone (MIC3) of FIG. 2) disposed closer to the first area than the second area; A second microphone (e.g., a second microphone (MIC2) of FIG. 2) disposed closer to the second region than the first region; (E.g., processor 160 of FIG.
  • a communication module e.g., communication module 130 of FIG. 2
  • a first output e.g., receiver (RCV) of FIG. 2
  • a second output e.g., speaker (SPK) of FIG. 2) disposed in a second region of the housing
  • the processor acquires an audio signal from an external device through the communication module and outputs a signal corresponding to the audio signal and a signal of the designated frequency band through the first output unit and the second output unit, Based on at least a first intensity of a signal of the specified frequency band sensed by the first microphone and a second intensity of a signal of the designated frequency band sensed through the second microphone, To determine a state, and to perform a function corresponding to the determined proximity state.
  • the processor outputs a signal of the designated frequency band through the first output, and when the first intensity is equal to or greater than the first threshold, the external object grips the electronic device and, It can be set to determine the grip state among the calls located within the distance.
  • the processor outputs a signal of the designated frequency band through the second output section and confirms whether the second intensity is equal to or greater than the second threshold value when the first intensity is equal to or greater than the first threshold value, If the intensity is greater than or equal to the second threshold, determine that the outer object is a front proximity state located within a second distance designated from the front of the electronic device; and if the second intensity is below the second threshold, Can be set.
  • the processor outputs the signal of the designated frequency band through the first output and the second output, the first intensity being less than the first threshold, the second intensity being greater than or equal to the second threshold, ,
  • the external object may be set to determine a rear proximity state located within a third distance designated from the rear side of the electronic device.
  • the processor outputs a signal of the designated frequency band through the first output section and the second output section, and when the first intensity is less than the first threshold and the second intensity is not less than the third threshold,
  • the object may be set to determine a lower proximity state located within a fourth distance designated from the lower end of the electronic device.
  • the electronic device further includes a third microphone (for example, the first microphone of FIG. 2) disposed closer to the second microphone than the first microphone and closer to the right side of the electronic device than the second microphone (MIC1)).
  • the processor outputs a signal of the designated frequency band through the second output unit and confirms a third intensity of a signal of a specified frequency band sensed using the second intensity and the third microphone, And a right hand grip or a left hand grip state by the external object based on the change in the third intensity.
  • the processor is further configured to determine whether a signal of a specified frequency band output to the first output is sensed by the first microphone and sensed by the second microphone in a state where the external object is not located within a specified distance from the electronic device A signal of a specified frequency band outputted to the second output unit is detected by the second microphone and is not detected by the first microphone So as to control the magnitude of the signal of the designated frequency band outputted using the second output unit.
  • the designated distance may be, for example, the closest distance from the designated first to fourth distances.
  • the processor mixes the audio signal with the signal of the specified frequency band and outputs the mixed signal through the first output unit and the second output unit when the obtained audio signal exists, And to output the signal of the designated frequency band through the first output unit and the second output unit when the signal does not exist.
  • the first output may be located in one area of the top front of the electronic device and the second output may be located in one area of the bottom of the electronic device.
  • an electronic device e.g., electronic device 10 of FIG. 2 includes a communication module (e.g., communication module 130 of FIG. 2); An output device (e.g., at least one of receiver (RCV) or speaker (SPK) of FIG. 2); A microphone (e.g., at least one of the first to third microphones MIC1 to MIC3 in Fig. 2); And a processor (e.g., processor 160 of FIG.
  • a communication module e.g., communication module 130 of FIG. 2
  • An output device e.g., at least one of receiver (RCV) or speaker (SPK) of FIG. 2
  • a microphone e.g., at least one of the first to third microphones MIC1 to MIC3 in Fig. 2
  • a processor e.g., processor 160 of FIG.
  • the processor is configured to: obtain an audio signal from an external device using the communication module; Outputting a signal corresponding to the audio signal and a signal of a specified frequency band through the output device; Acquiring a signal of the designated frequency band using the microphone; Determine a proximity state of an external object to the electronic device based at least on the strength of the signal in the designated frequency band; And to control at least some of the functionality of the electronic device based at least in part on the determined proximity.
  • the output device may include a first output (e.g., receiver (RCV) of FIG. 2) disposed in a first region of the electronic device; And a second output portion (e.g., speaker (SPK) of FIG. 2) disposed in a second region of the electronic device, wherein the microphone comprises: a first portion disposed closer to the first region than the second region; A microphone (e.g., the third microphone MIC3 in Fig. 2); And a second microphone (e.g., a second microphone (MIC2) of FIG.
  • a first output e.g., receiver (RCV) of FIG. 2
  • SPK speaker
  • the processor is further configured to: And determine a proximity state of the external object to the electronic device based at least on the first intensity of the signal of the first frequency band and the second intensity of the signal of the specified frequency band sensed through the second microphone.
  • the processor may be configured to control the time of outputting the signal of the designated frequency band through the first output unit and the time of outputting the signal of the designated frequency band through the second output unit.
  • the processor may be configured to output a signal of a first designated frequency band through the first output unit and output a signal of a second designated frequency band through the second output unit.
  • an electronic device e.g., electronic device 10 of FIG. 2 includes a housing (e.g., housing 190 of FIG. 1); A communication module (e.g., communication module 130 of FIG. 2); A first output (e.g., receiver (RCV) of FIG. 2) disposed in a first region of the housing; A second output (e.g., speaker (SPK) of FIG. 2) disposed in a second region of the housing; A first microphone (e.g., a third microphone (MIC3) of FIG. 2) disposed closer to the first area than the second area; A second microphone (e.g., a second microphone (MIC2) of FIG. 2) disposed closer to the second region than the first region; (E.g., processor 160 of FIG.
  • a communication module e.g., communication module 130 of FIG. 2
  • a first output e.g., receiver (RCV) of FIG. 2
  • a second output e.g., speaker (SPK) of FIG. 2) disposed in a second region of the housing
  • the processor outputs a signal of a specified frequency band through the first output unit and the second output unit; Acquiring a signal of the designated frequency band using the first microphone and the second microphone; Corresponding to the electronic device and the electronic device based at least on a first intensity of a signal of the specified frequency band obtained through the first microphone and a second intensity of a signal of the designated frequency band obtained through the second microphone Determine the distance to the outer object; And to control at least some of the functionality of the electronic device based at least on the distance.
  • the processor may be configured to control the time of outputting the signal of the designated frequency band through the first output unit and the time of outputting the signal of the designated frequency band through the second output unit.
  • the processor outputs a signal of the designated frequency band through the first output, and when the first intensity is equal to or greater than the first threshold, the external object grips the electronic device and, And may be set to be located within a distance.
  • the processor outputs a signal of the designated frequency band through the second output section and confirms whether the second intensity is equal to or greater than the second threshold value when the first intensity is equal to or greater than the first threshold value, Determining that the external object is located within a first distance specified from the front of the electronic device by gripping the electronic device when the intensity is less than the second threshold and if the second intensity is greater than or equal to the second threshold, May be set to be within a second distance designated from the front of the electronic device.
  • the processor outputs the signal of the designated frequency band through the first output and the second output, the first intensity being less than the first threshold, the second intensity being greater than or equal to the second threshold, , It can be set to determine that the external object is located within a third distance designated from the rear surface of the electronic device.
  • the processor outputs the signal of the designated frequency band through the first output unit and the second output unit, and when the first intensity is less than the first threshold and the second intensity is not less than the third threshold, May be set to determine that an external object is located within a fourth distance designated from the bottom of the electronic device.
  • the electronic device further includes a third microphone (for example, the first microphone of FIG. 2) disposed closer to the second microphone than the first microphone and closer to the right side of the electronic device than the second microphone (MIC3)), and the processor outputs the signal of the designated frequency band through the second output unit and outputs the third intensity of the signal of the designated frequency band sensed by using the second intensity and the third microphone And determine a right hand grip or a left hand grip state by the external object based on the change in the second intensity and the third intensity.
  • a third microphone for example, the first microphone of FIG. 2
  • the processor outputs the signal of the designated frequency band through the second output unit and outputs the third intensity of the signal of the designated frequency band sensed by using the second intensity and the third microphone And determine a right hand grip or a left hand grip state by the external object based on the change in the second intensity and the third intensity.
  • FIG. 8 shows a distance sensing process using a signal of a designated frequency band according to an embodiment.
  • the processor 160 outputs a signal of a designated frequency band through a speaker SPK and outputs the signal through the first and second microphones at a time required to sense a signal of a designated frequency band It is possible to calculate the distance to the external object based on the distance. For example, the processor 160 may calculate the distance between the electronic device 10 and an external object using the time required for transmitting and receiving a signal of a frequency band as shown in Equation (1).
  • the processor 160 may determine the relative position of the outer object based on the distance between the first microphone MIC1 and the second microphone MIC2 and the distance between the first and second microphones MIC1 and MIC2 and the outer object.
  • the processor 160 can determine the distance and the relative position between the electronic device 10 and the external object using the plurality of microphones MIC1 to MIC3.
  • FIG. 9 is a diagram for explaining a heart rate calculation process using a signal of a designated frequency band according to an embodiment.
  • a case of outputting a signal of a designated frequency band through a speaker SPK and sensing a signal of a designated frequency band through the first microphone MIC1 to calculate a heart rate will be described.
  • graph 1 (g1) may be a signal sensed through the first microphone MIC1 in the default state of the electronic device 10.
  • the signal of the designated frequency band sensed through the first microphone MIC1 may be, for example, 30 dB.
  • the graph 2 (g2) may be a signal of a designated frequency band sensed through the first microphone MIC1 while the first microphone MIC1 is close to the user's heart. Since the processor 160 detects two peak changes in the signal of the designated frequency band detected at the occurrence of one heartbeat, the processor 160 counts two peak changes from the detected signal of the designated frequency band, The heart rate can be calculated.
  • FIG. 10 is a flowchart illustrating a method of detecting a grip state during a call according to an exemplary embodiment of the present invention.
  • the processor 160 may output signals in a specified frequency band through a plurality of output devices (e.g., receiver (RCV) and speaker (SPK) of FIG. 2). For example, if the processor 160 confirms that it is busy, at operation 1020, the processor 160 may mix the audio signal received via the communication channel with a signal of a specified frequency band. The processor 160 may output the mixed signal to one output unit allocated to the output of the audio signal among the receiver (RCV) and the speaker (SPK). The one output may be, for example, a receiver (RCV) in a normal call mode using a receiver (RCV).
  • a receiver (RCV) in a normal call mode using a receiver (RCV).
  • the processor 160 outputs the signal of the frequency band designated at a time different from the time of outputting the mixed signal to one output unit to another output unit that does not output the mixed signal of the receiver (RCV) and the speaker (SPK) .
  • the other output unit may be a speaker (SPK) in a normal call mode.
  • the processor 160 may determine the strength (or magnitude) of the signal of a specified frequency band through a plurality of microphones (e.g., first to third microphones MIC1, MIC2, MIC3).
  • the processor 160 may be configured to send a signal to the electronic device 10 based on the strength of signals of a specified frequency band identified through a plurality of microphones (e.g., first through third microphones MIC1, MIC2, MIC3) It can determine the proximity state of the outer object. For example, the processor 160 may determine that the handset is in a call-in-grip state if the strength of the signals of the designated frequency band detected through the third microphone MIC3 is equal to or greater than the first threshold.
  • a plurality of microphones e.g., first through third microphones MIC1, MIC2, MIC3
  • the processor 160 determines that the intensity of the signals of the designated frequency band detected through the third microphone MIC3 is equal to or greater than the first threshold value and is received through the first microphone MIC1 and the second microphone MIC2 The signal strength of the designated frequency band is less than the second threshold value and the third threshold value, respectively.
  • FIG. 11 is a flowchart illustrating a method of determining a proximity state using a signal of a designated frequency band according to an exemplary embodiment.
  • the processor 160 may output a signal in a frequency band designated by a receiver (RCV) or a speaker (SPK)
  • the processor 160 outputs a signal of a frequency band designated by a receiver (RCV) at a first time point according to a specified period, and a signal of a frequency band designated by a speaker (SPK) at a second time point .
  • the processor 160 may check the intensity of the signal of the designated frequency band sensed through the first to third microphones MIC1 to MIC3. For example, the processor 160 outputs the intensity of a signal of a designated frequency band, which is output through the speaker SPK and sensed through the first and second microphones MIC1 and MIC2, via a receiver (RCV) It is possible to confirm the intensity of the signal of the designated frequency band detected through the microphone MIC3.
  • RCV receiver
  • the processor 160 may determine whether the intensity of the signal output through the receiver (RCV) and sensed through the third microphone (MIC3) in the specified frequency band is above a first threshold.
  • the processor 160 In operation 1140, if the intensity of the signal of the designated frequency band outputted through the receiver (RCV) and sensed through the third microphone (MIC3) is equal to or larger than the first threshold, the processor 160 outputs the signal through the speaker 1 and the second microphones MIC1 and MIC2 are equal to or greater than the second and third thresholds, respectively.
  • the processor 160 may deactivate the display 140 if it determines a busy state of the call.
  • Processor 160 may control communication module 130 (e.g., antenna switching, impedance control, or power control, etc.) to correspond to a front proximity condition if it determines a busy grip state.
  • the processor 160 may determine that the strength of the signals of the designated frequency band sensed through the first and second microphones MIC1 and MIC2 is greater than the intensity of the signals of the second and third microphones MIC1 and MIC2, And the intensity of the signals of the designated frequency band sensed through the first and second microphones MIC1 and MIC2 is higher than the third and the third thresholds by the second and third microphones MIC1 and MIC2 respectively designated for the first and second microphones MIC1 and MIC2. 3 < / RTI > threshold value.
  • the processor 160 determines whether the intensity of the signals of the designated frequency band sensed through the first and second microphones MIC1 and MIC2 is less than the second and third thresholds respectively specified for the first and second microphones MIC1 and MIC2 , It can be determined that the external object is in the close state during the communication of the external object with respect to the electronic device 10.
  • the processor 160 may control the communication module 130 to correspond to the front proximity state.
  • the processor 160 determines at operation 1130 that the intensity of the signal of the designated frequency band that is output via the receiver RCV and sensed via the third microphone MIC3 is below a first threshold, To check whether the intensity of the signal of the designated frequency band sensed through the first and second microphones MIC1 and MIC2 is equal to or greater than the fourth and fifth thresholds, respectively.
  • the processor 160 may control the communication module 130 to correspond to the lower end proximity state.
  • the processor 160 may control the communication module 130 to correspond to a rear proximity condition if it determines a rear proximity condition.
  • the processor 160 determines whether the intensity of the signal of the designated frequency band outputted through the speaker SPK and sensed through the first and second microphones MIC1 and MIC2 is equal to or greater than the fourth and fifth thresholds, A signal of a designated frequency band that is detected through the speaker (SPK) and sensed through the second microphone (MIC2), the intensity of the signals of the designated frequency band sensed through the microphone (MIC1) is above the second threshold value and below the fourth threshold value, It is possible to confirm whether the intensity of the first threshold value is greater than or equal to the third threshold value and less than the fifth threshold value.
  • the processor 160 may determine the backside proximity of the external object to the electronic device 10 .
  • the processor 160 may determine that it is not in the proximity state of the external object and not perform any other control, unless the processor 160 meets the specified conditions.
  • FIG. 12 is a block diagram of an electronic device 1201 in a network environment 1200, in accordance with various embodiments.
  • electronic device 1201 e.g., electronic device 10 in network environment 1200 may communicate with electronic device 1202 via a first network 1298 (e.g., near field wireless communication) Or a second network 1299 (e. G., Long distance wireless communication). ≪ / RTI >
  • the electronic device 1201 may communicate with the electronic device 1204 through the server 1208.
  • electronic device 1201 includes processor 1220 (e.g., processor 160 of FIG. 2), memory 1230 (e.g., memory 150 of FIG.
  • input device 1250 E.g., the first to third microphones MIC1 to MIC3 in FIG. 2), the sound output device 1255 (e.g., the speaker SPK or receiver RCV in FIG. 2), the display device 1260 2), an audio module 1270 (e.g., codec 165 of FIG. 4), a sensor module 1276, an interface 1277, a haptic module 1279, a camera module 1280, a power management Module 1288, a battery 1289, a communication module 1290 (e.g., communication module 130 of FIG. 2), a subscriber identity module 1296, and an antenna module 1297 130).
  • input device 1250 E.g., the first to third microphones MIC1 to MIC3 in FIG. 2
  • the sound output device 1255 e.g., the speaker SPK or receiver RCV in FIG. 2
  • an audio module 1270 e.g., codec 165 of FIG. 4
  • sensor module 1276 e.g., codec
  • At least one of these components may be omitted from electronic device 1201 or other components may be added.
  • some components such as, for example, a sensor module 1276 (e.g., a fingerprint sensor, an iris sensor, or an ambient light sensor) embedded in a display device 1260 Can be integrated.
  • Processor 1220 may be configured to operate at least one other component (e.g., hardware or software component) of electronic device 1201 coupled to processor 1220 by driving software, e.g., program 1240, And can perform various data processing and arithmetic operations.
  • Processor 1220 loads and processes instructions or data received from other components (e.g., sensor module 1276 or communication module 1290) into volatile memory 1232 and processes the resulting data into nonvolatile memory 1234, Lt; / RTI >
  • the processor 1220 may be a main processor 1221 (e.g., a central processing unit or an application processor), and, independently, and additionally or alternatively, a lower power than the main processor 1221, Or may include a secondary processor 1223 (e.g., a graphics processing unit, an image signal processor, a sensor hub processor, or a communications processor) specific to the designated function.
  • the auxiliary processor 1223 may be operated separately from or embedded in the main processor 1221.
  • the coprocessor 1223 may be configured to operate on behalf of the main processor 1221, for example, while the main processor 1221 is in an inactive (e.g., sleep) At least one component (e.g., display 1260, sensor module 1276, or communication module 1216) of the electronic device 1201, along with the main processor 1221, 1290), < / RTI > According to one embodiment, the coprocessor 1223 (e.g., an image signal processor or communications processor) is implemented as a component of some other functionally related component (e.g., camera module 1280 or communication module 1290) .
  • an image signal processor or communications processor is implemented as a component of some other functionally related component (e.g., camera module 1280 or communication module 1290) .
  • the memory 1230 may store various data, e.g., software (e.g., program 1240) used by at least one component (e.g., processor 1220 or sensor module 1276) ), And input data or output data for the associated command.
  • Memory 1230 may include volatile memory 1232 or non-volatile memory 1234.
  • the program 1240 may be software stored in the memory 1230 and may include, for example, an operating system 1242, middleware 1244 or application 1246. [
  • the input device 1250 is an apparatus for receiving instructions or data from an external (e.g., user) external to the electronic device 1201 for use in a component (e.g., processor 1220) of the electronic device 1201, For example, a microphone, a mouse, or a keyboard may be included.
  • a component e.g., processor 1220
  • a microphone, a mouse, or a keyboard may be included.
  • the audio output device 1255 is a device for outputting a sound signal to the outside of the electronic device 1201.
  • the receiver may be formed integrally or separately with the speaker.
  • Display device 1260 may be an apparatus for visually presenting information to a user of electronic device 1201 and may include, for example, a display, a hologram device, or a projector and control circuitry for controlling the device. According to one embodiment, the display device 1260 may include a touch circuitry or a pressure sensor capable of measuring the intensity of the pressure on the touch.
  • the audio module 1270 can bidirectionally convert sound and electrical signals. According to one embodiment, the audio module 1270 may acquire sound through an input device 1250, or may be coupled to an audio output device 1255, or to an external electronic device (e.g., Electronic device 1202 (e.g., a speaker or headphone)).
  • an external electronic device e.g., Electronic device 1202 (e.g., a speaker or headphone)
  • the sensor module 1276 may generate an electrical signal or data value corresponding to an internal operating state (e.g., power or temperature) of the electronic device 1201, or an external environmental condition.
  • the sensor module 1276 may be, for example, a gesture sensor, a gyro sensor, a barometric sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an infrared sensor, Or an illuminance sensor.
  • the interface 1277 may support a designated protocol that can be wired or wirelessly connected to an external electronic device (e.g., electronic device 1202).
  • the interface 1277 may include a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital interface
  • audio interface an audio interface
  • the connection terminal 1278 may be a connector capable of physically connecting the electronic device 1201 and an external electronic device such as the electronic device 1202 such as an HDMI connector, a USB connector, an SD card connector, (E.g., a headphone connector).
  • an HDMI connector such as an HDMI connector, a USB connector, an SD card connector, (E.g., a headphone connector).
  • the haptic module 1279 can convert an electrical signal into a mechanical stimulus (e.g., vibration or motion) or an electrical stimulus that the user can perceive through a tactile or kinesthetic sense.
  • the haptic module 1279 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 1280 can capture a still image and a moving image.
  • the camera module 1280 may include one or more lenses, an image sensor, an image signal processor, or a flash.
  • the power management module 1288 is a module for managing the power supplied to the electronic device 1201, and may be configured as at least a part of, for example, a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 1289 is an apparatus for supplying power to at least one component of the electronic device 1201, and may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
  • Communication module 1290 may be used to establish a wired or wireless communication channel between the electronic device 1201 and an external electronic device (e.g., electronic device 1202, electronic device 1204, or server 1208) Lt; / RTI > Communication module 1290 may include one or more communication processors that support wired communication or wireless communication, which operate independently from processor 1220 (e.g., an application processor).
  • communication module 1290 includes a wireless communication module 1292 (e.g., a cellular communication module, a short range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 1294 (E.g., Bluetooth, WiFi direct, or IrDA (infrared data association)) using a corresponding communication module, such as a local area network (LAN) communication module or a power line communication module) Communication network) or a second network 1299 (e.g., a telecommunications network such as a cellular network, the Internet, or a computer network (e.g., a LAN or WAN)).
  • a wireless communication module 1292 e.g., a cellular communication module, a short range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 1294 E.g., Bluetooth, WiFi direct, or IrDA (infrared data association)
  • a second network 1299 e
  • the wireless communication module 1292 can use the user information stored in the subscriber identification module 1296 to identify and authenticate the electronic device 1201 within the communication network.
  • the antenna module 1297 may include one or more antennas for externally transmitting or receiving signals or power.
  • the communication module 1290 e.g., the wireless communication module 1292
  • Some of the components are connected to each other via a communication method (e.g., bus, general purpose input / output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI) (Such as commands or data) can be exchanged between each other.
  • a communication method e.g., bus, general purpose input / output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI) (Such as commands or data) can be exchanged between each other.
  • the command or data may be transmitted or received between the electronic device 1201 and the external electronic device 1204 via the server 1208 connected to the second network 1299.
  • Each of the electronic devices 1202 and 1204 may be the same or a different type of device as the electronic device 1201.
  • all or a portion of the operations performed on the electronic device 1201 may be performed on another or a plurality of external electronic devices.
  • the electronic device 1201 in the event that the electronic device 1201 has to perform some function or service automatically or upon request, the electronic device 1201 may, instead of or in addition to executing the function or service itself, And may request the external electronic device to perform at least some functions associated therewith.
  • the external electronic device receiving the request may execute the requested function or additional function and transmit the result to the electronic device 1201.
  • the electronic device 1201 can directly or additionally process the received result to provide the requested function or service.
  • cloud computing, distributed computing, or client-server computing technology may be used.
  • module includes units comprised of hardware, software, or firmware and may be used interchangeably with terms such as, for example, logic, logic blocks, components, or circuits.
  • a module may be an integrally constructed component or a minimum unit or part thereof that performs one or more functions.
  • the module may be configured as an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document may include instructions stored on a machine-readable storage medium (e.g., internal memory 1236 or external memory 1238) readable by a machine (e.g., a computer) Software (e.g., program 1240).
  • the device may include an electronic device (e. G., Electronic device 1201) in accordance with the disclosed embodiments as an apparatus capable of calling stored instructions from the storage medium and operating according to the called instructions.
  • a processor e.g., processor 1220
  • the processor may perform the function corresponding to the instruction, either directly, or using other components under the control of the processor.
  • the instructions may include code generated or executed by the compiler or interpreter.
  • a device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-temporary' means that the storage medium does not include a signal and is tangible, but does not distinguish whether data is stored semi-permanently or temporarily on the storage medium.
  • the method according to various embodiments disclosed herein may be provided in a computer program product.
  • a computer program product can be traded between a seller and a buyer as a product.
  • a computer program product may be distributed in the form of a machine readable storage medium (eg, compact disc read only memory (CD-ROM)) or distributed online through an application store (eg PlayStore TM ).
  • an application store eg PlayStore TM
  • at least a portion of the computer program product may be temporarily stored, or temporarily created, on a storage medium such as a manufacturer's server, a server of an application store, or a memory of a relay server.
  • Each of the components may be comprised of a single entity or a plurality of entities, and some of the subcomponents described above may be omitted, or other subcomponents May be further included in various embodiments.
  • some components e.g., modules or programs

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Environmental & Geological Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Telephone Function (AREA)

Abstract

전자 장치가 개시된다. 일 실시 예에 따른 전자 장치는, 통신 모듈; 출력 장치; 마이크; 및 프로세서를 포함하고, 상기 프로세서는, 상기 통신 모듈을 이용하여 외부 장치로부터 오디오 신호를 획득하고; 상기 오디오 신호에 대응하는 신호 및 지정된 주파수 대역의 신호를 상기 출력 장치를 통해 출력하고; 상기 마이크를 이용하여 상기 지정된 주파수 대역의 신호를 획득하고; 상기 지정된 주파수 대역의 신호의 강도에 적어도 기반하여 상기 전자 장치와 상기 전자 장치에 대응되는 상기 전자 장치에 대한 외부 객체의 근접 상태를 결정하고; 및 상기 결정된 근접 상태에 적어도 기반하여 상기 전자 장치의 적어도 일부 기능을 제어하도록 할 수 있다. 이 외에도 명세서를 통해 파악되는 다양한 실시 예가 가능하다.

Description

지정된 주파수 대역의 신호를 이용하여 외부 객체의 근접을 확인하는 전자 장치 및 전자 장치 제어 방법
본 문서에서 개시되는 실시 예들은, 지정된 주파수 대역의 신호를 이용하여 외부 객체의 근접을 감지하는 기술과 관련된다.
전자 장치는 터치 센서, 가속도 센서, 지자기 센서, 조도 센서, RGB 센서, 기압 센서, 온도 센서, 근접 센서, 심박 센서 등과 같은 다양한 센서를 배치할 수 있다. 이러한 센서들은 다양한 애플리케이션을 통해 사용자에게 편의를 제공하는데 이용될 수 있다. 예를 들어, 전자 장치는 근접 센서를 통하여 사용자가 근접하는 것을 감지하면, 디스플레이의 화면을 꺼(off), 전자 장치의 소비 전력을 절감할 수 있다.
최근, 다양한 기능에 대한 요구로 인하여 전자 장치에 적용되는 부품 수는 많아지고 디스플레이 크기는 커지고 있다. 더욱이, 이러한 변화는 전자 장치의 소비 전력의 증가로 이어져, 전자 장치에 적용되는 배터리 용량도 커지고 있다. 통상, 배터리 용량이 커지면, 배터리 크기도 커지므로, 전자 장치에서 상술한 다양한 센서들이 실장될 수 있는 공간이 줄어들고 있다.
본 문서에 개시되는 다양한 실시 예들은 지정된 주파수 대역의 신호를 이용하여 외부 객체의 근접을 확인할 수 있는 전자 장치 및 전자 장치 제어 방법을 제공한다.
본 문서에 개시되는 일 실시 예에 따른 전자 장치는, 하우징; 통신 모듈; 상기 하우징의 제 1 영역에 배치된 제 1 출력부; 상기 하우징의 제 2 영역에 배치된 제 2 출력부; 상기 제 2 영역보다 상기 제 1 영역에 가깝게 배치된 제 1 마이크; 상기 제 1 영역보다 상기 제 2 영역에 가깝게 배치된 제 2 마이크; 상기 통신 모듈, 상기 제 1 출력부, 상기 제 2 출력부, 상기 제 1 마이크 및 제 2 마이크와 기능적으로 연결된 프로세서를 포함하고, 상기 프로세서는, 상기 통신 모듈을 통해 외부 장치로부터 오디오 신호를 획득하고, 상기 오디오 신호와 상기 지정된 주파수 대역의 신호 중 적어도 하나를 상기 제 1 출력부와 상기 제 2 출력부를 통해 출력하고, 상기 제 1 마이크를 통해 감지된 상기 지정된 주파수 대역의 신호의 제 1 강도 및 상기 제 2 마이크를 통해 감지된 상기 지정된 주파수 대역의 신호의 제 2 강도를 확인하고, 상기 제 1 강도 및 상기 제 2 강도에 적어도 기초하여 상기 전자 장치에 대한 외부 객체의 근접 상태를 결정하고, 상기 결정된 근접 상태에 대응하는 기능을 실행할 수 있다.
또한, 본 문서에 개시되는 일 실시 예에 따른 전자 장치는 통신 모듈; 출력 장치; 마이크; 및 프로세서를 포함하고, 상기 프로세서는, 상기 통신 모듈을 이용하여 외부 장치로부터 오디오 신호를 획득하고; 상기 오디오 신호 및 지정된 주파수 대역의 신호를 상기 출력 장치를 통해 출력하고; 상기 마이크를 이용하여 상기 지정된 주파수 대역의 신호를 획득하고; 상기 지정된 주파수 대역의 신호의 강도에 적어도 기반하여 상기 전자 장치와 상기 전자 장치에 대응되는 상기 전자 장치에 대한 외부 객체의 근접 상태를 결정하고; 및 상기 결정된 근접 상태에 적어도 기반하여 상기 전자 장치의 적어도 일부 기능을 제어하도록 할 수 있다.
또한, 본 문서에 개시되는 일 실시 예에 따른 전자 장치는, 하우징; 통신 모듈; 상기 하우징의 제 1 영역에 배치된 제 1 출력부; 상기 하우징의 제 2 영역에 배치된 제 2 출력부; 상기 상기 제 2 출력부보다 상기 제 1 출력부에 가깝게 배치된 제 1 마이크; 상기 제 1 영역보다 상기 제 2 영역에 가깝게 배치된 제 2 마이크; 상기 통신 모듈, 상기 제 1 출력부, 상기 제 2 출력부, 상기 제 1 마이크 및 제 2 마이크와 기능적으로 연결된 프로세서를 포함하고, 상기 프로세서는, 상기 프로세서는, 지정된 주파수 대역의 신호를 상기 제 1 출력부와 제 2 출력부를 통해 출력하고; 상기 제 1 마이크와 제 2 마이크를 이용하여 상기 지정된 주파수 대역의 신호를 획득하고; 상기 제 1 마이크를 통해 획득된 상기 지정된 주파수 대역의 신호의 제 1 강도와 상기 제 2 마이크를 통해 획득된 상기 지정된 주파수 대역의 신호의 제 2 강도에 적어도 기반하여 상기 전자 장치와 상기 전자 장치에 대응되는 사용자와의 거리를 결정하고; 및 상기 거리에 적어도 기반하여 상기 전자 장치의 적어도 일부 기능을 제어할 수 있다.
본 문서에 개시되는 실시 예들에 따르면, 지정된 주파수 대역의 신호를 이용하여 전자 장치에 대한 외부 객체의 근접을 감지할 수 있다. 이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1은 일 실시 예에 따른 전자 장치의 외형도를 나타낸다.
도 2는 일 실시 예에 따른 전자 장치의 구성도를 나타낸다.
도 3은 일 실시 예에 따른 각 근접 상태의 지정된 주파수 대역의 신호의 강도를 나타낸다.
도 4는 일 실시 예에 따른 지정된 주파수 대역의 신호의 송수신 경로를 도시한 도면이다.
도 5은 일 실시 예에 따른 오디오 신호와 지정된 주파수 대역의 신호의 혼합 과정을 나타낸다.
도 6은 일 실시 예에 따른 제 1 모드에서 오디오 신호의 송수신 과정와 지정된 주파수 대역의 신호의 수신 과정을 나타낸다.
도 7은 일 실시 예에 따른 전자 장치가 디폴트 상태에서 하단 근접 상태로 변화할 때의 지정된 주파수 대역의 신호의 크기(또는, 강도) 변화를 나타낸다.
도 8는 일 실시 예에 따른 지정된 주파수 대역의 신호를 이용한 거리 감지 과정을 나타낸다.
도 9은 일 실시 예에 따른 지정된 주파수 대역의 신호를 이용한 심박수 산출 과정을 설명하기 위한 도면이다.
도 10은 일 실시 예에 따른 통화중 그립 상태 감지 방법을 도시한 흐름도이다.
도 11은 일 실시 예에 따른 지정된 주파수 대역의 신호를 이용한 각 근접 상태 결정 방법을 도시한 흐름도이다.
도 12은 다양한 실시 예에 따른 네트워크 환경 내의 전자 장치의 블록도를 나타낸다. 도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치 중 적어도 하나를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
도 1은 일 실시 예에 따른 전자 장치의 외형도를 나타낸다.
도 1을 참조하면, 일 실시 예에 따르면, 전자 장치(10)는 하우징(190), 디스플레이(140), 복수의 마이크들(MIC1~MIC3), 리시버(RCV) 및 스피커(SPK)를 포함할 수 있다. 일 실시 예에서, 일부 구성요소가 생략되거나, 추가적인 구성요소를 더 포함할 수 있다. 일 실시 예에서, 구성요소들 중 일부가 결합되어 하나의 개체로 구성되되, 결합 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다.
일 실시 예에 따르면, 하우징(190)은 디스플레이(140), 복수의 마이크들(MIC1~MIC3), 리시버(RCV) 및 스피커(SPK)를 고정하거나, 내장할 수 있다. 하우징(190)은 전면, 측면 및 후면을 포함할 수 있다. 하우징(190)의 전면, 후면 또는 측면 중 적어도 한 면에는 복수의 마이크들 (MIC1~MIC3), 리시버(RCV) 또는 스피커(SPK)의 노출을 위한 적어도 하나의 개구부가 배치될 수 있다.
일 실시 예에 따르면, 디스플레이(140)는 하우징(190)의 전면을 통하여 적어도 일부가 노출될 수 있다. 디스플레이(140)는 백라이트, 디스플레이 패널, 터치 센서, 압력 센서, 지문 센서 등을 포함할 수 있다.
일 실시 예에 따르면, 리시버(RCV)는 하우징(190)의 제 1 영역 예를 들면, 하우징(190)의 전면의 상부에 배치될 수 있다. 스피커(SPK)는 하우징(190)의 제 2 영역 예를 들면, 하우징(190)의 하부에 배치될 수 있다. 다양한 실시예에 따르면, 전자 장치는 복수의 스피커(SPK)들을 포함하고, 하우징(190)의 전면, 측면 또는 후면에 복수의 스피커(SPK)들이 배치될 수 있다.
일 실시 예에 따르면, 복수의 마이크들(MIC1~MIC3)은 하우징(190)의 복수의 영역들에 배치되는 제 1 내지 제 3 마이크(MIC1~MIC3)를 포함할 수 있다. 예를 들어, 제 1 마이크(MIC1) 및 제 2 마이크(MIC2)는 스피커(SPK)에 가깝게 배치되되, 제 1 마이크(MIC1)는 하우징(190)의 전면에서 볼 때 하우징(190)의 제 1 측면(예: 우측)으로 치우쳐 배치되고, 제 2 마이크(MIC2)는 하우징(190)의 전면에서 볼 때 하우징(190)의 제 2 측면(예: 좌측)으로 치우쳐 배치될 수 있다. 제 3 마이크(MIC3)는 리시버(RCV)에 가깝게 배치될 수 있다.
도 2는 일 실시 예에 따른 전자 장치의 구성도를 나타낸다.
도 1 및 도 2를 참조하면, 일 실시 예에 따르면, 전자 장치(10)는 입출력 장치(110), 통신 모듈(130), 디스플레이(140), 메모리(150) 및 프로세서(160)를 포함할 수 있다. 일 실시 예에서, 일부 구성요소가 생략되거나, 추가적인 구성요소를 더 포함할 수 있다. 일 실시 예에서, 구성요소들 중 일부가 결합되어 하나의 개체로 구성되되, 결합 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다.
일 실시 예에 따르면, 입출력 장치(110)는 소리(또는, 신호)를 감지하거나, 소리(또는, 신호)를 출력하는 구성요소를 포함할 수 있다. 예를 들어, 입출력 장치(110)는 리시버(RCV), 스피커(SPK) 및 복수의 마이크들(MIC1~MIC3)을 포함할 수 있다. 상기 소리는 음파(이하, “오디오 신호”라고 함) 또는 지정된 주파수 대역의 신호(예: 초음파) 중 적어도 하나를 포함할 수 있다. 상기 소리는 오디오 신호가 변환된 신호, 화이트 노이즈 신호등을 포함할 수 있다. 상기 화이트 노이즈 신호는 전자 장치(10)와 통화중인 다른 전자 장치의 사용자가 소리를 내지 않을 경우에 전달되는 신호일 수 있다.
일 실시 예에 따르면, 리시버(RCV)는 음성 통화 시에 활성화되어, 통신 채널을 통해 수신된 음성을 출력할 수 있다. 스피커(SPK)는 음원 재생 시에 활성화되어, 재생되는 음원의 소리를 출력할 수 있다. 리시버(RCV) 및 스피커(SPK)는 오디오 신호(예: 가청 신호)와 지정된 주파수 대역의 신호(예: 비가청 신호)를 수신하여 출력할 수 있다. 이하, 스피커(SPK) 또는 리시버(RCV)가 신호를 출력한다는 것은, 스피커(SPK) 또는 리시버(RCV)가 프로세서(160)(또는 도 12의 오디오 모듈(1270))로부터 신호를 수신하여 상기 신호에 대응되는 소리(sound)를 출력하는 것으로 이해할 수 있다. 상기 오디오 신호는 예를 들면, 20Hz 내지 20kHz 대역에 포함된 신호일 수 있다. 상기 지정된 주파수 대역의 신호는 예를 들면, 20kHz 내지 100kHz 대역 중 적어도 일부 대역(예: 20kHz 내지 50kHz)에 포함된 신호일 수 있다.
일 실시 예에서, 리시버(RCV) 및 스피커(SPK)는 전자 장치(10)의 서로 다른 위치에 배치될 수 있다. 예를 들어, 리시버(RCV)는 전자 장치(10)의 제 1 영역 예를 들면, 전자 장치(10)의 전면의 상부의 일 영역에 배치될 수 있다. 스피커(SPK)는 전자 장치(10)의 제 2 영역 예를 들면, 전자 장치(10)의 하단의 일 영역에 배치될 수 있다.
일 실시 예에 따르면, 제 1 내지 제 3 마이크(MIC1~MIC3) 각각은 활성화되면, 소리를 감지할 수 있다. 상기 소리는 통신 모듈(130)을 통해 획득된 오디오 신호에 대응하는 신호(또는 소리) 및 지정된 주파수 대역의 신호에 대응하는 신호를 포함할 수 있다. 상기 오디오 신호에 대응하는 신호는 오디오 신호, 오디오 신호가 변환된 신호, 화이트 노이즈 신호 등을 포함할 수 있다. 제 1 내지 제 3 마이크(MIC1~MIC3)는 전자 장치(10)의 서로 다른 위치에 배치될 수 있다. 예를 들어, 제 1 마이크(MIC1) 및 제 2 마이크(MIC2)는 리시버(RCV)보다 스피커(SPK)에 가깝게 배치되되, 제 1 마이크(MIC1)는 전자 장치(10)의 전면에서 볼 때 전자 장치(10)의 제 1 측면(예: 우측)으로 치우친 전자 장치(10)의 하단에 배치되고, 제 2 마이크(MIC2)는 전자 장치(10)의 전면에서 볼 때 전자 장치(10)의 제 2 측면(예: 좌측)으로 치우친 전자 장치(10)의 하단에 배치될 수 있다. 제 3 마이크(MIC3)는 스피커(SPK)보다 리시버(RCV)에 가깝게 배치될 수 있다.
일 실시 예에 따르면, 통신 모듈(130)은 지정된 통신 채널을 통하여 신호를 송수신할 수 있다. 상기 지정된 통신 채널은 3G, GSM, LTE, WiFi, WiBro 또는 블루투스 중 적어도 하나의 통신 방식의 채널을 포함할 수 있다.
디스플레이(140)는, 예를 들면, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 또는 전자종이(electronic paper) 디스플레이 중 적어도 하나를 포함할 수 있다. 디스플레이(140)는, 예를 들면, 사용자에게 각종 컨텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 및/또는 심볼 등)를 표시할 수 있다. 일 실시 예에 따르면, 디스플레이(140)는 활성화(예: ON) 또는 비활성화(예: OFF)될 수 있다.
메모리(150)는 휘발성 메모리(예를 들어, RAM 등), 비휘발성 메모리(예를 들어, ROM, 플래시 메모리 등) 또는 이들의 조합일 수 있다. 메모리(150)는, 예를 들면, 전자 장치(10)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 일 실시 예에 따르면, 메모리(150)는 입출력 장치(110)을 통해 소리를 감지하거나, 소리를 출력하기 위한 명령들을 저장할 수 있다. 메모리(150)는 지정된 주파수 대역의 신호를 생성하기 위한 명령들, 지정된 주파수 대역의 신호와 오디오 신호를 혼합하기 위한 명령들을 더 포함할 수 있다.
프로세서(160)는 예를 들어, 중앙처리장치(CPU), 그래픽처리장치(GPU), 마이크로프로세서, 애플리케이션 프로세서(application processor), 콜 프로세서(call processor), 코덱(CODEC), 주문형 반도체(ASIC(application specific integrated circuit) 또는, FPGA(field programmable gate arrays)) 중 적어도 하나를 포함할 수 있으며, 복수의 코어들을 가질 수 있다. 프로세서(160)는 전자 장치(10)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.
일 실시 예에 따르면, 프로세서(160)는 리시버(RCV)와 스피커(SPK)를 통하여 지정된 주파수 대역의 신호를 각기 출력하고, 각기 출력된 지정된 주파수 대역의 신호를 제 1 내지 제 3 마이크(MIC1~MIC3) 중 적어도 하나를 통해 수신할 수 있다. 예를 들어, 프로세서(160)는 지정된 주기에 따른 제 1 시점에 리시버(RCV)를 통해 지정된 주파수 대역의 신호(예: 비가청 신호) 또는 지정된 주파수 대역의 신호와 오디오 신호(예: 가청 신호)가 믹싱된 신호를 출력하고, 리시버(RCV)를 통해 출력된 소리를 제 1 및 제 2 마이크(MIC1, MIC2)를 통해 감지할 수 있다.다른 예를 들어, 프로세서(160)는 지정된 주기에 따른 제 2 시점에 스피커(SPK)를 통해 지정된 주파수 대역의 신호를 출력하고, 스피커(SPK)로 출력된 소리를 제 1 및 제 2 마이크(MIC1, MIC2)를 통해 감지할 수 있다.
일 실시 예에서, 프로세서(160)는 한 주기의 지정된 주파수 대역의 신호를 출력할 수 있고, 복수 주기의 지정된 주파수 대역의 신호를 출력할 수 있다. 상기 지정된 주파수 대역의 신호는 예를 들면, 정현파, 사각파, 구형파 또는 톱니파 등 중 적어도 하나를 포함할 수 있다.
일 실시 예에서, 프로세서(160)는 스피커(SPK) 및 리시버(RCV)로 출력되는 지정된 주파수 대역의 신호의 크기(또는, 강도)를 제어할 수 있다. 예를 들어, 프로세서(160)는 디폴트 상태에서, 스피커(SPK)로 출력되는 지정된 주파수 대역의 신호의 크기를 제 1 및 제 2 마이크(MIC1, MIC2)를 통해 감지되지 않고 제 3 마이크(MIC3)를 통해 감지되지 않도록 제어할 수 있다. 상기 디폴트 상태는 전자 장치(10)에 근접한 외부 객체가 없는 상태일 수 있다. 상기 외부 객체는 예를 들면, 사용자 또는 주변 물체 등일 수 있다. 다른 예를 들어, 프로세서(160)는 디폴트 상태에서 리시버(RCV)로 출력된 지정된 주파수 대역의 신호의 크기를 제 1 내지 제 3 마이크(MIC1~MIC3)에 의해서 감지되고 제 3 마이크(MIC3)에 의해 감지되지 않도록 설정할 수 있다.
일 실시 예에 따르면, 프로세서(160)는 지정된 주파수 대역의 신호를 오디오 신호와 혼합(mix)하여 리시버(RCV) 또는 스피커(SPK) 중 적어도 하나를 통해 출력할 수 있다. 예를 들어, 프로세서(160)는 지정된 제 1 모드(예: 일반 통화 모드)에서, 통신 모듈(130)을 통하여 오디오 신호를 수신하면, 수신된 오디오(예: 가청) 신호를 지정된 주파수 대역의 신호와 혼합하고, 혼합된 신호를 리시버(RCV)를 통해 출력할 수 있다. 상기 지정된 제 1 모드는 예를 들면, 리시버(RCV)를 통해 수신된 가청 주파수 대역의 신호를 출력하는 통화 모드일 수 있다. 다른 예를 들어, 프로세서(160)는 지정된 제 2 모드(예: 스피커 통화 모드)에서, 통신 채널을 통해 수신된 오디오 신호와 지정된 주파수 대역의 신호를 혼합하여 스피커(SPK)를 통해 출력할 수 있다. 상기 지정된 제 2 모드는 예를 들면, 스피커(SPK)를 통해 수신된 오디오 신호를 출력하는 통화 모드일 수 있다.
일 실시 예에 따르면, 프로세서(160)는 리시버(RCV) 또는 스피커(SPK)를 통해 출력되어, 제 1 내지 제 3 마이크(MIC1~MIC3)를 통해 감지된 지정된 주파수 대역의 신호의 강도를 확인할 수 있다. 예를 들어, 프로세서(160)는 제 1 시점 이후의 제 3 시점에 리시버(RCV)를 통해 출력되어 제 1 내지 제 3 마이크(MIC1~MIC3)를 통해 감지된 지정된 주파수 대역의 신호의 강도를 확인할 수 있다. 다른 예를 들어, 프로세서(160)는 제 2 시점 이후의 제 4 시점에 스피커(SPK)를 통해 출력되어 제 1 내지 제 3 마이크(MIC1~MIC3)를 통해 감지된 지정된 주파수 대역의 신호의 강도를 각기 확인할 수 있다.
일 실시 예에 따르면, 프로세서(160)는 각기 확인된 지정된 주파수 대역의 신호의 강도에 기초하여 전자 장치(10)에 대한 외부 객체의 근접 여부 또는 근접 영역 중 적어도 하나를 결정할 수 있다.
예를 들어, 프로세서(160)는 지정된 제 1 모드(통화 모드)에서 리시버(RCV)를 통해 출력되어, 제 3 마이크(MIC3)를 통해 감지된 지정된 주파수 대역의 신호의 강도가 제 1 임계치 이상이고 스피커(SPK)를 통해 출력되고 제 1 및 제 2 마이크(MIC1, MIC2)를 통해 감지된 지정된 주파수 대역의 신호들의 강도가 각기 제 2 및 제 3 임계치 미만이면, 전자 장치(10)가 통화중 그립 상태인 것으로 결정할 수 있다. 상기 제 1 임계치는 예를 들면, 전자 장치(10)의 전면에 근접된 외부 객체가 있을 경우와 없을 경우를 구분할 수 있도록 설정될 수 있다. 상기 제 2 및 제 3 임계치는 예를 들면, 전자 장치(10)에 대한 외부 객체의 전면 근접 상태와 전자 장치(10)의 통화중 그립 상태를 구분할 수 있도록 설정될 수 있다. 상기 통화중 그립 상태는 예를 들면, 외부 객체가 통화를 위하여 전자 장치(10)를 그립하고 전자 장치(10)의 전면의 적어도 일부 예컨대, 리시버(RCV)를 귀에 댄 상태일 수 있다. 상기 전면 근접 상태는 예를 들면, 외부 객체가 전자 장치(10)의 전면(예: 전면의 전체)으로부터 지정된 거리 내에 위치한 상태일 수 있다. 상기 전면 근접 상태는 다른 예를 들면, 전자 장치(10)가 뒤집어진 상태로 바닥(외부 객체)에 놓여짐에 따라 전자 장치(10)의 전면 전체가 바닥에 닿아 있는 상태일 수 있다.
다른 예를 들어, 프로세서(160)는 리시버(RCV)를 통해 출력되고, 제 3 마이크(MIC3)를 통해 감지된 지정된 주파수 대역의 신호가 지정된 제 1 임계치 이상이고 스피커(SPK)를 통해 출력되고, 제 1 및 제 2 마이크(MIC1, MIC2)를 통해 감지된 지정된 주파수 대역의 신호들의 강도가 제 1 및 제 2 마이크(MIC1, MIC2)에 대해 각기 지정된 제 2 및 제 3 임계치 이상이면, 전자 장치(10)에 대한 외부 객체의 전면 근접 상태로 결정할 수 있다
또 다른 예로, 프로세서(160)는 리시버(RCV)를 통해 출력되고, 제 3 마이크(MIC3)를 통해 감지된 지정된 주파수 대역의 신호의 강도가 지정된 제 1 임계치 미만이고, 스피커(SPK)를 통해 출력되고 제 1 마이크(MIC1)를 통해 감지된 지정된 주파수 대역의 신호들의 강도가 제 2 임계치 이상이고 제 4 임계치 미만이고, 스피커(SPK)를 통해 출력되고 제 2 마이크(MIC2)를 통해 감지된 지정된 지정된 주파수 대역의 신호들의 강도가 제 3 임계치 이상이고 제 5 임계치 미만이면, 전자 장치(10)에 대한 외부 객체의 후면 근접 상태로 결정할 수 있다. , 상기 제 4 임계치는 제 2 임계치를 초과하는 강도값으로서, 예를 들면, 외부 객체가 전자 장치(10)의 후면에 근접한 상태와 전자 장치(10)의 하단에 근접한 상태를 구분할 수 있도록 설정될 수 있다. 상기 제 5 임계치는 제 3 임계치를 초과하는 강도값으로서, 예를 들면, 외부 객체가 전자 장치(10)의 후면에 근접한 상태와 전자 장치(10)의 하단에 근접한 상태를 구분할 수 있도록 설정될 수 있다. 상기 후면 근접 상태는 예를 들면, 외부 객체가 전자 장치(10)의 후면으로부터 지정된 거리 내에 위치한 상태일 수 있다. 상기 후면 근접 상태는 다른 예를 들면, 전자 장치(10)의 후면이 바닥(외부 객체)에 닿은 상태로, 전자 장치(10)가 바닥에 놓여진 상태일 수 있다.
또 다른 예로, 프로세서(160)는 리시버(RCV)를 통해 출력되고, 제 1 마이크(MIC1)를 통해 감지된 지정된 주파수 대역의 신호의 강도가 지정된 제 1 임계치 미만이고, 스피커(SPK)를 통해 출력되고 제 1 및 제 2 마이크(MIC1, MIC2)를 통해 감지된 지정된 주파수 대역의 신호들의 강도가 각기 제 1 및 제 2 마이크(MIC1, MIC2)에 대해 각기 지정된 제 4 및 제 5 임계치 이상이면, 전자 장치(10)에 대한 외부 객체의 하단 근접 상태로 결정할 수 있다. 상기 하단 근접 상태는 예를 들면, 외부 객체가 전자 장치(10)의 하단으로부터 지정된 거리 내에 위치한 상태일 수 있다.
일 실시 예에 따르면, 프로세서(160)는 스피커(SPK)를 통해 출력되고 제 1 마이크(MIC1)와 제 2 마이크(MIC2)를 이용하여 감지된 신호의 강도 변화에 기초하여 오른손 파지와 왼손 파지를 구분할 수 있다. 예를 들어, 제 1 마이크(MIC1)는 전자 장치(10)의 우측에 인접하도록 배치되고, 제 2 마이크(MIC2)는 전자 장치(10)의 좌측에 가깝게 배치될 수 있다. 이 경우, 프로세서(160)는 하단 근접 상태(또는, 통화중 그립 상태)를 결정할 때 제 1 마이크(MIC1)를 통해 감지된 신호의 강도 변화가 제 2 마이크(MIC2)를 통해 감지된 신호의 강도 변화보다 상대적으로 크면, 왼손 그립 상태로 결정할 수 있다. 프로세서(160)는 하단 근접 상태(또는, 통화중 그립 상태)를 결정할 때 제 1 마이크(MIC1)를 통해 감지된 신호의 강도 변화가 제 2 마이크(MIC2)를 통해 감지된 신호의 강도 변화보다 상대적으로 작으면, 오른손 그립 상태로 결정할 수 있다.
일 실시 예에 따르면, 프로세서(160)는 결정된 근접 상태에 대응하는 기능을 수행할 수 있다. 예를 들어, 프로세서(160)는 통화중 그립 상태 또는 전면 근접 상태를 결정하면, 디스플레이(140)를 비활성화(예: 디스플레이의 백라이트 및 디스플레이 오프)시킬 수 있다. 다른 예를 들어, 프로세서(160)는 전면 근접 상태, 후면 근접 상태 또는 하단 근접 상태를 결정하면, 각기 결정된 상태에 따라 통신 모듈(130)의 안테나 스위칭, 임피던스 제어 또는 통신 파워 제어 중 적어도 하나를 실행할 수 있다.
일 실시 예에 따르면, 프로세서(160)는 왼손 그립 상태와 오른손 그립 상태에서 각기 구분되는 기능을 수행할 수 있다. 예를 들어, 프로세서(160)는 왼손 그립 상태와 오른손 그립 상태에서, 각 그립 상태에 대응하도록 안테나 스위칭 제어, 임피던스 제어 또는 통신 파워 제어 중 적어도 하나를 달리할 수 있다. 다른 예를 들어, 프로세서(160)는 디스플레이(140)에 표시되는 아이콘을 왼손 그립과 오른손 그립에 대하여 달리 표시할 수 있다.
일 실시 예에 따르면, 프로세서(160)는 리시버(RCV) 또는 스피커(SPK)를 통해 지정된 주파수 대역의 신호를 출력한 후 출력된 신호를 제 1 내지 제 3 마이크(MIC1~MIC3) 중 두 개의 마이크를 통해 수신하는데 소요된 시간에 기초하여 외부 객체와의 거리를 산출할 수 있다. 예를 들어, 프로세서(160)는 지정된 주파수 대역의 신호의 속도(예: 340m/s(15℃)), 지정된 주파수 대역의 신호의 송수신에 소요된 시간과 두 개의 마이크 간의 거리를 이용하여 전자 장치(10)와 외부 객체 간의 거리를 산출할 수 있다.
일 실시 예에 따르면, 프로세서(160)는 스피커(SPK) 또는 리시버(RCV)로 지정된 주파수 대역의 신호를 출력하고, 제 1 내지 제 3 마이크들(MIC1~MIC3) 중 적어도 하나를 통해 출력된 지정된 주파수 대역의 신호를 감지하고, 감지된 지정된 주파수 대역의 신호의 강도 변화에 기초하여 외부 객체의 심박수를 산출할 수 있다. 일 실시 예에 따른 프로세서(160)는 비가청 주파수 대역을 이용하여 심박수를 검출함에 따라 가청 주파수 대역의 주변 소리(사용자의 말)로 인하여 심박수 측정에 오류가 발생하는 것을 방지할 수 있다.
전술한 실시 예에서는 전자 장치(10)가 스피커(SPK)와 리시버(RCV)를 통해 지정된 주파수 대역의 신호를 송신하는 시점을 달리하는(시분할) 경우를 예로 들어 설명하였다. 하지만, 이와 달리, 전자 장치(10)는 스피커(SPK)와 리시버(RCV)를 통해 출력되는 지정된 주파수 대역의 신호의 주파수를 달리(주파수 분할)할 수 있다. 예를 들어, 전자 장치(10)는 스피커(SPK)를 통해 제 1 지정된 주파수 대역의 신호를 출력하고, 리시버(RCV)를 통해 제 2 지정된 주파수 대역의 신호를 출력할 수 있다.
전술한 실시 예에서는 전자 장치(10)가 제 1 내지 제 3 마이크(MIC1~MIC3)를 배치한 경우를 예로 들어 설명하지만, 이에 한정되지 않을 수 있다. 예를 들어, 전자 장치(10)는 제 1 마이크(MIC1)와 제 3 마이크(MIC3)만을 배치할 수 있다. 다른 예를 들어, 전자 장치(10)는 네 개 이상의 마이크를 배치할 수 있다. 이 경우, 전자 장치(10)는 네 개 이상의 마이크 중에서 적어도 하나를 전자 장치(10)의 좌측면 또는 우측면에 근접하도록 배치될 수 있다.
도 1 및 도 2에서는 전자 장치(10)가 바 형태의 장치인 경우를 예로 들어 설명하였다. 하지만, 이와 달리, 전자 장치(10)는 스피커와 리시버를 포함하는 웨어러블 디바이스일 수 있다. 예를 들어, 안경 형태의 웨어러블 디바이스는 복수의 스피커(SPK)들과 적어도 하나의 마이크를 이용하여 지정된 주파수 대역의 신호를 출력하고 출력된 신호를 수신하여 사용자 근접 여부를 감지할 수 있다.
일 실시 예에 따른 전자 장치는 이미 배치된 구성요소(마이크, 스피커, 리시버)들을 이용하여 근접 감지, 그립 감지를 수행할 수 있어, 근접 센서, 그립 센서 등의 센서를 생략할 수 있어, 실장 공간 및 재료비를 줄일 수 있다.
도 3은 일 실시 예에 따른 각 근접 상태의 지정된 주파수 대역의 신호의 강도를 나타낸다. 도 3의 데이터들은 스피커(SPK)가 제 1 마이크(MIC1)와 가장 가깝고, 제 2 마이크(MIC2)와 두 번째로 가깝고 제 3 마이크(MIC3)와 세 번째로 가깝게 배치되고, 리시버(RCV)는 제 1 및 제 2 마이크(MIC1, MIC2)에 비해 제 3 마이크(MIC3)와 가깝게 배치된 경우의 한 예시로서, 본 문서에 개시된 실시예들은 이에 한정되지 않는다.
도 3을 참조하면, 디폴트 상태 및 각 근접 상태에서 리시버(RCV)로 출력된 지정된 주파수 대역의 신호는 제 1 마이크(MIC1) 또는 제 2 마이크(MIC2) 중 적어도 하나에 의해 감지되지 않을 수 있다. 또한, 디폴트 상태 및 각 근접 상태에서 스피커(SPK)로 출력된 지정된 주파수 대역의 신호는 제 3 마이크(MIC3)에 의해 감지되지 않을 수 있다. 상기 디폴트 상태는 전자 장치(10)에 지정된 거리 이내로 근접한 외부 객체가 없을 때에 감지된 지정된 주파수 대역의 신호의 강도일 수 있다.
일 실시 예에 따르면, 통화중 그립 상태에서, 스피커(SPK)를 통해 출력되어 제 1 및 제 2 마이크(MIC1, MIC2)를 통해 감지된 신호들의 강도는 디폴트 상태와 동일하나, 리시버(RCV)를 통해 출력되어, 제 3 마이크(MIC3)에 의해 감지된 신호의 강도는 디폴드 상태보다 커질 수 있다. 이 같이, 통화중 그립 상태에서는 전자 장치(10)의 리시버(RCV)가 전자 장치(10)의 외부 객체(사용자)의 귀에 근접됨에 따라, 리시버(RCV)를 통해 출력된 신호는 외부 객체의 귀에 반사된 후 제 3 마이크(MIC3)에 도달함에 따라 제 3 마이크(MIC3)에 감지된 신호의 강도는 더 커지고 스피커(SPK)를 통해 출력된 신호는 외부 객체에 의해 거의 영향을 받지 않을 수 있다.
일 실시 예에 따르면, 전면 근접 상태에서, 스피커(SPK)를 통해 출력되어 제 1 및 제 2 마이크(MIC1, MIC2)에 의해 감지된 지정된 주파수 대역의 신호들의 강도가 디폴트 상태보다 커지고, 리시버(RCV)를 통해 출력되어 제 3 마이크(MIC3)에 의해 감지된 지정된 주파수 대역의 신호의 강도도 디폴드 상태보다 커질 수 있다. 이 같이, 전면 근접 상태에서는 스피커(SPK)로 출력된 지정된 주파수 대역의 신호는 전자 장치(10)의 전면에 근접된 외부 객체에 의해 반사되어, 제 1 및 제 2 마이크(MIC1, MIC2)에 디폴트 상태보다 더 큰 강도로 감지되고, 리시버(RCV)로 출력된 지정된 주파수 대역의 신호도 전자 장치(10)의 전면에 근접된 외부 객체에 의해 반사되어 제 3 마이크(MIC3)에 더 큰 강도로 감지될 수 있다.
일 실시 예에 따르면, 후면 근접 상태에서, 스피커(SPK)를 통해 출력되어 제 1 및 제 2 마이크(MIC1, MIC2)에 의해 감지된 지정된 주파수 대역의 신호들의 강도가 커지나, 리시버(RCV)를 통해 출력되어 제 3 마이크(MIC3)에 의해 감지된 지정된 주파수 대역의 신호의 강도는 디폴드 상태와 동일할 수 있다. 이 같이, 후면 근접 상태에서는 스피커(SPK)로 출력된 신호는 전자 장치(10)의 후면에 근접된 외부 객체에 의해 반사되어 더 크게 감지되나, 리시버(RCV)로 출력된 신호는 외부 객체에 의해 크게 영향을 받지 않을 수 있다.
일 실시 예에 따르면, 하단 근접 상태에서, 스피커(SPK)를 통해 출력되어 제 1 및 제 2 마이크(MIC1, MIC2)에 의해 감지된 지정된 주파수 대역의 신호들의 강도가 후면 근접 상태보다 커지고, 리시버(RCV)를 통해 출력되어 제 3 마이크(MIC3)에 의해 감지된 지정된 주파수 대역의 신호의 강도는 디폴드 상태와 동일할 수 있다. 이 같이, 하단 근접 상태에서는 스피커(SPK)로 출력된 신호는 전자 장치(10)의 하단에 근접된 외부 객체에 의해 디폴트 상태에 비하여 더 많이 반사되므로, 제 1 및 제 2 마이크(MIC1, MIC2)에 의해 후면 근접 상태에 비해 더 크게 감지되고, 리시버(RCV)로 출력된 신호는 외부 객체에 의해 크게 영향을 받지 않을 수 있다.
도 3과 같이, 전자 장치(10)에 대한 외부 객체의 각 근접 상태에서 외부 객체에 의해 제 1 내지 제 3 마이크(MIC1~MIC3)에 의해 감지된 지정된 주파수 대역의 신호의 강도 변화가 발생할 수 있다. 이에, 일 실시 예에 따르면, 전자 장치(10)는 감지된 지정된 주파수 대역의 신호의 강도 변화에 기초하여 통화중 그립 상태, 전면 근접 상태, 후면 근접 상태 또는 하단 근접 상태를 구분할 수 있다.
도 4는 일 실시 예에 따른 지정된 주파수 대역의 신호의 송수신 경로를 도시한 도면이다.
도 4를 참조하면, 일 실시 예에 따르면, 프로세서(160)는 코덱(165), 애플리케이션 프로세서(AP)(161), 콜 프로세서(CP)(163)을 포함할 수 있다.
일 실시 예에 따르면, 애플리케이션 프로세서(161)는 전자 장치(10)의 각종 애플리케이션을 실행하기 위하여 전자 장치(10)의 각 구성요소를 제어할 수 있다. 예를 들어, 애플리케이션 프로세서(161)는 지정된 주기에 스피커(SPK) 또는 리시버(RCV)를 통해 출력되는 지정된 주파수 대역의 신호를 출력할 수 있다. 애플리케이션 프로세서(161)는 출력되는 지정된 주파수 대역의 신호의 크기를 제어할 수 있다. 다른 예를 들어, 애플리케이션 프로세서(161)는 제 1 내지 제 3 마이크(MIC1~MIC3)를 통해 각기 감지된 지정된 주파수 대역의 신호의 강도를 확인할 수 있다. 또 다른 예로, 애플리케이션 프로세서(161)는 지정된 주파수 대역의 신호의 강도에 기초하여 전자 장치(10)에 대한 외부 객체의 근접 상태를 결정하고, 결정된 근접 상태에 대응하는 기능을 실행할 수 있다.
일 실시 예에 따르면, 콜 프로세서(163)는 통신 기능을 수행할 수 있다. 콜 프로세서(163)는 통신 모듈(130)을 이용하여 통신을 연결하거나, 안테나 스위칭, 안테나 임피던스 제어 또는 통신 파워 제어 등을 수행할 수 있다. 예를 들어, 콜 프로세서(163)는 통신 모듈(130)을 통해 수신된 오디오 신호를 복호화하여 코덱(165)으로 출력할 수 있다. 다른 예를 들어, 코덱(165)로부터 수신된 오디오 신호를 부호화하여 통신 모듈(130)로 출력(예: 전달)할 수 있다.
일 실시 예에 따르면, 코덱(165)은 아날로그 디지털 변환 및 디지털 아날로그 변환을 수행할 수 있다. 예를 들어, 코덱(165)은 통신 모듈(130)로부터 수신되어 콜 프로세서(163)를 거쳐 수신된 제 1 디지털 신호(예: 오디오 신호)를 아날로그 신호로 변환하여 출력(예: 출력 장치를 통해 소리로 출력)할 수 있다.
일 실시 예에서, 코덱(165)은 오디오 신호와 지정된 주파수 대역의 신호를 혼합할 수 있다. 예를 들어, 코덱(165)은 콜 프로세서(163)로부터 수신된 제 1 디지털 신호(오디오 신호)와 애플리케이션 프로세서(161)로부터 수신된 제 2 디지털 신호(지정된 주파수 대역의 신호)를 혼합한 후 아날로그 신호로 변환하여 출력할 수 있다.
일 실시 예에서, 코덱(165)은 제 1 내지 제 3 마이크(MIC1~MIC3)를 통해 감지된 아날로그 신호(오디오 신호 + 지정된 주파수 대역의 신호)를 디지털 변환하고, 지정된 주파수 대역의 신호와 오디오 신호를 분리하고, 지정된 주파수 대역의 신호를 애플리케이션 프로세서(161)로 출력하고, 오디오 신호를 콜 프로세서(163)로 출력할 수 있다.
일 실시 예에서, 코덱(165)은 제 1 내지 제 3 출력 경로 및 제 1 내지 제 4 입력 경로를 포함할 수 있다. 제 1 출력 경로는 예를 들면, 스피커(SPK)으로 오디오 신호를 출력하는 경로일 수 있다. 상기 제 2 출력 경로는 예를 들면, 리시버(RCV)로 오디오 신호를 출력하는 경로일 수 있다. 제 3 출력 경로는 예를 들면, 이어잭 리시버(RCV)로 오디오 신호를 출력하는 경로일 수 있다. 제 1 입력 경로는 예를 들면, 이어잭 마이크(E/P)로부터 오디오 신호를 수신하는 경로일 수 있다. 상기 제 2 입력 경로는 예를 들면, 제 1 마이크(MIC1)로 오디오 신호를 수신하는 경로일 수 있다. 제 3 입력 경로는 예를 들면, 제 2 마이크(MIC2)로부터 오디오 신호를 수신하는 경로일 수 있다. 제 4 입력 경로는 예를 들면, 제 3 마이크(MIC3)로부터 오디오 신호를 수신하는 경로일 수 있다.
일 실시 예에서, 코덱(165)이 오디오 신호 또는 지정된 주파수 대역의 신호 중 적어도 하나의 오디오 신호를 출력하는 경로(이하, “출력 경로”라고 함)는 애플리케이션 프로세서(161) 또는 콜 프로세서(163) 중 적어도 하나의 프로세서에 의해 제어할 수 있다. 예를 들어, 적어도 하나의 프로세서는 코덱(165)의 출력 경로를 제어함에 따라 제 1 모드(예: 일반 통화 모드)에서 리시버(RCV)를 통해 오디오 신호를 출력하고, 지정된 주기에 따른 제 1 시점에 리시버(RCV)를 통해 혼합된 신호(오디오 신호 + 지정된 주파수 대역의 신호)를 출력하고, 지정된 주기에 따른 제2 시점에 스피커(SPK)를 통해 지정된 주파수 대역의 신호를 출력할 수 있다. 다른 예를 들어, 적어도 하나의 프로세서는 코덱(165)의 출력 경로를 제어함에 따라 제 2 모드(예: 스피커 통화 모드)에서 지정된 주기에 따른 제 2 시점에 각기 스피커(SPK)를 통해 혼합된 신호를 출력할 수 있다. 또 다른 예로, 적어도 하나의 프로세서는 제 3 모드(예: 이어잭 통화 모드)에서 오디오 신호를 이어잭 리시버(RCV)에 연결된 제 3 출력 경로로 출력하고, 지정된 주기에 따른 제 1 시점과 제 2 시점에 지정된 주파수 대역의 신호를 스피커(SPK) 및 리시버(RCV)로 각기 출력할 수 있다.
전술한 실시 예에서는 애플리케이션 프로세서(161)가 지정된 주파수 대역의 신호의 송수신을 제어하는 경우를 예로 들어 설명하였다. 하지만, 이와 달리, 통화 상태에서는 콜 프로세서(163)가 지정된 주파수 대역의 신호의 송수신을 제어할 수 있다. 이 경우, 콜 프로세서(163)는 지정된 주파수 대역의 신호의 송수신을 애플리케이션 프로세서(161)에 알릴 수 있다.
도 5은 일 실시 예에 따른 오디오 신호와 지정된 주파수 대역의 신호의 혼합 과정을 나타낸다. 도 5의 그래프에서 가로 축의 데이터는 주파수이고, 세로 축의 데이터는 신호의 강도[dB]일 수 있다.
도 5을 참조하면, 프로세서(160)는 제 1 모드(예: 일반 통화 모드)에서 통신 모듈(130)을 통해 수신된 오디오 신호를 확인할 수 있다. 상기 오디오 신호는 예를 들면, 전자 장치(10)와 통신중인 다른 전자 장치로부터 수신된 다른 전자 장치의 사용자의 목소리 신호일 수 있다. 프로세서(160)는 지정된 주기에 메모리(150)에 저장된 데이터에 기초하여 지정된 주파수 대역의 신호를 생성하고, 지정된 주파수 대역의 신호를 오디오 신호와 혼합할 수 있다. 상기 혼합된 신호는 리시버(RCV)를 통해 출력될 수 있다. 상기 지정된 주파수 대역의 신호는 사용자에 의해 청취되지 않는 비가청 주파수 대역의 신호이므로, 사용자의 통화에 방해를 주지 않을 수 있다.
도 6은 일 실시 예에 따른 제 1 모드에서 오디오 신호의 송수신 과정 및 지정된 주파수 대역의 신호의 수신 과정을 나타낸다. 도 6의 그래프에서 가로 축의 데이터는 주파수이고, 세로 축의 데이터는 신호의 강도[dB]일 수 있다.
일 실시 예에 따르면, 제 1 모드에서 통화를 위한 사용자의 목소리(오디오 신호)는 제 1 마이크(MIC1)와 제 2 마이크(MIC2)를 통해 감지될 수 있다. 제 1 및 제 2 마이크(MIC1, MIC2)에 감지된 오디오 신호는 코덱(165)에 의해 디지털 변환되어 콜 프로세서(163)로 출력될 수 있다. 콜 프로세서(163)는 통신 모듈(130)을 통해 전자 장치(10)와 통신중인 다른 전자 장치로 오디오 신호를 송신할 수 있다.
일 실시 예에 따르면, 제 3 마이크(MIC3)는 리시버(RCV)를 통해 출력된 지정된 주파수 대역의 신호를 감지할 수 있다. 코덱(165)은 제 3 마이크(MIC3)에 감지된 지정된 주파수 대역의 신호를 디지털 변환할 수 있다. 애플리케이션 프로세서(161)는 디지털 변환된 지정된 주파수 대역의 신호의 강도를 확인할 수 있다. 애플리케이션 프로세서(161)는 확인된 강도에 기초하여 외부 객체의 근접 상태를 결정할 수 있다. 일 실시 예에서, 코덱(165)은 제 1 내지 제 3 마이크(MIC1~MIC3)를 통해 각기 감지된 신호 등을 채널 분리 또는 시분할하여 애플리케이션 프로세서(161) 및 콜 프로세서(163)에 전달할 수 있다. 예를 들어, 코덱(165)은 스테레오 채널(R 채널과 L 채널) 중 하나를 통하여 애플리케이션 프로세서(161)로 지정된 주파수 대역의 신호를 출력하고, 다른 하나를 통하여 콜 프로세서(163)로 오디오 신호를 출력할 수 있다.
다른 실시예에 따르면 전자 장치(10)는 리시버(RCV)를 통해 출력된 지정된 주파수 대역의 신호를 제 1 마이크(MIC1), 제 2 마이크(MIC2) 및 제 2 마이크(MIC3)를 통해 감지하고 제 1 마이크(MIC1), 제 2 마이크(MIC2) 및 제 2 마이크(MIC3)를 통해 감지된 강도들에 기초하여 근접 여부를 감지할 수 있다.
도 7은 일 실시 예에 따른 전자 장치가 디폴트 상태에서 하단 근접 상태로 변화할 때의 지정된 주파수 대역의 신호의 크기 변화를 나타낸다. 도 7의 가로축은 시간축[ms]이고, 세로 축은 신호의 강도축[dB]일 수 있다.
도 7의 4.5초 이전과 같이, 전자 장치(10)의 디폴트 상태에서 제 1 마이크(MIC1) 또는 제 2 마이크(MIC2)에 감지된 지정된 주파수 대역의 신호의 강도는 약 30dB일 수 있다. 반면, 도 7의 4.5초 이후와 같이, 외부 객체의 하단 근접 상태에서 지정된 주파수 대역의 신호의 강도는 15dB 정도 증가된 약 45dB일 수 있다. 이 같이, 일 실시 예에 따른 프로세서(160)는 오디오 신호의 강도 변화를 이용하여 외부 객체의 하단 근접 상태를 확인할 수 있다.
일 실시 예에 따르면, 전자 장치(예: 도 2의 전자 장치(10))는, 하우징(예: 도 1의 하우징(190)); 통신 모듈(예: 도 2의 통신 모듈(130)); 상기 하우징의 제 1 영역에 배치된 제 1 출력부(예: 도 2의 리시버(RCV)); 상기 하우징의 제 2 영역에 배치된 제 2 출력부(예: 도 2의 스피커(SPK)); 상기 제 2 영역보다 상기 제 1 영역에 가깝게 배치된 제 1 마이크(예: 도 2의 제 3 마이크(MIC3)); 상기 제 1 영역보다 상기 제 2 영역에 가깝게 배치된 제 2 마이크(예: 도 2의 제 2 마이크(MIC2)); 상기 통신 모듈, 상기 제 1 출력부, 상기 제 2 출력부, 상기 제 1 마이크 및 제 2 마이크와 기능적으로 연결된 프로세서(예: 도 2의 프로세서(160))를 포함할 수 있다. 상기 프로세서는, 상기 통신 모듈을 통해, 외부 장치로부터 오디오 신호를 획득하고, 상기 오디오 신호에 대응하는 신호 및 상기 지정된 주파수 대역의 신호를 상기 제 1 출력부와 상기 제 2 출력부를 통해 출력하고, 상기 제 1 마이크를 통해 감지된 상기 지정된 주파수 대역의 신호의 제 1 강도 및 상기 제 2 마이크를 통해 감지된 상기 지정된 주파수 대역의 신호의 제 2 강도에 적어도 기초하여, 상기 전자 장치에 대한 외부 객체의 근접 상태를 결정하고, 및 상기 결정된 근접 상태에 대응하는 기능을 실행하도록 설정될 수 있다.
상기 프로세서는, 상기 지정된 주파수 대역의 신호를 상기 제 1 출력부를 통해 출력하고, 상기 제 1 강도가 제 1 임계치 이상인 경우, 상기 외부 객체가 상기 전자 장치를 그립하고 상기 전자 장치의 전면으로부터 지정된 제 1 거리 이내에 위치한 통화중 그립 상태로 결정하도록 설정될 수 있다.
상기 프로세서는, 상기 지정된 주파수 대역의 신호를 상기 제 2 출력부를 통해 출력하고, 상기 제 1 강도가 상기 제 1 임계치 이상인 경우, 상기 제 2 강도가 제 2 임계치 이상인지를 확인하고, 및 상기 제 2 강도가 상기 제 2 임계치 이상인 경우, 상기 외부 객체가 상기 전자 장치의 전면으로부터 지정된 제 2 거리 이내에 위치한 전면 근접 상태로 결정하고, 상기 제 2 강도가 상기 제 2 임계치 미만인 경우, 상기 통화중 그립 상태로 결정하도록 설정될 수 있다.
상기 프로세서는, 상기 지정된 주파수 대역의 신호를 상기 제 1 출력부와 상기 제 2 출력부를 통해 출력하고, 상기 제 1 강도가 제 1 임계치 미만이고, 상기 제 2 강도가 제 2 임계치 이상이고 제 3 임계치 미만인 경우, 상기 외부 객체가 상기 전자 장치의 후면으로부터 지정된 제 3 거리 이내에 위치한 후면 근접 상태로 결정하도록 설정될 수 있다.
상기 프로세서는, 상기 지정된 주파수 대역의 신호를 상기 제 1 출력부와 상기 제 2 출력부를 통해 출력하고, 상기 제 1 강도가 제 1 임계치 미만이고, 상기 제 2 강도가 제 3 임계치 이상인 경우, 상기 외부 객체가 상기 전자 장치의 하단으로부터 지정된 제 4 거리 이내에 위치한 하단 근접 상태로 결정하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 전자 장치는 상기 제 1 마이크보다 상기 제 2 마이크에 가깝게 배치되며, 상기 제 2 마이크보다 상기 전자 장치의 우측에 가깝게 배치되는 제 3 마이크(예: 도 2의 제 1 마이크(MIC1))를 더 포함할 수 있다. 상기 프로세서는, 상기 제 2 출력부를 통해 상기 지정된 주파수 대역의 신호를 출력하고 상기 제 2 강도 및 상기 제 3 마이크를 이용하여 감지된 지정된 주파수 대역의 신호의 제 3 강도를 확인하고, 상기 제 2 강도 및 상기 제 3 강도의 변화에 기초하여, 상기 외부 객체에 의한 오른손 그립 또는 왼손 그립 상태를 결정하도록 설정될 수 있다.
상기 프로세서는, 상기 외부 객체가 상기 전자 장치로부터 지정된 거리 이내에 위치하지 않은 상태에서, 상기 제 1 출력부로 출력되는 지정된 주파수 대역의 신호가 상기 제 1 마이크에 의해 감지되고 상기 제 2 마이크에 의해 감지되지 않도록 상기 제 1 출력부를 이용하여 출력되는 지정된 주파수 대역의 신호의 크기를 제어하고, 상기 제 2 출력부로 출력되는 지정된 주파수 대역의 신호가 상기 제 2 마이크에 의해 감지되고 상기 제 1 마이크에 의해 감지되지 않도록 상기 제 2 출력부를 이용하여 출력되는 지정된 주파수 대역의 신호의 크기를 제어하도록 설정될 수 있다. 상기 지정된 거리는 예를 들면, 상기 지정된 제 1 내지 제 4 거리 중에서 가장 가까운 거리일 수 있다.
상기 프로세서는, 상기 획득된 오디오 신호가 존재하면, 상기 오디오 신호를 상기 지정된 주파수 대역의 신호와 혼합하고, 혼합된 신호를 상기 제 1 출력부 및 상기 제 2 출력부를 통해 출력하고, 상기 획득된 오디오 신호가 존재하지 않으면, 상기 지정된 주파수 대역의 신호를 상기 제 1 출력부 및 상기 제 2 출력부를 통해 출력하도록 설정될 수 있다.
상기 제 1 출력부는, 상기 전자 장치의 상부의 전면의 일 영역에 위치하고, 상기 제 2 출력부는, 상기 전자 장치의 하단의 일 영역에 위치하도록 설정될 수 있다.
일 실시 예에 따르면, 전자 장치(예: 도 2의 전자 장치(10))는, 통신 모듈(예: 도 2의 통신 모듈(130)); 출력 장치(예: 도 2의 리시버(RCV) 또는 스피커(SPK) 중 적어도 하나); 마이크(예: 도 2의 제 1 내지 제 3 마이크들 (MIC1~MIC3) 중 적어도 하나); 및 프로세서(예: 도 2의 프로세서(160))를 포함하고, 상기 프로세서는, 상기 통신 모듈을 이용하여 외부 장치로부터 오디오 신호를 획득하고; 상기 오디오 신호에 대응하는 신호 및 지정된 주파수 대역의 신호를 상기 출력 장치를 통해 출력하고; 상기 마이크를 이용하여 상기 지정된 주파수 대역의 신호를 획득하고; 상기 지정된 주파수 대역의 신호의 강도에 적어도 기반하여 상기 전자 장치에 대한 외부 객체의 근접 상태를 결정하고; 및 상기 결정된 근접 상태에 적어도 기반하여 상기 전자 장치의 적어도 일부 기능을 제어하도록 설정될 수 있다.
상기 출력 장치는, 상기 전자 장치의 제 1 영역에 배치된 제 1 출력부(예: 도 2의 리시버(RCV)); 및 상기 전자 장치의 제 2 영역에 배치된 제 2 출력부(예: 도 2의 스피커(SPK));를 포함하고, 상기 마이크는, 상기 제 2 영역보다 상기 제 1 영역에 가깝게 배치된 제 1 마이크(예: 도 2의 제 3 마이크(MIC3)); 및 상기 제 1 영역보다 상기 제 2 영역에 가깝게 배치된 제 2 마이크(예: 도 2의 제 2 마이크(MIC2));를 포함하고, 상기 프로세서는, 상기 제 1 마이크를 통해 감지된 상기 지정된 주파수 대역의 신호의 제 1 강도 및 상기 제 2 마이크를 통해 감지된 상기 지정된 주파수 대역의 신호의 제 2 강도에 적어도 기초하여 상기 전자 장치에 대한 외부 객체의 근접 상태를 결정하도록 설정될 수 있다.
상기 프로세서는, 상기 제 1 출력부를 통해 상기 지정된 주파수 대역의 신호를 출력하는 시점과 상기 제 2 출력부를 통해 상기 지정된 주파수 대역의 신호를 출력하는 시점을 달리 제어하도록 설정될 수 있다.
상기 프로세서는, 상기 제 1 출력부를 통해 제 1 지정된 주파수 대역의 신호를 출력하고, 상기 제 2 출력부를 통해 제 2 지정된 주파수 대역의 신호를 출력하도록 설정될 수 있다.
일 실시 예에 따르면, 전자 장치(예: 도 2의 전자 장치(10))는, 하우징(예: 도 1의 하우징(190)); 통신 모듈(예: 도 2의 통신 모듈(130)); 상기 하우징의 제 1 영역에 배치된 제 1 출력부(예: 도 2의 리시버(RCV)); 상기 하우징의 제 2 영역에 배치된 제 2 출력부(예: 도 2의 스피커(SPK)); 상기 제 2 영역보다 상기 제 1 영역에 가깝게 배치된 제 1 마이크(예: 도 2의 제 3 마이크(MIC3)); 상기 제 1 영역보다 상기 제 2 영역에 가깝게 배치된 제 2 마이크(예: 도 2의 제 2 마이크(MIC2)); 상기 통신 모듈, 상기 제 1 출력부, 상기 제 2 출력부, 상기 제 1 마이크 및 제 2 마이크와 기능적으로 연결된 프로세서(예: 도 2의 프로세서(160))를 포함할 수 있다. 상기 프로세서는, 지정된 주파수 대역의 신호를 상기 제 1 출력부와 제 2 출력부를 통해 출력하고; 상기 제 1 마이크와 제 2 마이크를 이용하여 상기 지정된 주파수 대역의 신호를 획득하고; 상기 제 1 마이크를 통해 획득된 상기 지정된 주파수 대역의 신호의 제 1 강도와 상기 제 2 마이크를 통해 획득된 상기 지정된 주파수 대역의 신호의 제 2 강도에 적어도 기반하여 상기 전자 장치와 상기 전자 장치에 대응되는 외부 객체와의 거리를 결정하고; 및 상기 거리에 적어도 기반하여 상기 전자 장치의 적어도 일부 기능을 제어하도록 설정될 수 있다.
상기 프로세서는, 상기 제 1 출력부를 통해 상기 지정된 주파수 대역의 신호를 출력하는 시점과 상기 제 2 출력부를 통해 상기 지정된 주파수 대역의 신호를 출력하는 시점을 달리 제어하도록 설정될 수 있다.
상기 프로세서는, 상기 지정된 주파수 대역의 신호를 상기 제 1 출력부를 통해 출력하고, 상기 제 1 강도가 제 1 임계치 이상인 경우, 상기 외부 객체가 상기 전자 장치를 그립하고 상기 전자 장치의 전면으로부터 지정된 제 1 거리 이내에 위치한 것으로 결정하도록 설정될 수 있다.
상기 프로세서는, 상기 지정된 주파수 대역의 신호를 상기 제 2 출력부를 통해 출력하고, 상기 제 1 강도가 상기 제 1 임계치 이상인 경우, 상기 제 2 강도가 제 2 임계치 이상인지를 확인하고, 및 상기 제 2 강도가 상기 제 2 임계치 미만인 경우, 상기 외부 객체가 상기 전자 장치를 그립하고 상기 전자 장치의 전면으로부터 지정된 제 1 거리 이내에 위치한 것으로 결정하고, 상기 제 2 강도가 상기 제 2 임계치 이상인 경우, 상기 외부 객체가 상기 전자 장치의 전면으로부터 지정된 제 2 거리 이내에 위치한 것으로 결정하도록 설정될 수 있다.
상기 프로세서는, 상기 지정된 주파수 대역의 신호를 상기 제 1 출력부와 상기 제 2 출력부를 통해 출력하고, 상기 제 1 강도가 제 1 임계치 미만이고, 상기 제 2 강도가 제 2 임계치 이상이고 제 3 임계치 미만인 경우, 상기 외부 객체가 상기 전자 장치의 후면으로부터 지정된 제 3 거리 이내에 위치한 것으로 결정하도록 설정될 수 있다.
상기 프로세서는, 상기 지정된 주파수 대역의 신호를 상기 제 1 출력부와 상기 제 2 출력부를 통해 출력하고, 상기 제 1 강도가 제 1 임계치 미만이고, 상기 제 2 강도가 상기 제 3 임계치 이상인 경우, 상기 외부 객체가 상기 전자 장치의 하단으로부터 지정된 제 4 거리 이내에 위치한 것으로 결정하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 전자 장치는 상기 제 1 마이크보다 상기 제 2 마이크에 가깝게 배치되며, 상기 제 2 마이크보다 상기 전자 장치의 우측에 가깝게 배치되는 제 3 마이크(예: 도 2의 제 1 마이크(MIC3))를 더 포함하고, 상기 프로세서는, 상기 제 2 출력부를 통해 상기 지정된 주파수 대역의 신호를 출력하고 상기 제 2 강도 및 상기 제 3 마이크를 이용하여 감지된 지정된 주파수 대역의 신호의 제 3 강도를 확인하고, 상기 제 2 강도 및 상기 제 3 강도의 변화에 기초하여, 상기 외부 객체에 의한 오른손 그립 또는 왼손 그립 상태를 결정하도록 설정될 수 있다.
도 8는 일 실시 예에 따른 지정된 주파수 대역의 신호를 이용한 거리 감지 과정을 나타낸다.
도 8를 참조하면, 프로세서(160)는 스피커(SPK)를 통해 지정된 주파수 대역의 신호를 출력한 후 출력된 신호를 제 1 및 제 2 마이크를 통해 지정된 주파수 대역의 신호를 감지하는데 소요된 시간에 기초하여 외부 객체와의 거리를 산출할 수 있다. 예를 들어, 프로세서(160)는 하기 수학식 1과 같이 지정된 주파수 대역의 신호의 송수신에 소요된 시간을 이용하여 전자 장치(10)와 외부 객체 간의 거리를 산출할 수 있다.
Figure PCTKR2018009872-appb-M000001
수학식 1에서, L은 외부 객체와의 거리(m)이고, V는 초음파 속도 (m/s) = 331.5 + 0.6 × T (℃)일 수 있다.
다른 예를 들어, 스피커(SPK)를 통해 지정된 주파수 대역의 신호를 출력한 후 제 1 마이크(MIC1)에 의해 지정된 주파수 대역의 신호를 감지하는데 소요된 시간이 116μs라면, 프로세서(160)는 외부 객체와 제 1 마이크(MIC1) 간의 거리가 2cm로 결정할 수 있다. 스피커(SPK)를 통해 지정된 주파수 대역의 신호를 출력한 후 제 2 마이크(MIC2)에 감지된 소요 시간이 232μs일 경우에 외부 객체와 제 1 마이크(MIC1) 간의 거리가 4cm인 것으로 확인할 수 있다. 프로세서(160)는 제 1 마이크(MIC1)와 제 2 마이크(MIC2) 간의 거리와 제 1 및 제 2 마이크(MIC1, MIC2)와 외부 객체 간의 거리에 기초하여 외부 객체의 상대적 위치를 결정할 수 있다.
일 실시 예에 따른 프로세서(160)는 복수의 마이크들(MIC1~MIC3)를 이용하여 전자 장치(10)와 외부 객체의 거리 및 상대적 위치를 결정할 수 있다.
도 9은 일 실시 예에 따른 지정된 주파수 대역의 신호를 이용한 심박수 산출 과정을 설명하기 위한 도면이다. 도 9에서는 스피커(SPK)를 통해 지정된 주파수 대역의 신호를 출력하고 제 1 마이크(MIC1)를 통해 지정된 주파수 대역의 신호를 감지하여 심박수를 산출하는 경우를 예로 들어 설명한다.
도 9을 참조하면, 일 실시 예에 따르면, 그래프 1(g1)은 전자 장치(10)의 디폴트 상태에서 제 1 마이크(MIC1)를 통해 감지된 신호일 수 있다. 제 1 마이크(MIC1)를 통해 감지된 지정된 주파수 대역의 신호는 예를 들어, 30dB일 수 있다.
일 실시 예에 따르면, 그래프 2(g2)는 제 1 마이크(MIC1)가 사용자의 심장에 근접된 상태에서 제 1 마이크(MIC1)를 통해 감지된 지정된 주파수 대역의 신호일 수 있다. 1회의 심박 발생 시에 감지된 지정된 주파수 대역의 신호에는 두 번의 피크 변화가 발생하므로, 프로세서(160)는 감지된 지정된 주파수 대역의 신호로부터 두 번의 피크 변화를 한 번의 심박 횟수를 카운트함에 따라 사용자의 심박수를 산출할 수 있다.
도 10은 일 실시 예에 따른 통화중 그립 상태 감지 방법을 도시한 흐름도이다.
도 10을 참조하면, 동작 1010에서, 프로세서(160)는 복수의 출력 장치(예: 도 2의 리시버(RCV) 및 스피커(SPK))를 통하여 지정된 주파수 대역의 신호를 출력할 수 있다. 예를 들어, 프로세서(160)는 통화중임을 확인하면, 동작 1020에서, 프로세서(160)는 통신 채널을 통해 수신된 오디오 신호를 지정된 주파수 대역의 신호와 혼합할 수 있다. 프로세서(160)는 혼합된 신호를 리시버(RCV)와 스피커(SPK) 중에서 오디오 신호의 출력에 할당된 일 출력부로 출력할 수 있다. 상기 일 출력부는 예를 들면, 리시버(RCV)를 이용하는 일반 통화 모드에서 리시버(RCV)일 수 있다. 프로세서(160)는 예컨대, 상기 혼합된 신호를 일 출력부로 출력하는 시점과 다른 시점에 지정된 주파수 대역의 신호를 리시버(RCV)와 스피커(SPK) 중에서 혼합된 신호를 출력하지 않은 다른 출력부로 출력할 수 있다. 상기 다른 출력부는 일반 통화 모드에서 스피커(SPK)일 수 있다.
동작 1020에서, 프로세서(160)는 복수의 마이크들(예: 제 1 내지 제 3 마이크(MIC1, MIC2, MIC3))을 통해 지정된 주파수 대역의 신호의 강도(또는, 크기)를 확인할 수 있다.
동작 1030에서, 프로세서(160)는 복수의 마이크들(예: 제 1 내지 제 3 마이크(MIC1, MIC2, MIC3))을 통해 확인된 지정된 주파수 대역의 신호들의 강도에 기초하여 전자 장치(10)에 대한 외부 객체의 근접 상태를 결정할 수 있다. 예를 들어, 프로세서(160)는 제 3 마이크(MIC3)를 통해 감지된 지정된 주파수 대역의 신호들의 강도가 제 1 임계치 이상이면, 통화중 그립 상태로 결정할 수 있다. 다른 예를 들어, 프로세서(160)는 제 3 마이크(MIC3)를 통해 감지된 지정된 주파수 대역의 신호들의 강도가 제 1 임계치 이상이고 제 1 마이크(MIC1) 및 제 2 마이크(MIC2)를 통해 각기 수신된 지정된 주파수 대역의 신호의 강도가 각기 제 2 임계치 및 제 3 임계치 미만이면, 통화중 그립 상태로 결정할 수 있다.
도 11은 일 실시 예에 따른 지정된 주파수 대역의 신호를 이용한 각 근접 상태 결정 방법을 도시한 흐름도이다.
도 11을 참조하면, 동작 1100에서 프로세서(160)는 지정된 주기이면, 동작 1110에서, 리시버(RCV) 또는 스피커(SPK)를 통해 지정된 주파수 대역의 신호를 출력할 수 있다. 예를 들어, 프로세서(160)는 지정된 주기에 따른 제 1 시점에는 리시버(RCV)를 통해 지정된 주파수 대역의 신호를 출력하고, 제 2 시점에는 스피커(SPK)를 통해 지정된 주파수 대역의 신호를 출력할 수 있다.
동작 1120에서, 프로세서(160)는 제 1 내지 제 3 마이크(MIC1~MIC3)를 통해 감지된 지정된 주파수 대역의 신호의 강도를 확인할 수 있다. 예를 들어, 프로세서(160)는 스피커(SPK)를 통해 출력되어 제 1 및 제 2 마이크(MIC1, MIC2)를 통해 감지된 지정된 주파수 대역의 신호의 강도 및 리시버(RCV)를 통해 출력되어 제 3 마이크(MIC3)를 통해 감지된 지정된 주파수 대역의 신호의 강도를 각기 확인할 수 있다.
동작 1130에서, 프로세서(160)는 리시버(RCV)를 통해 출력되어 제 3 마이크(MIC3)를 통해 감지된 지정된 주파수 대역의 신호의 강도가 제 1 임계치 이상인지를 확인할 수 있다.
동작 1140에서, 리시버(RCV)를 통해 출력되어 제 3 마이크(MIC3)를 통해 감지된 지정된 주파수 대역의 신호의 강도가 제 1 임계치 이상이면, 프로세서(160)는 스피커(SPK)를 통해 출력되어 제 1 및 제 2 마이크(MIC1, MIC2)를 통해 감지된 지정된 주파수 대역의 신호의 강도가 각기 제 2 및 제 3 임계치 이상인지를 확인할 수 있다.
동작 1150에서, 스피커(SPK)를 통해 출력되어 제 1 및 제 2 마이크(MIC1, MIC2)를 통해 감지된 지정된 주파수 대역의 신호의 강도가 각기 제 2 및 제 3 임계치 이상이 아니면, 프로세서(160)는 외부 객체에 의한 통화중 그립 상태로 결정할 수 있다. 프로세서(160)는 통화중 그립 상태를 결정하면, 디스플레이(140)를 비활성화할 수 있다. 프로세서(160)는 통화중 그립 상태를 결정하면, 전면 근접 상태에 대응하도록 통신 모듈(130)을 제어(예: 안테나 스위칭, 임피던스 제어 또는 파워 제어 등)할 수 있다. 다른 예를 들어, 프로세서(160)는 제 1 및 제 2 마이크(MIC1, MIC2)를 통해 감지된 지정된 주파수 대역의 신호들의 강도가 제 1 및 제 2 마이크(MIC1, MIC2)에 대해 각기 지정된 제 2 및 제 3 임계치 이상이 아니면, 제 1 및 제 2 마이크(MIC1, MIC2)를 통해 감지된 지정된 주파수 대역의 신호들의 강도가 제 1 및 제 2 마이크(MIC1, MIC2)에 대해 각기 지정된 제 2 및 제 3 임계치 미만인지를 확인할 수 있다. 프로세서(160)는 제 1 및 제 2 마이크(MIC1, MIC2)를 통해 감지된 지정된 주파수 대역의 신호들의 강도가 제 1 및 제 2 마이크(MIC1, MIC2)에 대해 각기 지정된 제 2 및 제 3 임계치 미만이면, 전자 장치(10)에 대한 외부 객체의 통화중 근접 상태로 결정할 수 있다.
동작 1150에서, 스피커(SPK)를 통해 출력되어 제 1 및 제 2 마이크(MIC1, MIC2)를 통해 감지된 지정된 주파수 대역의 신호들의 강도가 각기 제 2 및 제 3 임계치 이상임을 확인하면, 프로세서(160)는 동작 1160에서, 외부 객체의 전면 근접 상태로 결정할 수 있다. 프로세서(160)는 전면 근접 상태를 결정하면, 통신 모듈(130)을 전면 근접 상태에 대응하도록 제어할 수 있다.
프로세서(160)는 동작 1130에서, 리시버(RCV)를 통해 출력되어 제 3 마이크(MIC3)를 통해 감지된 지정된 주파수 대역의 신호의 강도가 제 1 임계치 미만임을 확인하면, 동작 1170에서, 스피커(SPK)를 통해 출력되어 제 1 및 제 2 마이크(MIC1, MIC2)를 통해 감지된 지정된 주파수 대역의 신호의 강도가 각기 제 4 및 제 5 임계치 이상인지를 확인할 수 있다.
동작 1180에서, 스피커(SPK)를 통해 출력되어 제 1 및 제 2 마이크(MIC1, MIC2)를 통해 감지된 지정된 주파수 대역의 신호의 강도가 각기 제 4 및 제 5 임계치 이상이면, 프로세서(160)는 외부 객체의 하단 근접 상태로 결정할 수 있다. 프로세서(160)는 하단 근접 상태를 결정하면, 통신 모듈(130)을 하단 근접 상태에 대응하도록 제어할 수 있다.
동작 1190에서, 스피커(SPK)를 통해 출력되어 제 1 및 제 2 마이크(MIC1, MIC2)를 통해 감지된 지정된 주파수 대역의 신호의 강도가 각기 제 4 및 제 5 임계치 이상이 아니면, 프로세서(160)는 외부 객체의 후면 근접 상태로 결정할 수 있다. 프로세서(160)는 후면 근접 상태를 결정하면, 후면 근접 상태에 대응하도록 통신 모듈(130)을 제어할 수 있다. 프로세서(160)는 스피커(SPK)를 통해 출력되어 제 1 및 제 2 마이크(MIC1, MIC2)를 통해 감지된 지정된 주파수 대역의 신호의 강도가 각기 제 4 및 제 5 임계치 이상이 아니면, 제 1 마이크(MIC1)를 통해 감지된 지정된 주파수 대역의 신호들의 강도가 제 2 임계치 이상이고 제 4 임계치 미만이고, 스피커(SPK)를 통해 출력되고 제 2 마이크(MIC2)를 통해 감지된 지정된 지정된 주파수 대역의 신호들의 강도가 제 3 임계치 이상이고 제 5 임계치 미만인지를 확인할 수 있다. 확인결과, 스피커(SPK)를 통해 출력되고 제 1 마이크(MIC1)를 통해 감지된 지정된 주파수 대역의 신호들의 강도가 제 2 임계치 이상이고 제 4 임계치 미만이고, 스피커(SPK)를 통해 출력되고 제 2 마이크(MIC2)를 통해 감지된 지정된 지정된 주파수 대역의 신호들의 강도가 제 3 임계치 이상이고 제 5 임계치 미만이면, 프로세서(160)는 전자 장치(10)에 대한 외부 객체의 후면 근접 상태로 결정할 수 있다.
상술한 동작 1100 내지 1190에서, 프로세서(160)는 각기 지정된 조건에 부합하지 않으면, 외부 객체의 근접 상태가 아닌 것으로 결정하고, 별다른 제어를 수행하지 않을 수 있다.
도 12은, 다양한 실시예들에 따른, 네트워크 환경(1200) 내의 전자 장치(1201)의 블럭도이다. 도 12을 참조하면, 네트워크 환경(1200)에서 전자 장치(1201)(예: 전자 장치(10))는 제 1 네트워크(1298)(예: 근거리 무선 통신)를 통하여 전자 장치(1202)와 통신하거나, 또는 제 2 네트워크(1299)(예: 원거리 무선 통신)를 통하여 전자 장치(1204) 또는 서버(1208)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(1201)는 서버(1208)를 통하여 전자 장치(1204)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(1201)는 프로세서(1220)(예: 도 2의 프로세서(160)), 메모리(1230)(예: 도 2의 메모리(150)), 입력 장치(1250)(예: 도 2의 제 1 내지 제 3 마이크(MIC1~MIC3)), 음향 출력 장치(1255)(예: 도 2의 스피커(SPK) 또는 리시버(RCV)), 표시 장치(1260)(예: 도 2의 디스플레이(140)), 오디오 모듈(1270)(예: 도 4의 코덱(165)), 센서 모듈(1276), 인터페이스(1277), 햅틱 모듈(1279), 카메라 모듈(1280), 전력 관리 모듈(1288), 배터리(1289), 통신 모듈(1290)(예: 도 2의 통신 모듈(130)), 가입자 식별 모듈(1296), 및 안테나 모듈(1297)(예: 도 2의 통신 모듈(130))을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(1201)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(1260) 또는 카메라 모듈(1280))가 생략되거나 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 예를 들면, 표시 장치(1260)(예: 디스플레이)에 임베디드된 센서 모듈(1276)(예: 지문 센서, 홍채 센서, 또는 조도 센서)의 경우와 같이, 일부의 구성요소들이 통합되어 구현될 수 있다.
프로세서(1220)는, 예를 들면, 소프트웨어(예: 프로그램(1240))를 구동하여 프로세서(1220)에 연결된 전자 장치(1201)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다. 프로세서(1220)는 다른 구성요소(예: 센서 모듈(1276) 또는 통신 모듈(1290))로부터 수신된 명령 또는 데이터를 휘발성 메모리(1232)에 로드하여 처리하고, 결과 데이터를 비휘발성 메모리(1234)에 저장할 수 있다. 일실시예에 따르면, 프로세서(1220)는 메인 프로세서(1221)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 운영되고, 추가적으로 또는 대체적으로, 메인 프로세서(1221)보다 저전력을 사용하거나, 또는 지정된 기능에 특화된 보조 프로세서(1223)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 여기서, 보조 프로세서(1223)는 메인 프로세서(1221)와 별개로 또는 임베디드되어 운영될 수 있다.
이런 경우, 보조 프로세서(1223)는, 예를 들면, 메인 프로세서(1221)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(1221)를 대신하여, 또는 메인 프로세서(1221)가 액티브(예: 어플리케이션 수행) 상태에 있는 동안 메인 프로세서(1221)와 함께, 전자 장치(1201)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(1260), 센서 모듈(1276), 또는 통신 모듈(1290))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(1223)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(1280) 또는 통신 모듈(1290))의 일부 구성 요소로서 구현될 수 있다. 메모리(1230)는, 전자 장치(1201)의 적어도 하나의 구성요소(예: 프로세서(1220) 또는 센서모듈(1276))에 의해 사용되는 다양한 데이터, 예를 들어, 소프트웨어(예: 프로그램(1240)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 저장할 수 있다. 메모리(1230)는, 휘발성 메모리(1232) 또는 비휘발성 메모리(1234)를 포함할 수 있다.
프로그램(1240)은 메모리(1230)에 저장되는 소프트웨어로서, 예를 들면, 운영 체제(1242), 미들 웨어(1244) 또는 어플리케이션(1246)을 포함할 수 있다.
입력 장치(1250)는, 전자 장치(1201)의 구성요소(예: 프로세서(1220))에 사용될 명령 또는 데이터를 전자 장치(1201)의 외부(예: 사용자)로부터 수신하기 위한 장치로서, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다.
음향 출력 장치(1255)는 음향 신호를 전자 장치(1201)의 외부로 출력하기 위한 장치로서, 예를 들면, 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용되는 스피커와 전화 수신 전용으로 사용되는 리시버를 포함할 수 있다. 일실시예에 따르면, 리시버는 스피커와 일체 또는 별도로 형성될 수 있다.
표시 장치(1260)는 전자 장치(1201)의 사용자에게 정보를 시각적으로 제공하기 위한 장치로서, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(1260)는 터치 회로(touch circuitry) 또는 터치에 대한 압력의 강도를 측정할 수 있는 압력 센서를 포함할 수 있다.
오디오 모듈(1270)은 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(1270)은, 입력 장치(1250)를 통해 소리를 획득하거나, 음향 출력 장치(1255), 또는 전자 장치(1201)와 유선 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(1202)(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(1276)은 전자 장치(1201)의 내부의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(1276)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(1277)는 외부 전자 장치(예: 전자 장치(1202))와 유선 또는 무선으로 연결할 수 있는 지정된 프로토콜을 지원할 수 있다. 일실시예에 따르면, 인터페이스(1277)는 HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(1278)는 전자 장치(1201)와 외부 전자 장치(예: 전자 장치(1202))를 물리적으로 연결시킬 수 있는 커넥터, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(1279)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 햅틱 모듈(1279)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(1280)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(1280)은 하나 이상의 렌즈, 이미지 센서, 이미지 시그널 프로세서, 또는 플래시를 포함할 수 있다.
전력 관리 모듈(1288)은 전자 장치(1201)에 공급되는 전력을 관리하기 위한 모듈로서, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구성될 수 있다.
배터리(1289)는 전자 장치(1201)의 적어도 하나의 구성 요소에 전력을 공급하기 위한 장치로서, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(1290)은 전자 장치(1201)와 외부 전자 장치(예: 전자 장치(1202), 전자 장치(1204), 또는 서버(1208))간의 유선 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(1290)은 프로세서(1220)(예: 어플리케이션 프로세서)와 독립적으로 운영되는, 유선 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(1290)은 무선 통신 모듈(1292)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(1294)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함하고, 그 중 해당하는 통신 모듈을 이용하여 제 1 네트워크(1298)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(1299)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 상술한 여러 종류의 통신 모듈(1290)은 하나의 칩으로 구현되거나 또는 각각 별도의 칩으로 구현될 수 있다.
일실시예에 따르면, 무선 통신 모듈(1292)은 가입자 식별 모듈(1296)에 저장된 사용자 정보를 이용하여 통신 네트워크 내에서 전자 장치(1201)를 구별 및 인증할 수 있다.
안테나 모듈(1297)은 신호 또는 전력을 외부로 송신하거나 외부로부터 수신하기 위한 하나 이상의 안테나들을 포함할 수 있다. 일시예에 따르면, 통신 모듈(1290)(예: 무선 통신 모듈(1292))은 통신 방식에 적합한 안테나를 통하여 신호를 외부 전자 장치로 송신하거나, 외부 전자 장치로부터 수신할 수 있다.
상기 구성요소들 중 일부 구성요소들은 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input/output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되어 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(1299)에 연결된 서버(1208)를 통해서 전자 장치(1201)와 외부의 전자 장치(1204)간에 송신 또는 수신될 수 있다. 전자 장치(1202, 1204) 각각은 전자 장치(1201)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(1201)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 외부 전자 장치에서 실행될 수 있다. 일실시예에 따르면, 전자 장치(1201)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(1201)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 외부 전자 장치에게 요청할 수 있다. 상기 요청을 수신한 외부 전자 장치는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(1201)로 전달할 수 있다. 전자 장치(1201)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)(예: 내장 메모리(1236) 또는 외장 메모리(1238))에 저장된 명령어를 포함하는 소프트웨어(예: 프로그램(1240))로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시예들에 따른 전자 장치(예: 전자 장치(1201))를 포함할 수 있다. 상기 명령이 프로세서(예: 프로세서(1220))에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.
일시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다. 따라서, 본 문서의 범위는, 본 문서의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시예를 포함하는 것으로 해석되어야 한다.

Claims (15)

  1. 전자 장치에 있어서,
    하우징;
    통신 모듈;
    상기 하우징의 제 1 영역에 배치된 제 1 출력부;
    상기 하우징의 제 2 영역에 배치된 제 2 출력부;
    상기 제 2 영역보다 상기 제 1 영역에 가깝게 배치된 제 1 마이크;
    상기 제 1 영역보다 상기 제 2 영역에 가깝게 배치된 제 2 마이크;
    상기 통신 모듈, 상기 제 1 출력부, 상기 제 2 출력부, 상기 제 1 마이크 및 제 2 마이크와 기능적으로 연결된 프로세서를 포함하고, 상기 프로세서는,
    상기 통신 모듈을 통해, 외부 장치로부터 오디오 신호를 획득하고,
    상기 오디오 신호에 대응하는 신호 및 상기 지정된 주파수 대역의 신호를 상기 제 1 출력부와 상기 제 2 출력부를 통해 출력하고,
    상기 제 1 마이크를 통해 감지된 상기 지정된 주파수 대역의 신호의 제 1 강도 및 상기 제 2 마이크를 통해 감지된 상기 지정된 주파수 대역의 신호의 제 2 강도에 적어도 기초하여, 상기 전자 장치에 대한 외부 객체의 근접 상태를 결정하고, 및
    상기 결정된 근접 상태에 대응하는 기능을 실행하도록 설정된 전자 장치.
  2. 제 1 항에 있어서, 상기 프로세서는,
    상기 지정된 주파수 대역의 신호를 상기 제 1 출력부를 통해 출력하고,
    상기 제 1 강도가 제 1 임계치 이상인 경우, 상기 외부 객체가 상기 전자 장치를 그립하고 상기 전자 장치의 전면으로부터 지정된 제 1 거리 이내에 위치한 통화중 그립 상태로 결정하도록 설정된 전자 장치.
  3. 제 2 항에 있어서, 상기 프로세서는,
    상기 지정된 주파수 대역의 신호를 상기 제 2 출력부를 통해 출력하고,
    상기 제 1 강도가 상기 제 1 임계치 이상인 경우, 상기 제 2 강도가 제 2 임계치 이상인지를 확인하고, 및
    상기 제 2 강도가 상기 제 2 임계치 이상인 경우, 상기 외부 객체가 상기 전자 장치의 전면으로부터 지정된 제 2 거리 이내에 위치한 전면 근접 상태로 결정하고,
    상기 제 2 강도가 상기 제 2 임계치 미만인 경우, 상기 통화중 그립 상태로 결정하도록 설정된 전자 장치.
  4. 제 1 항에 있어서, 상기 프로세서는,
    상기 지정된 주파수 대역의 신호를 상기 제 1 출력부와 상기 제 2 출력부를 통해 출력하고,
    상기 제 1 강도가 제 1 임계치 미만이고, 상기 제 2 강도가 제 2 임계치 이상이고 제 3 임계치 미만인 경우, 상기 외부 객체가 상기 전자 장치의 후면으로부터 지정된 제 3 거리 이내에 위치한 후면 근접 상태로 결정하도록 설정된 전자 장치.
  5. 제 4 항에 있어서, 상기 프로세서는,
    상기 지정된 주파수 대역의 신호를 상기 제 1 출력부와 상기 제 2 출력부를 통해 출력하고,
    상기 제 1 강도가 제 1 임계치 미만이고, 상기 제 2 강도가 제 3 임계치 이상인 경우, 상기 외부 객체가 상기 전자 장치의 하단으로부터 지정된 제 4 거리 이내에 위치한 하단 근접 상태로 결정하도록 설정된 전자 장치.
  6. 제 1 항에 있어서,
    상기 제 1 마이크보다 상기 제 2 마이크에 가깝게 배치되며, 상기 제 2 마이크보다 상기 전자 장치의 우측에 가깝게 배치되는 제 3 마이크를 더 포함하고,
    상기 프로세서는,
    상기 제 2 출력부를 통해 상기 지정된 주파수 대역의 신호를 출력하고 상기 제 2 강도 및 상기 제 3 마이크를 이용하여 감지된 지정된 주파수 대역의 신호의 제 3 강도를 확인하고,
    상기 제 2 강도 및 상기 제 3 강도의 변화에 기초하여, 상기 외부 객체에 의한 오른손 그립 또는 왼손 그립 상태를 결정하도록 설정된 전자 장치.
  7. 제 1 항에 있어서, 상기 프로세서는,
    상기 외부 객체가 상기 전자 장치로부터 지정된 거리 이내에 위치하지 않은 상태에서, 상기 제 1 출력부로 출력되는 지정된 주파수 대역의 신호가 상기 제 1 마이크에 의해 감지되고 상기 제 2 마이크에 의해 감지되지 않도록 상기 제 1 출력부를 이용하여 출력되는 지정된 주파수 대역의 신호의 크기를 제어하고,
    상기 제 2 출력부로 출력되는 지정된 주파수 대역의 신호가 상기 제 2 마이크에 의해 감지되고 상기 제 1 마이크에 의해 감지되지 않도록 상기 제 2 출력부를 이용하여 출력되는 지정된 주파수 대역의 신호의 크기를 제어하도록 설정된 전자 장치.
  8. 제 1 항에 있어서, 상기 프로세서는,
    상기 획득된 오디오 신호가 존재하면, 상기 오디오 신호를 상기 지정된 주파수 대역의 신호와 혼합하고, 혼합된 신호를 상기 제 1 출력부 및 상기 제 2 출력부를 통해 출력하고,
    상기 획득된 오디오 신호가 존재하지 않으면, 상기 지정된 주파수 대역의 신호를 상기 제 1 출력부 및 상기 제 2 출력부를 통해 출력하도록 설정된 전자 장치.
  9. 제 1 항에 있어서,
    상기 제 1 출력부는, 상기 전자 장치의 상부의 전면의 일 영역에 위치하고,
    상기 제 2 출력부는, 상기 전자 장치의 하단의 일 영역에 위치하도록 설정된 전자 장치.
  10. 전자 장치에 있어서,
    통신 모듈;
    출력 장치;
    마이크; 및
    프로세서를 포함하고, 상기 프로세서는,
    상기 통신 모듈을 이용하여 외부 장치로부터 오디오 신호를 획득하고;
    상기 오디오 신호에 대응하는 신호 및 지정된 주파수 대역의 신호를 상기 출력 장치를 통해 출력하고;
    상기 마이크를 이용하여 상기 지정된 주파수 대역의 신호를 획득하고;
    상기 지정된 주파수 대역의 신호의 강도에 적어도 기반하여 상기 전자 장치에 대한 외부 객체의 근접 상태를 결정하고; 및상기 결정된 근접 상태에 적어도 기반하여 상기 전자 장치의 적어도 일부 기능을 제어하도록 설정된 전자 장치.
  11. 제 10 항에 있어서,
    상기 출력 장치는,
    상기 전자 장치의 제 1 영역에 배치된 제 1 출력부; 및
    상기 전자 장치의 제 2 영역에 배치된 제 2 출력부;를 포함하고,
    상기 마이크는,
    상기 제 2 영역보다 상기 제 1 영역에 가깝게 배치된 제 1 마이크; 및
    상기 제 1 영역보다 상기 제 2 영역에 가깝게 배치된 제 2 마이크;를 포함하고,
    상기 프로세서는,
    상기 제 1 마이크를 통해 감지된 상기 지정된 주파수 대역의 신호의 제 1 강도 및 상기 제 2 마이크를 통해 감지된 상기 지정된 주파수 대역의 신호의 제 2 강도에 적어도 기초하여 상기 전자 장치에 대한 외부 객체의 근접 상태를 결정하도록 설정된 전자 장치.
  12. 제 11 항에 있어서, 상기 프로세서는,
    상기 제 1 출력부를 통해 상기 지정된 주파수 대역의 신호를 출력하는 시점과 상기 제 2 출력부를 통해 상기 지정된 주파수 대역의 신호를 출력하는 시점을 달리 제어하도록 설정된 전자 장치.
  13. 제 11 항에 있어서, 상기 프로세서는,
    상기 제 1 출력부를 통해 제 1 지정된 주파수 대역의 신호를 출력하고,
    상기 제 2 출력부를 통해 제 2 지정된 주파수 대역의 신호를 출력하도록 설정된 전자 장치.
  14. 전자 장치에 있어서,
    하우징;
    통신 모듈;
    상기 하우징의 제 1 영역에 배치된 제 1 출력부;
    상기 하우징의 제 2 영역에 배치된 제 2 출력부;
    상기 제 2 영역보다 상기 제 1 영역에 가깝게 배치된 제 1 마이크;
    상기 제 1 영역보다 상기 제 2 영역에 가깝게 배치된 제 2 마이크;
    상기 통신 모듈, 상기 제 1 출력부, 상기 제 2 출력부, 상기 제 1 마이크 및 제 2 마이크와 기능적으로 연결된 프로세서를 포함하고, 상기 프로세서는,
    상기 프로세서는,
    지정된 주파수 대역의 신호를 상기 제 1 출력부와 제 2 출력부를 통해 출력하고;
    상기 제 1 마이크와 제 2 마이크를 이용하여 상기 지정된 주파수 대역의 신호를 획득하고;
    상기 제 1 마이크를 통해 획득된 상기 지정된 주파수 대역의 신호의 제 1 강도와 상기 제 2 마이크를 통해 획득된 상기 지정된 주파수 대역의 신호의 제 2 강도에 적어도 기반하여 상기 전자 장치와 상기 전자 장치에 대응되는 외부 객체와의 거리를 결정하고; 및
    상기 거리에 적어도 기반하여 상기 전자 장치의 적어도 일부 기능을 제어하도록 설정된 전자 장치.
  15. 제 14항에 있어서, 상기 프로세서는,
    상기 제 1 출력부를 통해 상기 지정된 주파수 대역의 신호를 출력하는 시점과 상기 제 2 출력부를 통해 상기 지정된 주파수 대역의 신호를 출력하는 시점을 달리 제어하도록 설정된 전자 장치.
PCT/KR2018/009872 2017-08-28 2018-08-27 지정된 주파수 대역의 신호를 이용하여 외부 객체의 근접을 확인하는 전자 장치 및 전자 장치 제어 방법 WO2019045394A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/639,817 US20200249346A1 (en) 2017-08-28 2018-08-27 Electronic device for checking proximity of external object by using signal in specified frequency band, and control method of electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0108808 2017-08-28
KR1020170108808A KR102345926B1 (ko) 2017-08-28 2017-08-28 지정된 주파수 대역의 신호를 이용하여 외부 객체의 근접을 확인하는 전자 장치 및 전자 장치 제어 방법

Publications (1)

Publication Number Publication Date
WO2019045394A1 true WO2019045394A1 (ko) 2019-03-07

Family

ID=65527693

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/009872 WO2019045394A1 (ko) 2017-08-28 2018-08-27 지정된 주파수 대역의 신호를 이용하여 외부 객체의 근접을 확인하는 전자 장치 및 전자 장치 제어 방법

Country Status (3)

Country Link
US (1) US20200249346A1 (ko)
KR (1) KR102345926B1 (ko)
WO (1) WO2019045394A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020204611A1 (en) * 2019-04-01 2020-10-08 Samsung Electronics Co., Ltd. Method for detecting wearing of acoustic device and acoustic device supporting the same

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9084058B2 (en) 2011-12-29 2015-07-14 Sonos, Inc. Sound field calibration using listener localization
US9219460B2 (en) 2014-03-17 2015-12-22 Sonos, Inc. Audio settings based on environment
US9106192B2 (en) 2012-06-28 2015-08-11 Sonos, Inc. System and method for device playback calibration
US9264839B2 (en) 2014-03-17 2016-02-16 Sonos, Inc. Playback device configuration based on proximity detection
US9952825B2 (en) 2014-09-09 2018-04-24 Sonos, Inc. Audio processing algorithms
US9693165B2 (en) 2015-09-17 2017-06-27 Sonos, Inc. Validation of audio calibration using multi-dimensional motion check
JP6437695B2 (ja) 2015-09-17 2018-12-12 ソノズ インコーポレイテッド オーディオ再生デバイスのキャリブレーションを容易にする方法
US9743207B1 (en) 2016-01-18 2017-08-22 Sonos, Inc. Calibration using multiple recording devices
US10003899B2 (en) 2016-01-25 2018-06-19 Sonos, Inc. Calibration with particular locations
US9860662B2 (en) 2016-04-01 2018-01-02 Sonos, Inc. Updating playback device configuration information based on calibration data
US9864574B2 (en) 2016-04-01 2018-01-09 Sonos, Inc. Playback device calibration based on representation spectral characteristics
US9763018B1 (en) 2016-04-12 2017-09-12 Sonos, Inc. Calibration of audio playback devices
US9794710B1 (en) 2016-07-15 2017-10-17 Sonos, Inc. Spatial audio correction
US10372406B2 (en) 2016-07-22 2019-08-06 Sonos, Inc. Calibration interface
US10459684B2 (en) 2016-08-05 2019-10-29 Sonos, Inc. Calibration of a playback device based on an estimated frequency response
US10299061B1 (en) 2018-08-28 2019-05-21 Sonos, Inc. Playback device calibration
US11206484B2 (en) 2018-08-28 2021-12-21 Sonos, Inc. Passive speaker authentication
DE102018124385B4 (de) * 2018-10-02 2023-02-16 Infineon Technologies Ag Anzeigensteuervorrichtungen und -verfahren
US10277981B1 (en) * 2018-10-02 2019-04-30 Sonos, Inc. Systems and methods of user localization
KR102285581B1 (ko) * 2019-07-05 2021-08-03 주식회사 에스원 인공지능 클라이언트 장치 및 이의 동작 방법
US10734965B1 (en) 2019-08-12 2020-08-04 Sonos, Inc. Audio calibration of a portable playback device
EP4203502A4 (en) 2020-11-16 2024-03-06 Samsung Electronics Co., Ltd. ELECTRONIC DEVICE AND ITS CONTROL METHOD
KR20220066746A (ko) * 2020-11-16 2022-05-24 삼성전자주식회사 전자 장치 및 이의 제어 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100080084A1 (en) * 2008-09-30 2010-04-01 Shaohai Chen Microphone proximity detection
KR20110133766A (ko) * 2010-06-07 2011-12-14 삼성전자주식회사 휴대 단말기 및 그 휴대 단말기에서 기능 제어 방법
KR101387473B1 (ko) * 2006-11-17 2014-04-21 엘지전자 주식회사 이동통신 단말기의 디스플레이 방법
KR20150019352A (ko) * 2013-08-13 2015-02-25 삼성전자주식회사 전자장치에서 그립상태를 인지하기 위한 방법 및 장치
KR101660137B1 (ko) * 2010-04-13 2016-09-26 애플 인크. 안테나 기반 근접 검출기를 구비하는 조절가능한 무선 회로망

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101387473B1 (ko) * 2006-11-17 2014-04-21 엘지전자 주식회사 이동통신 단말기의 디스플레이 방법
US20100080084A1 (en) * 2008-09-30 2010-04-01 Shaohai Chen Microphone proximity detection
KR101660137B1 (ko) * 2010-04-13 2016-09-26 애플 인크. 안테나 기반 근접 검출기를 구비하는 조절가능한 무선 회로망
KR20110133766A (ko) * 2010-06-07 2011-12-14 삼성전자주식회사 휴대 단말기 및 그 휴대 단말기에서 기능 제어 방법
KR20150019352A (ko) * 2013-08-13 2015-02-25 삼성전자주식회사 전자장치에서 그립상태를 인지하기 위한 방법 및 장치

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020204611A1 (en) * 2019-04-01 2020-10-08 Samsung Electronics Co., Ltd. Method for detecting wearing of acoustic device and acoustic device supporting the same
KR20200116323A (ko) * 2019-04-01 2020-10-12 삼성전자주식회사 음향 장치의 착용 감지 방법 및 이를 지원하는 음향 장치
US11019421B2 (en) 2019-04-01 2021-05-25 Samsung Electronics Co., Ltd. Method for detecting wearing of acoustic device and acoustic device supporting the same
KR102607566B1 (ko) * 2019-04-01 2023-11-30 삼성전자주식회사 음향 장치의 착용 감지 방법 및 이를 지원하는 음향 장치

Also Published As

Publication number Publication date
KR20190023302A (ko) 2019-03-08
US20200249346A1 (en) 2020-08-06
KR102345926B1 (ko) 2022-01-03

Similar Documents

Publication Publication Date Title
WO2019045394A1 (ko) 지정된 주파수 대역의 신호를 이용하여 외부 객체의 근접을 확인하는 전자 장치 및 전자 장치 제어 방법
WO2019088793A1 (ko) 전자 장치 및 이를 이용한 화면 공유 방법
WO2020204611A1 (en) Method for detecting wearing of acoustic device and acoustic device supporting the same
WO2019103532A1 (ko) 전자 장치 및 전자 장치의 안테나 제어 방법
WO2019066401A1 (ko) 전자 장치 및 그의 지오펜스 관리 방법
WO2021085902A1 (ko) 복수의 어플리케이션들의 오디오 데이터를 출력하는 전자 장치 및 그 동작 방법
WO2019112298A1 (en) Electronic device having structure with gas sensor
WO2019088529A1 (ko) 센서의 측정 값을 보정하는 방법 및 전자 장치
WO2019022557A1 (ko) 안테나 스위칭을 지원하기 위한 무선 통신 회로 및 그를 포함하는 장치
WO2019066521A1 (en) ELECTRONIC DEVICE AND METHOD FOR CONTROLLING ELECTRONIC DEVICE
WO2021020686A1 (ko) 헤드셋 전자 장치 및 그와 연결되는 전자 장치
WO2019135548A1 (ko) 포스 센서의 압력값 보상 방법 및 이를 사용하는 전자 장치
WO2019231296A1 (en) An electronic device and method for preventing corrosion of an audio jack
WO2021132852A1 (ko) 오디오 데이터의 출력 방법 및 이를 지원하는 전자 장치
WO2019143072A1 (ko) 안테나의 위상을 스윕하기 위한 전자 장치
WO2020262835A1 (ko) 전자 장치 및 이를 이용한 오디오 신호를 처리하기 위한 음향 장치를 결정하는 방법
WO2019107719A1 (ko) 360 비디오에서 화자의 음성을 시각적으로 표시하기 위한 장치 및 방법
WO2019172616A1 (ko) 메시지 수신 알림 방법 및 이를 지원하는 전자 장치
WO2019146997A1 (ko) 안테나의 위상을 스윕하기 위한 전자 장치
WO2019172610A1 (ko) 오디오 모듈을 이용하여 결제를 수행하는 전자 장치 및 방법
WO2020071647A1 (ko) 도전성 접착 부재를 통해 디스플레이와 도전성 지지부재를 연결하는 구조를 갖는 전자 장치
WO2019172633A1 (ko) 스피커의 온도를 감지하기 위한 전자 장치 및 그의 동작 방법
WO2019199153A1 (ko) 전자 장치 및 이의 스테레오 오디오 신호 처리 방법
WO2019107973A1 (ko) 오디오 신호의 음량에 따라 설정된 해상도에 기반하여, 오디오 신호를 처리하는 방법 및 그 전자 장치
WO2022005248A1 (ko) 주변 오디오 신호의 감지 방법 및 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18852277

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18852277

Country of ref document: EP

Kind code of ref document: A1